La propuesta señala que las imágenes de abuso sexual infantil generadas por IA son ilegales. Con la iniciativa protegerá a los niños
El gobernador de California, Gavin Newsom, firmó una propuesta destinada para proteger a los menores de edad, sobre el uso indebido de herramientas de inteligencia artificial (IA) que se utilizan para generar imágenes sexuales de niños, las cuales son dañinas.
Esta propuesta forma parte de los esfuerzos concertados de California para intensificar las regulaciones en torno a esta industria que afecta cada vez más la vida diaria de los estadounidenses. California es vista ampliamente como un líder potencial en la regulación de la industria de la inteligencia artificial en EE.UU.
La pornografía infantil es ilegal aunque sea con IA
Las nuevas leyes, que recibieron un apoyo bipartidista abrumador, cierran un vacío legal en torno a las imágenes de abuso sexual infantil generadas por IA y dejan en claro que la pornografía infantil es ilegal, incluso si está generada por IA, informó The Associated Press.
La ley actual no permite a los fiscales de distrito perseguir a personas que poseen o distribuyen imágenes de abuso sexual infantil generadas por inteligencia artificial si no pueden demostrar que los materiales representan a una persona real, dijeron los partidarios.
Aunque ahora, según las nuevas leyes, realizar a través de IA imágenes de niños siendo abusados sexualmente o pornográficos, este delito se consideraría grave.
Las imágenes de IA se crean de niños reales
“La creación, posesión y distribución de material sobre abuso sexual infantil debe ser ilegal en California, ya sea que las imágenes sean generadas por IA o de niños reales”, dijo en una declaración el asambleísta demócrata Marc Berman, autor de uno de los proyectos de ley.
“La IA que se utiliza para crear estas horribles imágenes se entrena a partir de miles de imágenes de niños reales que sufren abusos, lo que vuelve a victimizar a esos niños”, añadió.
AP recordó que a principios de este mes, Newsom también firmó otros dos proyectos de ley para fortalecer las leyes sobre la pornografía vengativa con el objetivo de proteger a más mujeres, adolescentes y a otras personas de la explotación y el acoso sexual que permiten las herramientas de inteligencia artificial.
Ahora será ilegal que un adulto pueda crear o compartir deepfakes sexualmente explícitos generados por inteligencia artificial de una persona sin su consentimiento, según las leyes estatales. Las plataformas de redes sociales también deben permitir a los usuarios denunciar dichos materiales para su eliminación.
Crear con IA imágenes de desnudos de adultos
Las leyes surgen después de que San Francisco presentara una demanda, contra más de una docena de sitios web que utilizan herramientas de inteligencia artificial con la promesa de “desnudar cualquier foto” cargada en el sitio web en cuestión de segundos.
El problema de los deepfakes no es nuevo, pero los expertos afirman que está empeorando a medida que la tecnología para producirlos se vuelve más accesible y fácil de usar.
El gobernador Newsom ha promocionado a California, como uno de los primeros estados en adoptar y también como regulador de la tecnología de IA.