El uso de la inteligencia artificial (IA) para crear pornografía infantil en línea crecerá de manera exponencial y las imágenes falsas harán cada vez más difícil identificar a las verdaderas víctimas, alertó el lunes la agencia policial europea.
Los delincuentes ya utilizan herramientas de IA para llevar a cabo delitos que van desde el fraude en línea y los ciberataques hasta la creación de imágenes explícitas de menores, advirtió Europol.
En un informe de 37 páginas, la agencia señaló que ya existen denuncias de “material de abuso sexual infantil asistido y generado por la IA”.
“El uso de IA que permite a los agresores sexuales de menores generar o alterar material de abuso sexual infantil está destinado a proliferar aún más en un futuro próximo”, advirtió el organismo, con sede en La Haya.
La IA contribuye a la cosificación y sexualización de los niños, incluso con contenido artificial
Las imágenes de abuso creadas por la IA; “incrementan la cantidad de material ilícito en circulación y complican la identificación de las víctimas y de los autores”.
Más de 300 millones de niños fueron víctimas de explotación y abusos sexuales en Internet en el último año; según una investigación de la Universidad Británica de Edimburgo en mayo.
Los delitos van desde la llamada sextorsión, en la que los depredadores exigen dinero a las víctimas para mantener las imágenes en privado; hasta el abuso de la IA para crear deepfakes, videos que no son reales, según el Childlight Global Safety Institute de la universidad.
El auge de la IA ha provocado crecientes temores en el mundo por la posibilidad de que se utilice con multas malintencionadas.
“El volumen de material sexual autogenerado constituye ahora una parte significativa y creciente del material sexual en línea de abusos a menores”; declaró Europol.
“Incluso en los casos en que el contenido es totalmente artificial y no se representa a ninguna víctima real, el material de abuso sexual infantil generado por IA sigue contribuyendo a la cosificación y sexualización de los niños”; advirtió.