DestacadasNoticias recientes

Unicef alerta: 1 de cada 25 menores de edad ha sido víctima de imágenes deepfake creadas con IA

156
menores de edad imágenes ia
Ilustración: Majito Vázquez/Ruido en la Red.
Anuncios

Una foto de tus hijos o sobrinos que subiste a redes sociales de manera inofensiva, podría ser manipulada con herramientas de Inteligencia Artificial (IA) para crear contenido sexual. 

De hecho, esto ya le ocurre a uno de cada 25 menores de edad, lo que equivale a un alumno en cada aula escolar promedio, de acuerdo con un informe del Fondo de las Naciones Unidas para la Infancia (Unicef).

Anuncios

A nivel mundial, alrededor de 1.2 millones de niñas, niños y adolescentes dijeron haber sido afectados por imágenes creadas con IA: a sus fotos originales les retiraron o modificaron la ropa hasta lograr sexualizarlos o crear desnudos falsos.

 Hasta ahora, se tienen identificados 11 países en los que se comete esta práctica –conocida como deepfake–, entre los que se encuentran México, Brasil, Colombia y República Dominicana. 

Anuncios

El riesgo no es menor. Unicef señaló en su informe la creació, publicación y divulgación de imágenes sexualizadas de menores creadas con IA son una forma de abuso sexual infantil. “Aunque las imágenes sean falsas, el daño que causan es absolutamente real”, enfatizó el organismo internacional. 

De hecho, dos de cada tres niños en los países de mayor incidencia expresaron estar preocupados de que sus  IA para falsificar imágenes o vídeos suyos con carácter sexual. Los niveles de preocupación varían ampliamente entre países, lo cual subraya la urgente necesidad de aumentar la concienciación y las medidas de prevención y protección.

Además, los riesgos pueden agravarse cuando las herramientas de IA se integran directamente a las redes sociales, donde las imágenes manipuladas pueden difundirse con rapidez.

En la actualidad, países como México, Estados Unidos, Inglaterra y España tienen leyes que sancionan la sexualización y manipulación de imágenes con IA. Sin embargo, hay retos en la implementación, pues no dejan de considerarse imágenes “falsas” –lo que pone en duda el carácter de víctima–, y el carácter digital y anónimo de la IA hace difícil identificar al autor material del deepfake.

En este sentido, Unicef señala que, incluso si no existe una víctima o agresor identificable, un material generado por IA que muestre abusos sexuales de niños y niñas normaliza la explotación sexual infantil e impulsa la demanda de contenidos abusivos.

Así que urgió a los gobiernos a ampliar en sus leyes para incluir el contenido generado por IA como abuso sexual infantil, así como penalizar su creación, adquisición, posesión y distribución.

También sugirió a los desarrolladores de IA aplicar enfoques de seguridad desde el diseño. Mientras que las empresas digitales deben evitar la circulación de imágenes de abusos sexuales de niños y niñas, y no limitarse a eliminarlas una vez se han difundido el contenido. 

“Los niños y niñas no pueden esperar a que la legislación se actualice”, enfatizó Unicef.

Anuncios