El Fondo de las Naciones Unidas para la Infancia (Unicef) detectó que un alumno o alumna de cada aula en al menos 11 países reconoció haber sido afectado por imágenes hiperrealistas generadas por inteligencia artificial (IA) con contenido sexual explícito, incluida la desnudez.
Los hallazgos de un nuevo censo, difundido ayer revelan que 1.2 millones de niños y adolescentes han sufrido este tipo de agresión. En una nueva declaración sobre los riesgos de la IA, el organismo de Naciones Unidas alerta que las “imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas”, por lo que deben ser sancionadas en las legislaciones locales.
En México, si bien se cuenta con un marco legal que protege la imagen y voz de los menores, no incluye la IA. Lo anterior, pese a que 50 por ciento de los niños de 6 a 11 años navega en Internet, cifra que se eleva a 94 por ciento en la población de 12 a 17 años, de acuerdo con datos oficiales.
Al respecto, Juan Martín Pérez García, coordinador de Tejiendo Redes Infancia en América Latina y el Caribe, destacó que los entornosdigitales “son una realidad para todos, pero el problema no son los usuarios, sino la falta de regulación de empresas tecnológicas”.
En entrevista con La Jornada, advirtió que “optar por un modelo que limita el acceso de niñas, niños y adolescentes (NNA) a las redes sociales no sólo viola sus derechos a la libertad de expresión e información, también es una expresión profundamente punitiva y adultocéntrica. Castigamos a los NNA de algo que nosotros sí hacemos, y al que les dimos acceso con tabletas y celulares, cuando el problema de fondo es quién diseña y controla el algoritmo”.
Aplicaciones favorecen una visión sexista
Consideró que ante los llamados de diversos organismos de Naciones Unidas para regular la IA, “se debe convocar a un gran debate sobre la materia, y poner el acento en la gobernanza global, los derechos digitales, la transparencia del algoritmo y la aplicación de sanciones claras y contundentes a las empresas tecnológicas que lo incumplan”, tras destacar la creación de aplicaciones que favorecen una visión sexista de las niñas y mujeres, con la posibilidad de crear, por código abierto, contenido sexual explicito hiperrealista, a través de imágenes y videos falsos.
En su declaración, Unicef expresa su “profunda preocupación” ante el rápido aumento de un número creciente de imágenes sexualizadas generadas por IA que circulan en Internet, fotografías de niños y niñas manipuladas y sexualizadas.
Agrega que los deepfakes –imágenes, videos o grabaciones de voz generados o manipulados por (IA) con apariencia de realidad– se están utilizando cada vez más para crear contenido sexual de niños y niñas.
Destaca que un material generado por IA que muestre abusos sexuales de menores de edad “normaliza la explotación sexual infantil, e impulsa la demanda de contenidos abusivos”.
Por ello, Unicef subraya que entre las acciones urgentes para los estados se encuentra ampliar la definición de imágenes de abusos sexuales de niños y niñas, incluyendo el contenido generado por IA, así como penalizar su creación, adquisición, posesión y distribución.
A ello se suma el que los desarrolladores deban aplicar enfoques de seguridad desde el diseño y medidas sólidas de salvaguarda, con el fin de evitar el uso indebido de los modelos de IA.