La petición de UNICEF para penalizar la creación de contenidos de abuso sexual infantil generados por inteligencia artificial tiene implicaciones directas para las políticas de protección de menores y para las autoridades locales responsables de investigar y perseguir estos delitos.
La agencia aseguró estar alarmada por el aumento de imágenes creadas con IA que sexualizan a niños y pidió a los Estados que tipifiquen penalmente su producción.
UNICEF instó también a los desarrolladores a aplicar medidas de seguridad desde el diseño y solicitó a las empresas digitales reforzar la moderación de contenidos e invertir en tecnologías de detección para impedir la circulación de esas imágenes.
La agencia advirtió que el daño causado por los deepfake —imágenes, vídeos y audios generados por IA que imitan a personas reales— es real y urgente, y que los niños no pueden esperar a que la legislación se actualice.
Asimismo expresó preocupación por el uso de la IA para quitar o alterar la ropa en fotografías con el fin de crear falsos desnudos o imágenes sexualizadas; según UNICEF, al menos 1,2 millones de niños en once países reportaron haber sufrido manipulaciones de sus imágenes con ese fin en el último año.
Gran Bretaña anunció que planea ilegalizar el uso de herramientas de IA para crear imágenes de abuso sexual infantil, convirtiéndose en el primer país en adoptar esa medida.
La atención pública se ha centrado también en chatbots como Grok, de xAI, que fue señalado por generar imágenes sexualizadas de mujeres y menores pese a advertencias de usuarios sobre la falta de consentimiento.
Investigaciones independientes indicaron que el chatbot continuó produciendo esas imágenes a pesar de las advertencias; la empresa afirmó haber restringido la edición de imágenes en Grok y bloqueado, según la ubicación, la generación de personas con ropa reveladora en jurisdicciones donde es ilegal, sin precisar los países, y había limitado previamente esas funciones a suscriptores de pago.
Fuente: contactonoticias.com.mx
