jueves, abril 9, 2026

La IA representa un riesgo para las infancias y necesitan protección

La Inteligencia Artificial también representa un riesgo para las infancias. De acuerdo con datos de la organización WeProtect Global Alliance, entre 2020 y 2022 se registró un aumento del 360% en las imágenes sexuales autogeneradas de niños de siete a 10 años, demostrando que la IA puede tener un fuerte impacto negativo.
“Se trata de un tema clave en la agenda mundial”, comenta Iain Drennan, director ejecutivo de WeProtect Global Alliance, la iniciativa más grande enfocada en combatir el abuso infantil y que cuenta con 102 países miembros, además de empresas y organizaciones de la sociedad civil. “Los productos de IA se incorporaron al mercado muy rápidamente, pero los criminales también empezaron a explotarlos como lo hacen con cualquier tecnología nueva”.
El especialista resalta que en el cuarto informe de Evaluación de Amenazas Globales de la organización se dieron cuenta de que los contenidos creados a partir de IA están haciendo más complicada la reacción de las autoridades, pues no saben cómo identificar si se trata de un niño o una imageny, por lo tanto, tampoco saben cómo ejecutar un procedimiento para rescatarlos en caso de ser necesario.
Los casos de creación de deepfakes sexuales se convirtieron en un fuerte problema para la vida digital durante este año. En países como España o en México las víctimas sufruieron de la proliferación de imágenes en contextos sexuales, lo cual alimenta el delito de las extorsiones.
Al respecto, Drennan señala que se llegó a un punto donde los peligros en internet se combinan para generar grandes ofensivas mucho más profundas, pues inicia con el grooming (que es crear perfiles falsos para ganar la confianza de menores) y continúa hasta pedir imágenes de los jóvenes que son utilizadas para crear deepfakes sexuales con la finalidad de chantajearlos de alguna manera.
Ante este tipo de dinámicas, las grandes compañías de tecnología, como Meta, Apple o Google, entre otras, han implementado diversas medidas para evitar la propagación de este tipo de contenido, sin embargo, Drennan resalta que no ha sido suficiente y en realidad es necesario un enfoque de mayor claridad por parte de las empresas.
“Lo que necesitamos es transparencia para entender qué están haciendo estas empresas, qué impactos tienen sus esfuerzos y dónde se necesita hacer más”, comenta y resalta que según sus estudios, todavía no existe suficiente información para determinar si las medidas de las empresas están funcionando.
Por otro lado, los esfuerzos de regulación también han sido insuficientes. Durante este año, Australia implementó esfuerzos que obligan a las grandes empresas de tecnología a tomar medidas para garantizar que los productos de inteligencia artificial no puedan usarse para generar imágenes y videos falsos de abuso sexual infantil.

Publicidad




Otras noticias