top of page
Search

Pornografía infantil creada con Inteligencia Artificial

Los expertos en seguridad infantil son cada vez más impotentes para evitar que miles de “imágenes de pornografía infantil generadas por IA” se creen fácil y rápidamente, y luego se compartan a través de los foros de pedofilia de la dark web, informó The Washington Post.


Esta “explosión” de imágenes realistas “inquietante” podría ayudar a normalizar la explotación sexual infantil, atraer a más niños al peligro y hacer que sea más difícil para las fuerzas del orden encontrar niños reales perjudicados, dijeron los expertos al Post.



Encontrar víctimas representadas en materiales de abuso sexual infantil ya es un "problema de una aguja en un pajar”, dijo al Post Rebecca Portnoff, directora de ciencia de datos del grupo sin fines de lucro de seguridad infantil Thorn. Ahora, la aplicación de la ley se retrasará aún más en las investigaciones mediante los esfuerzos para determinar si los materiales son reales o no.


Los materiales de IA dañinos también pueden volver a victimizar a cualquier persona cuyas imágenes de abuso pasado se utilicen para entrenar a los modelos de IA para generar imágenes falsas.


“Las imágenes de los niños, incluido el contenido de víctimas conocidas, están siendo reutilizadas para esta producción realmente malvada”, dijo Portnoff.


Normalmente, el contenido de las víctimas conocidas puede ser bloqueado por herramientas de seguridad infantil que hash las imágenes reportadas y detectan cuándo se vuelven a compartir para bloquear las cargas en las plataformas en línea. Pero esa tecnología solo funciona para detectar imágenes reportadas anteriormente, no imágenes recién generadas por IA. Tanto los expertos en aplicación de la ley como los expertos en seguridad infantil informan que estas imágenes de IA se están popularizando cada vez más en los foros de pedófilos de la web oscura, y muchos usuarios de Internet ven “erróneamente” este contenido como una alternativa legalmente gris al comercio de materiales ilegales de abuso sexual infantil (CSAM).


“Alrededor del 80 por ciento de los encuestados” a una encuesta publicada en un foro de la web oscura con 3.000 miembros dijeron que “habían utilizado o tenían la intención de usar herramientas de IA para crear imágenes de abuso sexual infantil”, informó en mayo ActiveFence, que crea herramientas de confianza y seguridad para plataformas en línea y sitios de transmisión.


Mientras que algunos usuarios que crean imágenes de IA e incluso algunos analistas legales creen que este contenido no es ilegal porque no se daña a ningún niño real, algunos funcionarios del Departamento de Justicia de los Estados Unidos le dijeron al Post que las imágenes de IA que sexualizan a menores siguen violando las leyes federales de protección infantil. Sin embargo, no parece haber precedentes, ya que los funcionarios no pudieron citar un solo caso anterior que resultara en cargos federales, informó el Post.


A medida que las autoridades se vuelven más conscientes del creciente problema, se advierte al público que cambie los comportamientos en línea para evitar la victimización. A principios de este mes, el FBI emitió una alerta, “advirtiendo al público de los actores maliciosos que crean contenido sintético (comúnmente conocido como ‘deepfakes’) mediante la manipulación de fotografías o videos benignos para atacar a las víctimas”, incluyendo informes de “niños menores de edad y adultos que no dan su consentimiento, cuyas fotos o videos fueron alterados en contenido explícito”.


Estas imágenes tampoco solo se están difundiendo en la web oscura, sino en “las redes sociales, foros públicos o sitios web pornográficos”, advirtió el FBI. La agencia culpó a los recientes avances tecnológicos del aumento de los deepfakes maliciosos porque las herramientas de IA como Stable Diffusion, Midjourney y DALL-E se pueden utilizar para generar imágenes realistas basadas en indicaciones de texto simples. Estos avances están “mejorando continuamente la calidad, la personalización y la accesibilidad de la creación de contenido habilitado para la inteligencia artificial (IA)”, advirtió el FBI.


“Una vez que circula, las víctimas pueden enfrentarse a desafíos significativos para evitar el intercambio continuo del contenido manipulado o la eliminación de Internet”, dijo la alerta del FBI. “Esto los deja vulnerables a la vergüenza, el acoso, la extorsión, las pérdidas financieras o la continua revictimización a largo plazo”.


Algunas empresas detrás de los generadores de imágenes de IA han intentado luchar contra el contenido malicioso restringiendo miles de palabras clave, pero el informe de ActiveFence indicó que los usuarios de las guías comerciales de los foros de pedófilos de la web oscura detallan cómo evitar las restricciones de palabras clave y otras salvaguardas. Algunas herramientas, como Stable Diffusion, aparentemente se basan en herramientas de código abierto que pueden hacer que las imágenes generadas por la herramienta sean más difíciles de rastrear y vigilar en línea, informó el Post. La IA de estabilidad, que creó la difusión estable, no registra todas las imágenes de difusión estable como lo hacen otras herramientas de IA como Midjourney y DALL-E, informó The Post.


Stability AI le dijo al Post que prohíbe la creación de contenido obsceno, coopera con las fuerzas del orden para encontrar infractores de sus políticas y “ha eliminado material explícito de sus datos de capacitación” para evitar futuros intentos de crear contenido obsceno.


Sin embargo, el Post informó que estas soluciones son imperfectas porque “cualquiera puede descargar” Stable Diffusion “en su ordenador y ejecutarlo como quiera”. En ese momento, las medidas de seguridad, como los filtros de imagen explícitos, se pueden omitir fácilmente con solo agregar unas pocas líneas de código, que los usuarios aparentemente pueden aprender leyendo una guía de la dark web

sobre el uso de herramientas de IA para este propósito.


El FBI instó a los padres a ser conscientes de los peligros, limitar lo que comparten los menores y monitorear a quién se le permite ver el contenido de los menores en línea. La agencia señaló recursos de hash como Take It Down, operado por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), para informar sobre el contenido y eliminarlo, pero eso no bloqueará ninguna imagen generada por IA que pueda ser creada a continuación por herramientas de IA potencialmente entrenadas en la imagen.


Se necesitan soluciones más creativas a medida que el problema empeora. El Post informó que en los últimos meses, NCMEC ha publicado “un fuerte aumento de los informes de imágenes generadas por IA”, así como más “informes de personas que suben imágenes de abuso sexual infantil a las herramientas de IA con la esperanza de generar más”.


¿Las imágenes de IA violan las leyes de protección infantil?


Dos funcionarios de la Sección de Explotación y Obscenidad Infantil del Departamento de Justicia de los Estados Unidos dijeron a The Washington Post que las imágenes generadas por la IA que representan a “menores involucrados en una conducta sexualmente explícita” son ilegales bajo al menos dos leyes estadounidenses.


Una ley “hace que sea ilegal que cualquier persona produzca, distribuya, reciba o posea a sabiendas con la intención de transferir o distribuir representaciones visuales, como dibujos, caricaturas o pinturas que parecen representar a menores involucrados en una conducta sexualmente explícita y se consideran obscenas”. La otra ley “define la pornografía infantil como cualquier representación visual de una conducta sexualmente explícita que involucre a un menor”, incluidas las “imágenes generadas por ordenador indistinguibles de un menor real”.



En los EE. UU., ha habido al menos un caso reciente en el que la creación de “imágenes “deepfaked” sexualmente explícitas” de menores dio lugar a cargos penales. El fiscal de distrito del condado de Nassau en Long Island, Nueva York, anunció en abril que “un hombre de Seaford”, Patrick Carey, de 22 años, fue condenado a “seis meses de encarcelamiento y 10 años de libertad condicional con condiciones significativas de delincuentes sexuales” después de que 11 mujeres informaran de imágenes falsas profundas subidas a sitios porno que él creó utilizando fotos de menores de edad tomadas en la escuela secundaria y preparatoria que las víctimas habían publicado en línea.


En ese momento, sin embargo, la fiscal de distrito del condado, Anne T. Donnelly, propuso que se necesitaba una nueva legislación para proteger a las futuras víctimas, señalando que “el estado de Nueva York actualmente carece de los estatutos penales adecuados para proteger a las víctimas de la pornografía “deepfake”, tanto para adultos como niños”.


Fuera de los EE. UU., ActiveFence, en su informe de mayo de 2023, señaló que la Ley de Protección de los Niños del Reino Unido, la Ley del Código Penal de Australia y el Código Penal de Canadá parecen incluir imágenes generadas por la IA en las prohibiciones de materiales que representan o promueven la actividad sexual con un menor.


En Canadá, según se informa, hasta ahora ha habido al menos un arresto. Un hombre de Quebec de 61 años, Steven Larouche, fue condenado a más de tres años de prisión después de ser acusado de crear pornografía infantil generada por IA, informó CBC News.


Larouche se declaró culpable de crear siete vídeos al superponer las caras de los niños en los cuerpos de otras personas, después de argumentar a favor de una sentencia más ligera porque ningún niño resultó herido.


Según se informa, el juez en ese caso, Benoit Gagnon, escribió en su fallo que había mucho daño a los niños. Los niños cuyas fotos se usaron fueron perjudicados, dijo Gagnon, así como los niños perjudicados por el creciente mercado de dicho contenido de IA y cualquier niño victimizado por cualquier persona cuyas “fantasías” fueron “impulsadas” por la avalancha de imágenes de IA que normalizan la actividad ilegal en línea.


Gagnon señaló que este era probablemente el primer caso de Canadá “que involucraba deep fake de explotación sexual infantil”. Un experto en explotación infantil dijo a CBC que solo ha habido casos anteriores que han utilizado tecnología más rudimentaria, como Photoshop, para generar imágenes falsas.


¿Se está moviendo de la web oscura a las redes sociales?


Los funcionarios del Departamento de Justicia de EE. UU. dijeron al Post que “cientos de agentes de la ley federales, estatales y locales involucrados en la aplicación de la explotación infantil” “probablemente discutirán” cómo lidiar con el CSAM generado por la IA en una sesión de capacitación nacional este mes. Pero los funcionarios encargados de hacer cumplir la ley no son los únicos que trabajan para encontrar mejores soluciones a este problema.


Los investigadores de IA dijeron al Post que también están buscando formas de innovar soluciones, como imprimir un código en imágenes de IA para que los creadores siempre estén vinculados a su contenido. Eso podría disuadir a algunos de crear contenido obsceno, tal vez.


También hay una propuesta mucho más delicada que solo podría proceder con la aprobación del gobierno. Las empresas podrían entrenar modelos de IA en imágenes falsas de explotación sexual infantil para construir sistemas de detección más sofisticados. Sin embargo, sin las salvaguardias adecuadas, esa ruta podría dar lugar a que las empresas desarrollen modelos de IA que sean aún mejores para producir imágenes aún más realistas.


En este momento, no hay soluciones perfectas. Los proveedores de confianza y seguridad como ActiveFence trabajan para ayudar a las plataformas a detectar el contenido obsceno que todavía se está generando. Sus investigadores monitorean cómo los depredadores infantiles utilizan las herramientas de IA, compartiendo ideas con las empresas de tecnología, como las últimas palabras clave e indicaciones utilizadas para eludir las restricciones de contenido.


El vicepresidente senior de NCMEC de su división de explotación infantil y compromiso internacional, John Shehan, le dijo a Ars que “los delincuentes están probando actualmente las herramientas e intentando crear material”. Dijo que NCMEC anticipa que el CSAM generado por la IA se convertirá en un problema más grande en el futuro y es probable que no siga circulando predominantemente en la web oscura durante mucho tiempo.


“No estoy al tanto del CSAM generado por IA en la red abierta en este momento, pero estoy seguro de que es solo cuestión de tiempo hasta que lo sea”, dijo Shehan a Ars.


El investigador sénior de seguridad infantil de ActiveFence, Guy Paltieli, le dijo a Ars que ese momento puede estar sucediendo ahora. Su equipo ya está viendo “el contenido migrando de los foros de la dark web a la red clara”, encontrando “numerosos ejemplos” en “plataformas de redes sociales convencionales”.


“En algunos casos, se utiliza para anunciar grupos de aplicaciones de mensajería donde se puede encontrar contenido más explícito, mientras que en otros casos, se comparte para enseñar a los usuarios cómo generar contenido similar”, dijo Paltieli a Ars.


Hasta que las leyes estén claras sobre cómo la sociedad debe lidiar con las falsificaciones profundas de explotación sexual infantil, parece que las imágenes obscenas de IA continuarán extendiéndose, aumentando potencialmente la demanda, mientras que las herramientas de IA potencialmente se entrenan en más imágenes ilegales que los usuarios siguen subiendo.


Shehan le dijo a Ars que “NCMEC ha recibido al menos una docena de informes de CyberTipline enviados por empresas con respecto a personas que intentan cargar CSAM conocidos” en generadores de imágenes de IA para influir en el tipo de contenido que se puede crear. Paltieli dijo que uno de los resultados de las empresas que se mueven demasiado lentamente para resolver el creciente problema es la reciente aparición de imágenes aún más explícitas generadas por la IA.


“En los últimos dos meses, hemos visto una escalada en el tipo de contenido que se comparte en las plataformas de redes sociales, que se volvió mucho más explícito de lo que solíamos ver en el pasado”, dijo Paltieli a Ars.


Escrito por • Ashley Belanger para arstechnica.com


Link del artículo original:

 
 
 

Comments


bottom of page