Reportaje

La inteligencia artificial desnuda la baja educación de los menores

La eclosión de aplicaciones capaces de quitar la ropa a cualquiera a través de la IA, "deepfakes", como la usada por un grupo de niños de Almendralejo para desnudar a sus compañeras, menores de edad, ilustra un nuevo y alarmante método de violencia digital contra las mujeres, para la que expertos asturianos aconsejan el sentido común y la regulación, cortafuegos 

Robot hand showing background, 3D AI technology side view

Robot hand showing background, 3D AI technology side view

Carles Planas / T. Pertierra / Helena López

En junio de 2019, el medio estadounidense "Vice" denunció la existencia de DeepNude, una "horrible" aplicación que podía desnudar a cualquier mujer. El usuario solo tenía que colgar una foto de la víctima, pagar 50 dólares y esperar a que la inteligencia artificial (IA) del programa se encargase de quitarle la ropa. Los resultados eran tan creíbles que su uso se disparó, pero el alud de críticas recibidas obligó a sus creadores a cerrar el proyecto a las pocas horas.

Cuatro años después, el problema es mucho mayor. DeepNude desapareció, pero en su lugar han surgido decenas de otras aplicaciones similares. Una de esas es la que ha utilizado un grupo de niños de Almendralejo (Badajoz) para desnudar sin consentimiento a sus compañeras de colegio, menores de edad. "La imagen es superrealista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo Onlyfans", explica Miriam Al Adib, madre de una de las víctimas.

El caso ilustra un nuevo método de violencia digital contra las mujeres cada vez más popular. Un simple vistazo a Google Trends es suficiente para constatar como las búsquedas sobre esas aplicaciones se han disparado durante el último año. "Es un fenómeno que empieza a preocupar muchísimo porque no hay ningún tipo de regulación sobre ello y es muy difícil tanto cuantificar el uso de imágenes que circulan como identificar a quienes lo hacen", explica Eva Cruells, coordinadora de la línea de atención de Fembloc, una iniciativa feminista contra las violencias machistas digitales.

En un principio, este tipo de contenidos manipulados –conocidos como deepfakes– apuntaban principalmente contra mujeres famosas. Los rostros de Gal Gadot, Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos. En enero de 2021 se habían detectado más de 82.000 de esos vídeos ilícitos, según un recuento de la compañía "Sensity". Aunque es muy difícil de contabilizar, las cifras actuales serían muy superiores.

Ese auge se debe a la normalización del mercado de la inteligencia artificial, en plena expansión. Es en ese contexto que han florecido multitud de aplicaciones que intentan hacerse un hueco a costa de desnudar a chicas sin consentimiento. Su uso es cada vez más sencillo y sus resultados, más creíbles. Esa suma de factores ha facilitado que está tecnología pueda ser usada de forma problemática por todo tipo de públicos.

Los personajes públicos, como Rosalía o la influencer Laura Escanes, siguen estando en la diana de esos ataques. Sin embargo, la facilidad de acceso a esos programas está propagando su impacto a todo tipo de mujeres, también niñas, como muestra el caso de Almendralejo. "El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes", añade Cruells.

Esta forma de violencia digital de género puede golpear la salud mental de las víctimas. Un 54% de las mujeres que han sufrido acoso en internet han experimentado ataques de pánico, ansiedad o estrés, mientras que un 42% de las jóvenes han mostrado estrés emocional, baja autoestima y pérdida de autoconfianza, según un estudio del Observatorio Nacional de Tecnología y Sociedad (Ontsi) del año pasado. "Así es sentirse violado, así es sentirse explotado", denunció en enero la streamer QTCinderella, víctima de los deepfakes.

Aunque se trate de una simulación, la distribución de contenidos sexuales de esta índole es un delito. Incluso podría tratarse de pornografía infantil si afecta a una menor. Es por eso que desde Fembloc aseguran que la denuncia pública es una buena práctica para exponer el impacto que tiene y para "apelar al sentido común". "Hay que sensibilizar mucho y generar una comunidad que rechace este tipo de agresión", añade Cruells.

Recrear imágenes sexuales falsas es ilegal, pero aun así es muy fácil encontrar este tipo de contenidos en internet. En una búsqueda rápida en Google aparecen todo tipo de enlaces, desde los que recomiendan las mejores aplicaciones de IA para crear desnudos a portales donde se cuelgan.

El filósofo Eduardo Infante, profesor en un instituto de Gijón, apunta a LA NUEVA ESPAÑA qu "la noticia me recuerda a un viejo caso: Pericles y Protágoras permanecieron un día discutiendo sobre quién era el culpable de un accidente en el que un atleta había matado con el lanzamiento de su jabalina a uno de los espectadores ¿Sería el lanzador o los organizadores de la competición, que no garantizaron la seguridad de los espectadores o la misma jabalina? Parece ser que la discusión terminó sin acuerdo... ¿De quién es la culpa en el caso que nos atañe a nosotros de la IA, de lo chavales, de los educadores y de los padres, de los programadores, de los políticos por no haberlos regulado?"

El debate, señala, "es muy interesante. Lo que sí está claro es que deberíamos proteger y regular el acceso de lo menores a este tipo de tecnología como así hacemos con los fármacos, el alcohol, el juego, la conducción de vehículos, etcétera".

Explica que "nadie en su sano juicio dejaría conducir un coche a un niño y sin embargo les dejamos, sin ningún tipo de supervisión ni de formación, acceso a una tecnología mucho más potente y lesiva. Los jóvenes aún no han tenido tiempo de formar su razonamiento moral y, encima, nuestros políticos han suprimido la ética de la enseñanza obligatoria por asignaturas que forman "el espíritu emprendedor".

"Lo que me asombra", indica, "es que nos asombre que ocurran cosas como estas. Una cosa es enseñar a usar un instrumento y otra cosa bien distinta (y superior) es enseñar a usar ese instrumento al servicio de fines éticos, esto es, fines buenos para la vida humana. Este tipo de conocimiento lo proporciona la ética".

Por su parte, la sexóloga asturiana Soraya Calvo recuerda que "l acceso a la tecnología es algo con lo que vamos a tener que convivir cada día de manera más intensa. La IA ha llegado para quedarse y la única forma de controlar su desarrollo sería con legislación (nacional, europea...) que podría evadirse tal y como se hace con otras normas. Supongo que no hay una solución rápida a este problema, pero estoy segura de que todas las existentes pasan por incorporar la alfabetización mediática crítica en las aulas".

A eso, añade, "debemos de sumarle que la coeducación y la educación sexual son las otras protagonistas en esta ecuación, y que llevamos denunciando muchos años la inexistencia real de estos contenidos en el currículum reglado. Obviamente la educación formal no es la panacea, pero si es la forma más equitativa de garantizar unos mínimos universales que traten las cuestiones más urgentes, como la prevención de la violencia machista. Tenemos un horizonte que debemos afrontar siendo conscientes de que los menores tienen acceso a tecnologías muy sofisticadas y que no podemos hacer oídos sordos a esta realidad".

¿Pueden casos como el de Almendralejo hacer un daño irreparable en las víctimas? Calvo matiza que "eso es muy personal, y que victimizar tampoco es la clave para entender mi solucionar estos problemas. De todas maneras es evidente que hay personas a las que esto les puede suponer una dificultad emocional que debemos abordar". Es partidaria de que haya una regulación, "es importante que se apliquen normativas que eviten el uso de las tecnologías para discriminar, acosar o violentar; pero creo que este control es complejo".

Más casos

La Policía Nacional recibió el viernes dos denuncias en Alcalá de Henares por la difusión de fotografías de menores que fueron presuntamente desnudadas mediante un programa de inteligencia artificial. Los agentes han identificado al presunto autor de los hechos, también menor, pero no fue detenido. Estas denuncias se suman a las registradas por casos similares en Almendralejo (Badajoz) y Ayamonte (Huelva). En Almendralejo se han denunciado 22 casos, aunque no se descarta que pueda haber más, y se ha identificado a varios de los presuntos autores.

En Ayamonte está siendo investigado un menor como presunto autor de un delito contra la intimidad.

[object Object]

El caso de las menores de Almendralejo, víctimas de falsos desnudos generados con inteligencia artificial por sus compañeros de clase, evidencia la especial vulnerabilidad de las chicas en internet y la urgencia de un plan de choque de educación sexual en las escuelas.

Helena López

Ya no es algo (horrible) que le puede pasar y pasa solo a celebridades o influencers como Rosalía ["es un tipo de violencia y da asco", dijo cuando le sucedió] o Laura Escanes ("el cuerpo de una mujer no se utiliza", respondió dolida cuando le tocó a ella). La denuncia de decenas de niñas en Almendralejo de que sus falsos desnudos creados por inteligencia artificial circulaban por el pueblo ha vuelto a poner sobre la mesa la vulnerabilidad de las chicas en internet, la urgencia de un plan de choque para dar a la educación sexual en la escuela la importancia que merece, y el limbo legal en el que se encuentran este tipo de aplicaciones.

[object Object]

¿Son legales las aplicaciones ("app") que desnudan con IA? Las letradas Júlia Bisquert y Natalia Montesinos señalan que ahora mismo existe un vacío legal, "en tanto que estas aplicaciones son tan nuevas que no ha habido tiempo de regular sobre las mismas". "En cualquier caso, los objetivos para los que se están utilizando sí son perseguibles", apuntan las juristas. Su colega Júlia Humet añade la dificultad que supone que las leyes estén a años luz de la realidad actual.

"El Código Penal dice que es delito difundir imágenes pornográficas de menores; aunque la imagen no sea real, así que no hay duda; pero, en cambio, la pornografía adulta no está prohibida: en cuanto a las víctimas mayores hay un limbo. Aunque las imágenes sean falsas, tendría que ser un delito, ya que se está vulnerando tu intimidad, pero es algo nuevo que el Código Penal no tenía previsto", reflexiona.

[object Object]

¿Es legal difundir fotos falsas de mujeres desnudas? "Es complicado y discutible, pero estas conductas podrían intentar encajarse en un delito de revelación de secretos del artículo 197 del Código Penal, o de pornografía del artículo 189 del Código Penal en el caso de menores", responden las letradas.

[object Object]

¿Qué les puede pasar a los chicos que lo han hecho? En el caso de que los autores fueran mayores de edad, "si se lograra una condena por revelación de secretos, las penas oscilarían de 1 a 4 años de prisión, y una multa de 12 a 24 meses. Por pornografía, la pena de prisión es de 1 a 5 años", responden Bisquert y Montesinos. A los autores menores de edad, en cambio, añaden, se les aplica la ley orgánica 5/2000, y en vez de cárcel, se les aplicarían las medidas del artículo 7, que están orientadas a la reeducación.

[object Object]

¿Qué hacer ante un caso de este tipo? "Denunciarlo per la vía penal, por un lado, y, por el otro, ponerlo en conocimiento del instituto, en el caso de las menores, por si existe un protocolo interno de actuación", responden Montesinos y Bisquert. "Es un ejemplo más de la falta que hace la educación sexual en las aulas, de lo importante que es la prevención", añade convencida Humet.

[object Object]

La importancia de la educación afectivosexual en la escuela. La psicopedagoga Mirta Lojo señala que lo que realmente preocupa es "la actitud de los chicos".

"La violencia digital contra estas chicas pone de manifiesto un continuum social que comienza con un chiste machista, pasa por una publicidad que utiliza el cuerpo de las mujeres y por una pornografía que normaliza la violencia contra las mujeres", apunta la experta, quien añade que, aunque las causas del caso de Extremadura son multidimensionales, "existen cuestiones de base que conviene no retrasar".

"La educación afectivosocial en los centros educativos debe empezar en la educación infantil, continuar en la primaria y seguir en la secundaria. También es necesario interrogarse sobre quién y por qué se obstaculiza esta implementación o, en el mejor de los casos, no tiene la consideración de prioritaria", añade, recordando que "el trabajo específico desde los centros escolares no es fácil ni rápido y hay muchas resistencias tanto por parte de los alumnos a partir aproximadamente de los 12 o 13 años como también de los profesores, que ven amenazados sus privilegios".

Suscríbete para seguir leyendo