informe

La app ChatGPT, lo último en inteligencia artificial, preocupa a los profesores asturianos: "Los programas antiplagio no detectan si es una copia"

La herramienta escribe textos y resuelve problemas como si fuese una persona pero a sus redacciones aún les falta coherencia | Las autoridades deberían controlar si se producen engaños con esta tecnología

Chatgpt: la Inteligencia Artificial ya está aquí para su uso público

Chatgpt: la Inteligencia Artificial ya está aquí para su uso público / PEXELS

Juan Fernández

Basta pedir en un chat "Hazme una redacción de 300 palabras sobre la Segunda Guerra Mundial" y en menos de un minuto está lista y sin faltas de ortografía. No es magia, es Inteligencia Artificial (IA). La aplicación ChatGPT preocupa a la comunidad educativa por su potencial para desarrollar trabajos sin esfuerzo. En apenas dos meses, la herramienta se ha popularizado tanto que Microsoft anunció una inversión “milmillonaria” para hacerse con el sistema y competir con Google en ver quién tiene el robot más listo.

Esta plataforma de código abierto nació en el seno de la organización sin ánimo de lucro OpenIA, cuyos fundadores son Elon Musk (flamante dueño de Twitter) y Sam Altman (experto en inteligencia artificial). El objetivo es mejorar los sistemas de aprendizaje de las máquinas y acercarlos al gran público. Con ChatGPS han logrado que miles de personas la usen en todo el mundo en tiempo récord. Su éxito radica en tres factores: es gratis (solo requiere un registro), fácil de usar y sus respuestas pueden pasar por las de un humano.

"Cuando lo probé me dejó impresionada. Pusimos una pregunta del Desarme de Oviedo y redactó algo coherente. Podría haberlo escrito cualquier alumno", confiesa Itziar García Honrado, profesora en el área de Didáctica de la Matemática en la Universidad de Oviedo, cuya tesis versó sobre Inteligencia Artificial y computación de palabras.

Aunque no aprecia que los alumnos asturianos ya la usen sospecha que lo podrían intentar pronto. "Es un problema porque las herramientas antiplagio de la Universidad no van a detectar si es una copia ya que el sistema crea redacciones originales en cada respuesta", explica.

"Es un problema porque las herramientas antiplagio de la Universidad no van a detectar si es una copia ya que el sistema crea redacciones originales en cada respuesta"

El funcionamiento de la herramienta se basa en aprendizaje profundo ("Deep Learning"). "Estos sistemas cogen la información de una base de datos inmensa y aprenden fijándose en cómo escriben otras personas. Esto les permite construir frases con toda la información de la que disponen".

El sistema "aún es bastante rudimentario" y el profesorado podría saber si algún alumno lo utiliza porque a los textos a veces les falta coherencia, suele haber errores en el tiempo verbal o demasiadas frases de relleno. Esto ocurre porque esta tecnología aún no ha resuelto lo que la matemática llama "problema del significado". Se refiere a la falta de entendimiento de la máquina y a su incapacidad para interpretar esas palabras que junta para formar frases. Esto hace que la herramienta, por ejemplo, diga de Somao que es "un pequeño pueblo costero situado en el norte de España, en la comarca de la Costera de Asturias". Casi, pero no.

Otro ejemplo: a la hora de redactar textos periodísticos "puede imitar de manera creíble la estructura de los artículos de un periódico, pero no las posibles ramificaciones políticas", concluyó "The New York Times" tras ponerlo a prueba en mayo del año pasado, antes de su lanzamiento.

Aunque le falta mucho que aprender, ChatGPT ha logrado superar la prueba de Historia de Selectividad y aprobar el examen final de la carrera de Administración de Empresas de la MBA.

La Universidad asturiana ve muy improbable que esta tecnología se cuele en los exámenes ya que no están permitidos los dispositivos electrónicos. Sin embargo, sí le ven aplicaciones útiles. "Desde el punto de vista de las matemáticas, si un alumno falla en problemas de potencias, por ejemplo, le pueden pedir a la máquina que se los resuelva y ver cómo es todo el proceso. En este sentido, la herramienta es muy potente porque permite una enseñanza más personalizada", apunta Itziar García.

Chatgpt trae el mundo de ver para no creer

Chatgpt trae el mundo de ver para no creer / Elena M. Chorén / Juan Fernández

Más allá de los buenos usos de la Inteligencia Artificial generativa –así se llama al uso de IA para la creación de contenidos nuevos y originales– nos enfrenta a escenarios inéditos y difusos en los que cada vez va a ser más difícil distinguir la verdad de la mentira y separar lo auténtico de lo falso.

Se anuncian películas protagonizadas por actores irreales cuyos rostros han sido creados por ordenador a partir de la suma algorítmica de miles de caras anónimas, y las firmas de seguridad han empezado a alertar del uso fraudulento de voces de usuarios de servicios bancarios por parte de ciberdelincuentes para manipularlas y simular que han dado órdenes que nunca han dictado.

Dos semanas después del comienzo de la invasión de Ucrania, en los móviles de miles de ucranianos apareció un vídeo de Volodimir Zelenski anunciando la rendición de sus tropas y animando a los soldados a deponer las armas. Elaborado por hackers rusos, el clip tardó pocas horas en ser señalado como falso, pero la maniobra da la medida del potencial de estas herramientas para confundir a la población, infinitamente superior al experimento radiofónico de "La guerra de los mundos" de Orson Welles.

La irrupción en nuestras vidas de la Inteligencia Artificial nos expone como nunca a la falsedad y el engaño. Nos vuelve más tontos y manipulables.

Aunque el campo de batalla es digital, el debate trasciende lo tecnológico y se adentra en el campo de la filosofía, la sociología y la psicología, y obliga a reflexionar sobre cómo nos hemos relacionado con la verdad, la mentira y el derecho a la información a lo largo de la historia y cómo nos relacionaremos en el futuro.

"Si hoy nos cuesta distinguir un vídeo falso de otro verdadero, en el metaverso será aún más difícil"

"Esto es el principio y no solo no tiene marcha atrás, sino que se acelerará en los próximos años", pronostica Silvia Leal, experta en tecnología y tendencias de futuro. "Si hoy nos cuesta distinguir un vídeo falso de otro verdadero, en el metaverso será aún más difícil, porque ahí no lo veremos, sino que lo experimentaremos, y nos costará mucho más reconocer que esa experiencia está basada en mentiras". Falsos recuerdos

Acostumbrados a confiar en lo que nos dicen nuestros ojos, ¿qué efecto tendrá vivir rodeados de impactos que podrían estar distorsionados, en ocasiones con intenciones perversas? "A nivel psicológico es terrible, porque conduce a la creación de falsos recuerdos. Después de habernos tragado tres vídeos fake, instintivamente preferimos creernos un cuarto vídeo manipulado antes que reconocer que nos han engañado", responde Antoni Baena, coordinador del grupo de psicología digital del Colegio de Psicología de Cataluña.

En esa predisposición a dar por bueno todo lo que nos llega por las pantallas cuenta mucho la relación tan íntima que mantenemos con esa ventana al mundo que llevamos en el bolsillo del pantalón. "La digitalización ha sido tan rápida y en tan poco tiempo que hoy confiamos más en las máquinas que en nosotros mismos. Para saber si está lloviendo, preguntamos al móvil en vez de mirar por la ventana, y si no coinciden, tenemos la tentación de creer más a la pantalla", señala el filósofo de la ciencia Jordi Pigem, autor del ensayo "Tècnica i totalitarisme", donde analiza las "consecuencias deshumanizadoras" en la eclosión de la era digital.

La mentira no nació el día en que se grabó el primer bit de información en un disco duro. "Convivimos con ficciones desde que nos reuníamos alrededor de una lumbre para contarnos historias. Sin embargo, en el mundo digital se han disparado las opciones para el engaño, porque la verdad y la falsedad compiten al mismo nivel, nos llegan por la misma pantalla", explica el escritor Juan Jacinto Muñoz Rengel, autor de "Una historia de la mentira", donde rastrea los largos siglos que llevamos dándonos gato por liebre unos a otros. "Ni la mentira fue tan fácil ni tan peligrosa como hoy. Pasa igual con las armas. Hace 2.000 años, con una espada podías matar a un hombre. Hoy tenemos armas para cargarnos el planeta".

La dimensión social y política de la falsedad que circula por la esfera digital, y que las nuevas aplicaciones de IA han venido a perfeccionar, tiene una expresión que hace apenas una década nos habría parecido inimaginable: los hechos alternativos.

En 2017, la consultora norteamericana de tecnologías de la información Gartner calculó que la mitad de los contenidos que encontraríamos en la red en 2022 serían falsos. "No sé si hemos llegado ya a ese nivel, pero las fake news no han parado de aumentar en los últimos años hasta convertirse en una religión. Sobre todo tras la pandemia. Miles de personas en todo el mundo necesitan creer las mentiras que han visto en internet, y que han convertido en el eje de sus vidas. Esto es muy peligroso", avisa el periodista Marc Amorós, autor de varios ensayos sobre el fenómeno de las noticias falsas.

Si mañana se supiera que la mitad del aceite que hay en las cocinas españolas está adulterado, saltarían todas las alarmas. Sin embargo, que buena parte de los contenidos que trasegamos a diario en formato digital sea fraudulenta, parece causar menos espanto.

"Debería preocuparnos y movernos a exigir cambios. Igual que hay herramientas que facilitan la mentira digital, las hay para detectar los engaños. Las autoridades deberían obligar a que se apliquen, y es mejor hacerlo hoy que cuando la Inteligencia Artificial esté más desarrollada", señala Silvia Leal. Para Marc Amorós, las plataformas no pueden mantenerse de perfil en este debate. "Deben implicarse y hacerse responsables de que lo que viaja por sus redes es verdadero y no engaña a sus usuarios".

Condena

En noviembre de 2022, la Audiencia de Barcelona dictó la primera condena en España contra un tuitero por difundir una fake news. Se trataba de un guardia civil que había acusado falsamente a un grupo de menores no acompañados de un centro de Canet de Mar de ser los agresores que aparecen en un vídeo grabado originariamente en China.

La sentencia marca un precedente importante, pero los expertos en cultura digital reconocen que es imposible ir tras todas las mentiras que se vierten en la red con mayor o menor grado de sofisticación y creen que sería más útil poner el foco en los receptores de esos contenidos que en sus creadores.

"Lo único que se puede hacer para luchar contra las fake news es mejorar la alfabetización digital de la población para que aprenda a distinguir la realidad del engaño y se haga responsable cuando busca información en la red, acudiendo solo a fuentes fiables", apunta Amorós.

Según un estudio de la Universidad Carlos III de Madrid, la mitad de los estudiantes de Secundaria es incapaz de distinguir una noticia falsa de una inventada. "Es urgente educarles, y a toda la sociedad, para que tengan más espíritu crítico y no se traguen lo primero que les llega al móvil", recuerda el psicólogo Antoni Baena.

La alternativa es un mundo de engaño y desconfianza. "El peor escenario: cuando la gente piensa que todo es mentira, porque nos anula como sociedad. Es tan malo creérnoslo todo como dudar de todo", advierte Muñoz Rengel.

Suscríbete para seguir leyendo