MICHAEL IGNATIEFF-ABC
- «Los sistemas de inteligencia artificial están creciendo a mayor velocidad que nuestra capacidad de regularlos. Algunos usos son benignos, otros malignos, pero todos plantean el mismo problema: ¿los ha escrito realmente un ser humano? Si uno no puede fiarse de la autoría de lo que lee, empezará a tener dificultades para saber qué es verdad»
Enseño historia en una universidad, y la semana pasada, mientras estaba poniendo las notas a los trabajos de mis alumnos, tuve una experiencia que me dejó preocupado. A lo largo de doce semanas con treinta estudiantes, un profesor llega a conocer la manera en que estos hablan. Cada uno tiene su sello lingüístico. Por eso, cuando leí sus trabajos, me di cuenta inmediatamente de que dos de ellos estaban escritos en un lenguaje –correcto, pero forzado e impersonal– que no era propio de ellos. Pasé los ejercicios por el programa informático que utilizamos en la universidad para detectar los plagios. Los dos arrojaron unos «índices de similitud» elevados, lo que significa que hasta un tercio del texto se había tomado de otra fuente. Sin embargo, el problema no era el plagio u ocultar las fuentes, ya que habían citado a pie de página la mayor parte de lo que habían tomado prestado. El problema era que el texto no parecía escrito por mis alumnos.
Llamé a los estudiantes a mi despacho y les pregunté si habían usado Chat GPT 4, el programa de inteligencia artificial (IA) lanzado por Open AI antes de Navidad y hoy utilizado por cientos de millones de personas para escribir de todo, desde ensayos hasta artículos científicos, pasando por poemas o cartas de amor. Me dijeron que no. Tuve que fiarme de su respuesta, dado que el programa de nuestra universidad no es capaz aún de comprobar si me estaban diciendo la verdad. Cuando les pregunté si habían recurrido a otras herramientas de IA, una de ellos me confesó que había usado un programa para corregir la gramática, puntuación y estilo del texto. A la pregunta de si había sacado frases de otras fuentes y las había introducido en el programa para hacerlas pasar por suyas, me respondió que no.
Así que estábamos en un punto muerto. Técnicamente, no eran culpables de plagio aunque un tercio de sus textos procedieran de otros autores. Negaban enérgicamente haberse servido de Chat GPT 4 pero admitían haber utilizado un programa para refinar su inglés. De modo que mi problema era cómo calificar un ejercicio que no se parecía en nada a la manera en que esos alumnos brillantes hablaban en clase. Les dije a regañadientes que las pruebas proporcionadas por el programa de la universidad no me dejaban más opción que restarles un punto por haber tomado prestada una parte demasiado grande de sus trabajos de otros autores. Se marcharon cabizbajos, incluso escandalizados.
El tema de esta pequeña historia no es el plagio. Es si nos damos cuenta de a qué mundo nos llevan las inteligencias artificiales. ¿Qué significado tiene la autoría en un mundo así? ¿Y la responsabilidad por el propio trabajo? ¿Cómo sabemos que los mensajes que recibimos, los textos, los artículos, incluso las cartas de amor, los ha escrito un ser humano? Hasta los científicos que desarrollaron estas nuevas tecnologías empiezan a preocuparse por estos interrogantes.
La semana pasada, el informático canadiense de origen británico Geoffrey Hinton, llamado el ‘padrino de la inteligencia artificial’, dimitió de Google y empezó a hablar. Hinton es conocido por haber desarrollado la idea de las ‘redes neurales’, un sistema matemático que adquiere habilidades analizando datos. En 2012, junto a sus alumnos de la Universidad de Toronto, construyó una red que, tras ser entrenada con miles de fotos, aprendió por sí sola a identificar objetos comunes como flores, perros y coches. Google compró esta tecnología, y uno de los alumnos de Hinton, Ilya Sutskever, llegó a ser director científico de Open AI, la empresa que ha desarrollado Chat GPT 4.
Antes, Hinton pensaba que los sistemas que creaba eran inferiores a la inteligencia humana. Ahora sospecha que están avanzando tan deprisa que pronto podrían ser «mucho mejores que lo que ocurre en el cerebro». Los sistemas de inteligencia artificial están creciendo a mayor velocidad que nuestra capacidad de regularlos. La competencia en IA se ha vuelto una lucha a vida o muerte por la supervivencia de las pocas empresas, entre ellas Google y Microsoft, que pueden permitirse los recursos y la potencia de computación para desarrollarlos. En cuanto Chat GPT 4 se lanzó a comienzos de este año, cientos de millones de personas de todo el mundo empezaron a utilizarlo. Algunos usos son benignos, otros malignos, pero todos plantean el mismo problema que los trabajos de mis alumnos: ¿los ha escrito realmente un ser humano? Saber quién escribió algo es importante, porque las palabras tienen consecuencias, y la persona que las escribió tiene que responsabilizarse de esas consecuencias. Establecer la autoría, humana o de otra naturaleza, es lo que permite determinar si se puede confiar o no en un texto.
Pero hay algo más en juego, aparte de la confianza. Si uno no puede fiarse de la autoría de lo que lee, empezará a tener dificultades para saber qué es verdad. Vivimos en un mundo digital cada vez más inundado de fotos, vídeos y textos falsos, y con cada nueva iteración de la inteligencia artificial se vuelve más difícil saber de qué imágenes y de qué textos podemos fiarnos.
A Hinton, que tanto hizo por crear la inteligencia artificial, ahora le preocupa haber creado máquinas que, de momento, hacen difícil que una persona normal «siga sabiendo lo que es verdad», y pronto lo harán imposible. Imaginen las consecuencias para la política, para todas las instituciones en las que tomamos importantes decisiones colectivas que cambian nuestra vida, si ya no sabemos en qué información confiar porque ya no sabemos quién es el autor de esa información ni de dónde procede lo que se nos dice que es verdad.
Los bots conversacionales alimentados con IA y creados por agentes vinculados a los servicios secretos de China y Rusia ya inundaron de noticias falsas las bandejas de entrada de millones de votantes de Estados Unidos en 2016, y de nuevo en 2020. No es difícil imaginar que unas futuras elecciones se decidan por la difusión de una fotografía trucada que muestre a algún líder político en una situación comprometida o ridícula, o implicado en corrupción. Los partidos políticos llevan años haciendo esta clase de trampas. Photoshop existe desde hace mucho tiempo. Lo nuevo sería que las tecnologías de la IA fueran capaces de producir falsificaciones tan verosímiles que resultara imposible demostrar que son falsas.
La confianza y la verdad son lo que impide que las sociedades caigan en el vacío de la mentira y la violencia. Eso significa saber quién ‒qué persona‒ es responsable de qué declaración, imagen, texto o fotografía. Una política que conserva una conexión, por tenue que sea, con la verdad es una política de seres humanos para seres humanos, una política en la que los ciudadanos siguen siendo capaces de identificar la autoría de las palabras y de las imágenes que llenan el espacio digital del debate público. La confianza morirá si perdemos esta capacidad, de la misma manera que la confianza muere en las aulas cuando los profesores ya no pueden saber si sus alumnos han escrito sus trabajos o no.