Cuando OpenAI presentó a ChatGPT, millones de personas se quedaron asombradas por su forma tan humana de responder a las preguntas, escribir poesía y discutir prácticamente de cualquier tema. Yo también.
Pero la “magia” se rompió apenas comenzamos a hablar de estudios psicológicos. ChatGPT no solo inventaba los resultados, sino también las referencias científicas. El problema es que lo hacía de una manera tan persuasiva y fluida, que cualquier desconocedor del tema asumiría que era cierto.
No fue hasta que Bard, la Inteligencia Artificial de Google, se equivocó ostensible y públicamente confundiendo el telescopio espacial James Webb con el telescopio VLT del Observatorio Europeo Austral, que sus creadores se vieron obligados a reconocer que la Inteligencia Artificial inventa cosas – y muchas.
A esa tendencia a falsear, confundir y mezclar los datos la llamaron “alucinaciones”. Pero, ¿realmente la IA sufre alucinaciones, es una mentirosa patológica o le ocurre algo más? Dado que los ingenieros utilizan términos psicológicos para etiquetar las experiencias de sus máquinas, creo que la voz de los psicólogos es importante para analizar un fenómeno que terminará influyendo en nuestras vidas y cambiando nuestra sociedad.
¿Alucinaciones o ilusiones?
Una alucinación es una percepción falsa que no se corresponde con ningún estímulo físico externo, pero que percibimos como real. Las alucinaciones auditivas, por ejemplo, son las más comunes y consisten en escuchar voces que no existen.
Cuando se hace referencia a las alucinaciones de la IA, es porque la máquina brinda respuestas que no coinciden con la realidad. En sus inicios, ChatGPT no reconocía que había “inventado” esos datos. Pero tras mucha insistencia, finalmente admitía que se había equivocado y proseguía la conversación creando más datos falsos. Y así al infinito…
Por tanto, no había una “conciencia” propiamente dicha de la invención. En su nueva actualización, nos advierte de que podría generar respuestas que no se ajustan a la realidad.
Sin embargo, un análisis más profundo de sus respuestas revela que realmente la Inteligencia Artificial no inventa nada, sino que tan solo mezcla información para brindar respuestas más o menos coherentes. Por tanto, al existir un flujo de estímulos objetivos (datos), no podríamos hablar de alucinaciones, sino más bien de ilusiones.
En Psicología, las ilusiones son distorsiones en la percepción de un estímulo externo a través de nuestros sentidos. Por ejemplo, podemos creer que hemos visto a una persona en lo que es solo una sombra. A diferencia de las alucinaciones, nuestros ojos realmente captaron un estímulo, pero nuestro cerebro lo procesó de manera errónea para convencernos de que era otra cosa.
De la misma forma, la Inteligencia Artificial utiliza al batiburrillo de información que tiene disponible para crear un discurso medianamente convincente, sin preocuparse porque sea cierto o refleje la realidad. Eso ha llevado a algunos a afirmar que podría tratarse de una mentirosa patológica.
¿Es la IA una mentirosa patológica?
La pseudología fantástica, como también se le conoce a la mitomanía, se caracteriza por contar historias que no son del todo improbables pues a menudo tienen algún atisbo de verdad. Las historias no son delirios, si se presiona a la persona, esta puede llegar a admitir que no es cierto, pero a menudo desvía la conversación con otras mentiras simplemente porque no puede dejar de contar falsedades.
Ese comportamiento se parece bastante al que muestran los algoritmos de IA. Sin embargo, ChatGPT reconoce que “no tengo la capacidad de mentir ni de decir la verdad en el sentido humano, ya que soy un programa de Inteligencia artificial”. También nos indica que “las inteligencias artificiales no tienen experiencias, sensaciones ni percepciones propias. Son programas de computadora diseñados para procesar y generar información basada en datos de entrada”.
Y precisamente en su respuesta radica la clave.
La idea de que la IA pueda tener alucinaciones, ilusiones, confabulaciones o incluso mentir es simplemente un intento de las empresas que las han creado de presentárnoslas bajo una perspectiva humana. De cierta forma, están haciendo leva en el efecto Pratfall, según el cual, cometer pequeños errores hace que seamos más simpáticos ante los ojos de los demás ya que se sienten más identificados con nosotros. Así, en vez de descartar la IA por ser una herramienta poco fiable, simplemente la abrazamos como un ser humano imperfecto.
Sin conciencia, todo intento de humanizar las máquinas es marketing
Los algoritmos de IA no “alucinan la respuesta”, como escribió IBM ni “sufren confabulaciones”, como dijo el jefe de IA de Meta. Tampoco son mentirosos patológicos, como afirman muchos usuarios en las redes sociales.
Todos esos intentos explicativos surgen de la tendencia a antropomorfizar las acciones de las máquinas. La verdad es menos romántica. Los grandes modelos de lenguaje simplemente están entrenados para producir una respuesta que suene plausible a las preguntas de los usuarios, independientemente de su veracidad.
Programas como ChatGPT o Bard se basan en una tecnología llamada modelo de lenguaje colosal, o LLM, que aprende sus habilidades analizando enormes cantidades de texto digital, incluidos libros, artículos y conversaciones en chats online. Por el momento, solo pueden identificar patrones en todos esos datos y utilizarlos para crear una respuesta plausible.
Y el problema no es que Internet esté plagado de información falsa, de manera que estos sistemas se limitan a repetir esas falsedades, sino mucho más complejo. En mis conversaciones, ChatGPT no reproducía información falsa, sino que mezclaba datos de diferentes estudios para producir una respuesta coherente que sonase bien – a menudo incluso demasiado buena como para ser cierta.
En este punto, el problema de la veracidad no es fácil de resolver, como han reconocido los propios programadores, porque estos sistemas operan con probabilidades y están “diseñados para ser persuasivos, no veraces”, según indicó un documento interno de Microsoft al que tuvo acceso The New York Times. Eso significa que sus respuestas pueden parecer muy realistas, pero incluyen afirmaciones que no son ciertas.
Y dado que estos sistemas pueden responder a casi cualquier pregunta de un sinfín de formas, no hay manera de determinar a ciencia cierta con qué frecuencia se equivocan. Obviamente, eso no sería un problema si los usáramos solo para charlar, pero es un riesgo grave para cualquiera que lo utilice con fines médicos, legales o científicos.
Un estudio realizado en la Universidad de Harvard descubrió que ya confiamos más en el consejo de los algoritmos que en de las personas, aunque se trate de especialistas en su campo. Y eso es una mala noticia.
Es mala porque la Inteligencia Artificial no puede hacer razonamientos inductivos ni captar el sentido de las palabras. No comprende si los patrones que ha hallado tienen o no un significado. Tampoco tiene sentido común, conocimiento de la verdad ni conciencia de sí misma o del mundo real. Por tanto, estas máquinas no son realmente inteligentes, o al menos no en el sentido de la inteligencia humana.
De hecho, “en la era de la IA y el Big Data, el peligro real no es que las computadoras sean más inteligentes que nosotros. Es que creamos que lo son”, como escribió Gary Smith, profesor de economía del Pomona College.
Referencias Bibliográficas:
Smith, G. (2018) Beware the AI delusion. En: FastCompany.
Logg, J. M. et. Al. (2019) Algorithm Appreciation: People Prefer Algorithmic To Human Judgment. Organizational Behavior and Human Decision Processes; 151: 90-103.
Deja una respuesta