Inicio / Inteligencia Natural / Qué es la alucinación de la inteligencia artificial y en qué nos afecta

Qué es la alucinación de la inteligencia artificial y en qué nos afecta

Ernesto Guerra
26 junio 2024 | 1 |

Esta semana he querido traer a este blog de Juventud Técnica un tema fundamental: qué es la alucinación de la inteligencia artificial y en qué nos afecta. Será un post que intentará condensar y simplificar el tema, aunque como siempre, sugerimos que se busquen referencias más amplias para una comprensión completa del fenómeno.

¿Qué son las alucinaciones de las IA?

Las alucinaciones de las IA (Inteligencia Artificial) son fenómenos que ocurren cuando la herramienta devuelve resultados erróneos. Generalmente estos resultados están relacionados con un procesamiento incorrecto de los datos o el intento de suplir vacíos de conocimiento en el LLM (Large Language Model).

En resumen, es muy poco probable que una IA arroje como resultado un simple “no sé”, por lo que intenta construir una respuesta basada en el entrenamiento adquirido. Esta puede estar influenciada por diferentes factores que veremos a continuación.

¿Qué causa la alucinación en la IA?

La alucinación en la IA es causada por varios factores. Estos son los más comunes:

  • Complejidad del lenguaje humano: no siempre las herramientas tienen el poder de comprender de manera correcta lo que intentamos transmitir. Una misma idea tiene varias formas de expresarse, y muchas palabras pueden ser polisémicas, por lo que la comprensión no siempre es tarea fácil.
  • Calidad de los datos de entrada: Si los datos con que se ha entrenado el LLM no tienen  la cantidad y calidad necesarias en sus elementos, la IA terminará por usar lo poco que está a su alcance para resolver los retos que le impongamos.
  • Sesgo: A la hora de entrenar una inteligencia artificial existen sesgos. Estos parten de cosas tan elementales como la elección de los datos usados para su aprendizaje. Por ejemplo, si solo entrenamos con textos bíblicos a una IA, es muy probable que las cuestiones relacionadas con otras creencias fuera del cristianismo tenga que “inventárselas” a partir de estas escrituras.

Existen muchos otros factores, como puede ser un ataque intencionado para manipular los resultados (jailbreak) o algún error en la introducción de la data que pueda influir en ello.

¿Cómo afecta que la IA alucine?

Los efectos de una inteligencia artificial que alucine pueden ser desde leves hasta muy graves. Pongamos algunos ejemplos.

Este caso me sucedió cuando lanzaron Gémini, la herramienta generativa de Google. Estaba buscando información del nuevo actor que interpreta a Superman después de Henry Cavill, y me devolvió una sarta de imprecisiones. Aquí dejo un hilo al respecto que publiqué en Twitter:

Estas imprecisiones partieron de información incompleta, y al parecer Bard prefería crear una realidad alternativa antes que decir que no tenía datos al respecto. Por tanto, no debes confiar siempre en la inteligencia artificial, pues su precisión ahora mismo no siempre es la correcta.

Este fue un ejemplo de algo superficial, pero imagina que uses una IA para diagnosticar enfermedades como cáncer. La más pequeña alucinación de estas herramientas puede desembocar en un tratamiento erróneo con efectos de salud pero también psicológicos. Por eso aunque la IA es una herramienta muy potente, siempre ten el impulso de comprobar lo que indica, contrastarlo y complementarlo con otras fuentes.

¿Cómo evitar que la IA alucine?

Evitar que la IA alucine no depende mucho de los usuarios, pues como vimos existen varios factores que influyen. Sin embargo hay algunas cosas que puedes tomar en cuenta:

  • Utiliza siempre el modelo más avanzado disponible. No es lo mismo Chat GPT 3.0 que 4o. Generalmente modelos actualizados tienen mejor comprensión y un entrenamiento más certero.
  • Intenta pedir resultados claros. El mayor peso de lo que devuelve una IA está en lo precisas que sean tus instrucciones.
  • Usa modelos probados. Un modelo de poco tiempo en el mercado o poco entrenamiento es más propenso a alucinar. Intenta siempre compararlo con resultados de búsqueda real u otros modelos de IA.
  • Pide referencias. Algo que siempre aplaudo de Copilot de Microsoft es que la mayoría de las veces enlaza sus respuestas a la fuente donde encontrarla ampliada y justificada. Chequea siempre las fuentes.

En resumen, la alucinación de la inteligencia artificial es un fenómeno que podemos detectar cuando hacemos una petición y la herramienta devuelve resultados erróneos. Siempre, ante la duda, vuelve al método clásico y comprueba cada resultado con fuentes confiables.

Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

diecisiete − 6 =

Comentarios

    Rölmer Ben Ruemer 03/07/2024

    Varias veces me ha paseo lo mismo con la inteligencia artificial, la eh puesto para que me diga las leyes de formación de patrones matemáticos, y cuando no las encuentra, se inventa algo distinto que ni siquiera coincide con el patrón.