Alucinación
Cuando hablamos de un modelo de inteligencia artificial, entendemos por alucinación cualquier respuesta falsa, engañosa o ilógica que genera un modelo de IA. Se le llama alucinación, puesto que las repuestas parten de información que la IA ha entendido mal o que directamente ha inventado la respuesta basándose en información imaginaria.
Un ejemplo de alucinación podría ser pedirle a una IA como ChatGPT que te cite algún párrafo de un libro inexistente de una temática concreta. En vez de confesarte que ese libro no existe y no puede encontrar información de él, te genera una respuesta inventada, con una cita muy convincente, pero que nadie ha escrito jamás, en un libro con un título totalmente inventado por la IA.
¿Por qué suceden las alucinaciones?
Debemos entender que los grandes modelos de lenguaje procesan el lenguaje de una similar a la humana, pero no son humanos como para comprender todos los entresijos de lo que se les pregunta ni lo que responden. Así pues, estos modelos se limitan a predecir qué respuesta es la mejor ante una pregunta.
Sin embargo, las alucinaciones en IA no son producto de su naturaleza, sino que hay una variedad de factores que las desencadenan. Puede que el modelo no esté lo suficientemente entrenado o que la calidad de sus datos sea demasiado baja como para responder acertadamente a lo que se le esté preguntando.
También puede ser que el usuario no haya formulado del todo bien la pregunta y que no haya aportado el contexto suficiente como para que la IA lo pueda interpretar adecuadamente.
Al final, el hecho de que los modelos de IA generen outputs falsos se debe a su propia forma de funcionar. A la hora de entrenarlos, se les proporciona una cantidad colosal de datos que el modelo va segmentando en letras y palabras. Así pues, el modelo aprende secuencias de letras y palabras que acompañan unas a otras en un contexto determinado.
Así pues, un modelo de IA como ChatGPT puede generar una cantidad inmensa de respuestas sobre una gran variedad de temáticas, pero no está razonando realmente lo que contesta; solo conecta patrones y da una respuesta con base probabilística. Es decir, los modelos de IA están hechos para contestar siempre, pero no necesariamente de forma acertada para nuestros estándares humanos.
¿Cuál es el peligro de las alucinaciones en IA?
Este es uno de los dilemas morales de la inteligencia artificial. Las alucinaciones en IA no son peccata minuta, principalmente porque no suelen ser evidentes. Los chatbots impulsados con IA suelen dar respuestas verbosas y contundentes ante cualquier pregunta, aunque en su base de datos no alberguen la información suficiente como para contestarla.
Es por eso que cualquier desliz o falta de esmero por comprobar que la información que aporta una IA generativa sea veraz puede hacer pasar una alucinación por verdadera sin serlo. Esto, además, da lugar a que se publique y se viralice en masa información falsa, e incluso dañina, que influya en la opinión pública.
Por no hablar si estas falsedades se cuelan en el ámbito médico o financiero. Es muy arriesgado pedir consejo médico, farmacológico o de inversiones a tecnologías como ChatGPT. Si alucina y confiamos a pies juntillas en lo que nos genera, podemos atentar contra nuestra propia salud física, psicológica o económica.
A su vez, el hecho de que la IA alucine y se difunda públicamente información falsa y falta de comprobación puede llevar a que la población vaya desconfiando cada vez más de los medios de comunicación y de la inteligencia artificial generativa.
En general, los medios de comunicación ya se ganan la desconfianza de mucha gente por sus sesgos y medias verdades, y que se colasen alucinaciones en artículos de periódicos sería la guinda del pastel para que muchas personas terminaran de denostar por completo su autoridad. Así pues, los medios dedicados a la difusión de información y la IA generativa podrían sufrir de una crisis de reputación generalizada que iría erosionando poco a poco la confianza de la población.
¿Cómo protegernos ante las alucinaciones?
Nunca puedes asegurarte de que la IA no vaya a generarte una alucinación total o parcial, por lo que, como usuarios, solo hay un remedio para guardarnos ante información falsa: actuar con sentido común y comprobar toda la información que nos genere una IA.
En algunas ocasiones, podremos detectar a simple visita cuando la IA nos da una información falsa o contradictoria. Mientras más específico y enrevesado sea lo que preguntemos, mayor probabilidad de que la IA alucine y nos dé una respuesta estrambótica. Es por eso que debemos leer las respuestas con atención y siempre partir dudando de su veracidad.
De igual forma, debemos poner especial atención en la información que recibimos y siempre verificarla, contrastándola con otras fuentes de información fiables si esta información no se va a limitar al consumo interno, es decir, si se va a difundir en una noticia.
A su vez, conviene tener mucho cuidado si se trata de información que resuelva consultas médicas, que puedan afectar a nuestra salud, o financieras, que puedan hacernos perder dinero tontamente. Las alucinaciones en estos campos pueden perjudicar gravemente a las personas.
Así pues, un espíritu permanentemente crítico nos ayudará a no dejarnos engañar por las alucinaciones de la IA.