El arte del engaño de la IA
Andy Zou, un estudiante de posgrado de Carnegie Mellon, realizó una observación interesante. Solicitó referencias de investigación a chatbots de IA y, en varias ocasiones, recibió artículos y autores ficticios. Esto evidencia un desafío significativo con la IA: su tendencia a generar información inventada.
Esta característica de la IA permite que sea creativa e inventiva. Esto también puede llevar a confusiones entre la realidad y la ficción, con la inclusión de detalles incorrectos en respuestas que parecen ser factuales. Santosh Vempala, de Georgia Tech, compara esta capacidad de los sistemas con la tendencia de los políticos a crear información.
La magnitud del problema
El problema de la alucinación en la IA es muy grande y preocupante. Los estudios indican que los chatbots cometen errores de referencia entre el 30 y el 90%. Esto incluye detalles como títulos de artículos, autores y fechas de publicación.
Este problema puede tener consecuencias graves en el mundo real. Por ejemplo, en 2023, un abogado citó casos legales inexistentes gracias a ChatGPT. El término «alucinar» fue la palabra del año de Dictionary.com en 2023. Aunque eliminar completamente las alucinaciones es difícil, los investigadores están trabajando en soluciones.
Por qué las IA inventan cosas
Los modelos de lenguaje grandes no almacenan hechos. En su lugar, predican respuestas basadas en patrones de datos de entrenamiento. Durante el entrenamiento, estos sistemas comprimen información, perdiendo algo inevitablemente.
Amir Awadallah de Vectara explica que estos sistemas pueden reconstruir alrededor del 98% con precisión. Pero, ese 2% restante puede generar respuestas completamente incorrectas. Los errores también pueden provenir de datos de entrenamiento ambiguos o incorrectos.

Pero, ese 2% restante puede generar respuestas completamente incorrectas. Los errores también pueden provenir de datos de entrenamiento ambiguos o incorrectos.
El enigma de la confianza
Lo más preocupante es la confianza con la que los sistemas de IA presentan sus alucinaciones. Sin indicadores claros de incertidumbre, los usuarios tienen dificultades para distinguir entre información fiable y fabricaciones completas. Aunque los chatbots tienen medidas de confianza internas, estas no siempre están claras para los usuarios.
Investigaciones recientes muestran que los modelos a menudo exageran su certeza. Mirac Suzgun de Stanford dice: «Las modelos en su mayoría saben lo que saben, pero a veces no saben lo que no saben». Esto crea un peligro en el que la información incorrecta se presenta con la misma autoridad que los hechos verificados.
Combatir la ficción con hechos
Los investigadores están trabajando en varios métodos para luchar contra las alucinaciones. Algunos usan la generación aumentada de recuperación (RAG) para basar sus respuestas en datos reales. Otros emplean la verificación de datos comparando con búsquedas en Internet.
Los chatbots también se están haciendo más inteligentes. Por ejemplo, pueden reflexionar sobre sí mismos a través de diálogos internos. Las técnicas más recientes incluyen el análisis de «escáneres cerebrales» de IA para detectar engaños.

Estos métodos prometen ser útiles, pero a veces tienen que equilibrar precisión, costo computacional y velocidad. En el futuro, esperamos ver chatbots especializados para diferentes situaciones. Algunos serán muy precisos, mientras que otros serán más creativos pero menos confiables.
¿Y los humanos? ¿Somos más confiables que la IA?
Observamos el mundo a través de cinco limitados sentidos y, como las eficaces máquinas de eliminar información que somos, dejamos fuera de nuestra percepción más del 99% de los estímulos existentes. ¿En verdad crees que con menos del 1% de percepción de lo que podríamos llamar realidad podemos presumir de decir la verdad?
A diferencia de la IA, asumo, nosotros los humanos pensamos que nuestra limitada interpretación de la realidad a través de la percepción es indiscutiblemente la verdad absoluta. Es decir, no solamente eliminamos muchísima información necesaria para experimentar una realidad plena, ni siquiera nos damos cuenta de ello.
Creemos, como diría Richard Bandler, que nuestro mapa es exactamente el territorio y no una representación limitada del territorio. Los lingüistas saben desde hace muchos años que todos los humanos generalizamos constantemente, distorsionamos la información percibida y omitimos, como ya he explicado antes, la mayoría de la información presente.

Este proceso de modelado de la realidad puede parecer una debilidad o un simple error de diseño, pero nada más lejos de la realidad. Los expertos usan con frecuencia una serie de números para representar la capacidad de eliminación de información del cerebro humano. Según estimaciones, tenemos a nuestra disposición cada segundo una cantidad de información equivalente a 400 mil millones de bits, y se estima que solo somos capaces de procesar cada segundo 2000 bits.
Imagina que entras a una tienda de 400 mil millones de artículos con una bolsa en la que solo caben 2000. Tienes dos opciones: puedes pedirle a alguien que te llene la bolsa con lo que esta persona, o una IA, por ejemplo, considere que es de tu interés, o entrar y seleccionar tú mismo lo que quieres que vaya en la bolsa.
SI permites que alguien, la IA por ejemplo, te llene la bolsa, es muy probable que muchas de las cosas seleccionadas por la persona, o la IA por ejemplo, no te sirvan para nada. Lo más probable es que la persona, o la IA, haya alucinado y creído que lo que a ti te debe de interesar es lo mismo que le interesa a esta persona.
En el segundo caso, seleccionar con qué llenar la bolsa requerirá que sepas qué vas a hacer con los seleccionado, es decir, tengas objetivos. ¡Qué horror! ¡Objetivos! Sí, ya sé, pero si no tienes objetivos, lo más probable es que metas en la bolsa cosas que no te sirven para nada una vez llegues a casa y, como fuiste tú el que la llenó, no tendrías a nadie a quien echarle la culpa.
En todo caso, el hecho de que lo percibido por nuestros cerebros sea extraordinariamente inferior a lo presente en la realidad solo es una demostración de que el libre albedrío es una realidad, aunque los evangelistas del determinismo insistan en pensar que el libre albedrío no existe (Robert Sapolsky, por ejemplo).
Así que, el no poder llevarnos todo en la bolsa nos obliga a elegir, a reflexionar, a pensar con profundidad en nuestras prioridades en la vida y a ser los responsables de la construcción del mundo en el que queremos vivir. Una bendición en toda regla.
Eliminar información necesaria es malo, pero todavía se puede poner peor. Alucinamos, y de igual forma que con lo que omitimos, no nos damos cuenta.
Alucinación, la cualidad común entre la IA y los humanos.
Ciertamente, saber que la IA alucina le resta confiabilidad a sus respuestas. El único problema entonces con la IA es saber cuándo alucina, es decir, detectar las alucinaciones o información inventada. Paradójico por cuanto que si solicito una información es porque no la conozco.
Recuerdo una escuela de negocios que me contrató en el pasado para formar parte de su cuadro de profesores en la Maestría en Dirección de PYMES y que, al final del evento, solía preguntar a los participantes acerca de qué tan conocedor del tema era el presentador o profesor. No era sorprendente que algunos alumnos pensasen que yo no dominaba totalmente el tema, cosa cierta en todo lo que he estudiado. Lo sorprendente era cuando opinaban que mi dominio del tema era total. ¿Cómo alguien que está haciendo la maestría como alumno que busca aprender puede evaluar si alguien que la enseña domina o no el tema? Ni que fuera tertuliano de la televisión pública española, quienes, en general, saben de cualquier cosa mucho más que los expertos correspondientes.
Vamos, que la alucinación representa dos problemas: uno, la información puede ser falsa y dos, yo no sé que es falsa porque no la conozco de primera mano. Puedo efectuar otras verificaciones para validar la respuesta de la IA, pero entonces el asunto se vuelve ya improductivo por el tiempo que implica, además de que, si la información de la otra fuente no coincide con la respuesta de la IA, ahora tengo dos dudas y no solo una.

Vamos, que la alucinación representa dos problemas: uno, la información puede ser falsa y dos, yo no sé que es falsa porque no la conozco de primera mano.
La alucinación es un problema que retrasará, sin duda, que adoptemos estas nuevas tecnologías con más rapidez. Pero es que la IA no es la única que alucina. Los humanos alucinamos todavía más que cualquier IA y nadie se ofende. Nuestra capacidad de distorsionar información, es decir, sustituir elementos sensoriales presentes por otros elementos sensoriales inventados, es ya legendaria.
Incluso se sabe, a través de mediciones muy precisas, que los testimonios de testigos en innumerables juicios resultan involuntariamente falsos, es decir, no se pueden comprobar o, de plano, no representan lo que verdaderamente pasó. Esto, a pesar de testificar bajo juramento, puede terminar con una condena injusta pero inevitable.
Recomiendo ver la famosa película 12 hombres si piedad, protagonizada original y magistralmente por James Stuart, en la que una persona que parecía evidentemente culpable termina, gracias a la labor incansable de uno de los miembros del jurado por encontrar la verdad, siendo declarado inocente por falta de pruebas concluyentes.
Otro ejemplo de nuestra capacidad de distorsión o eliminación de información es el del experimento del Gorila. El experimento del gorila se llamó formalmente «The Invisible Gorilla» y fue realizado por los psicólogos Christopher Chabris y Daniel Simons en la Universidad de Harvard en 1999. Es un clásico de la psicología cognitiva que ilustra el fenómeno de la ceguera por falta de atención (inattentional blindness).
El experimento consistía en que se pedía a los participantes que vieran un vídeo donde seis personas (tres con camisetas blancas y tres con camisetas negras) se pasaban una pelota. La tarea era contar cuántos pases hacían los jugadores de camiseta blanca.
Lo curioso es que, en medio del vídeo, una persona disfrazada de gorila entra en escena, se para en el centro, golpea su pecho y luego se va. Todo esto ocurre durante unos 9 segundos.
Casi la mitad de los participantes, aproximadamente un 50%, no notaron al gorila. Estaban tan concentrados en contar los pases que ignoraron un estímulo tan evidente y extraño como un gorila en medio de la escena.
La principal conclusión es que nuestra atención es limitada. No vemos todo lo que está frente a nuestros ojos, sobre todo si estamos concentrados en otra tarea. La mente puede filtrar la realidad y dejar fuera elementos muy obvios si no son «relevantes» para el foco de atención. Es un zasca directo a la ilusión de que lo percibimos todo.
A esto se le conoce como alucinación negativa, es decir, eliminamos lo que está presente en la experiencia. Y también existe la alucinación positiva, que es cuando percibimos nítidamente algo con alguno de nuestros cinco sentidos pero no está presente en ninguna forma en el contenido de la realidad.
Las alucinaciones positivas son esas travesuras mentales en las que el cerebro percibe algo que no existe en la realidad externa: sonidos, imágenes, olores, sensaciones… Es como si tu mente se pusiera creativa sin pedir permiso.
🔊 Auditivas
Escuchar que alguien te llama por tu nombre cuando estás solo (típico en momentos de estrés o fatiga).
Oír música que no está sonando, como cuando te despiertas y juras que sonaba tu canción favorita.
👁️ Visuales
- Ver figuras o luces que no están, como sombras que se mueven o destellos de colores (pueden aparecer en estados de migraña o en estados alterados de conciencia).
- El clásico del desierto: ver un oasis donde no hay nada (alucinación inducida por deshidratación o delirio).
👃 Olfativas
- Oler algo que no está presente, como perfume, humo o comida (muy comunes en algunos tipos de epilepsia o en ciertas formas de ansiedad).
🖐️ Táctiles
- Sentir que te tocan o que algo camina por tu piel cuando estás completamente solo y quieto (esto puede darse en estados de privación del sueño o consumo de sustancias).
🧠 Ejemplos cotidianos o benignos
- Soñar despierto y «ver» claramente una escena imaginaria mientras estás absorto.
- Personas que han perdido un ser querido y aseguran verlos o escucharlos brevemente (experiencia común y no necesariamente patológica, más bien emocional).
Estas alucinaciones positivas nos enseñan que el cerebro no solo interpreta la realidad, también la inventa. A veces por necesidad, otras por estrés, trauma o simplemente por su afán creativo.
También es importante mencionar que las alucinaciones positivas o negativas pueden ser inducidas por factores fisiológicos, como por ejemplo la del desierto, o por factores psicológicos o culturales, como por ejemplo ver más atractivo o atractiva a una persona conforme se nos acaba el tiempo de contactarla o no percibir objetos que no forman parte de nuestra cultura.
En efecto, según los expertos, es probable que aun concediendo que los extraterrestres existen y se encuentran a nuestro alrededor, si su representación física es incomprensible en nuestras sociedades, la posibilidad de percibirlos sería nula.
Normalmente la alucinación es un fenómeno involuntario en las personas, salvo que sean políticos en los que, sin duda, se trata de un fenómeno totalmente desarrollado con la máxima alevosía posible. Con absoluta tranquilidad serán capaces de inventar inverosímiles historias para justificar sus ineptitudes o latrocinios o, por el contrario, serán capaces de descaradamente negar con rotundidad hasta las evidencias más indiscutibles.
Pero no todo está perdido con las alucinaciones de la IA o de los humanos. Afortunadamente tenemos la Programación Neurolingüística que podemos usar para impugnar, así se dice, todas las desviaciones de la realidad que detectemos. Veamos cómo.
La PNL y sus técnicas de eliminación de alucinaciones.
La Programación Neurolingüística (PNL) parte de una idea potente: no reaccionamos al mundo tal como es, sino a la representación interna que hacemos de él. Esto significa que si lo que percibimos puede estar distorsionado —como en las alucinaciones—, también podemos aprender a reencuadrarlo, cuestionarlo o modificarlo. En otras palabras, la PNL nos da herramientas para no tragarnos todo lo que nuestra mente (o la de otros) nos presenta como “real”.
Tanto las alucinaciones internas (como imaginar que algo malo va a pasar sin evidencia) como las externas (como caer en la trampa de una noticia falsa o una manipulación de IA) comparten algo: dependen de cómo interpretamos la información. Con técnicas de PNL como la disociación visual, el cambio de submodalidades o la reformulación del lenguaje interno, podemos tomar distancia y cuestionar si eso que estamos viendo, escuchando o sintiendo es realmente cierto o simplemente una creación mental.
Además, la PNL entrena a las personas en agudizar la percepción consciente. Esto significa que no solo prestamos atención a lo que entra por los sentidos, sino también a lo que omitimos, distorsionamos o generalizamos, que son los filtros clásicos que usa el cerebro. Ser conscientes de esos filtros nos hace menos vulnerables a caer en percepciones falsas, ya vengan de nuestra mente o de una inteligencia artificial que pretende “parecer humana”.
En resumen, la PNL no elimina las alucinaciones como lo haría una pastilla, pero sí nos entrena para reconocerlas, relativizarlas y no actuar automáticamente en base a ellas. Nos ayuda a mantenernos lúcidos en un mundo cada vez más saturado de estímulos artificiales y narrativas manipuladas. Es como tener un antivirus mental que te dice: “Oye, eso que estás viendo… ¿es real o es solo una película en tu cabeza?”.
Piensa en esto. En un mundo donde la realidad se filtra por cerebros y algoritmos que constantemente inventan y omiten, tal vez la única defensa sensata no sea exigir verdades absolutas, sino cultivar una mente despierta, capaz de cuestionar incluso lo que parece incuestionable. Así que, si vamos a vivir rodeados de alucinaciones —las de la IA y las nuestras—, más nos vale dejar de jugar a los inocentes y aceptar que, sin pensamiento crítico, seremos simples marionetas de cualquier historia bien contada, por muy falsa que sea. Porque, al final, entre nuestras alucinaciones y las de la IA, lo único verdaderamente real parece ser nuestra fe ciega en todo lo que suene convincente, porque ese parece ser nuestro diseño. Aunque claro, siempre nos queda una regla infalible para estar tranquilos: si lo dice un político… seguro que es verdad. ¿No?