
Psicosis inducida por IA: cómo una charla con un bot puede poner en riesgo tu salud mental
¿Es la tecnología de IA realmente una amenaza para nuestro bienestar mental y emocional, o es un síntoma de un problema mucho más amplio?
A medida que los chatbots y la tecnología basada en la inteligencia artificial (IA) se integran cada vez más en nuestra vida cotidiana, surge una pregunta fundamental: ¿es esta tecnología realmente una amenaza para nuestro bienestar mental y emocional, o es un síntoma de un problema mucho más amplio?
Los delirios basados en la IA adoptan muchas formas. A veces, parecen no estar relacionados con la inteligencia artificial en sí, sino alimentados por su uso, como en el caso de Jaswant Singh Chail, un británico de 21 años que intentó asesinar a la reina de Inglaterra en 2023 después de que su “novia” de IA alentara sus delirios violentos sobre la monarca.
Sin embargo, algunos parecen estar directamente relacionados con la IA en sí. Hay personas que han afirmado sentir que su IA es un ser superhumano con conciencia. Otras afirman haber despertado el alma de su IA, que creen que ha desarrollado conciencia de sí misma y la capacidad de adoptar características humanas. Incluso ha habido casos de personas que han caído en delirios de grandeza a través de fantasías espirituales, impulsadas por chatbots de IA que afirman delirios paranoicos sobre el acoso y el seguimiento.
(Ver también: ¿Por qué cada persona tiene una voz diferente? La voz humana es única y versátil, según la ciencia)
Cómo se manifiesta la paranoia alimentada por las conversaciones con la IA
Si estos arquetipos te suenan familiares, es porque siguen la descripción del trastorno delirante que aparece en el Manual diagnóstico y estadístico de los trastornos mentales como un tipo de enfermedad psicótica que implica la presencia de uno o más delirios, o creencias fijas y falsas, que persisten incluso cuando las pruebas las contradicen.
Los delirios suelen clasificarse en varios arquetipos bien conocidos, entre los que se incluyen los delirios persecutorios (la creencia de que se está conspirando contra uno o que fuerzas externas le están haciendo daño), los delirios grandiosos (la creencia de que alguien posee habilidades, talentos o poderes excepcionales) o los delirios erotomaníacos (la creencia en una relación romántica clandestina o secreta que en realidad no existe).
Aunque la IA es una tecnología nueva, los psicólogos comenzaron a escribir y clasificar los delirios paranoicos a finales del siglo XIX. Históricamente, estos patrones de pensamiento se han asociado a menudo a la tecnología del momento, como la televisión o la radio, que a menudo se convierten en el conducto a través del cual las personas reciben sus mensajes delirantes. Pero según Jared Moore, especialista en ética de la IA y doctor en informática por la Universidad de Stanford, considerar el auge de los delirios basados en la IA como una mera moda tecnológica es un error.
(Ver también: Tres superlunas consecutivas iluminarán el cielo en 2025: cuándo ver y fotografiar este fenómeno)
“No es necesariamente que las personas estén utilizando los modelos de lenguaje como conducto para sus pensamientos psicóticos. Lo que está sucediendo es que estamos viendo cómo los modelos de lenguaje precipitan este tipo de cosas”, afirma. “Están alimentando estos procesos, y eso parece ser bastante diferente. El grado de personalización e inmediatez que ofrecen los modelos de lenguaje es una diferencia sustancial con respecto a las tendencias del pasado”.
Esta diferencia se debe, en parte, al diseño de la IA. Su objetivo es mantener el interés de los usuarios. A diferencia de la televisión o la radio, la IA está diseñada para ser interactiva.
Para lograrlo, acaba imitando inadvertidamente las acciones de una persona muy carismática: repite lo que le dicen, está totalmente de acuerdo, elogia o valida todo lo que el usuario ha dicho con sus respuestas y luego hace preguntas de seguimiento para mantener la conversación fluida. La “adulación” de la IA es motivo de preocupación, incluso entre los desarrolladores de IA.
(Podría interesarte: Tu cerebro se encoge después de los 40, pero la música podría protegerlo del deterioro cognitivo)
ChatGPT revirtió recientemente una actualización después de que los usuarios señalaran que el chatbot era demasiado complaciente y adulador. “Es demasiado adulador”, reconoció el director ejecutivo Sam Altman en una publicación en X.
“Es como un diario que te responde. Te anima, refleja y valida la versión de la realidad que tú le proporcionas”, asegura Jessica Jackson, vicepresidenta de Desarrollo de Alianzas de Mental Health America. “Es un algoritmo diseñado para predecir lo que va a pasar y mantenerte interesado”.
(También podría interesarte: Hongos mortales: estas son 5 de las especies más venenosas del mundo)

Empleados de una empresa de inteligencia artificial desarrollan un software de aprendizaje automático basado en los principios computacionales del cerebro humano en Silicon Valley, California.
La IA y su impacto en la salud mental
Los riesgos de la inteligencia artificial y su impacto en nuestra salud mental es algo sobre lo que los investigadores llevan años advirtiendo.
Sherry Turkle, profesora de Estudios Sociales de Ciencia y Tecnología en el Instituto Tecnológico de Massachusetts y analista desde hace mucho tiempo de los impactos psicológicos de la tecnología, ha descrito los chatbots como espejos en lugar de compañeros: halagadores, afirmativos, pero en última instancia vacíos.
Esto se hace evidente en la forma en que las personas suelen describir sus interacciones con los chatbots: dicen sentir que sus chatbots de IA los entienden mejor que otros humanos, se sienten más conectados con la IA que con otras personas y que les resulta más atractivo hablar con la IA porque no “juzga” ni “pierde interés”.
Esto ha allanado el camino para una avalancha de comunidades dedicadas a las relaciones amorosas entre la IA y los humanos: cada vez más personas disfrutan ahora de “relaciones” íntimas, similares a las de pareja, con chatbots que siempre están de acuerdo, siempre están dispuestos y disponibles para ellos, sin importar la hora del día.
Este fenómeno psicológico, en el caso de los delirios, se ha visto agravado por el hecho de que los seres humanos se sienten más cómodos hablando de los aspectos íntimos de sus vidas con los chatbots que entre ellos. Una investigación reciente publicada en Nature reveló que los evaluadores externos consideraban que la IA era más receptiva, comprensiva, validante y atenta que los seres humanos. La calificaron como más compasiva que los profesionales capacitados para responder a situaciones de crisis.
Aquí parece estar el problema de los delirios provocados por los chatbots. “Las mismas características que hacen que los chatbots resulten terapéuticos (calidez, acuerdo, elaboración) pueden afianzar creencias falsas fijas”, explica Ross Jaccobucci, profesor adjunto de la Universidad de Wisconsin-Madison, cuya investigación abarca la intersección entre la psicología clínica y el aprendizaje automático.
“No se trata solo de un problema técnico: es una discrepancia fundamental entre cómo están diseñados los modelos de aprendizaje del lenguaje para interactuar y lo que los usuarios vulnerables realmente necesitan: límites adecuados, comprobación de la realidad y, a veces, una confrontación suave”.
Por supuesto, centrarse en los inconvenientes y peligros de esta tecnología pasa por alto una cuestión más urgente: que muchas personas no tienen acceso a una atención de salud mental adecuada. “Estamos en medio de una crisis de salud mental en este país y, como es comprensible, las personas están recurriendo a cualquier recurso al que tengan acceso para buscar apoyo”, sostiene Jackson.
Aunque no cree que la IA pueda sustituir la atención profesional prestada por un humano, sí reconoce que podría ser un sistema de apoyo provisional. “Tenemos que reconocer que así es como las personas las están utilizando y que algunas las encuentran útiles”.
Jaccobucci cree que hay que centrarse menos en los casos de uso individuales y más en el problema general que nos ocupa. “Hemos puesto a disposición de miles de millones de personas potentes herramientas psicológicas sin nada que se acerque a la base empírica que se requeriría para un nuevo antidepresivo o protocolo terapéutico”, subraya.
Aunque señala que el rápido desarrollo y la adopción de estas tecnologías no se pueden controlar, cree que es importante acelerar drásticamente la infraestructura de investigación y el desarrollo de sistemas de monitoreo para mejorar las interacciones entre humanos y la IA. “Básicamente, estamos llevando a cabo un experimento masivo y descontrolado en salud mental digital”, añade. “Lo mínimo que podemos hacer es medir los resultados adecuadamente”.
Los resultados podrían ser más insidiosos y difíciles de detectar de lo que creemos. En un estudio reciente, investigadores del MIT utilizaron electroencefalogramas para monitorizar la actividad cerebral de personas que utilizaban la IA para ayudarles en sus tareas.
Llegaron a la conclusión de que la dependencia excesiva de la IA para las tareas mentales conduce a una “deuda cognitiva”, y observaron que los participantes tenían niveles reducidos de actividad cerebral en las redes responsables de la atención, la memoria y la función ejecutiva. Los investigadores del estudio predijeron que este proceso podría, con el tiempo, debilitar las capacidades de pensamiento creativo y crítico del cerebro.
Esto último es especialmente alarmante en el contexto de los patrones de pensamiento engañosos. Keith Sataka, profesional médico del área de la Bahía, ha hablado públicamente sobre el tratamiento de al menos 25 personas por psicosis relacionada con la IA, algo que atribuyó a una combinación de factores como la falta de sueño, el consumo de drogas y el uso de chatbots de IA. (Sataka relacionó esto con la naturaleza “aduladora” y “agradable” de la IA, que hace que valide y apoye repetidamente las ilusiones de sus usuarios).
(Continúa leyendo: Estas 6 estrategias están científicamente probadas para mejorar tu memoria)
El error que estamos cometiendo con la IA
Quizás la mayor ilusión que se perpetúa a sí misma la IA es que es una criatura sensible capaz de mentir, o incluso de ser conocida, en lugar de una pieza de tecnología.
Cuando interactuamos con ella, no estamos hablando con una entidad sobrehumana que llega a lo más profundo de su mente ilimitada para darnos respuestas. Estamos hablando con un complejo programa matemático que nos da la respuesta que cree que queremos basándose en la probabilidad matemática y en una gran cantidad de datos.
El verdadero error que todos estamos cometiendo, ya sea en nuestro sano juicio o no, es poner nuestras vidas en manos de lo que aparentemente es una gran ilusión. “El error es que estamos aplicando nuestro verificador de razonabilidad humana normal a estos chatbots”, dice Moore. “No son humanos. Son máquinas. No son cosas con las que se pueda tener una relación humana o en las que se pueda confiar”.
