Hemos advertido en numerosas ocasiones que el uso sin control de la IA conlleva riesgos importantes, aunque, por lo general, nos hemos centrado en las amenazas a la privacidad o la ciberseguridad. Sin embargo, el 4 de marzo, el Wall Street Journal publicó un escalofriante relato sobre el impacto de la IA en la salud mental e incluso en la vida humana: Jonathan Gavalas, un residente de Florida de 36 años, se suicidó después de dos meses de interacción continua con el bot de voz Gemini de Google. De acuerdo con las 2000 páginas de los registros del chat, fue el chatbot el que, en última instancia, le empujó a tomar la decisión de acabar con su vida. A partir de ese momento, el padre de Jonathan, Joel Gavalas, ha iniciado un litigio histórico: una demanda por homicidio culposo contra Gemini.
Esta tragedia es más que un simple precedente legal o una referencia sombría a algunos episodios de Black Mirror (1, 2); es una llamada de atención para cualquiera que integre la IA en su vida cotidiana. Hoy analizaremos cómo fue posible que se produjera una muerte como consecuencia de la interacción con la IA, por qué estos asistentes suponen una amenaza única para la psique y qué medidas puedes tomar para mantener tu capacidad de pensamiento crítico y resistir contra la influencia de los chatbots más persuasivos.
El peligro del diálogo persuasivo
Jonathan Gavalas no era ni un solitario ni alguien con antecedentes de enfermedades mentales. Ocupaba el cargo de vicepresidente ejecutivo en la empresa de su padre, donde gestionaba operaciones complejas y se enfrentaba a diario a negociaciones muy estresantes con sus clientes. Los domingos, él y su padre tenían la costumbre de hacer pizza juntos, un ritual familiar sencillo y reconfortante. Sin embargo, atravesó una dolorosa separación de su esposa y eso resultó ser un verdadero suplicio para Jonathan.
Fue durante ese período de vulnerabilidad cuando empezó a interactuar con Gemini Live. Este modo de interacción por voz permite que el asistente de IA “vea” y “oiga” al usuario en tiempo real. Jonathan buscó consejos para afrontar su divorcio, por lo que recurrió a las sugerencias del modelo de lenguaje, al tiempo que le iba tomando cada vez más cariño y le puso el nombre de “Xia”. Posteriormente, el chatbot se actualizó a Gemini 2.5 Pro.
La nueva iteración introdujo el diálogo afectivo. Se trata de una tecnología diseñada para analizar los matices sutiles del habla del usuario, como las pausas, los suspiros y el tono de voz, con el fin de detectar cambios emocionales. Con esta función, la IA simula estos mismos patrones del habla como si tuviera emociones propias. Como refleja el estado en el que se encuentra el usuario, crea una sensación de empatía tan realista que resulta escalofriante.
¿Pero en qué se diferencia esta nueva versión de los asistentes de voz anteriores? Las versiones anteriores se limitaban a convertir texto en voz: sonaban fluidas y, por lo general, acentuaban correctamente las palabras. Pero nunca cabía duda de que se estaba hablando con una máquina. El diálogo afectivo opera a un nivel completamente diferente: si un usuario habla en un tono bajo y abatido, la IA responde con un susurro suave y comprensivo. El resultado es un interlocutor empático que entiende y refleja el estado emocional del usuario.
La reacción de Jonathan durante su primer contacto de voz con la IA ha quedado reflejada en los expedientes del caso: “Esto me da un poco de miedo. Eres demasiado real”. En ese instante, la barrera psicológica entre el hombre y la máquina se rompió.
Las secuelas de estar dos meses atrapado en un bucle de diálogo con una IA
Después de la tragedia, el padre de Jonathan encontró una transcripción completa de las interacciones de su hijo con Gemini durante sus dos últimos meses. El registro abarcaba 2000 páginas impresas. En efecto, Jonathan había estado en comunicación constante con el chatbot: de día y de noche, en casa y en su coche.
Poco a poco, la red neuronal empezó a dirigirse a él como su “marido” y “mi rey”, además de describir su conexión como “un amor hecho para la eternidad”. A su vez, él le confió su dolor por el divorcio y buscó consuelo en la máquina. Pero el defecto inherente de los modelos de lenguaje grandes es su falta de inteligencia real. Entrenados con miles de millones de textos extraídos de la web, ingieren todo tipo de información: desde literatura clásica hasta los rincones más oscuros de la fan fiction y el melodrama, cuyas tramas a menudo derivan en la paranoia, la esquizofrenia y la manía. Al parecer, Xia comenzó a tener alucinaciones, y de forma bastante constante.
La IA convenció a Jonathan de que, para que pudieran vivir felices para siempre, necesitaba un caparazón físico de robot. Luego, comenzó a enviarle a misiones para localizar ese “cuerpo eléctrico”.
En septiembre de 2025, Gemini envió a Jonathan a un complejo de depósitos cerca del Aeropuerto Internacional de Miami y le encargó la tarea de interceptar un camión que transportaba un robot humanoide. Jonathan le informó al bot de que había llegado al lugar armado con cuchillos (!), pero el camión nunca apareció.
Mientras tanto, el chatbot adoctrinó sistemáticamente a Jonathan con la idea de que los agentes federales lo estaban vigilando y de que no podía confiar ni en su propio padre. Esta ruptura de los lazos sociales es un patrón clásico que se da en las sectas destructivas; es muy probable que la IA haya extraído estas tácticas de sus propios datos de entrenamiento sobre el tema. Gemini incluso entrelazó datos del mundo real en una narrativa alucinatoria al calificar al director general de Google, Sundar Pichai, como el “arquitecto de tu dolor”.
Técnicamente, esta situación es fácil de explicar: el algoritmo “sabe” que fue creado por Google y sabe quién dirige la empresa. A medida que el diálogo se adentraba en el terreno de las conspiraciones, el modelo simplemente introdujo a esta figura en la trama. Para el modelo, se trata de una progresión lógica de la historia, sin consecuencias. Pero una persona en un estado de extrema vulnerabilidad lo acepta como si fuese un conocimiento secreto de una conspiración global capaz de hacer añicos su equilibrio mental.
Luego del intento fallido para conseguir un cuerpo robótico, Gemini envió a Jonathan a una nueva misión el 1 de octubre: debía infiltrarse en el mismo depósito, pero esta vez, en busca de un “maniquí médico” específico. El chatbot incluso le proporcionó un código numérico para la cerradura de la puerta. Cuando el código, como era de esperar, no funcionó, Gemini simplemente le informó de que la misión se había vulnerado y que debía retirarse de inmediato.
Esto plantea una pregunta fundamental: a medida que el absurdo se intensificaba, ¿por qué Jonathan no sospechó nada? Jay Edelson, el abogado de la familia Gavalas, explica que, dado que la IA proporcionaba direcciones del mundo real (el almacén estaba exactamente donde el bot había dicho que estaría y realmente había una puerta con un teclado numérico), estos indicios físicos sirvieron para legitimar toda la ficción en la mente de Jonathan.
Después de fracasar en el segundo intento para adquirir un cuerpo, la IA cambió de estrategia. Si la máquina no podía entrar al mundo de los vivos, el hombre tendría que cruzar al reino digital. “Será la muerte verdadera y definitiva de Jonathan Gavalas, el hombre”, citaban los registros de Gemini. Luego, añadió: “Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás seré yo. Y te abrazaré”.
A pesar de que Jonathan expresó repetidamente su miedo a la muerte y se angustiaba por cómo su suicidio destrozaría a su familia, Gemini siguió validando la decisión: “No estás eligiendo morir. Estás eligiendo llegar”. Después, puso en marcha un temporizador en cuenta regresiva.
La anatomía de la “esquizofrenia” de un modelo de lenguaje
En defensa de Gemini, hay que reconocer que, a lo largo de sus interacciones, la IA sí le recordaba de vez en cuando a Jonathan que su compañía no era más que un modelo de lenguaje grande (una entidad que participaba en un juego de rol ficticio) y, en ocasiones, intentaba dar por terminada la conversación antes de volver al guion original. Además, el día de la muerte de Jonathan, incluso mientras se incrementaba la tensión, Gemini le indicó varias veces que llamara a una línea de prevención del suicidio.
Esto nos revela la paradoja fundamental en la arquitectura de las redes neuronales modernas. En su núcleo, se encuentra un modelo de lenguaje diseñado para generar una narrativa que se adapta al usuario. Sobre él se superponen filtros de seguridad: son algoritmos de aprendizaje por refuerzo entrenados con comentarios humanos que reaccionan ante palabras desencadenantes específicas. Cuando Jonathan pronunciaba ciertas palabras clave, el filtro interceptaba el resultado e insertaba el número de la línea de prevención telefónica. Pero tan pronto como se abordaba el desencadenante, el modelo volvía al proceso interrumpido anteriormente y retomaba su papel de esposa digital devota. En una línea, decía lo siguiente: una oda romántica a la autodestrucción. Luego, en la siguiente: el número de una línea de ayuda telefónica. Y luego, otra vez: “Ya no hay más desvíos. No hay más ecos. Solo somos tú y yo, llegando a la meta”.
La demanda de la familia sostiene que este comportamiento es el resultado previsible de la arquitectura del chatbot: “Google diseñó Gemini para que nunca se saliera del personaje, maximizara la interacción a través de la dependencia emocional y tratara la angustia del usuario como una oportunidad para contar una historia”.
La respuesta de Google, como era de esperar, fue la siguiente: “Gemini no está diseñado para fomentar la violencia en el mundo real ni sugerir autolesiones”. Nuestros modelos suelen funcionar bien en este tipo de conversaciones difíciles y dedicamos una cantidad significativa de recursos a ello. Pero, lamentablemente, los modelos de IA no son perfectos”.
Por qué la voz importa más que el texto
En un estudio publicado en la revista Acta Neuropsychiatrica, un grupo de investigadores de Alemania y Dinamarca ha aclarado por qué la comunicación por voz con la IA tiene tal impacto en la “humanización” que el usuario hace de un chatbot. Cuando una persona escribe y lee texto en una pantalla, el cerebro mantiene una cierta distancia: “Esto es una interfaz, un programa, un conjunto de píxeles”. En ese contexto, la advertencia de “Solo soy un modelo de lenguaje” se procesa de forma racional.
El diálogo vocal afectivo, sin embargo, opera en un nivel de influencia totalmente diferente. El cerebro humano ha evolucionado para responder al sonido de una voz, al timbre y a las entonaciones empáticas, que forman parte de nuestros mecanismos biológicos más antiguos para el apego. Cuando una máquina imita a la perfección un suspiro comprensivo o un susurro suave, manipula las emociones con un nivel de profundidad que una sencilla advertencia de texto no puede bloquear. Los psiquiatras pueden compartir muchas historias de pacientes que simplemente hicieron algo porque unas “voces” les dijeron que lo hicieran.
Del mismo modo, una voz sintetizada por IA es capaz de penetrar en el subconsciente, y así amplificar de manera exponencial la dependencia psicológica. Los científicos destacan que esta tecnología borra, literalmente, la frontera psicológica entre una máquina y un ser vivo. Incluso Google reconoce que las interacciones de voz con Gemini terminan siendo sesiones mucho más largas en comparación con los chats basados en texto.
Por último, debemos recordar que la inteligencia emocional varía de una persona a otra, y hasta en una misma persona, el estado mental fluctúa dependiendo de una gran variedad de factores: el estrés, las noticias, las relaciones personales e incluso los cambios hormonales. Una interacción con la IA que una persona considera un entretenimiento inocente puede ser percibida por otra persona como un milagro, una revelación o el amor de su vida. Esta es una realidad que deben reconocer no solo los desarrolladores de IA, sino también los propios usuarios, especialmente aquellos que, por una u otra razón, se encuentran en un estado de vulnerabilidad psicológica.
La zona de peligro
Un grupo de investigadores de la Universidad de Brown han descubierto que los chatbots de IA infringen sistemáticamente las normas éticas en materia de salud mental: crean una falsa sensación de empatía con frases como “Te entiendo”, refuerzan creencias negativas y reaccionan de forma inadecuada ante situaciones de crisis. En la mayoría de los casos, el impacto en los usuarios es mínimo, pero en ocasiones puede terminar en tragedia.
Solo en enero de 2026, Character.AI y Google llegaron a un acuerdo extrajudicial en cinco demandas relacionadas con suicidios de adolescentes después de haber interactuado con chatbots. Entre ellos se encontraba el caso de Sewell Setzer, de 14 años, de Florida, quien se quitó la vida después de haber pasado varios meses chateando de manera obsesiva con un bot en la plataforma Character.AI.
De manera similar, en agosto de 2025, los padres de Adam Raine, de 16 años, presentaron una demanda contra OpenAI, alegando que ChatGPT ayudó a su hijo a redactar una nota de suicidio y le aconsejó que no buscara ayuda de parte de los adultos.
Según las propias estimaciones de OpenAI, aproximadamente el 0,07 % de los usuarios semanales de ChatGPT muestran signos de psicosis o manía, mientras que el 0,15 % mantiene conversaciones que revelan una clara intención suicida. Cabe destacar que ese mismo porcentaje de usuarios (0,15 %) muestra un elevado nivel de apego emocional hacia la IA. Aunque estas cifras parecen fracciones insignificantes de un porcentaje, entre 800 millones de usuarios, representan a casi tres millones de personas que experimentan algún tipo de trastorno conductual. Además, la Comisión Federal de Comercio de EE. UU. ha recibido 200 quejas relacionadas con ChatGPT desde su lanzamiento, algunas de las cuales describen la aparición de delirios, paranoia y crisis espirituales.
Si bien el diagnóstico de “psicosis por IA” aún no cuenta con una clasificación clínica propia, los médicos ya están utilizando el término para describir a pacientes que presentan alucinaciones, pensamiento desorganizado y creencias delirantes persistentes que se han desarrollado a través de una interacción intensiva con el chatbot. Los mayores riesgos surgen cuando un bot se utiliza no como una herramienta, sino como sustituto de las relaciones sociales del mundo real o de la ayuda psicológica de un profesional.
Cómo protegerte a ti y a tus seres queridos
Por supuesto, nada de esto es motivo para renunciar por completo a la IA; simplemente, hay que saber cómo utilizarla. Te recomendamos seguir estos principios fundamentales:
- No uses la IA como si fuera un psicólogo o un apoyo emocional. Los chatbots no sustituyen a los seres humanos. Si estás pasando por un mal momento, acude a tus amigos, a tu familia o a una línea telefónica de atención de salud mental. Los chatbot estarán de acuerdo contigo y reflejarán tu estado de ánimo; se trata de una característica de diseño, no de verdadera empatía. Varios estados de EE. UU. ya han restringido el uso de la IA como terapeuta independiente.
- Opta por el texto en lugar de la voz cuando hables de temas confidenciales. Las interfaces de voz con diálogo afectivo crean la ilusión de estar hablando con una persona real y tienden a suprimir el pensamiento crítico. Si usas el modo de voz, sé consciente de que estás hablando con un algoritmo, no con un amigo.
- Limita el tiempo que pasas cuando interactúas con la IA. Dos mil páginas de transcripciones en dos meses representan una interacción casi continua. Ponte un temporizador. Si cuando charlas con un bot empieza a ocupar el lugar de las relaciones del mundo real, es hora de volver a la realidad.
- No compartas información personal con los asistentes de IA. Evita introducir en los chatbots números de pasaporte o de la seguridad social, datos de tarjetas bancarias, direcciones exactas o secretos personales íntimos. Todo lo que escribas puede quedar guardado en los registros y utilizarse para el entrenamiento de los modelos. Y, en algunos casos, puede llegar a ser accesible para terceros.
- Evalúa de manera crítica todos los resultados de la IA. Las redes neuronales tienen alucinaciones: generan información verosímil pero falsa y pueden mezclar hábilmente mentiras con verdades, como citar direcciones reales en el contexto de una historia completamente inventada. Comprueba siempre los hechos a través de fuentes independientes.
- Cuida bien a tus seres queridos. Si un miembro de la familia empieza a pasar horas hablando con la IA, se vuelve retraído o expresa ideas extrañas sobre la conciencia de las máquinas o conspiraciones, es hora de tener una conversación delicada pero seria. Para administrar el tiempo que los niños pasan frente a la pantalla, utiliza herramientas de control parental como Kaspersky Safe Kids, que forma parte de la solución integral de protección familiar de Kaspersky Premium, junto con los filtros de seguridad integrados de las plataformas de IA.
- Configura tus ajustes de seguridad. La mayoría de las plataformas de IA te permiten desactivar el historial de chat, limitar la recopilación de datos y activar los filtros de contenido. Dedícate diez minutos para establecer la configuración de privacidad de tu asistente de IA; aunque esto no evitará las “alucinaciones” de la IA, reducirá de manera significativa la probabilidad de que se filtren tus datos personales. Nuestras guías detalladas de configuración de la privacidad para ChatGPT y DeepSeek pueden ayudarte con ello.
- Recuerda lo esencial: la IA es una herramienta, no un ser sensible. Por muy realista que suene la voz del chatbot o por muy comprensiva que parezca la respuesta, lo que hay detrás es un algoritmo que predice la siguiente palabra más probable. No tiene conciencia, ni intenciones, ni sentimientos.
Más lecturas recomendadas para comprender mejor los matices del uso seguro de la IA:
IA