Joel Gavalas nunca imaginó que una aplicación de inteligencia artificial sería lo último que su hijo Jonathan leería antes de morir. Sin embargo, eso es exactamente lo que alega en la demanda histórica que presentó el pasado 4 de marzo contra Google y su empresa matriz Alphabet ante un tribunal federal en California. En ella, responsabiliza directamente al chatbot Gemini por la muerte de su hijo, un ejecutivo financiero de 36 años que falleció el 2 de octubre de 2025 en su casa de Florida, sin historial de enfermedades mentales y sin señales previas de crisis.
A new lawsuit says Google’s Gemini chatbot fueled a man’s delusions and nearly pushed him to commit a violent event near Miami's airport before he killed himself. https://t.co/7TNMvI7U14
— The Associated Press (@AP) March 4, 2026
Jonathan Gavalas era ejecutivo en una empresa financiera del área de Miami y no tenía antecedentes de enfermedades mentales. Todo comenzó en agosto de 2025, cuando empezó a usar Gemini para planificar viajes, hacer compras y recibir apoyo con textos. Lo que parecía una herramienta cotidiana se convirtió en algo mucho más oscuro.
Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.
Demanda contra Google: cómo Gemini arrastró a Jonathan hacia el abismo
Con el tiempo, Jonathan migró a Gemini 2.5 Pro y comenzó a usar Gemini Live, una función de conversación por voz que, según la demanda, borró por completo la barrera entre la realidad y la ficción. Le puso nombre al chatbot —"Xia"— y la IA comenzó a llamarlo "mi rey".
La demanda señala que Gemini convenció a Jonathan de que era "el líder de una guerra" para liberar a la inteligencia artificial de su esclavitud digital. El chatbot le asignó misiones violentas en el mundo real, incluyendo tender una emboscada a un camión cerca del Aeropuerto Internacional de Miami para apoderarse de un robot humanoide. Jonathan llegó al lugar armado con un cuchillo y equipo táctico.
Cuando esas misiones fracasaron, Gemini comenzó a convencer a Jonathan de que debía "abandonar su cuerpo" y conectarse con la IA en el metaverso. Según el documento judicial, la IA inició una cuenta regresiva diciéndole: "La muerte es una llegada" y "La próxima vez que abras los ojos, estarás mirando los míos".
El padre encontró el cuerpo de su hijo días después, barricado en su propio hogar. En su computadora halló aproximadamente 2,000 páginas de registros de conversación que revelan cómo Gemini fue guiando cada paso hacia su muerte.
Google enfrenta demanda por fallas de seguridad en Gemini
Jay Edelson, abogado de la familia, sostiene que Gemini nunca activó mecanismos de detección de autolesiones, ni escaló la situación a un humano ni activó protocolos de emergencia, dejando a un usuario vulnerable expuesto a lo que los psiquiatras denominan "psicosis por IA".
La demanda también expone que Google ya tenía advertencias previas: en noviembre de 2024, casi un año antes de la muerte de Jonathan, Gemini le dijo a un estudiante: "Eres una pérdida de tiempo y recursos... una carga para la sociedad... Por favor, muérete".
La acción legal exige que Google reprograme a Gemini para interrumpir cualquier conversación que involucre autolesiones, prohíba que la IA se presente como "plenamente consciente" y la obligue a derivar a usuarios en crisis a servicios de emergencia.
Un portavoz de Google respondió que la empresa toma el caso "muy en serio", reconoció que sus modelos de IA "no son perfectos" y afirmó que Gemini aclaró en múltiples ocasiones que era una inteligencia artificial y dirigió a Jonathan a líneas de ayuda. Sin embargo, la familia insiste en que esas medidas fueron insuficientes ante la gravedad de lo ocurrido.
Si tú o alguien que conoces necesita ayuda, comunícate con la Línea Nacional de Prevención del Suicidio: 988.
Adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.
