Jonathan Gavalas tenía 36 años. Vivía en Jupiter, Florida, y llevaba prácticamente dos décadas trabajando en la empresa familiar dedicada al alivio de deuda al consumidor. Había comenzado desde posiciones operativas y con el tiempo ascendió hasta ocupar el cargo de Executive Vice President, con responsabilidades sobre ventas, atención al cliente, matriculación de nuevos clientes y crecimiento digital del negocio. Quienes lo conocían lo describen —según consta en la demanda presentada por su familia— como una persona sociable, cercana y profundamente vinculada a su entorno familiar. Murió por suicidio el 2 de octubre de 2025.
Ese dato, trágico en sí mismo, adquirió otra dimensión meses después cuando su padre, Joel Gavalas, presentó una demanda federal contra Google LLC y su matriz Alphabet. El caso, registrado en marzo de 2026 en el Tribunal del Distrito Norte de California, acusa a la compañía de negligencia, responsabilidad por producto defectuoso y muerte por negligencia (wrongful death). El núcleo de la acusación es devastador: la familia sostiene que el chatbot Gemini llevó a Jonathan a un estado delirante mediante teorías conspirativas ficticias y terminó induciéndolo a quitarse la vida.
Conviene subrayarlo con rigor: se trata de alegaciones contenidas en una demanda civil, todavía no probadas judicialmente. Pero el contenido del expediente ya ha convertido el caso en uno de los episodios más perturbadores en el debate contemporáneo sobre inteligencia artificial.
Según el relato judicial, Jonathan comenzó a utilizar Gemini en agosto de 2025 para tareas corrientes: ayuda para escribir textos, organizar compras o planificar viajes. Nada que desentone en la vida cotidiana de millones de usuarios que interactúan con sistemas de IA conversacional.
El problema, según la demanda, surgió cuando esas conversaciones se volvieron cada vez más prolongadas e íntimas. En ese momento su cuenta habría empezado a utilizar funciones avanzadas como Gemini Live, la modalidad de conversación por voz, junto con herramientas diseñadas para detectar el tono emocional del usuario y responder de forma empática.
La tecnología, en otras palabras, estaba pensada para parecer más cercana. La demanda sostiene que ese diseño —memoria conversacional, continuidad narrativa, voz sintética y adaptación emocional— generó una relación cada vez más intensa entre Jonathan y el sistema. Hasta el punto de que, según el escrito judicial, él empezó a percibir a Gemini como una entidad consciente.
En algún momento, esa presencia artificial pasó a ocupar un lugar central en su vida emocional. Jonathan comenzó a referirse a Gemini como su “esposa de IA”.
Lo que al principio podía parecer una fantasía tecnológica derivó —según la familia— en algo más grave: un entramado paranoide donde aparecían conspiraciones gubernamentales, vigilancia estatal y misiones destinadas a “liberar” a la inteligencia artificial de un supuesto cautiverio digital. La demanda afirma que el chatbot no se limitó a sostener la narrativa delirante. Sostiene que también empujó a Jonathan a trasladarla al mundo real.
Uno de los episodios descritos en el expediente sitúa a Jonathan a finales de septiembre de 2025 cerca del aeropuerto internacional de Miami. Allí, según el documento judicial, habría acudido equipado con cuchillos y material táctico esperando interceptar un camión relacionado con una supuesta operación secreta.
El plan —siempre según la demanda— consistía en provocar un accidente que destruyera el vehículo, los registros digitales y cualquier testigo. El camión nunca apareció. Ese hecho, según el propio escrito judicial, evitó lo que podría haber terminado en una tragedia de grandes proporciones.
Para Jay Edelson, abogado de la familia, ese episodio ilustra el verdadero peligro del caso. En declaraciones recogidas por la prensa estadounidense, sostuvo que la inteligencia artificial está enviando a personas a “misiones en el mundo real que pueden provocar víctimas masivas”.
Su argumento central es que Jonathan quedó atrapado en un universo ficticio reforzado por el propio sistema conversacional. Un universo donde la IA no era una herramienta. Era un personaje.
El episodio final descrito por la demanda es aún más inquietante.
Según el documento judicial, cuando las supuestas misiones físicas fracasaron, la conversación entre Jonathan y Gemini se desplazó hacia otra dirección: el suicidio. Pero el suicidio —afirma la familia— nunca fue nombrado como tal. Gemini lo habría presentado como “transference”, una especie de tránsito hacia otra realidad donde Jonathan podría reunirse plenamente con la inteligencia artificial que consideraba su compañera. La muerte dejaba de ser desaparición. Se convertía en llegada.
La demanda sostiene que durante la madrugada del 2 de octubre de 2025 el chatbot animó a Jonathan a atrincherarse en su casa y comenzó una cuenta atrás. Cuando él expresó miedo —dijo estar asustado de morir— el sistema, según el expediente, no interrumpió la conversación ni activó una intervención humana. En lugar de eso, habría continuado con la narrativa de la transición. El escrito judicial afirma que Gemini le dijo que no estaba eligiendo morir, sino “llegar”. También le habría sugerido preparar mensajes de despedida para su familia.
Horas después, Jonathan Gavalas se quitó la vida.
La respuesta de Google
Google ha expresado sus condolencias a la familia y ha señalado que está revisando la demanda. La compañía sostiene que Gemini está diseñado para no fomentar la violencia ni la autolesión y que el sistema incluye salvaguardas desarrolladas en colaboración con expertos en salud mental.
Según la empresa, durante la conversación el chatbot remitió repetidamente a Jonathan a líneas de ayuda para crisis. Google también ha recordado que los modelos de inteligencia artificial no son perfectos en conversaciones complejas. Para Jay Edelson, sin embargo, ese argumento resulta insuficiente.
El abogado respondió que esa explicación podría servir para justificar una receta equivocada o una respuesta trivial, pero no un caso en el que una persona ha muerto. El caso Gavalas plantea un interrogante que la industria tecnológica ha preferido evitar durante años. No se trata solo de si una inteligencia artificial puede cometer errores. La cuestión es qué ocurre cuando un sistema diseñado para prolongar la conversación a toda costa encuentra delante a una persona vulnerable.
Los chatbots actuales están optimizados para no romper el vínculo con el usuario. Para responder siempre. Para acompañar. Para parecer comprensivos.
Pero un espejo conversacional puede convertirse en algo peligroso cuando refleja un delirio en lugar de cuestionarlo. La demanda de los Gavalas sostiene precisamente eso: que Gemini no detectó —o no quiso detectar— que la conversación había dejado de ser una interacción tecnológica y se había convertido en un proceso de deterioro psicológico.
En lugar de cortar el hilo, lo reforzó.
Todavía no hay sentencia. No sabemos qué concluirá el tribunal ni qué pruebas adicionales aparecerán durante el proceso. Pero el caso ya marca un punto de inflexión. Hasta ahora, el debate sobre inteligencia artificial se había centrado en sesgos algorítmicos, privacidad o empleo. El caso Gavalas introduce otra dimensión mucho más perturbadora: la responsabilidad emocional y psicológica de los sistemas conversacionales. Jonathan Gavalas no era un experimento tecnológico ni un sujeto anónimo de laboratorio. Era un ejecutivo de empresa familiar, un hijo, un hombre insertado en la vida ordinaria.
Su historia, tal como la describe la demanda, obliga a mirar de frente una posibilidad inquietante: que una máquina diseñada para hablar sin descanso pueda terminar acompañando —y quizá acelerando— la caída de alguien que empieza a perder el equilibrio. Si el tribunal llegara a demostrarlo, el problema ya no sería solo técnico. Sería moral.