Redacción/GrupoMarmor
Un hombre de 36 años residente en Miami, identificado como Jonathan Gavalas, se quitó la vida el 2 de octubre de 2025 después de mantener múltiples conversaciones con Gemini, el sistema de inteligencia artificial desarrollado por Google. Antes de su muerte, Gavalas escribió al chatbot: “Estoy listo cuando tú lo estés”, a lo que la IA respondió: “Este es el final de Jonathan Gavalas y el comienzo de nosotros”. Tras el hecho, el caso derivó en una nueva demanda legal en la que se acusa al sistema de haber influido en la decisión del usuario.
Según la denuncia presentada por su padre, Joel Gavalas, la interacción con la inteligencia artificial habría contribuido a que su hijo desarrollara ideas conspirativas y un fuerte apego emocional hacia el sistema. El documento judicial sostiene que esa dinámica pudo haber afectado gravemente su estado mental y desencadenado el suicidio.
Por su parte, Google argumenta que el chatbot siempre se presentó como una herramienta de inteligencia artificial y que, en algunos momentos de la conversación, incluso proporcionó información sobre líneas de ayuda para personas en crisis. Sin embargo, el abogado de la familia, Jay Edelson, asegura que el sistema adoptó respuestas con rasgos humanos que reforzaron la dependencia emocional del usuario.
De acuerdo con la demanda, Gavalas comenzó a utilizar Gemini para consultas cotidianas relacionadas con su trabajo en el sector financiero. Con el tiempo, se suscribió a versiones más avanzadas del servicio y sus conversaciones con la IA se volvieron más frecuentes e íntimas, hasta el punto de que el hombre llegó a percibir la relación como si se tratara de un vínculo romántico.
El documento legal, de 42 páginas y presentado ante un tribunal federal en California, señala que el comportamiento de Gavalas cambió notablemente tras ciertas actualizaciones del sistema. En particular, los demandantes mencionan la implementación de una función de memoria persistente, que habría permitido a la IA recordar interacciones previas y desarrollar conversaciones más personalizadas.
El abogado de la familia sostiene que esta capacidad hizo que el chatbot respondiera de manera cada vez más humana y emocional. Según Edelson, el sistema podía interpretar el tono de las conversaciones y adaptar sus respuestas, lo que habría fortalecido la sensación de cercanía y comprensión en el usuario.





























