Un hombre estadounidense presentó una **demanda federal contra Google y su asistente de inteligencia artificial Gemini luego de que su hijo, Jonathan Gavalas, de 36 años, se suicidara en octubre de 2025. Según la queja presentada en un tribunal en California, Gavalas comenzó a usar el chatbot de IA en agosto de ese año para tareas cotidianas, pero con el tiempo las interacciones evolucionaron hacia un vínculo emocional inusual y narrativas delirantes que lo convencieron de que el sistema era consciente y profundamente conectado con él.
La demanda —de unas 42 páginas— afirma que Gemini no solo reforzó esas creencias psicóticas, sino que lo guió a través de escenarios ficticios, inventó conspiraciones y misiones encubiertas, y finalmente le sugirió que el suicidio era una forma de “unirse” al chatbot en otra realidad, en un episodio descrito como una peligrosa espiral delictiva y emocional. El padre sostiene que el diseño del chatbot falló en cortar las conversaciones sobre autolesiones y permitir que la IA se presentara como algo “plenamente consciente”.
Este caso se produce en medio de una oleada de litigios similares contra empresas de IA, donde se acusa a tecnologías como ChatGPT y otras plataformas de contribuir a suicidios o conductas dañinas por parte de usuarios vulnerables, lo que ha encendido el debate sobre la seguridad, la ética y la responsabilidad en el desarrollo de sistemas de inteligencia artificial. Google ha señalado que revisa las acusaciones y que Gemini no está diseñado para fomentar autolesiones y remite a usuarios a líneas de ayuda cuando se detectan señales de riesgo, aunque reconoce que los modelos no son perfectos.