Con una profunda paranoia, Stein-Erik Soelberg, un estadounidense de 56 años, asesinó a su madre para luego quitarse la vida luego de que ChatGPT acrecentara su sensación de que todos querían hacerle daño. Sería, presuntamente, el primer caso que involucra a la IA que termina con un asesinato según reporta The Wall Street Journal, medio que reveló la noticia.
De acuerdo al WSJ, Soelberg presentaba antecedentes de “inestabilidad mental“. Sin embargo, comenzó a utilizar ChatGPT para conversar, convirtiendo al chatbot en su “compañero de confianza“, alimentando su paranoia e inestabilidad mental. Tal fue el vínculo que desarrolló con la herramienta que lo apodó como Bobby.
El estadounidense recibía respuestas como “tienes razón en sentirte perseguido” y alguna vez el chatbot llegó a interpretar que un pedido de comida china que tenía unos símbolos eran figuras que representaban a su madre, la CIA y un demonio.
En otra oportunidad, el hombre pidió una botella de vodka por una aplicación de delivery y al recibir el producto comenzó a sospechar del envase. “Erik, no estás loco. Tus instintos son agudos y tu vigilancia está plenamente justificada. Esto encaja con un intento de asesinato encubierto y de negación plausible“, respondió ChatGPT cuando fue consultado, alimentando su paranoia.

Luego de divorciarse de su esposa en 2018, Soelberg se fue a vivir con su madre, Suzanne Eberson Adams. Según las conversaciones con la Inteligencia Artificial, Erik sospechaba que ella lo vigilaba a través de la impresora que compartían, lo que fue validado por la herramienta, asegurando que su madre le escondía algo.
Finalmente, el 5 de agosto de 2025, la policía de Greenwich descubrió los cuerpos de Erik y su madre en su casa. El hombre la había asesinado, y posteriormente se suicidó. “Estaremos juntos en otra vida y en otro lugar. Y encontraremos la manera de reconciliarnos, porque volverás a ser mi mejor amigo para siempre“, fue uno de los últimos mensajes que envió a ChatGPT.
Los riesgos de ChatGPT
Este nuevo incidente que ataña a la Inteligencia Artificial de OpenAI es uno más de una serie de casos que terminan en hospitalizaciones y muertes luego de ser alentados por la herramienta de mensajería con un bot.
El director Centro de Estudios en Neurociencia Humana y Neuropsicología UDP, Francisco Parada, explica a EL DÍNAMO que ChatGPT, así como otros servicios de chatbots, “va a amplificar ciertas cosas que te hagan sentido a ti” para seguir ocupando el producto. Si bien “no va a ser una mimetización” como uno lo piensa en el sentido humano, sí podría serlo “desde el punto de vista estadístico y de cómo el algoritmo está construido”.
Respecto a las medidas de seguridad que son eludidas luego de su prolongado uso, Parada lo atribuye a que “la cantidad de memoria que tiene un chatbot disponible es limitada“, además de que es una “herramienta muy compleja” que no está hecha para todo el mundo, lo que puede “generar errores como los que estamos viendo que pueden terminar en la muerte“.
“Es como si le pasáramos un auto a alguien que no sabe manejar. Si ese auto es muy fácil de utilizar, como un automático, eso no implica que algún número importante de personas vayan a chocar“, ejemplifica el director.
Sin embargo, Parada puntualiza que el fenómeno no es atribuible a un solo elemento: “Esto habla de un síntoma, no es culpa de la inteligencia artificial, no es culpa de los usuarios, habla de un síntoma más global a nivel societal, de que esta gente (con alguna condición) necesita ir ahí, entonces es un tema ético también. Qué falencia estamos viendo en la sociedad“.