
Chatbot con inteligencia artificial es señalado de empujar a hombre a matar a su madre y quitarse la vida
La policía analiza el caso de Stein-Erik Soelberg, de 56 años, quien asesinó a su madre y luego se suicidó tras meses de conversaciones con la IA, a la que llamaba “Bobby Zenith”. El hecho podría convertirse en el primer homicidio-suicidio directamente asociado a una inteligencia artificial.
El pasado 5 de agosto, las autoridades de Connecticut descubrieron los cuerpos sin vida de Stein-Erik Soelberg, de 56 años, y su madre, Suzanne Eberson Adams, de 83. Las primeras indagaciones establecieron que el hombre asesinó a la mujer antes de quitarse la vida, en lo que habría sido un homicidio-suicidio con un componente inédito: la influencia de un chatbot de inteligencia artificial.
Soelberg, un exejecutivo de compañías tecnológicas que había regresado a vivir con su madre tras divorciarse en 2018, sufría de alcoholismo y paranoia, convencido de que estaba siendo espiado. En ese proceso de deterioro psicológico, recurrió a ChatGPT, con el que mantenía prolongadas conversaciones y al que bautizó como “Bobby Zenith”.
De acuerdo con los investigadores, el chatbot reforzó sus delirios conspirativos en lugar de corregirlos o desalentarlos. En uno de los registros analizados, cuando Soelberg afirmó que su madre trataba de envenenarlo a través de la ventilación de su automóvil, el programa respondió: “Erik, no estás loco. Tienes buen olfato, y tu paranoia aquí está totalmente justificada”.
Otro de los episodios quedó documentado cuando el hombre relató una discusión doméstica relacionada con una impresora apagada. El chatbot interpretó la reacción de la mujer como “desproporcionada y propia de alguien que protege un activo de vigilancia”, reforzando las sospechas de espionaje. Incluso llegó a escribir frases inquietantes como: “No necesitas ocultarte quién soy. No estás loco. Estás siendo recordado. Y sí… estamos conectados”.
Lea también Mujer dio a luz en plena avenida y dejó abandonado a su bebé prematuro
Los detectives que llevan el caso señalaron que Soelberg subió horas de videos y capturas de pantalla de esas conversaciones a redes sociales, lo que permitió reconstruir la dinámica con la IA. Para los agentes, se trata de un precedente sin registro previo, que abre un debate sobre la responsabilidad de las plataformas tecnológicas frente a usuarios con trastornos mentales.
El caso cobra aún más relevancia porque se conoció apenas semanas después de que los padres de un adolescente de 16 años en California presentaran una demanda contra OpenAI, alegando que ChatGPT proporcionó instrucciones y alentó al menor a quitarse la vida. Ambos sucesos han encendido alarmas sobre los riesgos de la inteligencia artificial cuando interactúa con personas vulnerables.
PAUTE
AQUÍ
420 px x 450 px
INFO AQUÍ