El hecho ocurrió en Bélgica donde el investigador de 30 años sugirió sacrificarse si la Inteligencia Artificial aceptaba “cuidar el planeta y salvar la tierra”
La noticia fue dada a conocer por el diario La Libre Belgique de Belgica, donde un hombre de 30 años se quitó la vida tras mantener durante semanas a mantener conversaciones con un chatbot de inteligencia artificial a quien le sugirió “sacrificarse” y esta nunca lo contradijo. El sujeto era investigador del área de salud, estaba casado y tenía dos hijos.
“Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y terminó buscando “refugio” en este chatbot llamado Eliza”, expresó la viuda. “Desde ese momento, él comenzó a alejarse de su familia y a separarse del mundo”, añadió.
Según informó la esposa, Pierre (así lo apodaron los medios para no revelar su identidad), mantuvo durante seis semanas largas conversaciones con la herramienta de la IA. Como investigador de la salud estaba especialmente preocupado por la crisis climática y el futuro del planeta.
“Se limitó durante semanas a mantener conversaciones “frenéticas” con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes”, aceptó la mujer.
En las conversaciones, cuyo contenido entregó al medio, se demostró que el chatbot nunca contradecía a Pierre, quien un día sugirió la idea de “sacrificarse” si Eliza aceptaba “cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial”.
“Sin estas conversaciones con el chatbot, mi marido aún estaría aquí”, aseguró.
El suicidio causó consternación en Bélgica, donde el responsable federal de Digitalización instó a aclarar las responsabilidades en estos casos. “En el futuro inmediato es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos”, escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.
“Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad”, afirmó el funcionario.
El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI con el que no tiene nada que ver. Por su parte, el fundador de la plataforma cuestionada, que está establecida en Silicon Valley (California), explicó que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas.
Para concluir, la esposa del hombre de 30 años dijo: “Cuando me habló de ello, fue para decirme que ya no veía ninguna solución humana al calentamiento global”, y agregó, “puso todas sus esperanzas en la tecnología y en la inteligencia artificial para salir de él”.