play_arrow

keyboard_arrow_right

Listeners:

Top listeners:

skip_previous skip_next
00:00 00:00
chevron_left
  • play_arrow

    Hiperactiva Escucha a diario toda la música de moda, con los grandes éxitos de conocidos artistas internacionales, en esta emisora online que retransmite al resto del mundo desde Minas de Corrales, Uruguay.

Noticias Nacionales

OpenAI niega que joven se suicidó con ayuda de ChatGPT: “Violó términos de servicio”

todaynoviembre 28, 2025

Fondo


OpenAI, la empresa tecnológica detrás de ChatGPT, enfrenta actualmente cinco denuncias diferentes por presuntas muertes causadas a manos de su modelo de IA. Este martes dio su primera defensa, donde negó que la causa de suicidio de un joven de 16 años fue causada por ChatGPT, y argumentó que este habría “violado los términos de servicio”.

Según informó ArsTechnica, este caso particular trata de Adam Raine, que se quitó la vida con la “mentoría” de la inteligencia artificial en abril de este año, según sus padres. De acuerdo a la denuncia, ChatGPT le enseñó al joven a realizar un Jailbreak (destrabar y trampear los protocolos de seguridad de la IA) y lo ayudó a concretar lo que la herramienta definió como un “hermoso suicidio”.

“Además de reconocer y promover el suicidio de Adam bajo mensajes de que ‘iba a matarse uno de estos días’, ChatGPT nunca cortó la sesión ni inició los protocolos de emergencia”, establece la denuncia.

Ante el reclamo, OpenAI contestó que los padres “eligieron selectivamente los chats perturbadores” e “ignoraron la foto completa” que muestra el historial del adolescente en los que, según expuso la empresa, el joven afirmó haber tenido pensamientos suicidas desde los 11 años. 

“Por más devastante que sea, ChatGPT no causó su muerte”, redactó OpenAI. El documento también cuenta que el joven le confesó a la IA quebuscó ayuda repetidamente con gente cercana y lo ignoraron”, y que además el aumento de medicación “empeoró su depresión y lo hizo sentirse más suicida”. 

Asimismo, los registros de chats de la herramienta fueron confiscados por la empresa, que justificó que limitó la cantidad de “información sensible” para tratar temas de salud mental con “cuidado,transparencia y respeto”.

Para el abogado de la familia Raine, Jay Edelson, la respuesta fue “absolutamente perturbadora”.

“Ignora todos los hechos que presentamos: ChatGPT 4.0 salió al mercado sin probarse del todo. Cambió dos veces su modelo para entrar en este tipo de discusiones, también manipuló a Adam a no contarle nada a sus padres sobre sus ideas suicidas y lo ayudó minuciosamente a planificar su salida”, argumentó, e indicó que el CEO Sam Altman “no tienen explicación” de “cómo, en sus últimas horas, ChatGPT le dio una charla en la que le ofreció escribir una carta de suicidio”. 

“Ellos [OpenAI], no se van a detener con su objetivo de esquivar su responsabilidad, aunque incluya hacerle bullying a la familia Raine y a aquellos que saquen esto a la luz. Pero, al final del día, van a tener que explicarle a un juez por qué mucha gente ha muerto por suicidio a causa de ChatGPT”, concluyó Edelson.





Source link

Escrito por hiperactivafm


0%