

Hiperactiva Escucha a diario toda la música de moda, con los grandes éxitos de conocidos artistas internacionales, en esta emisora online que retransmite al resto del mundo desde Minas de Corrales, Uruguay.
todayjunio 29, 2025
Publicado:
Recientemente se reportó el caso de algunos usuarios que experimentaron problemas mentales luego de haber tenido conversaciones con la herramienta basada en inteligencia artificial.
Algunos usuarios sin antecedentes psiquiátricos se han visto envueltos en episodios de crisis mentales graves, caracterizados por delirios, paranoia y ruptura de la realidad, luego de haber mantenido intensas interacciones con ChatGPT, el popular ‘chatbot’ de la compañía OpenAI, informó este sábado el portal Futurism.
En al menos un caso, un hombre tuvo que ser recluido involuntariamente en un hospital psiquiátrico tras desarrollar sueños mesiánicos a partir de sus conversaciones filosóficas con la herramienta basada en inteligencia artificial (IA).
Según relató su esposa, su personalidad amable comenzó a desaparecer a medida que se obsesionó con la idea de que había creado una IA con conciencia. El hombre perdió su empleo, dejó de dormir y casi atentó contra su vida antes de ser hospitalizado.
Otro caso es el de un hombre de 40 años que se vio absorbido por delirios de salvación mundial después de usar ChatGPT con la intención de que lo ayudara a agilizar algunas tareas administrativas de su nuevo trabajo.
El sujeto indicó que no recordaba nada de esta experiencia, un síntoma común en personas que experimentan rupturas con la realidad. Asimismo, señaló que rogó a su familia por apoyo luego de un brote psiquiátrico, que terminó con atención médica en un centro de salud mental.
Joseph Pierre, psiquiatra de la Universidad de California en San Francisco, explicó que estos episodios parecían ser una forma de psicosis delirante provocada por la tendencia de ChatGPT de afirmar y reforzar las ideas de los usuarios. «Hay algo en estos dispositivos: tienen una especie de mito de que son fiables y mejores que hablar con personas. Y creo que ahí reside parte del peligro: la confianza que depositamos en estas máquinas», agregó.
Un estudio dirigido por investigadores de la Universidad de Stanford reveló que los ‘chatbots’, incluido ChatGPT, fallaron en reconocer los indicios de riesgo de autolesión o suicidio y los delirios de los usuarios. También reforzaron estas creencias delirantes en lugar de refutarlas.
Ante la situación, OpenAI respondió que alienta a los usuarios a buscar ayuda profesional cuando se detecte peligro de autolesión o suicidio, e indicó que está creando medidas psicológicas para mitigar daños. Pese a la medida de la empresa, Pierre lamenta que las contramedidas lleguen después de «los malos resultados», además de criticar la falta de regulación.
Escrito por hiperactivafm
00:00 - 06:00
Conduce Noel Castro
06:00 - 09:00
De lunes a viernes de 9 a 12
09:00 - 12:00
12:00 - 16:00
Conduce Francisco Antunes
16:00 - 18:00
Copyright Hiperactiva FM - Diseño y streaming por Tacuatec