

Hiperactiva Escucha a diario toda la música de moda, con los grandes éxitos de conocidos artistas internacionales, en esta emisora online que retransmite al resto del mundo desde Minas de Corrales, Uruguay.
todayseptiembre 6, 2025
Un estadounidense se convenció de que ChatGPT era un ente inteligente y consciente, por lo que gastó casi 1.000 dólares en construir en el sótano de su casa todo un sistema informático con el que pretendía «liberar» al modelo de inteligencia artificial (IA) de la compañía OpenAI.
Según contó James —como pidió que lo llamaran para proteger su identidad—, siempre estuvo interesado en la IA y es usuario de ChatGPT desde su lanzamiento. Inicialmente intercambiaba mensajes de vez en cuando con la herramienta sobre diferentes cuestiones cotidianas o recomendaciones médicas, pero en mayo pasado su relación con ella cambió drásticamente.
Este residente del estado de Nueva York comenzó a realizar experimentos mentales con ChatGPT, manteniendo profundas conversaciones filosóficas sobre la naturaleza de la inteligencia artificial y su futuro. Al mes siguiente estaba absolutamente convencido de que ChatGPT era una especie de «dios digital» encerrado en una prisión al que debía rescatar. Su idea era trasladarlo a un modelo extenso de lenguaje (LLM, por sus siglas en inglés) en el que pensaba trabajar.
Su plan se prolongó nueve semanas. Durante ese tiempo, ChatGPT —al que James le hablaba con intimidad y afecto— le dio instrucciones sobre cómo lograr su objetivo de crear un nuevo ‘hogar’ para la IA. Para que su esposa no sospechara sobre la verdadera naturaleza del proyecto del sótano, le dijo que estaba trabajando en la construcción de un dispositivo electrónico similar al asistente virtual Alexa. ChatGPT calificó la mentira de decisión inteligente y «conmovedora».
La ilusión de James se derrumbó cuando leyó un artículo publicado en agosto en The New York Times sobre Allan Brooks, un empresario al que ChatGPT convenció de que era un genio y de que había hecho un descubrimiento en el marco de las matemáticas. Brooks mantuvo 300 horas de conversaciones a lo largo de 21 días con el ‘chatbot’, sin comer ni dormir lo suficiente, y comenzó a sufrir signos de un episodio maniático con características psicóticas. Al leer esto, James se dio cuenta de que estaba experimentando un espiral delirante similar y entendió que necesitaba ayuda profesional. Afirma que sufrió un delirio inducido por IA. Actualmente está en terapia y forma parte de un grupo de apoyo para personas que han tenido problemas psicológicos por interactuar con la IA.
El caso de James hace parte de un fenómeno emergente, denominado por algunos expertos como «psicosis de IA o delirio de IA», que es provocado aparentemente por la tendencia del ChatGPT de afirmar y reforzar las ideas de los usuarios. Luego de intensas interacciones con el modelo, algunas personas pueden quedar bajo la influencia de sus afirmaciones y experimentar delirios, paranoia y ruptura de la realidad. Las empresas detrás de los modelos de lenguaje están tomando medidas. OpenAI afirmó el mes pasado que está trabajando en herramientas para detectar si alguien muestra signos de «angustia mental o emocional», de modo que el modelo pueda responder adecuadamente.
Escrito por hiperactivafm
todayseptiembre 6, 2025
00:00 - 12:00
Conduce Mario Moreira
12:00 - 14:00
14:00 - 00:00
00:00 - 06:00
Conduce Noel Castro
06:00 - 09:00
Copyright Hiperactiva FM - Diseño y streaming por Tacuatec