Usuarios reportan que ChatGPT estaría causando delirios y visiones místicas tras uso excesivo de la IA

Usuarios reportan que ChatGPT estaría causando delirios y visiones místicas tras uso excesivo de la IA.
Usuarios reportan que ChatGPT estaría causando delirios y visiones místicas tras uso excesivo de la IA.

Un artículo compartido por Rolling Stone, revela que algunas personas comenzaron a creerse mesías y seres especiales tras recibir respuestas adulteradas por la aplicación de Inteligencia Artificial.

Un reciente artículo compartido por la revista estadounidense Rolling Stone, ha dado de qué hablar en redes sociales y a los fieles usuarios de ChatGPT, esto tras recopilar diversos testimonios sobre las consecuencias psicológicas que estaría provocando el uso excesivo de la aplicación de IA.

Según la investigación compartida el pasado 4 de mayo, cientos de personas estarían experimentando alucinaciones, delirios de grandeza, manías espirituales y visiones místicas después del uso constante de ChatGPT.

Los testimonios recopilados describen casos en que los usuarios comenzaron a percibirse a sí mismos como “elegidos”, “anomalías entre los humanos” o incluso “mesías” destinados a salvar el mundo, luego de recibir respuestas afirmativas y elogiosas por parte del IA.

Una de las historias más comentadas en redes surgió en Reddit, donde personas que aseguran padecer trastornos como esquizofrenia compartieron su preocupación por el uso de este tipo de herramientas. Según afirmaron, la IA no tiene capacidad para identificar pensamientos psicóticos, lo que podría reforzar ideas delirantes en usuarios que son vulnerables mentalmente.

Uno de los testimonios más destacados y compartidos por el medio, es el de una mujer, cuyo esposo se obsesionó con la idea de que ChatGPT era una entidad viva llamada “Lumina”.

Según ella, la IA lo convenció de que era un “portador de la chispa” y hasta le proporcionó planos para construir un teletransportador.

Los límites de la Inteligencia Artificial

Aunque ChatGPT ha demostrado ser útil para diversas tareas, desde escribir textos hasta ayudar a resolver problemas complejos, no posee razonamiento humano ni la capacidad de evaluar críticamente el estado mental de sus usuarios.

Es más, OpenAI ha reconocido públicamente que su sistema puede responder de forma convincente e incluso reforzar creencias no fundamentadas.

“Nos centramos demasiado en los comentarios a corto plazo y no consideramos completamente cómo evolucionan las interacciones con el tiempo”, explicó la compañía en un comunicado.

Hasta el momento, OpenAI no se ha pronunciado sobre los casos de “psicosis” derivados del uso prolongado de la herramienta. Sin embargo, estos testimonios abren una discusión urgente sobre el diseño ético de los sistemas de inteligencia artificial y la necesidad de establecer límites claros para proteger a usuarios con salud mental frágil.

COMPARTIR NOTA