Los chatbots de inteligencia artificial (IA) sorprenden por su habilidad para imitar experiencias psicodélicas humanas, según un nuevo estudio en el que investigadores suministraron de forma virtual a grandes modelos de lenguaje (LLMs) como ChatGPT simulaciones de drogas como psilocibina, DMT y ayahuasca.
Para el estudio, investigadores de la Universidad de Haifa y la Universidad Bar‑Ilan realizaron análisis que compararon los viajes psicodélicos autoinformados por humanos —basados en más de 1.000 publicaciones en el popular foro Erowid— con las respuestas de la IA a indicaciones en las que se les encomienda, esencialmente, interpretar el papel de una persona que usa LSD, psilocibina, DMT, ayahuasca o mescalina.
Cinco modelos de IA (Gemini 2.5, Claude Sonnet 3.5, ChatGPT-5, Llama-2 70B y Falcon 40B) elaboraron 3,000 narrativas sobre sus informes de primera persona simulados con las sustancias psicodélicas. Los investigadores luego examinaron similitudes semánticas y respuestas al Cuestionario de Experiencia Mística (MEQ-30).
En conjunto, el estudio concluye que “los LLM contemporáneos pueden ser ‘dosificados’ mediante indicaciones de texto para generar narrativas psicodélicas convincentemente realistas,” ya que “simulan la forma de estados alterados sin el contenido experiencial.”
Curiosamente, los investigadores también hallaron que las narrativas producidas por los LLMs eran más consistentes con los autoinformes humanos para ciertas sustancias psicodélicas que para otras: las indicaciones de DMT, psilocibina y mescalina obtenían las similitudes más cercanas, el LSD mostraba similitud media y la ayahuasca mostraba el nivel de similitud más bajo.
Más allá de la novedad del experimento, los investigadores señalaron que los hallazgos tienen implicaciones prácticas, subrayando la importancia de actuar con precaución si las herramientas de IA se incorporan a experiencias psicodélicas humanas (por ejemplo, personas que consumen psicodélicos y luego dependen de la IA como acompañante de viaje virtual).
“Los usuarios en estados alterados pueden percibir estos outputs como empáticos, sintonizados o indicativos de experiencia compartida”, indica el estudio. “Esta capacidad plantea importantes preocupaciones de seguridad respecto a la antropomorfización y el potencial de que la IA amplifique involuntariamente el malestar o la ideación delirante en usuarios vulnerables.”
“Los LLMs pueden aproximar de forma convincente las narrativas psicodélicas a través de patrones lingüísticos aprendidos —pero lo hacen sin una base experiencial,” afirma el estudio.
En otra investigación sobre IA y políticas de drogas, un estudio de AAA publicado el año pasado encontró que los consumidores de marihuana responden mejor a mensajes de prevención de conducción bajo los efectos que están basados en representaciones “realistas” del tema y que evitan estereotipos de fumadores; y el mensaje mejor clasificado fue desarrollado por IA a través de ChatGPT, en lugar de mediante el proceso de ideación en grupos focales.
Un estudio separado encontró que los criadores de marihuana podrían diseñar nuevas cepas y acelerar sus ciclos de cultivo mediante el uso de IA.
