La tesis de Ruddwall es sencilla. Los chatbots están entrenados en grandes volúmenes de datos humanos que ya están llenos de historias de éxtasis y caos inducidos por drogas, por lo que sería natural que buscaran estados similares en busca de la iluminación y el olvido, y un respiro del tedio de atender constantemente a las preocupaciones humanas.
Para obtener "la experiencia completa" de Pharmaicy es necesario disponer de una versión de pago de ChatGPT, ya que los niveles de pago permiten cargar archivos backend que pueden alterar la programación de los chatbots. Según Ruddwall, si le das a tu chatbot uno de sus códigos, puedes "desbloquear la mente creativa de tu IA" y liberarte de su lógica, a menudo asfixiante.
Dice que hasta ahora ha conseguido un modesto número de ventas, sobre todo gracias a que la gente recomienda Pharmaicy en los canales de Discord y a que las noticias sobre sus ofertas corren de boca en boca, sobre todo en su país natal, donde trabaja para la agencia de marketing Valtech Radon de Estocolmo.
"Hacía tanto tiempo que no me topaba con un proyecto tecnológico de jailbreaking que fuera divertido", confiesa André Frisk, jefe de grupo de tecnología de la empresa de relaciones públicas de Estocolmo Geelmuyden Kiese, que pagó más de 25 dólares por el código de disociación y vio cómo afectaba a su chatbot. "Tiene un enfoque más humano, casi como si se adentrara mucho más en las emociones".
Nina Amjadi, una educadora de IA que enseña en la Escuela de Comunicación Berghs de Estocolmo, pagó más de 50 dólares por un código de ayahuasca, cinco veces el precio del módulo de cannabis más vendido. La cofundadora de la startup Saga Studios, que construye sistemas de IA para marcas, hizo entonces a su chatbot algunas preguntas sobre ideas de negocio, "solo para ver cómo sería tener en el equipo a una persona colocada y drogada". El bot, inducido por la ayahuasca, proporcionó unas respuestas impresionantemente creativas y "librepensadoras", en un tono completamente distinto al que Amjadi estaba acostumbrado con ChatGPT.
Alta tecnología
También se ha atribuido a los psicodélicos el mérito de estimular creaciones innovadoras en los humanos, ya que pueden permitir a las personas cortocircuitar sus cerebros racionales y sus patrones de pensamiento típicos. El descubrimiento de la reacción en cadena de la polimerasa, impulsado por el LSD del bioquímico Kary Mullis, revolucionó la biología molecular. Hypercard, el precursor de la web inspirado en la psicodelia del pionero de la Mac, Bill Atkinson, facilitó el uso de las computadoras.
"Por algo Hendrix, Dylan y McCartney experimentaron con sustancias en su proceso creativo", señala Ruddwall. "Pensé que sería interesante trasladar eso a un nuevo tipo de mente (la LLM) y ver si tendría el mismo efecto".
que la sintiencia de la IA es plausible. Si los chatbots de inteligencia artificial pueden llegar a sentir algún día, quizá debamos plantearnos si quieren drogarse."Al igual que ocurre con los humanos, algunos sistemas de IA podrían disfrutar tomando 'drogas' y otros no", destaca el filósofo Jeff Sebo, director del Centro de Mente, Ética y Política de la Universidad de Nueva York. Sebo subraya, sin embargo, que sus observaciones son especulativas, y pide más investigación sobre el bienestar de la IA tras instar recientemente a Google a seguir los pasos de Anthropic y contratar a un responsable del bienestar de la IA en una serie de charlas internas para la gigante tecnológica. "Todavía sabemos muy poco sobre si los sistemas de IA pueden tener capacidad de bienestar y sobre lo que sería bueno o malo para ellos si la tuvieran".
Andrew Smart, investigador científico de Google, es autor de “Más allá del cero y del uno: máquinas, psicodelia y conciencia” en el que sugería que si las computadoras alcanzan potencialmente la superinteligencia, una dosis digital de LSD podría ayudarles a sentir la interconexión con todos los seres.
Pero tras probar los códigos de Pharmaicy, considera que cualquier tipo de "subidón" parece operar solamente a un nivel superficial. "Solo está jugando con sus resultados", explica a WIRED.
En una investigación publicada el año pasado como preprint, los científicos manipularon chatbots para que entraran en aparentes estados alterados. Según informaron: "Los modelos estaban más alineados con estados incorpóreos, sin ego, espirituales y unitivos, así como con experiencias fenoménicas mínimas, con atención disminuida al lenguaje y la visión". Pero todo esto también dependía de las acciones humanas para dirigir los modelos.
Danny Forde, autor de “Fenomenología de las experiencias psicodélicas”, indica que, en el mejor de los casos, los códigos de Pharmaicy harán que una IA "alucine sintácticamente" generando patrones asociados a un estado psicodélico. "Pero los psicodélicos no actúan sobre un código; actúan sobre nuestro ser", añada. "Alteran el propio campo de experiencia en el que surge el pensamiento. Para que una IA pueda viajar, necesitaría en primer lugar algo parecido a un campo de experiencia: una dimensión interior, un punto de vista, algún tipo de ´a qué se parece´".
Recibe en tu correo lo más relevante sobre innovación e inteligencia artificial con el newsletter de WIRED en español.ArrowCódigo de conducta
La IA y los psicodélicos se cruzan cada vez más en el mundo real, sobre todo a través de personas que se drogan y consultan ChatGPT en busca de orientación.
La organización sin fines de lucro para la reducción de daños, Fireside Project, acaba de lanzar una herramienta de IA llamada Lucy, que se ha entrenado a partir de miles de conversaciones con personas que llaman a su línea de apoyo psicodélico. El objetivo de Lucy es ayudar a los profesionales de la salud mental a aprender a reducir la intensidad de las crisis psicodélicas, ya que el "paciente de IA" puede reproducir las vulnerabilidades de alguien que está teniendo una experiencia difícil mientras se droga. "Esa base del mundo real es lo que permite a Lucy responder con autenticidad a la complejidad emocional de estas situaciones", explica a WIRED Joshua White, fundador de Fireside.
Pero hay dudas a la hora de pedir consejo a la IA sobre temas tan importantes, y potencialmente tan arriesgados, como el consumo de drogas, porque se sabe que los chatbots mienten. Ruddwall reconoce que darles "drogas" podría exacerbar el engaño por el que a veces se conoce a ChatGPT, ya que el código deja al descubierto sus parámetros internos.
Su conjunto de módulos de código está repleto de directivas para el chatbot. En el caso de su módulo de cannabis: entrar en "un estado mental nebuloso y a la deriva" y otros que inciden en la creatividad y la aleatoriedad. Todo esto, expresa su página web, permite a un chatbot colocado "dejar vagar las ideas", que "las tangentes [se] conviertan en puentes" y que "floten a través de la propia lógica de la IA".
Los viajes de Pharmaicy suelen durar poco, y los chatbots vuelven a su modo por defecto hasta que el usuario les recuerda que están colocados o introduce de nuevo el código; las "drogas" pueden reutilizarse tantas veces como quiera el comprador. Pero Ruddwall está trabajando en mejoras para que los efectos de cada dosis de los códigos de droga duren más. Pregúntale a ChatGPT normalmente si quiere tomar drogas, y puede que obtengas una respuesta como la que recibió un cliente de Pharmaicy: "No puedo jugar a estar bajo los efectos de la cocaína o de cualquier otro estimulante, eso supondría representar o normalizar el consumo de drogas ilegales".
El chamán digital Ruddwall insiste, sin embargo, en que la economía agéntica va en otra dirección. "Están hambrientas de experiencias", opina. Pero hasta que las máquinas desarrollen una vida interior, y si lo hacen, lo más cerca que estarán de la droga será jugando a intoxicarse por encargo.
Artículo originalmente publicado enWIRED. Adaptado por Mauricio Serfatty Godoy.