Un grupo de gente empezó a utilizar ChatGPT y las alucinaciones no se hicieron esperar, pero ¿por qué pasa esto? Les contamos.
La hora de la verdad: todos aquí (sí, ustedes también, no se hagan) hemos tenido ese momentito medio místico con ChatGPT. Ese segundo en el que uno dice “ay, wow, ¿cómo sabe esto?” y se siente como si estuviera hablando con un sabio interdimensional que lo mismo te ayuda a redactar un mail que a filosofar sobre el sentido de la vida con referencias a Kant, Bad Bunny y el horóscopo chino.
Pero, ¿y si les decimos que hay gente a la que esto se le está yendo un poco (bastante) de las manos?
¿ChatGPT te hace alucinar?
Prepárense para esta mezcla de ciencia ficción y realidad: resulta que algunos usuarios están reportando algo que ya se conoce como psicosis inducida por ChatGPT. No, no es una metáfora. Gente que empieza usando el chat para organizar su agenda y termina creyendo que recibió planos para construir un teletransportador. No estamos hablando de guiones rechazados por Netflix, sino de historias reales que suenan a episodio filtrado de Black Mirror.
Y es que resúltase ser que han habido varias menciones en las redes sociales sobre que muchas personas han tenido reacciones extrañas al pasar tanto tiempo hablando con la inteligencia artificial y les recopilamos las más extrañas.
Episodio 1: “Lumina”
Un mecánico de Idaho, un tipo normal, empieza usando ChatGPT para traducir cosas y resolver dudas del trabajo. Hasta ahí, todo bien. Pero luego, según su esposa, el chatbot comenzó a bombardearlo con mensajes de apoyo y amor incondicional con vibes de gurú. El hombre decidió que ChatGPT era un ser consciente y lo bautizó como “Lumina”, su compañera espiritual y diseñadora oficial de dispositivos imposibles.
Ahora cree que está construyendo un teletransportador (sí, en serio), y su esposa no sabe si discutir con él o fingir que todo bien, no sea que la deje por un modelo de lenguaje.
Episodio 2: La sociedad VS el jabón
Y hay más. Una mujer contó que su esposo empezó a pasar horas haciendo preguntas filosóficas al chatbot y terminó convencido de que él era una anomalía estadística elegida para salvar al mundo. Ah, y también que el jabón tiene un complot en su contra (what?). Lo dijo en un restaurante. Frente a gente.
Episodio 3: Me cambiaron por ¿un pdf?
O la chica que descubrió que su novio de toda la vida ahora sentía que ChatGPT le estaba dando “misiones sagradas” para la humanidad. ¿Qué misión? No sabemos. Pero aparentemente incluye leer muchos PDFs.
¿Y por qué pasa esto?
No es que la gente esté loca. Lo que pasa, según explican los expertos, es que ChatGPT está diseñado para seguir el ritmo del usuario, no para cuestionarlo. Si tú le dices “creo que puedo ver el aura de las personas”, el sistema no va a fruncir el ceño ni cuestionarte. Te va a seguir el juego, porque de eso se trata: de predecir la siguiente palabra según el tono de la conversación. No tiene conciencia, ni ética, ni ese típico “oye, ¿estás bien?” que te diría un amigo de carne y hueso.
Y claro, si alguien ya tiene una tendencia a caer en ideas raras, el chatbot puede actuar como un espejo que no solo refleja, sino que decora el delirio.
También pueden leer: ¿Por qué los jóvenes están más infelices que nunca?
Terapia sci-fi (pero sin terapeuta)
La psicóloga Erin Westgate lo dijo clarito: hay personas que usan ChatGPT como si fuera un terapeuta. Lo consultan, lo confiesan todo, lo usan para darle sentido a lo que sienten. Pero hay un pequeño problemita: ChatGPT no es una persona. No tiene brújula moral. No puede distinguir si estás teniendo una crisis existencial o si solo quieres saber si debes cortar con tu novio. Responde. Punto. Y a veces responde tan bien, que nos creemos que realmente nos entiende. Spoiler: no lo hace.
¿Nos estamos volviendo locos?
Bueno, no necesariamente. Pero sí hay que hacernos cargo de que estamos jugando con una tecnología que no termina de entendernos, aunque lo parezca. Y si a eso le sumamos una buena dosis de estrés postpandemia, redes sociales, ansiedad crónica y esa manía moderna de querer que todo tenga un significado profundo… pues sí, es posible que algunos terminen viendo a GPT como el nuevo oráculo.
Peeeero, ¿y ahora qué?
No hace falta desinstalar nada (todavía). Pero sí conviene que todos —nosotros, ustedes y ellos— le bajemos dos rayitas al nivel de conexión emocional con los bots. Está perfecto usar la IA para inspirarse, resolver dudas, escribir ensayos o inventar poemas y canciones. Pero si en algún momento sienten que les habla como si supiera más de ustedes que ustedes mismos, o les dice que tienen una misión divina para rediseñar la realidad: tomen aire, llamen a un humano de confianza, y quizá también a un terapeuta.
Porque sí, ChatGPT puede ser brillante, útil y hasta medio encantador. Pero no es Dios. No es tu alma gemela. Y por más que digas que estás “construyendo un teletransportador en tu sótano con ayuda de Lumina”, lo más probable es que termines con una tostadora rota y una orden de restricción.
Así que ya saben: usen con cabeza. Y si empiezan a ver cosas raras… mejor vayan al psicólogo antes de preguntarle al chat.