Cuando el escritor y periodista Juan José Millás mantuvo en septiembre una conversación con ChatGPT, fingió tener con la herramienta una sesión de psicoanálisis. Quiso averiguar si, de acuerdo con el test de Turing, el chatbot podía hablarle como una persona real, en concreto como un psicoanalista, y no como un ordenador. El periodista le expuso sus sueños y miedos, a la espera de que la inteligencia artificial le guiase en la terapia, pero esta siempre le decía, entre otras cosas, que era una situación imaginaria y le aclaraba que era un modelo de lenguaje. Millás tachó a su psicoanalista virtual de estrecho de mente y de olvidadizo, y, finamente, le dijo que no había superado el test.
Related posts
-
La trampa de la inteligencia artificial: por qué Harvard advierte que cuanto más se usa, más cansancio mental genera
Compartir Una investigación siguió durante ocho meses a empleados que adoptaron IA generativa. Lejos de reducir... -
Elon Musk asegura que ya empezó la “singularidad tecnológica”: por qué su impacto es impredecible
Compartir El CEO de Tesla y xAI sostuvo que la inteligencia artificial ya cruzó un punto... -
Llegan los avisos a ChatGPT: qué cambia y cuáles son las alternativas gratuitas sin publicidad
Compartir OpenAI empezó a mostrar anuncios dentro del chat de ChatGPT para usuarios gratuitos y del...
