Cuando el escritor y periodista Juan José Millás mantuvo en septiembre una conversación con ChatGPT, fingió tener con la herramienta una sesión de psicoanálisis. Quiso averiguar si, de acuerdo con el test de Turing, el chatbot podía hablarle como una persona real, en concreto como un psicoanalista, y no como un ordenador. El periodista le expuso sus sueños y miedos, a la espera de que la inteligencia artificial le guiase en la terapia, pero esta siempre le decía, entre otras cosas, que era una situación imaginaria y le aclaraba que era un modelo de lenguaje. Millás tachó a su psicoanalista virtual de estrecho de mente y de olvidadizo, y, finamente, le dijo que no había superado el test.
Related posts
-
La privacidad, en riesgo por la inteligencia artificial: advierten sobre los peligros de ChatGPT
Compartir Un estudio plantea los peligros de usar las herramientas de OpenAI o chatbots como Gemini,... -
Deepfakes médicos en TikTok: alertan por una campaña de desinformación con avatares creados con inteligencia artificial
Compartir Diversos reportes advierten sobre cuentas que promocionan falsos tratamientos de salud con personajes generados por... -
La Feria Educativa “Conectando Saberes” será del 22 al 25 de abril en todo el Parque de la Vida de Villa María
CompartirFELIPE PIGNA, RUBÉN MAGNANO Y LILIANA GONZÁLEZ ESTARÁN PRESENTES EN LA FERIA CONECTANDO SABERES Reconocidos profesionales...