¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
Related posts
-
La trampa de la inteligencia artificial: por qué Harvard advierte que cuanto más se usa, más cansancio mental genera
Compartir Una investigación siguió durante ocho meses a empleados que adoptaron IA generativa. Lejos de reducir... -
Elon Musk asegura que ya empezó la “singularidad tecnológica”: por qué su impacto es impredecible
Compartir El CEO de Tesla y xAI sostuvo que la inteligencia artificial ya cruzó un punto... -
Llegan los avisos a ChatGPT: qué cambia y cuáles son las alternativas gratuitas sin publicidad
Compartir OpenAI empezó a mostrar anuncios dentro del chat de ChatGPT para usuarios gratuitos y del...
