¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
Related posts
-
Apple ya no es el líder mundial en ventas de celulares: cómo está el ranking de marcas
Compartir Samsung recuperó el primer puesto, apenas por encima del iPhone. Xiaomi se mantiene tercero, mientras... -
Cómo ver el Mundial de Clubes gratis: por qué Magis TV es peligroso y cuál es la alternativa segura
Compartir La app DAZN permite ver en vivo para la Argentina todos los encuentros sin tener... -
Estados Unidos vs. China: microchips, el arma secreta de una nueva guerra fría tecnológica
Compartir Empresas como Xiaomi y Nvidia quedan atrapadas entre sanciones cruzadas y controles estratégicos. Mientras Washington...