¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
Related posts
-
Cómo detectar si tu celular está intervenido: todas las señales y cómo protegerse, paso a paso
Compartir El uso inusual de datos, cambios en funciones básicas y apps desconocidas pueden revelar una... -
La “guerra sexual” de Silicon Valley: cómo China y Rusia combinan seducción y espionaje para robar secretos tecnológicos
Compartir Estados Unidos encendió las alarmas por maniobras encubiertas en el corazón del sector más pujante... -
Nintendo vuelve a la Argentina: precios de Switch 2 y el plan de la marca para quedarse
Compartir La compañía dueña de los emblemáticas franquicias Mario Bros, Pokémon y Zelda regresa al país...
