¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
Related posts
-
Villa María tuvo una hermosa Fiesta Primaveral y tuvo que suspender el cierre de la misma con el Show de Rombai debido a la tormenta y viento
Compartir EL FESTIVAL “PRIMAVERA LIVE” REUNIÓ A UNA MULTITUD EN LA COSTANERA Más de 40 mil... -
iPhone 17 y iPhone Air: cuándo llegan a la Argentina los nuevos modelos y a qué precios
Compartir Por primera vez en años, los fanáticos argentinos de la marca podrán acceder a los... -
Apple presenta el iPhone 17 en su evento más importante del año: horario, cómo ver en vivo y todos los rumores
Compartir El gigante tecnológico renueva su icónica línea de smartphones. Se espera el lanzamiento de un...