Actualizado el 19/11/2024

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. La UE es la primera en regular la IA

La UE es la primera en regular la IA

Escrito por Guillem Alsina el 09/01/2024 a las 19:44:59
819

¿Cómo regular el desarrollo de la inteligencia artificial? Diversas administraciones de países y regiones de todo el globo se encuentran inmersas en este proceso, algo más de un año después que la apertura del acceso público a ChatGPT precipitara los acontecimientos y llevara el debate sobre la IA a la arena pública.


La Unión Europea ha sido la primera en poner puertas a este campo tan nuevo, tras intensas negociaciones entre el Consejo y el Parlamento europeos, que han desembocado en un acuerdo provisional que, a partir de aquí, deberá ser presentado para su ratificación por parte de los representantes de los estados miembros.


Una vez cumplido este trámite, el Consejo y el Parlamento deberán confirmar el texto resultante completo, y someterlo a una revisión legal y lingüística previa a su adopción formal por los distintos países, lo que nos lleva a un marco temporal del 2025 o 2026 que ya ha sido criticado por algunas partes por llegar a ser aplicado en un marco temporal que dará margen para muchos cambios en el sector.


Al menos sobre el papel, el texto consensuado busca garantizar que los sistemas de IA creados en Europa, y también los que se dirijan al mercado europeo, sean seguros y respeten los derechos de los ciudadanos de la Unión, además de estimular la inversión y la innovación en IA en Europa tanto para los actores privados, como para los públicos.


Para redactar este marco regulatorio, los políticos europeos se han basado en un enfoque del riesgo que puede suponer la IA para las personas: a mayor riesgo, normas más estrictas.


Los principales aspectos que contempla esta reglamentación son:

 

  • Nuevas reglas para modelos de IA de propósito general y alto impacto que pueden causar riesgos sistémicos.
  • Sistema de gobernanza revisado. Se establece un sistema de gobernanza con ciertos poderes de aplicación a nivel de la UE.
  • Protección de derechos y evaluación de impacto. Los agentes que desplieguen sistemas de IA de alto riesgo deberán realizar una evaluación de impacto en derechos fundamentales antes de su uso.
  • Definiciones y alcance. Se alinea la definición de un sistema de IA con el enfoque propuesto por la OCDE, excluyendo los sistemas utilizados exclusivamente para fines militares o de investigación.
  • Clasificación de sistemas de IA y prácticas prohibidas. Se establece una clasificación de alto riesgo y se prohíben ciertas prácticas de IA.
  • Excepciones para la aplicación de la ley: se introducen salvaguardas específicas para el uso de sistemas de IA por autoridades de aplicación de la ley.
  • Sistemas de IA de propósito general y modelos fundamentales. Se agregan disposiciones específicas para modelos de IA de propósito general y de alto impacto.
  • Nueva arquitectura de gobernanza. Se crea una Oficina de IA dentro de la Comisión Europea para supervisar modelos avanzados y fomentar estándares.
  • Penalizaciones: se establecen multas por un valor que puede llegar hasta un cierto porcentaje del volumen de facturación global anual de la empresa infractora.
  • Transparencia y protección de los derechos fundamentales. Se enfatiza la evaluación del impacto en derechos fundamentales y la transparencia en el uso de los sistemas de IA de alto riesgo.
  • Medidas en apoyo a la innovación. Se modifican las disposiciones para fomentar un marco legal propicio para la innovación.