El Parlamento Europeo ha aprobado este mes de marzo la normativa sobre inteligencia artificial con el fin de garantizar la seguridad y los derechos fundamentales de los ciudadanos europeos.  

Esta nueva legislación, que será refrendada por el Consejo Europeo para su posterior publicación en el Diario Oficial de la Unión Europea, se prevé que entré en vigor a finales de la legislatura. Se trata de una ley pionera a nivel mundial, ya que no existe ninguna otra normativa que regule la inteligencia artificial.

Objetivos de la Ley de Inteligencia Artificial

Esta legislación, diseñada para regular el uso de la inteligencia artificial en función de los riesgos para los ciudadanos, pretende establecer un marco pionero a nivel mundial. Además, busca fortalecer la posición de la industria europea frente a competidores como Estados Unidos y China.

Entre los objetivos establecidos están:

  • Transparencia: los sistemas de IA de uso general deben respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido. Asimismo, las imágenes o contenidos de audio y video artificiales, deberán ser etiquetados como tal.
  • Seguridad jurídica: facilitar la inversión en innovación en IA, poniendo a disposición de las pymes y empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales antes de comercializar la herramienta desarrollada de IA.
  • Control y vigilancia del mercado: desarrollo de un mercado único con normas de control y vigilancia para evitar malas prácticas.

Sistemas de IA de alto riesgo y prácticas prohibidas

La normativa establece una serie de criterios de protección que determinarán cuándo los sistemas de IA pueden causar daños a la sociedad. Así, aquellos que entrañen riesgos altos estarán supeditados a una serie de requisitos y obligaciones de seguridad y control para acceder al mercado europeo. Si se determina que son sistemas con riesgos considerados inaceptables, su uso quedará totalmente prohibido.

Categorías según su nivel de riesgo

Los niveles de riesgo para etiquetar los sistemas de inteligencia artificial son:

  1. Riesgo mínimo o limitado: este nivel de riesgo es excluyente. Los sistemas de IA que no sean de alto riesgo o prohibidos deberán cumplir con ciertas obligaciones de transparencia si interactúan de forma directa con personas físicas.
  2. Riesgo alto:  la ley entiende todos los sistemas de IA que puedan tener un impacto negativo en la seguridad o los derechos de las personas. Para identificarlos, el texto establece en un anexo una lista de sistemas de alto riesgo que sirvan como referencia. En este catálogo aparecen algunos sistemas de identificación biométrica, determinados sistemas de uso policial o de control de fronteras y ciertas herramientas enfocadas a la evaluación educativa, entre otros.
  3. Riesgo inadmisible: modelos de inteligencia artificial que vulneran los derechos fundamentales y resultan especialmente nocivos. Entre ellos, se encuentran los sistemas de puntuación social, actuación policial predictiva individual y el reconocimiento de emociones en el lugar de trabajo o institución educativa, a excepción de motivos médicos o de seguridad.

Sanciones por incumplimiento de la Ley de Inteligencia Artificial

En términos de cumplimiento, la ley establece multas significativas por infracciones. Estas multas varían desde los 7,5 millones de euros hasta los 35 millones de euros. O hasta el 7% del volumen de negocios global de la empresa infractora, dependiendo de la naturaleza de la infracción y el tamaño de la empresa o la falta de cooperación con las autoridades. Se articulan en tres niveles según el tipo de infracción, abarcando desde la falta de información, la información incorrecta sobre el sistema de IA, el incumplimiento de las obligaciones de la Ley o el uso y comercialización de sistemas prohibidos.

Asimismo, se contempla la imposición de multas administrativas más proporcionadas cuando la infractora sea una pyme o una empresa emergente.