Top
crédito de imagen: Unsplash

La Ley de IA se aprueba por mayoría en el Parlamento Europeo

marzo 15, 2024

Categoría:

El 13 de marzo de 2024, se aprobó la Ley de IA en el Parlamento Europeo con un apoyo mayoritario de los legisladores. Esta nueva normativa tiene como objetivo garantizar el control del riesgo y la seguridad de los sistemas de IA de las empresas y organizaciones que deseen operar dentro de la Unión Europea.

La nueva regulación de inteligencia artificial se aprueba por inmensa mayoría en el Parlamento Europeo

El miércoles 13 de marzo de 2024 se recordará como el día en que el Parlamento Europeo dio luz verde a la nueva Ley de IA en un contexto de crecientes preocupaciones por los efectos de esta tecnología en la industria. La Ley se ha aprobado con 523 votos a favor, 46 en contra y 49 abstenciones.

Algunos referentes del Parlamento se pronunciaron sobre la importancia del precedente que establece esta nueva regulación: Brando Benifi, miembro del parlamento por el Partido Democrático y uno de los principales impulsores de la Ley, describió la importancia de esta legislación para un desarrollo seguro de la IA en el territorio europeo, colocando al ser humano en el centro del debate.

Según Benifi, el principal objetivo de la Ley es la aplicación de un control activo y el cumplimiento de requisitos de seguridad por parte de las empresas que empleen sistemas de IA. El parlamento también estaría trabajando en una legislación orientada a regular el uso de la IA en el ámbito laboral.

En términos concretos, la legislación tiene como principal propósito tratar la distribución de competencias estratégicas necesarias para que cada Estado miembro pueda regular y supervisar el uso de la inteligencia artificial. En este sentido, la Ley se aplica a todas las empresas y usuarios que operen en el territorio de la Unión Europea (UE), sean locales o extranjeras.

La Directora General Adjunta de la Organización Europea de Consumidores (BEUC), Ursula Pachl, celebró la aprobación de la Ley de IA. Sin embargo, también señaló que la legislación debería haber llegado más lejos en cuanto a protección al consumidor. En su opinión, está debería ser la principal prioridad de la Comisión Europea.

¿Cómo funciona la Ley de IA en el marco de su aplicación?

El texto de la Ley define cuatro categorías principales de sistemas de aprendizaje automático según el tipo de riesgo que representan para la comunidad. Las empresas que deseen operar en mercados de la UE deberán respetar una serie de normas según el nivel de riesgo de sus sistemas.

Estas normas se aplicarán en el plazo de un año desde la entrada en vigor de la Ley, en mayo de 2025. No obstante, si bien los sistemas de menor complejidad tendrán dicho año para cumplir con las normas de la Ley, los sistemas considerados de «alto riesgo» contarán con un plazo de tres años para hacer lo mismo.

Por otro lado, los sistemas estarán bajo la supervisión de las autoridades de cada Estado miembro, las cuales, a su vez, estarán supervisadas por la oficina de IA de la Comisión Europea. Cada país tendrá como obligación crear o nombrar una agencia nacional de supervisión en un período de no más de doce meses desde la aprobación de la Ley.

¿Qué niveles de riesgo de IA se supervisarán?

Deberán cumplir con las normas mencionadas aquellas empresas y organizaciones que empleen la IA de acuerdo a sus niveles de riesgo.

En primer lugar, se prohibirán las siguientes prácticas por afectar de manera directa a los usuarios:

  • La manipulación cognitiva dirigida a personas o grupos vulnerables, como en el caso de aplicaciones o juguetes para niños que se activen por voz y que puedan producir comportamientos peligrosos.
  • La clasificación de personas según su comportamiento, nivel socioeconómico o características personales.
  • Los sistemas que permitan realizar identificaciones biométricas a distancia y en tiempo real.

No obstante, existen ciertas excepciones que merece la pena tener en cuenta. Este es el caso de los sistemas de identificación biométrica cuya identificación no ocurre en tiempo real, sino tras un considerable retraso, y se utilice para perseguir delitos por orden judicial.

En segundo lugar, se considerarán sistemas de alto riesgo aquellos que puedan afectar a la seguridad, derechos o privacidad de los individuos. Estos se clasificarán en dos tipos:

A. Aquellos sistemas de IA que se encuentren integrados en productos que deben cumplir con los requisitos de seguridad de la UE: dispositivos médicos, automóviles, juguetes, entre otros.

B. Aquellos sistemas de IA dentro de los siguientes ocho ámbitos específicos que deberán registrarse como tales en la base de datos de la UE:

    1. Identificación biométrica y categorización de personas físicas
    2. Gestión y explotación de infraestructuras críticas
    3. Educación y formación profesional
    4. Empleo, gestión de capital humano y autoempleo
    5. Acceso a servicios privados y públicos esenciales
    6. Aplicación de la ley
    7. Gestión de migraciones, asilo y control fronterizo
    8. Asesoramiento en materia jurídica y legal

Todos los sistemas incluidos en estos ámbitos deberán someterse a la evaluación de la agencia nacional de supervisión antes de poder comercializarse en el territorio de la UE y deberán superar diversos controles durante su ciclo de vida útil. Por su parte, los usuarios y personas físicas podrán presentar reclamaciones ante las autoridades competentes.

¿Cuál ha sido la respuesta de las empresas frente a la Ley de IA en Europa?

Si bien la Ley de IA se ha aprobado por una inmensa mayoría dentro del Parlamento, las posturas con respecto a su alcance e impacto difieren mucho. Algunos sectores que representan a los consumidores sostienen que no llega lo suficientemente lejos en la protección al usuario, mientras que otros consideran que, en un mercado tan competitivo, podría tener un impacto negativo en la actividad empresarial.

Uno de los principales detractores de la Ley es Max von Thun, director para Europa del Open Markets Institute de Bruselas. En su opinión, el principal riesgo comercial de esta tecnología se encuentra en los monopolios tecnológicos que concentran su desarrollo y que ostentan un gran poder sobre la vida personal, social y económica de la sociedad, algo que la nueva Ley no desalienta.

Por otro lado, asociaciones de empresas, emprendimientos y startups se han pronunciado a favor de la Ley: Alex Combessie, cofundador de la empresa francesa de inteligencia artificial Giskard, dijo que la aprobación de la Ley constituye un alivio y un antecedente histórico para la industria, especialmente porque responde a los errores sistémicos que se han constatado en el desarrollo de esta tecnología.

Sin embargo, no todas las empresas están de acuerdo con Combessie. Por ejemplo, Marianne Tordeux Bitker, responsable de asuntos públicos de France Digitale, una asociación francesa que comprende a inversores y emprendedores digitales en Francia, señala que la Ley crea nuevas obligaciones y obstáculos para los desarrolladores independientes. Estos últimos ya deben competir con grandes monopolios tecnológicos estadounidenses y chinos que llevan una gran ventaja.

En este sentido, la directora de la organización de comercio de la UE, Digital Europe, advierte que solo el 3 % de las iniciativas exitosas de inteligencia artificial proceden de la Unión Europea. Estados Unidos y China, por su parte, tienen un nivel de inversión 14 veces superior a sus contrapartes europeos, por lo que esta y otras legislaciones deberían tener en cuenta la necesidad de impulsar el crecimiento y desarrollo de las iniciativas europeas.

Conclusión

La aprobación de la Ley de IA se considera un primer paso en el camino hacia el control y la supervisión de la inteligencia artificial en Europa, aunque los sectores que tienen algo que perder o ganar con esta Ley coinciden en que todavía queda mucho por avanzar. Y es que, de acuerdo con los datos de Eurostat, alrededor del 8 % de las empresas europeas con más de diez empleados han utilizado la IA en 2023.