El Parlamento Europeo aprueba la primera ley de inteligencia artificial del mundo

18 marzo, 2024
Asegurar la protección de los derechos humanos, establecer límites al uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad y tener derecho a presentar reclamaciones son algunos de los puntos que recoge esta nueva ley para regularizar la inteligencia artificial.
dall-e
Imagen generada con la IA DALL-E

El Parlamento Europeo aprobó el pasado miércoles la primera ley de inteligencia artificial (IA) del mundo. El Reglamento, acordado en las negociaciones con los Estados miembros en diciembre de 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.

Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA sin dejar de impulsar la excelencia e innovación tecnológica. Para ello, establece unos criterios específicos que permitan determinar cuándo un programa debe categorizarse como IA.

La Comisión plantea un enfoque basado en el riesgo. Determina cuatro niveles de riesgo para etiquetar los sistemas de inteligencia artificial.

Los softwares de IA considerados de riesgo mínimo no tendrán obligaciones jurídicas adicionales. A esta categoría pertenecen la mayoría de sistemas de IA que se utilizan en la actualidad.

El riesgo limitado se refiere a obligaciones específicas en materia de transparencia. Sería el caso de los chatbots, ya que existe un riesgo de manipulación.

Por alto riesgo, la ley entiende todos los sistemas de IA que puedan tener un impacto negativo en la seguridad o los derechos de las personas, un ejemplo serían los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Para identificarlos, el texto establece en un anexo una lista de sistemas de alto riesgo que sirvan como referencia.

No se podrán usar imágenes faciales obtenidas por cámaras de vigilancia para crear bases de datos ©Alexander / Adobe Stock

Y por último, nos quedan las IA que suponen un riesgo inadmisible. Se trata de aquellas que vulneran los derechos fundamentales y resultan especialmente nocivas. Por lo que se prohibirá el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana y la actuación policial predictiva (a excepción de motivos médicos o de seguridad.)

Por otro lado, el auge de los “modelos de inteligencia artificial de uso general” ha animado a la UE a establecer mecanismos de supervisión para su desarrollo. La nueva ley considera que los sistemas que superen los 10^25 operaciones de coma flotante por segundo (FLOPS, por sus siglas en inglés) comportan riesgos sistémicos y deben someterse a un control mayor, para garantizar que cualquier proveedor que se base en ellos para el desarrollo de sus sistemas cuente con la garantía de que son seguros. Se ha fijado el umbral a partir de los grandes modelos, como GPT-4 y Gemini, al considerar que aún no se comprenden suficiente los sistemas que superan esa capacidad.

La ley de inteligencia artificial de la UE prohíbe el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.

La reproducción de sesgos es una cuestión polémica en el ámbito de la IA. La ley europea afirma que, con un diseño y uso adecuado, “los sistemas de inteligencia artificial pueden contribuir a reducir los prejuicios y la discriminación estructural”.  En consecuencia, la normativa establece requisitos para que los falsos resultados no causen perjuicio a los grupos protegidos. Así, los sistemas de alto riesgo deberán entrenarse con datos representativos y será necesario que la documentación del proceso se pueda rastrear y auditar. La ley aborda también la necesidad de respetar la legislación de derechos de autor en los entrenamientos de los modelos y de especificar los contenidos generados a partir de IA.

Imagen generada con la IA DALL-E

Con respecto al medioambiente, se entiende que la protección está íntimamente ligada a los demás intereses jurídicos que justifican la necesidad de esta normativa. Señala la importancia de evaluar el consumo energético y de otros recursos por parte de los sistemas de IA, así como de avanzar hacia un desarrollo más eficiente.

La ley se aplicará a todos los agentes públicos y privados, con independencia de su procedencia, cuando sus sistemas de IA entren en la UE o afecten a personas establecidas en ella. Su aplicación será gradual, hasta implantarse de manera definitiva en 2026.

Desde su entrada en vigor, cualquier nuevo sistema de IA se someterá a una evaluación de su impacto en los derechos fundamentales. Los proveedores que deseen comercializar un sistema de alto riesgo deberán demostrar que cumple con los requisitos y aplicar sistemas de gestión de la calidad y los riesgos para lograr minimizarlos lo máximo posible. Será necesario que se registren en una base de datos pública de la UE para que se realice un seguimiento. La transparencia será un elemento fundamental para que los proveedores puedan introducirse en el mercado europeo.

Quizás también te interesen:

Únete a nuestra Newsletter

Más de 1000 personas reciben las principales noticias sobre el sector audiovisual.

Al suscribirte aceptas la Política de Privacidad.