Principales claves de la primera Ley Europea para la regulación de la Inteligencia Artificial

El 1 de agosto entró en vigor la ley aprobada por el Parlamento Europeo el pasado mes de mayo para regular la inteligencia artificial (IA) en la Unión Europea. Esta legislación, la primera de su tipo en el mundo, establece un marco para asegurar que el desarrollo y uso de la IA sean seguros y respeten los derechos fundamentales. La ley introduce una clasificación de riesgos para las aplicaciones de IA y prohíbe aquellas que se consideran de alto riesgo, como el reconocimiento facial en tiempo real en espacios públicos. También fomenta la innovación y establece requisitos para la transparencia y la supervisión humana.

Al ser la primera propuesta legislativa en el ámbito de la Inteligencia Artificial a nivel global, se posiciona como un posible referente para la regulación de la IA en otras jurisdicciones.

¿QUÉ APLICACIONES QUEDAN PROHIBIDAS?

La nueva ley prohíbe ciertas aplicaciones de IA que vulneran los derechos ciudadanos, como la categorización biométrica basada en características sensibles y la recopilación masiva de imágenes faciales. También se vetan el reconocimiento de emociones en entornos laborales y educativos, los sistemas de puntuación ciudadana, la policía predictiva basada en perfiles personales, y la IA que manipule el comportamiento humano o explote vulnerabilidades. Estas medidas buscan proteger los derechos fundamentales y evitar abusos tecnológicos.

LA PROTECCIÓN DE LOS DERECHOS FUNDAMENTALES

El nuevo reglamento exige que se evalúe el impacto de cualquier nuevo sistema de IA sobre los derechos fundamentales antes de su lanzamiento al mercado. Asimismo, los modelos funcionales (aquellos sistemas de gran envergadura capaces de realizar diversas tareas), estarán sujetos a obligaciones más estrictas en cuanto a transparencia.

Además, se subraya la obligación de los usuarios de sistemas de reconocimiento de emociones de notificar a las personas expuestas a este tipo de tecnología.

TIPOS DE SISTEMAS DE IA

La Ley establece cuatro tipo de sistema de IA: prohibidos, de alto riesgo, con requisitos de transparencia y de propósito general.

¿QUÉ MULTAS SE ESTABLECEN?

Se adaptarán a las circunstancias y se valorará el tamaño del proveedor. Para aquellos que incumplan la normativa, se prevén multas con un rango desde los 35 millones de euros o el 7% del volumen global del negocio hasta los 7,5 millones de euros o el 1,5% del volumen global del negocio.

¿CUÁNDO SE EMPIEZA A APLICAR?

Tras su entrada en vigor el 1 de agosto, la normativa será plenamente aplicable veinticuatro meses después, salvo las prohibiciones de ciertas prácticas, que entrarán en vigor seis meses después, en febrero de 2025.

En agosto de 2025, comenzarán a aplicarse las normas para los modelos de uso general, como ChatGPT, y un año más tarde, en agosto de 2026, la ley se implementará de manera general, excepto algunas disposiciones específicas.

Las obligaciones para los sistemas de alto riesgo entrarán en vigor 36 meses después, en agosto de 2027.

CONCLUSIONES

Desde Zalcu Technologies, estamos comprometidos con garantizar la seguridad en el uso de la inteligencia artificial, utilizando siempre las soluciones más seguras para crear nuestras aplicaciones. Implementamos prácticas responsables y éticas que protegen a las personas, respetan su privacidad y promueven un desarrollo tecnológico que beneficie a todo

Comienza tu transformación hoy mismo

¿Quieres que te ayudemos con tu proyecto?