La Ley de IA europea entra en vigor: así se va a aplicar la primera regulación de inteligencia artificial del mundo

Imagen ilustrativa / Imagen: Ideogram.ai

La Ley de IA europea ha entrado en vigor el 1 de agosto de 2024. Publicada en el Diario Oficial de la Unión Europea el pasado junio, esta es la primera regulación a nivel mundial sobre inteligencia artificial. Tras años de negociación, los 27 Estados Miembros acordaron esta normativa a finales del año pasado. A continuación, se explican los cambios obligatorios y el calendario previsto.

La 'AI Act' se implementará de manera progresiva. Aunque ya está activa, no será completamente obligatoria hasta agosto de 2026. La Unión Europea ha planificado la introducción gradual de las obligaciones.

En seis meses, es decir, el 2 de febrero de 2025, deberán cumplirse las disposiciones generales y prohibiciones de riesgo inaceptable. Tres meses después, el 2 de mayo de 2025, los códigos de buenas prácticas serán obligatorios. Para el 2 de agosto de 2025, las normas generales deberán cumplirse y los países actualizarán sus normativas de sanciones y multas, preparándose para multar a las empresas que no cumplan con la ley.

Europa ofrece varios años de margen para los sistemas "de alto riesgo", como los modelos de IA avanzados. Tendrán hasta agosto de 2027 para documentar y transparentar su funcionamiento completamente.

Varias empresas, como Meta, han decidido no traer sus sistemas a Europa, optando por ser cautelosas pese a no estar obligadas aún a cumplir con todas las exigencias de la Unión Europea.

Uno de los desafíos será la categorización de la IA por niveles de riesgo. El "alto riesgo" incluye sistemas que pueden tener efectos perjudiciales significativos en la salud, seguridad y derechos fundamentales, afectando sectores críticos como la educación y la seguridad.

Defensores de la privacidad, como EDRi, critican que la definición de alto riesgo no incluye sistemas de videovigilancia masiva. Aunque el reconocimiento facial en directo está prohibido, se permiten sistemas de identificación biométrica para el control fronterizo.

La normativa se centra en los desarrolladores de grandes modelos, dejando la mayoría de sistemas de IA, como filtros y chatbots de "riesgo mínimo", sin regular. El enfoque es sobre los creadores de los modelos, no los implementadores, como Google con Gemini y empresas de telefonía móvil que adaptan estos modelos.

Otra crítica es que los modelos "open source" no están exentos de cumplir la AI Act, afectando a proyectos como LLaMa de Meta, Stable Diffusion y Mistral.

Las sanciones pueden alcanzar hasta el 7% de la facturación anual mundial, gestionadas por la Oficina Europea de Inteligencia Artificial, encargada de asegurar el cumplimiento, elaborar informes y prestar apoyo a las empresas para adaptarse.

FUENTE: XATAKA