La UE aplaza hasta 2027 la regulación de la IA biométrica por presiones empresariales

Lectura de 8 min

La Unión Europea retrasa la regulación de la inteligencia artificial biométrica ante la presión de la industria

La Unión Europea ha decidido posponer la entrada en vigor de las normas que regulan los sistemas de identificación biométrica basados en inteligencia artificial. Según el acuerdo alcanzado en Bruselas, las obligaciones para estas tecnologías no serán exigibles hasta el 2 de diciembre de 2027, lo que supone una prórroga de 16 meses respecto a la fecha inicialmente prevista.

¿Qué son los sistemas de identificación biométrica y por qué preocupan?

La identificación biométrica emplea rasgos físicos o de comportamiento, como el rostro o la voz, para verificar o reconocer la identidad de las personas. Estas tecnologías tienen un especial impacto en ámbitos sensibles como la vigilancia policial, el control de fronteras, la educación, el empleo o el acceso a servicios públicos esenciales.

El uso de la inteligencia artificial en estos sistemas plantea riesgos significativos para los derechos fundamentales, especialmente en lo relativo a la privacidad, la discriminación y el anonimato en el espacio público. Por ello, la nueva Ley de Inteligencia Artificial de la UE establece requisitos estrictos para su implementación.

Principales obligaciones y nuevas fechas

  • Supervisión humana: Los sistemas deberán contar con control humano efectivo para minimizar errores y riesgos.
  • Precisión y transparencia: Se exigirá un alto nivel de precisión y la documentación completa de su funcionamiento.
  • Calidad de los datos: Los datos empleados en el entrenamiento de estos sistemas deberán ser de calidad y estar libres de sesgos significativos.
  • Ampliación de plazos: Algunos sistemas de IA vinculados a sectores regulados por normas europeas específicas dispondrán de plazo adicional hasta agosto de 2028 para cumplir plenamente la ley.

Este aplazamiento se enmarca en el paquete de reformas conocido como “AI Omnibus”, impulsado por la Comisión Europea, que argumenta la necesidad de dar más tiempo a empresas y administraciones para adaptarse a un entorno regulatorio complejo.

- Advertisement -

Preocupación por la reducción de las garantías ciudadanas

Diversas organizaciones y expertos advierten que el retraso supone una reducción efectiva de las protecciones frente a los sistemas de inteligencia artificial de alto riesgo. Sandra Molina, especialista en protección de datos del Grupo Atico34, alerta sobre los usos más peligrosos de la identificación biométrica, como el reconocimiento facial sin consentimiento en videovigilancia, la categorización de personas por atributos sensibles, el scraping masivo de imágenes para bases de datos faciales y el reconocimiento de emociones en entornos laborales o educativos.

“En estos casos, el riesgo de discriminación, persecución o pérdida de anonimato es irreversible: una vez que alguien ha sido identificado o categorizado, ese dato no puede revertirse”, señala Molina. A su juicio, el aplazamiento deja a la ciudadanía desprotegida durante más tiempo frente a decisiones automatizadas que pueden influir en su empleo, acceso a servicios públicos o crédito.

No obstante, Molina recuerda que las prohibiciones más estrictas —como el reconocimiento facial en tiempo real o el social scoring— seguirán vigentes desde febrero de 2025, según lo establecido en el artículo 5 del reglamento europeo.

Críticas de organizaciones y eurodiputados

Desde la organización European Digital Rights (EDRi), Itxaso Domínguez reconoce los retos técnicos en la estandarización de las normas, pero considera que la solución debe pasar por una orientación clara y recursos adecuados, no por retrasar la protección legal. En su opinión, el aplazamiento refleja una presión sostenida de la industria y algunos gobiernos para ralentizar la aplicación de la Ley de IA antes de que sus partes más relevantes entren en vigor.

“En la práctica, esto debilita las salvaguardas y da a los actores más poderosos mayor margen para eludir responsabilidades, generando inseguridad jurídica que solo las grandes tecnológicas pueden asumir”, advierte Domínguez.

- Advertisement -

La eurodiputada Leila Chaibi, del grupo de La Izquierda, también ha criticado la decisión, afirmando que se está enviando un mensaje preocupante al ceder ante los intereses de las multinacionales digitales. “Europa debería reforzar la supervisión democrática y las garantías colectivas, no organizar la desregulación ante el avance de la inteligencia artificial”, sostiene Chaibi.

Nuevas prohibiciones en IA: imágenes sexualizadas y contenido sintético

El acuerdo también introduce la prohibición de sistemas de inteligencia artificial cuyo único propósito sea generar imágenes sexualizadas de personas sin su consentimiento o material de abuso sexual infantil. Además, se prohíbe el uso de fotografías para otros fines si no existen medidas de seguridad razonables que eviten la propagación de estos contenidos.

En España, la difusión no consentida de imágenes íntimas ya constituye delito bajo la Ley Orgánica 10/2022 de garantía integral de la libertad sexual. Sin embargo, la nueva normativa europea amplía la responsabilidad a desarrolladores y plataformas que faciliten la generación o difusión de este tipo de contenidos.

- Advertisement -

Estas obligaciones, junto con las medidas que requieren la transparencia y el marcado digital (watermarking) de los contenidos generados por IA, comenzarán a aplicarse el 2 de diciembre de este año.

¿Qué implica este retraso para Europa?

  • Las garantías para los ciudadanos frente a sistemas de IA de alto riesgo se aplicarán más tarde de lo previsto.
  • Se mantiene la prohibición de prácticas especialmente lesivas, como el reconocimiento facial en tiempo real o el social scoring, desde febrero de 2025.
  • Las grandes compañías tecnológicas dispondrán de más tiempo para adaptarse (o eludir) los nuevos requisitos regulatorios.
  • El debate sobre el equilibrio entre innovación tecnológica, competitividad e intereses ciudadanos sigue abierto en el seno europeo.

La decisión de Bruselas pone de manifiesto las tensiones entre la necesidad de proteger los derechos fundamentales y las presiones industriales para flexibilizar la regulación de tecnologías que transformarán la sociedad. Si bien la Unión Europea avanza en medidas para controlar los riesgos de la inteligencia artificial, el retraso en la aplicación de las normas deja en suspenso la protección efectiva de los ciudadanos en ámbitos tan sensibles como la identificación biométrica.

Nota:

Los contenidos publicados en este sitio han sido generados y/o reelaborados mediante el uso de herramientas de inteligencia artificial.

elpuebloinforma.com declina toda responsabilidad, directa o indirecta, por eventuales errores, inexactitudes, omisiones u otras irregularidades presentes en los textos.

El usuario reconoce que dichos contenidos tienen exclusivamente fines informativos y no pueden sustituir en ningún caso fuentes oficiales ni asesoramientos profesionales.

Compartir este artículo
No hay comentarios