Prohibiciones de la Inteligencia Artificial en la normativa europea

Por Eligio Landín

La normativa europea sobre Inteligencia Artificial ha introducido una serie de prohibiciones y limitaciones con el objetivo de proteger los derechos fundamentales de las personas y el sistema democrático. Esta regulación es pionera en el ámbito internacional y se aprobó inicialmente por el Parlamento Europeo, pendiente aún de su publicación oficial.

El reglamento entrará en vigor veinte días después de su publicación en el Diario Oficial de la UE, aunque su aplicación será gradual:

  • Las prohibiciones de prácticas se aplicarán a los seis meses.

  • Los códigos de buenas prácticas, a los nueve meses.

  • Las normas sobre IA de uso general, en doce meses.

  • Las obligaciones sobre IA de alto riesgo, en treinta y seis meses.

Clasificación de riesgos en la IA

La ley europea establece diferentes niveles de riesgo en el uso de la IA:

  • Riesgo inaceptable (prohibidos)

  • Alto riesgo (regulados estrictamente)

  • Riesgo limitado o mínimo

Prácticas prohibidas por riesgo inaceptable

Entre las aplicaciones prohibidas por su impacto sobre los derechos fundamentales están:

  • Categorización biométrica basada en características sensibles.

  • Captura indiscriminada de imágenes faciales desde internet o videovigilancia.

  • Reconocimiento de emociones en el entorno laboral o educativo.

  • Sistemas de puntuación social.

  • Actuación policial predictiva basada en perfiles individuales.

  • Técnicas de manipulación conductual o explotación de vulnerabilidades personales.

Incluso las Fuerzas y Cuerpos de Seguridad tienen restringido el uso de sistemas de identificación biométrica remota en tiempo real, salvo en casos muy concretos como investigaciones por terrorismo, personas desaparecidas o delitos graves. En todos los casos, se requiere autorización judicial o administrativa y evaluación previa de impacto.

Lista de delitos para uso excepcional

El uso policial de reconocimiento biométrico en tiempo real solo se permite frente a delitos como terrorismo, trata de seres humanos, violación, asesinato, secuestro, sabotaje, entre otros (hasta 16 tipos concretos).

Obligaciones para los sistemas de alto riesgo

Los sistemas de IA de alto riesgo incluyen los aplicados a:

  • Infraestructuras críticas

  • Educación y empleo

  • Servicios públicos esenciales

  • Justicia y procesos democráticos

  • Entornos financieros (por ejemplo, para evaluar acceso a crédito)

Estos deben superar una evaluación de conformidad, garantizar transparencia, trazabilidad, supervisión humana y respeto a los derechos. Además, deberán mantenerse registros y facilitar explicaciones claras a los ciudadanos si sus derechos pudieran verse afectados.

Transparencia para sistemas de bajo riesgo

Los sistemas de uso general o de riesgo limitado (como videojuegos o filtros antispam) deben cumplir requisitos básicos de transparencia. Las empresas deben informar cuando el contenido es generado por IA, especialmente en imágenes, vídeos o audios.

En cuanto a la IA generativa, como ChatGPT, esta no se considera de alto riesgo, pero debe cumplir condiciones sobre derechos de autor, transparencia y correcta identificación del contenido generado.

Sanciones por incumplimiento

Las multas previstas en el reglamento europeo son significativas:

  • Hasta 35 millones de euros o el 7 % de la facturación anual por incumplimientos graves.

  • Hasta 15 millones o el 3 % por otras infracciones.

  • Hasta 7,5 millones o el 1,5 % por información incompleta o engañosa.

Las pymes podrán acogerse al límite menor en cada franja.

Derecho a reclamación

Las personas afectadas por el uso indebido de IA tendrán derecho a:

  • Presentar denuncias ante la autoridad nacional de control.

  • Recibir compensación por los perjuicios sufridos.

Órganos de supervisión

Cada Estado miembro deberá designar una autoridad nacional de control, y la Oficina Europea de Inteligencia Artificial garantizará la coordinación a nivel continental. Estas entidades velarán por el cumplimiento del Reglamento y facilitarán la cooperación entre instituciones públicas y privadas.

Conclusión

La normativa europea sobre Inteligencia Artificial marca un antes y un después en la regulación tecnológica, al establecer límites claros que protegen los derechos fundamentales de las personas frente a usos abusivos o invasivos de esta tecnología. Las prohibiciones expresas sobre el reconocimiento biométrico indiscriminado, la categorización de personas por rasgos sensibles o la manipulación emocional, refuerzan el compromiso de la Unión Europea con la ética, la transparencia y la seguridad jurídica.

Además, al establecer un marco regulador por niveles de riesgo, se fomenta el uso responsable y supervisado de la IA, especialmente en sectores críticos como la justicia, la educación, la sanidad o los servicios públicos.

Por tanto, el nuevo reglamento no sólo protege a los ciudadanos, sino que impulsa una IA confiable, justa y centrada en las personas, donde la innovación y los derechos humanos no son excluyentes, sino complementarios.

Continúa leyendo en nuestro blog.

Ene 20, 2026

Uso del spray de defensa por el Vigilante de Seguridad: ¿es legal? ¿cuándo y cómo puede utilizarse?

Oct 1, 2021

Formación y Reciclaje del Personal de Seguridad Privada

Suscríbete a nuestro newsletter

Actualízate con tendencias en seguridad, sistemas inteligentes y protección eficaz — claro, directo y sin distracciones.