Estas pautas de interpretación referidas a los requisitos específicos para las prácticas prohibidas bajo la categoría de riesgo inaceptable han entrado en vigor el 2 de febrero de 2025, seis meses después de la entrada en vigor del reglamento.
El reglamento define los sistemas de riesgo inaceptable como aquellos que utilizan técnicas subliminales para manipular decisiones, como insertar rápidamente imágenes en un video para influir en una compra sin el conocimiento del usuario. También sistemas de categorización biométrica que clasifiquen a individuos según características como etnia o religión, sin una razonable justificación legal.
La guía detalla un conjunto de prohibiciones, que buscan evitar prácticas de IA que infringen derechos fundamentales, valores de la Unión Europea y la dignidad humana:
Entre las principales prohibiciones destacan las siguientes:
- Manipulación subliminal y engañosa (Artículo 5.1(a)): Se prohíben técnicas diseñadas para influir en el comportamiento de las personas de manera significativa y sin su conocimiento, como mensajes subliminales visuales, auditivos o táctiles. También incluye tecnologías avanzadas, como interfaces cerebro-máquina que acceden a datos cerebrales sin consentimiento. Esto tiene implicaciones clave en sectores como la publicidad, donde la IA puede insertar mensajes subliminales en anuncios para fomentar decisiones perjudiciales, o en redes sociales, con el uso de chatbots engañosos o deepfakes no etiquetados que puedan manipular la percepción de los usuarios.
- Explotación de vulnerabilidades (Artículo 5.1(b)): Se restringen los sistemas de IA que aprovechen condiciones de vulnerabilidad, como edad, discapacidad o estado socioeconómico, para influir negativamente en las personas, especialmente cuando estas están en situaciones emocionales o económicas delicadas.
- Puntajes sociales (Artículo 5.1(c)): Se prohíbe la clasificación de individuos según su comportamiento o características personales cuando tales evaluaciones conduzcan a tratos desproporcionados o discriminatorios. Esto busca evitar abusos con la recopilación de datos personales fuera de su contexto legítimo.
- Predicción de delitos (Artículo 5.1(d)): Se limitan los sistemas que evalúen riesgos de actos criminales basándose exclusivamente en perfiles personales, salvo cuando haya un análisis humano imparcial relacionado con un delito específico.
- Bases de datos de reconocimiento facial no dirigido (Artículo 5.1(e)): Queda prohibido el uso de imágenes obtenidas sin autorización, ya sea de internet o cámaras de seguridad (CCTV), para la creación o ampliación de bases de datos de reconocimiento facial.
- Reconocimiento emocional en entornos laborales o educativos (Artículo 5.1(f)): Se restringe el uso de sistemas que intenten inferir emociones en estos contextos, salvo situaciones médicas o de seguridad que lo justifiquen adecuadamente.
- Categorización biométrica (Artículo 5.1(g)): Los sistemas que deduzcan características sensibles como religión, orientación sexual o raza se restringen, salvo en circunstancias legales claramente definidas.
- Identificación remota biométrica en tiempo real (Artículo 5.1(h)): Solo se permite en espacios públicos en casos extremos, como amenazas graves (terrorismo) o búsquedas de personas desaparecidas, y bajo estricta supervisión legal.
Cada prohibición requiere un análisis detallado considerando sus posibles efectos y se encuadra en el marco normativo vigente. Estas restricciones están diseñadas para proteger la autonomía y la capacidad de toma de decisiones informada de los usuarios frente a técnicas engañosas o manipulativas en sectores clave.
Conclusión
La Ley de Inteligencia Artificial de la UE establece un marco integral para regular el desarrollo y uso de IA en el territorio europeo. Con su enfoque basado en el riesgo, equilibra la innovación tecnológica con la protección de derechos fundamentales. Las pautas emitidas por la Comisión facilitan la comprensión y aplicación de las disposiciones, asegurando su cumplimiento uniforme en toda la Unión, a la vez que permiten flexibilidad frente a desarrollos tecnológicos futuros
La guía sobre las pautas a seguir en el cumplimiento de la AI Act refuerza el compromiso de la Unión Europea hacia una IA ética y respetuosa, al prevenir prácticas que amenazan derechos fundamentales y dignidad humana. Esto establece bases sólidas para promover un desarrollo tecnológico que priorice la protección de las personas y respalde su bienestar en todos los ámbitos. Esto posiciona a la UE como un referente global en la implementación ética y responsable de tecnologías basadas en IA.
Directrices de la Comisión sobre prácticas de inteligencia artificial prohibidas establecidas por el Reglamento (UE) 2024/1689 (Ley de IA): https://ec.europa.eu/newsroom/dae/redirection/document/112367
.jpg)