Skip to main content

Ojo! Que esto no es cosa del futuro. Aunque la implantación total del Reglamento de IA sea en 2026, tenemos que irnos preparando desde ya. Toca adaptar nuestras operativas y estructuras para cumplir con lo que se exige en el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024.

Es verdad que ya existían algunas normas que regulaban algún aspecto de la IA, pero su dispersión hacía necesaria una especie de “armonización” que sirviese como marco general de regulación.

¿Y qué busca con esto? Pues proteger los valores fundamentales de la UE, como la ética, la responsabilidad, la igualdad… ¡Casi nada! Y también evitar que la IA aumente la brecha digital existente.
En resumen, la idea es que la IA se desarrolle respetando los derechos humanos, la dignidad de las personas, la privacidad… ¡Vamos, que no se nos vaya de las manos! Y para eso, se centra en controlar los riesgos y minimizar los posibles impactos negativos.

🤝 ¿Qué regula el Reglamento de IA?

Al igual que pasaría con la protección de datos, la norma clasifica los sistemas de IA por niveles de riesgo. Para cada nivel de riesgo habrá una serie de obligaciones. Se trata de una norma muy completa ya que incluye ella misma las definiciones de los términos más relevantes.


En síntesis, lo que regula es determinados usos de la IA que son o podrían ser contrarios a los valores actuales de la UE.

📝 ¿A quién afecta el Reglamento de IA?

  • Proveedores de sistemas de IA
  • Usuarios de sistemas de IA
  • Sectores específicos (ej. sanidad, financiero)

En relación con ellos, se podría decir que, en función de su rol tienen un:

  • Deber activo (proveedores y responsables de despliegue): sujetos que deben alfabetizar a la gente.
  • Derecho activo (trabajadores, colaboradores y demás personal a disposición de los proveedores y responsables de despliegue): Ser alfabetizados.

“Para cada nivel de riesgo habrá una serie de obligaciones. […] determinados usos de la IA que son o podrían ser contrarios a los valores actuales de la UE.

📌 ¿Lo más importante hasta el momento?

  • Establece un deber de alfabetización de IA para los actores involucrados en su despliegue. Se centra en desarrollar las capacidades, conocimientos y comprensión de aquellos actores que promuevan o interaccionen con la misma. Pretende que la sociedad adquiera conciencia, no solo de sus beneficios, sino también de los perjuicios que puede suponer. Pretende establecer un marco básico de competencias de IA y, para ello, se tendrá que tener en cuenta los conocimientos técnicos previos, así como la experiencia y formación de los involucrados en su despliegue. Además, habrá que alfabetizar a las personas o los colectivos de personas que se prevé vayan a utilizar dichos sistemas.
  • Por otra parte, el artículo 5 señala algunas prácticas respecto a los sistemas que, en base a sus características, se consideran prohibidos. En general no se puede introducir en el mercado, poner en servicio y/o utilizar los sistemas de IA que supongan o puedan suponer:

Abogados especialistas

¿Cuáles son las prácticas prohibidas de IA?

  • IA manipuladora
    • Se prohíben los sistemas de IA que usan técnicas ocultas o engañosas para manipular el comportamiento de las personas, llevándolas a tomar decisiones perjudiciales que no tomarían de otro modo.
  • Abuso de personas vulnerables
    • Se prohíben los sistemas de IA que se aprovechan de las debilidades de las personas debido a su edad, discapacidad o situación socioeconómica, para manipularlas y causarles daño.
  • Puntuación ciudadana
    • Se restringe el uso de sistemas de IA que evalúan y clasifican a las personas según su comportamiento social, si esto conduce a un trato injusto o perjudicial en situaciones no relacionadas.
  • Evaluación de riesgos predictiva
    • Se prohíbe el uso de IA para predecir si alguien cometerá un delito basándose únicamente en su perfil o personalidad.
  • Bases de datos de reconocimiento facial indiscriminadas
    • Se prohíbe la creación de bases de datos de reconocimiento facial mediante la extracción masiva de imágenes de internet o cámaras de vigilancia.
  • Inferir emociones en entornos laborales y educativos
    • Se prohíbe el uso de IA para deducir las emociones de las personas en el trabajo y la escuela, por ejemplo.
  • Categorización biométrica discriminatoria
    • Se prohíben los sistemas que clasifican a las personas según su raza, opiniones políticas, religión, etc., a partir de sus datos biométricos.
  • Regulación estricta de la identificación biométrica remota en tiempo real
    • Se limita el uso de la identificación facial en espacios públicos por parte de la policía, permitiéndose sólo en casos específicos y graves.
Es fundamental comprender las aplicaciones que queremos implementar con la IA, para adecuarnos a las obligaciones del Reglamento.

👀 Conclusión

¡Uf, qué denso es el tema de la regulación, ¿verdad? Hemos intentado resumir lo principal del artículo 5 para que te sea más fácil de entender, pero como ves, es complejo y técnico. Recuerda que cada punto tiene sus excepciones y matices, así que si quieres profundizar, no dudes en echar un vistazo a nuestra próxima publicación donde te daremos más ejemplos y detalles.

Y por supuesto, si te surge cualquier duda, ¡estamos aquí para ayudarte! Contacta con nosotros y te la resolveremos encantados.

Seguimos adelante, en equipo. ¿Te sumas?🤝✨
Mélany Resa

Abogada colegiada en el ICAM, especializada en PI, Competencia y NNTT. Experta en derecho contractual, con amplia experiencia en la gestión de carteras de PI y liderazgo en fusiones y adquisiciones. Me definen una comunicación cercana, pensamiento estratégico y capacidad para optimizar procesos legales en derecho mercantil y societario.

Open chat
1
¡Hola! ¿Cómo puedo ayudarte?
¡Hola! ¿Puedo ayudarte?