Como comentamos en nuestro post anterior, el RIA busca promover un uso responsable de la Inteligencia Artificial (IA), tanto para sus desarrolladores como para los usuarios. El espíritu de nuestra norma dice algo así como:
“Aunque tu coche pueda correr a 300km/h, lo más seguro es que todos respetemos el límite de 120 km/h porque, en definitiva, es más seguro».
Hay sistemas de IA que están directamente prohibidos por los riesgos que suponen. Aunque tenga muchísimas ventajas, no podemos ignorar que puede ser peligrosa si no se usa con cuidado. Por eso, el artículo 5 del RIA identifica una serie de prácticas prohibidas IA.
Técnicas Subliminales y Manipulación (Artículo 5a)
(…) que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas.
Ejemplo: Publicidad subliminal en redes sociales:
Imagina una APP que utiliza IA para personalizar la publicidad. Esta IA podría analizar los datos del usuario (gustos, preferencias, patrones de comportamiento) para identificar sus vulnerabilidades psicológicas. Luego, podría insertar sutilmente mensajes subliminales en los anuncios e influir así en el subconsciente del usuario, creando una asociación positiva con un producto o servicio específico, o generando una sensación de necesidad, urgencia o escasez. Incluso explotar el miedo a perderse algo (FOMO), para aumentar la probabilidad de que el usuario realice una compra/acto impulsivo.
Explotación de Vulnerabilidades (Artículo 5b)
(…) que explote alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica,…
Ejemplo: Discriminación en la concesión de créditos:
Imaginemos un sistema de IA utilizado por un banco que analiza los datos de solicitantes de crédito, incluyendo su historial crediticio, nivel de ingresos y vecindario. El sistema utiliza algoritmos sesgados que discriminan a personas de bajos ingresos o minorías étnicas, negando créditos u ofreciendo condiciones menos favorables. Esto perpetuaría la desigualdad económica y limitaría las oportunidades de las personas vulnerables, algo que, actualmente va en contra de los valores de Europa.
Puntuación Ciudadana y Clasificación (Artículo 5c)
(…) para evaluar o clasificar a personas (…)de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes:
i) un trato perjudicial o desfavorable hacia determinadas personas (…) en contextos sociales que no guarden relación con los contextos donde se generaron (…) los datos originalmente,
Ejemplo: Seguros basados en el comportamiento:
Las compañías de seguros empiezan a basar las tarifas no solo en el historial de conducción, sino también en el análisis de redes sociales, las aplicaciones de ejercicio (por lo que come y cómo se ejercita) o apps de citas. Una persona sana, con buena alimentación y vida social, podría tener mejores precios que alguien que sube a RRSS imágenes de comida poco saludable, o que demuestra no tener mucha actividad física. Esta nueva «tarificación» clasificaría a los ciudadanos en sanos y no sanos, lo cual puede generar problemas de privacidad y discriminación basados en información no objetiva.
ii) un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este;
Ejemplo: Evaluación de empleados:
Una empresa utiliza IA para monitorizar el comportamiento de sus empleados (actividad en redes sociales, emails, conversaciones en la oficina) y les asigna una puntuación de «productividad» o «lealtad». Los empleados con baja puntuación son despedidos, degradados o excluidos de oportunidades de ascenso, incluso si su desempeño laboral es adecuado. Este sistema genera un ambiente de desconfianza y puede penalizar a empleados por actividades fuera del ámbito laboral.
Evaluación de Riesgo Predictiva (Artículo 5d)
(…) IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad (…)
Ejemplo: Sistema de predicción de reincidencia (al puro estilo Minority Report)
Un sistema de IA analiza datos personales de ex convictos(edad, historial familiar, vecindario, etc.) para predecir la probabilidad de que cometan nuevos delitos. Las personas con alto «riesgo» son sometidas a vigilancia policial, restricciones de libertad o programas de «rehabilitación» obligatorios, incluso si no han cometido ningún delito posterior. Este sistema perpetúa la discriminación y la estigmatización de exconvictos, basándose en perfiles y no en hechos concretos.
En este contexto, ¿cómo prepararse para el reglamento de IA?
Toda organización que vaya a desarrollar, apoyar o utilizar la IA debe tener en cuenta los siguientes aspectos antes de adentrarse:
- Identificación y evaluación de riesgos.
- Implementación de medidas de cumplimiento normativo y mitigación para prevenir los riesgos identificados.
- Formación y concienciación del personal que usará o desarrollará la IA mediante lineamientos éticos europeos, internos desarrollados por la organización y basados en el riesgo encontrado.
¿Qué nos espera ahora? Entrada del régimen sancionador
¡Así que a portarse bien! En The Lighthouse Team tenemos un equipo de consultores experto en nuevas tecnologías preparado para salir al ruedo.