La Inteligencia Artificial marca el actual camino en su paso hacia el futuro. De las decisiones que se tomen hoy dependerá el mañana. La IA es mucho más que una herramienta. Supone la mayor evolución humana de las últimas décadas, un cambio de paradigma, y no ofrece la posibilidad de negarla o frenarla. Es ya una cuestión de adaptación, de la máquina al ser humano o viceversa, y ese equilibrio es el que buscan los actuales responsables políticos como representantes de la ciudadanía.
Resulta clave para la optimización de tareas, para aumentar la competitividad en el sector laboral y empresarial. Pero los expertos coinciden en que sus posibilidades son tantas que es necesario ponerle límites. Límites legislativos, normas y regulaciones. Este martes se aprobaba en España el Anteproyecto de Ley para su regulación, adaptando la normativa nacional al marco europeo.
El objetivo es garantizar un uso de la Inteligencia Artificial que sea “ético, inclusivo y beneficioso para las personas”. Todo ello bajo un enfoque regulador que no debe sesgar sino impulsar la innovación.
¿Cuáles son las prácticas prohibidas que entraron en vigor en febrero y que desde agosto se pondrán sancionar? El Gobierno señala algunos ejemplos:
- El uso de técnicas subliminales (imágenes o sonidos imperceptibles) para manipular decisiones sin consentimiento, causando un perjuicio considerable a la persona (adicciones, violencia de género o menoscabo de su autonomía). (Ej: un chatbot que identifica usuarios con adicción al juego y les incita a entrar, con técnicas subliminales, en una plataforma de juego online).
- Explotar vulnerabilidades relacionadas con la edad, la discapacidad o situación socioeconómica para alterar sustancialmente comportamientos de modo que les provoque o pueda provocar perjuicios considerables (Ej: Un juguete infantil habilitado con IA que anima a los niños a completar retos que pueden producirles daños físicos graves).
- La clasificación biométrica de las personas por raza u orientación política, religiosa o sexual. (Ej: Un sistema de categorización facial biométrica capaz de deducir la orientación política o sexual de un individuo mediante análisis de sus fotos en redes sociales).
- La puntuación de individuos o grupos basándose en comportamientos sociales o rasgos personales como método de selección para, por ejemplo, denegarles la concesión de subvenciones o préstamos.
- Valorar el riesgo de que una persona cometa un delito basándose en datos personales como su historial familiar, nivel educativo o lugar de residencia, con excepciones legales.
- Inferir emociones en centros de trabajo o educativos como método de evaluación para promoción o despido laboral, salvo por razones médicas o de seguridad.
Las multas oscilan entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, si esta última cifra es superior, salvo en el caso de pymes, que podrá ser la menor de las dos cuantías.
“La IA puede servir para investigar el cáncer o para esparcir odio”
El ministro para la Transformación Digital, Óscar López, reflexionaba ante la prensa especializada acerca de los usos de la Inteligencia Artificial. “La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o atacar a la democracia; puede tener buenos usos o malos usos”, reconoce. Y en encontrar el equilibrio está la clave. “La IA puede ser utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir bulos y mentiras, esparcir odio y atacar a nuestra democracia. Por eso es oportuno su buen uso y gobernanza”.
Las autoridades encargadas de vigilar los sistemas prohibidos serán:
-La Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras).
-El Consejo General del Poder Judicial (para sistemas de IA en el ámbito de la justicia).
-La Junta Electoral Central (para sistemas que IA que afecten a procesos democráticos).
-La Agencia Española de Supervisión de la Inteligencia Artificial (en el resto de los casos).