La Inteligencia Artificial ya incide en múltiples ámbitos de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros teléfonos hasta el análisis de datos en la investigación médica. Su avanzada tecnología ofrece innumerables ventajas como la automatización de tareas, eficiencia, capacidad de procesamiento de grandes volúmenes de datos y personalización de múltiples servicios. Sin embargo, estas ventajas vienen acompañadas de desafíos en cuanto a privacidad, sesgos algorítmicos, responsabilidad en caso de errores y el impacto en el empleo.
Uno de los peligros más significativos de una Inteligencia Artificial no convenientemente regulada es el sesgo. Ya hemos visto incidencias al respecto que han provocado casos de discriminación por sexo o raza, entre otras. Estos sistemas aprenden a partir de datos y, si esos datos reflejan prejuicios existentes en la sociedad, podrían perpetuar o incluso exacerbar esos sesgos. Esto podría manifestarse en sistemas de contratación, créditos y sistemas judiciales. Además, sin una regulación adecuada, esta tecnología podría ser utilizada para recopilar, analizar y compartir datos personales sin el consentimiento adecuado.
Por otro lado, surge la cuestión de la responsabilidad en caso de errores o accidentes causados por sistemas de IA. Sin un marco legal claro, determinar quién es responsable puede ser un desafío. Otro de los problemas derivados del uso/desarrollo de esta tecnología son los ataques o manipulaciones maliciosas de la misma, lo cual podría tener consecuencias graves en ámbitos como la seguridad nacional o la infraestructura esencial.
A la hora de combatir estos desafíos, la IA no es diferente a otras tecnologías de gran impacto como lo fue el automóvil, en su día, o Internet. Éstas también necesitaron regularse para prevenir consecuencias negativas. En este caso, y teniendo en cuenta su rápida evolución, sin duda se requiere una regulación dinámica y adaptativa. En cualquier caso, en la mayoría de países, la regulación en materia de IA se encuentra en etapas incipientes. Por ejemplo, en Estados Unidos, la regulación ha sido más sectorial y depende en gran medida de los estados individuales, aunque existen ciertos marcos federales en áreas específicas, como la privacidad o la discriminación.
A nivel global, el reto radica en equilibrar la innovación con la protección del ciudadano. Una regulación excesiva podría sofocar la innovación, mientras que una falta de regulación podría dejar a las personas desprotegidas. En este sentido, la UE lleva ya varios años desarrollando el llamado AI ACT en un esfuerzo común entre los organismos reguladores europeos, empresas, expertos en Inteligencia Artificial y sociedad civil. Su objetivo: proteger los derechos fundamentales de las personas, garantizar la transparencia en la toma de decisiones de los sistemas de IA y establecer mecanismos de rendición de cuentas y supervisión humana adecuados, entre otras cuestiones básicas.
No pretenden regular la tecnología en sí misma, ya que esto supondría un problema para su implementación y desarrollo en la industria de la UE, sino casos de uso específicos que pueden suponer un riesgo. Así, establecen una especie de ‘semáforo’.
Inteligencia Artificial: Sistema semáforos AI ACT
En rojo ‘prohibido’ se encuentran los sistemas usados para el rastreo aleatorio de datos biométricos de redes sociales o cámaras de vigilancia para crear o ampliar bases de datos de reconocimiento facial.
También los sistemas de categorización biométrica que usen “características sensibles” como el género, raza, etnia, religión u orientación política, salvo para su uso “terapéutico”; aquellos sistemas usados para puntuación social de las autoridades públicas (como es el caso de China), los sistemas predictivos de vigilancia para evaluar el riesgo de una persona o grupo de personas de cometer un delito u ofensa (basados en la perfilación, la localización de dichas personas o en su pasado criminal) o los sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público para las fuerzas del orden, a menos que … Niños desaparecidos, ataques terroristas, orden de detención, autorización judicial previa.
El ‘semáforo naranja’ (foco de la mayor parte del AI ACT) incluye los sistemas de alto riesgo, consideraciones y requerimientos. Se trataría de cualquier sistema cuya implementación o desarrollo pudiera conllevar un impacto negativo sobre los derechos fundamentales de la persona, salud y seguridad de los ciudadanos o el medioambiente. Aquí tenemos, por ejemplo, la Inteligencia Artificial Generativa, en el caso de que tenga incidencia significativa sobre la vida de las personas.
Uso de la Inteligencia Artificial en: Educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y beneficios públicos; gestión de migración, asilo y control de fronteras; administración de justicia y procesos democráticos; o aquellos sistemas que puedan influir a votantes en campañas políticas, así como los de recomendación que usan las plataformas sociales.
Todos ellos deberán cumplir con unos requerimientos entre los que se encuentran:
- Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios
- Registros de actividad para garantizar la trazabilidad de los resultados
- Medidas adecuadas de supervisión humana para minimizar el riesgo
- Alto nivel de robustez, seguridad y precisión, entre otras.
Aquellos que no lo cumplan se enfrentarán a multas de hasta el 6% de su facturación global o 30 millones de euros.
En el ‘semáforo amarillo’ se encontrarían aquellos sistemas con riesgo limitado. Por ejemplo, los destinados a interactuar con personas físicas (chatbots) o incluso deepfakes. Aquí tendríamos obligaciones de transparencia con el objetivo de no crear confusión en el consumidor.
Por último, el ‘semáforo verde’ quedaría reservado a aquellos sistemas que suponen un mero automatismo, sin riesgo. Por ejemplo: filtros de spam o aquellos usados en videojuegos.
Impacto en las empresas del AI ACT
Uno de los principales problemas de la Regulación europea en este tipo de tecnologías es su posible impacto negativo sobre las iniciativas de las pequeñas y medianas empresas. Los requerimientos legales de los sistemas de alto riesgo no son fáciles de asumir para empresas con pocos recursos. Las grandes empresas, sin embargo, se espera que contraten a consultorías especializadas esta labor.
Con el objetivo de ayudar ayudar a las Pymes españolas, la Secretaría de Estado de Digitalización e IA, en una acción enmarcada dentro de la Estrategia Nacional de IA (ENIA) está elaborando un Sandbox regulatorio del que saldrán unas guías técnicas específicas para cada artículo del AI Act. Estas guías ayudarán a las pymes que usen o desarrollen sistemas de IA de alto riesgo, a entender y a cumplir con la regulación de una manera mas sencilla y usando herramientas opensource (de libre acceso). En cualquier caso, tal y como se ha explicado, con anterioridad, únicamente tendrán que cumplir con estos requerimientos los sistemas de Inteligencia Artificial de alto riesgo.
En definitiva, la Iinteligencia Artificial presenta un potencial transformador inmenso. Sin embargo, como cualquier herramienta poderosa, conlleva tanto oportunidades como riesgos. Aunque existen esfuerzos en curso para desarrollar una regulación sólida, todavía hay un largo camino por recorrer para garantizar un uso seguro y ético de este tipo de tecnología en nuestra sociedad. En cualquier caso, debemos recordar que el peligro no es la herramienta en sí misma (al menos por ahora), sino el uso que nosotros, los humanos, hacemos de ella. La clave está en aumentar la consciencia popular y profesional sobre los riesgos, y usar herramientas, desde el diseño, para prevenirlos.
La cuestión es que que, hoy día, no es una opción plantearse su uso, pero se debe incentivar su uso/desarrollo ético y responsable desde el diseño.
Si quieres conocer más sobre Iinteligencia Artificial y ciberseguridad, visita nuestro blog