+ INFORMACIÓN

¡Comparte en redes sociales!

La cercana ley de Inteligencia Artificial

Los avances en los sistemas de inteligencia artificial (IA) tendrán un gran impacto económico y social que supondrá diversos beneficios para todas las industrias. Todos estos beneficios y fortalezas de la IA, sin embargo, no están exentos de potenciales riesgos. 

Aprovechar las oportunidades de la Inteligencia Artificial

En este contexto mundial que ya podemos avistar, Europa ha adoptado el firme compromiso de aprovechar las oportunidades de la IA y abordar los retos que presenta, promoviendo su desarrollo y adopción en línea con los valores europeos.

Lo cual, dada nuestra capacidad demostrada de crear productos seguros, fiables y sofisticados, nuestra sólida posición en la industria digitalizada, fortaleza académica y posición en la computación cuántica, así como la prevista nueva oleada de datos (de 33 zetabytes en 2018 a una previsión de 175 zetabytes en 2025) abre la oportunidad de convertir Europa en líder mundial de la innovación en la economía de los datos y sus aplicaciones, pudiendo producir sistemas confiables en un ecosistema de excelencia a lo largo de toda la cadena de valor.

El ecosistema de confianza que quiere alcanzar la Unión en materia de inteligencia artificial se fundamenta en el desarrollo ético de la IA basado en el respeto de los derechos fundamentales.

Alcanzar este ecosistema pasa por regular el diseño, fabricación y venta de la IA, garantizando la existencia de un marco de seguridad jurídica del que puedan beneficiarse tanto usuarios como empresas productoras, comercializadoras e implementadoras.

La complejidad del marco regulador de la IA reside en la necesidad de dejar margen para abordar su desarrollo en el futuro minimizando los distintos riesgos de sufrir daños que puede implicar su utilización, que principalmente afectan a la aplicación de las normas diseñadas para proteger los derechos fundamentales, la ciberseguridad con impacto en el mundo físico, así como a determinadas cuestiones relativas a la responsabilidad civil.

Si bien la legislación de la UE resulta, en principio, plenamente aplicable independientemente del uso de IA, resulta importante evaluar si puede ejecutarse de manera adecuada para abordar los riesgos que generan los sistemas de IA o si se requiere adaptar instrumentos jurídicos específicos.

la ley de inteligencia artificial en europa

Mejorar el marco normativo

La Comisión considera que conviene mejorar el marco normativo para abordar los riesgos y situaciones siguientes:

  • Aplicación y ejecución efectivas de la legislación nacional y de la UE en vigor: Se quiere salvar la falta de transparencia de la IA que dificulta la detección y prueba de incumplimientos de la normativa.
  • Limitaciones del ámbito de aplicación de la legislación existente de la UE: La falta de transparencia (opacidad de la IA) hace difícil detectar y demostrar los posibles incumplimientos de la legislación, especialmente las disposiciones legales que protegen los derechos fundamentales, imputan responsabilidades y permiten reclamar una indemnización.
  • Cambios en la funcionalidad de los sistemas de IA: La existencia de actualizaciones puede dar lugar a nuevos riesgos que no existían en el momento en que se introdujo el sistema en el mercado. Estos riesgos no se abordan adecuadamente en la legislación en vigor, que se centra en los riesgos de seguridad en el momento de la comercialización.
  • Incertidumbre en lo que se refiere a la imputación de responsabilidades entre los distintos agentes económicos de la cadena de suministro: En general, la legislación de la UE sobre la seguridad de los productos imputa la responsabilidad al productor del producto comercializado, incluidos todos sus componentes, como los sistemas de IA. Sin embargo, estas normas pueden resultar poco claras cuando la IA es incorporada al producto, una vez que este se ha comercializado, por alguien que no es el productor. Además, la legislación de la UE sobre la responsabilidad civil por los productos regula la responsabilidad de los productores y deja que las normas nacionales en materia de responsabilidad civil se encarguen de los demás participantes en la cadena de suministro.
  • Cambios en el concepto de seguridad: El uso de la IA en los productos y los servicios puede generar riesgos que la legislación de la UE no aborda de manera explícita en la actualidad. Estos riesgos pueden estar vinculados a ciberamenazas, a la seguridad personal (por ejemplo, con relación a nuevos usos de la IA, como en el caso de los aparatos domésticos), a la pérdida de conectividad, etc., y pueden existir en el momento de comercializar los productos o surgir como resultado de la actualización de los programas informáticos y del aprendizaje automático del producto cuando este último se está utilizando.

Legislación específica sobre la Inteligencia Artificial

Además de adaptar el marco vigente, la Comisión considera que es posible que se requiera nueva legislación específica sobre IA, a fin de adaptar el marco jurídico de la UE a la evolución tecnológica y comercial actual y futura. Para que este nuevo marco regulador sea eficaz para alcanzar sus objetivos sin ser excesivamente prescriptivo, la Comisión considera que debe seguir un enfoque basado en el riesgo

Así, considera que los sistemas de IA deben considerarse de riesgo elevado en función de lo que esté en juego, y considerando si tanto el sector como el uso previsto suponen riesgos significativos, en especial desde la perspectiva de la protección de la seguridad, los derechos de los consumidores y los derechos fundamentales.

Riesgos con aplicaciones de Inteligencia Artificial

De manera más específica, una aplicación de IA debe considerarse de riesgo elevado cuando presente la suma de los dos criterios siguientes:

  • Que la aplicación de IA se emplee en un sector concreto en el que, por las características o actividades que se llevan a cabo normalmente, es previsible que existan riesgos significativos. En el nuevo marco regulador deben detallarse de manera específica y exhaustiva los sectores que englobe. Por ejemplo, la sanidad, el transporte, la energía y determinados ámbitos del sector público. Esta lista debe revisarse periódicamente y modificarse cuando proceda en función de los desarrollos pertinentes en la práctica. 
  • Que la aplicación de IA en el sector en cuestión se use, además, de manera que puedan surgir riesgos significativos. Este segundo criterio refleja el reconocimiento de que no toda utilización de la IA en los sectores señalados implica necesariamente riesgos significativos. Por ejemplo, si bien la atención sanitaria puede ser un sector importante, un fallo en el sistema de asignación de citas de un hospital no supondrá en principio un riesgo significativo que justifique la intervención legislativa. La evaluación del nivel de riesgo de un uso determinado puede basarse en las repercusiones para las partes afectadas. Por ejemplo, el uso de aplicaciones de IA con efectos jurídicos o similares en los derechos de un particular o de una empresa; aplicaciones que presenten el riesgo de causar lesiones, la muerte, o daños materiales o inmateriales significativos; aplicaciones que produzcan efectos que las personas físicas o jurídicas no puedan evitar razonablemente.

No obstante lo anterior, también puede haber casos excepcionales en los que, debido a lo que esté en peligro, el uso de aplicaciones de IA para determinados fines se considere de elevado riesgo en sí mismo; es decir, independientemente del sector de que se trate y cuando los requisitos que se presentan más abajo sigan siendo de aplicación. Por ejemplo, el uso de aplicaciones de IA en los procedimientos de contratación y en situaciones que repercutan en los derechos de los trabajadores o la identificación biométrica remota.

Fruto del convencimiento de la importancia y potencial la IA para convertir Europa en líder mundial de la innovación en la economía de los datos y sus aplicaciones, la Comisión publicó el pasado 7 de mayo de 2021 una propuesta de Reglamento europeo que establecería el primer marco legal sobre IA. Una buenísima noticia para la comunidad científica y para la innovación europea.

Puedes ser un profesional en el Cumplimiento Normativo y conocer más a fondo este ámbito, formándote con el Máster en Dirección de Compliance y Protección de Datos en EIP. En solo 11 meses, serás un profesional de alta cualificación.

Abogado especializado en IT/IP en Grupo SIA

Suscríbete a nuestra newsletter para estar al día de todas las novedades

Información básica sobre protección de datos.
Responsable del tratamiento: Mainjobs Internacional Educativa y Tecnológica S.A.U
Finalidad: Gestionar su suscripción a la newsletter.
Legitimación para el tratamiento: Consentimiento explícito del interesado otorgado al solicitar la inscripción.
Cesión de datos: No se cederán datos a terceros, salvo obligación legal.
Derechos: Podrá ejercitar los derechos de Acceso, Rectificación, Supresión, Oposición, Portabilidad y, en su caso Limitación, como se explica en la información adicional.
Información adicional: Puede consultar la información adicional y detallada sobre Protección de Datos en https://www.mainfor.edu.es/politica-privacidad
Blog Master Dpo

Deja un comentario