Entra en vigor la Ley de Inteligencia Artificial a nivel europeo

01 de Agosto de 2024
Guardar
Inteligencia Artificial
La inteligencia artificial es uno de los mayores desafíos a los que se enfrenta la humanidad.

Hoy jueves, 1 de agosto, entra en vigor la primera legislación "que busca garantizar la seguridad y los derechos fundamentales de los ciudadanos europeos ante los riesgos que plantea" la Inteligencia Artificial. 

Según explica el portal de El Derecho, la legislación europea es pionera a nivel mundial en regular una tecnología tan compleja como es la Inteligencia Artificial, presente desde hace años en servicios digitales, como las redes sociales, los sistemas de contenidos de streaming y los buscadores como Google o Bing. Se utiliza también en sectores como las finanzas, la salud, la atención al cliente, la agricultura o la logística, entre otros campos. 

La norma, que entrará hoy en vigor, busca regular su uso bajo un marco jurídico uniforme, "facilitando con ello la comercialización y circulación de los productos y sistemas basados en la IA, sin olvidar la ciberseguridad y el desarrollo tecnológico bajo un enfoque ético". Pretende que la adopción de esta tecnología se haga "con el ser humano en el centro, con el objetivo de que sea fiable y garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los DDFF de la UE, incluidos la democracia, el Estado de derecho y la protección del Medio Ambiente". 

La norma fue publicada el pasado 12 de julio en el Diario Oficial de la UE, y entrará en vigor hoy, 1 de agosto. Su aplicación obligatoria para todos los Estados miembro se producirá en un margen de dos años desde hoy. 

Principales puntos de la norma

Según el análisis que nos ofrece el portal Elderecho.com, se ha de tener en cuenta que la norma se ha desarrollado bajo un enfoque basado en los niveles de riesgo que presenta la IA, que se pueden diferenciar en tres categorías: los sistemas que suponen un riesgo inaceptable, los de alto riesgo y los de riesgo limitado. 

El riesgo inaceptable: directamente son aplicaciones y sistemas prohibidos. El listado es amplio y en esta categoría se engloban los casos en los que se utilizan sistemas de categorización biométrica que puedan contener atributos sensibles como la raza, opiniones políticas y orientación sexual. 

Igualmente, los sistemas de puntuación social, como el que se utiliza en China, así como técnicas subliminales, manipuladoras o engañosas, que buscan distorsionar comportamientos e influir en la toma de decisiones. 

En este sentido hay excepciones: sistemas de identificación biométrica por parte de las fuerzas de seguridad para situaciones concretas y definidas de manera estricta. Se necesitará en estos casos una autorización previa que emane de un juez. 

Modelos de uso general: el Reglamento recoge los modelos, atendiendo a los de uso general, que considera como los que se entrenan con grandes volúmenes de datos y a través de métodos como el aprendizaje autosupervisado, no supervisado o mediante refuerzo. Los modelos son componentes esenciales de los sistemas, forman parte de ellos, pero no constituyen por sí mismos sistemas de Inteligencia Artificial. 

Los modelos de IA de uso general están disponibles en el mercado mediante bibliotecas, interfaces de programación de aplicaciones, y pueden modificarse o perfeccionarse transformándose en nuevos modelos. 

Son por ejemplo los modelos de inteligencia artificial generativa, que permite la creación de contenidos nuevos en distintos formatos. La ley reconoce que pueden tener componentes de IA libres y de código abierto, incluso presentarse bajo licencia libre y su alto grado de transparencia puede ser un elemento positivo. Sin embargo, en este caso es preciso proteger derechos de autor y contenidos de la base de datos sobre la que se nutren. 

Responsabilidad y revisión

La legislación establece la responsabilidad en el proveedor de los sistemas y de los modelos de IA, así como en el distribuidor, el importador, el responsable del despliegue u otro tercero. 

La normativa vigente desde hoy, exige que se realicen evaluaciones del nivel de riesgo de los productos y de los riesgos que puedan plantear antes de salir al mercado, como durante su puesta a disposición de los usuarios. 

Se desarrollará un seguimiento de cumplimiento del Código de buenas prácticas por parte de la Oficina de Inteligencia Artificial. 

Ciberseguridad

La nueva normativa recoge puntos clave que tienen implicaciones directas en el ámbito de la ciberseguridad para los usuarios, siendo importantes para poder hacer un buen uso. 

En este sentido, la ley obliga a disponer de directrices de desarrollo e implementación más estrictas, que tengan en cuenta la seguridad desde el inicio, por ejemplo, con la incorporación de prácticas de codificación seguras y garantizando que los sistemas de IA puedan estar protegidos frente a ciberataques. 

Deberán ser las empresas responsables las que adopten medidas de seguridad desde el principio. 

También se regula el uso de la IA con fines malintencionados, como pueden ser ciberataques maliciosos, o generación de deppkafes. 

Lo + leído