Aspectos clave para entender la primera regulación del mundo de Inteligencia Artificial

La Unión Europea se ha convertido en la primera región del mundo en contar con un marco jurídico transversal y uniforme para el desarrollo confiable de la inteligencia artificial (IA). Es el conocido Reglamento europeo de Inteligencia Artificial (RIA), cuyo gran objetivo es, a partir de un enfoque basado en riesgos, proteger los derechos fundamentales de las personas, entre otros riesgos, ante la llegada de una tecnología que impacta fuertemente en la sociedad y la economía. Se trata de un reto mayúsculo para las empresas, ante el que surgen grandes interrogantes: ¿Qué preguntas deben hacerse las organizaciones?¿Qué obligaciones tienen en función del riesgo de cada sistema? ¿A qué sanciones se exponen por incumplirlas?

Que es una IA

Un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales.

Como debe responder una Organización

Las empresas deberán evitar los sistemas IA de riesgo inaceptable que son los sistemas caracterizados por:

  1. Manipular cognitivamente el comportamiento de personas.
  2. Manipular el comportamiento que aprovecha vulnerabilidades de personas o grupos concretos.
  3. Evaluar o puntuar socialmente.
  4. Identificar biométricamente en tiempo real en espacios públicos

También deberán valorar los sistemas de riesgo alto Aquí se incluyen los sistemas de IA que podrían tener un impacto considerable en los derechos fundamentales de los individuos por su relación con los servicios y procesos que afectan a la salud, seguridad, etc. Su uso está permitido siempre que se cumplan con ciertas salvaguardas adicionales y se monitorice su funcionamiento.

Las empresas que opten por sistemas de IA de riesgo limitado. En este nivel se clasifican sistemas con algunas obligaciones concretas de transparencia:

  • Sistemas de reconocimiento de emociones o que determinen la asociación a categorías sociales concretas a partir de datos biométricos.
  • Sistemas que manipulan contenido (imagen, sonido, vídeo, …) que asemeje a personas, objetos, lugares e entidades y puedan inducir erróneamente a una persona a pensar que son auténticos o verídicos.

Las sanciones que se estipulan en este reglamento van desde los 35 millones en caso de usar sistemas prohibidos de IA, 15 millones en la mayoría de infracciones y 7,5 millones de euros por suministrar información inexacta, incompleta o engañosa.

No dude en contactar con Enace para analizar su sistema IA.

Acceso

¿Quiere ver esta página en otro idioma?

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra web. Si sigues utilizando este sitio asumimos que estás de acuerdo. VER