Skip to content Skip to sidebar Skip to footer

La UE Lidera el Camino: Nuevo Marco Legal para la Inteligencia Artificial con el AI Act

Es sabido que este Newsletter se limita a cubrir novedades legales en el Uruguay.  Excepcionalmente incursionamos en leyes extranjeras, cuando creemos que por su especial relevancia así lo amerita.  Este es el caso de hoy.

El pasado 1 de Agosto, se dio un avance trascendental en la regulación de la inteligencia artificial (“IA”) en el mundo:  en la Unión Europea (“UE”) entró en vigencia  el llamado AI Act (por su sigla en inglés: Artificial Inteligence Act  – en adelante: “el AI Act”).

El AI Act define la inteligencia artificial, o mejor aun, lo que denomina “sistemas de IA”: “sistemas basados en máquinas que están diseñados para funcionar con diversos niveles de autonomía y que pueden mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infieren, a partir de las entradas que reciben, cómo generar salidas o resultados tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

En lo que aquí importa -pues la norma se compone de 113 artículos-  el AI Act clasifica los sistemas de IA en cuatro  grupos según su nivel de riesgo, estableciendo para cada uno de ellos exigencias escalonadas, a saber:

– Riesgos mínimos o nulos: según el AI Act, la mayoría de los sistemas de IA no presentan riesgos significativos y por tanto podrán continuar operando sin restricciones.

– Riesgos limitados: los sistemas de IA que presentan riesgos limitados estarán sujetos a obligaciones de transparencia de un alcance limitado, entre las cuales está la obligación de informar que su contenido fue generado por IA, permitiendo a los usuarios tomar decisiones informadas sobre su uso.

– Riesgos altos: aquellos sistemas de IA considerados de alto riesgo,  deben ser previamente autorizados para operar en el mercado de la UE, a cuyos efectos deberán cumplir con un conjunto de requisitos previos (en materia de seguridad, transparencia, etc).

–  Riesgos inaceptables: el AI Act entiende que ciertos usos de la IA son inaceptables y por lo mismo estarán prohibidos en la UE. Entre esos usos se incluye, a vía de ejemplo, la manipulación cognitiva, la vigilancia predictiva, el reconocimiento de emociones en el entorno laboral o educativo, y la identificación biométrica remota (como el reconocimiento facial, salvo excepciones).

En suma, un paso decisivo hacia la regulación de un tema que ya golpea nuestras puertas.

_____________________

La presente comunicación tiene carácter puramente informativo. No puede ni debe ser entendida como un consejo legal de esta firma. Bergstein cuenta con un equipo de especialistas que puede ser contactado para asistirlo en esta materia. Por cualquier consulta en relación al presente material, sírvase dirigirse al Dr. Juan Ignacio Tournier  (jtournier@bergsteinlaw.com) y/o al Dr. Guillermo Duarte (gduarte@bergsteinlaw.com)