COBERTURA #81Internacionales

Acuerdo político sobre la gestión del riesgo de la IA

Los Estados miembro han llegado a un acuerdo político sobre la proyectada Ley de Inteligencia Artificial (IA), tras la salida de Francia.

La necesidad de regulación de la IA se ha acelerado en los últimos tiempos, dado el aumento del uso de la IA generativa en la creación de deepfakes.

Margrethe Vestager, Responsable de Asuntos Digitales de la UE, declaró la necesidad imperativa de nuevas normas, tras la difusión de imágenes falsas de contenido sexual explícito de la cantante Taylor Swift en  redes sociales.

Reuters indica al acuerdo como una conclusión inevitable, tras el abandono de Francia de su oposición a la Ley de AI, luego de la obtención de la garantía de condiciones estrictas para equilibrar la transparencia frente a los secretos comerciales, y de reducción de la carga administrativa de los sistemas de IA de alto riesgo.

La propuesta de reglamento sobre IA garantiza a los europeos la confianza en los ofrecimientos de la IA.. «Si bien la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden contribuir a resolver muchos retos sociales, ciertos sistemas de IA crean riesgos que deben ser abordados para evitar resultados no deseados», declaró en su sitio web Shaping Europe’s Digital Future.

«A menudo, no es posible averiguar la razón por la cual un sistema de IA ha tomado una decisión o ha hecho una predicción y  ha emprendido una acción concreta. Por tanto, puede resultar difícil evaluar si alguien se ha visto injustamente perjudicado. Aunque la legislación vigente ofrece cierta protección, es insuficiente para el correcto abordaje de los retos específicos que pueden plantear los sistemas de IA», añadió la CE.

La CE espera que las normas propuestas:

  • Aborden los riesgos creados específicamente por las aplicaciones de IA;
  • Brinden una lista de aplicaciones de alto riesgo;
  • Establezcan los requisitos clave para los sistemas de IA y para las aplicaciones de alto riesgo;
  • Definan las  obligaciones específicas para los usuarios y para los  proveedores de aplicaciones de IA de alto riesgo;
  • Propongan una evaluación de la conformidad, previamente a la comercialización y a la puesta en servicio de un sistema de IA;
  • Promulguen el cumplimiento de la normativa, tras las comercialización de dicho sistema de IA; y
  • Proponga una estructura de gobernanza a nivel europeo y a nivel nacional.

FUENTE: www.commercialriskonline.com