domingo, 2 de febrero de 2025

Entran en vigor las prohibiciones de la Ley Europea de IA

Hoy, 2 de febrero de 2025 entran el vigor los capítulos I y II de la Ley Europea de Inteligencia Artificial, el intento más serio y riguroso de prevenir los malos usos de una tecnología cuyas consecuencias cuesta trabajo imaginar. En esos capítulos se clasifican los sistemas de IA en sistemas de riesgo aceptable y sistemas de riesgo inaceptable, y se prohíbe la introducción en el mercado, puesta en servicio y utilización de éstos últimos. Los sistemas de riesgo inaceptable se definen como los realizan alguna de estas funciones:

  1. Usen técnicas subliminales, que que trascienden la conciencia de una persona, o deliberadamente manipuladoras o engañosas, que tienen el objetivo de “alterar de manera sustancial el comportamiento.
  2. Exploten las vulnerabilidades de una persona o colectivo, derivadas de su edad, de su discapacidad, de una situación social o económica específica, con el objetivo de alterar de manera sustancial el comportamiento.
  3. Evalúen o clasifiquen a personas o colectivos atendiendo a su comportamiento social, a características personales o a su personalidad conocida, inferida o predicha que puedan producir un trato perjudicial o desfavorable que no guarde relación con los contextos donde se generaron o recabaron los datos o que sea injustificado o desproporcionado.
  4. Evalúen el riesgo de que una persona cometa un delito basándose únicamente en la elaboración del perfil de una persona o la evaluación de los rasgos y características de su personalidad.
  5. Creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes de internet o de circuitos cerrados de televisión.  
  6. Infieran emociones de una persona física en los lugares de trabajo y en los centros educativos. Una IA puede hacer inferencias inexactas o tener sesgos, dada la diversidad de expresiones en diferentes culturas y situaciones. 
  7. Clasifiquen a las personas según sus datos biométricos para deducir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual
  8. Realicen identificación biométrica remota de personas en tiempo real en lugares de acceso público, excepto si se utilizan para la búsqueda selectiva de víctimas de secuestro, trata, explotación o desaparecidos, o para la previsión de amenazas específicas o localización de sospechosos.

Hay dos excepciones generales:

  • La de los sistemas instalados por motivos médicos o de seguridad.
  • La de los sistemas que se desarrollan únicamente con fines de seguridad nacional.
Se puede denunciar el uso de una IA prohibida a la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) que se encuentra en La Coruña, ya está operativa y tiene autoridad para investigar, inspeccionar y sancionar a los responsables, con multas de hasta 35 millones de euros o el 7 % de su facturación mundial anual. Para realizar una denuncia no hay más que rellenar un formulario que estará disponible en breve. España ha sido el primer país europeo en crear un organismo de ese tipo.

Publicado por Antonio F. Rodríguez.

No hay comentarios:

Publicar un comentario