Inicio / Inteligencia Natural / La UE marca la hoja de ruta sobre la IA: esto dice la nueva legislación aprobada

La UE marca la hoja de ruta sobre la IA: esto dice la nueva legislación aprobada

Ernesto Guerra
20 marzo 2024 | 0 |

Hace apenas una semana la Unión Europea dio luz verde a regulaciones que incluyen a sus estados miembros y que se relacionan con la inteligencia artificial (IA). Sin dudas, estos parámetros serán influyentes en otros países que legislen sobre el tema. Como este es un tema complejo, en la columna de hoy no ofreceremos nuestras secciones habituales.

Ahora veamos de qué va este Reglamento de la UE.

¿Qué objetivos tiene la Ley de la UE sobre IA?

Esta nueva ley tiene como propósitos proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA. Según refleja la normativa, la inteligencia artificial entraña un alto riesgo, impulsando al mismo tiempo la innovación y “erigiendo a Europa en líder del sector”. Es decir, las regulaciones no solo protegen a los ciudadanos europeos sino que intenta sentar las bases para una supremacía de la región en el sector.

Además, el Reglamento fija una serie de obligaciones para la IA “en función de sus riesgos potenciales y su nivel de impacto”.

Aplicaciones de la IA prohibidas por la UE

La Unión Europea es muy clara en su legislación sobre los límites de la inteligencia artificial en sus aplicaciones. La norma prohíbe lo siguiente:

  • Sistemas de categorización biométrica basados en características sensibles.
  • La captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
  • Reconocimiento de emociones en el lugar de trabajo y en las escuelas.
  • Sistemas de puntuación ciudadana
  • Actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características)
  • Manipulación del comportamiento humano
  • Explotar las vulnerabilidades de las personas.

El uso de sistemas de identificación biométrica por parte las fuerzas de seguridad queda prohibido a priori. Sin embargo, en situaciones muy concretas y bien definidas se podrán emplear. Ahí se incluyen los que funcionan «en tiempo real» y solo se podrán emplear si se cumplen una serie de salvaguardias estrictas. De este modo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Algunos casos en los que sí puede emplearse:

  • Búsqueda selectiva de una persona desaparecida
  • Prevención de un atentado terrorista

Obligaciones para los sistemas de alto riesgo

La Unión Europea define sistemas de IA de alto riesgo. Se refiere a aquellos que pueden ser muy perjudiciales para:

  • la salud
  • la seguridad
  • los derechos fundamentales
  • el medio ambiente
  • la democracia y el Estado de derecho

Entre los ejemplos de uso de alto riesgo en estos sectores  cita a infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales, determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos.

Al respecto, el Reglamento ordena evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.

Una adición interesante es la posibilidad de que los ciudadanos y ciudadanas tengan el derecho a presnetar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Requisitos de transparencia en la IA

Otro de los temas que define el Reglamento es la necesidad de transparencia en el uso de la inteligencia artificial. A esto se suma el respeto al derecho de autor, y la publicación de resúmenes que ofrezcan detalles de cómo se entrenan sus sistemas.

Asimismo, los modelos más potentes que podrían plantear riesgos sistémicos “deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes”.

Otro detalle es que imágenes, contenidos de audio o de vídeo artificiales o manipulados deberán etiquetarse claramente como tales para el conocimiento ciudadano.

Otros detalles de la legislación de la UE sobre inteligencia artificial

Otros detalles del reglamento se refieren a la necesidad de poner a disposición de las pymes y empresas emergentes espacios controlados dpara que puedan desarrollar y entrenar inteligencias artificiales antes de su puesta en marcha.

No obstante, el Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo.

Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *