Inicio / Inteligencia Natural / Ley de IA de la Unión Europea podría entrar en pausa de dos años

Ley de IA de la Unión Europea podría entrar en pausa de dos años

Raul Abreu Martin
11 noviembre 2025 | 0 |

Foto: Tomada de The Decoder


La Comisión Europea está llevando a cabo una reflexión sobre el aplazamiento de ciertos aspectos de la Ley de Inteligencia Artificial (IA) de la Unión Europea, con el objetivo de flexibilizar la normativa debido a exigencias de grandes empresas tecnológicas.

La ley entró en vigor en agosto de 2024, sin embargo, muchas de sus disposiciones aún no son aplicables. La mayoría de obligaciones para empresas desarrolladoras de sistemas de IA de alto riesgo que representan riesgos para salud, seguridad o derechos fundamentales no entrarán en vigor hasta agosto de 2026.

Las compañías que ya hayan lanzado productos antes de la fecha se verán así beneficiados con la prórroga de un año que les otorga el tiempo suficiente “para adaptar sus prácticas en un plazo razonable sin perturbar el mercado”, refleja un documento interno que cita el Financial Times.

Además, la Comisión está considerando aplazar la imposición de multas por infracciones de la normativa de transparencia hasta agosto de 2027 y estudia mayor flexibilidad de cara a desarrolladores de sistemas de IA de alto riesgo en la supervisión del rendimiento de sus productos.

Desde Estados Unidos, el gobierno de Donald Trump presiona para debilitar las regulaciones de la UE sobre empresas tecnológicas, mediante la clásica imposición de aranceles hacia países con instrumentos “diseñados para perjudicar o discriminar la tecnología estadounidense”. Además, Meta anunció que no firmaría el código de buenas prácticas de la Comisión para modelos de IA de propósito general.

Empresas de Europa han solicitado también una pausa de dos años en la aplicación de la ley para “demostrar a los innovadores e inversores que Europa se tomaba en serio su agenda de simplificación y competitividad”, refleja una carta firmada por directivos de Airbus, Lufthansa y Mercedes-Benz, entre otros.

La Ley de IA de la Unión Europea estableció controles para prevenir malos usos de la tecnología. Los desarrolladores deberán proporcionar información sobre el entrenamiento de modelos, contar con políticas que respeten derechos de autor, y las herramientas más sofisticadas debían adoptar medidas de mitigación de riesgos y refuerzos de seguridad.

En un contexto en que las herramientas de IA evolucionan día a día y cada vez es más difícil identificar la veracidad del contenido, normativas sólidas para un uso y desarrollo responsables son extremadamente necesarias. Dibujar líneas desde la legalidad permitirá un marco para un empleo de inteligencia artificial verdaderamente útil para toda la sociedad. Las empresas están adoptando actitudes más permisivas para captar usuarios, lo que abre nuevos debates en cuanto al establecimiento de límites y riesgos de la IA.

Flash del día

Foto: Tomada de Reuters

Microsoft está formando un nuevo equipo que busca desarrollar inteligencia artificial con capacidades muy superiores a las humanas en ciertos ámbitos, comenzando por el diagnóstico médico, según declaró a Reuters el ejecutivo a cargo del proyecto.

Mustafa Suleyman, jefe de IA a cargo, dijo que la compañía no busca una IA generalista con capacidades ilimitadas, como algunas de sus competidoras. Duda que las máquinas autónomas con capacidad de autoaprendizaje puedan controlarse, a pesar de las investigaciones sobre cómo la humanidad podría mantener la IA bajo control.

Prompt de la semana

Foto: Gebiya/Unsplash

Mejora tu rutina de ejercicios y cuidados con este prompt de inteligencia artificial:

Construye un plan simple de ejercicios para realizar en 20 minutos sin equipamiento, para aumentar mi energía. Define objetivos de hidratación de acuerdo a mi peso y actividad, y crea recordatorios para cumplirlos.

Deja un comentario