La Ley de Inteligencia Artificial de la Unión Europea, conocida como la Ley de IA de la UE, ha sido presentada por la Comisión Europea como “la primera ley integral de IA en el mundo”. Después de años de trabajo, esta ley está comenzando a ser una realidad para las 450 millones de personas que viven en los 27 países de la UE. Sin embargo, la Ley de IA de la UE no es solo un asunto europeo. Se aplica a empresas locales y extranjeras, afectando tanto a quienes desarrollan como a quienes utilizan sistemas de IA. Por ejemplo, se menciona cómo afecta a un desarrollador de herramientas para filtrar currículums y a un banco que compra esa herramienta. Ahora, todos estos actores tienen un marco legal que regula el uso de la IA.
Como es habitual en la legislación de la UE, la Ley de IA busca establecer un marco legal uniforme sobre un tema específico, en este caso, la IA. Con esta regulación, la UE pretende “asegurar el libre movimiento de bienes y servicios basados en IA” sin restricciones locales que varíen. Con una regulación oportuna, la UE busca crear un campo de juego equitativo en la región y fomentar la confianza, lo que podría abrir oportunidades para nuevas empresas. Sin embargo, el marco adoptado no es del todo permisivo: a pesar de que la adopción de la IA está en una etapa temprana en muchos sectores, la Ley de IA de la UE establece estándares altos sobre lo que la IA debería y no debería hacer por la sociedad.
El objetivo principal de este marco es “promover la adopción de IA centrada en el ser humano y confiable, asegurando un alto nivel de protección de la salud, la seguridad y los derechos fundamentales, tal como se establece en la Carta de Derechos Fundamentales de la Unión Europea, incluyendo la democracia, el estado de derecho y la protección ambiental, para prevenir los efectos nocivos de los sistemas de IA en la Unión y apoyar la innovación”. Es importante entender cómo se definen la IA “centrada en el ser humano” y “confiable”, ya que esto influirá en el equilibrio entre la innovación y la prevención de daños, así como en la adopción de la IA y la protección ambiental.
Para equilibrar la prevención de daños con los beneficios potenciales de la IA, la Ley de IA de la UE adoptó un enfoque basado en riesgos: prohíbe algunos casos de uso de “riesgo inaceptable”, identifica usos de “alto riesgo” que requieren una regulación estricta y aplica obligaciones más ligeras a escenarios de “riesgo limitado”.
El despliegue de la Ley de IA de la UE comenzó el 1 de agosto de 2024, pero entrará en vigor a través de una serie de plazos de cumplimiento escalonados. En la mayoría de los casos, se aplicará antes a nuevos entrantes que a las empresas que ya ofrecen productos y servicios de IA en la UE. La primera fecha límite se aplicó el 2 de febrero de 2025, enfocándose en hacer cumplir prohibiciones sobre un pequeño número de usos prohibidos de la IA, como la recolección indiscriminada de imágenes faciales de internet o CCTV para construir o ampliar bases de datos. Muchas otras fechas seguirán, y a menos que se cambie el calendario, la mayoría de las disposiciones se aplicarán para mediados de 2026.
Desde el 2 de agosto de 2025, la Ley de IA de la UE se aplica a “modelos de IA de propósito general con riesgo sistémico”. Estos modelos son entrenados con grandes cantidades de datos y pueden ser utilizados para una amplia gama de tareas. Según la Ley de IA de la UE, estos modelos pueden presentar riesgos sistémicos, como facilitar el desarrollo de armas químicas o biológicas, o problemas no intencionados de control sobre modelos autónomos. Antes de la fecha límite, la UE publicó directrices para los proveedores de estos modelos, que incluyen tanto a empresas europeas como a jugadores no europeos como Anthropic, Google, Meta y OpenAI. Sin embargo, estas empresas ya tienen modelos en el mercado y tendrán hasta el 2 de agosto de 2027 para cumplir, a diferencia de los nuevos entrantes.
La Ley de IA de la UE incluye sanciones que los legisladores querían que fueran “efectivas, proporcionales y disuasorias”, incluso para grandes empresas globales. Los detalles serán establecidos por los países de la UE, pero la regulación establece el espíritu general: las sanciones variarán según el nivel de riesgo considerado. La infracción de aplicaciones de IA prohibidas conlleva la sanción más alta de “hasta 35 millones de euros o el 7% de la facturación anual total mundial del año financiero anterior (lo que sea mayor)”. La Comisión Europea también puede imponer multas de hasta 15 millones de euros o el 3% de la facturación anual a los proveedores de modelos de IA de propósito general.
El código de práctica voluntario para modelos de IA de propósito general, que incluye compromisos como no entrenar modelos con contenido pirateado, es un buen indicador de cómo las empresas pueden interactuar con la ley marco hasta que se vean obligadas a hacerlo. En julio de 2025, Meta anunció que no firmaría el código de práctica voluntario, mientras que Google confirmó que sí lo haría, a pesar de sus reservas. Hasta ahora, los signatarios incluyen a Aleph Alpha, Amazon, Anthropic, Cohere, Google, IBM, Microsoft, Mistral AI y OpenAI, entre otros. Sin embargo, como hemos visto con el ejemplo de Google, firmar no equivale a un respaldo total. Aunque Google anunció en un blog que firmaría el código de práctica, su presidente de asuntos globales, Kent Walker, expresó preocupaciones sobre el riesgo de que la Ley de IA y el Código ralentizasen el desarrollo y la implementación de la IA en Europa. Meta fue más radical, con su director de asuntos globales, Joel Kaplan, afirmando que “Europa está tomando el camino equivocado en la IA”. Llamando a la implementación de la Ley de IA de la UE “exceso”, señaló que el código de práctica “introduce una serie de incertidumbres legales para los desarrolladores de modelos, así como medidas que van más allá del alcance de la Ley de IA”.
Las empresas europeas también han expresado preocupaciones. Arthur Mensch, CEO de la empresa francesa Mistral AI, formó parte de un grupo de CEOs europeos que firmaron una carta abierta en julio de 2025 instando a Bruselas a “detener el reloj” durante dos años antes de que las obligaciones clave de la Ley de IA de la UE entraran en vigor. A principios de julio de 2025, la Unión Europea respondió negativamente a los esfuerzos de cabildeo que pedían una pausa, afirmando que seguiría con su cronograma para implementar la Ley de IA de la UE. Procedió con la fecha límite del 2 de agosto de 2025 como estaba previsto, y actualizaremos esta historia si algo cambia.


