IA en Europa- Regulación o Innovación

IA en Europa- Regulación o Innovación

La Unión Europea ha implementado el Reglamento de Inteligencia Artificial, una normativa que busca regular el uso de la IA sin frenar la innovación. ¿Cómo afectará esta regulación a la competitividad europea? En este artículo analizamos el equilibrio entre regulación y progreso tecnológico.

El objetivo de ésta entrada es revisar el marco legal definido por la Unión Europea (UE) para regularizar el uso de la inteligencia artificial. Como hemos hecho hasta ahora, aparte de repasar por encima la propuesta regulatoria que puso encima de la mesa la UE, vamos a aportar un poquito de opinión desde la experiencia que me brinda haber usado algoritmos de IA durante más de una década.

Echando un vistazo atrás, no es la primera vez que la humanidad se presenta ante una situación de éste tipo: regulación o innovación. De hecho en la antigüedad, grandes filósofos griegos como Platón y Aristóteles estudiaron la relación entre el sistema regulatorio y las libertades. Un problema bastante similar al que tiene la UE entre manos – regulación o innovación.  Tanto Platón como Aristóteles entendieron que las leyes son herramientas para proteger y promover la libertad, siempre que estén diseñadas con sabiduría y justicia. A continuación veremos como el enfoque propuesto por la UE es similar, definir un marco legal que permita el progreso sin sacrificar los valores fundamentales de la sociedad. No lo retrasemos más, veamos como la UE ha definido el marco regulatorio para la IA.

El impacto de la IA en Europa: regulaciones para un futuro seguro y confiable

La Inteligencia Artificial (IA) está transformando rápidamente nuestra sociedad, desde la automatización industrial hasta la medicina personalizada. Sin embargo, junto con sus beneficios, la IA también plantea desafíos en términos de seguridad, derechos fundamentales y regulación. Para abordar estos retos, la Unión Europea (UE) ha desarrollado el Reglamento de Inteligencia Artificial (Artificial Intelligence Act), con el objetivo de establecer reglas armonizadas y garantizar que la IA se utilice de manera ética y segura. Antes de continuar, agradezco a mi colega R. D. Olivaw la ayuda prestada al resumir el Reglamento de Inteligencia Artificial mencionado anteriormente.

¿Por qué es necesaria una regulación de la IA en Europa?

La UE reconoce el potencial de la IA para mejorar sectores clave como la salud, la educación, la industria y el medio ambiente. Sin embargo, también ha identificado problemas que requieren una regulación adecuada:

  1. Riesgos para la seguridad y los derechos fundamentales: La IA puede generar decisiones erróneas o sesgadas, afectando a ciudadanos y empresas.
    • Comprensible, de hecho es algo ya comentado en el Blog. Pero viéndolo desde un punto de vista legal, esos resultados erróneos podrían acarrear consecuencias graves, de las que sin la existencia de un marco legal, no habría responsable.
  2. Falta de supervisión adecuada: Las autoridades necesitan herramientas para monitorizar y hacer cumplir las normativas sobre IA.
    • Este punto suena muy bien en teoría pero veo difícil su aplicación práctica. A día de hoy no existen herramientas que permitan revisar modelos de lenguaje extenso (LLM, por sus siglas en inglés) debido a su complejidad inherente.
  3. Incertidumbre legal: Las empresas y desarrolladores necesitan claridad en las reglas para fomentar la innovación.
    • Si, sin duda para fomentar la innovación es necesario definir un marco legal para la aplicación. Pero ¿a qué coste?
  4. Desconfianza en la IA: Sin regulaciones claras, los ciudadanos podrían ser reacios a adoptar tecnologías basadas en IA.
    • No creo que la falta de regulación genere desconfianza y eso haga que la ciudadanía deje de usar las herramientas de IA. De hecho, a día de hoy, la gran mayoría de la población no comprende como funciona un algoritmo clasificador sencillo. Sin embargo utilizan herramientas mucho más complejas porque aunque no entiendan como funcionan les encuentran utilidad. El problema de las desconfianza, desde mi punto de vista, podría ser generado por el uso indiscriminado de IA, por parte de gobierno o grandes conglomerados, en aplicaciones éticamente reprobables.
  5. Fragmentación del mercado: Diferentes regulaciones en los países de la UE dificultan la creación de un mercado único digital.
    • Ésta es una necesidad meramente comercial para no fomentar competición entre países miembros de la UE.

El enfoque de la UE: clasificación de riesgos

Para garantizar que la regulación no frene la innovación, la UE ha adoptado un enfoque basado en el riesgo, clasificando los sistemas de IA en cuatro categorías principales:

  • IA de alto riesgo: Aplicaciones con un impacto significativo en la seguridad o los derechos fundamentales, como el reconocimiento facial en espacios públicos o sistemas de contratación y salud, estarán sujetas a regulaciones estrictas.
  • IA de riesgo limitado: Se exigirán requisitos de transparencia para que los usuarios sepan cuándo están interactuando con una IA.
  • IA de riesgo mínimo: Aplicaciones como asistentes virtuales o filtros de spam tendrán menor supervisión.
  • IA prohibida: Sistemas que manipulen el comportamiento humano de manera dañina o realicen vigilancia masiva estarán restringidos.
    • Desde mi punto de vista, creo que las líneas que separan las diferentes categorías de riegos son bastante difusas.

¿Por qué se seleccionó la Opción 3+?

La Comisión Europea comparó diversas opciones regulatorias y concluyó que la Opción 3+ era la más adecuada, ya que ofrece un equilibrio entre regulación obligatoria y flexibilidad voluntaria. Su objetivo es mitigar los riesgos de la IA sin obstaculizar el desarrollo tecnológico​.

Características clave de la Opción 3+

1. Regulación estricta para IA de alto riesgo

  • Se establecen requisitos obligatorios para sistemas de IA clasificados como de alto riesgo, como reconocimiento facial, contratación laboral o diagnóstico médico.
  • Estos sistemas deberán cumplir con ex-ante evaluaciones de conformidad y auditorías de seguridad antes de su comercialización​.
  • Los requisitos incluyen transparencia, supervisión humana, gestión de riesgos y robustez técnica.
    • Transparencia, auditoría de seguridad, son palabras y expresiones que suenan muy bien pero, ¿son realmente aplicables? A día de hoy, debido a la naturaleza de los modelos complejos de LLM no creo que sea posible llegar a esa transparencia. Por ejemplo, dado un modelo, no es posible determinar que datos han sido usados en su entrenamiento. El caso más comentado en la prensa durante las últimas semanas es el de DeepSeek-R1 y sus respuestas relacionadas a los eventos acaecidos en la plaza de Tiananmen, Beijing en Junio de 1989. A base de preguntar acerca de lo acaecido en Junio de 1989 en la plaza de Tiananmen a DeepSeek-R1 sabemos que el modelo ha sido entrenado para no responder preguntas relacionadas con esos hechos. Pero, me pregunto, ¿Qué otros hechos han sido ignorados? ¿Es posible que se haya generado el modelo de forma que ciertas preguntas las responda de forma partidista? Si pensamos un poco en esto, nos damos cuenta rápidamente de las implicaciones sociales, políticas y educativas que éste tipo de modelos sesgados de LLM pueden acarrear a las sociedad.

2. Códigos de conducta voluntarios para IA de bajo riesgo

  • Para aplicaciones que no sean de alto riesgo, se fomenta la adopción de códigos de conducta voluntarios para garantizar buenas prácticas en IA​.
    • Insisto, la línea que separa las aplicaciones de bajo riesgo de las de alto riesgo es considerablemente difusa.
  • No habrá sanciones para quienes no los adopten, pero las empresas que lo hagan podrán beneficiarse de incentivos regulatorios y de mercado.
    • Para que ésta medida tenga el impacto deseado, las ayudas a aquellos que se sometan a los códigos de conducta voluntarios deben ser considerables.

3. Supervisión y cumplimiento

  • Creación de un Consejo Europeo de IA para coordinar la implementación del reglamento entre los Estados Miembros​.
    • Me parece muy necesario y espero que se muestre ágil a la hora de cambiar la regulación si lo consideran necesario.
  • Ex-ante verificación para IA de alto riesgo y mecanismos de supervisión post-mercado para detectar incumplimientos.
    • Ésta parte del marco regulatorio es crucial y requiere un esfuerzo económico considerable para generar la infraestructura y mecanismos necesarios que permitan la supervisión y escrutinio de las diferentes aplicaciones.

4. Fomento de la innovación y el mercado único

  • Se establecen «regulatory sandboxes» o entornos de prueba para que startups y PYMEs experimenten con IA bajo supervisión regulatoria​.
    • Una idea fantástica de impacto limitado pero ¿Por qué limitar esos entornos de pruebas a pequeñas empresas y startups?
  • Se busca evitar la fragmentación del mercado, garantizando reglas homogéneas en toda la UE​.
    • Esto es muy interesante, de acuerdo, todos los miembros de la UE van a tener las mismas condiciones, el mismo marco regulatorio respecto a la IA pero, ¿Cómo se compara con las condiciones o el marco regulatorio presente en otros países?

Comparación con otras opciones consideradas

OpciónDescripción¿Por qué fue descartada?
Opción 1Etiquetado voluntario para IA confiable.No garantizaba seguridad, dependía de la buena voluntad de las empresas.
Opción 2Regulación sectorial (ad hoc).Fragmentaría el mercado y generaría incertidumbre legal.
Opción 3Regulación solo para IA de alto riesgo.No incentivaba buenas prácticas para IA de bajo riesgo.
Opción 4Regulación obligatoria para toda IA.Imponía demasiadas cargas regulatorias, desincentivando la innovación.
Opción 3+Regulación para IA de alto riesgo + códigos de conducta voluntarios para IA de bajo riesgo.Regulación para IA de alto riesgo + códigos de conducta voluntarios para IA de bajo riesgo.

La Opción 3+ fue elegida porque permite proteger derechos fundamentales sin imponer restricciones excesivas a la innovación​.

Impacto esperado de la Opción 3+

🔹 Para empresas y startups:

  • Más claridad legal y reducción de costos regulatorios para IA de bajo riesgo.
  • Mayor acceso a mercados europeos sin barreras regulatorias.

🔹 Para los ciudadanos:

  • Mayor protección contra IA riesgosas en salud, empleo y seguridad pública.
    • Mayor protección en el papel, pero insisto es difícil determinar si un modelo ha sido creado de forma sesgada. ¿Cómo vamos a saber si los modelos están funcionando como se espera?
  • Transparencia y supervisión en el uso de IA en decisiones automatizadas.
    • Transparencia y supervisión, genial, pero ¿Cómo pretenden alcanzar esa transparencia? Una vez completado un modelo LLM con miles de millones de parámetros es imposible alcanzar transparencia.

🔹 Para la UE como bloque económico:

  • Fortalecimiento del liderazgo europeo en IA ética y responsable.
  • Creación de un mercado único de IA confiable que evite regulaciones nacionales conflictivas.
    • En éste contexto parece que lo único que va a conseguir esta norma es asegurar que la competición entre empresas de países miembros sea justa, todas sujetas a las mismas regulaciones. Sin embargo, como hemos indicado antes, al salir al mercado global, estas empresas van a encontrar una competencia mucho más dura al enfrentarse a empresas que desarrollan su producto bajo un sistema regulatorio más flexible.

Implementación

El 2 de Febrero de 2025 comenzaron a aplicarse las prohibiciones sobre determinados sistemas de IA así como los requisitos sobre alfabetización en IA en Europa. Durante los próximos meses, se implementarán diferentes normas de la Ley. El calendario de aplicación de las diferentes normas del Acta de IA de la UE lo encontrarás aquí.

Conclusión

La Unión Europea se encuentra en una encrucijada crucial al equilibrar la necesidad de regular el uso de la inteligencia artificial con el riesgo de que normativas demasiado estrictas provoquen la fuga de talento y empresas hacia países con marcos menos restrictivos. En este contexto, la Opción 3+ emerge como un modelo híbrido que busca conciliar ambos desafíos: regula de manera estricta la IA de alto riesgo para proteger derechos fundamentales, mientras mantiene flexibilidad para la IA de bajo riesgo a través de códigos de conducta. Este enfoque pretende fomentar la innovación y el crecimiento sostenible del ecosistema de IA en Europa sin comprometer la seguridad y los valores éticos. En los próximos años, será fundamental observar cómo se implementa este reglamento y qué impacto tiene tanto en la industria como en la sociedad europea, marcando un precedente en la gobernanza global de la inteligencia artificial.

«Las leyes fueron creadas para que el más débil tenga los mismos derechos que el fuerte.» – Demóstenes

HERRAMIENTA

ChatGPT - versión: GPT-4

PROMPTS

Genera un resumen a nivel divulgativo de el siguiente documento - https://digital-strategy.ec.europa.eu/en/library/impact-assessment-regulation-artificial-intelligence