El posible «efecto Bruselas» de la aprobación de la Ley Europea de inteligencia artificial.

Como es conocido, la Unión Europea está en la fase final del proceso de aprobación del Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión (sobre este proceso publiqué recientemente este texto). En las siguientes líneas comento, con todas las cautelas propias de algo cuyo contenido final no se conoce con certeza, el eventual impacto de la aprobación de esta norma fuera de la Unión Europea (el llamado “efecto Bruselas). 

En un conocido artículo publicado en 2012, que adoptó formato de libro en 2020, Anu Bradford explicó cómo y por qué las normas y reglamentos “de Bruselas” han penetrado en muchos aspectos de la vida económica dentro y fuera de Europa a través del proceso de “globalización normativa unilateral”, algo que se produce cuando un Estado o una organización supranacional es capaz de externalizar sus leyes y reglamentos fuera de sus fronteras a través de mecanismos de mercado, dando lugar a la globalización de las normas. La globalización normativa unilateral es un fenómeno en el que una ley de una jurisdicción migra a otra sin que la primera la imponga activamente o la segunda la adopte voluntariamente (pp. 3 y 4). 

La potencia del mercado interior de la Unión Europea (UE), unido a unas instituciones reguladoras con buena reputación, obliga a las empresas extranjeras que quieran participar en ese mercado a adaptar su conducta o su producción a las normas de la UE, que a menudo son las más estrictas; la alternativa es la renuncia a ese mercado, lo que no parece una opción razonable. Explica Bradford que las empresas multinacionales suelen tener un incentivo para estandarizar su producción a escala mundial y adherirse a una única norma. Esto convierte a la norma de la UE en una norma mundial: es el “efecto Bruselas de facto”. Y, una vez que estas empresas orientadas a la exportación hayan ajustado sus prácticas empresariales para cumplir las estrictas normas de la UE, a menudo tienen el incentivo de presionar a sus gobiernos para que adopten esas mismas normas en un esfuerzo por igualar las condiciones frente a las empresas nacionales no exportadoras: el “efecto Bruselas de iure” (p. 7). 

Y añade que la preferencia de los responsables políticos de la UE por una regulación estricta refleja su aversión al riesgo y su compromiso con una economía social de mercado. Además, y como ya hemos visto con anterioridad, la UE sigue el principio de precaución, que apuesta por la acción reguladora precautoria, incluso en ausencia de una certeza absoluta y cuantificable del riesgo, siempre que haya motivos razonables para temer que los efectos potencialmente peligrosos puedan ser incompatibles con el nivel de protección elegido (p. 15 y 16). 

Pues bien, cabría pensar que la regulación europea de la inteligencia artificial (IA) podría generar, en la línea de lo que ha ocurrido en ámbitos como la vida privada y la protección de datos (El Reglamento General de Protección de Datos (RGPD) de la UE, del 14 de abril de 2016, ha tenido un efecto global: así, en 2017 Japón creó una agencia independiente para gestionar las quejas sobre vida privada con el fin de ajustarse al nuevo reglamento de la UE y gigantes tecnológicos como Facebook y Microsoft anunciaron en 2018 que se acogerían RGPD), una exportación del contenido de esa nueva normativa a otros Estados, un “efecto Bruselas” sobre la regulación de la IA. 

Sin embargo, la propia Anu Bradford se ha mostrado escéptica al respecto en su último trabajo –Digital Empires: The Global Battle to Global Battle to Regulate Technology-, de 2023, recordando que Estados Unidos sigue siendo un modelo basado en el mercado abierto, China un modelo de centralismo estatal y la Unión Europea sigue apostando por la regulación. 

En un reciente, y muy recomendable trabajo, Marco Almada y Anca Radu también hacen un análisis crítico centrado en una versión todavía provisional del Reglamento: dado que esta norma sigue la legislación de la UE sobre seguridad de los productos, sus disposiciones ofrecen una protección limitada a algunos de los valores que la política de la UE pretende garantizar, como la protección de los derechos fundamentales. Estas deficiencias se ven agravadas por los esfuerzos activos de la UE para dar forma a instrumentos alternativos, como el convenio sobre IA propuesto por el Consejo de Europa, que sigue las líneas de la Ley de IA.  

Comparto en parte este escepticismo pero no hay que olvidar que Estados Unidos también ha optado por aprobar normas que regulen la IA; así, el 30 de octubre de 2023 el presidente Biden emitió la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, donde se proclama que el Gobierno Federal tratará de promover principios y acciones responsables de seguridad y protección de la IA con otras naciones, “incluidos nuestros competidores·, al tiempo que lidera conversaciones y colaboraciones globales clave para garantizar que la IA beneficie a todo el mundo, en lugar de exacerbar las desigualdades, amenazar los derechos humanos y causar otros daños. Además, y en la línea de la UE, en esa Orden se define la IA como un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales. Y se enuncian los ocho principios que deben guiar el desarrollo de la IA: la seguridad de los sistemas, la innovación responsable, el compromiso con los trabajadores, avance en igualdad y derechos, protección de los consumidores, protección de la intimidad, gestión de los riesgos y uso responsable de la IA, búsqueda del liderazgo social, económico y tecnológico. 

China, por su parte, y aun apostando por la IA como herramienta de férreo control de la disidencia y por sistemas como el “crédito social”, que estarán prohibidos en Europa,  aprobó en agosto de 2023 una Ley general reguladora de la Inteligencia Artificial y, en paralelo, otra regulación específica de la IA generativa. En la primera de ellas se vincula la IA a los sistemas automatizados que funcionan con cierto grado de autonomía, sirven a determinados objetivos y son capaces de influir en el entorno físico o virtual mediante la predicción, la recomendación o la toma de decisiones, es decir, en manera similar a lo que ocurre en Europa y Estados Unidos. También incluye una serie de principios aplicables al desarrollo de la IA: seguridad y robustez; apertura, transparencia y explicabilidad; responsabilidad proactiva y equidad e igualdad. Igualmente se fomentará el uso de energías eficientes, para la protección del medio ambiente, en el desarrollo de estas tecnologías

Por poner otro ejemplo, y más próximo quizás al “modelo europeo”, Brasil también ha iniciado el procedimiento para regular la IA: el 1 de marzo de 2023 se presentó el breve proyecto de ley 759/2023  en la Cámara de Diputados y el 3 de mayo el más exhaustivo proyecto de ley 2338/2023; este último tiene como objetivos establecer normas nacionales generales para el desarrollo, la implementación y el uso responsable de sistemas de inteligencia artificial  en Brasil para proteger los derechos fundamentales y garantizar la implementación de sistemas seguros y fiables en beneficio de la persona, el régimen democrático y el desarrollo científico y tecnológico. Se trata de una propuesta basada en los riesgos de la IA, prohibiendo los que implican “riesgos excesivos”, delimitando los de “alto riesgo” y con un enfoque basado en los derechos. Incluye, además, una definición de la IA similar a las que ya hemos visto en otros ámbitos jurídicos: es un sistema informático, con diversos diferentes grados de autonomía, diseñado para inferir cómo lograr un conjunto dado de objetivos, utilizando enfoques basados en el aprendizaje automático y/o y la representación del conocimiento, utilizando datos de entrada procedentes de máquinas o de seres humanos, con el fin de producir datos de entrada procedentes de máquinas o seres humanos, con el fin de producir predicciones, recomendaciones o decisiones que puedan influir en el entorno. 

No parece, por tanto, casual que en su informe sobre este proyecto elaborado por la Autoridad Nacional de Protección de Datos, hecho público el 6 de julio de 2023, se hagan varias referencias a la propuesta que se está tramitando en la Unión Europea y se diga de manera expresa que el proyecto presentado en el Senado es “semejante” a esta última

Y, por lo que respecta a España y a la influencia hacia dentro del “efecto Bruselas”, incluso con bastante anterioridad a la aprobación y, en su caso, entrada en vigor del Reglamento, se ha creado una autoridad nacional -la Agencia Española de Supervisión de Inteligencia Artificial-, se ha asumido una definición de IA en la línea del Reglamento europeo y se ha regulado el entorno controlado de pruebas “para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial”

En definitiva, y aunque en el caso de la regulación de la IA el impacto del “efecto Bruselas” pueda ser menor que en otros ámbitos, no parece en absoluto, por lo que está ocurriendo en otros Estados y espacios jurídicos, que esta propuesta vaya a tener repercusiones únicamente hacia dentro de la Unión.

efecto bruselas

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.