Acerca de Miguel Ángel Presno Linera

Catedrático de Derecho Constitucional de la Universidad de Oviedo. Full Professor of Constitutional Law at the University of Oviedo. Correos: presno@uniovi.es; presnolinera@gmail.com; Twitter: @PresnoLinera; Facebook: https://www.facebook.com/miguel.presno.1

El posible «efecto Bruselas» de la aprobación de la Ley Europea de inteligencia artificial.

Como es conocido, la Unión Europea está en la fase final del proceso de aprobación del Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión (sobre este proceso publiqué recientemente este texto). En las siguientes líneas comento, con todas las cautelas propias de algo cuyo contenido final no se conoce con certeza, el eventual impacto de la aprobación de esta norma fuera de la Unión Europea (el llamado “efecto Bruselas). 

En un conocido artículo publicado en 2012, que adoptó formato de libro en 2020, Anu Bradford explicó cómo y por qué las normas y reglamentos “de Bruselas” han penetrado en muchos aspectos de la vida económica dentro y fuera de Europa a través del proceso de “globalización normativa unilateral”, algo que se produce cuando un Estado o una organización supranacional es capaz de externalizar sus leyes y reglamentos fuera de sus fronteras a través de mecanismos de mercado, dando lugar a la globalización de las normas. La globalización normativa unilateral es un fenómeno en el que una ley de una jurisdicción migra a otra sin que la primera la imponga activamente o la segunda la adopte voluntariamente (pp. 3 y 4). 

La potencia del mercado interior de la Unión Europea (UE), unido a unas instituciones reguladoras con buena reputación, obliga a las empresas extranjeras que quieran participar en ese mercado a adaptar su conducta o su producción a las normas de la UE, que a menudo son las más estrictas; la alternativa es la renuncia a ese mercado, lo que no parece una opción razonable. Explica Bradford que las empresas multinacionales suelen tener un incentivo para estandarizar su producción a escala mundial y adherirse a una única norma. Esto convierte a la norma de la UE en una norma mundial: es el “efecto Bruselas de facto”. Y, una vez que estas empresas orientadas a la exportación hayan ajustado sus prácticas empresariales para cumplir las estrictas normas de la UE, a menudo tienen el incentivo de presionar a sus gobiernos para que adopten esas mismas normas en un esfuerzo por igualar las condiciones frente a las empresas nacionales no exportadoras: el “efecto Bruselas de iure” (p. 7). 

Y añade que la preferencia de los responsables políticos de la UE por una regulación estricta refleja su aversión al riesgo y su compromiso con una economía social de mercado. Además, y como ya hemos visto con anterioridad, la UE sigue el principio de precaución, que apuesta por la acción reguladora precautoria, incluso en ausencia de una certeza absoluta y cuantificable del riesgo, siempre que haya motivos razonables para temer que los efectos potencialmente peligrosos puedan ser incompatibles con el nivel de protección elegido (p. 15 y 16). 

Pues bien, cabría pensar que la regulación europea de la inteligencia artificial (IA) podría generar, en la línea de lo que ha ocurrido en ámbitos como la vida privada y la protección de datos (El Reglamento General de Protección de Datos (RGPD) de la UE, del 14 de abril de 2016, ha tenido un efecto global: así, en 2017 Japón creó una agencia independiente para gestionar las quejas sobre vida privada con el fin de ajustarse al nuevo reglamento de la UE y gigantes tecnológicos como Facebook y Microsoft anunciaron en 2018 que se acogerían RGPD), una exportación del contenido de esa nueva normativa a otros Estados, un “efecto Bruselas” sobre la regulación de la IA. 

Sin embargo, la propia Anu Bradford se ha mostrado escéptica al respecto en su último trabajo –Digital Empires: The Global Battle to Global Battle to Regulate Technology-, de 2023, recordando que Estados Unidos sigue siendo un modelo basado en el mercado abierto, China un modelo de centralismo estatal y la Unión Europea sigue apostando por la regulación. 

En un reciente, y muy recomendable trabajo, Marco Almada y Anca Radu también hacen un análisis crítico centrado en una versión todavía provisional del Reglamento: dado que esta norma sigue la legislación de la UE sobre seguridad de los productos, sus disposiciones ofrecen una protección limitada a algunos de los valores que la política de la UE pretende garantizar, como la protección de los derechos fundamentales. Estas deficiencias se ven agravadas por los esfuerzos activos de la UE para dar forma a instrumentos alternativos, como el convenio sobre IA propuesto por el Consejo de Europa, que sigue las líneas de la Ley de IA.  

Comparto en parte este escepticismo pero no hay que olvidar que Estados Unidos también ha optado por aprobar normas que regulen la IA; así, el 30 de octubre de 2023 el presidente Biden emitió la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, donde se proclama que el Gobierno Federal tratará de promover principios y acciones responsables de seguridad y protección de la IA con otras naciones, “incluidos nuestros competidores·, al tiempo que lidera conversaciones y colaboraciones globales clave para garantizar que la IA beneficie a todo el mundo, en lugar de exacerbar las desigualdades, amenazar los derechos humanos y causar otros daños. Además, y en la línea de la UE, en esa Orden se define la IA como un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales. Y se enuncian los ocho principios que deben guiar el desarrollo de la IA: la seguridad de los sistemas, la innovación responsable, el compromiso con los trabajadores, avance en igualdad y derechos, protección de los consumidores, protección de la intimidad, gestión de los riesgos y uso responsable de la IA, búsqueda del liderazgo social, económico y tecnológico. 

China, por su parte, y aun apostando por la IA como herramienta de férreo control de la disidencia y por sistemas como el “crédito social”, que estarán prohibidos en Europa,  aprobó en agosto de 2023 una Ley general reguladora de la Inteligencia Artificial y, en paralelo, otra regulación específica de la IA generativa. En la primera de ellas se vincula la IA a los sistemas automatizados que funcionan con cierto grado de autonomía, sirven a determinados objetivos y son capaces de influir en el entorno físico o virtual mediante la predicción, la recomendación o la toma de decisiones, es decir, en manera similar a lo que ocurre en Europa y Estados Unidos. También incluye una serie de principios aplicables al desarrollo de la IA: seguridad y robustez; apertura, transparencia y explicabilidad; responsabilidad proactiva y equidad e igualdad. Igualmente se fomentará el uso de energías eficientes, para la protección del medio ambiente, en el desarrollo de estas tecnologías

Por poner otro ejemplo, y más próximo quizás al “modelo europeo”, Brasil también ha iniciado el procedimiento para regular la IA: el 1 de marzo de 2023 se presentó el breve proyecto de ley 759/2023  en la Cámara de Diputados y el 3 de mayo el más exhaustivo proyecto de ley 2338/2023; este último tiene como objetivos establecer normas nacionales generales para el desarrollo, la implementación y el uso responsable de sistemas de inteligencia artificial  en Brasil para proteger los derechos fundamentales y garantizar la implementación de sistemas seguros y fiables en beneficio de la persona, el régimen democrático y el desarrollo científico y tecnológico. Se trata de una propuesta basada en los riesgos de la IA, prohibiendo los que implican “riesgos excesivos”, delimitando los de “alto riesgo” y con un enfoque basado en los derechos. Incluye, además, una definición de la IA similar a las que ya hemos visto en otros ámbitos jurídicos: es un sistema informático, con diversos diferentes grados de autonomía, diseñado para inferir cómo lograr un conjunto dado de objetivos, utilizando enfoques basados en el aprendizaje automático y/o y la representación del conocimiento, utilizando datos de entrada procedentes de máquinas o de seres humanos, con el fin de producir datos de entrada procedentes de máquinas o seres humanos, con el fin de producir predicciones, recomendaciones o decisiones que puedan influir en el entorno. 

No parece, por tanto, casual que en su informe sobre este proyecto elaborado por la Autoridad Nacional de Protección de Datos, hecho público el 6 de julio de 2023, se hagan varias referencias a la propuesta que se está tramitando en la Unión Europea y se diga de manera expresa que el proyecto presentado en el Senado es “semejante” a esta última

Y, por lo que respecta a España y a la influencia hacia dentro del “efecto Bruselas”, incluso con bastante anterioridad a la aprobación y, en su caso, entrada en vigor del Reglamento, se ha creado una autoridad nacional -la Agencia Española de Supervisión de Inteligencia Artificial-, se ha asumido una definición de IA en la línea del Reglamento europeo y se ha regulado el entorno controlado de pruebas “para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial”

En definitiva, y aunque en el caso de la regulación de la IA el impacto del “efecto Bruselas” pueda ser menor que en otros ámbitos, no parece en absoluto, por lo que está ocurriendo en otros Estados y espacios jurídicos, que esta propuesta vaya a tener repercusiones únicamente hacia dentro de la Unión.

efecto bruselas

El bienestar animal como posible límite a los sacrificios religiosos.

El pasado 13 de febrero se conoció la sentencia del Tribunal Europeo de Derechos Humanos (TEDH) en el caso Executief Van de Moslisms Van België y otros c. Bélgica (disponible en francés) a partir de la demanda interpuesta por trece ciudadanos belgas y siete organizaciones no gubernamentales con sede en Bélgica, que invocaron su derecho a la libertad religiosa y a la no discriminación por razones religiosas. 

En Bélgica, una Ley de 14 de agosto de 1986 sobre protección y bienestar de los animales, establece que, salvo en casos de fuerza mayor o necesidad, los animales vertebrados no pueden ser sacrificados sin ser anestesiados o aturdidos aunque este requisito no se aplicaba a sacrificios propios de ritos religiosos. En 2014 la competencia sobre el bienestar animal pasó a depender de las regiones y dos de ellas aprobaron (el 17 de julio de 2017 la Región flamenca y el 4 de octubre de 2018 la Región valona) normas que ponían fin a la excepción que permitía el sacrificio ritual de animales sin aturdimiento. Dos años después, el 17 de diciembre de 2020, el Tribunal de Justicia de la Unión Europea (TJUE) resolvió que el Derecho de la Unión no se oponía a la legislación de un Estado miembro que exigía, en el contexto del sacrificio ritual, un procedimiento de aturdimiento reversible

Pues bien, ante el TEDH los demandantes alegaron que, con esta normativa, se vulneraba su libertad religiosa debido a sería difícil, si no imposible, para creyentes judíos y musulmanes sacrificar animales de acuerdo con los preceptos de su religión u obtener carne de dichos animales. El TEDH consideró, en primer lugar, que se había producido una injerencia en la libertad religiosa de los demandantes prescrita por la legislación flamenca y valona. En cuanto a si la injerencia perseguía un objetivo legítimo, el Tribunal observó que era la primera vez que tenía que pronunciarse sobre la cuestión de si la protección del bienestar de los animales podía vincularse a uno de los objetivos contemplados en el artículo 9 del Convenio Europeo de Derechos Humanos, que garantiza la libertad religiosa y que no contiene una referencia explícita a la protección del bienestar de los animales en la lista de objetivos legítimos que podrían justificar una injerencia en la libertad de manifestar la propia religión. Sin embargo, el TEDH consideró que la protección de la moral pública, a la que se refiere dicho artículo 9, no debe entenderse en el sentido de que solo protege la dignidad humana en el ámbito de las relaciones interpersonales sin tener en cuenta el sufrimiento de los animales. El TEDH no ve motivos para apartarse de lo dicho por el TJUE y el propio Tribunal Constitucional de Bélgica, que concluyeron  que la protección del bienestar animal es un valor al que las sociedades democráticas contemporáneas conceden una importancia creciente. Así pues, la protección del bienestar de los animales podía vincularse al concepto de moral pública, objetivo legítimo en el sentido del artículo 9 del Convenio. 

Adicionalmente, las respectivas normas limitadoras se han adoptado tras una amplia consulta con representantes de diversos grupos religiosos, veterinarios y asociaciones de protección de los animales, sopesando los derechos e intereses presentes y su proporcionalidad, destacando el TEDH que existe un consenso científico de que el aturdimiento previo es el medio óptimo para reducir el sufrimiento del animal en el momento del sacrificio. 

Por lo que se refiere a la alegación de las demandantes de que sería difícil, si no imposible, obtener carne conforme a sus convicciones religiosas, en la sentencia se señala que las regiones flamenca y valona no prohíben  el consumo de carne procedente de otras regiones o países en los que el aturdimiento previo a la matanza de los animales no es un requisito legal y no se demostrado que el acceso a dicha carne se hubiera vuelto más difícil. Se estaría, en suma, ante una medida justificada y proporcional al objetivo perseguido, a saber, la protección del bienestar de los animales como un aspecto de la «moral pública». Por lo tanto, no se ha violado el artículo 9 de la Convención. 

En cuanto al argumento de que se discriminaba a los  demandantes como creyentes judíos y musulmanes en comparación con cazadores y pescadores, el TEDH concluye que no se ha demostrado que se encontraran en una situación análoga o similar, en la línea de lo dicho en su día por el TJUE, que atendió al contexto distinto del sacrificio de animales de granja para los ritos religioso y animales salvajes en el caso de la caza y la pesca recreativa. 

Por lo que se refiere a la situación de los demandantes como creyentes judíos y musulmanes en comparación con la de la población en general, no sujeta a preceptos dietéticos religiosos, el Tribunal responde que se prevé específicamente un procedimiento de aturdimiento alternativo en el caso de métodos especiales de sacrificio prescritos por ritos religiosos (un aturdimiento reversible y no letal).   

Finalmente, y por lo que se refiere a la situación de los demandantes judíos, en comparación con los musulmanes, el TEDH considera, al igual que el Tribunal Constitucional belga, que el mero hecho de que los preceptos dietéticos de la comunidad religiosa judía y los de la comunidad religiosa musulmana sean de naturaleza diferente no basta para considerar que las personas de confesiones judía y musulmana se encuentran en situaciones significativamente diferentes en relación con la medida controvertida. Por todo ello, tampoco hay vulneración del artículo 14 del  Convenio, que protege frente a las discriminaciones, en relación con el artículo 9. El fallo cuenta con dos votos concordantes. 

sacrificio religioso

Foto de la agencia EFE.

Resolución de la Corte Internacional de Justicia sobre la petición de medidas cautelares en el caso Sudáfrica contra Israel por presunta comisión de genocidio en Gaza.

Como es conocido, el 29 de diciembre de 2023 la República de Sudáfrica presentó en la Secretaría de la Corte Internacional de Justicia (CIJ) una demanda de incoación de un procedimiento contra el Estado de Israel en relación con presuntas violaciones en la Franja de Gaza de las obligaciones contraídas en virtud de la Convención para la Prevención y la Sanción del Delito de Genocidio. En dicha demanda se solicitaba la adopción de una serie de medidas cautelares y sobre esta petición se ha conocido hoy la resolución de la CIJ que, en esencia, puede resumirse en los siguientes puntos. 

En primer lugar, la Corte considera que, de lo conocido hasta ahora, cabe concluir, prima facie, que existe una controversia entre las Partes relativa a la interpretación, aplicación o cumplimiento de la Convención contra el Genocidio y concluye que, también prima facie, es competente para conocer el caso, rechazando así la petición de Israel de que declinara su competencia. 

En segundo lugar, la Corte concluye, prima facie, que Sudáfrica está legitimada para someter a su consideración la controversia con Israel relativa a presuntas violaciones de las obligaciones contraídas en virtud de la Convención contra el Genocidio y es que, de conformidad con el artículo I de la Convención, todos los Estados Partes en ella se han comprometido a «prevenir y castigar» el delito de genocidio. 

En tercer lugar, la CIJ entiende que los palestinos son un «grupo nacional, étnico, racial o religioso» distinto y, por lo tanto, un grupo protegido en el sentido del artículo II de la Convención contra el Genocidio. La Corte observa que, según fuentes de las Naciones Unidas, la población palestina de la Franja de Gaza comprende más de 2 millones de personas y, en suma, los palestinos de la Franja de Gaza forman una parte sustancial del grupo protegido. 

A continuación, la CIJ señala que la operación militar llevada a cabo por Israel tras el ataque del 7 de octubre de 2023 ha provocado un gran número de muertos y heridos, así como la destrucción masiva de viviendas, el desplazamiento forzoso de la gran mayoría de la población y grandes daños a la infraestructura civil. Si bien las cifras relativas a la Franja de Gaza no pueden verificarse de forma independiente, la información reciente indica que 25.700 palestinos han muerto, se han registrado más de 63.000 heridos, más de 360.000 viviendas han sido destruidas o parcialmente dañadas y aproximadamente 1,7 millones de personas han sido desplazadas internamente. El Tribunal toma nota, a este respecto, de la declaración realizada por el Secretario General Adjunto de Asuntos Humanitarios y Coordinador del Socorro de Emergencia de las Naciones Unidas, Martin Griffiths, el 5 de enero de 2024: «Gaza se ha convertido en un lugar de muerte y desesperación… Las familias duermen a la intemperie mientras las temperaturas caen en picado. Las zonas en las que se ordenó a los civiles que se reubicaran por su seguridad han sido objeto de bombardeos. Las instalaciones médicas están bajo un ataque implacable. Los pocos hospitales que funcionan parcialmente están abrumados… Se está desarrollando un desastre de salud pública. Las enfermedades infecciosas se están propagando en refugios superpoblados a medida que las alcantarillas se desbordan. Unas 180 mujeres palestinas dan a luz diariamente en medio de este caos. Las personas se enfrentan a los niveles más altos de inseguridad alimentaria jamás registrados. La hambruna está a la vuelta de la esquina… Para los niños en particular, las últimas 12 semanas han sido traumáticas: sin comida, sin agua, sin escuela… Gaza simplemente se ha vuelto inhabitable. Su gente es testigo de amenazas diarias a su propia existencia, mientras el mundo observa». 

En los últimos 100 días, los bombardeos sostenidos en toda la Franja de Gaza han provocado el desplazamiento masivo de una población que se ve constantemente desarraigada y obligada a marcharse de la noche a la mañana, sólo para trasladarse a lugares igualmente inseguros. Este ha sido el mayor desplazamiento del pueblo palestino desde 1948. 

En quinto lugar, la Corte ha tomado nota de varias declaraciones formuladas por altos funcionarios israelíes. Llama la atención, en particular, sobre los siguientes ejemplos: el 9 de octubre de 2023, el Sr. Yoav Gallant, ministro de Defensa de Israel, anunció que había ordenado un «asedio completo» de la ciudad de Gaza y que no habría «electricidad, ni alimentos, ni combustible» y que «todo [estaba] cerrado». Al día siguiente, el ministro Gallant declaró, dirigiéndose a las tropas israelíes en la frontera de Gaza: «He liberado todas las restricciones […] Ustedes vieron contra lo que estamos luchando. Estamos luchando contra los animales humanos. Este es el ISIS de Gaza. Esto es contra lo que estamos luchando… Gaza no volverá a ser lo que era antes. No habrá Hamas. Eliminaremos todo. Si no tarda un día, tardará una semana, tardará semanas o incluso meses, llegaremos a todos los lugares». 

El 12 de octubre de 2023, el Sr. Isaac Herzog, presidente de Israel, declaró, refiriéndose a Gaza, «estamos trabajando, operando militarmente de acuerdo con las normas del derecho internacional. Inequívocamente. Es toda una nación la responsable. No es cierta esta retórica de que los civiles no son conscientes, no están involucrados. Es absolutamente falso. Podrían haberse levantado. Podrían haber luchado contra ese régimen malvado que se apoderó de Gaza en un golpe de Estado. Pero estamos en guerra. Estamos en guerra. Estamos en guerra. Estamos defendiendo nuestros hogares. Estamos protegiendo nuestros hogares. Esa es la verdad. Y cuando una nación protege su hogar, lucha. Y lucharemos hasta romperles la columna vertebral». 

El 13 de octubre de 2023, el Sr. Israel Katz, entonces Ministro de Energía e Infraestructura de Israel, declaró en X (anteriormente Twitter): «lucharemos contra la organización terrorista Hamas y la destruiremos. Se ordena a toda la población civil de [G]aza que se retire inmediatamente. Vamos a ganar. No recibirán ni una gota de agua ni una sola batería hasta que abandonen el mundo». 

A juicio de la Corte, los hechos y circunstancias antes mencionados son suficientes para concluir que al menos algunos de los derechos reclamados por Sudáfrica y para los que solicita protección son plausibles. Este es el caso del derecho de los palestinos de Gaza a ser protegidos contra los actos de genocidio y los actos prohibidos conexos identificados en el artículo III, y el derecho de Sudáfrica a exigir el cumplimiento por parte de Israel de las obligaciones que le incumben en virtud de la Convención. 

En sexto lugar, y a la luz de las consideraciones antes expuestas, la Corte considera que existe una urgencia, en el sentido de que existe un riesgo real e inminente de que se cause un perjuicio irreparable a los derechos que la Corte considera plausibles, antes de que ésta emita su decisión final. 

Por estas razones, acuerda las siguientes medidas provisionales: 

1) Por quince votos contra dos, el Estado de Israel… adoptará todas las medidas que estén a su alcance para impedir la comisión de todos los actos comprendidos en el ámbito de aplicación del artículo II de la presente Convención, en particular: 

a) matar a miembros del grupo; 

b) causar daños físicos o mentales graves a los miembros del grupo; 

c) infligir deliberadamente al grupo condiciones de vida calculadas para provocar su destrucción física total o parcial; y 

d) la imposición de medidas destinadas a impedir los nacimientos en el seno del  grupo.

VOTOS A FAVOR: Presidenta Donoghue; el Vicepresidente Gevorgian; los Magistrados Tomka, Abraham, Bennouna, Yusuf, Xue, Bhandari, Robinson, Salam, Iwasawa, Nolte, Charlesworth, Brant; Magistrado ad hoc Moseneke; EN CONTRA: Magistrada Sebutinde; Magistrado ad hoc Barak. 

2) Por quince votos contra dos, el Estado de Israel garantizará con efecto inmediato que sus fuerzas armadas no cometan ninguno de los actos descritos en el punto 1 anterior;

VOTOS A FAVOR: Presidenta Donoghue; el Vicepresidente Gevorgian; los Magistrados Tomka, Abraham, Bennouna, Yusuf, Xue, Bhandari, Robinson, Salam, Iwasawa, Nolte, Charlesworth, Brant; Magistrado ad hoc Moseneke; EN CONTRA: Magistrada Sebutinde; Magistrado ad hoc Barak. 

3) Por dieciséis votos contra uno, el Estado de Israel adoptará todas las medidas a su alcance para prevenir y castigar la incitación directa y pública a cometer genocidio en relación con los miembros del grupo palestino en la Franja de Gaza;

VOTOS A FAVOR: Presidenta Donoghue; el Vicepresidente Gevorgian; los Magistrados Tomka, Abraham, Bennouna, Yusuf, Xue, Bhandari, Robinson, Salam, Iwasawa, Nolte, Charlesworth, Brant; Magistrados ad hoc Barak, Moseneke; EN CONTRA: Magistrada Sebutinde. 

4) Por dieciséis votos contra uno, el Estado de Israel adoptará medidas inmediatas y eficaces para permitir la prestación de los servicios básicos y la asistencia humanitaria que se necesitan con urgencia para hacer frente a las condiciones de vida adversas a las que se enfrentan los palestinos en la Franja de Gaza;

VOTOS A FAVOR: Presidenta Donoghue; el Vicepresidente Gevorgian; los Magistrados Tomka, Abraham, Bennouna, Yusuf, Xue, Bhandari, Robinson, Salam, Iwasawa, Nolte, Charlesworth, Brant; Magistrados ad hoc Barak, Moseneke;  EN CONTRA: Magistrada Sebutinde.

5) Por quince votos contra dos, el Estado de Israel adoptará medidas eficaces para impedir la destrucción y garantizar la conservación de las pruebas relativas a las denuncias de actos comprendidos en el ámbito de aplicación de los artículos II y III de la Convención para la Prevención y la Sanción del Delito de Genocidio contra miembros del grupo palestino en la Franja de Gaza;

VOTOS A FAVOR: Presidenta Donoghue; el Vicepresidente Gevorgian; los Magistrados Tomka, Abraham, Bennouna, Yusuf, Xue, Bhandari, Robinson, Salam, Iwasawa, Nolte, Charlesworth, Brant; Magistrado ad hoc Moseneke; EN CONTRA: Magistrada Sebutinde; Magistrado ad hoc Barak. 

6) Por quince votos contra dos, el Estado de Israel presentará un informe a la Corte sobre todas las medidas adoptadas para dar efecto a la presente Orden en el plazo de un mes a partir de la fecha de la misma.

VOTOS A FAVOR: Presidenta Donoghue; el Vicepresidente Gevorgian; los Magistrados Tomka, Abraham, Bennouna, Yusuf, Xue, Bhandari, Robinson, Salam, Iwasawa, Nolte, Charlesworth, Brant; Magistrado ad hoc Moseneke; EN CONTRA: Magistrada Sebutinde; Magistrado ad hoc Barak.

Imagen1

Foto disponible en la página de la Corte Internacional de Justicia.

Consideraciones sobre el delito de genocidio presentadas por varios Estados en el asunto Gambia contra Myanmar. ¿Será esa la vara de medir en el caso Sudáfrica contra Israel?

Presentación.- Menos de tres meses antes de la celebración, en la Corte Internacional de Justicia, de las audiencias sobre medidas cautelares pedidas por Sudáfrica en su demanda contra Israel por supuesto delito de genocidio en Gaza, varios países europeos (Alemania, Francia, Dinamarca, Países Bajos y Reino Unido) y uno americano (Canadá) presentaron, el 15 de noviembre de 2023, una declaración conjunta ante la CIJ en relación con la demanda que en su día había presentado Gambia contra Myanmar por supuesto delito de genocidio contra la minoría Rohingya. Es interesante conocer los argumentos que ahí aportaron estos países por si sirven como elemento de información y, sobre todo, de contraste con lo que esos mismos países, o alguno de ellos, puedan argumentar a propósito de la demanda de Sudáfrica contra Israel. En las siguientes líneas resumiré dichas alegaciones que, en buena medida, recogen jurisprudencia de la CIJ o de otros tribunales internacionales.  

Primera.- De conformidad con la Convención para la Prevención y la Represión del Delito de Genocidio, los Estados parte no tienen intereses propios; sólo tienen, todos y cada uno, un interés común: preservar los fines superiores que son la razón de la existencia de la Convención, garantizar la prevención de actos de genocidio y, si tales actos se cometen, garantizar que sus perpetradores no se beneficien de la impunidad. Este interés común implica que las obligaciones en cuestión son vinculantes para cualquier Estado. 

Segunda.- Contrariamente a la idea comúnmente sostenida, el delito de genocidio no está subordinado a la aniquilación de facto de un grupo entero, sino que se entiende cuando cualquiera de los actos contemplados en el correspondiente artículo de la Convención se cometió con la intención específica de destruir en “todo o parte” a una identidad nacional, étnica, racial o religiosa. 

Tercera.- Los actos subyacentes al crimen de genocidio deben evaluarse de manera diferente cuando se cometen contra niños y es que la expresión “daño físico o mental grave” debe, cuando se trata de niños, interpretarse tomando en cuenta sus necesidades y vulnerabilidades específicas. Así, ciertos actos, cuya gravedad no es suficiente o que se considera que no contribuyen a la destrucción física o biológica de un grupo cuando se cometen contra adultos, podrían calificarse como graves o factor que contribuye a dicha destrucción cuando las víctimas son niños. Asimismo, los actos cometidos contra niños pueden desempeñar un papel importante a la hora de establecer una intención específica. La CIJ debe considerar si los niños fueron atacados, incluido su asesinato, desde al menos tres ángulos diferentes: en primer lugar, atacar a los niños puede ayudar a demostrar que los miembros del grupo fueron atacados por su pertenencia al grupo protegido. La prueba de que los niños fueron atacados en una escala significativa probablemente daría lugar al rechazo de una defensa que argumenta que los miembros de un grupo protegido fueron atacados únicamente por otras razones, como porque representaban una amenaza para la seguridad. En segundo lugar, la Corte estableció que, para concluir que hubo genocidio, la intención debía haber sido destruir “al menos una parte sustancial del grupo objetivo”. Los niños representan una porción sustancial de los grupos protegidos por la Convención sobre Genocidio y el hecho de que fueran el objetivo establece la intención de destruir a un grupo como tal, al menos en parte. En tercer lugar, cuando los niños son objeto de actos subyacentes al crimen de genocidio, esto puede ayudar a demostrar la existencia de la intención requerida. Dada la importancia de los niños para la supervivencia de un grupo, la evidencia de daño sufrido contra ellos puede apoyar la conclusión de que los perpetradores intentaron destruir una parte sustancial del grupo protegido. 

Cuarta. Los tribunales internacionales ya han establecido que entre los modos de destrucción física, distintos del asesinato, mediante los cuales el perpetrador busca en última instancia la muerte de los miembros del grupo, se incluyen el sometimiento de un grupo de personas a una dieta de subsistencia, el desalojo sistemático de viviendas y la reducción de los servicios médicos necesarios por debajo del mínimo. 

Quinta.- El desplazamiento forzado incluye el desplazamiento físico y la deportación de miembros del grupo por parte del autor, así como el desplazamiento de miembros del grupo causado por otros actos del autor.  Los desplazamientos forzados pueden, dependiendo de las circunstancias del caso, causar graves daños a la integridad psíquica, al poner en peligro grave y duradero la capacidad de la víctima para llevar una vida normal y fructífera, de modo que este ataque contribuye, o tiende a contribuir, a la destrucción del grupo o de parte del mismo. Una operación militar violenta que desencadene el desplazamiento forzado de miembros de un grupo objetivo también puede contribuir a probar la existencia de una intención específica de destruir al grupo protegido, así como los actos que desencadenan el desplazamiento forzado, ya sea o no. entran en una de las cinco categorías de actos subyacentes al crimen de genocidio.

Sexta.- Cabe destacar que la posibilidad de destruir un grupo protegido no depende únicamente de los efectos inmediatos de las acciones del perpetrador. El autor puede permitir que ciertos miembros del grupo huyan, pero si posteriormente estos miembros son sometidos a condiciones de vida calculadas para tener como resultado su destrucción física, estos actos pueden caer dentro del alcance de la Convención sobre Genocidio. 

Séptima.- Una característica general de la jurisprudencia sobre genoc idio es que, si bien, los planes generales o las medidas oficiales del gobierno pueden establecer pruebas directas, la intención genocida rara vez se declara expresamente. Al respecto, la CIJ identificó elementos del criterio que permite deducir la intención específica, enfatizando que «para deducir la existencia del dolus specialis de una conducta, es necesario y suficiente que esta conclusión sea la única que pueda razonablemente deducirse de los actos en cuestión”. “Es raro, de hecho, que un Estado anuncie sin rodeos su intención de destruir parcial o totalmente a un grupo étnico, cultural o religioso, que manifieste su conocimiento de que tal delito iba a ocurrir o incluso que admita haberlo cometido. 

Octava.- Para determinar si se puede inferir o no una intención específica, se deben evaluar las pruebas de manera global y completa.  Los elementos del contexto, incluida la escala y la naturaleza de las atrocidades, son indicadores de una intención específica. Entre los factores a tener en cuenta, además del número de personas gravemente heridas o muertas, están el número de atacantes involucrados, el número de actos prohibidos perpetrados, la proximidad geográfica y temporal, la intensidad del ataque así como su carácter sistémico y discriminatorio. 

Novena.- Los informes elaborados por las Naciones Unidas, como los elaborados por misiones de investigación, comisiones de investigación y los informes que pueda preparar el Secretario General de las Naciones Unidas para el Consejo de Seguridad o las Naciones Unidas Asamblea General de las Naciones Unidas, puede ser de particular importancia. De hecho, estos informes pueden ser particularmente concluyentes, dado que provienen de “testigos desinteresados”, es decir, personas “que no son partes en el conflicto y no tienen nada que ganar o perder.

Imagen1

Foto disponible en la página de la Corte Internacional de Justicia.

Algunas consideraciones sobre la futura «Ley europea de inteligencia artificial».

Primera.- En la noche del pasado 8 de diciembre se llegó a un acuerdo provisional en el seno de la Unión Europea (UE) sobre la propuesta relativa a las normas armonizadas en materia de inteligencia artificial (IA), la denominada ley de inteligencia artificial, que, formalmente, será un Reglamento. Es, por el momento, la culminación de un proceso que podría remontarse a 2017, cuando el Consejo Europeo concluyó que, para construir con éxito una Europa digital, la UE necesitaba, en particular, “concienciarse de la urgencia de hacer frente a las nuevas tendencias, lo que comprende cuestiones como la inteligencia artificial y las tecnologías de cadena de bloques, garantizando al mismo tiempo un elevado nivel de protección de los datos, así como los derechos digitales y las normas éticas”. Obviando otros hitos, el 19 de febrero de 2020, la Comisión publicó el Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza, donde se afirma que “la Comisión respalda un enfoque basado en la regulación y en la inversión, que tiene el doble objetivo de promover la adopción de la IA y de abordar los riesgos vinculados a determinados usos de esta nueva tecnología. La finalidad del presente Libro Blanco es formular alternativas políticas para alcanzar estos objetivos…” El 21 de abril de 2021 se conoció el documento con el que formalmente se abrió el procedimiento normativo que nos ocupa:  la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecer normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, elaborada por la Comisión. En relación con esta propuesta, el 6 de diciembre de 2022, el Consejo de la UE hizo pública su Orientación general de 25 de noviembre y, finalmente, el Parlamento Europeo introdujo importantes enmiendas en el texto de la Comisión que fueron aprobadas el 14 de junio de 2023. 

Segunda.- No se conoce el texto definitivo que tendrá el Reglamento tras el acuerdo citado pero, como parecía evidente, en estas negociaciones finales no se ha ido más allá de las enmiendas introducidas por el Parlamento (nueva definición de la IA, regulación de los modelos fundacionales, prohibición de numerosas prácticas de IA…); más bien cabía pensar, por los diferentes intereses en presencia, que algunos de los cambios del Parlamento iban a ser, a su vez, modificados a la baja y se intuía que el uso de sistemas de reconocimiento facial en tiempo real -prohibidos por el Parlamento- y de instrumentos de policía predictiva iban a ser objeto de intenso debate en orden a permitir, con cautelas, su uso. 

Tercera.- Los fundamentos jurídicos de la regulación son cuatro: en primer lugar, el artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE), cuyo apartado 1 dispone que “el Parlamento Europeo y el Consejo, con arreglo al procedimiento legislativo ordinario y previa consulta al Comité Económico y Social, adoptarán las medidas relativas a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros que tengan por objeto el establecimiento y el funcionamiento del mercado interior”. No debe olvidarse, pues, que se trataba de aprobar normas armonizadas que garanticen el mercado interior, lo que no implica, claro, ignorar la garantía de los derechos fundamentales en presencia ni postergar la innovación. En segundo lugar, la propuesta invoca el principio de subsidiariedad: “la naturaleza de la IA, que a menudo depende de conjuntos de datos amplios y variados y que puede integrarse en cualquier producto o servicio que circula libremente por el mercado interior, implica que los Estados miembros no pueden alcanzar de manera efectiva los objetivos de esta propuesta por sí solos. En tercer lugar, se apela al principio de proporcionalidad: “la propuesta se fundamenta en los marcos jurídicos existentes y es proporcionada y necesaria para alcanzar sus objetivos, ya que sigue un enfoque basado en los riesgos y únicamente impone cargas normativas cuando es probable que un sistema de IA entrañe altos riesgos para los derechos fundamentales y la seguridad…” Finalmente, se justifica el instrumento jurídico elegido -el Reglamento- por la necesidad de aplicar uniformemente en toda la UE las nuevas normas. 

Cuarta.- No ha trascendido que en estas últimas negociaciones se haya cambiado la definición de lo que se entenderá por IA a efectos del Reglamento: en el texto que presentó la Comisión el 21 de abril de 2021 se entendía como “el software que se desarrolla empleando una o varias de técnicas y estrategias que figuran en el Anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa” (artículo 3) pero, tras las enmiendas aprobadas por el Parlamento Europeo el 14 de junio de 2023, se define como “un sistema basado en máquinas diseñado para funcionar con diversos niveles de autonomía y capaz, para objetivos explícitos o implícitos, de generar información de salida —como predicciones, recomendaciones o decisiones— que influya en entornos reales o virtuales”.

Me parece importante señalar que la IA se identifica con algún nivel de autonomía del sistema de que se trate y esta característica también está presente en la propuesta de la OCDE, que concibe la IA como un sistema operado por una máquina capaz de influir en su entorno produciendo resultados (como predicciones, recomendaciones o decisiones) para cumplir un conjunto determinado de objetivos. Utiliza datos y entradas generados por la máquina y/o introducidos por el ser humano para (i) percibir entornos reales y/o virtuales; (ii) producir una representación abstracta de estas percepciones en forma de modelos derivados de análisis automatizados (por ejemplo, aprendizaje automático) o manuales y (iii) utilizar las inferencias del modelo para formular diferentes opciones de resultados. 

Quinta.- Tampoco ha trascendido si se han cambiado los principios generales aplicables a los sistemas de IA que en su momento aprobó el Parlamento Europeo, que, por otra parte, son bastante obvios, pero no por ello superfluos: a) «Intervención y vigilancia humanas»: los sistemas de IA se desarrollarán y utilizarán como una herramienta al servicio de las personas, que respete la dignidad humana y la autonomía personal, y que funcione de manera que pueda ser controlada y vigilada adecuadamente por seres humanos. b) «Solidez y seguridad técnicas»: los sistemas de IA se desarrollarán y utilizarán de manera que se minimicen los daños imprevistos e inesperados, así como para que sean sólidos en caso de problemas imprevistos y resistentes a los intentos de modificar el uso o el rendimiento del sistema de IA para permitir una utilización ilícita por parte de terceros malintencionados. c) «Privacidad y gobernanza de datos»: los sistemas de IA se desarrollarán y utilizarán de conformidad con las normas vigentes en materia de privacidad y protección de datos, y tratarán datos que cumplan normas estrictas en términos de calidad e integridad. d) «Transparencia»: los sistemas de IA se desarrollarán y utilizarán facilitando una trazabilidad y explicabilidad adecuadas, haciendo que las personas sean conscientes de que se comunican o interactúan con un sistema de IA, informando debidamente a los usuarios sobre las capacidades y limitaciones de dicho sistema de IA e informando a las personas afectadas de sus derechos. e) «Diversidad, no discriminación y equidad»: los sistemas de IA se desarrollarán y utilizarán incluyendo a diversos agentes y promoviendo la igualdad de acceso, la igualdad de género y la diversidad cultural, evitando al mismo tiempo los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión. f) «Bienestar social y medioambiental»: los sistemas de IA se desarrollarán y utilizarán de manera sostenible y respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos, al tiempo que se supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia. 

Sexta.- La futura “Ley europea· asume un enfoque basado en los riesgos que pueden generar los sistemas de IA, como una suerte de una concreción del bien conocido “principio de precaución”, que ya está presente en el artículo 18.4 de la Constitución española, pues, como se recordará, se mandata a la ley para que limite el uso de la informática a fin de “garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos”, y es igualmente un principio que, como también es sabido, guía la actuación de la Unión Europea; así, y por citar únicamente dos ejemplos en el ámbito que nos ocupa, en la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, se dice que “las actividades de investigación en el ámbito de la robótica deben llevarse a cabo de conformidad con el principio de precaución, anticipándose a los posibles impactos de sus resultados sobre la seguridad y adoptando las precauciones debidas, en función del nivel de protección, al tiempo que se fomenta el progreso en beneficio de la sociedad y del medio ambiente”, y en la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas se recuerda que “tal enfoque debe estar en consonancia con el principio de precaución que guía la legislación de la Unión y debe ocupar un lugar central en cualquier marco regulador para la inteligencia artificial”. Y en función del tipo de riesgo los sistemas estarán sometidos a unas u otras condiciones y si es un riesgo excesivo estarán prohibidos. 

Séptima.- En lo que se refiere a las prácticas prohibidas, en la propuesta de la Comisión eran cuatro y englobaban, en primer lugar, las prácticas con un gran potencial para manipular a las personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las vulnerabilidades de grupos de personas concretos, como los menores o las personas con discapacidad, para alterar de manera sustancial su comportamiento de un modo que es probable que les provoque perjuicios físicos o psicológicos a ellos o a otras personas. La propuesta prohibía igualmente que las autoridades públicas realizasen calificación social basada en IA con fines generales. Por último, también se prohibía, salvo excepciones limitadas, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de aplicación de la ley. 

Pues bien, tras las enmiendas introducidas por el Parlamento Europeo, se amplió el abanico de prácticas prohibidas por entender que suponían un riesgo inaceptable y se elevó el número a nueve y, en el caso de la prohibición del uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público, se eliminaron todas las excepciones que proponía la Comisión, algo que parece se recuperará en la versión final permitiendo, se ha dicho, su uso “estrictamente necesario a efectos policiales… en los casos de víctimas de determinados delitos, la prevención de amenazas reales, presentes o previsibles, como los ataques terroristas, y la búsqueda de personas sospechosas de los delitos más graves”. 

Queda por ver qué ocurrirá con la prohibición parlamentaria de sistemas de IA para llevar a cabo evaluaciones de riesgo de personas físicas o grupos de personas con el objetivo de determinar el riesgo de que cometan delitos o infracciones o reincidan en su comisión, o para predecir la comisión o reiteración de un delito o infracción administrativa reales o potenciales. No me parece probable que los Estados acepten renunciar a todas estas herramientas de “inteligencia artificial policial” o de “policía predictiva”. 

Octava.- El acuerdo transaccional prevé una clasificación de alto riesgo para garantizar que los sistemas de IA que no puedan causar violaciones graves de los derechos fundamentales u otros riesgos significativos. Los sistemas de IA que presenten un riesgo limitado estarían sujetos a obligaciones de transparencia muy ligeras, por ejemplo, revelando que el contenido ha sido generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior. 

Novena.- Si hubiera que destacar una novedad incorporada en las fases finales de elaboración del Reglamento y que no estaba prevista ni en la propuesta de la Comisión ni en la orientación general del Consejo es, sin duda, la de los llamados modelos fundacionales, que en las enmiendas parlamentarias se han definido como un avance reciente en el que se desarrollan modelos de IA a partir de algoritmos diseñados para optimizar la generalidad y versatilidad de la información de salida. A menudo, estos modelos se entrenan con un amplio abanico de fuentes de datos y grandes volúmenes de datos a fin de llevar a cabo una extensa gama de tareas posteriores, incluidas algunas para las que no han sido desarrollados y entrenados específicamente. 

Se trata de modelos que han alcanzado una gran popularidad en los últimos tiempos, como el ChatGPT o BARD, en especial por su extraordinaria capacidad para generar textos, códigos e imágenes, algo que ha generado, en palabras introducidas por el Parlamento Europeo en la propuesta de Reglamento, “una incertidumbre significativa sobre el modo en que evolucionarán los modelos fundacionales, tanto en lo que se refiere a la tipología de los modelos como a su autogobernanza”. No se sabe cómo quedará su regulación aunque el acuerdo provisional establece deben cumplir obligaciones específicas de transparencia antes de su comercialización y que habrá un régimen más estricto para los modelos fundacionales de «alto impacto».

Décima.- Por lo que respecta a las instituciones de gobierno y control de la IA, se creará una Oficina de IA dentro de la Comisión encargada de supervisar los modelos de IA más avanzados, contribuir a fomentar las normas y las prácticas de ensayo, y hacer cumplir las normas comunes en todos los Estados miembros. Habrá, además, un Consejo de Inteligencia Artificial, compuesto por representantes de los Estados miembros como plataforma de coordinación y órgano consultivo de la Comisión Por último, se creará un foro consultivo para las partes interesadas, como los representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico, con el fin de proporcionar conocimientos técnicos al Consejo de IA. Por su parte, cada Estado tendrá una Agencia Nacional de supervisión, algo que en España ya existe: la Ley 22/2021, de 28 de diciembre, de Presupuestos Generales del Estado para el año 2022, recogió, en su Disposición adicional centésimo trigésima, la «creación de la Agencia Española de Supervisión de Inteligencia Artificial», autorizando al Gobierno a impulsar una Ley para la creación de la Agencia Española de Supervisión de Inteligencia Artificial, configurada como una Agencia Estatal dotada de personalidad jurídica pública, patrimonio propio y autonomía en su gestión, con potestad administrativa. Por su parte, la Ley 28/2022, de 21 de diciembre, de fomento del ecosistema de las empresas emergentes, prevé la «creación de la Agencia Española de Supervisión de Inteligencia Artificial», cumpliendo con ello la exigencia prevista en el artículo 91 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público y eso es lo que se ha hecho a través del Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial.

Undécima.- La propuesta de Reglamento incluye un sistema sancionador como forma de asegurar que se apliquen sus disposiciones y corresponderá a los Estados miembros determinar el régimen aplicable a las infracciones cometidas por cualquier operador. Las sanciones deberán ser efectivas, proporcionadas y disuasorias. Tras el reciente acuerdo se ha rebajado el importe de las multas hasta ahora previsto aunque se mantiene la doble fórmula de imponer un porcentaje de la facturación anual global de la empresa infractora en el ejercicio anterior o una cantidad predeterminada, la que sea mayor. Esto supondría 35 (antes eran 40) millones de euros o el 7 % para las violaciones de las aplicaciones de IA prohibidas; 15 (antes 20) millones de euros o el 3 % (antes el 4%) para otras violaciones de las obligaciones de la ley de IA … 

Duodécima. Probablemente hasta principios de 2024 no se conozca el texto definitivo del Reglamento, que además tendrá varios períodos de vacatio legis hasta su entrada en vigor total. 

Decimotercera.- Una de las grandes cuestiones que suscita esta iniciativa es si generará el llamado “efecto Bruselas”: en un conocido artículo publicado en 2012, que adoptó formato de libro en 2020, Anu Bradford explicó cómo y por qué las normas y reglamentos “de Bruselas” han penetrado en muchos aspectos de la vida económica dentro y fuera de Europa a través del proceso de “globalización normativa unilateral”, algo que se produce cuando un Estado o una organización supranacional es capaz de externalizar sus leyes y reglamentos fuera de sus fronteras a través de mecanismos de mercado, dando lugar a la globalización de las normas. La globalización normativa unilateral es un fenómeno en el que una ley de una jurisdicción migra a otra sin que la primera la imponga activamente o la segunda la adopte voluntariamente.  

Pues bien, cabría pensar que la regulación europea de la IA podría generar, en la línea de lo que ha ocurrido en ámbitos como la vida privada y la protección de datos, una exportación del contenido de esa nueva normativa a otros Estados, un “efecto Bruselas” sobre la regulación de la IA . Sin embargo, la propia Anu Bradford se ha mostrado escéptica al respecto en su último trabajo –Digital Empires: The Global Battle to Global Battle to Regulate Technology-, de 2023, recordando que Estados Unidos sigue siendo un modelo basado en el mercado abierto, China un modelo de centralismo estatal y la Unión Europea sigue apostando por la regulación. 

Ahora bien, Estados Unidos también ha optado por aprobar normas que regulen la IA, aunque no sea con la misma intensidad que en la Unión Europeas; así, el 30 de octubre de 2023 el presidente Biden emitió la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, donde se proclama que el Gobierno Federal tratará de promover principios y acciones responsables de seguridad y protección de la IA con otras naciones, “incluidos nuestros competidores·, al tiempo que lidera conversaciones y colaboraciones globales clave para garantizar que la IA beneficie a todo el mundo, en lugar de exacerbar las desigualdades, amenazar los derechos humanos y causar otros daños. Además, y en la línea de la UE, en esa Orden se define la IA como un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales. Y se enuncian los ocho principios que deben guiar el desarrollo de la IA: la seguridad de los sistemas, la innovación responsable, el compromiso con los trabajadores, avance en igualdad y derechos, protección de los consumidores, protección de la intimidad, gestión de los riesgos y uso responsable de la IA, búsqueda del liderazgo social, económico y tecnológico. China, por su parte, y aun apostando por la IA como herramienta de férreo control de la disidencia y por sistemas como el “crédito social” , que estarán prohibidos en Europa, aprobó en agosto de 2023 una Ley general reguladora de la Inteligencia Artificial y, en paralelo, otra regulación específica de la IA generativa. En la primera de ellas se vincula la IA a los sistemas automatizados que funcionan con cierto grado de autonomía, sirven a determinados objetivos y son capaces de influir en el entorno físico o virtual mediante la predicción, la recomendación o la toma de decisiones, es decir, en manera similar a lo que ocurre en Europa y Estados Unidos. También incluye una serie de principios aplicables al desarrollo de la IA: seguridad y robustez; apertura, transparencia y explicabilidad; responsabilidad proactiva y equidad e igualdad. Igualmente se fomentará el uso de energías eficientes, para la protección del medio ambiente, en el desarrollo de estas tecnologías.  

Y, por poner otro ejemplo, Brasil también ha iniciado el procedimiento para regular la IA: el 1 de marzo de 2023 se presentó el breve proyecto de ley 759/2023  en la Cámara de Diputados  y el 3 de mayo el más exhaustivo proyecto de ley 2338/2023; este último tiene como objetivos establecer normas nacionales generales para el desarrollo, la implementación y el uso responsable de sistemas de inteligencia artificial  en Brasil para proteger los derechos fundamentales y garantizar la implementación de sistemas seguros y fiables en beneficio de la persona, el régimen democrático y el desarrollo científico y tecnológico. Se trata de una propuesta basada en los riesgos de la IA, prohibiendo los que implican “riesgos excesivos”, delimitando los de “alto riesgo” y con un enfoque basado en los derechos. Incluye, además, una definición de la IA similar a las que ya hemos visto en otros ámbitos jurídicos: es un sistema informático, con diversos diferentes grados de autonomía, diseñado para inferir cómo lograr un conjunto dado de objetivos, utilizando enfoques basados en el aprendizaje automático y/o y la representación del conocimiento, utilizando datos de entrada procedentes de máquinas o de seres humanos, con el fin de producir datos de entrada procedentes de máquinas o seres humanos, con el fin de producir predicciones, recomendaciones o decisiones que puedan influir en el entorno. No parece, por tanto, casual que en su informe sobre este proyecto elaborado por la Autoridad Nacional de Protección de Datos, hecho público el 6 de julio de 2023, se hagan varias referencias a la propuesta que se está tramitando en la Unión Europea y se diga de manera expresa que el proyecto presentado en el Senado es “semejante” a esta última. 

Por lo que respecta a España y a la influencia hacia dentro del “efecto Bruselas”, hemos visto que, incluso con bastante anterioridad a la aprobación y, en su caso, entrada en vigor del Reglamento, se ha creado una autoridad nacional -la Agencia Española de Supervisión de Inteligencia Artificial-, se ha asumido una definición de IA en la línea de la propuesta europea y, además, se ha regulado el entorno controlado de pruebas “para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial”.

En definitiva, y aunque en el caso de la regulación de la IA el impacto del “efecto Bruselas” pueda ser menor que en otros ámbitos, no parece en absoluto, por lo que está ocurriendo en otros Estados y espacios jurídicos, que esta propuesta vaya a tener repercusiones únicamente hacia dentro de la Unión.

Y todo ello por más que sea algo excesivo decir que es la primera ley del mundo en la materia (por ejemplo, Canadá ya reguló usos de la IA en 2019 y China en 2023); no lo es es calificarla como la normativa que ha ido más lejos y a ello no ha sido ajeno, más bien al contrario, el impulso español. Iremos viendo si lo suficientemente lejos en un contexto en el que estamos viendo cosas que jamás creeríamos

AI

Policía predictiva y prevención de la violencia de género: el sistema VioGén.

En el número 39 de la Revista de Internet, Derecho y Política, monográfico sobre «Digitalización y algoritmización de la justicia» coordinado por el profesor Fernando Miró Llinares, se publicó mi trabajo “Policía predictiva y prevención de la violencia de género: el sistema VioGén” (puede descargarse en formato PDF; http://dx.doi.org/10.7238/idp.v0i39.416473). 

La violencia contra las mujeres es un fenómeno cada vez más frecuente en todo el mundo y tiene un enorme impacto en la vida de las víctimas, sus familias y la sociedad. En este breve texto estudiamos el uso de los algoritmos predictivos para prevenir la reiteración de esa violencia y adoptar las medidas cautelares necesarias. El trabajo describe la organización y funcionamiento del llamado sistema VioGén e incluye un análisis crítico de este. 

En la parte conclusiva recordamos que los estudios empíricos han mostrado evidencias del elevado valor predictivo de sistemas como VioGén cuando diagnostican ausencia de riesgo de reiteración de la violencia de género y también su escaso valor cuando pronostican dicha reiteración. No obstante, es muy importante tener en cuenta que en este último supuesto eso no implica que el sistema haya incumplido su labor, sino que bien puede haber sido la adopción de medidas cautelares derivadas de la prognosis de un alto riesgo lo que ha servido, precisamente, para evitar que la agresión se produzca. 

También se insiste en que ningún sistema predictivo, por muy sofisticado que sea, es inmune al fallo e, inevitablemente, generará más o menos casos de «falsos positivos» y «falsos negativos», lo que exige una reflexión previa de carácter político criminal y, sobre todo, una evaluación del impacto algorítmico en los derechos fundamentales que puedan verse afectados. 

En el caso de VioGén, nos encontramos ante una herramienta predictiva que opera de forma centralizada –lo que favorece la coordinación institucional y evita la revictimización de la mujer denunciante–, que se ajusta al principio de proporcionalidad, pues genera predicciones con validez para cortos períodos de tiempo, adecuadas para proteger derechos de extraordinaria relevancia  como la vida y la integridad física y moral de las mujeres denunciantes, y que afectan lo mínimo posible a los derechos de las personas denunciadas. 

Finalmente, conviene estar alerta frente a los sesgos de «autoridad  tecnológica» o de «automatización» que se entrevén en VioGén, lo que podría atajarse mediante una valoración simultánea, y no sucesiva, por parte de los propios agentes especializados. 

Pd. Esta publicación es uno de los resultados del proyecto PID2022-136548NB-I00 Los retos de la inteligencia artificial para el Estado social y democrático de Derecho, financiado por el Ministerio de Ciencia e Innovación en la Convocatoria Proyectos de Generación de Conocimiento 2022. Quiero expresar mi agradecimiento a las dos personas que evaluaron la primera versión de este texto por sus valiosas recomendaciones.

Pd. de la pd. Con posterioridad al envío de este texto tuve noticia de un trabajo del profesor David San Martín Segura, que me parece de referencia obligada: Prevención algorítmica de la violencia de género: la discrecionalidad policial como decisión tecnológica en el contexto de VIOGÉN.

policía predictiva

 

Excepcional, no inconstitucional: algunas consideraciones sobre la Proposición de Ley Orgánica de amnistía.

La Proposición de Ley Orgánica de amnistía, en sus aspectos formales, no plantea problemas, pues es una vía prevista en la Constitución y no parece vulnerar las exigencias del Reglamento del Congreso: presentarse acompañada de una exposición de motivos y de los antecedentes necesarios para poder pronunciarse sobre ella; como ha dicho el Tribunal Constitucional, “no cabe reproche alguno a que se trate de una proposición de ley y no vaya acompañada de los dictámenes que, en su caso, exigiría un proyecto de ley” (STC 19/2023).

Es una proposición de ley orgánica, cuya aprobación requiere de mayoría absoluta, porque afecta a derechos fundamentales, según sus promotores, algo discutible, aunque sí debe ser orgánica la parte que propone modificar el Código Penal. 

La exposición de motivos es la parte más extensa (11 páginas) y en ella se advierte un tono general defensivo, una suerte de anticipación a las objeciones que vendrán tanto en el debate político como en el constitucional: se mencionan amnistías anteriores en España, las aprobadas en otros países de nuestro entorno y diversas resoluciones internacionales, argumentos que, en mi opinión, merecerían algo más de desarrollo. La exposición insiste, y hace bien, en que una amnistía no es necesariamente inconstitucional sino, como dijo el Tribunal Constitucional, “excepcional” (STC 147/1986); un Tribunal Constitucional, por cierto, del que formaban parte, por citar dos nombres de referencia en el derecho de nuestro país, Francisco Rubio Llorente y Luis Díez-Picazo. Las amnistías también son compatibles, en principio, con el derecho de la Unión Europea y con el Convenio Europeo de Derechos Humanos. 

En la misma STC 147/1986 se lee que “la concesión de una amnistía implica un juicio crítico sobre toda una etapa histórica”, pero la exposición de motivos trata de aliviar la crítica apelando más a la “convivencia democrática” y al “interés general” del presente y del futuro que a los “conflictos institucionales” del pasado, algo, obviamente, discutible y, para muchos, ofensivo pero defendible, aunque se rechacen el análisis y las intenciones, en una iniciativa parlamentaria. Acierta la exposición cuando recuerda que no vivimos en una democracia militante y, por tanto, no es exigible una adhesión positiva al sistema constitucional, y que una medida de esta naturaleza debe ser aprobada por las Cortes Generales, por más que no quepa calificarla, como se hace en el texto, de “soberana” y merecería, en contra de lo que se pretende, una tramitación sin urgencias. 

En todo caso, y aunque tiene párrafos discutibles, algunos errados -como calificar de soberano un acto del legislador- y podría ser más concreta en unos puntos y más breve en otros, la exposición de motivos responde a lo que debe ser: describe el contenido, indica su objeto y finalidad, sus antecedentes y las competencias y habilitaciones en cuyo ejercicio se dicta. 

Por lo que respecta al articulado, y en pocas palabras, delimita la extensión temporal abarcando “actos determinantes de responsabilidad penal, administrativa o contable, ejecutados en el marco de las consultas celebradas en Cataluña el 9 de noviembre de 2014 y el 1 de octubre de 2017, de su reparación o de sus consecuencias, siempre que hubieren sido realizados entre los días 1 de enero de 2012 y 13 de noviembre de 2023”. Llama la atención un lapso tan amplio; en especial, su prolongación hasta el día del registro de la iniciativa, pues algo por definición excepcional exige reducir al mínimo posible su extensión, aunque parece claro que, como dice el artículo 1, se trata de cubrir cualquier acto realizado con “la intención de reivindicar, promover o procurar la secesión o independencia de Cataluña”. Habrá que ver, a efectos de descartar resultados discriminatorios en la aplicación práctica de la ley, cómo se constatan esas motivaciones, que servirían como criterio de exclusión de conductas similares -por ejemplo, desórdenes públicos- desvinculadas del procés

El efecto sería extinguir la responsabilidad penal, administrativa o contable de las personas beneficiadas, otra muestra de vocación expansiva de esta amnistía, aunque no es obligado que se ciña a la cuestión penal. Cabe pronosticar que, aun cuando la ley fuese declarada inconstitucional, no “resucitarían” esas responsabilidades, por lo que, una vez esté en vigor -en principio, al publicarse en el BOE-, su aplicación “preferente y urgente” irá poniendo fin a dichas responsabilidades, sin derecho a indemnización ni a la restitución de lo abonado como multa y quedando a salvo la responsabilidad civil por los daños sufridos por los particulares. El plazo para decidir por los respectivos órganos es corto (dos meses) y tengo mis dudas de que se vaya a cumplir. 

En suma, el texto conocido generará importante rechazo social y político, pero, susceptible todavía de enmienda parlamentaria, despeja el horizonte de su conformidad con la Constitución, debiendo recordarse, además, que de las leyes se presume su constitucionalidad.

Texto publicado en El País el 15 de noviembre de 2023.

Amnistía

 

 

La aplicación de sistemas de inteligencia artificial en el ámbito de la salud y sus posibles efectos discriminatorios para las personas mayores.

Acaba de publicarse el informe La discriminación de las personas mayores en el ámbito de la salud, que forma parte de la colección Los derechos humanos de las personas mayores en España: la igualdad de trato y la no discriminación por razón de edad y que elabora la fundación HelpAge International España. En el presente informe tuve la oportunidad de participar con el texto «La prohibición de discriminación de las personas mayores en el ámbito de la salud, con especial atención a los riesgos derivados del uso de sistemas de inteligencia artificial» (puede descargarse en formato pdf). Como es obvio, esos riesgos no se proyectan en exclusiva sobre las personas mayores ni sobre todas las personas mayores en el mismo grado.

El capítulo versa, en primer lugar, sobre la prohibición radical, en el plano constitucional, internacional y legal, de la discriminación de las personas mayores en el ámbito de la salud.

En segundo lugar, se recuerda que esa prohibición no desaparece en tiempos de pandemia, donde, precisamente, la atención sanitaria a las personas que puedan estar en situación de mayor vulnerabilidad cobra especial labor, tanto si esas personas viven en sus domicilios, están ingresadas en una residencia o en un centro sanitario.

En tercer lugar, y de modo principal, en este capítulo se aborda el creciente uso de sistemas algorítmicos y de inteligencia artificial, a veces en forma de robots socioasistenciales, para la prestación sanitaria a las personas mayores, lo que puede servir para mejorar los diagnósticos y la detección de enfermedades, facilitar la atención clínica o el desarrollo de medicamentos y terapias pero sin olvidar el riesgo de que se generen nuevas discriminaciones, el creciente y, en ocasiones, poco controlado acceso a datos sobre la salud o las dificultades para otorgar el consentimiento informado.

helpage

 

Joaquín Varela, el mejor compañero de viaje.

Uno de los mejores viajes de mi vida, no ya en el ámbito académico o en el meramente personal, sino en general, fue el que tuve la fortuna de compartir y, por tanto, de disfrutar con Joaquín Varela e Ignacio Fernández Sarasola, en el mes de julio de 2002, y que tuvo como destino la ciudad italiana de Macerata, en la región de Le Marce. Con varios profesores que entonces estaban en la Universidad de Macerata ´-algunos siguen allí, como Luigi Lacchè, y otros han continuado su trabajo en otras universidades, como Roberto Martucci en la del Salento, en Lecce, o Luca Scuchimarra, en La Sapienza, en Roma, universidad ésta en la que también recaló el constitucionalista Cesare Pinelli- teníamos ya entonces y conservamos en la actualidad una estupenda relación académica y personal, que se ha ido articulando a través de encuentros y publicaciones vinculadas a la Historia Constitucional, no en vano en Macerata existía el Laboratorio di Storia Costituzionale Antoine Barnave y allí se publica, desde 2001, el prestigioso Giornale di Storia costituzionale, que dirigen los mencionados Luigi Lacchè, Roberto Martucci y Luca Scuccimarra y de cuyo consejo editorial formó parte Joaquín Varela y forma parte ahora Ignacio Fernández Sarasola. 

Pues bien, en este breve pero intenso viaje, además de compartir encuentros académicos y charlas de todo tipo con colegas italianos y franceses, Ignacio y yo disfrutamos de la inolvidable experiencia de la compañía de Joaquín, que tenía un especial cariño por Italia, por su historia, sus instituciones, sus ciudades, su lengua, su gastronomía; en definitiva, por la cultura italiana, que tan bien conocía y admiraba. Seguramente no es casualidad que su último apellido -Suances-Carpegna- tenga en su composición el nombre de un pequeño municipio italiano, Carpegna, situado en la provincia de Pesaro y Urbino, en la misma región de Las Marcas, municipio que pudo conocer en un de sus viejas a Italia. Y, entre sus múltiples satisfacciones académicas y personales, una no menor fue la publicación en italiano de su libro Governo e partiti nel pensiero britannico (1690-1832), Giuffrè, 2007, o la inclusión de varios de sus estudios en revistas tan relevantes como los Quaderni Fiorentini per la Storia del pensiero giuridico moderno, Giurisprudenza Costituzionale o el Gionale di Storia Costituzionale; precisamente, unos de sus últimos estudios «Los orígenes del Estado social en España (1883-1931)», se publicó en 2017 en el número 46 de los Quaderni Fiorentini per la Storia del pensiero giuridico moderno.

Pero Joaquín Varela no fue un compañero de viaje ocasional sino que me acompañó en buena parte de mi periplo académico, lo que por el tiempo ya transcurrido equivale a decir en la mayor parte de mi vida, primero como profesor en mis inicios como estudiante en la Facultad de Derecho de la Universidad de Oviedo y luego como compañero en el Área de Derecho Constitucional de esta universidad.

Sobre la condición docente de Joaquín me remito a lo dicho aquí por mi amigo y colega Leonardo Álvarez, que lo explica con mucho más detalle y gracia de lo que yo sería capaz de hacerlo; no obstante, no me resisto a recordar su inconfundible aspecto en las aulas, resultante de la combinación de una atildada imagen de profesor centroeuropeo con una gestualidad mediterránea y una retranca gallega, que, desde luego, no dejaba indiferente a nadie.

Como compañero y, sobre todo, amigo Joaquín ofrecía siempre, incluso cuando las circunstancias no eran las más favorables, una conversación desbordante y muy divertida, pues tenía un talento natural para contar historias y anécdotas, personales y/o académicas. También era una persona con una capacidad extraordinaria para transmitir un contagioso entusiasmo cuando explicaba en voz alta, luego de haberlo pensado con minuciosidad, algún proyecto, algo que hacía poco menos que imposible rechazar cualquier invitación para colaborar con él. Prueba de su buena cabeza, de su capacidad para anticipar nuevas formas de divulgar el pensamiento y de su entusiasmo son realidades tan consolidadas, merced también a la implicación inestimable de su discípulo Ignacio Fernández Sarasola, como el Centro investigador “Martínez Marina” sobre Historia Constitucional, en la actualidad Cátedra de Historia Constitucional Martínez Marina, donde se insertan la Revista electrónica de Historia Constitucional, cuyo primer número se publicó en el año 2000; la Biblioteca Virtual de Historia Constitucional «Francisco Martínez Marina», creada en el año 2005, y la editorial digital In Itinere, fundada en 2011. 

Otras iniciativas colectivas en las que participó Joaquín, bien como uno de los promotores, bien como su impulsor principal, son Fundamentos. Cuadernos monográficos de Teoría del Estado, Derecho Público e Historia Constitucional, en compañía de sus amigos y colegas Ramón Punset y Francisco Bastida, o la colección “Leyes políticas españolas”; asimismo, fue coeditor, entre 1992 y 2003, de la colección de quince volúmenes “Clásicos Asturianos del Pensamiento Político” y editor de la obra Textos básicos de la Historia constitucional comparada

En todas estas realidades está presente Joaquín Varela, y no únicamente por haberlas impulsado y consolidado, sino, sobre todo, por su capacidad para hacerse acompañar en el viaje que supone cada una de ellas.  Si uno no muere del todo mientras sus obras tengan aliento, es evidente que el legado del profesor Varela estará vivo muchísimo tiempo, sin que caiga sobre él el «olvido que seremos», aunque, sinceramente, eso no nos ha servido de mucho consuelo desde 1 de febrero de 2018. 

Pd. Este breve texto se incluyó en el  número 24 de la revista Historia Constitucional, donde se pueden leer otros testimonios. En este vídeo de la UNED se puede ver una estupenda conversación sobre Derecho constitucional, Derecho político, Historia constitucional… mantenida en 2014 por Joaquín Varela con el profesor Augusto Martín de la Vega.

IMG-20230915-WA0021

Con Joaquín e Ignacio en Macerata, julio de 2002.

¿Sería constitucional una Ley de amnistía?

Este periódico me pidió responder a la pregunta del titular en unos 3.500 caracteres y podría ahorrarles la lectura de 3.400 contestando, simplemente, depende. No obstante, y abusando de su generosidad, aprovecharé esos 3.400 caracteres restantes para tratar de explicar, sin ánimo exhaustivo, esa respuesta. 

En primer lugar, el Tribunal Constitucional ya nos ha dicho (STC 147/1986, de 25 de noviembre) que la amnistía es una “operación excepcional”, es decir, algo que cabe en nuestro ordenamiento si concurren circunstancias extraordinarias. Por tanto, habría que conocer los términos de esa eventual ley de amnistía para saber en qué excepcionalidad basa el legislador su aprobación, en dónde radica su fundamento constitucional y cómo justifica la no aplicación a unos hechos concretos de unas normas válidas y aprobadas de forma democrática de tal manera que esa “amnesia del ordenamiento” no menoscabe derechos y bienes protegidos por la Constitución Española (CE). 

Por centrarnos en la “amnistía en la que usted está pensando”, si se pretenden olvidar jurídicamente, por estar vinculados al “procés”, hechos que, por citar un ejemplo, podrían ser constitutivos del delito de desórdenes públicos, habría que hilar muy fino para encontrar un fundamento razonable que justifique que no sean juzgados o se cumpla condena por ellos y sí se juzgue y, en su caso, se condene a quien participó en desórdenes similares en el contexto de un desahucio o de un conflicto laboral en una época de grave crisis económica y creciente vulnerabilidad social. ¿Por qué sería injusto condenar por los primeros y no por otros? 

Si el poder legislativo, ante situaciones similares, establece un trato claramente diferenciado, actúa de manera arbitraria y discrimina, pues “la discriminación entraña siempre una arbitrariedad, o bien, si aun no estableciéndola, carece de toda justificación, lo que también supondría una arbitrariedad, sin que sea pertinente un análisis a fondo de todas las motivaciones posibles de la norma y de todas sus eventuales consecuencias” (STC 196/2011, de 13 de diciembre).

Esa discriminación no se produciría si concretas personas condenadas en firme por los hechos citados se beneficiasen de un indulto, institución con fundamento constitucional expreso aunque su desarrollo legal deja bastante que desear precisamente porque no exige su motivación.

Adicionalmente, una hipotética ley de amnistía que impida juzgar hechos que racionalmente encajan en tipos delictivos como, por seguir con el ejemplo, los desórdenes públicos, afectaría al “ejercicio de la potestad jurisdiccional en todo tipo de procesos, juzgando y haciendo ejecutar lo juzgado, [que] corresponde exclusivamente a los Juzgados y Tribunales determinados por las leyes, según las normas de competencia y procedimiento que las mismas establezcan” (artículo 117.3 CE), sin olvidar que “es obligado cumplir las sentencias y demás resoluciones firmes de los Jueces y Tribunales” (artículo 118 CE). 

También aquí la excepción a la exclusiva ejecución judicial de lo juzgado y al cumplimiento de las sentencias firmes radica en el  mencionado reconocimiento constitucional de los indultos singulares (artículo 62.i) o, en su caso, en la aprobación de una derogación o modificación legislativa favorable al condenado en virtud del principio de retroactividad más favorable, también incluido en la CE (artículo 9). 

Decía que hay que conocer los términos de una eventual ley de amnistía para valorar su constitucionalidad; como no se saben, me limito a este juicio hipotético tratando de no caer en el prejuicio.