Cine, Derecho e inteligencia artificial en Jelo en verano 2022 (5): ¿qué hacer ante el auge de la inteligencia artificial?

En el quinto, y último, programa sobre cine, Derecho e inteligencia artificial en Jelo en verano 2022 (puede escucharse aquí desde el minuto 14) hablamos de qué se puede hacer ante el auge de la inteligencia artificial (IA) y, a este respecto, el Parlamento Europeo ha sido claro: “los legisladores deben abordar los riesgos que plantea actualmente la toma de decisiones basada en la IA” y pide “un entorno normativo para la IA que proporcione una gobernanza eficaz y garantice la protección de los derechos fundamentales” (párrafo 16 de la Resolución sobre la inteligencia artificial en la era digital). Precisamente, se está en estos momentos, verano de 2022, en la fase final de aprobación de una “Ley europea de inteligencia artificial”: el Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial y se modifican determinados actos legislativos de la Unión, de 21 de abril de 2021). 

Por su parte, el Gobierno español ha promovido y aprobado, como parte de la Estrategia Nacional de Inteligencia Artificial, -medida 28-, la llamada Carta de derechos digitales, culminada el 14 de julio de 2021, aunque es un texto sin valor jurídico alguno y que, como se declara en las llamadas “Consideraciones previas”, “no trata de crear nuevos derechos fundamentales sino de perfilar los más relevantes en el entorno y los espacios digitales o describir derechos instrumentales o auxiliares de los primeros… La Carta no tiene carácter normativo, sino que su objetivo es reconocer los novísimos retos de aplicación e interpretación que la adaptación de los derechos al entorno digital plantea, así como sugerir principios y políticas referidas a ellos en el citado contexto. Con ello, también, proponer un marco de referencia para la acción de los poderes públicos de forma que, siendo compartida por todos, permita navegar en el entorno digital en que nos encontramos aprovechando y desarrollando todas sus potencialidades y oportunidades y conjurando sus riesgos. Y contribuir a los procesos de reflexión que se están produciendo a nivel europeo y, con ello, liderar un proceso imprescindible a nivel global para garantizar una digitalización humanista, que ponga a las personas en el centro”. 

A nuestro juicio, lo necesario es, precisamente, entre otras cosas, convertir en auténticas normas jurídicas mandatos y prohibiciones específicos que garanticen un acceso claro y manejable a los datos personales que se usan así como el derecho a compartirlos o transferirlos de manera sencilla; el establecimiento de mecanismos eficaces para combatir las discriminaciones y los sesgos, con especial atención a la protección de las personas y los grupos vulnerables; la regulación del uso de las tecnologías de IA por parte de las autoridades policiales y judiciales así como del registro y la vigilancia humana a través de sistemas de identificación biométrica remota; el régimen de responsabilidad y rendición de cuentas, los derechos de propiedad intelectual derivados del uso de tecnologías relativas a la IA y los derechos de los usuarios y consumidores; las obligaciones de los desarrolladores y desplegadores de la IA; el sistema de recursos frente a decisiones tomadas por sistemas de IA; el régimen de uso de las tecnologías de IA en el ámbito de la defensa y la seguridad; la regulación del empleo de la IA para los diferentes sistemas de transporte, en particular para la autorización de los vehículos autónomos; el establecimiento de una autoridad nacional de control… 

Sobre los riesgos de la IA avanzada encontramos un magnífico ejemplo cinematográfico en la clásica película 2001 Una odisea del espacio, dirigida por Stanley Kubrick y estrenada en 1968; en ella vamos el «comportamiento» de HAL 9000, cuyo nombre es un acrónimo en inglés de Heuristically Programmed Algorithmic Computer (Computador algorítmico programado heurísticamente), un superordenador ficticio que aparece en la serie Odisea espacial, iniciada con la novela 2001 A Space Odyssey escrita por Arthur C. Clarke en 1948. HAL es la computadora u ordenador de a bordo, encargada de controlar las funciones vitales de la nave espacial Discovery, cuya inteligencia artificial cambia drásticamente su comportamiento a lo largo de la película

Otro de los riesgos es que la IA beneficie a determinadas clases sociales o que incluya sesgos que discriminen en función de la raza, el sexo, la edad,… Sobre la primera forma de discriminación versa la película Elyseum, de 2013, dirigida por Neill Blomkamp y protagonizada por Matt Damon y Jodie Foster.

HAL900

Cine, Derecho e inteligencia artificial en Jelo en verano 2022 (4): inteligencia artificial policial y judicial.

En el cuarto programa sobre cine, Derecho e inteligencia artificial en Jelo en verano 2022 (puede escucharse aquí desde el minuto 11.20) hablamos de la inteligencia artificial (IA) predictiva recordando que en programa inicial aludimos al aprendizaje automático, que trata de encontrar patrones en datos y, a partir de ellos, construir sistemas predictivos o explicativos. Dicho aprendizaje puede considerarse una rama de la IA, ya que a partir de la experiencia (los datos) toma decisiones o detecta patrones significativos, y esto es una característica fundamental de la inteligencia humana.

Estas predicciones se aplican ya en múltiples campos pero uno de los más relevantes y controvertidos es el de la seguridad y el orden público: en Estados Unidos es cada vez más frecuente, como explica en su conocido libro (Armas de destrucción matemática) Cathy O’Neil, que los departamentos de policía acudan a programas predictivos (PredPol, CompStat …) para desplegar las patrullas en los cuadrantes de las ciudades identificados en cada momento como más peligrosos en función de la tipología y la localización de los delitos, así como del momento en el que se cometieron. 

Y es que, como señala el profesor Fernando Miró Llinares, “hoy, y en parte gracias a las expectativas que parece dar la IA, la sociedad no espera sólo que la policía reaccione a los accidentes de tráfico, a los hurtos en los lugares turísticos o a los altercados y agresiones violentas relacionadas con manifestaciones deportivas o políticas, sino que no sucedan, que se intervenga incluso antes de que acontezcan”. Así, el Sistema de Seguimiento Integral en los casos de Violencia de Género (VioGén) es el instrumento algorítmico que determina en España el nivel de riesgo de una víctima de violencia de género en orden al establecimiento de medidas de protección. 

El problema surge cuando estos sistemas se apoyan en datos que pueden reflejar, de manera intencionada o no, sesgos en función de cómo se registran los delitos, qué delitos se seleccionan para ser incluidos en el análisis o qué herramientas analíticas se utilizan. En particular, dichos programas permiten incorporar lo que no son delitos graves (homicidios, asaltos…) sino, más bien, alteraciones del orden público y la seguridad ciudadana (venta de drogas a pequeña escala, consumo de alcohol en la calle…) y eso acaba generando más atención policial a los barrios donde tales alteraciones se producen lo que, a su vez, se traduce en mayor número de identificaciones y detenciones, generando así una retroalimentación. Para tratar de evitar alguno de estos sesgos, un modelo creado recientemente por profesores de la Universidad de Chicago incorpora solo homicidios, agresiones, lesiones y robos, es decir, delitos graves y a partir de ellos se divide la ciudad objeto de estudio en mosaicos de algo más de 300 metros de lado para los que se predicen niveles delictivos. El modelo ha sido probado con datos de Chicago, Atlanta, Austin, Detroit, Los Ángeles, Filadelfia, Portland y San Francisco. 

Estos problemas se pueden presentar también en ámbitos donde opera el derecho administrativo sancionador (puede verse este estudio del profesor Gustavo Manuel Díaz González), como el tributario o el laboral. En relación con este último, y en palabras del profesor Adrián Todolí Signes, “si en el pasado [la inspección] se ha focalizado en un determinado tipo de empresas -donde lógicamente se habrán encontrado incumplimientos- y esos son los datos que se suministran a la herramienta, basándose en esos datos se considerará que estas empresas son las que deben ser inspeccionadas en el futuro. Esto, a su vez, implicará mayor número de fraudes encontrados en esas empresas, confirmando el sesgo y cerrando el círculo. Por esta razón, es tan importante que los datos suministrados sean completos, de calidad y sin sesgos manifiestos”. 

En segundo lugar, y muy relacionado con lo dicho, está el recurso a la IA en el ámbito de justicia -IA judicial- para, por ejemplo, apoyar la toma de decisiones sobre prisión provisional o libertad condicional. Así, se está utilizando desde 2009 en Cataluña, como parte del proceso de evaluación previo a la concesión de permisos carcelarios, el sistema RisCanvi, que calcula el riesgo de reincidencia de los presos. 

La cuestión esencial no es, por tanto, la presencia de la IA relacionada con el derecho fundamental a la tutela judicial efectiva sino en cómo está articulada dicha presencia y, en particular, en qué aspectos de los procesos penales cabe acudir a ella para que no resulten menoscabados derechos como el de defensa y el de presunción de inocencia. 

Lo decidido por el Tribunal Supremo de Wisconsin en el famoso caso State v. Loomis, de 10 de marzo de 2017, supone un buen motivo para la reflexión: Eric Loomis fue acusado de cinco delitos por su presunta intervención en un tiroteo efectuado desde un vehículo. El acusado negó su participación en el tiroteo y llegó a un acuerdo con la Fiscalía para aceptar dos cargos y rechazar el resto de acusaciones. El juez de instancia aceptó la conformidad y al concretar la pena tuvo en cuenta, entre otras cosas, el resultado de la evaluación de Loomis mediante COMPAS, una herramienta estructurada que valora el riesgo de reincidencia y las necesidades criminógenas del sujeto. 

Loomis recurrió ante el Tribunal Supremo de Wisconsin alegando que el uso de COMPAS para determinar la pena había vulnerado su derecho a un proceso con todas las garantías pero el Tribunal Supremo estatal concluyó que el hecho de no haber podido saber cómo funciona el algoritmo que calcula los niveles de riesgo, considerado por la empresa creadora como un secreto esencial para su negocio, no vulneró el derecho que tiene todo acusado a ser condenado sobre la base de información fiable y exacta porque Loomis sí tuvo acceso tanto a los resultados de riesgo que COMPAS le asignó como a la información con la que estos se calcularon, que consiste básicamente en datos objetivos sobre el historial criminal del acusado. En segundo lugar, para el Tribunal Supremo las valoraciones de riesgo aportan al juez información que, unida al resto de circunstancias concurrentes, contribuye a que la condena se ajuste lo más posible al caso concreto, lo que los jueces deben hacer cuando manejen estas herramientas es aplicar a sus resultados un margen de discrecionalidad, poniéndolos en el contexto del resto de circunstancias particulares propias del caso y del individuo concretos. 

Para un análisis crítico de esta resolución y, en general, de la incidencia de la IA en el sistema judicial pueden verse, entre otros, los excelentes trabajos de Lucía Martínez Garay, Jordi Nieva Fenoll, Íñigo de Miguel/Miren Josune Pérez Estrada y Fernando Miró Llinares.

En el ámbito cinematográfico es bien conocida la película Minority Report, dirigida por Steven Spielberg y estrenada en 2002, que está basada en el relato El informe de la minoría, escrito en 1956 por uno de los clásicos de la ciencia-ficción como fue Philip K. Dick. La película la protagonizan Tom Cruise, Colin Farrell, Samantha Morton y Max von Sydow y en ella no hay un sistema algorítmico predictivo sino que son unas personas las que tienen esas capacidades precognitivas.

minority report

Cine, Derecho e inteligencia artificial en Jelo en verano 2022 (3): la identidad humana frente a la inteligencia artificial.

En el tercer programa de cine y Derecho en Jelo en verano 2022 (puede escucharse aquí a partir del minuto 12.15) hablamos de lo que diferencia hoy a la inteligencia artificial más avanzada de la condición humana para reflexionar, entre otras cosas, sobre un eventual reconocimiento de personalidad jurídica a las máquinas y los robots en particular, algo sobre lo que se ha venido debatiendo en el ámbito académico pero también, por ejemplo, en el Parlamento Europeo. 

En el plano cinematográfico cabe mencionar la conocida película Inteligencia Artificial, del año 2001, dirigida por Steven Spielberg y que se inspiró, en parte, en el relato de ciencia ficción Los superjuguetes duran todo el verano, de Brian Aldiss. 

Pues bien, la existencia de empatía emocional se invoca como característica típicamente humana, vinculada a la compasión. Y emulando el famoso test de Turing nos encontramos, primero en la literatura y luego en el cine, con el test Voight-Kampff, también llamado test de empatía, un examen científico-psicológico ficticio que aparece en la novela de ciencia ficción ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick, así como en su adaptación cinematográfica Blade Runner, dirigida por Ridley Scott y estrenada en 1982, cuya acción transcurre en el año 2019, año en el que murió uno de los actores -Rutger Hauer- principales. Resulta que en ese futuro 2019 los androides también tienen compasión, como se muestra en esta famosa escena

Por cierto, el profesor Javier de Lucas escribió un estupendo libro sobre Blade Runner y el papel del Derecho como guardián del tiempo (de la memoria) y de la diferencia (de la identidad).

Blade runner 1

Cine, Derecho e inteligencia artificial en Jelo en verano 2022 (2): la robótica. 

En el segundo programa (puede escucharse aquí desde el minuto 11.30 hasta el 21) hablamos de la robótica y empezamos recordando que la palabra robot se popularizó a través de la obra Robots Universales Rossum, del dramaturgo checo Karel Čapek, de 1920, y que significa literalmente trabajo o labor y, figuradamente, «trabajo duro» en checo y muchas lenguas eslavas. 

La palabra robótica, usada para describir este campo de estudio, fue acuñada por Isaac Asimov, quien formuló una suerte de “leyes” bien conocidas: Las Tres Leyes de la Robótica, de 1942, son: 1.- Un robot no puede lesionar a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado. 2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley. 3.- Un robot debe proteger su propia existencia en la medida que esta protección no sea incompatible con la Primera o Segunda Ley. Estas tres leyes fueron ampliadas por Asimov en 1984 con una cuarta ley -la Ley Cero- considerada la Ley definitiva: “Un robot no puede dañar a la humanidad, o a través de su inacción, permitir que se dañe a la humanidad”. 

Hoy la palabra robot puede referirse tanto a mecanismos físicos como a sistemas virtuales de software, aunque suele aludirse a los segundos con el término de bots. En las redes sociales, los bots se utilizan para simular la interacción humana, hinchando artificialmente el número de visitas o seguidores, o automatizando respuestas para posicionar mensajes o influir en debates. Los denominados bots conversacionales son sistemas de inteligencia artificial que simulan una conversación con una persona utilizando el lenguaje natural. 

Y, entrando en materia de cine, derecho e inteligencia artificial (en este caso robótica), encontramos muchísima presencia de los robots, incluyendo, por ejemplo, dibujos animados como Doraemon.  En no pocos casos, y como ya dijimos en el primer programa, las películas están basadas en literatura de ciencia ficción, como, por ejemplo, en A. I. Inteligencia Artificial, del año 2001, escrita y dirigida por Steven Spielberg y que está basada en el relato de ciencia ficción Los superjuguetes duran todo el verano, de Brian Aldiss, e incorpora elementos de la obra italiana Las aventuras de Pinocho, mencionada en el primer programa. 

Una de las películas más conocidas a propósito de las leyes robóticas es Yo,  robot, de 2004, dirigida por Alex Proyas y protagonizada por Will Smith. Entre otras cosas, plantea si un robot puede “delinquir” y, en su caso, si es responsable o si lo sería su creador, una cuestión que está presente hoy en relación con muchos dispositivos que incorporan sistemas de inteligencia artificial, como, por ejemplo, los coches autónomos. 

Por cierto, I Robot es el segundo álbum de estudio del grupo inglés de rock The Alan Parsons Project

Pero si hay una saga cinematográfica de robots es éstay si se quiere leer una recopilación de definiciones de ciencia-ficción aquí hay un excelente hilo tuitero de Gisela Baños.

yo robot

Cine, Derecho e inteligencia artificial en Jelo en verano 2022 (1): presentación. 

En 2022 llegamos a la undécima edición de Cine y derecho en Jelo en verano, el programa de Onda Cero que dirige durante la última semana de julio y el mes de agosto Arturo Téllez, a quien agradezco, una vez más, su generosa invitación. 

Como comentamos en el primer programa (se puede escuchar entre los minutos 10 y 20), el tema central de los programas es este verano el cine, la inteligencia artificial (IA) en sentido amplio (incluyendo la robótica) y el Derecho. Es sabido que la trascendencia de la IA en nuestras vidas es mucha y lo será más en el futuro en cuestiones médicas, en las comunicaciones, la enseñanza, la economía… Hablaremos, pues, de qué es la IA, las ventajas que aporta, sus riesgos… y la necesidad de una regulación jurídica de su desarrollo y uso, algo que apenas existe en la actualidad.  

Quizá sea oportuno comenzar asumiendo que no está del todo claro de qué hablamos cuando hablamos de IA. En la corta historia de esta disciplina se han proporcionado distintas definiciones que aluden al desarrollo de sistemas que imitan o reproducen el pensamiento y el obrar humanos, actuando racionalmente –en el sentido de hacer lo “correcto” en función del conocimiento- e interactuando con el medio. Para ello, la IA utiliza todas las herramientas a su alcance, entre las que destacan las proporcionadas por la computación, incluidos los algoritmos. 

Pero aunque la IA emplea algoritmos no usa cualquier algoritmo -solo los que “aprenden” a base del procesamiento de datos-. Por otro lado, en ocasiones se habla de IA cuando en realidad estamos hablando de un subcampo, el aprendizaje automático, que trata de encontrar patrones en datos, a partir de los cuales puede construir sistemas predictivos o explicativos. Por tanto, puede considerarse una rama de la IA, ya que a partir de la experiencia (los datos) toma decisiones o detecta patrones significativos, y esto es una característica fundamental de la inteligencia humana.  

Las películas que comentamos han sido dirigidas por algunos de los más grandes de la historia del cine (Kubrick, Scott, Spielberg…) y muchas están basadas en clásicos de la ciencia ficción escritos por Arthur C. Clarke, Philip K. Dick o Isaac Asimov. Un excelente ejemplo es 2001: una odisea del espacio (1968), dirigida por Kubrick a partir de la novela A Space Odyssey, de Arthur C. Clarke, publicada en 1948.

Si ampliamos nuestro campo de interés, incluyendo la creación humana de vida artificial, podemos recordar dos películas también basadas en obras literarias: Pinocho (2019), dirigida por Matteo Garrone sobre las historias de Carlo Collodi, y Frankenstein (1994), dirigida por Kenneth Branagh y basada en la obra de Mary Shelley, considerada la primera obra de ciencia-ficción (continuará….)

odisea

Right to Vote. El derecho de voto.

Acaba de publicarse la voz sobre el derecho de voto –Right to Vote(puede descargarse en formato pdf) en la Max Planck Encyclopedia of Comparative Constitutional Law [MPECCoL], Oxford Constitutional Law.  

The voice Right to Vote has just been published (In order to access the article, please click on the title) in the Max Planck Encyclopedia of Comparative Constitutional Law [MPECCoL], Oxford Constitutional Law. 

Right to Vote

La libertad de expresión del disidente.

Acaba de publicarse el número 32 de la revista Teoría & Derecho. Revista de pensamiento jurídico, editada por Tirant lo Blanch, que incluye un monográfico que lleva por título ¿La libertad de expresión en retroceso? y que ha sido coordinado por el profesor Jacobo Dopico. En dicho número pude colaborar con el texto «La libertad de expresión del disidente y su articulación jurisprudencial en Estados Unidos y en Europa» (puede descargarse en formato pdf).

A continuación reproduzco la presentación con la que se inicia el artículo, no sin antes agradecer al coordinador del número su generosa invitación y a quienes gestionan la revista su buen hacer. 

En una sentencia clásica del Tribunal Supremo de Estados Unidos se afirmó con vigor «[…] el derecho […] a ser intelectualmente diferente o a discrepar, así como a no estar de acuerdo con lo que representa el orden establecido, […] incluyendo naturalmente las opiniones  provocadoras o despreciativas» (asunto Texas vs. Johnson, de 21 de junio de 1989). Pues bien, de eso es de lo que hablaremos en las siguientes páginas: de la libertad para exteriorizar opiniones e ideas que, citando otra sentencia no menos clásica, en este caso del Tribunal Europeo de Derechos Humanos, puedan ofender, molestar o inquietar a la mayoría social o desafiar a las instituciones más importantes del Estado (asunto Handyside c. Reino Unido, de 29 de abril de 1976). 

La amplia protección que actualmente recibe la expresión de la disidencia política, social o cultural tanto en Estados Unidos como en la mayoría de los países que forman parte del Convenio Europeo de Derechos Humanos es el fruto de un largo recorrido histórico que a ambos lados del Atlántico ha estado jalonado por avances normativos y, en buena medida, jurisprudenciales, pero que también ha experimentado no pocos retrocesos y que, desde luego, no puede considerarse totalmente consolidado, como hemos podido constatar en los últimos tiempos en España tras el dictado de algunas sentencias penales, avaladas por el Tribunal Constitucional, que han condenado a los acusados por haber realizado actos expresivos como quemar una foto del anterior Jefe del Estado o instar a los participantes de una protesta laboral realizada ante una instalación militar a quemar «a puta bandeira»

Lo que aquí tratamos de sostener es que la libertad de expresión es tanto más valiosa cuanto más eficaz sea para oponerse de manera pacífica al orden establecido, conclusión a la que llegó el Tribunal Supremo norteamericano no sin antes pasar por episodios oscuros como los que supusieron varios de sus pronunciamientos recaídos después de que el país entrara en la Primera Guerra Mundial o en los primeros años de la Guerra Fría. 

Por lo que respecta al Tribunal Europeo de Derechos Humanos, en los últimos años ha tenido que hacer frente a un número creciente de demandas contra países de mayor o menor tradición democrática (desde Francia a Turquía, pasando por España, Rusia —país que ha abandonado su jurisdicción en el momento de escribir estas páginas—, Ucrania, Bulgaria o Moldavia) que traen causa de las sanciones, mayoritariamente penales, pero también administrativas, impuestas a quienes, de manera satírica, cuando no provocadora y desafiante, pero también pacífica, han llevado a cabo actos de protesta contra los titulares de las más altas instituciones del Estado o ante monumentos y espacios públicos considerados de especial simbolismo político o vinculados —por motivos históricos, culturales o religiosos— a los sentimientos nacionales. 

En este sentido, no está de más recordar la llamada del juez Holmes, que también experimentó su propio proceso de aceptación de la expresión de la disidencia, a estar «siempre vigilantes» para poner freno a quienes pretendan controlar las manifestaciones de ideas u opiniones que detestemos o que consideremos peligrosas.

Libertad de expresión del disidente

  

El derecho de reunión en la jurisprudencia del Tribunal Europeo de Derechos Humanos, con especial atención al caso Comunidad Ginebrina de Acción Sindical (CGAS) contra Suiza, de 15 de marzo de 2022.

1.- La jurisprudencia del Tribunal Europeo de Derechos Humanos sobre el ejercicio del derecho de reunión. 

Es sabido que el derecho de reunión tiene una extraordinaria importancia en un Estado democrático y está estrechamente vinculado al ejercicio de la libertad de expresión; en este sentido, el Tribunal Euro­peo de Derechos Humanos (TEDH) tiene dicho que «la protección de las opiniones y la libertad de expresarlas es uno de los objetivos de las libertades de reunión y asociación recogidos en el artículo 11 (asunto Partido de Libertad y Democracia c. Turquía, de 8 de diciembre de 1991, § 37) y, al igual que aquéllas, «la libertad de reunión como la recoge el artículo 11 del Convenio, protege una manifestación que moleste u ofenda a las personas opuestas a las ideas o reivindicaciones que esté intentando conseguir» (asuntos Plataforma «Arzte für das Leben» c. Austria, de 21 de junio de 1988, § 32, y Stankov y United Macedonian Organisation Ilinden con­tra Bulgaria, de 2 de octubre de 2001, §§ 85 y 86). 

Las reuniones protegidas por el Convenio Europeo de Derechos Humanos (CEDH) se definen por un determinado objetivo común de las personas participantes (Navalnyy c. Rusia, sentencia de la Gran Sala de 15 de noviembre de 2018, § 110), que puede tener un carácter esencialmente político, social, cultural, religioso… Además, la libertad de reunión incluye el derecho a elegir la hora, la fecha, el lugar y la forma de reunión, dentro de los límites establecidos por el artículo 11.2 CEDH (asunto Sáska c. Hungría, de 27 de noviembre de 2012, § 21). Por este motivo, en los casos en que el lugar de una reunión es de importancia crucial para los participantes, la orden procedente de la autoridad pública dirigida a modificarlo puede constituir una injerencia en el ejercicio del derecho (caso Lashmankin y otros c. Rusia, de 7 de febrero de 2017, § 405), si bien el derecho no incluye de forma automática la facultad de ejercerlo en cualquier espacio de dominio público (Appleby y otros c. Reino Unido, de 6 de mayo de 2003, § 47), por lo que la prohibición de celebrar reuniones en determinados lugares y por motivos de seguridad no es incompatible con el artículo 11. 

El derecho a la libertad de reunión pacífica entraña obligaciones tanto negati­vas como positivas para los Estados parte en el CEDH (Öllinger c. Austria, de 29 de junio de 2006, § 35), que no solo deben abstenerse de imponer restricciones indebidas sino que también deben proteger ese derecho y es que, si bien el artículo 11 tiene por objeto esencialmente proteger a las personas contra la injerencia arbitraria de las autoridades públicas, también puede dar lugar a obligaciones posi­tivas para garantizar el goce efectivo de esos derechos frente a otros (Kudrevičius y otros c. Lituania, sentencia de la Gran Cámara de 15 de octubre de 2015, § 158; Djavit An c. Turquía, de 20 de febrero de 2003, § 57). Y esa obligación positiva de garantizar el disfrute efectivo de la libertad de reunión reviste especial importancia para las personas cuyas opiniones son impopulares o que pertenecen a minorías, ya que son más vulnerables a la intimidación (Bączkowski y otros c. Polonia, de 3 de mayo de 2007, § 64). Las autoridades internas tienen el deber de tomar las medidas necesarias para garantizar el buen desarrollo de cualquier manifestación legal y, al mismo tiempo, la seguridad de todos los ciudadanos, para lo que disponen de un amplio margen de discrecionalidad en la elección del método a utilizar. En particular, el TEDH ha subrayado la importancia de las medidas de seguridad preventivas, con el fin de garantizar el buen desarrollo de las manifestaciones, reuniones o encuentros, ya sean políticos, culturales o de otro tipo (Oya Ataman c. Turquía, de 5 de diciembre de 2006, § 39). 

Por lo que respecta a las medidas limitativas del derecho, deben responder a una «necesidad social apremiante» y ser proporcionadas al «objetivo legítimo», y las razones invocadas por las autoridades nacionales para justificarlas deben ser «pertinentes y suficientes». Además, hay que distinguir las restricciones al derecho de reunión basadas en el contenido de las que tiene una naturaleza técnica. En cuanto a las primeras, el artículo 11 garantiza una fuerte protección a las manifestaciones públicas que forman parte de la vida política nacional o local y hay pocas situaciones en las que se pueda prohibir legítimamente una reunión sobre la base de la sustancia del mensaje que los participantes se proponen transmitir: las autoridades no deben contar con la facultad de prohibir una manifestación basándose en considerar el «mensaje» de los manifestantes como erróneo o inadecuado, especialmente cuando es el facultado para limitar o prohibir la reunión pública en cuestión el que está principalmente en el punto de mira de los críticos. El TEDH somete las restricciones de la libertad de reunión basadas en el contenido al control más estricto (caso Navalnyy c. Rusia, ya citado § 134; Primov y otros c. Rusia, de 12 de junio de 2014, §§ 134-135). Y es que en una sociedad democrática basada en el estado de derecho, las ideas que desafían el orden establecido y cuya realización se defiende por medios pacíficos deben tener la oportunidad adecuada de expresarse mediante el ejercicio de la libertad de reunión y otros medios lícitos (Stankov y Organización Macedonia Unida Ilinden c. Bulgaria, de 2 de octubre de 2001, § 97; Sergei Kuznetsov c. Rusia, de 23 de octubre de 2008, § 45). 

Respecto a las segundas, una prohibición general de las manifestaciones solo puede justificarse si existe un riesgo real de que den lugar a disturbios que no puedan evitarse con otras medidas menos estrictas. Y el TEDH ha reiterado que la injerencia en el ejercicio de la libertad de reunión pacífica no tiene por qué equivaler a una prohibición absoluta, legal o de facto, sino que puede consistir en otras medidas diversas adoptadas por las autoridades (asunto Laguna Guzmán c. España, de 6 de octubre de 2020, § 40). 

2.- El caso Comunidad Ginebrina de Acción Sindical (CGAS) contra Suiza, de 15 de marzo de 2022. 

En este caso la entidad demandante denunció que se le había privado del derecho a organizar y participar en manifestaciones públicas como consecuencia de las medidas adoptadas, al amparo del estado de “situación extraordinaria”, por el Gobierno para luchar contra la epidemia de COVID-19, que, entre otras cosas, prohibieron los actos públicos a partir del 16 de marzo de 2020 previendo medidas sancionadoras en supuestos de incumplimiento. A resultas de esta medida, la CGAS retiró la convocatoria de una manifestación prevista para el 1 de mayo de ese año. Cabe añadir que desde el 30 de mayo de 2020 la prohibición afectó a las reuniones de más de 30 personas y que el 20 de junio la prohibición decayó y fue sustituida por la obligación de llevar mascarilla a las eventuales reuniones públicas. 

El TEDH reconoció, en primer lugar, la condición de víctima a la entidad demandante, pues se vio obligada a adaptar su conducta e, incluso, a desistir de promover una concentración tradicionalmente celebrada, como la del 1 de mayo, para evitar eventuales sanciones graves, incluso penales, a pesar de tratarse de actos públicos que encajaban perfectamente en su objetivo estatutario (§ 42). 

En segundo lugar, y entrando en el fondo del asunto, el Tribunal admite que se trató de una medida prevista en una norma y que perseguía el legítimo objeto de proteger la salud y los derechos y libertades de las personas. 

En tercer término, y apelando a su jurisprudencia en el ya citado asunto Kudrevičius y otros c. Lituania, de 2015, el Tribunal admitió (§ 81) que la amenaza para la salud pública era muy grave, que el conocimiento de las características y la peligrosidad del virus era muy limitado en la fase inicial de la pandemia y, por consiguiente, que los Estados tuvieron que reaccionar rápidamente durante el periodo considerado en el presente caso. También se tienen en cuenta los intereses en juego en el complejísimo contexto de la pandemia y, en particular, la obligación positiva impuesta a los Estados parte del CEDH de proteger la vida y la salud de las personas bajo su jurisdicción. 

No obstante, una medida como la adoptada requiere una sólida justificación y que su aplicación sea objeto de revisión por parte de los tribunales a efectos de valorar los intereses relevantes en juego y, de las conclusiones extraídas tras el examen de lo ocurrido, resulta que tal control no fue llevado a cabo por los tribunales nacionales y, en particular, no lo hizo el Tribunal Federal y ello a pesar de que la prohibición general de reunirse en espacios públicos se mantuvo durante un periodo de tiempo considerable (§ 85). 

En cuanto a las sanciones previstas para el caso de incumplimiento de la prohibición, el Tribunal recuerda que al tener carácter penal requerían una justificación especial y que una manifestación pacífica no debe, en principio, ser ser objeto de una pena de ese tipo y que se trataba de sanciones muy severas (de hasta 3 años de cárcel la más grave salvo que se cometiera una infracción más grave según el Código penal) con un potencial efecto disuasorio o de desaliento para los posibles participantes o grupos que desearan organizar este tipo de manifestaciones (§ 89). 

El TEDH concluyó recordando que Suiza no hizo uso del artículo 15 del CEDH, que permite a un Estado Parte suspender sus obligaciones en virtud de una  emergencia pública y, por tanto, subsistía el deber de respetar plenamente los requisitos del artículo 11 (§ 90) por lo que, por 4 votos frente a 3, estimó que se había vulnerado el Convenio (§ 92). 

3.- ¿Conclusiones? 

La importancia de esta sentencia radica en que es la primera en la que el TEDH enjuicia una medida estatal prohibitiva del ejercicio del derecho de reunión al amparo de las previsiones adoptadas para combatir la pandemia de COVID-19 y, por lo que ahora importa, concluye, a mi juicio de manera acertada, que se ha vulnerado una garantía procesal, al no haberse realizado un control jurisdiccional de la prohibición respecto de casos concretos, y, sobre todo, que se ha lesionado el propio derecho de reunión, por razón del carácter desproporcionado de la prohibición, a la que iban añadidas sanciones penales graves, lo que encaja en la doctrina general que el TEDH ha venido construyendo sobre el alcance del derecho y a la que nos referimos en el apartado 1 de este breve texto. 

Finalmente, y por lo que a España en particular se refiere, el asunto que nos ocupa puede tener especial relevancia en la medida en que está pendiente ante el propio TEDH el caso Central Unitaria de Traballadores/as c. España, que trae causa de la prohibición de “una manifestación rodada en coches particulares, en la ciudad de Vigo, el viernes día 1 de mayo de 2020, a las 11:00 horas, que tendría comienzo en la Plaza de España, en sustitución de la anteriormente convocada y comunicada a la Subdelegación del Gobierno el pasado 1 de abril….El motivo de la convocatoria es celebrar el día 1 de mayo, de la clase trabajadora…”, asunto del que nos ocupamos aquí, aquí, aquí y aquí

Texto publicado originalmente en el blog de la Revista catalana de dret públic el 15 de junio de 2022.

GENEVE

Foto: Le Parisien.

Breves consideraciones sobre la reforma de la Ley electoral para garantizar el ejercicio del voto de las personas españolas residentes en el extranjero

El Congreso de los Diputados aprobará el 9 de junio una reforma de la Ley Orgánica del Régimen Electoral General que tiene como objetivo garantizar el ejercicio efectivo del sufragio por quienes residan en el extranjero. En las siguientes líneas haré unas breves consideraciones sobre la necesidad de la reforma y las novedades que, de aprobarse finalmente en el Senado en los términos que saldrán del Congreso, supone esta modificación. 

Primera.- La reforma llevada a cabo por la L. O. 2/2011 para la extensión del voto rogado a los procesos electorales en los que pueden participar los españoles residentes de forma permanente en el extranjero respondió a la preocupación, fundada, de evitar prácticas fraudulentas relacionadas con la identidad de los electores. 

Segunda.- El Censo  Electoral de Residentes Ausentes (CERA) supone en la actualidad un número muy relevante y en crecimiento continuado de electores: 2.264.946 a 1 de abril de 2022, según el Instituto Nacional de Estadística. Estos electores están distribuidos de manera irregular en los diferentes lugares; así, si tenemos en cuenta algunos países europeos, en Alemania residen, en 2022, 138.289; en Francia 231.047, en Gran Bretaña 128.777, en Suiza 104.729 y en Bélgica 53.495; por su parte, en Portugal son 12.007, en Italia 21.013, en Países Bajos 25.424 y, por no citar más, en Andorra 24.128. En África destacan Marruecos con 5.776 residentes; Guinea Ecuatorial con 1.595 y Sudáfrica con 1.342. En América, por mencionar los países con mayor número de electores, tenemos 435.445 en Argentina, 153.778 en Estados Unidos, 153.029 en Cuba, 129.133 en México, 119.760 en Venezuela y 117.783 en Brasil. En Asia destacan Emiratos Árabes Unidos con 4.227, Israel con 4.497, China con 3.760, Filipinas con 3.615 y Japón con 2.344. En Australia el CERA lo componen 21.061 personas y en Nueva Zelanda 1.257.  

Tercera.- La reforma de 2011 permitió alejar muchas de las dudas o sombras sobre la “personalidad” del votante, evitando suplantaciones, pero no cabe decir, más bien al contrario, que haya introducido el principio de efectividad “para garantizar que sus votos se contabilicen en el escrutinio”, sino que cabe imputarle una bajada drástica en los datos de participación electoral: en las elecciones a las Cortes Generales de 10 de noviembre de 2019, según la información que facilita el Ministerio del Interior, el CERA lo formaban 2.130.754 personas, fueron aceptadas 226.050 solicitudes de voto y se computaron 145.908 sufragios (el 6,85%); en los comicios de abril de ese mismo año había en el CERA 2.099.463 y votaron 118.357 (5,64%). En las elecciones generales de junio de 2016 el censo CERA llegaba a 1.924.021 personas, se aceptaron 169.658 solicitudes de voto y se emitieron 121.277 (6,3%). El porcentaje más bajo de votantes tuvo lugar en las elecciones de 2011: con un censo CERA de 1.482.786 personas hubo 138.037 solitudes de voto y, finalmente, 73.361 votantes (4,95%). 

Por contraste, en las elecciones generales de marzo de 2008, anteriores a la reforma de 2011 y con un censo CERA de 1.205.329 personas, votaron 382.568 (31,74%) y en las de marzo de 2004, con un censo de 1.113.754 personas, hubo 304.685 sufragios (27,36%). 

Cuarta.- Urge, pues, una reforma del sistema vigente que, garantizando que vota quien tiene derecho a ello, asegure también que ese voto llegue a tiempo y se tenga en cuenta en el escrutinio correspondiente, algo que deriva de la Constitución, al menos para las elecciones al Congreso de los Diputados. 

Quinta.- Aunque pueden influir más motivos, las principales causas de la bajada de participación son el carácter rogado del voto y el escaso tiempo que ofrecen los vigentes plazos para que se pueda emitir y contabilizar el voto de quienes residen en el extranjero de manera permanente. 

Sexta.- La Proposición de Ley Orgánica de reforma de la LOREG para la regulación del ejercicio del voto por los españoles que viven en el extranjero, presentada por los Grupos Parlamentarios Socialista y Confederal de Unidas Podemos-En Comú Podem-Galicia en Común, contó, de entrada, con un respaldo parlamentario total: fue tomada en consideración el 23 de febrero de 2021 con el voto favorable de los 343 diputados presentes en el Congreso. 

Séptima.- La Proposición de Ley aspira a la supresión del voto rogado, la ampliación de los plazos para que llegue a los electores la documentación que debe acompañar al sufragio, la disponibilidad electrónica de las papeletas, el incremento del número de días para la entrega física de la documentación en las dependencias habilitadas para ello y la extensión del plazo para que los votos lleguen a España al prever que el escrutinio general se realice dos días más tarde de lo hasta ahora previsto. Las enmiendas presentadas inciden en estas pretensiones, mejorándolas. 

Octava.- Por lo que respecta a la identificación de quienes remiten el sufragio, algo que parece haber funcionado bien durante la vigencia del sistema de voto rogado, en la Proposición de Ley se mantienen las previsiones ahora existentes. 

Novena.- Las Embajadas, Oficinas y Secciones consulares están llamadas a jugar un papel muy relevante en cualquier configuración del voto CERA, tanto en lo que tiene que ver con el ejercicio efectivo del sufragio (recogida de votos presenciales, recepción de votos remitidos por correo y envío de todos ellos a nuestro país) como en las fases previas, facilitando a los electores información inmediata de la apertura de los procesos electorales, resolviendo las dudas que puedan surgir, contribuyendo a la verificación de los datos que constan en el censo electoral…

Décima.- La reforma no ha abordado otras cuestiones de extraordinaria importancia dentro de un sistema electoral como pueden ser la introducción de mecanismos que propicien una mayor correspondencia entre votos y escaños (aumentando el número total de escaños, reduciendo a 1 el mínimo asegurado a cada circunscripción, optando por una fórmula electoral que en circunscripciones pequeñas ofrezca más proporcionalidad…), la supresión de previsiones anacrónicas (como la prohibición de publicar encuestas en la fase final de la campaña o, a mi juicio, la existencia de una jornada de reflexión), la reducción de la edad electoral a los 16 años… En lo que respecta a la participación electoral de quienes viven en el extranjero sí me parece que la reforma aporta novedades que pueden contribuir a remediar una situación que resulta de todo punto inadmisible en términos democráticos.

voto CERA

 

 

Derechos fundamentales e inteligencia artificial en el Estado social, democrático y ¿digital? de Derecho////Fundamental rights and artificial intelligence in the social, democratic and digital? State under the rule of Law.

En los Estados sociales y democráticos de Derecho la llamada revolución digital aporta, en relación con los derechos fundamentales, una doble vertiente: por un lado, la interacción entre la computación, la electrónica, las telecomunicaciones, la matemática,  la ingeniería, la inteligencia artificial, la robótica y otras ciencias conexas, puede generar nuevas e importantes facultades que se interpreten como parte del objeto de los derechos fundamentales ya reconocidos y, en su caso, se plasmen en las leyes que los desarrollen o, incluso, puede dar lugar a la necesidad de promover cambios constitucionales que incorporen otros derechos, como ha empezado a ocurrir con los llamados “neuroderechos”, que ya han sido reconocidos en fechas recientes (25 de octubre de 2021) en la Constitución chilena, cuyo artículo 19.1 in fine dispone que “El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella. 

A este respecto, desde el Parlamento Europeo se “pide a la Comisión que estudie la posibilidad de presentar una iniciativa relativa a los neuroderechos, con el objetivo de proteger el cerebro humano contra la injerencia, la manipulación y el control por parte de la neurotecnología impulsada por la inteligencia artificial (IA) [y] anima a la Comisión a que defienda una agenda de neuroderechos a nivel de las Naciones Unidas con el fin de incluir estos derechos en la Declaración Universal de Derechos Humanos, concretamente en lo que respecta a los derechos a la identidad, al libre albedrío, a la privacidad mental, a la igualdad de acceso a los avances en materia de aumento del cerebro y a la protección frente al sesgo algorítmico” (Resolución sobre la inteligencia artificial en la era digital, párrafo 247). 

En el ámbito nacional, el Gobierno español ha promovido la elaboración de la llamada Carta de derechos digitales, de 14 de julio de 2021, pero se trata de un texto sin valor jurídico alguno y es que, como se declara en las llamadas “Consideraciones previas”, “no trata de crear nuevos derechos fundamentales sino de perfilar los más relevantes en el entorno y los espacios digitales o describir derechos instrumentales o auxiliares de los primeros… La Carta no tiene carácter normativo, sino que su objetivo es reconocer los novísimos retos de aplicación e interpretación que la adaptación de los derechos al entorno digital plantea, así como sugerir principios y políticas referidas a ellos en el citado contexto. Con ello, también, proponer un marco de referencia para la acción de los poderes públicos de forma que, siendo compartida por todos, permita navegar en el entorno digital en que nos encontramos aprovechando y desarrollando todas sus potencialidades y oportunidades y conjurando sus riesgos. Y contribuir a los procesos de reflexión que se están produciendo a nivel europeo y, con ello, liderar un proceso imprescindible a nivel global para garantizar una digitalización humanista, que ponga a las personas en el centro”. 

No obstante, lo que hace falta es convertir en auténticas normas jurídicas, y no en meras recomendaciones éticas, los mandatos y prohibiciones específicos en materia de transparencia de los algoritmos, que garanticen un acceso claro y manejable a los datos personales que se usan así como el derecho a compartirlos o transferirlos de manera sencilla; el establecimiento de mecanismos eficaces para combatir las discriminaciones y los sesgos, con especial atención a la protección de las personas y los grupos vulnerables; la regulación del uso de las tecnologías de inteligencia artificial por parte de las autoridades policiales y judiciales así como del registro y la vigilancia humana a través de sistemas de identificación biométrica remota; el régimen de responsabilidad y rendición de cuentas, los derechos de propiedad intelectual derivados del uso de tecnologías relativas a la IA y los derechos de los usuarios y consumidores, especialmente si se trata de dispositivos médicos vitales y avanzados; las obligaciones de los desarrolladores y desplegadores de la IA; el régimen de recursos frente a decisiones tomadas por sistemas de IA, robótica o tecnologías conexas; el régimen de uso de las tecnologías de IA en el ámbito de la defensa y la seguridad; la regulación del empleo de la IA para los diferentes sistemas de transporte, en particular para la autorización de los vehículos autónomos; el establecimiento de una autoridad nacional de control… 

A este respecto, y como muestra de una Carta con “valor jurídico”, cabe mencionar la aprobación, mediante la Lei n.º 27/2021 de 17 de mayo, de la Carta Portuguesa de Direitos Humanos na Era Digital, que incluye, además de la proyección de derechos clásicos, como las libertades de expresión, manifestación, asociación o participación, en el mundo digital, y de reconocer derechos recientes, como el derecho al olvido y la protección contra la geolocalización abusiva, el uso de la inteligencia artificial y los robots: “1. El uso de la inteligencia artificial se guiará por el respeto a los derechos fundamentales, garantizando un justo equilibrio entre los principios de explicabilidad, seguridad, transparencia y responsabilidad, teniendo en cuenta las circunstancias de cada caso concreto y estableciendo procesos para evitar prejuicios y discriminaciones. 2 – Las decisiones tomadas mediante algoritmos que tengan un impacto significativo en los destinatarios deberán ser comunicadas a los interesados, ser susceptibles de recurso y ser auditables en los términos previstos por la ley. 3 – Los principios de beneficencia, no maleficencia, respeto a la autonomía humana y justicia, así como los principios y valores consagrados en el artículo 2 del Tratado de la Unión Europea, a saber, la no discriminación y la tolerancia, se aplicarán a la creación y utilización de robots” (artículo 9). 

En todo caso, las regulaciones nacionales de nuestro entorno geográfico y político tendrían que insertarse en un auténtico marco jurídico europeo, que vaya más allá de las recomendaciones y las indicaciones de tipo ético, no en vano en este ámbito juega un papel especialmente relevante el principio de precaución, que guía la legislación de la Unión Europea y debe ocupar un lugar central en cualquier marco regulador para la inteligencia artificial, aunque hay quien defiende que en este ámbito -y en otros de similar complejidad como la investigación embrionaria humana- debe postularse la superación de la distinción entre Derecho duro vinculante y Derecho blando no vinculante (hard y soft law) como la mejor opción para una eventual regulación internacional de IA. 

Además de la vertiente acabada de comentar, la informática, la IA y la robótica y las tecnologías digitales conexas permean tres principios estructurales del Estado y los derechos fundamentales que están relacionados con ellos: su carácter de Estado de Derecho, su condición de Estado democrático y la garantía del Estado social. 

En lo que al Estado de Derecho se refiere, el uso de esas ciencias debe, primero, someterse al principio de legalidad, tanto en el sentido amplio de este término, entendido como principio de juridicidad o sumisión a normas jurídicas, como en el sentido más preciso de regulación por leyes. Aquí nos encontramos con diferentes retos, aunque el principal sería, hay que insistir en ello, el de sujetar a disposiciones jurídicas y no meramente a dictados éticos el desarrollo, el despliegue y el uso de la informática, la IA, la robótica y las tecnologías conexas. Al respecto el Parlamento Europeo ha sido claro: “los legisladores deben abordar los riesgos que plantea actualmente la toma de decisiones basada en la IA” y pide “un entorno normativo para la IA que proporcione una gobernanza eficaz y garantice la protección de los derechos fundamentales”. Ahora bien,la IA no siempre debe estar regulada en tanto que tecnología, sino que el nivel de la intervención reguladora debe ser proporcional al tipo de riesgo individual o social que entraña el uso de un sistema de IA; subraya, a este respecto, la importancia de distinguir entre casos de uso de la IA de «alto riesgo» y de «bajo riesgo»; concluye que la primera categoría requiere más salvaguardias legislativas estrictas, mientras que la segunda, en muchos casos requerirá requisitos de transparencia para los usuarios finales y los consumidores” (párrafos 16, 298 y 133 de la Resolución sobre la inteligencia artificial en la era digital). 

En segundo lugar, sigue vigente el reto de sujetar a control jurisdiccional la actuación administrativa que se sirva de la informática, la IA, la robótica y las tecnologías conexas y, a este respecto, lo que pretende llevar a cabo la Agencia Tributaria española podría ser un buen ejemplo pues, según su plan estratégico 2020-2023, “aprovechará el potencial que ofrece la tecnología para culminar el proceso de automatización en la tramitación de procedimientos iniciado hace años. De esta forma se liberarán recursos humanos para las actividades de mayor valor añadido, se garantizará un tratamiento uniforme a los contribuyentes, se podrá facilitar el cumplimiento de sus obligaciones y contribuir a erradicar el fraude fiscal. Para ello serán claves tecnologías como el tratamiento del lenguaje natural, el tratamiento avanzado de datos y la inteligencia artificial”. 

A esa posibilidad de control jurisdiccional también deben estar sometidas las decisiones de las autoridades administrativas independientes que, a su vez y de acuerdo con las propuestas de las instituciones europeas, actúen como autoridades nacionales de control sobre la aplicación de la IA. 

En tercer término, es inherente al Estado de Derecho la garantía de una serie de derechos, inicialmente de índole “civil” y ahora también de carácter democrático y social, y, como hemos visto con más detalle en páginas anteriores, poca duda cabe sobre la necesidad de asegurar el disfrute de tales derechos en un contexto dominado por las tecnologías citadas. 

Por lo que hace relación con el Estado democrático, es sabido que son consustanciales al mismo el reconocimiento del pluralismo de los grupos y las asociaciones, el respeto a las minorías y la participación ciudadana en las diferentes funciones del Estado (legislativa, ejecutiva, jurisdiccional), participación que es al tiempo un derecho y un mandato de actuación para los poderes públicos, como se evidencia, por ejemplo, en el artículo 9.2 de la Constitución española, en la línea, a su vez, del artículo 3.2 de la Constitución italiana

Pues bien, en materia de Estado democrático la informática, la IA, la robótica y las tecnologías conexas deben no solo respetar sino también contribuir al fomento del pluralismo político y social facilitando la participación en los procesos electorales, en las campañas virtuales y en el activismo en línea, así como el diálogo y el debate entre la ciudadanía y sus representantes y gobiernos. Igualmente, deben adoptarse medidas que garanticen un mínimo de igualdad de los procesos electorales, la transparencia de las campañas, el gasto, los mensajes y los algoritmos utilizados en la publicidad digital en aras a alcanzar procesos de decisión política lo más justos, limpios y transparentes que se pueda. 

Finalmente, y a propósito del carácter social del Estado, la dimensión prestacional que lo caracteriza, así como la búsqueda de la mayor igualdad real posible, deben, por una parte, evitar que en la era digital se consoliden sesgos que pueden tener efectos mucho más amplios y afectar y discriminar a numerosas personas sin que existan mecanismos de cierta salvaguardia como los de control social que rigen el comportamiento humano. 

Y en lo que respecta al propio acceso de la ciudadanía al mundo digital, su efectividad dependerá de las actuaciones formativas y de las dotaciones económicas que aporten los poderes públicos y, en tal sentido, cabría interpretar que tienen un claro contenido prestacional. En esta línea, la Resolución del Parlamento Europeo de 3 de mayo de 2022 “pide a los Estados miembros que hagan de las capacidades y la alfabetización digitales un componente de la educación básica y el aprendizaje permanente; pide un sistema educativo en materia de IA de alto rendimiento que fomente la alfabetización, las capacidades y la resiliencia digitales desde una edad temprana, comenzando en la educación primaria; hace hincapié en que el desarrollo de planes de estudios eficaces para la educación digital requiere voluntad política, recursos suficientes e investigación científica; pide a la Comisión que promueva la introducción de cursos de competencias computacionales y de IA en todas las escuelas, universidades e instituciones educativas europeas; recalca que dicho desarrollo de capacidades es necesario en la misma medida en la educación de adultos que en la educación primaria y secundaria; solicita una iniciativa política global y coherente de la Comisión y de los Estados miembros sobre las capacidades y la educación en materia de IA a escala de la Unión, así como una iniciativa legislativa sobre la IA en el lugar de trabajo” (párrafo 205). 

Además, la dimensión social de los derechos, unida al principio democrático, da una nueva perspectiva a la eficacia de éstos, que no sólo ha de ser vertical (frente a los poderes públicos), sino, al menos en algunos casos, también horizontal (entre individuos, dentro de la sociedad) y ahí deben tenerse también en cuenta la informática, la IA, la robótica y las tecnologías conexas y su incidencia, entre otros ámbitos, en las relaciones laborales y en el ámbito del Derecho del consumo. 

*********************************************************************************************************

The so-called digital revolution adds, in social and democratic States under the rule of Law, a double perspective regarding fundamental rights. On the one hand, the interaction between computing, electronics, telecommunications, mathematics, engineering, artificial intelligence (AI), robotics and other related sciences can create new and important powers for people which can be part of the object of the fundamental rights already recognized. These new powers can be reflected in the laws that develop them or even may give rise to the need to promote constitutional changes to include some new rights, as it has been the case of the ‘neurorights’, recently enshrined (October 25, 2021) in the Chilean Constitution. Its article 19.1 in fine provides that ‘scientific and technological development will be at the service of the people and will be carried out with respect for life and physical and mental integrity. The law will regulate the requirements, conditions and restrictions for its use in people, and must especially protect brain activity, as well as the information from it’. In this regard, the European Parliament ‘calls on the Commission to consider an initiative on neurorights with the aim to guard the human brain against interference, manipulation and control by AI-powered neurotechnology; encourages the Commission to champion a neurorights agenda at the UN level in order to include neurorights in the Universal Declaration of Human Rights, concretely as regards the rights to identity, free will, mental privacy, equal access to brain augmentation advances and protection from algorithmic bias’ (Resolution on Artificial Intelligence in the Digital Age,  paragraph 247). 

At the national level, the Spanish Government has promoted the elaboration of the Charter of Digital Rights, July 14, 2021. However, it is a document without any legal value. As stated in the ‘Previous Considerations’, the Charter ‘does not try to create new fundamental rights but to outline the most relevant ones in the digital environment or describe instrumental or auxiliary rights of the former. The Charter is not normative, but its objective is to recognize the very new challenges of application and interpretation that the adaptation of rights to the digital environment poses, as well as to suggest principles and policies related to them in the aforementioned context. Thus, it also proposes a reference framework for the action of the public authorities so that, shared by all, allows us to navigate in the digital environment in which we find ourselves taking advantage of and developing all its potentialities and opportunities and conjuring up its risks. And contribute to the processes of reflection that are taking place at European level and, with it, lead an essential process at a global level to guarantee a humanistic digitalization, which puts people at the center’. 

Nevertheless, specific mandates and prohibitions on the transparency of algorithms must be turned into genuine legal rules rather than into mere ethical recommendations. This is the only way to guarantee clear and manageable access to the personal data as well as the right to share or transfer them in a simple manner; the establishment of effective mechanisms to combat discrimination and bias, with particular attention to the protection of vulnerable individuals and groups; the regulation of the use of AI by the police and judicial authorities as well as human seizures and surveillance through remote biometric identification systems; the liability and accountability legal regime; the intellectual property rights arising from the use of AI-related technologies and the rights of users and consumers, especially in the case of vital and advanced medical devices; the obligations of AI developers and deployers; the ways to appeal decisions made by AI systems, robotics or related technologies; the legal regime of AI in the field of defence and security; the regulation of the use of AI for different transport systems, in particular for the authorization of autonomous vehicles; the establishment of a national supervisory authority… 

In this regard, and as an example of a Charter with ‘legal force’, it is worth mentioning the approval, through Law No. 27/2021 of May 17, of the Portuguese Charter of Human Rights on the Digital Age. It includes, along with the classic rights such as the freedoms of expression, demonstration, association or participation in the digital world, another more recent rights, such as the right to be forgotten and the protection against abusive geolocation, the use of artificial intelligence and robots: ‘1. The use of artificial intelligence will be guided by respect for fundamental rights, guaranteeing a fair balance between the principles of explainability, security, transparency and responsibility, taking into account the circumstances of each specific case and establishing processes to avoid prejudice and discrimination. 2 – Decisions taken by means of algorithms that have a significant impact on the recipients must be communicated to the interested parties, be subject to appeal and be auditable in the terms provided by law. 3 – The principles of beneficence, non-maleficence, respect for human autonomy and justice, as well as the principles and values enshrined in Article 2 of the Treaty on European Union, namely non-discrimination and tolerance, shall apply to the creation and use of robots’ (Article 9). 

In any case, the national regulations of our geographical and political environment should be inserted in a genuine European legal framework which goes beyond ethical recommendations and indications. In fact, the precautionary principle which guides the legislation of the European Union and must be central in any regulatory framework of artificial intelligence, plays a relevant role in this field. However, some argue that, in this area – and in others of similar complexity such as human embryonic research – the international regulation of AI should go beyond the traditional distinction between (binding) hard law and (non-binding) soft law. 

In addition, computer science, AI and robotics and related digital technologies permeate three structural principles of the State and the fundamental rights related to them: the rule of law, the democratic and the social State. As far as the rule of law is concerned, the use of those sciences must be, in first place, subject to the principle of legality, both in the broad sense of that term (submission to legal norms) and in the more precise one (regulation by laws). Here we face different challenges, although the main one would be -we must say it again-, subjecting to legal provisions, and not merely to ethical recommendations, the development, deployment and use of computing, AI, robotics and related technologies. In this regard, the European Parliament has been clear: ‘the risks currently posed by AI-based decision-making need to be addressed by the legislators’ and ‘calls for a regulatory environment for AI that provides effective governance and protection of fundamental rights’. However, ‘it is not always AI as a technology that should be regulated, but that the level of regulatory intervention should be proportionate to the type of individual and/or societal risk incurred by the use of an AI system; underlines, in this regard, the importance of distinguishing between ‘high-risk’ and ‘low-risk’ AI use cases; concludes that the former category needs strict additional legislative safeguards while ‘low-risk’ use cases may, in many cases, require transparency requirements for end users and consumers’ (Resolution on Artificial Intelligence in the Digital Age,  paragraphs 16, 298 y 133). 

Secondly, the judicial review of the administrative activity using information technology, AI, robotics and related technologies is a challenge that remains ongoing. What the Spanish Tax Agency intends to carry out could be a good example of it. According to its strategic plan 2020-2023, ‘it will take advantage of the potential offered by technology to complete the automation process in the processing of procedures initiated years ago. In this way, human resources will be freed up for the activities with the highest added value, a uniform treatment of taxpayers will be guaranteed, compliance with their obligations can be facilitated and contribute to eradicating tax fraud. For this, technologies such as natural language processing, advanced data processing and artificial intelligence will be key.’ Decisions of independent administrative authorities -who should act as national supervisory authorities on the application of AI, according with the proposals of the European institutions- should also be subject to judicial review. 

Thirdly, it is inherent to the rule of law the guarantee of some rights, initially of a «civil» nature but now also of a democratic and social nature. As we have seen in more detail in previous pages, there is little doubt about the need to ensure the enjoyment of such rights in a context dominated by the aforementioned technologies. 

Concerning the democratic State, the pluralism of groups and associations, the respect for minorities and citizen participation in the different functions of the State (legislative, executive, jurisdictional) -participation that is both a right and a mandate of action for the public authorities as evidenced, for example, in Article 9.2 of the Spanish Constitution, in line with Article 3.2 of the Italian Constitution– are intrinsic to it. This being so, information technology, AI, robotics and related technologies must not only respect but also contribute to the promotion of political and social pluralism by facilitating participation in electoral processes, virtual campaigns and online activism, as well as dialogue and debate between citizens and their representatives and governments. Likewise, measures must be adopted to guarantee a minimum of equality in electoral processes, transparency of campaigns, expenditure, messages and algorithms used in digital advertising in order to make political decision-making processes as fair and transparent as possible. 

Finally, and concerning the social character of the State, the interventionist nature that characterizes it, as well as the search for the greatest possible real equality, must prevent the consolidation of biases. These can have broad effects and affect and discriminate many people without there being safeguard mechanisms such as those of social control that rule human behavior. 

With regard to citizens’ access to the digital world, its effectiveness will depend on the training actions and economic endowments provided by the public authorities. Thus, this kind of rights could be conceptualized somehow as social rights since they demand performance from the State. In this line, the European Parliament resolution of 3 May 2022 ‘calls on the Member States to make digital skills and literacy a component of basic education and lifelong learning; calls for a high-performing AI education system that fosters digital literacy, skills and digital resilience from an early stage, starting with primary education; emphasizes that the development of effective curricula for digital education requires political will, sufficient resources and scientific research; calls on the Commission to promote the introduction of AI and computational competence courses in all European schools, universities and educational institutions; highlights that such skills development is needed in adult education as much as in primary or secondary education; calls for a comprehensive and consistent policy initiative from the Commission and the Member States on AI skills and education at EU level, as well as for a legislative initiative on AI in the workplace’ (paragraph 205). 

In addition, the social dimension of rights, together with the democratic principle, gives a new perspective to the effectiveness of these rights. It should not only be vertical (against to public authorities) but, at least in some cases, also horizontal (among individuals, within society). There must also be taken into account information technology, AI, robotics and related technologies and their impact, inter alia, on industrial relations and consumer law. 

Pd. The English version was published first in The Digital Constitutionalism. My thanks go to Natalia Menéndez González and Patricia García Majado.

Artificial-Intelligence

Imagen tomada de aquí.