Sobre la constitucionalidad del ejercicio del derecho de voto a los 16 años.

Como es sabido, el Ministerio de Juventud e Infancia ha anunciado la intención de promover una reforma para fijar la edad electoral en los 16 años. El debate jurídico-constitucional, aunque también político, sociológico y educativo, sobre la edad mínima para el ejercicio del sufragio activo y, en general, sobre los derechos políticos de las personas menores de edad no es, ni mucho menos, reciente y si acudimos a la Historia constitucional española vemos que hubo diferentes puntos de vista cuando, en los albores del siglo XIX, se fijó la mayoría de edad para votar en 25 años y cuando posteriores reformas rebajaron esa edad, primero, a los 23 años; más tarde a los 21 y luego a los 18 años. 

Como también es conocido, existen regulaciones específicas que permiten el ejercicio de derechos a una edad inferior a los 18 años; así, cabe contraer matrimonio por los menores de edad que estén emancipados, algo que puede realizarse desde los 16 años (arts. 46.1 y 239 y ss. del Código Civil, CC); se puede disponer, por vía de testamento, de lo que sucederá con los bienes propios después de la muerte a partir de los 14 (art. 663.1 CC); es legal celebrar un contrato de trabajo desde los 16 años, aunque con limitaciones horarias y para determinadas actividades (art. 7 del Estatuto de los Trabajadores), y, en consecuencia, se pueden ejercer los derechos fundamentales vinculados a las relaciones laborales como el de huelga y el de libertad sindical; las personas emancipadas o mayores de 16 años deciden, con limitaciones, sobre su consentimiento en cuestiones que afecten a su salud (art. 9 de la Ley 41/2002, de 14 de noviembre, básica reguladora de la autonomía del paciente y de derechos y obligaciones en materia de información y documentación clínica) y «las mujeres podrán interrumpir voluntariamente su embarazo a partir de los 16 años, sin necesidad del consentimiento de sus representantes legales» (art. 13 bis de la Ley Orgánica 2/2010, de 3 de marzo, de salud sexual y reproductiva y de la interrupción voluntaria del embarazo). Y, en el ámbito penal, la responsabilidad empieza a los 14 años, por más que se aplique la Ley Orgánica 5/2000, de 12 de enero, reguladora de la responsabilidad penal de los menores. Por supuesto, las personas menores de edad pueden ejercer derechos fundamentales como las libertades ideológica y religiosa; la intimidad personal; las libertades de expresión, de reunión, de asociación… 

No es la primera vez que se plantea una iniciativa de este tipo y en los anteriores debates sobre la toma en consideración de las proposiciones de ley se emplearon diferentes argumentos, especialmente de orden político y sociológico más que jurídico, y no pocos de ellos bastante alejados del asunto que se debatía. En pocas líneas me centraré en los que cuestionaron no la oportunidad de la iniciativa sino su encaje jurídico y, de modo particular, su constitucionalidad. 

A este respecto, las intervenciones parlamentarias de diputados del Grupo Nacionalista Vasco han mantenido argumentos casi idénticos desde el año 2016; así, en el debate sobre la toma en consideración de la Proposición de Ley que tuvo lugar el 22 de noviembre de ese año el señor Legarda Uriarte insistió en que «de la combinación de los arts. 68.5, 23 y 12 se puede colegir que hay un blindaje para el ejercicio de los derechos políticos a los 18 años en la Constitución o, al menos, es una cuestión que no es irrelevante y que está regulada de una manera aparentemente contundente. Por eso manifestaba hace ya un tiempo que se requeriría un estudio sosegado y doctrinalmente sustentado para flexibilizar la edad en la que se adquiere la ciudadanía política”. 

Por su parte, quienes hablaron en nombre del Grupo Parlamentario Popular, como la diputada Pilar Cortés en abril de 2016 o el diputado Bermúdez de Castro el 27 de septiembre de 2022, argumentaron que «no se pueden separar el ejercicio del derecho de sufragio de la mayoría de edad porque, de hacerlo, y por el efecto arrastre y por el efecto distorsionador que una medida de esa naturaleza tendría en todo nuestro ordenamiento jurídico, podríamos terminar desvirtuando o desnaturalizando el contenido de la institución de la mayoría de edad hasta hacerla irreconocible o vacía de contenido, y eso es de dudosa constitucionalidad». 

En mi opinión, no hay un límite constitucional que impida una hipotética reforma de la Ley Electoral para fijar la edad del sufragio activo en los 16 años y al respecto comparto lo dicho por el diputado del Grupo Parlamentario Socialista Gregorio Cámara Villar en el debate sobre la toma en consideración celebrado el 22 de noviembre de 2016: «¿Requeriría esta reforma, como algunos sostienen, la previa reforma del art. 12 de la Constitución? Entiendo que no. Lo que este artículo regula es la institución de la mayoría de edad a los 18 años referida a la capacidad de obrar desde un punto de vista general y de culminación gradual, pero permitiendo siempre regulaciones específicas y no siendo una frontera para la titularidad y el ejercicio de los derechos fundamentales, derechos que se tienen ya en la minoría de edad de manera parcial o total, dependiendo de los casos». 

Por mi parte, considero que no cabe deducir del artículo 12 de la Constitución, que establece la citada mayoría de edad general, una regla normativa impeditiva del sufragio activo a los 16 o 17 años. Es obvio que para el ejercicio de los derechos fundamentales se requiere una determinada capacidad, que de faltar ha de ser tenida en cuenta a la hora de delimitar dicho ejercicio pero ha de ser el legislador, en este caso el electoral, el que justifique de manera adecuada la conformidad constitucional de estas delimitaciones, lo que resulta coherente con la consideración de la minoría de edad como un proceso durante el cual la psicología de la persona se va formando y, con ello, su capacidad de autodeterminación. 

En esta línea tampoco cabe reprochar, como se hizo en algunos de los debates parlamentarios, que la reducción de la edad no se extienda al sufragio pasivo porque no necesariamente hay que requerir lo mismo para uno y otro derecho y nos parece que mientras la mayoría de edad general se mantenga a los 18 años es razonable que el desempeño de los cargos representativos se condicione, entre otros requisitos, al cumplimiento de esa edad. 

Por lo que respecta al contenido concreto de la posible reforma podría articularse de la siguiente manera: 

Uno. Se modifica el apartado 1 del art. 2 de la Ley Orgánica  5/1985, de 19 de junio, del Régimen Electoral General, quedando redactado así: «1. El derecho de sufragio corresponde a los españoles mayores de dieciséis años que no estén comprendidos en ninguno de los supuestos previstos en el artículo siguiente». 

Dos. Se modifica el apartado 3 del art. 35 de la Ley Orgánica 5/1985…: «3. En la actualización correspondiente al primer mes del año se acompañarán, además, las altas, con la calificación de menor, de los residentes que cumplirán dieciséis años entre el 1 de enero y el 31 de diciembre del año siguiente». 

Tres. Se modifica el apartado 2 del art. 85 de la Ley Orgánica 5/1985… quedando redactado de la siguiente manera: «2. Los ejemplares certificados de las listas del censo a los que se refiere el párrafo anterior contendrán exclusivamente los ciudadanos mayores de dieciséis años en la fecha de la votación». 

Pd. publicitaria: en breve se publicará en la editorial Marcial Pons el libro con numerosas propuestas de modernización de la LOREG, que he coordinado con el profesor Carlos Fernández Esquer, y en el que se incluye, además de un capítulo de mi autoría sobre la reducción de la edad para votar, otros 10 capítulos con un balance de 40 años de LOREG (Ricardo Chueca), cambios en las causas de inelegibilidad e incompatibilidad (José Luis Mateos), reformas pendientes en la Administración electoral (Carlos Vidal Prado), la regulación de una eventual anulación de una convocatoria electoral (Enrique Cebrián), la de las campañas electorales en el entorno digital (Óscar Sánchez Muñoz), la protección de datos personales en los procesos electorales (Mónica Arenas), los medios de comunicación en las campañas electorales (Vicente Navarro), una propuesta de actualización de la normativa sobre estudios electorales (Javier Sierra), otra sobre la proporcionalidad del sistema (María Garrote), cambios en las elecciones al Parlamento Europeo (Carlos Fernández Esquer) y propuestas sobre los delitos e infracciones electorales (Ignacio Benítez), junto con un anexo normativo de 26 páginas. 

Pd. de la pd. En esta entrada anterior (de 2019) se añaden algunos elementos adicionales al debate

Pd. de la pd. de la pd. A mi juicio, sería imprescindible abordar también la extensión del derecho de sufragio a las personas extranjeras residentes, algo que sí exigiría una reforma constitucional; aquí hay una entrada de 2008 y aquí otra de 2019.

Algunas consideraciones jurídicas sobre la protección de los derechos al honor, a la intimidad personal y familiar y a la propia imagen de personas asesinadas y de sus familiares (al hilo, aunque no exclusivamente, de la posible publicación del libro El odio).

Una conocida editorial tenía prevista para el día 26 de marzo la publicación del libro El odio, donde, se ha informado, “el escritor Luisgé Martín traza un perfil de José Bretón”, que está cumpliendo condena por el asesinato de sus dos hijos en el año 2011. La madre de los niños y, más tarde, la Fiscalía de Menores solicitaron la suspensión de la publicación invocando, en el caso de la madre, la protección del derecho a la intimidad y la propia imagen de los niños asesinados y, por parte de la Fiscalía, el derecho al honor, a la intimidad y a la propia imagen. 

Dado que no se conoce -al menos yo no lo conozco- lo que se dice en el libro, no cabe -al menos a mí- dar una opinión jurídica sobre estos hechos; sí cabe realizar una serie de consideraciones generales sobre algunos de los aspectos que, por lo que se sabe, están presentes en este caso. 

Primera.- Quien está cumpliendo una condena de prisión, por muy grave que sea el hecho cometido, no tiene limitados más derechos que los inherentes a la propia condena y a su cumplimiento, por lo que sigue teniendo, entre otros, el derecho a la libertad de expresión. Como es obvio, dicho derecho, igual que sucede respecto de quien no está en prisión, no es absoluto y tiene, como prescribe el artículo 20.1 de la Constitución, sus límites en el respeto a los derechos reconocidos en ese mismo Título, en los preceptos de las leyes que los desarrollen y, especialmente, en el derecho al honor, a la intimidad, a la propia imagen y a la protección de la juventud y de la infancia.´

Segunda.- El autor del libro y la editorial han invocado el derecho “a la producción y creación literaria, artística, científica y técnica”, también reconocido en el artículo 20 y con los mismos límites que la libertad de expresión. 

Tercera.- En el caso de personas fallecidas -asesinadas en este caso- la protección de su dignidad, presente en todos los derechos fundamentales, no desaparece, pero no cuenta, en palabras del Tribunal Constitucional, con una protección de la misma intensidad que la de las personas vivas (STC 43/2004) y su reputación, es decir, su honor, se vincula, sobre todo, a la memoria o el recuerdo que tengan sus familiares y allegados (STC 51/2008). 

Cuarta.- La Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen prevé que, “aunque la muerte del sujeto de derecho extingue los derechos de la personalidad la memoria de aquél constituye una prolongación de esta última que debe también ser tutelada por el Derecho, por ello, se atribuye la protección en el caso de que la lesión se hubiera producido después del fallecimiento de una persona a quien ésta hubiera designado en su testamento, en defecto de ella a los parientes supervivientes, y en último término, al Ministerio Fiscal con una limitación temporal que se ha estimado prudente” (80 años). En consecuencia, tanto la madre como la Fiscalía, de oficio o a instancia de la persona interesada, pueden ejercer acciones en defensa de los derechos de los menores asesinados. La madre, además, tiene la condición de víctima a los efectos de la Ley 4/2015, de 27 de abril, del Estatuto de la víctima del delito

Quinta.- Si lo que se expresa se entiende que constituye un insulto a las personas fallecidas, asesinadas o no, supone una lesión de su honor y se ha reconocido jurisprudencialmente tal vulneración y la legitimación de familiares para demandar al ofensor (recuérdese el caso del torero muerto por una cornada y al que una persona calificó como “asesino”, STC  93/2021). En el caso que nos ocupa desconozco en qué términos se habla de los niños asesinados. 

Sexta.- En todo caso, constituye lesión de los derechos, conforme al artículo 7.8 de la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, “la utilización del delito por el condenado en sentencia penal firme para conseguir notoriedad pública u obtener provecho económico, o la divulgación de datos falsos sobre los hechos delictivos, cuando ello suponga el menoscabo de la dignidad de las víctimas”.

Por tanto, habría que analizar si en este caso concurre alguna de esas tres circunstancias: la pretensión de conseguir notoriedad pública por parte del autor del crimen (parece que dicha notoriedad ya la tiene), obtención de provecho económico o divulgación de datos falsos sobre el delito y siempre que ello suponga menoscabo de la dignidad de las víctimas. 

Séptima.- Por lo que respecta en particular al derecho a la intimidad, habría que estudiar si lo incluido en el libro afecta a aspectos de la vida de las víctimas o de la familia, incluida, por tanto, su madre, que deben de mantenerse reservados, máxime teniendo en cuenta que, aunque el crimen cometido tiene una clara condición de suceso noticiable, ninguna de las personas potencialmente afectadas tiene la condición de personaje público. El hecho de que esas revelaciones afectaran también a la vida privada y familiar de la madre le permitiría actuar en nombre propio, además de en el de sus hijos asesinados (STC 231/1988). 

Octava.- Y en relación con el derecho a la propia imagen, el artículo 95.2 de la Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual establece que está prohibida la difusión del nombre, la imagen u otros datos que permitan la identificación de los menores en el contexto de hechos delictivos, aunque en este caso la identidad de los niños asesinados era conocida antes de las declaraciones de su padre. Desconozco si en el libro se incluyen otros datos susceptibles de protección. 

Novena.- Finalmente, y como medida cautelar dirigida a evitar la lesión de un derecho, la Constitución prevé en su artículo 20.5 que “sólo podrá acordarse el secuestro de publicaciones, grabaciones y otros medios de información en virtud de resolución judicial”; al respecto, el Tribunal Constitucional ha resuelto que “el artículo 9.2 de la Ley Orgánica 1/1982, en lo que se refiere a las medidas cautelares adoptadas en el marco de un proceso civil, cumple con las exigencias de concreción y previsibilidad que permiten sustentar en el mismo la prohibición de difusión de una obra audiovisual [aquí sería una obra escrita pero el resultado no varía] en la medida en que se trate de una medida provisional y temporal, accesoria a un juicio declarativo sobre el fondo de la cuestión, y se acuerde con estricta observancia de las normas procesales que regulan su adopción” (STC 34/2010).

.

 

 

Las Directrices de la Comisión Europea sobre la definición de los sistemas de inteligencia artificial.

El pasado 6 de febrero, la Comisión Europea publicó las Directrices sobre la definición de sistemas de inteligencia artificial para facilitar la aplicación de las normas del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (en adelante, RIA; aquí puede descargarse, junto con el Convenio Marco del Consejo de Europa sobre sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho, con un breve estudio introductorio). El artículo 96.1.f) del RIA exige a la Comisión que elabore directrices sobre la aplicación de la definición de sistema de IA establecida en el artículo 3.1, que entró en vigor el 2 de febrero de 2025, junto con otras disposiciones establecidas en los capítulos I y II del RIA, en particular el artículo 5 sobre prácticas prohibidas de IA. Dado que la definición de un sistema de IA es decisiva para comprender el ámbito de aplicación de la Ley de IA, incluidas las prácticas prohibidas, las presentes Directrices se adoptan en paralelo a las Directrices de la Comisión sobre prácticas prohibidas de inteligencia artificial, sobre las que ha realizado un primer análisis el profesor Lorenzo CotinoLas Directrices que a continuación se resumen, traducidas del inglés de forma automática, no son vinculantes. Cualquier interpretación autorizada solo puede ser dada en última instancia por el Tribunal de Justicia de la Unión Europea. 

En el párrafo 1 del artículo 3 del RIA se define un sistema de IA de la siguiente manera: «Sistema de IA’: un sistema basado en una máquina que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar resultados como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales». 

Esta definición comprende siete elementos principales: 1) un sistema basado en máquinas; (2) que esté diseñado para operar con diferentes niveles de autonomía; (3) que pueden exhibir adaptabilidad después del despliegue; (4) que, para objetivos explícitos o implícitos; (5) infiere, a partir de la entrada que recibe, cómo generar salidas (6) como predicciones, contenido, recomendaciones o decisiones (7) que pueden influir en entornos físicos o virtuales. 

La definición de un sistema de IA adopta una perspectiva basada en el ciclo de vida que abarca dos fases principales: la fase previa al despliegue o de «construcción» del sistema y la fase posterior al despliegue o «uso» del sistema. No es necesario que los siete elementos estén presentes de forma ininterrumpida a lo largo de ambas fases de ese ciclo de vida. Este enfoque refleja la complejidad y diversidad de los sistemas de IA, garantizando que la definición se alinee con los objetivos de la Ley de IA al dar cabida a una amplia gama de sistemas de IA.

1. Sistema basado en máquinas. El término «basado en máquinas» se refiere al hecho de que los sistemas de IA se desarrollan con máquinas y se ejecutan en ellas. El término «máquina» puede entenderse como los componentes de hardware y software que permiten el funcionamiento del sistema de IA. Los componentes de hardware se refieren a los elementos físicos de la máquina, como las unidades de procesamiento, la memoria, los dispositivos de almacenamiento, las unidades de red y las interfaces de entrada/salida, que proporcionan la infraestructura para el cálculo. Los componentes de software abarcan código informático, instrucciones, programas, sistemas operativos y aplicaciones que manejan cómo el hardware procesa datos y realiza tareas. Todos los sistemas de IA están basados en máquinas, ya que las requieren para permitir su funcionamiento, como el entrenamiento de modelos, el procesamiento de datos, el modelado predictivo y la toma de decisiones automatizada a gran escala. Todo el ciclo de vida de los sistemas avanzados de IA se basa en máquinas que pueden incluir muchos componentes de hardware o software.

2. Autonomía. El segundo elemento de la definición se refiere a que el sistema está «diseñado para funcionar con diferentes niveles de autonomía». El considerando 12 del RIA aclara que los términos «distintos niveles de autonomía» significan que los sistemas de IA están diseñados para funcionar con «cierto grado de independencia de las acciones respecto a la intervención humana y de capacidades para funcionar sin intervención humana». Las nociones de autonomía e inferencia van de la mano: la capacidad de inferencia de un sistema de IA (es decir, su capacidad para generar resultados como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales) es clave para lograr su autonomía. La referencia a «cierto grado de independencia de acción» en el considerando 12 del RIA excluye los sistemas diseñados para funcionar únicamente con la plena participación e intervención humana manual. La participación y la intervención humana pueden ser directas, por ejemplo, a través de controles manuales, o indirectas, por ejemplo, a través de controles automatizados basados en sistemas que permiten a los humanos delegar o supervisar las operaciones del sistema. Por lo tanto, el nivel de autonomía es una condición necesaria para determinar si un sistema califica como un sistema de IA. Todos los sistemas que están diseñados para funcionar con cierto grado razonable de independencia de acciones cumplen la condición de autonomía en la definición de un sistema de IA.

3. Capacidad de adaptación. El tercer elemento de la definición es que el sistema «podrá presentar capacidad de adaptación tras su despliegue». Los conceptos de autonomía y adaptabilidad son distintos pero están estrechamente relacionados. El considerando 12 del RIA aclara que la «adaptabilidad» se refiere a las capacidades de autoaprendizaje, lo que permite que el comportamiento del sistema cambie mientras está en uso. El nuevo comportamiento del sistema adaptado puede producir resultados diferentes del sistema anterior para las mismas entradas. La capacidad de un sistema para aprender automáticamente, descubrir nuevos patrones o identificar relaciones en los datos más allá de lo que se entrenó inicialmente es una condición facultativa y, por lo tanto, no una condición decisiva para determinar si el sistema califica como un sistema de IA.

4. Objetivos del sistema de IA. Los sistemas de IA están diseñados para operar de acuerdo con uno o más objetivos. Los objetivos explícitos se refieren a metas claramente establecidas que son codificadas directamente por el desarrollador en el sistema. Por ejemplo, pueden especificarse como la optimización de alguna función de costo, una probabilidad o una recompensa acumulativa. Los objetivos implícitos se refieren a metas que no se establecen explícitamente, pero que pueden deducirse del comportamiento o de los supuestos subyacentes del sistema. Estos objetivos pueden surgir de los datos de entrenamiento o de la interacción del sistema de IA con su entorno.

5. Inferencia de cómo generar resultados utilizando técnicas de IA. El quinto elemento de un sistema de IA es que debe ser capaz de inferir, a partir de la entrada que recibe, cómo generar salidas. Esta capacidad de inferir es, por lo tanto, una condición clave e indispensable que distingue a los sistemas de IA de otros tipos de sistemas. El considerando 12 también explica que «[e]sta capacidad de inferir se refiere al proceso de obtención de los resultados, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en los entornos físicos y virtuales, y a la capacidad de los sistemas de IA para derivar modelos o algoritmos, o ambos, a partir de entradas o datos». El «proceso de obtención de los resultados, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en los entornos físicos y virtuales», se refiere a la capacidad del sistema de IA, principalmente en la «fase de uso», para generar productos basados en los insumos. La «capacidad de los sistemas de IA para derivar modelos o algoritmos, o ambos, a partir de entradas o datos» se refiere principalmente, pero no se limita a, la «fase de construcción» del sistema y subraya la importancia de las técnicas utilizadas para construir un sistema. 

La primera categoría de técnicas de IA mencionada en el considerando 12 de la Ley de IA es «enfoques de aprendizaje automático que aprenden de los datos cómo alcanzar determinados objetivos». Esta categoría incluye una gran variedad de enfoques que permiten a un sistema «aprender», como el aprendizaje supervisado, el no supervisado, el autosupervisado y el aprendizaje por refuerzo. 

En el caso del aprendizaje supervisado, el sistema de IA aprende de las anotaciones (datos etiquetados), por lo que los datos de entrada se emparejan con la salida correcta. El sistema utiliza esas anotaciones para aprender una asignación de entradas a salidas y luego la generaliza a nuevos datos invisibles. Un sistema de detección de spam de correo electrónico habilitado para IA es un ejemplo de un sistema de aprendizaje supervisado. Durante su fase de construcción, el sistema se entrena con un conjunto de datos que contiene correos electrónicos que los humanos han etiquetado como «spam» o «no spam» para aprender patrones de las características de los correos electrónicos etiquetados. Una vez entrenado y en uso, el sistema puede analizar nuevos correos electrónicos y clasificarlos como spam o no spam en función de los patrones que ha aprendido de los datos etiquetados. Otros ejemplos de sistemas de IA basados en el aprendizaje supervisado son los sistemas de clasificación de imágenes entrenados con un conjunto de datos de imágenes, en los que cada imagen se etiqueta con un conjunto de etiquetas (por ejemplo, objetos como coches), los sistemas de diagnóstico de dispositivos médicos entrenados con imágenes médicas etiquetadas por expertos humanos y los sistemas de detección de fraudes que se entrenan con datos de transacciones etiquetados. 

En el caso del aprendizaje no supervisado el modelo se entrena con datos sin etiquetas ni salidas predefinidas. Mediante el uso de diferentes técnicas, como la agrupación, la reducción de dimensionalidad, el aprendizaje de reglas de asociación, la detección de anomalías o los modelos generativos, el sistema se entrena para encontrar patrones, estructuras o relaciones en los datos sin una orientación explícita sobre cuál debería ser el resultado. Así, por ejemplo, los sistemas de IA utilizan el aprendizaje no supervisado para agrupar compuestos químicos y predecir posibles nuevos tratamientos para enfermedades en función de sus similitudes con los fármacos existentes. 

El aprendizaje autosupervisado es una subcategoría del aprendizaje no supervisado en la que el sistema de IA aprende utilizando los propios datos para crear sus propias etiquetas u objetivos. Para ello utilizan diversas técnicas, como los autocodificadores, las redes generativas adversarias o el aprendizaje contrastivo. Un sistema de reconocimiento de imágenes que aprende a reconocer objetos mediante la predicción de los píxeles que faltan en una imagen es un ejemplo de un sistema de IA basado en el aprendizaje autosupervisado. 

Los sistemas de IA basados en el aprendizaje por refuerzo aprenden de los datos recopilados de su propia experiencia a través de una función de «recompensa». A diferencia de los sistemas de IA que aprenden de datos etiquetados (aprendizaje supervisado) o que aprenden de patrones (aprendizaje no supervisado), los sistemas de IA basados en el aprendizaje por refuerzo aprenden de la experiencia. Al sistema no se le dan etiquetas explícitas, sino que aprende por ensayo y error, refinando su estrategia en función de la retroalimentación que recibe del entorno. Un brazo robótico habilitado para IA que puede realizar tareas como agarrar objetos es un ejemplo de un sistema de IA basado en el aprendizaje por refuerzo. El aprendizaje por refuerzo también se puede utilizar, por ejemplo, para optimizar las recomendaciones de contenido personalizadas en los motores de búsqueda y el rendimiento de los vehículos autónomos. 

El aprendizaje profundo es un subconjunto del aprendizaje automático que utiliza arquitecturas en capas (redes neuronales) para el aprendizaje de representaciones. Los sistemas de IA basados en el aprendizaje profundo pueden aprender automáticamente características a partir de datos sin procesar, lo que elimina la necesidad de ingeniería manual de funciones. Debido a la cantidad de capas y parámetros, los sistemas de IA basados en el aprendizaje profundo suelen requerir grandes cantidades de datos para entrenarse, pero pueden aprender a reconocer patrones y hacer predicciones con alta precisión cuando se les proporcionan datos suficientes. 

Además de los diversos enfoques de aprendizaje automático mencionados anteriormente, la segunda categoría de técnicas mencionadas en el considerando 12 del RIA son «enfoques basados en la lógica y el conocimiento que infieren a partir del conocimiento codificado o la representación simbólica de la tarea que se va a resolver». En lugar de aprender de los datos, aprenden del conocimiento, incluidas las reglas, los hechos y las relaciones, codificados por expertos humanos; sobre esa base pueden «razonar» a través de motores deductivos o inductivos o utilizando operaciones como la clasificación, la búsqueda, la coincidencia y el encadenamiento. Al utilizar la inferencia lógica para sacar conclusiones, estos sistemas aplican la lógica formal, reglas predefinidas u ontologías a nuevas situaciones. Por ejemplo, los sistemas expertos de primera generación destinados al diagnóstico médico, que se desarrollan codificando el conocimiento de una serie de expertos médicos y que están destinados a extraer conclusiones de un conjunto de síntomas de un paciente determinado.

6. Salidas que pueden influir en entornos físicos o virtuales. El sexto elemento de la definición es que el sistema infiere «cómo generar resultados como predicciones, contenidos, recomendaciones o decisiones que puedan influir en entornos físicos o virtuales». La capacidad de un sistema para generar resultados, como predicciones, contenido y recomendaciones, en función de los datos que recibe y utilizando el aprendizaje automático y los enfoques basados en la lógica y el conocimiento, es fundamental para lo que hacen los sistemas de IA y lo que distingue a esos sistemas de otras formas de software

Las predicciones son uno de los resultados más comunes que produce el sistema de IA y que requieren la menor participación humana. Una predicción es una estimación sobre un valor desconocido (la salida) a partir de valores conocidos suministrados al sistema (la entrada). Por ejemplo, los sistemas de IA desplegados en los coches autónomos están diseñados para hacer predicciones en tiempo real en un entorno extremadamente complejo y dinámico, con múltiples tipos de agentes e interacciones, y un número prácticamente infinito de situaciones posibles, y para tomar decisiones para ajustar su comportamiento en consecuencia. Del mismo modo, los sistemas de IA para el consumo de energía están diseñados para estimar el consumo de energía mediante el análisis de datos de contadores inteligentes, previsiones meteorológicas y patrones de comportamiento de los consumidores. Al basarse en enfoques de aprendizaje automático, un sistema de IA está diseñado para encontrar correlaciones complejas entre estas variables para hacer predicciones más precisas del consumo de energía. 

El contenido se refiere a la generación de nuevo material por parte de un sistema de IA. Esto puede incluir texto, imágenes, vídeos, música y otras formas de salida. Cada vez son más los sistemas de IA que utilizan modelos de aprendizaje automático (por ejemplo, basados en tecnologías de transformadores generativos preentrenados (GPT)) para generar contenido. 

Las recomendaciones se refieren a las sugerencias de acciones, productos o servicios específicos para los usuarios en función de sus preferencias, comportamientos u otras entradas de datos. En algunos casos, las recomendaciones se refieren a posibles decisiones, como contratar a un candidato en un sistema de reclutamiento, que serán evaluadas por humanos. Si estas recomendaciones se aplican automáticamente, se convierten en decisiones. 

Las decisiones se refieren a las conclusiones o elecciones hechas por un sistema a través de un proceso totalmente automatizado en el que se produce un determinado resultado en el entorno que rodea al sistema sin ninguna intervención humana.

7. Interacción con el entorno. El séptimo elemento de la definición es que los resultados del sistema «pueden influir en entornos físicos o virtuales». Este elemento debe entenderse en el sentido de que hace hincapié en el hecho de que los sistemas de IA no son pasivos, sino que tienen un impacto activo en el medio ambiente en el que se despliegan. La referencia a los «entornos físicos o virtuales» indica que la influencia de un sistema de IA puede ser tanto en los objetos tangibles y físicos (por ejemplo, el brazo de un robot) como en los entornos virtuales, incluidos los espacios digitales, los flujos de datos y los ecosistemas de software.

Observaciones finales. La definición de un sistema de IA abarca un amplio espectro de sistemas. La determinación de si un sistema informático es un sistema de IA debe basarse en su  arquitectura y la funcionalidad específicas  y debe tener en cuenta los siete elementos mencionados. 

El enfoque basado en el riesgo de la Ley de IA significa que solo los sistemas que generen los riesgos más significativos para los derechos y libertades fundamentales estarán sujetos a sus prohibiciones establecidas en el artículo 5 del RIA, a su régimen regulador de los sistemas de IA de alto riesgo cubierto por el artículo 6 y a sus requisitos de transparencia para un número limitado de sistemas de IA predefinidos establecidos en el artículo 50. La gran mayoría de los sistemas, incluso si califican como sistemas de IA en el sentido del artículo 3.1 del RIA, no estarán sujetos a ningún requisito reglamentario. 

El RIA también se aplica a los modelos de IA de uso general, que están regulados en el Capítulo V. El análisis de las diferencias entre los sistemas de IA y los modelos de IA de uso general queda fuera del ámbito de aplicación de las presentes Directrices.

 

El derecho a la inteligencia artificial.

El 22 de octubre tuve ocasión de participar en la Segunda Semana de la Inteligencia Artificial (IA en lo sucesivo) organizada por la Facultad de Derecho de la Universidad de Sevilla y lo hice compartiendo, con los profesores Stefano Pietropaoli y Roger Campione, la sesión que moderó el profesor David Sánchez Rubio sobre los retos ético-jurídicos y las oportunidades que presenta la inteligencia artificial (puede verse el vídeo de la sesión). Agradezco la generosidad del profesor Fernando Llano, Decano y “motor” de esta Semana, que llegó en 2024 a su segunda edición. 

En mi intervención aludí a diez “retos” y cinco “oportunidades”; en cuanto a los retos, y en pocas palabras, comenté lo siguiente: 

el primero es desmontar la reiterada objeción de que la regulación de la IA supone, en todo caso, una cortapisa a la investigación, el desarrollo y la innovación en esta materia y que lo mejor es dejar que sean las propias compañías desarrolladoras de estos sistemas las que determinen dónde están los límites. La IA ya existente supone riesgos ciertos, en algunos casos de extraordinaria entidad, que no les pueden resultar ajenos a los poderes públicos y a los que se debe hacerles frente, bien sometiendo estos sistemas a controles exhaustivos o bien, cuando el riesgo sea inaceptable, prohibiéndolos. 

El segundo desafío a superar es que baste un enfoque meramente ético frente a los peligros de la IA: es imprescindible la intervención del Derecho y alcanzar una regulación jurídica suficiente y adecuada. 

El tercero es promover un enfoque jurídico interdisciplinar, de manera que la regulación de la IA tenga en cuenta los diferentes ámbitos jurídicos afectados por estos sistemas (Derecho constitucional, penal, administrativo, tributario, europeo, internacional público y privado, civil, mercantil, laboral, procesal e iusfilosófico). 

Pero, en cuarto lugar, no podemos quedarnos en un enfoque exclusivamente jurídico, sino que hace falta un trabajo cooperativo con la matemática, la informática y las ciencias de la computación, la medicina, la física, la química, la economía, la filología, la sociología… 

El quinto reto es regular unos sistemas que son extraordinariamente dinámicos y frente a los que es necesario articular una combinación de reglas precisas sobre lo que se puede, o no, hacer con un conjunto de principios, es decir, unas normas finalistas que prescriban a los poderes públicos los objetivos a alcanzar pero que permitan decidir a dichos poderes los medios para conseguirlos. 

En sexto lugar, no es fácil acotar lo que se va regular y lo que va a quedar fuera o a la espera de una regulación futura; dos normas recientes de ámbito europeo (el Reglamento de la Unión Europea y el Convenio Marco del Consejo de Europa) han definido los sistemas sobre los que se proyectan como “un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales”. De esta manera quedan fuera del marco regulador de estas normas sistemas algorítmicos que carecen de esa autonomía, como, por ejemplo, VioGén

El séptimo reto a afrontar es el de que los sistemas de IA incrementen las vigentes brechas digital, social, cultural y económica, es decir, una IA elitista. 

En octavo lugar hay que evitar el extraordinario coste que el desarrollo de los sistemas de IA puede suponer para muchos derechos fundamentales y bienes constitucionalmente protegidos: a los ya bien conocidos usos espurios de datos e imágenes privados para entrenar estos sistemas hay que añadir, por mencionar otros ejemplos, el impacto que tienen en el derecho a la creación literaria, artística, científica y técnica o, por su extraordinario consumo de energía y agua, en los recursos naturales y el medio ambiente. 

El noveno reto debe garantizarse que los poderes públicos no se sirven de estos sistemas para favorecer sus propias inmunidades

Finalmente, y en décimo lugar, existe un riesgo importante de que los organismos públicos creados para supervisar y, en su caso, sancionar las infracciones cometidas por quienes desarrollan y usan estos sistemas sean capturados y “neutralizados” por los llamados a ser controlados; en especial, por las grandes corporaciones de la IA. 

Por lo que respecta a las oportunidades que ofrece la IA, la primera de ellas es la agilización de los procedimientos administrativos que puedan automatizarse sin que ello suponga algún tipo de vulnerabilidad para las personas afectadas por su tramitación. 

La segunda oportunidad es promover un enfoque interdisciplinar de los problemas a partir de la necesaria interdisciplinariedad que exige la IA. 

En tercer lugar, cabe pensar que la cautela que debe adoptarse para evitar la configuración sesgada de los sistemas de IA pueda servir para constatar que los prejuicios por razón de raza, género, edad, condición social o económica… están presentes en nuestras sociedades y deben ser removidos no solo en el ámbito digital. 

En cuarto término, la regulación jurídica de la IA debería contribuir a la recuperación, al menos en este ámbito, del protagonismo de la ley frente a la creciente expansión, que denuncia el profesor Esteve Pardo en un reciente libro, del contrato privado, que ha ido ocupando posiciones que tradicional y constitucionalmente corresponden a aquella fuente del Derecho. 

En quinto lugar, y ya que la IA está aquí y lo está de manera cada vez más relevante, tenemos la oportunidad de articular un auténtico “derecho a la inteligencia artificial”, entendido como un derecho complejo no mencionado de manera expresa en el texto constitucional y derivado de varios enunciados constitucionales -incluido el mandato del artículo 18.4 de la Constitución conforme al cual la ley limitará el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos-, que incluiría una pluralidad de técnicas de garantía en forma de libertades individuales, prohibiciones de poder público y prestaciones; entre ellas, la de no sufrir discriminación por parte de los sistemas de IA y la de acceder a los beneficios derivados de dichos sistemas; la protección de la integridad física y moral, así como de la libertad ideológica, frente a las intromisiones que pueden suponer los mencionados sistemas; la garantía del respeto a los derechos vinculados a la vida privada y familiar, a la propia imagen y a la  creación literaria, artística, científica y técnica; la protección de las libertades de circulación y manifestación frente al abuso de los sistemas de control basados en el reconocimiento facial; el mantenimiento de la tutela judicial efectiva y del derecho de defensa en el contexto de una creciente “inteligencia artificial judicial”; la alfabetización electrónica; la garantía de unas condiciones laborales dignas y de los derechos de sindicación y huelga frente al creciente poder algorítmico de las empresas; la protección de los derechos de las personas consumidoras…

Pd. entrada publicada previamente en el blog del proyecto RETINA-DER.

GagraKoXUAAJ2BE

 

¿Hacia dónde van las constituciones en el tiempo de las transiciones?

Los pasados 2 a 4 de octubre se celebró en Nápoles el VII Seminario Italo-spagnolo de Derecho constitucional dedicado a “La Constitución en los tiempos de las transiciones”. En dicho Seminario tuve la oportunidad de participar, junto con la profesora Tanja Cerruti, de la Universidad de Turín, y el profesor Fernando Pérez Domínguez, de la Universidad de Huelva y que actúo como moderador/entrevistador, en una “entrevista” o diálogo sobre a dónde van las constituciones (literalmente, “Quo vadis, Constitutio?”). Las cuestiones que nos planteó el profesor Fernando Pérez fueron cuatro; en primer lugar, si de las transiciones o retos analizados en el Congreso, ¿hay alguna que alcance a poner en cuestión algunos de los presupuestos de la Constitución que hemos conocido hasta ahora? 

Como cuestión preliminar, apunté que, al igual que se ha sostenido en el ámbito de la Historia, también en el Derecho constitucional europeo se puede defender que el siglo XX tuvo una menor duración que la estrictamente cronológica y podríamos situar ese fin entre 1986 (catástrofe de Chernobil y publicación del libro de Beck La sociedad del riesgo: hacia una nueva modernidad) y 1991 (desintegración de la URSS). Las constituciones de nuestro entorno (Alemania, Italia, Francia, Portugal, España) pertenecen a la segunda mitad de ese corto siglo XX y están articuladas para sostener un Estado social y democrático de Derecho que ha cambiado profundamente a partir de los años 90 del siglo XX y en los primeros 24 del presente. 

En relación con las transiciones estudiadas en el Congreso me parece que hay varias que ponen en cuestión los presupuestos de las Constituciones del siglo XX: respecto del Estado de Derecho, lo más destacable es la progresiva decadencia de la Ley como fuente de derechos y obligaciones y como expresión de la “soberanía” parlamentaria. En la Constitución italiana se habla de ley o leyes en 208 ocasiones y de legislación en otras 10 (218 en total); la española habla de ley o leyes en 207 ocasiones y de legislación en 58 (265 en total). Ni una ni otra mencionan “la autonomía de la voluntad” o la “contratación”.  Sin embargo, como explica muy bien el profesor Esteve Pardo en un reciente libro (El camino a la desigualdad) subtitulado “del imperio de la ley a la expansión del contrato”, este último ha ido ocupando posiciones que tradicional y constitucionalmente corresponden a la ley y eso tanto en el ámbito de la Administración (ocupación de servicios públicos por la contratación privada) como en el aún más llamativo de la Justicia (arbitrajes), incluida la penal (acuerdos de conformidad sobre la pena). Otro ejemplo de la decadencia de la “ley formal” es la cada vez mayor presencia del Decreto-Ley tanto en Italia como en España y no siempre en los casos y con los presupuestos que exigen las respectivas constituciones. 

En cuanto al Estado democrático, comenté dos cosas: el papel actual de los partidos políticos en nuestros sistemas constitucionales es mucho mayor que el que aparentemente le reservan las Constituciones y, parafraseando a Gramsci, no cabe duda que son el “Príncipe moderno”; en segundo lugar, nuestras sociedades son cada vez más expresión de las libertades de residencia y circulación y me parece anacrónico que la participación política de ámbito general siga reservada a las personas nacionales, incluso nacionales no residentes en el territorio del Estado, excluyendo la participación de personas residentes extranjeras. 

En relación con la forma de gobierno, nuestros sistemas formalmente parlamentarios han ido derivando hacia un presidencialismo más o menos evidente a partir del protagonismo de quien lidera el Gobierno y la inoperancia del Parlamento: no hay control “del” Parlamento ni tampoco control “en” el Parlamento. Sánchez: gobernaré con o sin el apoyo del Parlamento. 

Finalmente, y aunque pueda resultar extraño, frente al emergente “Estado digital” nuestras Constituciones están relativamente bien preparadas en términos iusfundamentales y no es necesario, de momento, constitucionalizar los “neuroderechos”. 

La segunda pregunta versó sobre el papel (y el límite) del control de constitucionalidad ante el escenario de las transiciones.  La respuesta del Legislador a algunas de las transiciones planteadas tensiona mucho, a veces, la letra de la Constitución. ¿Cómo valoráis el papel del control de constitucionalidad en este escenario? ¿Está en riesgo la normatividad de la Constitución? 

En mi opinión, la normatividad de la Constitución está en riesgo en algunas ocasiones por la respuesta legislativa pero, en otras, también por la propia respuesta de algunos Tribunales, incluidos los Constitucionales (TC). Cuando hablo de la respuesta legislativa no me refiero exclusivamente al Parlamento sino también al propio Gobierno y al apuntado problema del uso exorbitante del Decreto-Ley: al Gobierno no le importa mucho que años después de aprobarse se declare inconstitucional un Decreto-Ley que regula cuestiones de las que está excluido o sin que concurran los presupuestos constitucionales que lo justifican. Sería, por tanto, necesaria una respuesta rápida por parte del TC en estos casos. 

En segundo lugar, y en relación con las leyes, una posible vía de control efectivo es la imposición de un recurso previo de constitucionalidad, que en España ahora está previsto para el texto definitivo de los Proyectos o de las Propuestas de reforma de los Estatutos de Autonomía, una vez aprobado por las Cortes Generales. El plazo para la interposición del recurso es de 3 días desde la publicación del texto en el «Boletín Oficial de las Cortes Generales», quedando en suspenso con su interposición los trámites de sanción y promulgación, incluida, en su caso, la convocatoria de referéndum de aprobación. Debe ser resuelto en seis meses desde su interposición. Como es obvio, la generalización del control previo implica el riesgo de obstruccionismo de la oposición parlamentaria y de dificultades del TC para dar respuestas rápidas. 

En relación con el papel de los tribunales, destacaría dos cosas: la primera, sobre los tribunales internos, tiene que ver con una cierta disolución valorativa de la normativa constitucional cuando los TC acuden a criterios interpretativos no previstos en la propia Constitución, como los datos sociológicos, cosa que hizo el TCE para enjuiciar la constitucionalidad del matrimonio homosexual, algo, además, innecesario con una interpretación constitucionalmente adecuada del artículo 32. 

La segunda está relacionada con la jurisprudencia del Tribunal de Justicia de la Unión Europea que obliga a los Estados a aceptar estándares de protección de los derechos fundamentales incluso aunque sean menos garantistas que los previstos en la propia Constitución nacional. En España es bien conocido el “caso Melloni” (STC 26/2014). 

La tercera pregunta nos interrogó sobre si basta la reforma constitucional para dar respuesta a las transiciones y retos planteados o alguno de ellos (por su dimensión global) requiere un verdadero nuevo proceso constituyente? Aquí mostré mi total escepticismo sobre las posibilidades de los procesos constituyentes en los próximos años; creo que no hay un contexto político ni social que los favorezca y un ejemplo lo hemos encontrado recientemente en Chile, que fracasó doblemente en 2022 y 2023 en su proceso constituyente. En el caso de Islandia, y a pesar de las condiciones propicias (poca población, sociedad homogénea y muy movilizada…) tampoco culminó con éxito. La propia Constitución alemana vigente es otra muestra de un proceso constituyente, el que debía tener lugar después de la unificación, que no prosperó. En definitiva, creo que los procesos constituyentes no van a ser la respuesta a corto o medio plazo. 

Tampoco soy muy optimista con las reformas constitucionales, al menos en España, por la propia complejidad del proceso de reforma y por la falta de acuerdos políticos sobre qué reformar y en qué dirección: sin objetivos claros, acuerdos políticos y cooperación entre sociedad y representantes políticos es imposible una reforma profunda. 

Por supuesto, lo que he dicho no quiere decir que no crea que sean necesarias las reformas y en España habría que hacer varias: en materia de fuentes, para especializar a las dos cámaras parlamentarias, sobre la descentralización política… 

Finalmente, se nos preguntó qué nuevos rasgos o elementos debe incorporar la Constitución del siglo XXI en el supuesto de que llegara a aprobarse un texto de esta naturaleza. De forma un tanto caótica propuse diez posibles nuevos contenidos o contenidos reformados respecto al vigente texto constitucional español: un nuevo procesos de reforma constitucional no tan rígido como el vigente; un tratamiento nuevo de los llamados “estados de crisis”; el reforzamiento del Estado de Derecho frente al resurgimiento de las inmunidades del poder; la mención al proceso de integración europea; un nuevo diseño del sistema de fuentes; garantías de los derechos de las personas mayores y las generaciones futuras; el fortalecimiento de los derechos de la parte más débil en las relaciones entre sujetos privados; un concepto de la ciudadanía vinculado a la residencia continuada y no meramente a la nacionalidad y la garantía efectiva de los derechos ambientales. 

Quiero agradecer el enorme esfuerzo y entusiasmo de todas las personas que organizaron este Seminario y, en particular, mostrar mi gratitud a Anna Papa, Antonio Pérez Miras, Silvia Romboli y Giacomo Palombino.

nápoles

Cine y derecho en Jelo en verano 2024: las fuentes de la información veraz.

En el  segundo programa sobre cine y derecho en Jelo en verano 2024 (a partir de las 2 horas 28 minutos) nos detuvimos en las fuentes de la información veraz comentando dos películas basadas en hechos reales acontecidos en Estados Unidos y separados por 40 años: Los archivos del Pentágono, dirigida por Steven Spielberg, y Snowden, dirigida por Oliver Stone.

Aquí nos centraremos en Los archivos del Pentágono porque la respuesta jurisprudencial que ofreció el Tribunal Supremo de Estados Unidos al asunto es la que creo propia de un Estado democrático de Derecho: lo que se discutió era la divulgación periodística de documentos relativos a la guerra de Vietnam que el Gobierno había declarado secretos y que fueron filtrados por un antiguo empleado del Pentágono, Daniel Ellsberg. Los documentos empezaron a ser publicados por el New York Times y por el Washington Post y el 15 de junio de 1971 el Gobierno pidió judicialmente que se prohibiese la divulgación de más extractos porque ello supondría un “peligro grave e inminente” contra la seguridad de Estados Unidos. 

En los tribunales inferiores se dio la razón al Gobierno en la petición contra el Times pero no contra el Post. De forma extraordinariamente rápida los casos llegaron al Supremo, que también los tramitó con gran diligencia, declarando que todo sistema de censura previa tiene en su contra una fuerte presunción de inconstitucionalidad por lo que el Gobierno debe asumir la carga de probar la necesidad de esa censura. Como tal exigencia no fue cumplida por el Ejecutivo, el Supremo avaló el rechazo de la petición contra el Post y anuló la orden contraria al Times

En la sentencia hay una mención expresa al precedente que supuso Near v. Minnesota y los votos concurrentes incluyen afirmaciones rotundas: así, en el que firman los jueces Black y Douglas se dice que proteger los secretos militares y diplomáticos en detrimento de la información sobre el Gobierno representativo no proporciona seguridad real a la República; al contrario, y citando las palabras del Chief Justice Hughes en el caso DeJonge v. Oregon, de 4 de enero de 1937, “cuanto más importante resulta la protección de nuestra comunidad frente al llamamiento a derribar las instituciones por la fuerza y la violencia, resulta más imperativa la necesidad de preservar inviolados los derechos constitucionales a la libre expresión, la libertad de prensa y la libertad de reunión para así permitir la formación de una discusión política libre y ello para que el Gobierno sea responsable ante el pueblo… Ahí residen la seguridad de la República y el fundamento mismo del orden constitucional…” “La razón de ser de la Primera Enmienda fue prohibir la práctica habitual del Gobierno de entonces de suprimir la información que consideraba embarazosa… el presente caso pasará a la Historia como la ilustración más dramática de este principio… El secreto en relación con el Gobierno es profundamente antidemocrático y un instrumento para la perpetuación de errores burocráticos… En relación con las cuestiones públicas, el debate debe producirse sin inhibiciones, robusto y ampliamente abierto, como se afirmó en New York Times v. Sullivan”. 

Por su parte, el juez Brennan recordó que la razón esencial del derecho reconocido en la Primera Enmienda es impedir la censura previa. Por ello, solo se admitiría dicha censura si el Gobierno demuestra que la publicación de una determinada información puede, de manera inevitable, directa e inmediata, provocar una situación de gravedad análoga a la puesta en peligro de la seguridad de un convoy o barco que se haya hecho a la mar.

Otras referencias cinematográficas las constituyen The Pentagon Papersdirigida en 2003 por Rod Holcomb y protagonizada por James Spader, Claire Forlani, Paul Giamatti y Alan Arkin, y que se centra en el papel desempeñado en esta historia  por Daniel Ellsberg, y, también basado en Ellsberg, el documental The Most Dangerous Man in America: Daniel Ellsberg and the Pentagon Papers, de 2009.

pentagono papers

 

Cine y derecho en Jelo en verano 2024: la libertad de prensa protege la información «veraz».

En 2024 llegamos a la decimotercera edición de Cine y derecho en Jelo en verano, el programa de Onda Cero que dirige durante la última semana de julio y el mes de agosto Arturo Téllez, a quien agradezco, un año más, su generosa invitación. Coincidiendo por cuarta vez con unos Juegos Olímpicos, este verano hablaremos de derecho y cine sobre la libertad de prensa o, como dice la Constitución española (CE), la libertad de información.

En el primer programa (a partir de las 2 horas 40 minutos) comentamos las películas Primera plana y La verdad sobre el caso Savolta y hablamos de lo que protege, como derecho fundamental, la libertad de información, que es, en muy pocas palabras y de acuerdo con el artículo 20.1.d CE, el derecho a comunicar o recibir libremente información veraz por cualquier medio de difusión. Ese mismo derecho está también reconocido en diversos convenios internacionales y en la Carta de Derechos Fundamentales de la Unión Europea.

En este programa nos centramos en recordar que la libertad de información garantiza la transmisión de hechos de una manera veraz sin que haya que confundir veracidad con verdad: habrá también ejercicio constitucionalmente adecuado de la libertad de información aunque lo transmitido no sea «cierto» si está presente el requisito de la veracidad, que, en reiteradas palabras del Tribunal Constitucional, «no va dirigido tanto a la exigencia de una rigurosa y total exactitud en el contenido de la información, cuanto a negar la protección constitucional a los que, defraudando el derecho de todos a recibir información veraz, actúan con menosprecio de la veracidad o falsedad de lo comunicado, comportándose de manera negligente e irresponsable por transmitir como hechos verdaderos bien simples rumores, carentes de toda constatación, bien meras invenciones o insinuaciones. La información rectamente obtenida y difundida ha de ser protegida, aunque resulte inexacta, con tal de que se haya observado el deber de comprobar su veracidad mediante las oportunas averiguaciones propias de un profesional diligente» (STC 178/1993, de 31 de mayo, FJ 5).

Primera_plana-495649725-large

Sobre la continuidad de la Universidad de Oviedo en el «Proyecto Tiche».

El pasado 15 de julio fui invitado a comparecer, junto con varios colegas y personas de distintos ámbitos de la comunidad universitaria, ante el Comité de Ética de la Universidad de Oviedo para valorar la continuidad de nuestra Universidad en el llamado “Proyecto Tiche”, en el que también participa Intracom Defence (IDE), una empresa establecida en Grecia y que ha sido adquirida en parte por la empresa Israel Aerospace Industries. Algunas de las aplicaciones del proyecto son la detección de forma segura de minas antipersona y la de otros tipos de explosivos, como los artefactos explosivos improvisados, es decir, son aplicaciones que pueden usarse con fines exclusivamente humanitarios pero, en un contexto de un conflicto bélico, también como herramienta para desactivar explosivos del otro contendiente. Estos dispositivos pueden ser exportados fuera de la Unión Europea si lo aprueba el Estado miembro donde resida la entidad, por lo que no es descartable su exportación a Israel. 

Lo que expuse coincidió, en gran medida, con lo que también explicó en la misma sesión el profesor Roger Campione y fue, resumiendo mucho, que había que tener en cuenta el texto -en este caso lo que prevén los Estatutos de la Universidad-; el contexto -el ámbito en el que ahora se está desarrollado el proyecto cuya continuidad se está valorando- y, a la luz del texto y el contexto citados, cuál sería el mejor criterio a tener en cuenta para tomar una decisión. 

Comenzando por el texto, es conocido, y se ha hablado mucho de ello, que el artículo 131.5 de los vigentes Estatutos (EUO) prevé que “la Universidad no financiará ni participará en líneas de investigación relacionadas con fines bélicos”; a este respecto, en el artículo 132.1 se añade que “la investigación es un derecho y un deber del personal docente e investigador, que ejercerá con plena libertad temática y metodológica, de acuerdo con los fines generales de la Universidad y dentro de los límites establecidos por el ordenamiento jurídico, lo que incluye, como es obvio, las propias limitaciones estatutarias. 

Además, es oportuno tener en cuenta otras prescripciones que también son relevantes para el caso que nos ocupa: el artículo 3.1 EUO dispone que “la Universidad de Oviedo inspirará su actuación en las normas constitucionales, y muy especialmente en aquéllas que configuran el Estado social y democrático de Derecho, así como en los valores universales de la cultura, de la ciencia, del humanismo, de la paz y de la libertad. La igualdad entre hombres y mujeres, el apoyo permanente a las personas con necesidades especiales, el fomento del diálogo, de la cooperación entre los pueblos y del desarrollo sostenible son igualmente valores que la Universidad de Oviedo cuidará de manera especial”; por su parte, el artículo 4.1.h establece que “son fines de la Universidad de Oviedo al servicio de la sociedad: la defensa y potenciación del diálogo pacífico y del respeto mutuo como formas de relación entre los pueblos”. 

Pues bien, parece que los Estatutos postulan una defensa activa de la paz y el diálogo y no una mera observación neutral de lo que ocurre en el mundo. 

En segundo lugar, creo que hay que tener en cuenta el contexto actual en el que se está desarrollando el Proyecto Tiche -la guerra en Gaza- y a este respecto me parece que basta con recordar unas palabras de la Corte Internacional de Justicia  del pasado 26 de enero, especialmente relevantes porque en los casi 7 meses transcurridos desde entonces la situación ha ido a mucho peor: “la operación militar llevada a cabo por Israel tras el ataque del 7 de octubre de 2023 ha provocado un gran número de muertos y heridos, así como la destrucción masiva de viviendas, el desplazamiento forzoso de la gran mayoría de la población y grandes daños a la infraestructura civil… El Tribunal toma nota, a este respecto, de la declaración realizada por el Secretario General Adjunto de Asuntos Humanitarios y Coordinador del Socorro de Emergencia de las Naciones Unidas, Martin Griffiths, el 5 de enero de 2024: «Gaza se ha convertido en un lugar de muerte y desesperación… Las familias duermen a la intemperie mientras las temperaturas caen en picado. Las zonas en las que se ordenó a los civiles que se reubicaran por su seguridad han sido objeto de bombardeos. Las instalaciones médicas están bajo un ataque implacable. Los pocos hospitales que funcionan parcialmente están abrumados… Se está desarrollando un desastre de salud pública. Las enfermedades infecciosas se están propagando en refugios superpoblados a medida que las alcantarillas se desbordan. Unas 180 mujeres palestinas dan a luz diariamente en medio de este caos. Las personas se enfrentan a los niveles más altos de inseguridad alimentaria jamás registrados. La hambruna está a la vuelta de la esquina… Para los niños en particular, las últimas 12 semanas han sido traumáticas: sin comida, sin agua, sin escuela… Gaza simplemente se ha vuelto inhabitable. Su gente es testigo de amenazas diarias a su propia existencia, mientras el mundo observa». 

A juicio de la Corte, los hechos y circunstancias antes mencionados son suficientes para concluir que, al menos algunos de los derechos reclamados por Sudáfrica y para los que solicita protección, son verosímiles. Este es el caso del derecho de los palestinos de Gaza a ser protegidos contra los actos de genocidio y los actos prohibidos conexos. La Corte también consideró que existía una urgencia, en el sentido de un riesgo real e inminente de que se cause un perjuicio irreparable a los derechos que la Corte considera verosímiles, antes de que emita su decisión final. 

Pues bien, teniendo en cuenta el texto -los Estatutos- y el contexto -el conflicto en Gaza en el que Israel utiliza todos los recursos bélicos disponibles, muchos de ellos importados de otros países- considero que habría que guiarse, a la hora de decidir sobre la continuidad de la Universidad de Oviedo en ese proyecto, por el llamado “principio de precaución”, criterio, por cierto, muy presente en el funcionamiento de las instituciones de la Unión Europea como evidencian, por citar únicamente dos ejemplos, la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, donde se dice que “las actividades de investigación en el ámbito de la robótica deben llevarse a cabo de conformidad con el principio de precaución”, y la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, donde se recuerda que “tal enfoque debe estar en consonancia con el principio de precaución que guía la legislación de la Unión”. 

El recurso a este principio debe hacerse en la hipótesis de la existencia de un riesgo potencial, cosa que creo ocurre ahora, y en ningún caso puede justificar una toma de decisión arbitraria, es decir, carente de justificación objetiva y razonable. 

Pues bien, si tenemos en cuenta lo que se conoce de lo que está ocurriendo en Gaza y el riesgo de utilización de los resultados del Proyecto en ese contexto no parece “prudente” continuar colaborando y suspenderlo sería una medida preventiva proporcional al riesgo existente; no supondría discriminación alguna porque, que se sepa, no hay otro Proyecto de nuestra Universidad en una situación similar y, finalmente, parece la medida más ajustada teniendo en cuenta las ventajas y los inconvenientes que se derivan de la decisión de seguir o de no seguir.

PROYECTO TICHE

El posible «efecto Bruselas» de la aprobación de la Ley Europea de inteligencia artificial.

Como es conocido, la Unión Europea está en la fase final del proceso de aprobación del Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión (sobre este proceso publiqué recientemente este texto). En las siguientes líneas comento, con todas las cautelas propias de algo cuyo contenido final no se conoce con certeza, el eventual impacto de la aprobación de esta norma fuera de la Unión Europea (el llamado “efecto Bruselas). 

En un conocido artículo publicado en 2012, que adoptó formato de libro en 2020, Anu Bradford explicó cómo y por qué las normas y reglamentos “de Bruselas” han penetrado en muchos aspectos de la vida económica dentro y fuera de Europa a través del proceso de “globalización normativa unilateral”, algo que se produce cuando un Estado o una organización supranacional es capaz de externalizar sus leyes y reglamentos fuera de sus fronteras a través de mecanismos de mercado, dando lugar a la globalización de las normas. La globalización normativa unilateral es un fenómeno en el que una ley de una jurisdicción migra a otra sin que la primera la imponga activamente o la segunda la adopte voluntariamente (pp. 3 y 4). 

La potencia del mercado interior de la Unión Europea (UE), unido a unas instituciones reguladoras con buena reputación, obliga a las empresas extranjeras que quieran participar en ese mercado a adaptar su conducta o su producción a las normas de la UE, que a menudo son las más estrictas; la alternativa es la renuncia a ese mercado, lo que no parece una opción razonable. Explica Bradford que las empresas multinacionales suelen tener un incentivo para estandarizar su producción a escala mundial y adherirse a una única norma. Esto convierte a la norma de la UE en una norma mundial: es el “efecto Bruselas de facto”. Y, una vez que estas empresas orientadas a la exportación hayan ajustado sus prácticas empresariales para cumplir las estrictas normas de la UE, a menudo tienen el incentivo de presionar a sus gobiernos para que adopten esas mismas normas en un esfuerzo por igualar las condiciones frente a las empresas nacionales no exportadoras: el “efecto Bruselas de iure” (p. 7). 

Y añade que la preferencia de los responsables políticos de la UE por una regulación estricta refleja su aversión al riesgo y su compromiso con una economía social de mercado. Además, y como ya hemos visto con anterioridad, la UE sigue el principio de precaución, que apuesta por la acción reguladora precautoria, incluso en ausencia de una certeza absoluta y cuantificable del riesgo, siempre que haya motivos razonables para temer que los efectos potencialmente peligrosos puedan ser incompatibles con el nivel de protección elegido (p. 15 y 16). 

Pues bien, cabría pensar que la regulación europea de la inteligencia artificial (IA) podría generar, en la línea de lo que ha ocurrido en ámbitos como la vida privada y la protección de datos (El Reglamento General de Protección de Datos (RGPD) de la UE, del 14 de abril de 2016, ha tenido un efecto global: así, en 2017 Japón creó una agencia independiente para gestionar las quejas sobre vida privada con el fin de ajustarse al nuevo reglamento de la UE y gigantes tecnológicos como Facebook y Microsoft anunciaron en 2018 que se acogerían RGPD), una exportación del contenido de esa nueva normativa a otros Estados, un “efecto Bruselas” sobre la regulación de la IA. 

Sin embargo, la propia Anu Bradford se ha mostrado escéptica al respecto en su último trabajo –Digital Empires: The Global Battle to Global Battle to Regulate Technology-, de 2023, recordando que Estados Unidos sigue siendo un modelo basado en el mercado abierto, China un modelo de centralismo estatal y la Unión Europea sigue apostando por la regulación. 

En un reciente, y muy recomendable trabajo, Marco Almada y Anca Radu también hacen un análisis crítico centrado en una versión todavía provisional del Reglamento: dado que esta norma sigue la legislación de la UE sobre seguridad de los productos, sus disposiciones ofrecen una protección limitada a algunos de los valores que la política de la UE pretende garantizar, como la protección de los derechos fundamentales. Estas deficiencias se ven agravadas por los esfuerzos activos de la UE para dar forma a instrumentos alternativos, como el convenio sobre IA propuesto por el Consejo de Europa, que sigue las líneas de la Ley de IA.  

Comparto en parte este escepticismo pero no hay que olvidar que Estados Unidos también ha optado por aprobar normas que regulen la IA; así, el 30 de octubre de 2023 el presidente Biden emitió la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, donde se proclama que el Gobierno Federal tratará de promover principios y acciones responsables de seguridad y protección de la IA con otras naciones, “incluidos nuestros competidores·, al tiempo que lidera conversaciones y colaboraciones globales clave para garantizar que la IA beneficie a todo el mundo, en lugar de exacerbar las desigualdades, amenazar los derechos humanos y causar otros daños. Además, y en la línea de la UE, en esa Orden se define la IA como un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales. Y se enuncian los ocho principios que deben guiar el desarrollo de la IA: la seguridad de los sistemas, la innovación responsable, el compromiso con los trabajadores, avance en igualdad y derechos, protección de los consumidores, protección de la intimidad, gestión de los riesgos y uso responsable de la IA, búsqueda del liderazgo social, económico y tecnológico. 

China, por su parte, y aun apostando por la IA como herramienta de férreo control de la disidencia y por sistemas como el “crédito social”, que estarán prohibidos en Europa,  aprobó en agosto de 2023 una Ley general reguladora de la Inteligencia Artificial y, en paralelo, otra regulación específica de la IA generativa. En la primera de ellas se vincula la IA a los sistemas automatizados que funcionan con cierto grado de autonomía, sirven a determinados objetivos y son capaces de influir en el entorno físico o virtual mediante la predicción, la recomendación o la toma de decisiones, es decir, en manera similar a lo que ocurre en Europa y Estados Unidos. También incluye una serie de principios aplicables al desarrollo de la IA: seguridad y robustez; apertura, transparencia y explicabilidad; responsabilidad proactiva y equidad e igualdad. Igualmente se fomentará el uso de energías eficientes, para la protección del medio ambiente, en el desarrollo de estas tecnologías

Por poner otro ejemplo, y más próximo quizás al “modelo europeo”, Brasil también ha iniciado el procedimiento para regular la IA: el 1 de marzo de 2023 se presentó el breve proyecto de ley 759/2023  en la Cámara de Diputados y el 3 de mayo el más exhaustivo proyecto de ley 2338/2023; este último tiene como objetivos establecer normas nacionales generales para el desarrollo, la implementación y el uso responsable de sistemas de inteligencia artificial  en Brasil para proteger los derechos fundamentales y garantizar la implementación de sistemas seguros y fiables en beneficio de la persona, el régimen democrático y el desarrollo científico y tecnológico. Se trata de una propuesta basada en los riesgos de la IA, prohibiendo los que implican “riesgos excesivos”, delimitando los de “alto riesgo” y con un enfoque basado en los derechos. Incluye, además, una definición de la IA similar a las que ya hemos visto en otros ámbitos jurídicos: es un sistema informático, con diversos diferentes grados de autonomía, diseñado para inferir cómo lograr un conjunto dado de objetivos, utilizando enfoques basados en el aprendizaje automático y/o y la representación del conocimiento, utilizando datos de entrada procedentes de máquinas o de seres humanos, con el fin de producir datos de entrada procedentes de máquinas o seres humanos, con el fin de producir predicciones, recomendaciones o decisiones que puedan influir en el entorno. 

No parece, por tanto, casual que en su informe sobre este proyecto elaborado por la Autoridad Nacional de Protección de Datos, hecho público el 6 de julio de 2023, se hagan varias referencias a la propuesta que se está tramitando en la Unión Europea y se diga de manera expresa que el proyecto presentado en el Senado es “semejante” a esta última

Y, por lo que respecta a España y a la influencia hacia dentro del “efecto Bruselas”, incluso con bastante anterioridad a la aprobación y, en su caso, entrada en vigor del Reglamento, se ha creado una autoridad nacional -la Agencia Española de Supervisión de Inteligencia Artificial-, se ha asumido una definición de IA en la línea del Reglamento europeo y se ha regulado el entorno controlado de pruebas “para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial”

En definitiva, y aunque en el caso de la regulación de la IA el impacto del “efecto Bruselas” pueda ser menor que en otros ámbitos, no parece en absoluto, por lo que está ocurriendo en otros Estados y espacios jurídicos, que esta propuesta vaya a tener repercusiones únicamente hacia dentro de la Unión.

efecto bruselas

El bienestar animal como posible límite a los sacrificios religiosos.

El pasado 13 de febrero se conoció la sentencia del Tribunal Europeo de Derechos Humanos (TEDH) en el caso Executief Van de Moslisms Van België y otros c. Bélgica (disponible en francés) a partir de la demanda interpuesta por trece ciudadanos belgas y siete organizaciones no gubernamentales con sede en Bélgica, que invocaron su derecho a la libertad religiosa y a la no discriminación por razones religiosas. 

En Bélgica, una Ley de 14 de agosto de 1986 sobre protección y bienestar de los animales, establece que, salvo en casos de fuerza mayor o necesidad, los animales vertebrados no pueden ser sacrificados sin ser anestesiados o aturdidos aunque este requisito no se aplicaba a sacrificios propios de ritos religiosos. En 2014 la competencia sobre el bienestar animal pasó a depender de las regiones y dos de ellas aprobaron (el 17 de julio de 2017 la Región flamenca y el 4 de octubre de 2018 la Región valona) normas que ponían fin a la excepción que permitía el sacrificio ritual de animales sin aturdimiento. Dos años después, el 17 de diciembre de 2020, el Tribunal de Justicia de la Unión Europea (TJUE) resolvió que el Derecho de la Unión no se oponía a la legislación de un Estado miembro que exigía, en el contexto del sacrificio ritual, un procedimiento de aturdimiento reversible

Pues bien, ante el TEDH los demandantes alegaron que, con esta normativa, se vulneraba su libertad religiosa debido a sería difícil, si no imposible, para creyentes judíos y musulmanes sacrificar animales de acuerdo con los preceptos de su religión u obtener carne de dichos animales. El TEDH consideró, en primer lugar, que se había producido una injerencia en la libertad religiosa de los demandantes prescrita por la legislación flamenca y valona. En cuanto a si la injerencia perseguía un objetivo legítimo, el Tribunal observó que era la primera vez que tenía que pronunciarse sobre la cuestión de si la protección del bienestar de los animales podía vincularse a uno de los objetivos contemplados en el artículo 9 del Convenio Europeo de Derechos Humanos, que garantiza la libertad religiosa y que no contiene una referencia explícita a la protección del bienestar de los animales en la lista de objetivos legítimos que podrían justificar una injerencia en la libertad de manifestar la propia religión. Sin embargo, el TEDH consideró que la protección de la moral pública, a la que se refiere dicho artículo 9, no debe entenderse en el sentido de que solo protege la dignidad humana en el ámbito de las relaciones interpersonales sin tener en cuenta el sufrimiento de los animales. El TEDH no ve motivos para apartarse de lo dicho por el TJUE y el propio Tribunal Constitucional de Bélgica, que concluyeron  que la protección del bienestar animal es un valor al que las sociedades democráticas contemporáneas conceden una importancia creciente. Así pues, la protección del bienestar de los animales podía vincularse al concepto de moral pública, objetivo legítimo en el sentido del artículo 9 del Convenio. 

Adicionalmente, las respectivas normas limitadoras se han adoptado tras una amplia consulta con representantes de diversos grupos religiosos, veterinarios y asociaciones de protección de los animales, sopesando los derechos e intereses presentes y su proporcionalidad, destacando el TEDH que existe un consenso científico de que el aturdimiento previo es el medio óptimo para reducir el sufrimiento del animal en el momento del sacrificio. 

Por lo que se refiere a la alegación de las demandantes de que sería difícil, si no imposible, obtener carne conforme a sus convicciones religiosas, en la sentencia se señala que las regiones flamenca y valona no prohíben  el consumo de carne procedente de otras regiones o países en los que el aturdimiento previo a la matanza de los animales no es un requisito legal y no se demostrado que el acceso a dicha carne se hubiera vuelto más difícil. Se estaría, en suma, ante una medida justificada y proporcional al objetivo perseguido, a saber, la protección del bienestar de los animales como un aspecto de la «moral pública». Por lo tanto, no se ha violado el artículo 9 de la Convención. 

En cuanto al argumento de que se discriminaba a los  demandantes como creyentes judíos y musulmanes en comparación con cazadores y pescadores, el TEDH concluye que no se ha demostrado que se encontraran en una situación análoga o similar, en la línea de lo dicho en su día por el TJUE, que atendió al contexto distinto del sacrificio de animales de granja para los ritos religioso y animales salvajes en el caso de la caza y la pesca recreativa. 

Por lo que se refiere a la situación de los demandantes como creyentes judíos y musulmanes en comparación con la de la población en general, no sujeta a preceptos dietéticos religiosos, el Tribunal responde que se prevé específicamente un procedimiento de aturdimiento alternativo en el caso de métodos especiales de sacrificio prescritos por ritos religiosos (un aturdimiento reversible y no letal).   

Finalmente, y por lo que se refiere a la situación de los demandantes judíos, en comparación con los musulmanes, el TEDH considera, al igual que el Tribunal Constitucional belga, que el mero hecho de que los preceptos dietéticos de la comunidad religiosa judía y los de la comunidad religiosa musulmana sean de naturaleza diferente no basta para considerar que las personas de confesiones judía y musulmana se encuentran en situaciones significativamente diferentes en relación con la medida controvertida. Por todo ello, tampoco hay vulneración del artículo 14 del  Convenio, que protege frente a las discriminaciones, en relación con el artículo 9. El fallo cuenta con dos votos concordantes. 

sacrificio religioso

Foto de la agencia EFE.