Juli Ponce Sol

Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnolgico

 11/04/2019
Compartir: 

El estudio analiza el uso de la inteligencia artificial por las Administraciones Pblicas para la toma de decisiones automatizadas y semi-automatizadas. Partiendo de la situacin existente en Espaa y teniendo en cuenta las preocupaciones y regulaciones a nivel internacional, el anlisis sugiere una mejora del marco regulador de la actividad automatizada, estableciendo una reserva para humanos en el ejercicio de potestades discrecionales debido a la necesidad de empata para la realizacin de la ponderacin con criterios extrajurdicos en que consiste la discrecionalidad. Asimismo, el estudio plantea una lucha contra la opacidad de los algoritmos en garanta del derecho a una buena administracin de los ciudadanos, especialmente en su vertiente del derecho a comprender las decisiones administrativas.

Juli Ponce Sol es Catedrtico de Derecho Administrativo en la Universidad de Barcelona

El artculo se public en el nmero 50 de la Revista General de Derecho Administrativo (Iustel, enero 2019)

I. INTRODUCCIN. INTELIGENCIA ARTIFICIAL, BIG DATA Y ALGORITMOS Y SU CRECIENTE USO EN EL SECTOR PRIVADO Y PBLICO. LA ACTIVIDAD ADMINISTRATIVA AUTOMATIZADA (1)

Es casi un lugar comn referirse a que est en marcha desde hace años una cuarta revolucin industrial, que, sin duda, est teniendo, y va a tener, profundos impactos en las personas, la sociedad y el Derecho, en la lnea de los que generaron las revoluciones cientficas y humanas de los siglos XVIII y XIX que dieron lugar al nacimiento del Derecho Administrativo, de cuyos paradigmas bsicos an seguimos viviendo en gran medida.

A lo largo de este estudio vamos a intentar pergeñar algunas ideas bsicas sobre cmo la Inteligencia Artificial (en adelante, IA) va a impactar en el Derecho administrativo y cmo ste debera adaptarse para poder potenciar sus ventajas y controlar sus efectos menos beneficiosos. Cabe señalar, por cierto, que la relacin entre los ordenadores y el Derecho Administrativo no es extraña a nuestra doctrina, entre la que podemos destacar un curioso y breve trabajo del profesor Toms-Ramn Fernndez en 1971 cuya lectura actual es deliciosa(2).

De vez en cuando, volveremos la vista a los pensadores y juristas ilustrados y del siglo XIX, los cuales, salvando las distancias, se enfrentaron tambin a enormes cambios tecnolgicos y sociales en su poca. As, en ese sentido, se puede citar, por ejemplo, al jurista francs JOSSERAND, quin, al referirse al desarrollo de la industria y sus consecuencias dañosas, señalaba hace ms de un siglo que (las cursivas son nuestras):

“Porque la industria se mejora se transforma, es que los accidentes ocasionados o el hecho de las cosas inanimadas se tornan ms numerosas, mucho ms terribles y tambin mucho ms obscuras. La injusticia del sistema tradicional de responsabilidad se ve claramente. En la inmensa mayora de los casos, las vctimas se encuentran con la imposibilidad de reconstruir la gnesis del accidente, de descubrir por qu y de demostrar la culpa del patrn de la gran industria, del conductor, etc.(3).

Sin duda, la revolucin tecnolgica en marcha en este siglo XXI va a hacer que las cosas inanimadas se tornen ms numerosas, y est por ver si mucho ms terribles y obscuras. En su limitado pero importante papel, el Derecho deber, entendemos, intentar evitarlo. Pero el Derecho no podr hacerlo slo, porque aqu la importancia de la transdisciplinariedad deviene crucial, como señala la Comunicacin de 2018 de la Comisin al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comit Econmico y Social Europeo y al Comit de la Regiones, titulada Inteligencia artificial para Europa (y a la que citaremos a partir de ahora como la Comunicacin de 2018)(4):

“Tambin es necesario impulsar la interdisciplinariedad (fomentando que se oferten titulaciones conjuntas, como, por ejemplo, en Derecho o psicologa e IA)”

Ello significar romper con una manera de proceder actual, que, por lo menos, puede retrotraerse a la Prusia de principios del siglo XIX - tras la derrota de Jena ante las tropas napolenicas-, como nueva estrategia militar para obtener soldados ms obedientes(5). La misma es bien conocida y consiste en dividir el conocimiento en compartimientos o silos. Slo si superamos esa falta de transdisciplinariedad el Derecho podr hacer frente a los retos en este mbito y en otros(6).

Hay que advertir que este trabajo se va a centrar en el uso de la IA para desarrollar actividad administrativa y adoptar decisiones administrativas, no, pues, en la regulacin administrativa del uso de la IA por sujetos privados (aspecto ste de gran importancia y donde tcnicas de mejora regulatoria como las sandbox o las normativas experimentales debern cobrar relevancia en el futuro). S, en cambio, realizaremos algunas reflexiones sobre el uso de IA por parte de aqullos privados que desarrollan funciones pblicas o prestan servicios de inters general.

Tampoco se ocupar este estudio especficamente del uso de la IA para detectar la mala administracin y la corrupcin administrativa, aspecto especfico ste al que ya dedicamos atencin en su momento(7) , y que tiene en la Ley valenciana 22/2018, de 6 de noviembre, de Inspeccin General de Servicios y del sistema de alertas para la prevencin de malas prcticas en la Administracin de la Generalitat y su sector pblico instrumental (BOE 30/11/2018), su expresin legal ms lograda en España, hasta el momento(8).

La Comunicacin de 2018 mencionada llama la atencin sobre la realidad de la IA y establece una analoga, en la lnea de lo antes expuesto, entre anteriores revoluciones y la situacin actual:

“Lejos de ser ciencia-ficcin, la inteligencia artificial (IA) forma ya parte de nuestras vidas. En la utilizacin de un asistente personal para organizar nuestra jornada laboral, en el desplazamiento en un vehculo de conduccin automtica o en las canciones o restaurantes sugeridos por nuestros telfonos, la IA se hace realidad. La IA, adems de facilitarnos la vida, nos est ayudando a resolver algunos de los principales retos a los que se enfrenta nuestro mundo: desde el tratamiento de las enfermedades crnicas o la reduccin de las tasas de mortalidad en los accidentes de trfico hasta la lucha contra el cambio climtico o la previsin de las amenazas a la ciberseguridad () Al igual que hicieran la mquina de vapor o la electricidad en pocas anteriores, la IA est transformando nuestro mundo, nuestra sociedad y nuestra industria”.

La importancia que est adquiriendo la IA es especialmente visible en las Administraciones Pblicas de otros Estados, como veremos, donde el uso del Big Data(9) y de la IA permite intentar mejorar sus polticas pblicas y sus decisiones administrativas y avanzar, en definitiva, hacia el buen gobierno y la buena administracin. Decisiones administrativas sobre determinadas prestaciones sociales, acceso a las fronteras nacionales o desarrollo de ciertas polticas pblicas, entre otras, estn apoyndose crecientemente en la IA(10).

En España el uso de la IA en general, y en las Administraciones Pblicos, en particular, ya no es una entelequia tampoco, ms all de la ley valenciana aludida. As, destaca la creacin por el Ayuntamiento de Barcelona de la Oficina Municipal de Datos(11). En el mbito estatal, como señala la Resolucin de 8 de enero de 2018, de la Direccin General de la Agencia Estatal de Administracin Tributaria, por la que se aprueban las directrices generales del Plan Anual de Control Tributario y Aduanero de 2018 (publicado en el BOE 23 de enero 2018):

"Para mejorar la eficacia del uso de la informacin de que dispone la Agencia Tributaria se utilizarn nuevas tcnicas de anlisis de datos. Se desarrollarn nuevos modelos de deteccin de fraude basados tanto en tcnicas analticas como en el anlisis de redes mediante tcnicas de <<big data>> . Todo esto permitir el desarrollo de mecanismos de anlisis ms complejos que los utilizados hasta ahora, facilitando a los rganos de control la deteccin de patrones de conducta que puedan poner de manifiesto inconsistencias en los datos relacionados con los contribuyentes y que puedan servir como claros indicadores de la existencia de riesgos fiscales que es necesario combatir por parte de la Administracin”."

Asimismo, es posible hallar otros ejemplos en el mismo mbito tributario(12) y tambin en el de la Seguridad social(13). Sin embargo, a tenor de los datos disponibles actualmente, las Administraciones Pblicas españolas an no han comprendido el impresionante salto para el buen gobierno y la buena administracin que puede suponer el uso de la IA. En un estudio realizado en 2017, solo un pequeño porcentaje mostraba algn inters por el Big Data, declarando la mayora, ms del 60%, su desinters por el mismo(14). Es de esperar que estos datos irn cambiando con el transcurso del tiempo.

Para finalizar este apartado introductorio conviene recordar, de forma sucinta, el significado de conceptos a los que ya hemos aludido hasta ahora, y que continuaremos empleando a lo largo del estudio, como son los de IA, Big Data y algoritmos.

El trmino inteligencia artificial, de acuerdo, por ejemplo, con la Comunicacin de 2018, se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la accin, con cierto grado de autonoma, con el fin de alcanzar objetivos especficos. Estos sistemas pueden consistir en un simple programa informtico (por ejemplo, motores de bsqueda o sistemas de reconocimiento facial o de voz) pero tambin pueden estar incorporados en dispositivos de hardware (como robots o automviles autnomos).

La IA se desarrolla mediante el uso de algoritmos y datos. En la cocina de la IA, los primeros seran las recetas y los segundos los ingredientes.

Los algoritmos son un conjunto de instrucciones para solucionar un problema. Los mismos han ido hacindose ms complejos con el tiempo, pasando de ser estticos, en el sentido de que los programadores diseñaban ya en los mismos los criterios para tomar las decisiones, a ser dinmicos, en el sentido de que los algoritmos denominados de aprendizaje automtico (machine learning) tienen la capacidad de aprender con el tiempo de los datos y experiencias para tomar decisiones por s mismos, generando sus propias instrucciones que ya no son las iniciales del programador. Por otro lado, el llamado aprendizaje profundo (deep learning) supone un funcionamiento de la IA emulando redes neuronales complejas. En estos casos, los algoritmos extraen patrones de las masas de datos y los resultados que se obtienen no estn relacionados de modo lineal sino complejo, por lo que no es sencillo determinar la causalidad entre datos y decisin adoptada.

Por ello, ha sido dicho que en un medio ambiente de aprendizaje automtico el problema con estos algoritmos es que los humanos no pueden ya estar en control de qu decisin es tomada y ni siquiera pueden saber o comprender por qu una decisin errnea ha sido tomada dado que estn perdiendo de vista la transparencia del proceso desde el principio hasta el final, deviniendo opacos para sus creadores que no entienden la lgica que siguen. De ah que se hable del proceso de adopcin de la decisin por parte de los algoritmos como una caja negra (black box)(15).

Una definicin de algoritmo incluida en un documento jurdico en el Estado español es posible hallarla en diversos dictmenes de la Comisin de Garanta del derecho de acceso a la informacin pblica de Cataluña. As, la Resolucin de la Reclamacin 123/2016 señala que (la traduccin del cataln es nuestra):

“Un algoritmo, como “procedimiento de clculo que consiste en cumplir un conjunto ordenado y finito de instrucciones con unos datos especificados para llegar a la solucin del problema planteado” o “conjunto finito de reglas que, aplicadas de manera ordenada, permiten la resolucin sistemtica de un problema, el cual se utiliza como punto de partida en programacin informtica” (en las dos definiciones que da el Termcat aplicables a este caso), no deja de ser un tipo de informacin, expresado habitualmente en lenguaje matemtico o informtico (a pesar de que los algoritmos tambin se pueden expresar de otras muchas maneras, incluyendo los diagramas de flujo, el pseudocdigo y el propio lenguaje natural)”.

Efectivamente, un algoritmo puede expresarse en lenguaje natural, en diagramas de flujo o en pseudocdigos. Para no tratar estos conceptos, inusuales para juristas, de forma excesivamente abstracta, creemos relevante dedicarles algunos breves ejemplos y figuras grficas que ayuden en la explicacin y comprensin.

Pensemos en un sencillo ejemplo de algoritmo, el consistente en el clculo del resultado de la suma de dos nmeros.

En lenguaje natural lo expresaramos as:

1.- Inicio 2.- Asignar a la variable x el valor del primer nmero 3.- Asignar a la variable y el valor del segundo nmero 4.- Realizar la suma: x + y, y el resultado se guarda en la variable z 5.- Fin

En el caso de los diagramas de flujo, se suele recomendar la representacin de algoritmos mediante los mismos antes de traducirlo a lenguaje de programacin. Los smbolos ms comunes son los que se incluyen en la figura 1:

Figura 1(16)

. En diagrama de flujos, el algoritmo sugerido como ejemplo se representara as:

Figura 2

Por otro lado, un pseudocdigo es un lenguaje de descripcin de algoritmos. Sirve para facilitar el proceso de codificacin, es decir, la escritura del cdigo fuente. Se le considera un borrador (cdigo de prueba) ya que su estructura es muy similar a la empleada en la mayora de los lenguajes de programacin.

El algoritmo en pseudocdigo que permite realizar la suma de dos nmeros de nuestro ejemplo es el siguiente(17):

Con el uso de pseudocdigo se consigue evitar errores en la elaboracin del posterior cdigo fuente.

ste, viene definido y distinguido del algoritmo por la Comisin de Garanta del derecho de acceso a la informacin pblica de Cataluña en su ya aludida Resolucin de la Reclamacin 123/2016 (la traduccin del cataln es nuestra):

“A los efectos de la resolucin de esta reclamacin es importante distinguir el algoritmo matemtico, que es aquello que solicita la persona reclamante, del cdigo fuente del programa informtico que lo implementa. Cmo se ha señalado, el algoritmo, como conjunto de pasos que se tienen que seguir para resolver adecuadamente el problema planteado, puede ser expresado en palabras (lenguaje natural), como hace el Consejo a las explicaciones dadas a esta Comisin, o, para mayor precisin (para evitar las ambigüedades del lenguaje natural), en lenguaje matemtico. En los casos en que, como sucede en la designacin de los tribunales correctores de las PAU [Pruebas de Acceso a la Universidad], la aplicacin del algoritmo es compleja atendido el gran nmero de variables existentes (miles de candidatos presentados, gran nmero de materias y de sedes, porcentajes mnimos requeridos de hombres, mujeres, de profesores universitarios y de bachillerato –cada uno de ellos con preferencias diversas de sedes y materias–, prioridad de los candidatos que tengan asignado un nmero ms prximo al nmero semilla extrado por sorteo –salvo los presidentes y subcoordinadores, que son designados directamente–, necesidades de profesorado que varan cada año en funcin del nmero de alumnos), y donde resulta necesario utilizar la potencia de clculo de una computadora, hay que traducir este algoritmo matemtico a lenguaje informtico para que la computadora (mediante el programa informtico correspondiente) lo pueda entender e implementar debidamente. El cdigo fuente sera el conjunto de instrucciones escritas –en el lenguaje de programacin que corresponda– del programa informtico empleado para implementar el algoritmo. De la solicitud se desprende que la persona reclamante no quiere acceder al cdigo fuente del programa informtico empleado por el Consejo Interuniversitario para designar los miembros de los tribunales correctores de las PAU, sino a “el algoritmo matemtico que condiciona la orden de posiciones en los tribunales correctores de las PAU a partir de la semilla extrada por sorteo”.”

Como ejemplo, vase aqu una ilustracin de cdigo fuente Java, con comentarios prlogo indicados en rojo, comentarios en lnea indicados en verde, y sentencias de programa indicadas en azul:

Figura 3

Como ha sido señalado, “Un ordenador no procesa lenguaje natural sino que su funcionamiento se basa en ejecutar un software escrito en un lenguaje de programacin, que es una variedad de los lenguajes formales. El software se escribe en un lenguaje comprensible para el ser humano, quien puede leerlo y transformarlo, y el texto resultante se denomina cdigo fuente”. Pero “para que la mquina pueda ejecutarlo se necesita compilarlo, esto es, crear una lista de unos y ceros que pueda ser ledo por la mquina, lo que se denomina cdigo binario”(18)

Pero, adems, para que los algoritmos funcionen, necesitan ingentes cantidades de datos o big data, datos masivos caracterizados por su volumen, variedad y velocidad, las llamadas tres v(19).

La IA llevada al campo de las Administraciones Pblicas, como decamos, puede ayudar al procesamiento rpido de ingentes cantidades de datos y a la toma de decisiones, luego veremos de qu tipo, mejor fundadas y respaldadas por dichos datos. En ese sentido, la actividad administrativa automatizada es definida por el anexo de la Ley 11/2007, de 22 de junio, de acceso electrnico de los ciudadanos a los Servicios Pblicos, como toda actuacin administrativa producida por un sistema de informacin adecuadamente programado sin necesidad de intervencin de una persona fsica en cada caso singular. Incluye la produccin de actos de trmite o resolutorios de procedimientos, as como de meros actos de comunicacin(20).

II. REGULACIN DE LA TOMA DE DECISIONES ADMINISTRATIVAS AUTOMATIZADAS

En un Estado de Derecho, es obvio que la regulacin de la IA, en general, y, por lo que nos interesa aqu, de la toma de decisiones administrativas automatizadas debera tener un importante papel, asumiendo, como hacemos aqu, que la misma encuentra acomodo en las categoras clsicas de rgano administrativo y acto administrativo.

En ese sentido, disentimos de PARADA cuando señala que no sera posible considerar resolucin administrativa la adoptada de forma automatizada, porque las mquinas carecen de voluntad: “los actos administrativos son manifestaciones de voluntad y las mquinas, al no tenerla, carecen de posibilidad de producir actos jurdicos y lo que reflejan no es ms que el resultado de los datos y programas que se introducen en ellas, por lo que la produccin jurdica sigue estando referida a los funcionarios y autoridades que se sirven de aqullas”(21). Siguiendo, entre otros, a MARTIN DELGADO (2009, 366): “toda persona jurdica —tambin la Administracin— necesita con carcter general de personas fsicas que realicen materialmente las actuaciones que pueden-deben llevar a cabo. Esa actividad material, y aqu radica la novedad, puede ser actualmente desarrollada por un ordenador en ejecucin de una aplicacin informtica especficamente creada y configurada para ello. Pero esto es irrelevante para la teora del rgano, pues la actuacin se sigue imputando al rgano que tiene encomendada la competencia, que es adems quien firma el acto; y tambin lo es para la concepcin del acto administrativo, pues su contenido puede ser el mismo. La nica diferencia radica en que la conexin no tiene lugar a travs de la intervencin directa del titular del rgano, sino mediante el empleo de un sistema de firma”.(22) En esa lnea se sita la ley catalana 26/2010, de 3 de agosto, de rgimen jurdico y de procedimiento de las administraciones pblicas de Cataluña, cuando señala en su art. 44.3 que “la actuacin administrativa automatizada no afecta a la titularidad de la competencia de los rganos administrativos ni a las competencias atribuidas para la resolucin de los recursos administratives”

2.1 Situacin internacional y en la UE: el Reglamento General de Proteccin de Datos de la UE y la Ley Orgnica de Proteccin de Datos Personales y garanta de los derechos digitales de 2018

En el nivel internacional en cuanto a cmo debiera ser la regulacin de la IA, la Association for Computing Machinery ha establecido en 2017 unos principios que deberan orientar dicha regulacin, en concreto 7, que son los de 1. Conciencia; 2. Acceso y correccin;3. Responsabilidad;4. Explicacin;5. Procedencia de los datos;6. Auditora;7. Validacin y testeo(23).

En el mbito de la Unin Europea, aparte de numerosos documentos sobre el tema, como la comunicacin de 2018 aludida, el Reglamento General de Proteccin de Datos (Reglamento UE 2016/679), desde esta perspectiva, importante pero limitada, ha establecido algunas regulaciones de la IA en la toma de decisiones administrativas. As, en sus artculos 13 (Informacin que deber facilitarse cuando los datos personales se obtengan del interesado), 14 (Informacin que deber facilitarse cuando los datos personales no se hayan obtenido del interesado) y 15 (Derecho de acceso del interesado) encontramos referencias de inters, sobre todo en este ltimo:

“la existencia de decisiones automatizas, incluida la elaboracin de perfiles, a que se refiere el artculo 22, apartados 1 y 4, y, al menos en tales casos, informacin significativa sobre la lgica aplicada, as como la importancia y las consecuencias previstas de dicho tratamiento para el interesado”

De gran inters es tambin el artculo 22:

“Artculo 22

Decisiones individuales automatizadas, incluida la elaboracin de perfiles

1. Todo interesado tendr derecho a no ser objeto de una decisin basada nicamente en el tratamiento automatizado, incluida la elaboracin de perfiles, que produzca efectos jurdicos en l o le afecte significativamente de modo similar.

2. El apartado 1 no se aplicar si la decisin:

a) es necesaria para la celebracin o la ejecucin de un contrato entre el interesado y un responsable del tratamiento;

b) est autorizada por el Derecho de la Unin o de los Estados miembros que se aplique al responsable del tratamiento y que establezca asimismo medidas adecuadas para salvaguardar los derechos y libertades y los intereses legtimos del interesado, o

c) se basa en el consentimiento explcito del interesado.

3. En los casos a que se refiere el apartado 2, letras a) y c), el responsable del tratamiento adoptar las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legtimos del interesado, como mnimo el derecho a obtener intervencin humana por parte del responsable, a expresar su punto de vista y a impugnar la decisin.

4. Las decisiones a que se refiere el apartado 2 no se basarn en las categoras especiales de datos personales contempladas en el artculo 9, apartado 1, salvo que se aplique el artculo 9, apartado 2, letra a) o g), y se hayan tomado medidas adecuadas para salvaguardar los derechos y libertades y los intereses legtimos del interesado”

Por su parte, en España la Ley Orgnica 3/2018, de 5 de diciembre, de Proteccin de Datos Personales y garanta de los derechos digitales, señala que:

“Artculo 11. Transparencia e informacin al afectado.

1. Cuando los datos personales sean obtenidos del afectado el responsable del tratamiento podr dar cumplimiento al deber de informacin establecido en el artculo 13 del Reglamento (UE) 2016/679 facilitando al afectado la informacin bsica a la que se refiere el apartado siguiente e indicndole una direccin electrnica u otro medio que permita acceder de forma sencilla e inmediata a la restante informacin.

2. La informacin bsica a la que se refiere el apartado anterior deber contener, al menos:

a) La identidad del responsable del tratamiento y de su representante, en su caso.

b) La finalidad del tratamiento.

c) La posibilidad de ejercer los derechos establecidos en los artculos 15 a 22 del Reglamento (UE) 2016/679.

Si los datos obtenidos del afectado fueran a ser tratados para la elaboracin de perfiles, la informacin bsica comprender asimismo esta circunstancia. En este caso, el afectado deber ser informado de su derecho a oponerse a la adopcin de decisiones individuales automatizadas que produzcan efectos jurdicos sobre l o le afecten significativamente de modo similar, cuando concurra este derecho de acuerdo con lo previsto en el artculo 22 del Reglamento (UE) 2016/679.

3. Cuando los datos personales no hubieran sido obtenidos del afectado, el responsable podr dar cumplimiento al deber de informacin establecido en el artculo 14 del Reglamento (UE) 2016/679 facilitando a aqul la informacin bsica señalada en el apartado anterior, indicndole una direccin electrnica u otro medio que permita acceder de forma sencilla e inmediata a la restante informacin. En estos supuestos, la informacin bsica incluir tambin:

a) Las categoras de datos objeto de tratamiento.

b) Las fuentes de las que procedieran los datos.”

2.2 Las lagunas de leyes 39 y 40/2015 y de la LTAIBG de 2013 en relacin a las decisiones automatizadas

Referencias a la actividad administrativa automatizada pueden hallarse en la Ley 58/2003, de 17 de diciembre, General Tributaria (en adelante, LGT), que en su artculo 96 –bajo el ttulo de “Utilizacin de tecnologas informticas y telemticas”– se refiere al empleo por parte de la Administracin tributaria de las nuevas tecnologas en el desarrollo de su actividad:

“Artculo 96. Utilizacin de tecnologas informticas y telemticas.

1. La Administracin tributaria promover la utilizacin de las tcnicas y medios electrnicos, informticos y telemticos necesarios para el desarrollo de su actividad y el ejercicio de sus competencias, con las limitaciones que la Constitucin y las leyes establezcan.

2. Cuando sea compatible con los medios tcnicos de que disponga la Administracin tributaria, los ciudadanos podrn relacionarse con ella para ejercer sus derechos y cumplir con sus obligaciones a travs de tcnicas y medios electrnicos, informticos o telemticos con las garantas y requisitos previstos en cada procedimiento.

3. Los procedimientos y actuaciones en los que se utilicen tcnicas y medios electrnicos, informticos y telemticos garantizarn la identificacin de la Administracin tributaria actuante y el ejercicio de su competencia. Adems, cuando la Administracin tributaria acte de forma automatizada se garantizar la identificacin de los rganos competentes para la programacin y supervisin del sistema de informacin y de los rganos competentes para resolver los recursos que puedan interponerse.

4. Los programas y aplicaciones electrnicos, informticos y telemticos que vayan a ser utilizados por la Administracin tributaria para el ejercicio de sus potestades habrn de ser previamente aprobados por sta en la forma que se determine reglamentariamente.

5. Los documentos emitidos, cualquiera que sea su soporte, por medios electrnicos, informticos o telemticos por la Administracin tributaria, o los que sta emita como copias de originales almacenados por estos mismos medios, as como las imgenes electrnicas de los documentos originales o sus copias, tendrn la misma validez y eficacia que los documentos originales, siempre que quede garantizada su autenticidad, integridad y conservacin y, en su caso, la recepcin por el interesado, as como el cumplimiento de las garantas y requisitos exigidos por la normativa aplicable.”

Por su parte, con posterioridad la Ley 11/2007, de 22 de junio, de acceso electrnico de los ciudadanos a los Servicios Pblicos, adems de algunas breves menciones en conexin con los sistemas de firma electrnica, se ocupa en dos artculos y en su anexo de la actividad administrativa automatizada:

“Artculo 38. Terminacin de los procedimientos por medios electrnicos.

2. Podrn adoptarse y notificarse resoluciones de forma automatizada en aquellos procedimientos en los que as est previsto.

Artculo 39. Actuacin administrativa automatizada.

En caso de actuacin automatizada deber establecerse previamente el rgano u rganos competentes, segn los casos, para la definicin de las especificaciones, programacin, mantenimiento, supervisin y control de calidad y, en su caso, auditora del sistema de informacin y de su cdigo fuente. Asimismo, se indicar el rgano que debe ser considerado responsable a efectos de impugnacin.”

El anexo de la ley contiene una definicin de actividad automatizada, como ya nos consta:

“a) Actuacin administrativa automatizada: actuacin administrativa producida por un sistema de informacin adecuadamente programado sin necesidad de intervencin de una persona fsica en cada caso singular. Incluye la produccin de actos de trmite o resolutorios de procedimientos, as como de meros actos de comunicacin.”

Adems de esta regulacin hay que tener en cuenta la que se encuentra actualmente en los arts. 40 y 41 de la ley 40/2015, que son de aplicacin a todas las AAPP, de acuerdo con las bases del rgimen jurdico de las AA.PP., art. 149.1.18 CE, que es usada como fundamento competencial por la DF 14ª de la ley:

“Artculo 41. Actuacin administrativa automatizada.

1. Se entiende por actuacin administrativa automatizada, cualquier acto o actuacin realizada ntegramente a travs de medios electrnicos por una Administracin Pblica en el marco de un procedimiento administrativo y en la que no haya intervenido de forma directa un empleado pblico.

2. En caso de actuacin administrativa automatizada deber establecerse previamente el rgano u rganos competentes, segn los casos, para la definicin de las especificaciones, programacin, mantenimiento, supervisin y control de calidad y, en su caso, auditora del sistema de informacin y de su cdigo fuente. Asimismo, se indicar el rgano que debe ser considerado responsable a efectos de impugnacin.

Artculo 42. Sistemas de firma para la actuacin administrativa automatizada.

En el ejercicio de la competencia en la actuacin administrativa automatizada, cada Administracin Pblica podr determinar los supuestos de utilizacin de los siguientes sistemas de firma electrnica: a) Sello electrnico de Administracin Pblica, rgano, organismo pblico o entidad de derecho pblico, basado en certificado electrnico reconocido o cualificado que rena los requisitos exigidos por la legislacin de firma electrnica. b) Cdigo seguro de verificacin vinculado a la Administracin Pblica, rgano, organismo pblico o entidad de Derecho Pblico, en los trminos y condiciones establecidos, permitindose en todo caso la comprobacin de la integridad del documento mediante el acceso a la sede electrnica correspondiente(24)

El prembulo de la ley señala que:

““La Ley recoge, con las adaptaciones necesarias, las normas hasta ahora contenidas en la Ley 11/2007, de 22 de junio, en lo relativo al funcionamiento electrnico del sector pblico, y algunas de las previstas en el Real Decreto 1671/2009, de 6 de noviembre, por el que se desarrolla parcialmente la anterior. Se integran as materias que demandaban una regulacin unitaria, como corresponde con un entorno en el que la utilizacin de los medios electrnicos ha de ser lo habitual, como la firma y sedes electrnicas, el intercambio electrnico de datos en entornos cerrados de comunicacin y la actuacin administrativa automatizada”

Sin embargo, como vamos a comprobar a continuacin, estas regulaciones nada nos dicen del procedimiento administrativo que sea necesario para generar el algoritmo y el cdigo fuente, ni sobre la explicacin comprensible de stos, por ejemplo.

Por otro lado, la legislacin de transparencia no señala nada especfico sobre la IA en el mbito administrativo.

2.3 La necesidad de una mejora regulatoria en este mbito.

2.3.1 El sesgo humano de confianza en la inteligencia artificial frente a los posibles lmites y sesgos discriminatorios de sta: la herencia ilustrada

Como señala la mencionada Comunicacin de 2018:

“Como ocurre con cualquier tecnologa transformadora, algunas aplicaciones de la IA pueden plantear nuevos problemas de carcter tico y jurdico, por ejemplo, en relacin con la responsabilidad o la adopcin de decisiones potencialmente sesgadas. Por consiguiente, la UE debe asegurarse de que la IA se desarrolle y aplique en un marco adecuado, que promueva la innovacin y respete los valores y derechos fundamentales de la Unin, as como principios ticos tales como la obligacin de rendir cuentas y la transparencia”

La confianza en la inteligencia artificial por parte de los humanos y su fascinacin por la misma proviene de una larga tradicin de entusiasmo humano por la ciencia, que a partir de la Ilustracin surge como una nueva forma de religiosidad, con sus dogmas y santos, como han criticado incluso algunos de los propios cientficos(25).

Esa admiracin por la ciencia lleva desde la Ilustracin a intentar extender sta y sus mtodos a las ciencias sociales, como el Derecho. Garca de Enterra, entre otros, ha ilustrado muy bien esa fascinacin por la fsica newtoniana de los ilustrados y su extensin al Derecho, con referencia a Montesquieu, cuando señala, respecto a la formulacin del principio de legalidad por los revolucionarios franceses del siglo XVIII, que la:

“() formulacin del imperio o de la soberana de la Ley como ideal poltica no es ms que una transposicin a la teora social del principio de legalidad del universo sobre el que trabaja el pensamiento de occidente desde el Renacimiento y que alcanza en la Fsica de Newton y en la ilustracin su expresin definitiva. Es bien conocido, en efecto, cmo Montesquieu abre su gran obra - que va a ser uno de los ms eficaces motores del nuevo movimiento – justamente desde esta idea central, que hace unvoco el sentido de las leyes en la naturaleza y en la sociedad: “Las leyes en su significacin ms extensa son ls relaciones necesarias que derivan de la naturaleza de las cosas, y en este sentido todos los seres tienen sus leyes; la divinidad tiene sus leyes; las inteligencias superiores al hombre comn tienen sus leyes; las bestias tienen sus leyes; el hombre tiene sus leyes”(26)

La aspiracin de los revolucionarios ilustrados era conseguir una administracin que fuera una mquina de aplicacin automtica de leyes aprobadas por el parlamento, un ser inanimado que aplicara las palabras de la ley, por utilizar por analoga la conocida metfora de Montesquieu respecto al poder judicial(27). Forma parte del principio de legalidad esta idea, enraizada en la fsica newtoniana que afect a todas las disciplinas, incluyendo al Derecho. Como señala Garca de Enterra en su estudio La Lengua de los Derechos:

“Por vez primera en la historia humana, todo el aparato del poder se objetiviza en un abstracto y casi mecnico (casi, porque enseguida habr de aceptarse que la Ley puede y debe habilitar poderes llamados discrecionales en favor de las autoridades administrativas, poderes que facultan una posibilidad de eleccin entre soluciones igualmente justas) aparato de ejecucin legal, de normas escritas y como tales ciertas, elaboradas meditadamente con la sage lenteur de las Asambleas, fijas e inmutables para los intrpretes y para los aplicadores, seguras, pues, para los ciudadanos, que por vez primera en la historia pueden conocer el Derecho a travs de su publicacin regular en su tenor exacto”(28)

Esta influencia mecanicista de la fsica newtoniana se refleja muy bien en la imagen que describe tambin el mismo autor de la Administracin centralizada francesa - centralizacin heredada del Ancien Rgime, por cierto, como destac Tocqueville(29) - la cual funcionara como “un reloj” o “un mecanismo”, del que se destaca su gran eficacia, pero del que se omite, como ha sido señalado por Prats, su sesgo en relacin al papel de los ciudadanos y a la definicin del inters general en el modelo francs. Se trata de un mecanismo en el que la libertad y la energa social, el capital social, por emplear una expresin moderna, tienen un papel secundario, lo que separa a esta tradicin ilustrada francesa de la escocesa(30).

La fascinacin ilustrada por un mundo mecanicista llev al auge de los autmatas durante el siglo XVIII:

“El autmata, años antes juego, sorpresa y metfora de la cultura manierista, se convierte ahora en trasunto de la idea que la Ilustracin tiene del Hombre, al que ve como una mquina, ya no regido por los astros sino por los propios mecanismos de sus vsceras y msculos”(31).

Esa pasin por los autmatas supondra un antecedente de la admiracin que para algunos despiertan las posibilidades de la inteligencia artificial hoy en da. Los autmatas de la ilustracin seran algo as como los tatarabuelos de los robots actuales. Por ejemplo, Jacques de Vaucanson, cre un ‘Pato con aparato digestivo’, fabricado en metal(32). El animal mecnico era, parece ser, capaz de tragar y digerir la comida: la tomaba de la mano de su creador y desapareca dentro de su artificial organismo para despus ser excretada. Vaucanson haba ideado todo un sistema de tubos que conducan el grano al supuesto estmago, donde aseguraba haber instalado una especie de laboratorio qumico en miniatura para descomponer el alimento.

Figura 4 Esquema del interior del Pato con aparato digestivo de Vaucanson(33)

La traslacin de la fsica newtoniana al Derecho no fue patrimonio exclusivo de Francia, pues en el mbito del rule of law tambin existi la misma, dando lugar al movimiento que ha sido llamado Newtonian Government, gobierno newtoniano, menos conocido entre nosotros que la situacin descrita en Francia.

En el siglo XVIII un ayudante de Newton, John Desagulier - nacido francs, hijo de hugonotes que emigr a Inglaterra con nueve años y se convirti en asistente de Newton, en miembro de la Royal Society y en prominente masn - explicit ese traslado interdisciplinar con un poema que loaba la aplicacin de las leyes Newtonianas al gobierno

Figura 5: Portada de la obra de Desaguliers(34)

En el mismo puede leerse al principio que:

Among my philosophical inquiries, I have considered government as a phenomenon, and looked upon that form of it to be most perfect, which did most nearly resemble the natural government of our system, according to the laws settled by the all-wife and almighty architect of the universe”.

La misma comparativa es posible detectar en el Derecho pblico norteamericano de la ilustracin, en el que Michael Foley ha subrayado la historia de la absorcin de las idees de Newton en la construccin del sistema de checks and balances norteamericano(35), a travs, por ejemplo, de las ideas de James Madison, uno de los padres fundadores y participante en la redaccin de la Constitucin de los EEUU, cuya apasionante vida nos lleva a sus estudios en la escuela de fsica social de la actual Universidad de Princeton durante el siglo XVIII(36).

Esa misma fascinacin de los ilustrados es posible reseguirla hoy respecto a la que muestra nuestra sociedad por los robots y la inteligencia artificial, surgiendo ya algunas voces que pronostican la posibilidad de robots con consciencia, que podran efectuar las tareas humanas mejor y, adems, sin los errores, los sesgos propios del cerebro humano(37), que nos han sido revelados ya en las ltimas dcadas por la psicologa cognitiva(38).

Sin embargo, es preciso plantearse, en primer lugar, si la IA podr adquirir en el futuro consciencia y caracterstica propias humanas, y, en segundo lugar, considerar, adems los problemas propios de la IA, susceptible de sus propios sesgos, como veremos ms adelante.

Como recordaba el profesor Tomàs Ramn Fernndez en el citado artculo de 1971 (Toms Ramn Fernndez, 1971, 331) “En primer trmino hay que tener en cuenta que el ordenador dice lo que previamente le han dicho quienes lo han programado (). Aun en el supuesto de que lo hagan bien (), su opinin es slo una opinin personal que, sin embargo, a travs de la informacin masiva y del prestigio mtico de los ordenadores en la sociedad actual, va a convertirse necesariamente en una opinin general, avalada por ese mtico prestigio social de la mquina. Sin perjuicio de volver sobre esto ms: adelante, hay que convenir que la programacin del ordenador y el suministro de material al mismo constituyen una especie de. codificacin, realizada internamente a nivel de tcnicos, sin las garantas externas de la codificacin formal, pero con sus mismos inconvenientes y, sobre todo, con el mismo prestigio y fuerza social (ya que no jurdico-formal) que sta”.

Lo cierto es que empiezan a producirse ancdotas, que podran convertirse en categora, en relacin con una confianza taumatrgica en la IA. Hace algn tiempo, la prensa internacional daba noticia de que un robot se presentaba a la alcalda de un distrito de Tokio para acabar con la corrupcin. El androide consigui quedar en la tercera posicin, con 4.013 votos(39)

Figura 6(40)

Sin embargo, autorizadas voces llaman tambin a la prudencia en el uso y control de la inteligencia artificial, para no crear algo incontrolable, como la carta abierta firmada por diversas personalidades, entre ellas Stephen Hawking, demuestra(41).

2.3.2 La inteligencia artificial en relacin con los privados que ejercen funciones pblicas o prestan servicios de inters general. La necesaria regulacin de la autoregulacin.

Ya hemos señalado que el uso de la IA que aqu nos interesa se centra en el mbito de las AAPP. Ahora bien, creemos que las reflexiones que estamos efectuando deben ser de inters tambin fuera de este mbito, en relacin con aquellos privados que realizan funciones pblicas o prestan servicios de inters general. Un mbito tpico es el energtico(42).

Por ejemplo, a finales de octubre de 2017, un da se produjo por espacio de tres horas, desde la ltima hora de la tarde y hasta las 22 horas, un repunte inusual del precio de la electricidad, debido a la entrada en funcionamiento del “servicio de ajuste de reserva de potencia adicional a subir” y del modo en que ste determina el precio. El  modo en que tendra que operar el algoritmo era pblico y estaba descrito y publicado en el BOE, en el nm. 190, de 9 de agosto de 2013, (Resolucin de 1 de agosto de 2013, de la Secretara de Estado de Energa, por la que se aprueba la modificacin de los procedimientos de operacin del Sistema Elctrico Pennsula, Anexo II:  Algoritmo de asignacin de ofertas para la contratacin de reserva de potencia adicional a subir(43) Pese a ello, nadie ha podido determinar las causas exactas de la muy significativa puntual  elevacin del precio.

Ya la Comisin Nacional de la Competencia y de los Mercados, en diciembre de 2016, en su Informe de supervisin del mercado peninsular de produccin de energa elctrica. año 2015, pg. 27, IS/DE/025/16, haba advertido que:

“se siguen detectando episodios en los que ofertas ms baratas que el precio que resulta finalmente casado, resultan descartadas por las limitaciones impuestas al algoritmo utilizado en este proceso”.

Pasando de la ancdota a la categora, hay que tener en cuenta que la comunicacin de la UE repetidamente mencionada de 2018 señala respecto de la autoregulacin y la IA que:

“Si bien la autorregulacin puede proporcionar un primer conjunto de ndices de referencia con respecto a los cuales sea posible valorar las aplicaciones y resultados que van apareciendo, las autoridades pblicas deben garantizar que los marcos reglamentarios para el desarrollo y el uso de las tecnologas de IA estn en consonancia con esos valores y derechos fundamentales”

2.3.3 Ejemplos de regulaciones comparadas: los casos francs y australiano

Para cerrar este apartado vamos a descender a la letra pequeña de dos ordenamientos jurdicos concretos, uno origen del modelo de Derecho administrativo denominado del règim administrative y otro vinculado a la tradicin del rule of law.

Se trata de los casos de Francia y Australia.

En el caso francs, es destacable su ley n° 2016-1321 du 7 octobre 2016 pour une Rpublique numrique, que señala lo siguiente

Art. 4: une dcision individuelle prise sur le fondement d'un traitement algorithmique comporte une mention explicite en informant l'intress. Les règles dfinissant ce traitement ainsi que les principales caractristiques de sa mise en uvre sont communiques par l'administration à l'intress s'il en fait la demande

Art. 6: les administrations publient en ligne les règles dfinissant les principaux traitements algorithmiques utiliss dans l'accomplissement de leurs missions lorsqu'ils fondent des dcisions individuelles

Por su parte, el reglamento que la desarrolla, el Dcret du 16 mars 2017 (Art. R. 311-3-1-2) establece que:

<< Art. R. 311-3-1-2.-L'administration communique à la personne faisant l'objet d'une dcision individuelle prise sur le fondement d'un traitement algorithmique, à la demande de celle-ci, sous une forme intelligible et sous rserve de ne pas porter atteinte à des secrets protgs par la loi, les informations suivantes :

<< 1° Le degr et le mode de contribution du traitement algorithmique à la prise de dcision ;

<< 2° Les donnes traites et leurs sources ;

<< 3° Les paramètres de traitement et, le cas chant, leur pondration, appliqus à la situation de l'intress ;

<< 4° Les oprations effectues par le traitement ; >>.

En Australia, el uso de la inteligencia artificial para la toma de decisiones administrativas se est extendiendo, con habilitaciones normativas mucho ms simples que las francesas. Una de las primeras se encuentra en la Social Security (Administration) Act 1999, art. 64, cuyo patrn ha sido seguido luego por muchas otras(44):

6A Secretary may arrange for use of computer programs to make decisions

(1) The Secretary may arrange for the use, under the Secretary’s control, of computer programs for any purposes for which the Secretary may make decisions under the social security law.

(2) A decision made by the operation of a computer program under an arrangement made under subsection (1) is taken to be a decision made by the Secretary(45).”

III. SITUACIN ACTUAL Y POSIBLES LNEAS JURDICAS DE AVANCE EN LA MATERIA

Con lo visto hasta aqu, podemos concluir que la regulacin de la actividad administrativa automatizada en España es dbil, dispersa y con lagunas referidas a temas de acceso a la informacin, procedimiento de creacin de los algoritmos y explicacin de las decisiones adoptadas por stos.

La necesaria, en nuestra opinin, mejora de la regulacin española debe pasar primero, creemos, por una reflexin de fondo sobre los tipos de potestades administrativas que puedan ejercerse automatizadamente y sobre a qu clase de decisiones puede dar lugar su ejercicio.

3.1. La inteligencia artificial en relacin con la toma de decisiones administrativas: apoyo a la decisin o decisin automatizada respecto a ejercicio de potestades regladas y discrecionales

El tipo de potestades administrativas en que la IA podra incidir y la clase de actos administrativos que podran generarse es objeto de un incipiente debate entre la escasa doctrina administrativista que se ha ocupado del tema.

En primer lugar, queremos destacar la posibilidad de que la IA adopte actuaciones administrativas, formalizadas o no, tanto antes de iniciar un procedimiento administrativo (art. 55 ley 39/2015, referido a actuaciones preliminares, que es lo que en nuestra opinin realizar la ley valenciana citada), durante el procedimiento administrativo (adopcin de medidas cautelares, peticin o generacin de informes, por ejemplo) y en la terminacin del procedimiento (dictar la propia resolucin definitiva). Por tanto, la IA puede generar actividad material o tcnica o actos administrativos formalizados, tanto de trmite como resolutorios. Asimismo, tecnolgicamente, podra producir tambin disposiciones generales, si bien la normativa existente calla sobre este aspecto y nosotros vamos en breve a recomendar la prohibicin del uso de la IA en relacin con ejercicio de potestades discrecionales, incluidas, claro est, las planificadoras o reglamentarias.

Cuestin diferente, entrando ya en el segundo aspecto anunciado, es si esas decisiones administrativas pueden ser producto indistinto del ejercicio de potestades regladas y discrecionales.

Desde luego, parece indiscutida la posibilidad de que la IA produzca decisiones automatizadas en relacin con potestades regladas que impliquen, como señalan Garca de Enterra y Toms Ramn Fernndez que:

“la Ley puede determinar agotadoramente todas y cada una de las condiciones de ejercicio de la potestad, de modo que construya un supuesto legal completo y una potestad aplicable al mismo tambin definida en todos sus trminos y consecuencias (por ejemplo, jubilacin por edad de los funcionarios, ascenso por antigüedad, liquidacin de un tributo – aplicacin de una cuota establecida por la Ley a una base fijada sobre un hecho imponible determinado – etc.)”.

En estos casos, como siguen destacando estos autores “opera aqu la Administracin de una manera que podra llamarse automtica”. Ahora bien, como igualmente señalan estos autores, y es bien conocido:

“La existencia de potestades discrecionales es una exigencia indeclinable del gobierno humano: ste no puede ser reducido a una pura monocracia objetiva y neutral, a un simple juego automtico de normas, contra lo que en su tiempo espero la entelequia social y poltica de la Ilustracin (y como hoy, en cierto modo, alimenta la ms vulgar fe en la informtica y los ordenadores)”(46)

Efectivamente, como hemos visto, la traslacin de los paradigmas de la fsica newtoniana al Derecho gener la ilusin ilustrada de que el gobierno y la administracin podra suponer una aplicacin automtica de normas, en la que los burcratas quizs pudieran ser sustituidos en un futuro por autmatas. Ahora bien, esa fe moderna a la que se refieren esos autores cuando conecta con la IA nos lleva a una situacin en que, gracias a mecanismos de aprendizaje automtico y profundo y otros avances en marcha, se podra dar lugar, en teora, a la substitucin de la ponderacin basada en criterios no jurdicos que pueda realizar el decisor humano. Esto es, el remplazo de la discrecionalidad humana

Pero que esa operacin sea posible tcnicamente, no significa que deba ser siempre deseable. Enseguida nos referiremos a los lmites, que, en nuestra opinin, deben establecerse a la IA en la toma de decisiones discrecionales, no por limitaciones tecnolgicas, sino de oportunidad al deberse establecer una reserva para la toma de ciertas decisiones a humanos, lo que denominaremos aqu una reserva de humanidad(47). Creemos, como vamos a razonar, que en el mbito de decisiones discrecionales, la actividad administrativa slo puede ser semi-automatizada, no totalmente automatizada. La IA podr hacerse servir como apoyo, pero la ponderacin final que conduzca a la decisin debera ser humana.

3.2 Lmites y orientaciones en la automatizacin: la diligencia debida o debido cuidado derivado del derecho a una buena administracin en conexin con la empata y la phronesis humana. ¿Una reserva de humanidad?

Es en el mbito de las potestades regladas ms sencillas donde creemos, como dijimos, que la IA puede tener un papel como substituta del decisor humano. Se trata de situaciones donde la subsuncin jurdica es muy simple y conduce a otorgar certificados acreditativos, por ejemplo. Un supuesto real es el contemplado en la ya citada Resolucin de la Direccin General de la Agencia Estatal de Administracin Tributaria, de 29 de diciembre de 2010, cuando señala entre las aplicaciones informticas aprobadas y que se van a utilizar la referida a la obtencin por los ciudadanos de certificados de encontrarse al corriente de las obligaciones tributarias (apartado primero, numero 1).

En nuestra opinin, a la que luego volveremos, aqu los algoritmos no tienen naturaleza jurdica normativa, pues se limitan a substituir al decisor humano. Como señala la legislacin australiana, se puede entender que la mquina adopta la decisin por delegacin del humano y ste es, a todos los efectos, a quien se imputa la decisin.

A medida que la concesin normativa de potestades supone la entrada de apreciaciones subjetivas basadas en criterios extrajurdicos (potestades regladas que exigen interpretacin de conceptos, conceptos jurdicos indeterminados valorativos, discrecionalidad) se abren al decisor pblico una pluralidad de alternativas en el servicio al inters general, que, en nuestra opinin, disintiendo de la doctrina y jurisprudencia an mayoritaria, no suponen una libertad de decisin, sino una obligacin y responsabilidad de decidir cumpliendo las obligaciones jurdicas de buena administracin conforma al estndar de diligencia debida(48).

¿Qu papel puede tener la IA, si alguno, en este caso? Si la misma puede llegar a resolver tecnolgicamente de forma adecuada el ejercicio de potestades discrecionales, se abren posibilidades y problemas. Por un lado, entre las posibilidades, las asociadas a una buena administracin, en su sentido de eficacia, dada la capacidad algortmica de generar alternativas y ponderarlas, muy superior en extensin y rapidez a la humana.

Entre los problemas, sobre todo queremos llamar la atencin sobre cmo el ejercicio de la discrecionalidad implica la necesidad de empata. En ocasiones, al deber apreciarse en ocasiones conceptos jurdicos valorativos como la buena conducta, la buena fe, el ejercicio de la equidad en la revisin de oficio o la revocacin, por ejemplo. En el ejercicio de discrecionalidad hay un importante papel de la empata en esa consideracin de los hechos, intereses y derechos relevantes a considerar y sopesar. El decisor pblico debera tener la capacidad de ponerse en la piel de los interesados, participantes y posibles afectados por la futura decisin, pues solo as podr ponderar correctamente, para el buen ejercicio de la discrecionalidad(49).

No debe, sin embargo, confundirse esa empata con la simpata, prohibida por los deberes de imparcialidad y el derecho a la igualdad(50). La empata a la que nos referimos es diferente y forma parte de una caracterstica que parece ser especficamente humana, vinculada con la capacidad de ponerse en el lugar del otro, entrar en resonancia con los sentimientos del otro (tanto alegra como sufrimiento), no slo de forma cognitiva sino tambin emocional, para dar lugar a la compasin y al altruismo(51). Esa capacidad emptica, est basada en parte en las neuronas espejo, pero no nicamente, pues implica aspectos emocionales y cognitivos y a numerosas reas del cerebro(52).

Cuando se ejerce discrecionalidad administrativa y se toman en consideracin hechos, intereses y derechos de personas, esa empata debera estar presente, y parece que slo podra ejercerla un ser humano. Estaramos ante un elemento de la phronesis, la sabidura prctica o prudencia, aristotlica referida en tica a Nicmaco, esto es al sabio ejercicio del poder, basado en una ponderacin cuidadosa de las circunstancias pertinentes en cada toma de la decisin(53).

Una IA podra imitar cognitivamente la empata (entrenamiento en gestos faciales, tono de voz, etc.) pero carece de la consciencia, emocin y humanidad precisa para no degenerar en un psicpata de slice (54) - puesto que los psicpatas humanos carecen de empata, pero la pueden simular, muy bien, para sus propios intereses. La existencia de empata emocional como elemento tpicamente humano, vinculado a la compasin, fue la distincin establecida por la conocida prueba o test Voight-Kampff, tambin llamado test de empata, un examen cientfico-psicolgico ficticio que aparece en la novela de ciencia ficcin ¿Sueñan los androides con ovejas elctricas? de Philip K. Dick, as como en su adaptacin cinematogrfica Blade Runner, cuya accin transcurre en el año 2019.

Si, por tanto, la IA no puede acabar consiguiendo disponer de mquinas con empata emocional con los humanos, porque hace falta ser humano para ello, entonces IA y empata emocional sera una contradictio in terminis, y el sueño, en el sentido de aspiracin, de la razn total (artificial en este caso) podra llegar a producir monstruos burocrticos que no resuenen emocionalmente ni se conecten con los humanos, por utilizar el ambiguo ttulo del genial cuadro de Goya:

Figura 7(55).

Actualmente se discute sobre la posibilidad de generar IA con consciencia similar a la humana. La discusin se enmarca en un largo debate de siglos sobre el concepto de cerebro y mente. Simplificando ahora, frente al dualismo de Descartes (el cuerpo como mquina y la mente como algo distinto), denominado crticamente por Gilbert Ryle el “dogma del fantasma en la mquina(56), una corriente potente de la ciencia materialista actual aboga por el reduccionismo biolgico: la mente slo sera un producto qumico del funcionamiento del cerebro; no hay, pues, fantasma en la mquina, todo es mquina.

En consecuencia, si todo es maquinaria, no habra problema en replicar la circuitera neuronal y qumica de forma artificial y obtener IA con consciencia y con las caractersticas propias humanas, incluyendo la empata. Ahora bien, frente a este planteamiento de la ciencia, esa nueva religin, como hemos visto que algunos la denominan, con sus propios dogmas tambin, diversos autores señalan que estamos an lejos de poder afirmar con tal contundencia que el cerebro y la mente sean uno y que la consciencia sea un simple producto qumico(57). Asimismo, el propio uso de la IA ha sido objeto de advertencias sobre sus posibles riesgos, como la conocida carta abierta firmada por cientficos como Hawkins antes mencionada

En todo caso, en espera de poder avanzar, quizs, en un dilema que ha ocupado a brillantes mentes por siglos, y aplicando aqu ms que las metforas de la fsica newtoniana las propias de la fsica cuntica de nuestra poca, la incertidumbre que rodea an a la posibilidad de replicar una consciencia humana y una empata emocional equivalente en la IA nos lleva a proponer la aplicacin jurdica del principio de precaucin para prevenir los graves riesgos con los que nos enfrentamos (mquinas adoptando decisiones automatizadas discrecionales que deben implicst empata y afectan a derechos de humanos)(58). Abogamos, pues, por una regulacin legal que prohba, cuanto menos por el momento en espera de contar con ms datos futuros, las decisiones totalmente automatizadas si existe discrecionalidad administrativa a ejercer, sin perjuicio de que la IA pueda emplearse dese ahora como mero apoyo en la instruccin del procedimiento antes de la decisin humana final.

Sobre la aplicacin del principio de precaucin fuera del mbito ambiental, tambin en el social, se ha pronunciado la STS de 5 de diciembre de 2016, nmero de recurso 378/2013, ponente Suay Rincn, que señala que las obligaciones de debido cuidado o debida diligencia asociadas al derecho a una buena administracin exigen un determinado comportamiento administrativo en el procedimiento de adopcin de decisiones administrativas(59). En virtud de este principio de precaucin social, seramos partidarios de establecer, como decimos, una reserva legal de ejercicio de potestades discrecionales en favor de seres humanos, en paralelismo con el art. 9 del EBEP que exige en la actualidad que sean funcionarios lo que ejerzan las potestades administrativas, para garantizar su objetividad e imparcialidad y por tanto la buena administracin. Dicha reserva, en el mbito de la IA lo sera respecto de decisiones discrecionales exclusivamente y garantizara algo distinto: el ejercicio humano de empata en la diligente ponderacin de hechos, derechos e intereses en que consiste la buena administracin de potestades discrecionales(60).

Una limitacin de este tipo debera incluirse, en nuestra opinin, en una regulacin comn estatal, (la ley de procedimiento comn podra ser la sede adecuada). En esta lnea entendemos que se inscribe, en el nivel autonmico, la ley catalana 26/2010, de 3 de agosto, de rgimen jurdico y de procedimiento de las administraciones pblicas de Cataluña, cuando en su art. 44.2 señala que “Slo son susceptibles de actuacin administrativa automatizada los actos que puedan adoptarse con una programacin basada en criterios y parmetros objetivos”. Lo subjetivo, que no libre, es la esencia de la ponderacin discrecional.

3.3. La naturaleza jurdica de los algoritmos. ¿Son los algoritmos fuente del derecho?

A la vista de todo lo expuesto, el control jurdico de la creacin de algoritmos debe ir alcanzando una importancia creciente. En ese sentido, se ha dicho, parafraseando la conocida frase, que haga usted la ley y el reglamento y djeme la aplicacin informtica (DE LA CUEVA, 2018). Este autor señala como:

“En la escritura del cdigo fuente y de los algoritmos utilizados para los sistemas de gestin y de control del Estado deben exigirse los mismos requisitos que se establecen para las fuentes del Derecho y que pueden sintetizarse de la siguiente manera:

- Debe existir una regulacin que establezca qu rganos tienen competencia para la escritura del cdigo fuente y de los algoritmos, as como el procedimiento para esta labor ()

- Debe permitirse la sumisin por la ciudadana tanto de alegaciones en lenguaje formal como en lenguaje natural ()

- El cdigo fuente y los algoritmos deben publicarse en repositorios oficiales, donde la ciudadana podr leerlos y descargarlos, de la misma manera que ocurre con los boletines oficiales en lnea.

- El cdigo fuente y los algoritmos, al igual que la ley y la jurisprudencia en aplicacin del artculo 13 del Texto Refundido de la Ley de Propiedad Intelectual, deben ser de dominio pblico

Si antes la costumbre poda ser secundum, praeter o contra legem, hoy es la aplicacin informtica quien puede ocupar estas tres posturas en relacin con la norma jurdica. Si en aquella ocasin se resolvi el problema mediante una intervencin que señal claramente la jerarqua de las normas jurdicas, igual solucin debe proponerse en la actualidad ante la aparicin de estas normas secretas e indiscutibles. Los principios de legalidad y de publicidad normativa siguen vigentes y no pueden verse derogados legal o consuetudinariamente por el uso de tecnologa alguna. Existen pues poderosas pero sencillas razones tanto para iusprivatistas (arts. 1.3 y 2.2 CC), como para iuspublicistas (art. 9.3 CE), para argumentar en favor de esta regulacin del cdigo fuente y de los algoritmos. Se trata de algo tan elemental como seguir reivindicando el imperio de la ley.”

Coincidimos totalmente con la necesidad de ofrecer transparencia sobre la elaboracin de los algoritmos y permitir la participacin ciudadana en su diseño. Pero no creemos que todo algoritmo sea siempre fuente del derecho. En el caso de ejercicio de potestades administrativas, se puede decir que se delega en la IA tal ejercicio y el autmata toma el sitio del humano en funcin de las instrucciones que ha recibido.

La fuente de Derecho, en nuestra opinin, sigue siendo la norma jurdica que es ejecutada mediante el algoritmo y el cdigo fuente(61). Ahora bien, que ambos no sean fuentes del Derecho no supone que no requieran de un procedimiento debido administrativo para su adopcin, del que se carece hasta el momento, de una motivacin comprensible, cuya exigencia no existe, y de una transparencia adecuada, que incluya la posibilidad de participacin ciudadana en su elaboracin, su publicacin y el derecho de acceso.

Enseguida volveremos sobre este punto.

3.4. El Estado de Derecho y la inteligencia artificial.

3.4.1 Algoritmos, derechos de los ciudadanos y cajas negras (black boxes) y muñecas rusas: abriendo las cajas negras

La citada Comunicacin de 2018 destaca la necesidad de:

“Garantizar el establecimiento de un marco tico y jurdico apropiado, basado en los valores de la Unin y en consonancia con la Carta de los Derechos Fundamentales de la UE”

En la situacin actual, la opacidad que rodea a los algoritmos viene determinada por una pluralidad de factores, que generan diversas cajas negras, que, a modo de muñecas rusas, se van superponiendo y haciendo opacos los programas informticos en que se basa la IA.

As, las Administraciones Pblicas no acostumbran a formalizar ni publicitar la decisin de utilizar algoritmos y stos; aun cuando se publicite el algoritmo, la complejidad del mismo y su funcionamiento en el caso de los de aprendizaje automtico y profundo dificultan conocer cmo funcionan (a ello hace alusin en puridad la expresin caja negra, como ya sabemos); hay que contar adems con el inters de los diseñadores de proteger secretos empresariales para mantener una ventaja competitiva respecto a sus competidores, protegido por la limitacin del derecho de acceso cuando pueda suponer un perjuicio a “ el secreto profesional y la propiedad intelectual e industrial” (art. 14.1 j ley 19/2013) (62); debe tenerse en cuenta la voluntad de las administraciones pblicas de evitar que el conocimiento por parte de los destinatarios de las decisiones tomadas a travs de algoritmos les permita eludir su aplicacin; y tambin considerar la voluntad de las administraciones pblicas de garantizar la confidencialidad o el secreto del proceso de toma de decisin.

Para terminar con la opacidad y abrir estas diversas cajas negras, es preciso encontrar el modo de hacer cumplir las obligaciones jurdicas que se derivan del derecho a una buena administracin de los ciudadanos, tambin, claro est, en el mbito de la IA y del resto de derechos. Obligaciones que en el caso de la buena administracin incluyen, y rebasan, las propias de la transparencia. Como señala la la STS de 30 de abril de 2012 (Recurso Nm. 1869/2011), aceptando los fundamentos jurdicos de la sentencia de instancia, respaldada por el TS que rechaza el recurso de casacin, el derecho a una buena administracin, “derecho de ltima generacin”, es integrado por el acceso de los ciudadanos a archivos y registros, vinculado a principios de transparencia(63).

Las diversas medidas que deberan desplegarse en garanta del derecho a una buena administracin de los ciudadanos, del resto de derechos y para permitir el control de la actividad automatizada (o, en terminologa menos tradicional en nuestra lenguaje jurdico tradicional, su rendicin de cuentas) incluiran; la construccin de un procedimiento debido administrativo para la aprobacin de los algoritmos; la reafirmacin de un derecho a una explicacin comprensible del funcionamiento de los algoritmos basado en el derecho a comprender; el uso de programario abierto; la publicidad activa y el derecho de acceso a los algoritmos; la prevencin y el control de los sesgos de los algoritmos y la evaluacin de impacto de proteccin de datos de los mismos.

1. Procedimiento administrativo debido

La Ley 30/1992, de 26 de noviembre, de rgimen jurdico de las administraciones pblicas y del procedimiento administrativo comn prevea que “los programas y aplicaciones electrnicos, informticos y telemticos que vayan a ser utilizados por las Administraciones Pblicas para el ejercicio de sus potestades, habrn de ser previamente aprobados por el rgano competente, quien deber difundir pblicamente sus caractersticas” (art. 45). Asimismo, la LGT señala en su art. 96, como hemos dicho ya, que “los programas y aplicaciones electrnicos, informticos y telemticos que vayan a ser utilizados por la Administracin tributaria para el ejercicio de sus potestades habrn de ser previamente aprobados por sta en la forma que se determine reglamentariamente

Las regulaciones posteriores, ya aludidas, no han desarrollado convenientemente los aspectos procedimentales de la aprobacin de algoritmos y cdigos fuente, cuestin que sera importante recuperar y conectar con la existencia de un procedimiento administrativo debido que permita, antes de la misma, la participacin ciudadana mediante un trmite de informacin pblica y de audiencia, en su caso.

Este momento procedimental ha de permitir a los ciudadanos alegar “para correccin de errores (bugs) y la propuesta de caractersticas (features) de la aplicacin o del algoritmo” (De La Cueva, 2018). Asimismo, esas alegaciones deben ser respondidas de forma fundada, dado que como señala el art. 83.3 de la ley 39/2015 “quienes presenten alegaciones u observaciones en este trmite tienen derecho a obtener de la Administracin una respuesta razonada, que podr ser comn para todas aquellas alegaciones que planteen cuestiones sustancialmente iguales”. La ausencia de tal respuesta, supone una violacin de la debida diligencia o debido cuidado exigido por el derecho a una buena administracin, que debera lleva a la ilegalidad de la aprobacin de los algoritmos ( en relacin a este tema, vase por ejemplo la STS de 29 de octubre de 2010, RJ 2011\1067, anulndose en este caso un acuerdo de Consejo de Ministros sobre distribucin de derechos de emisin de gases de efecto invernadero por falta de respuesta a alegaciones de los demandantes durante el procedimiento administrativo)(64).

Este sera uno de los casos en que las caractersticas del procedimiento exigiran la informacin pblica (art. 83.1 Ley 39/2015, cuando señala que “El rgano al que corresponda la resolucin del procedimiento, cuando la naturaleza de ste lo requiera, podr acordar un perodo de informacin pblica”: evidentemente el desafortunado podr debe entenderse como que deber, dado que la naturaleza del procedimiento de aprobacin de algoritmos y cdigos fuente lo requiere).

Adems, si la elaboracin de los algoritmos y cdigos fuente va a afectar a derechos y/o intereses identificables por la Administracin, deber abrir, adems, el trmite preceptivo de audiencia, como es obvio (art. 82 Ley 39/2015).

Todo ello debera estarse haciendo ya, a pesar de que no existan an procedimientos administrativos formalizados sectoriales de aprobacin de los programas informticos administrativos, en lo que sepamos. Y ello por simple aplicacin del procedimiento administrativo comn a la actividad administrativa automatizada. De lege ferenda, entendemos muy conveniente la formalizacin sectorial de dichos procedimientos adaptados a las necesidades especficas, pero sin obviar estos principios y reglas comunes de obligado cumplimiento. De igual modo, sera interesante, en nuestra opinin, que bien la ley de procedimiento administrativo comn estatal o bien la legislacin de Administracin electrnica formalizase estableciese algunas reglas y principios esenciales, en la lnea de los expuestos, como recordatorio a los instructores del procedimiento administrativo de sus obligaciones de buena administracin.

Si los algoritmos y cdigos fuentes fueran elaborados por contratistas de la Administracin, creemos que debera entenderse que los mismos estaran ejerciendo, en definitiva, una funcin pblica al aprobar un programa informtico de aplicacin normativa, ejercicio de funcin pblica por privados a la que convendra extender dichos principios y reglas del procedimiento administrativo debido tambin por ley, con oportuna modificacin del mbito de aplicacin de la ley 39/2015 actual, como entidades colaboradoras informticas de la Administracin, como hemos tenido ocasin de exponer, con carcter general, en otro momento con ms detalle(65).

La traslacin de la normativa que concede la potestad reglada a lenguaje informtico (vid. introduccin) es un paso crucial y no exento de dificultad, que debe ser objeto de escrutinio pblico y de los interesados. Un error (sea por negligencia o dolo) en esta fase puede suponer, y ha supuesto ya en la prctica, la rplica del mismo por cientos, miles de decisiones(66).

En virtud del derecho a una buena administracin, este procedimiento administrativo desarrollado con la debida diligencia o debido cuidada debe guardar una congruencia relacional con la decisin que finalmente se adopte y la motivacin de la misma.

2. Derecho a una explicacin comprensible

Entendemos que la diligencia debida (o debido cuidado) ligada al derecho a una buena administracin incluye tambin la obligacin de los gobiernos y las administraciones de actuar diligentemente para hacerse comprender y el correlativo derecho del ciudadano a comprender la informacin que le transmite la Administracin de cualquier modo (mediante notificaciones o publicaciones) y mediante cualquier soporte (pginas web, plafones informativos, cartas), incluyendo, claro est, a los algoritmos y cdigos fuente utilizados, en su caso, para la adopcin de decisiones.

La Resolucin del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisin sobre normas de Derecho civil sobre robtica (2015/2103(INL)), que citaremos en adelante como la Resolucin de 2017, expone que el principio de transparencia:

“consiste en que siempre ha de ser posible justificar cualquier decisin que se haya adoptado con ayuda de la inteligencia artificial y que pueda tener un impacto significativo sobre la vida de una o varias personas; considera que siempre debe ser posible reducir los clculos del sistema de inteligencia artificial a una forma comprensible para los humanos”

Este derecho a comprender estara relacionado, por supuesto, con el derecho a utilizar las lenguas oficiales en sus relaciones con la Administracin, regulado ya por nuestro ordenamiento, como es sabido y sobre el cual ahora no podemos detenernos. Pero, y esto es lo que nos interesa, va ms all. Incluye tambin la comprensibilidad de la informacin transmitida por la Administracin, sea en la lengua cooficial que se emplee, de acuerdo con el ordenamiento jurdico. Algo que slo tmidamente se ha reconocido jurdicamente en algunas normas(67).

Pues bien, en nuestra opinin, se explicite o no en una ley como las mencionadas, la obligacin de diligencia de los gobierno y administraciones de hacerse comprender forma parte intrnseca de los principios de buen gobierno y del derecho a una buena administracin, ya mencionados. Por tanto, es una obligacin genrica y transversal, en cualquier sector y respecto de cualquier informacin transmitida, ligada al estndar de conducta de debida diligencia aqu propuesto y vinculada, desde un aspecto negativo, con la prohibicin de interdiccin de la arbitrariedad constitucional (art. 9.3 CE) y, en positivo, con la obligacin de motivacin de las decisiones administrativas (art. 35.1 Ley 39/2015).

Ese derecho a comprender tendra trascendencia respecto al uso de algoritmos y Big Data, puesto que la explicacin que ofrezca la Administracin del funcionamiento del sistema debe ser comprensible para el ciudadano(68). Ya hemos visto como diversos preceptos del Reglamento General de Proteccin de Datos de la UE (Artculo 13 Informacin que deber facilitarse cuando los datos personales se obtengan del interesado, Artculo 14 Informacin que deber facilitarse cuando los datos personales no se hayan obtenido del interesado Artculo 15 Derecho de acceso del interesado) se refieren a que cuando existan decisiones automatizadas deber proporcionarse “informacin significativa sobre la lgica aplicada, as como la importancia y las consecuencias previstas de dicho tratamiento para el interesado”.

Caso de vulnerarse el estndar de debida diligencia en la comprensibilidad, cosa que habr que presumirse si el texto no es inteligible para el hombre y mujer que a su vez despliegue una diligencia razonable en la comprensin (la de un buen padre de familia, art. 1104 Cc, no profesional, o en el caso empresarial, la de un “ordenado empresario” prevista en la legislacin de sociedades, profesional y ms exigente), cabra alegar la imposibilidad de cumplir lo exigido (lo que hara la decisin administrativa imposible y/o irracional, art. 47 ley 39/2015 para actos, art. 9.3 Constitucin española en general) y solicitar la anulacin judicial de la decisin adoptada, as como, en su caso, responsabilidad patrimonial por los daños que la actividad incomprensible de la Administracin hayan causado en el destinario.

3. Las administraciones deben utilizar programario abierto o declararlo de fuentes abiertas.

La LRJSP dispone que las administraciones pondrn declarar como de fuentes abiertas las aplicaciones, desarrolladas por sus servicios o que hayan sido objeto de contratacin y de cuyos derechos de propiedad intelectual sean titulares, cuando de ello se derive una mayor transparencia en el funcionamiento de la Administracin Pblica (artculo 157.2 LRJSP).

4. Publicidad activa y derecho de acceso a los algoritmos y cdigos fuente:

Ya hemos visto como en el Derecho francs el Decreto de 16 de marzo de 2017, que desarrolla la LOI n° 2016-1321 du 7 octobre 2016 pour une Rpublique numrique, es ms concreto an, al exigir, una comunicacin inteligible a quien lo requiera de “1° Le degr et le mode de contribution du traitement algorithmique à la prise de dcision ; << 2° Les donnes traites et leurs sources ; << 3° Les paramètres de traitement et, le cas chant, leur pondration, appliqus à la situation de l'intress ; << 4° Les oprations effectues par le traitement). >>

Pero ya antes de ello, en 2015, la Comisin francesa d’accès aux documents administratifs oblig a la Direction gnrale des finances publiques a hacer pblico el cdigo fuente del programa de ordenador usado para calcular o el impuesto sobre los ingresos de las personas fsicas y en 2018 a hacer accesible los cdigos fuente de tres programas que desarrollan modelos con datos econmicos usados por el Ministerio de Economa(69). Tambin recientemente, la decisin del Tribunal Administrativo Regional de Lazio-Roma declara que un algoritmo, que serva para la toma de decisiones automatizadas sobre movilidad de docentes por la Administracin pblica italiana, es un acto administrativo digital y, por tanto, bajo la legislacin de acceso a la informacin, los ciudadanos tienen el derecho a su acceso(70).

En España, ya hicimos referencia en la introduccin a diversas decisiones de la GAIP catalana que han concedido derecho de acceso al algoritmo. Como señala la Resolucin 200/2017, de 21 de junio (la traduccin es nuestra):

“Se tiene que reconocer el derecho de la persona reclamante a acceder al cdigo fuente del programa informtico empleado por el Consejo Interuniversitario en la designacin de los miembros de los tribunales correctores de las PAU, por razones similares a las que llevaron, a la Resolucin de esta Comisin de 21 de septiembre de 2016, a estimar la Reclamacin 124/2016 y declarar el derecho a conocer el algoritmo matemtico implementado por el mencionado programa informtico.

El cdigo fuente de un programa informtico empleado por la Administracin en la designacin de los miembros de tribunales evaluadores constituye informacin pblica a los efectos del artculo 2.b de la Ley 19/2014, del 29 de diciembre, de transparencia, acceso a la informacin pblica y buen gobierno (LTAIPBG). Segn este precepto, se entiende por informacin pblica “la informacin elaborada por la Administracin y la que esta tiene en su poder como consecuencia de su actividad o del ejercicio de sus funciones, incluida la que le suministran los otros sujetos obligados de acuerdo con el que establece esta ley”. Esta definicin incluye toda la informacin que la Administracin elabore o tenga en su poder en ejercicio de sus funciones, con independencia del lenguaje o forma en que se exprese. La informacin pblica incluye as, no solo aquella que se expresa en lenguaje natural (en palabras, que es la ms habitual), sino tambin la expresada mediante fotografas, videos, planos, señales, etc. o mediante otros lenguajes, como el matemtico o, en este caso, el informtico. El artculo 19.1 LTAIPBG confirma esta nocin amplia de informacin pblica cuando dispone que “el derecho de acceso a la informacin pblica incluye cualquier forma o apoyo en que esta informacin haya sido elaborada o en que se conserve”. El mismo se desprende del artculo 13 de la Ley bsica estatal 19/2013, de 9 de diciembre, de transparencia, acceso a la informacin pblica y buen gobierno, cuando establece que “se entienden por informacin pblica los contenidos o documentos, sea qu sea su formato o apoyo, que estn en poder de alguno de los sujetos incluidos en el mbito de aplicacin de este ttulo y que hayan sido elaborados o adquiridos en el ejercicio de sus funciones”.

Como informacin pblica, es plenamente accesible por la ciudadana, salvo que concurra alguno de los lmites tasados previstos por la legislacin de transparencia, concurrencia que tiene que ser motivada debidamente por la Administracin (artculos 20 y 34.4 LTAIPBG). La Administracin reclamada estim la solicitud de acceso formulada por la persona reclamante (antecedente 3) y no ha invocado ningn lmite que pueda justificar denegar el acceso. Durante la tramitacin de la reclamacin ha pedido informe al CESICAT sobre si la entrega del cdigo fuente solicitado puede ocasionar un perjuicio para la seguridad pblica, perjuicio que podra justificar denegar el acceso de acuerdo con el artculo 21.1.a LTAIPBG, pero este informe fue pedido hace ms de un mes y medio y todava no ha sido emitido (antecedentes 6, 8 y 9). Teniendo en cuenta la naturaleza y la finalidad del programa informtico solicitado, destinado a determinar la composicin de los tribunales correctores de las PAU, no parece que la entrega de su cdigo fuente pueda representar un peligro para la seguridad pblica. Este cdigo fuente se tiene que limitar a recoger y aplicar correctamente las variables antes mencionadas (requerimientos de paridad entre hombres y mujeres y de porcentajes mnimos de profesores universitarios y de bachillerato, etc.), de forma reglada, sin que su conocimiento por terceros ponga en peligro la poblacin ni ningn colectivo en particular. Si lo que se trata es de de evitar que el cdigo fuente pueda ser manipulado por terceros, esto no se garantiza impidiendo su conocimiento, sino adoptando las medidas de seguridad necesarias para evitar que terceras personas puedan acceder –presencialmente o de forma remota– a los ordenadores y sistemas informticos que lo utilizan.

Tampoco se ha invocado el lmite relativo a los derechos de propiedad intelectual o industrial (artculo 21.1.g LTAIPBG), seguramente porque, como se ha señalado en el fundamento jurdico anterior, el programa informtico en cuestin es de titularidad de la Generalitat.

Por otro lado, existe un inters pblico y privado –de los interesados que participan en las diversas convocatorias– evidente en poder comprobar que el programa informtico est correctamente diseñado para garantizar la igualdad de todos los participantes y que la designacin de los miembros de los tribunales se ajusta a los criterios establecidos por la normativa que los regula. Como ya se señal a la Resolucin de 21 de septiembre de 2016 sobre las Reclamaciones 123/2016 y 124/2016, no se tiene que olvidar que los miembros de los tribunales correctores de las PAU ejercen una funcin pblica relevante y que son retribuidos con dinero pblico”

La Ley Orgnica 3/2018, de 5 de diciembre, de Proteccin de Datos Personales y garanta de los derechos digitales señala por su parte lo siguiente:

“Artculo 13. Derecho de acceso.

1. El derecho de acceso del afectado se ejercitar de acuerdo con lo establecido en el artculo 15 del Reglamento (UE) 2016/679.Cuando el responsable trate una gran cantidad de datos relativos al afectado y ste ejercite su derecho de acceso sin especificar si se refiere a todos o a una parte de los datos, el responsable podr solicitarle, antes de facilitar la informacin, que el afectado especifique los datos o actividades de tratamiento a los que se refiere la solicitud.

2. El derecho de acceso se entender otorgado si el responsable del tratamiento facilitara al afectado un sistema de acceso remoto, directo y seguro a los datos personales que garantice, de modo permanente, el acceso a su totalidad. A tales efectos, la comunicacin por el responsable al afectado del modo en que ste podr acceder a dicho sistema bastar para tener por atendida la solicitud de ejercicio del derecho. No obstante, el interesado podr solicitar del responsable la informacin referida a los extremos previstos en el artculo 15.1 del Reglamento (UE) 2016/679 que no se incluyese en el sistema de acceso remoto.

3. A los efectos establecidos en el artculo 12.5 del Reglamento (UE) 2016/679 se podr considerar repetitivo el ejercicio del derecho de acceso en ms de una ocasin durante el plazo de seis meses, a menos que exista causa legtima para ello.

4. Cuando el afectado elija un medio distinto al que se le ofrece que suponga un coste desproporcionado, la solicitud ser considerada excesiva, por lo que dicho afectado asumir el exceso de costes que su eleccin comporte. En este caso, solo ser exigible al responsable del tratamiento la satisfaccin del derecho de acceso sin dilaciones indebidas

Disposicin adicional segunda. Proteccin de datos y transparencia y acceso a la informacin pblica.

La publicidad activa y el acceso a la informacin pblica regulados por el Ttulo I de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la informacin y buen gobierno, as como las obligaciones de publicidad activa establecidas por la legislacin autonmica, se sometern, cuando la informacin contenga datos personales, a lo dispuesto en los artculos 5.3 y 15 de la Ley 19/2013, en el Reglamento (UE) 2016/679 y en la presente ley orgnica”

En cuanto a la publicidad activa, en principio los algoritmos y cdigos fuente deben ser considerados, cuando se utilizan para actividad automatizada o semi-automatizada (en apoyo de las decisiones administrativas), “informacin cuyo conocimiento sea relevante para garantizar la transparencia de su actividad relacionada con el funcionamiento y control de la actuacin pblica” (art. 5.1 Ley 19/2013), por lo que deberan publicarse en los portales de transparencia, en su caso, con los lmites a que hace referencia el art. 5.3.

Ahora bien, para finalizar este apartado, hay que tener en cuenta que, como avanzamos, la transparencia plena (el acceso completo al cdigo fuente de un algoritmo) no siempre ser suficiente para acreditar la justicia de premisas o la regularidad de funcionamiento del sistema. Adems, pueden existir elementos que los responsables del algoritmo no estarn dispuestos a mostrar pblicamente para evitar su copia por terceros, y la prdida de la ventaja competitiva de su producto. Por otro lado, pueden existir datos personales de las personas sometidas a los algoritmos que deban ser protegidos.

En los casos en que dicha transparencia no es posible o deseable, se ha planteado la utilidad de las auditoras de algoritmos para poder comprobar aspectos como la licitud de las premisas o principios bsicos que ejecuta el algoritmo (si son no discriminatorias, por ejemplo, como enseguida veremos), la regularidad del funcionamiento del sistema (que la decisin adoptada y que me ha afectado (output), se bas en esas mismas premisas justas, aplicadas precisamente a mis datos (input) ), la regularidad del funcionamiento y aplicacin del algoritmo o sistema (que ese sistema se aplica igualmente al resto de personas adems de al interesado y funcionar exactamente igual que ha funcionado con l)(71). Mediante pruebas de conocimiento cero (“zero knowledge proof”) y Commitments, testigos criptogrficos, es posible generar un sistema de control que permita a un tercero especialista auditar el funcionamiento de un algoritmo, accediendo a informacin que acredite de forma slida su regularidad en un caso determinado (o en todos) pero sin revelar partes esenciales de su codificacin, premisas y funcionamiento. Este ser un campo a desarrollar en el futuro.

5. Prevencin y control de los sesgos

Aunque, como hemos dicho, los algoritmos tienen el potencial de promover la eficiencia, la consistencia y la justicia, tambin pueden reforzar discriminaciones histricas u obscurecer comportamientos indeseables(72). Existen datos de que clasificadores algortmicos de riesgo usados en algunos estados de los EEUU en el mbito de la justicia doblan la clasificacin de personas negras como futuros criminales en relacin a las personas blancas de forma incorrecta.

Desde luego, ese funcionamiento de los algoritmos sera discriminatorio de acuerdo con el art. 14 CE. El problema es que esos sesgos discriminadores pueden producirse por diversas puertas de entrada y pueden no ser fciles de apreciar. En primer lugar, quizs la fuente ms importante para la causacin de sesgos discriminatorios sea el inadecuado entrenamiento en datos (training data) de los algoritmos, esto es, el uso de los datos de los cuales el algoritmo aprende e identifica patrones y reglas estadsticas que luego aplica. La manera en que esos datos son seleccionados por los desarrolladores de los algoritmos puede ser susceptibles de sesgos subconscientes, especialmente si la diversidad de la poblacin es omitida en los datos (por ejemplo, se conocen de casos de algoritmos de reconocimiento facial que no reconocen caras de personas negras, debido a sus datos de entrenamiento).

De igual modo que los datos no representativos, los datos insuficientes pueden discriminar tambin. Un ejemplo sera el caso de la no concesin de un crdito bancario a una persona que, teniendo una posicin econmica segura para devolver el crdito, reside en un rea donde su perfil racial es casi inexistente y no se tienen datos al respecto.

Un tercer elemento conducente a sesgos discriminatorios puede ser el establecimiento de correlaciones, que es lo que detecta el algoritmo, sin causaciones. Por ejemplo, de nuevo en EEUU, un algoritmo usado en los tribunales de Florida pregunta al acusado si alguno de sus padres ha cumplido penas de prisin para determinar la dureza de la sentencia.

En cuarto lugar, el sesgo puede provenir tambin del hecho de que quienes desarrollan el software no son representativos de los diferentes bagajes, experiencias e identidades de la poblacin en la que trabajan, de ah que el US National Science and Technology Council Committee on Technology concluyera en 2016 que inyectar diversidad en esos mbitos es crucial.

En todo caso, desde la perspectiva de la regulacin, debera exigirse explcitamente que en el diseño de los algoritmos se respete el principio de igualdad y que se articulen las medidas tcnicas, disponibles, para evitar las discriminaciones(73).

6. Evaluacin de impacto de proteccin de datos

Finalmente, y aunque no es esta la perspectiva que aqu nos ocupa predominantemente, deberan desarrollarse evaluaciones de impacto de proteccin de datos cuando estemos antes decisiones automatizadas o con intervencin de IA en su adopcin(74). A este tipo de evaluacin se refiere el art. 35 del Reglamento General de Datos de la UE y ahora tambin el art. 28 de la Ley Orgnica 3/2018, de 5 de diciembre, de Proteccin de Datos Personales y garanta de los derechos digitales(75).

3.4.3 Control jurdico de algoritmos. ¿Necesidad de un ente pblico especfico supervisor?

La existencia de un Estado de Derecho en el mbito de la IA ha de incluir tambin, adems del respeto al principio de legalidad y a los derechos de los ciudadanos, incluyendo el derecho a una buena administracin y a no ser discriminado, un control, tambin judicial en su caso, efectivo de la actividad administrativa, como es obvio.

Ya hemos tenido ocasin de analizar resoluciones judiciales de rganos judiciales extranjeros y de organismos administrativos de control, tambin en España, que se han ocupado de actuaciones automatizadas, desde la perspectiva del derecho de acceso, que es slo una de las perspectivas jurdicas relevantes, como ya hemos expuesto.

La cuestin que puede surgir en este mbito es la de si con los mecanismos actualmente existentes ese control es suficiente o si ser preciso en el futuro avanzar hacia organismos reguladores ms especializados.

En su resolucin de 2017, el Parlamento europeo ha sugerido a la comisin que:

“estudie la posibilidad de designar una agencia europea para la robtica y la inteligencia artificial que proporcione los conocimientos tcnicos, ticos y normativos necesarios para apoyar la labor de los actores pblicos pertinentes, tanto a nivel de la Unin como a nivel de los Estados miembros, en su labor de garantizar una respuesta rpida, tica y fundada ante las nuevas oportunidades y retos —sobre todo los de carcter transfronterizo— que plantea el desarrollo tecnolgico de la robtica, por ejemplo en el sector del transporte”

Creemos que es posible que la notable complejidad de este mbito exija una progresiva especializacin en la actividad de regulacin y control, que excede los aspectos de proteccin de datos y derecho de acceso, como el Oxford Internet Institute ha propuesto, para el mbito britnico, si bien otras voces discrepan de ese enfoque.(76) En todo caso, en el mbito del Reino Unido se estn dando los primeros pasos en esa direccin con la creacin del Centre for Data Ethics and Innovation Consultation.

Adems de las propuestas modificaciones legislativas y de los necesarios controles jurdicos administrativos y judiciales, hemos ido constatando como el papel de quienes desarrollan los algoritmos es crucial, por lo que la promocin de Cdigos ticos y de conducta en este mbito puede ser de inters. Finalmente, la clusula de cierre del Estado de Derecho ha de venir proporcionada por la responsabilidad patrimonial de la Administracin pblica, por los daños que se pueda causar por la actividad automatizadao con intervencin de la IA(77). Si bien el anlisis en detalle de esta cuestin excede del mbito de este estudio, las cuestiones que probablemente surgirn en el futuro irn ligada por ejemplo a la responsabilidad del contratista que, en su caso, proporcione los algoritmos a la Administracin, que una vez implementados generen decisiones ilegales dañosas, supuesto donde la regla establecida tradicionalmente de que responda aqul salvo orden expresa administrativa parece ser razonable tambin en este mbito, y a la posibilidad de que los daños sean consecuencia de tecnologa que se desconoca en el momento de la toma de la decisin automatizada (por ejemplo, algn tipo de nuevo virus informtico contra el que no existiera proteccin y que afect a las decisiones automatizadas(78)).

IV. REFLEXIONES FINALES

El presente trabajo se ha centrado en el concepto de actividad automatizada administrativa, en conexin con los conceptos de IA, algoritmos y Big Data. Tras analizar cul es la regulacin existente en la materia en la actualidad, se han detectado lagunas referidas al procedimiento de aprobacin de los algoritmos, la explicacin comprensible de stos a la ciudadana, la transparencia y la prevencin y control de posibles ilegalidades.

La ciencia est avanzando rpidamente frente a un Derecho que encuentra dificultades en comprenderla en este mbito y que es dejado de lado, tambin en parte por una admiracin por las oportunidades de buen gobierno y buena administracin que abre la IA. Un repaso de la fe ilustrada en la fsica newtoniana y en el modelo mecanicista del mundo y la sociedad aplicada al Derecho nos ha revelado como ya los autmatas fascinaron a nuestros antepasados y como esa fascinacin se extiende en el siglo XXI a la IA.

Pero si bien la IA puede ser til para la mejora administrativa, elemento innegable, en el trabajo que ahora finaliza hemos puesto de relieve la necesidad de que el Estado de Derecho no se vea socavado por la misma. Como ha indicado muy grficamente De La Cueva (De La Cueva, 2017), “estamos presos de unas imposiciones tcnicas que no admiten su discusin pues se muestran como irrebatibles, lo que nos lleva a una verdadera dictadura de la mquina. Si antes para resolver un problema en un expediente era necesario y a veces suficiente hablar con los funcionarios intervinientes, en la actualidad, debido a que la configuracin de las posibilidades del procedimiento no vienen dadas desde lo jurdico sino desde lo informtico, nos hallamos no slo ante una situacin de indefensin sino de perplejidad (). Pretender cambiar el cdigo informtico utilizado por la Universidad Complutense para que acredite correctamente la labor de sus docentes bilingües es una versin renovada y conjunta de las maldiciones bblicas, los trabajos de Hrcules y el mito de Ssifo”.

Efectivamente, es posible que una mera aplicacin informtica tenga ms relevancia en la vida prctica de las personas que la Constitucin, los Estatutos de Autonoma y la legislacin de procedimiento administrativo comn juntas.

Tambin hemos analizado las limitaciones y riesgos de la IA. La falta de empata emocional de la IA, y la improbabilidad de su consecucin, nos ha llevado a proponer la prohibicin legal de decisiones automatizadas discrecionales. En el ejercicio de discrecionalidad, la IA debera servir meramente de apoyo, como mximo hasta formular una propuesta de resolucin, debiendo existir una reserva de resolucin humana.

Por otro lado, en cuanto al uso de la IA respecto al ejercicio de potestades regladas, o como apoyo en decisiones semiautomticas, hemos expuesto como se produce una tendencia hacia la opacidad (con diversas cajas negras simultneas, articuladas como muñecas rusas), bien sea por razones tcnicas (algoritmos de aprendizaje automtico o profundo), de derechos de propiedad intelectual e industrial de los contratistas o por voluntad de la administracin. Al respecto, para acabar con esa opacidad, es preciso aplicar y mejorar la regulacin existente y reforzar el control del uso de IA por las AA.PP, en su caso mediante organismos reguladores especficos.

En cuanto a la regulacin, hemos propuesto, junto a la aplicacin de la normativa existente una mejora de la misma, abarcando nuestra reflexin diversos mbitos: la construccin de un procedimiento debido administrativo para la aprobacin de los algoritmos con adecuada participacin pblica; la reafirmacin de un derecho a una explicacin comprensible del funcionamiento de los algoritmos basado en el derecho a una buena administracin; el uso de programario abierto; la publicidad activa y el derecho de acceso a los algoritmos, siempre que sea posible jurdicamente y, como alternativa, el desarrollo de la auditora de algoritmos; la prevencin y el control de los sesgos de los algoritmos y la evaluacin de impacto de proteccin de datos de los mismos.

La IA puede suponer un elemento relevante para la mejor administracin pblica. Pero sta deber ser siempre un servicio objetivo a los intereses generales, como señala el art. 103 CE, intereses que son inmanentes, no trascendentes, a los de las personas que forman parte de una sociedad. Un gobierno y una administracin, pues, de personas para personas, que puede apoyarse, sin duda, en la IA, pero sin olvidar nunca que, como ya señal Adam Smith en una de sus obras, la compasin es una emocin, pasin o sentimiento del grupo de los “originales de la naturaleza humana”, pues “por ms egosta que se pueda suponer al hombre, existen evidentemente en su naturaleza algunos principios que le hacen interesarse por la suerte de otros”.(79)

NOTAS:

(1). El presente estudio se enmarca en el proyecto Retos jurdicos del uso de datos masivos para el fomento de la innovacin y la Buena administracin a travs de la inteligencia artificial (DER2017-85595-R) del que el autor es co-investigador principal y es tambin resultado de las acciones de dinamizacin <<redes de excelencia>>, programa estatal de investigacin cientfica y tcnica de excelencia, subprograma estatal de generacin de conocimiento, der2016-81747-redt, comunidad cientfica de teora y mtodo del derecho pblico econmico

Una primera exposicin de las ideas contenidas en este artculo se efectu en el marco del V Congreso Internacional del avance del Gobierno Abierto. III Congreso de Buen gobierno y Transparencia de la Comunitat Valenciana. Transparencia digital, algortmica y big data, desarrollado en septiembre de 2018 en Valencia, cuya invitacin quiero agradecer a la direccin del mismo, especialmente a los profesores Cotino y Boix. Esta primera exposicin se ha enriquecido adems con la asistencia posterior a las exposiciones y debates desarrollados en la parte de Teora de la XII edicin del Seminario de Teora y Metodologa (STEM), realizada en Salamanca en noviembre de 2018.

(2). Fernndez, T.R. (1971), “Jurisprudencia y computadores”, Revista de administracin pblica, Nº 64, , pgs. 327-336.

(3). Josserand, L. (1910), “Les transports”, Paris, Nºs 883 a 900

(4). Comunicacin de la Comisin al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comit econmico y social europeo y al Comit de las regiones, Inteligencia artificial para Europa {SWD(2018) 137 final}: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52018DC0237

(5). Gatto, J.T. (2000), Underground History of American Education. An Intimate Investigation Into the Prison of Modern Schooling: https://cdn.greathomeschoolconventions.com/free/Underground-History-of-America-Education.pdf

(6). Ponce, J. (2018), “Innovacin y transdisciplinariedad”, en Fernando Lpez Ramn (coord.), Ricardo Rivero Ortega (coord.), Marcos Matas Fernando Pablo (coord.) Organizacin de la Universidad y la Ciencia, Madrid, INAP, pp. 435 y ss.

(7). Ponce, J. (2018), “La prevencin de riesgos de mala administracin y corrupcin, la inteligencia artificial y el derecho a una buena administracin “, Revista internacional de transparencia e integridad ,Nmero 6 (enero-abril 2018):

https://revistainternacionaltransparencia.org/wp-content/uploads/2018/04/juli_ponce.pdf

(8). Tngase en cuenta ahora en relacin a esta ley el art. 24 de la Ley Orgnica 3/2018, de 5 de diciembre, de Proteccin de Datos Personales y garanta de los derechos digitales:

“Artculo 24. Sistemas de informacin de denuncias internas.

1. Ser lcita la creacin y mantenimiento de sistemas de informacin a travs de los cuales pueda ponerse en conocimiento de una entidad de Derecho privado, incluso annimamente, la comisin en el seno de la misma o en la actuacin de terceros que contratasen con ella, de actos o conductas que pudieran resultar contrarios a la normativa general o sectorial que le fuera aplicable. Los empleados y terceros debern ser informados acerca de la existencia de estos sistemas de informacin.

2. El acceso a los datos contenidos en estos sistemas quedar limitado exclusivamente a quienes, incardinados o no en el seno de la entidad, desarrollen las funciones de control interno y de cumplimiento, o a los encargados del tratamiento que eventualmente se designen a tal efecto. No obstante, ser lcito su acceso por otras personas, o incluso su comunicacin a terceros, cuando resulte necesario para la adopcin de medidas disciplinarias o para la tramitacin de los procedimientos judiciales que, en su caso, procedan. Sin perjuicio de la notificacin a la autoridad competente de hechos constitutivos de ilcito penal o administrativo, solo cuando pudiera proceder la adopcin de medidas disciplinarias contra un trabajador, dicho acceso se permitir al personal con funciones de gestin y control de recursos humanos.

3. Debern adoptarse las medidas necesarias para preservar la identidad y garantizar la confidencialidad de los datos correspondientes a las personas afectadas por la informacin suministrada, especialmente la de la persona que hubiera puesto los hechos en conocimiento de la entidad, en caso de que se hubiera identificado.

4. Los datos de quien formule la comunicacin y de los empleados y terceros debern conservarse en el sistema de denuncias nicamente durante el tiempo imprescindible para decidir sobre la procedencia de iniciar una investigacin sobre los hechos denunciados. En todo caso, transcurridos tres meses desde la introduccin de los datos, deber procederse a su supresin del sistema de denuncias, salvo que la finalidad de la conservacin sea dejar evidencia del funcionamiento del modelo de prevencin de la comisin de delitos por la persona jurdica. Las denuncias a las que no se haya dado curso solamente podrn constar de forma anonimizada, sin que sea de aplicacin la obligacin de bloqueo prevista en el artculo 32 de esta ley orgnica. Transcurrido el plazo mencionado en el prrafo anterior, los datos podrn seguir siendo tratados, por el rgano al que corresponda, conforme al apartado 2 de este artculo, la investigacin de los hechos denunciados, no conservndose en el propio sistema de informacin de denuncias internas.

5. Los principios de los apartados anteriores sern aplicables a los sistemas de denuncias internas que pudieran crearse en las administraciones pblicas.”

(9). Generndose nuevas unidades administrativas como la Mayor's Office of Data Analytics (MODA) en el Ayuntamiento de Nueva York: https://www1.nyc.gov/site/analytics/index.page

(10). El Estado de Indiana (EEUU) a base de utilizar la corriente de datos que generan las instituciones pblicas y los propios ciudadanos (‘open data’) gener un algoritmo que sacaba conclusiones muy valiosas. La fundamental fue que las madres que reciban mejor atencin prenatal preservaban mejor su salud en la gestacin, as que el gobierno potenci esa atencin y logr reducir la mortalidad infantil, despus de dos dcadas intentndolo sin xito por otros medios. Ahora, utilizando el mismo algoritmo, Indiana lucha contra la reincidencia de los exconvictos. Vase: https://www.observatorio-empresas.vodafone.es/articulos/administraciones-publicas/open-data-mortalidad-infantil-indiana-chris-atkins/

(11). https://www.barcelona.cat/infobarcelona/es/barcelona-crea-una-nueva-oficina-municipal-de-datos_617060.html

(12). Resolucin de la Direccin General de la Agencia Estatal de la Administracin Tributaria de 29 de diciembre de 2010 por la que se aprueban las aplicaciones informticas para las actuaciones administrativas automatizadas:

https://www.agenciatributaria.gob.es/static_files/AEAT_Sede/Normativa_sede/Resolucion_%20AAA_%2029122010.pdf

(13). Resolucin de 23 de febrero de 2016, del Instituto Nacional de la Seguridad Social, por la que se regula la tramitacin electrnica automatizada de diversos procedimientos de gestin de determinadas prestaciones del sistema de la Seguridad Social: https://www.boe.es/boe/dias/2016/03/01/pdfs/BOE-A-2016-2076.pdf . Resolucin de 10 de julio de 2018 del Organismo Estatal Inspeccin de Trabajo y Seguridad Social, O.A., por la que se crea el sello electrnico cualificado del organismo: https://www.boe.es/diario_boe/txt.php?id=BOE-A-2018-9997

(14). Estudio sobre el estado de digitalizacin de las empresas y Administraciones Pblicas españolas, realizado por el Observatorio Vodafone de la Empresa mediante entrevistas a responsables de rganos de Administracin Central (47), Seguridad Social (10), Comunidades Autnomas (77), Diputaciones, Cabildos y Consejos (36), Ayuntamientos ms de 500.000 habitantes (11), Ayuntamientos resto capitales de provincia (36), resto de Ayuntamientos (187). Total: 404 entrevistas: https://www.observatorio-empresas.vodafone.es/informes/informe/

(15). House of Commons Science and Technology Committee (2018), Algorithms in decisionmaking

Fourth Report of Session 2017–19:

https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/35102.htm

(16). Se han obtenido las figuras 1 y 2 y los ejemplos del texto de :http://www.universidadupav.edu.mx/documentos/BachilleratoVirtual/Contenidos_PE_UPAV/2Trimestre/INF%202/Unidad1/tema2.pdf

(17). Algunas caractersticas del pseudocdigo son:

-Emplea palabras (en la llengua que se sea) similares a las usadas en los lenguajes de programacin.

- La estructura del texto normalmente emplea sangra en el margen izquierdo.

-Est formado por una cabecera (nombre del programa, tipos de datos, etc.) y el cuerpo (inicio, instrucciones y fin).

- Al lado derecho de las instrucciones se pueden escribir comentarios para darles mayor claridad. Para identificar los comentarios se les anteponen dos diagonales “//” o dos asteriscos “**”.

(18). De La Cueva, Javier (2018) “Cdigo fuente, algoritmos y fuentes del Derecho”, El notario del siglo XXI: revista del Colegio Notarial de Madrid, nm. 77, pp. 24 a 27:

http://www.elnotario.es/index.php/hemeroteca/revista-77/opinion/opinion/8382-codigo-fuente-algoritmos-y-fuentes-del-derecho

(19). House of Commons Science and Technology Committee (2018), Algorithms in decisionmaking

Fourth Report of Session 2017–19:

https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/35102.htm

(20). Sobre este tipo de actuacin, vase por todos Martn Delgado, Isaac. (2009). “Naturaleza, concepto y rgimen jurdico de la actuacin administrativa automatitzada”, Revista de Administracin Pblica, 180, 353-386.

(21). PARADA, R.(1999), Rgimen jurdico de las Administraciones Pblicas y Procedimiento Administrativo Comn, Marcial Pons, Madrid

(22). En el mismo sentido, DELGADO, A.M., y OLIVER, R., “La actuacin administrativa automatizada. Algunas experiencias en el mbito tributario”, Revista Catalana de Dret Pblic, nm. 35, 2007: “Por ello, cuando es una aplicacin informtica exclusivamente quien decide, es decir, quien dicta un acto administrativo, ¿afecta a la validez del propio acto? Las posiciones doctrinales estn encontradas al respecto. () Si bien es verdad que las aplicaciones informticas carecen de voluntad propia, ya que son el resultado de datos y programas, ello no obsta para considerar vlidos los actos producidos de esta manera, respetando los requisitos que exige la normativa legal relativos a la identificacin de los rganos competentes para la programacin y supervisin del sistema de informacin y, por otro lado, de los rganos competentes para resolver los recursos que puedan interponerse, para garantizar el derecho a la defensa de los ciudadanos. Pues, a nuestro juicio, es posible entender la imputacin del acto dictado a los rganos competentes para la programacin y supervisin del funcionamiento de los sistemas de informacin empleado”

(23).

https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf

(24). No nos referimos aqu a la toma de decisiones automatizadas judiciales, que excede, como hemos dicho del objeto de este estudio. Sobre las mismas, vase la ley 18/2011, art. 42 y anexo.

(25). Sheldrake, R. (2013), El espejismo de la ciencia, Kairs

(26). Garca de Enterra, E., (1994), Revolucin Francesa y Administracin Contempornea, Aranzadi, pp. 22 y 23. La traduccin que se efecta en el texto de este autor proviene de la obra en francs de Montesquieu, que se cita en la obra de la siguiente manera De l´Espirit des Lois, part. I.1.I, cap. 1.

(27). Garca de Enterra, E. (1963), “Reflexiones sobre la Ley y los principios generales del Derecho en el Derecho administrativo”, Revista de administracin pblica, Nº 40, pgs. 189-224: “el dogma de la posicin del juez como bouche qui prononce les paroles de la loi, como tre innime, en la clsica expresin de MONTESQUIEU, como reinen Subsumptionsapparat, como puro aparato de subsuncin legal...”, pg. 193, con cita de De l´Espirit des Lois, XI, 6: <<Mais les juges de la nation ne sont, comme nous avons dit, que la bouche qui prononce les paroles de la loi; des tres innimes qui n'en peuvent modrer ni la forc, ni la rigueur>>, y citas tambin de BACHOF, Grundgesetz und Ricktermacht, Tübingen, 1959, pg. 8, y de BOCKELMANN, Richter und Gesetz, en Festgabe fiir R. Smend, Gottingen, 1952, pgs. 25 y ss.: <<La aplicacin de la ley por el juez deba funcionar como un aparato automtico, con la nica particularidad de que el automatismo no es mecnico, sino un automatismo lgico: el juez deba ser un <<esclavo de la ley>>.”

(28). Se cita por la pag. 146 del texto de su discurso de ingreso en la RAE: disponible en:

http://www.rae.es/sites/default/files/Discurso_Ingreso_Eduardo_Garcia_de_Enterria.pdf

(29). De Tocqueville, A. (2006), El Antiguo Rgimen y la Revolucin, Fondo de Cultura Econmica, Mxico, pp. 141 y ss.

(30). Prats, J., “Ilustracin, Administracin Pbica y Sociedad Civil”, Conferencia pronunciada en 2001, disponible en:

http://rseap.webs.upv.es/Anales/01_02/A_Ilustracion_admin_publica_y_sociedad_civil.pdf

(31). Aracil, A (2006) , “ngeles destronados: los autmatas, de la mitologa al parque de atracciones”, Hum736. Papeles de cultura contempornea, nº 9
 (dic. 2006, Granada), pp. 4-13

http://www.alfredoaracil.info/docs/writings/AutomatasUGR.pdf ; https://alfredoaracil.wordpress.com/2012/02/24/los-automatas-angeles-destronados/

(32). Lpez Moratalla, N. (2018), Inteligencia Artificial ¿Conciencia Artificial?, Digital Reasons, 2017, pg. 49.

(33). Aracil: “ngeles destronados: los autmatas, de la mitologa al parque de atracciones”, Hum736. Papeles de cultura contempornea, nº 9
 (dic. 2006, Granada), pp. 4-13

http://www.alfredoaracil.info/docs/writings/AutomatasUGR.pdf

(34). Se ha obtenido la imagen de: http://www.eoht.info/page/Newtonian+government

(35). Foley, M. (1990), Laws, Men and Machines: Modern American Government and the Appeal of Newtonian Mechanics, Routledge.

(36). En 1769, James Madison, a la edad de 18 años decidi asistir al College of New Jersey, actual Universidad de Princeton, donde estudi una forma de fsica social de raz newtoniana bajo la tutora de John Witherspoon, quien a su vez haba tenido como mentor a Montesquieu. Vase: http://www.eoht.info/page/Princeton+social+physics

(37). Sunstein, C.R., (2018), “Algorithms, Correcting Biases”, Preliminary Draft.:

(38). Ponce Sol, J (2018), “ Derecho administrativo, ciencias conductuales y nudging

en la gestin pblica”, Revista Vasca de Gestin de Personas y Organizaciones Pblicas, Nm.15 /2018. Pgs. 8-27:

https://www.euskadi.eus/t59auUdaWar/t59aMostrarFicheroServlet?R01HNoPortal=true&t59aIdRevista=3&t59aTipoEjemplar=R&t59aSeccion=51&t59aContenido=1&t59aCorrelativo=1&t59aVersion=1&t59aNumEjemplar=15

(39). https://elpais.com/internacional/2018/04/18/mundo_global/1524045163_744119.html

(40). La representacin del robot se ha obtenido de la noticia aparecida en prensa, aqu: https://elpais.com/internacional/2018/04/18/mundo_global/1524045163_744119.html

(41). Consultable en varios idiomas (pero no en español) aqu: https://futureoflife.org/ai-open-letter/?cn-reloaded=1

(42). Sobre la necesidad de extender reglas y principios de Derecho Administrativo a empreses privadas que prestan Servicios de inters general en el mbito energtico, puede verse Soto, I. y Ponce, J. (2018), “La pobreza energtica: Del marco constitucional a la gestin administrativa para la proteccin de derechos. En especial, el caso cataln”, en Pobreza energtica : regulacin jurdica y proteccin de los derechos de las persones, FMC y TransJus.

(43). http://noticias.juridicas.com/base_datos/Admin/511395-r-industria-energia-y-turismo-1-de-ago-2013-modificacion-de-procedimientos.html

(44). Una lista de otras 28 en:

https://airtable.com/embed/shrpkHgfDpvec6BA3/tblHPWVuiNI6v63nn?backgroundColor=blue

(45). https://www.legislation.gov.au/Details/C2018C00514

(46). Garca de Enterra, E. y Fernndez, T.R (2000), Curso de Derecho Administrativo, vol. I, 11ªed., pp. 454 y ss.

(47). Tomo la expresin de la profesora Silvia Dez, que la emple oralmente en el seminario STEM de noviembre de 2018, habiendo sido la primera vez que yo haba tenido oportunidad de orla o leerla.

(48). Con ms detalle, vid. PONCE, J. (2019, en prensa), La lucha por el derecho a una buena administracin: el estndar jurdico de diligencia debida y el buen gobierno en las polticas pblicas, Cuadernos de la Ctedra de Democracia y Derechos Humanos, nm. 15, Universidad de Alcal de Henares- Defensor del Pueblo, Alcal de Henares.

(49). Mariglynn Edlins & Stephanie Dolamore (2018)” Ready to serve the public? The role of empathy in public service education programs”, Journal of Public Affairs Education, 24:3, pg. 305: “The importance of empathy in public service is crucial to adequately navigating discretion while upholding public service values”

(50). Moya Albiol, L (2014), La empata. Entenderla para entender a los dems, Plataforma actual, p. 33: “hay que empatizar, y no simpatizar, o sea ponerse en el lugar del otro pero no hacer tuyo su estado emocional”.

(51). Mathieu, R (2016), En defensa del altruismo, Urano.

(52). Iacobini, M., (2009) Las neuronas espejo, Katz.

(53). Fariñas, G., “La vuelta a la phronesis aristotlica en la teora y la prctica de la empresa creadora de conocimiento de Ikujiro Nonaka “, Revista empresa y humanismo, vol XVIII, nº 1, 2015, pp. 41-80

(54). https://www.bbvaopenmind.com/en-busca-de-la-nueva-empatia-humano-maquina/

https://elpais.com/tecnologia/2018/03/16/actualidad/1521199479_115652.html

https://medium.com/thrive-global/our-humanity-is-essential-in-the-age-of-ai-3c4b06e0e3ae

(55). ANTONIO, M., (2007), “El sueño de la razn”: Apuntes sobre la idea de Razn en el grabado de Goya”, Espculo. Revista de estudios literarios. Universidad Complutense de Madrid, num. 36: https://webs.ucm.es/info/especulo/numero36/suerazon.html :

(56). Rojo Rubio, A; Rodrguez Fernndez, M.I (2008), “El estudio de la consciencia: Perspectivas fundamentales”, Trabajo presentado en el 9º Congreso Virtual de Psiquiatra: http://www.maribelium.com/articulos/psicologia/el-estudio-de-la-consciencia-perspectivas-fundame.html

(57). “La consciencia es el mayor enigma de la ciencia y la filosofa”, Conferencia pronunciada por el Prof. F. J. Rubia en la Real Academia Nacional de Medicina el 12 de enero de 2010, con motivo de la inauguracin del curso acadmico. Francisco J. Rubia Vila es Catedrtico de la Facultad de Medicina de la Universidad Complutense de Madrid, y tambin lo fue de la Universidad Ludwig Maximillian de Munich, as como Consejero Cientfico de dicha Universidad. Texto disponible en: https://www.tendencias21.net/La-consciencia-es-el-mayor-enigma-de-la-ciencia-y-la-filosofia_a4026.html

(58). El Cdigo de conducta tica para los ingenieros en robtica anexo a la Resolucin del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisin sobre normas de Derecho civil sobre robtica (2015/2103(INL)) incorpora entre otros el principio de precaucin segn el cual “Las actividades de investigacin en el mbito de la robtica deben llevarse a cabo de conformidad con el principio de precaucin, anticipndose a los posibles impactos de sus resultados sobre la seguridad y adoptando las precauciones debidas, en funcin del nivel de proteccin, al tiempo que se fomenta el progreso en beneficio de la sociedad y del medio ambiente”. Consultable en: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//ES

(59). En el caso concreto, normatives:

“La ponderacin del impacto social contribuye a la revalorizacin de un procedimiento que no puede ser contemplado como una mera formalidad, en tanto que garanta de la efectividad de los derechos de los ciudadanos. Desde luego han ido reforzndose paulatinamente las exigencias requeridas en la evaluacin del impacto econmico y nuestra jurisprudencia tambin lo ha venido a reconocer (como acreditan las Sentencias de 5 y 13 de mayo de 2009, RC 133 y 126/2007 y 131/2007, respectivamente, que su vez invocan la autoridad de otras dos anteriores dictadas por el Pleno de esta Sala de 27 de noviembre de 2006, Rec. 51 y 53/2006, respectivamente; incluso con entendimiento ms amplio, Sentencia de 18 de junio de 2012 RC 6513/2009).

Pero el avance en las previsiones sobre el impacto social y medio ambiental recogidas ya en el Real Decreto 1083/2009 (artculo 1.2), dentro del contenido de la memoria del anlisis de impacto normativo de forma adicional a su contenido propio (artculo 1.1), ha llevado ms tiempo en dejarse sentir, pese a su indubitada conexin, por una parte, con el concepto de la sostenibilidad social, ya recogido incluso por la propia Constitucin (artculo 135.4), y del que no parece irrazonable deducir la necesidad de requerir un esfuerzo complementario de motivacin para explicar las razones que llevan a la adopcin de determinadas normativas que inciden negativamente sobre los derechos sociales (en este sentido, se pronuncian expresamente sendos votos particulares a las sentencias constitucionales 49/2015 y 139/2016), y si en materia de medio ambiente la jurisprudencia ha venido a consagrar la exigencia de aportar una motivacin reforzada en sustento de la adopcin de una medida regresiva en base al principio ambiental de no regresin -Sentencias de 13 de junio de 2011 RC 4045/2009, 30 de septiembre de 2011 RC 1294/2008 y de 29 de marzo de 2012 RC 3425/2009- como consecuencia a su vez del principio de la sostenibilidad ambiental, no parece que el principio de precaucin social pueda comportar menores exigencias; y, por otra parte, con el derecho a la buena administracin, contemplado en el artculo 41 de la Carta Europea de Derechos Fundamentales, que en su germen lleva tambin la procedencia de observar un deber de cuidado en la adopcin de las decisiones con la debida ponderacin de todos los intereses y hechos relevantes; y ello ha de encontrar adecuado reflejo en la memoria del anlisis de impacto normativo”

(60). Isaac Martn acepta la posibilidad de decisiones automatizadas en el ejercicio de la discrecionalidad tcnica, Martn, I., (2009) “La gestin electrnica del procedimiento administrativo”, QDL, nm. 21, octubre, p.99:

“Es evidente que, si se circunscribe el mbito de aplicacin de la actuacin administrativa automatizada exclusivamente al campo de las potestades regladas, no ha lugar a la duda. Sin embargo, no debe descartarse el uso de sistemas de informacin en el ejercicio de potestades discrecionales en las que la discrecionalidad sea de baja intensidad. Me estoy refiriendo, en concreto, a la discrecionalidad tcnica. No es difcil parametrizar en estos casos. Los mritos que rene el aspirante a una plaza de funcionario pblico, o la puntuacin que debe obtener una oferta para la adjudicacin de un contrato administrativo, aun cuando son susceptibles de valoracin por el rgano llamado a concretarlos, esa valoracin, tcnicamente hablando, puede ser llevada a cabo por una mquina en uso de una aplicacin informtica debidamente configurada”

No podemos ahora extendernos en el concepto de discrecionalidad tcnica, pero s recordar que, por supuesto, la existencia de discrecionalidad tcnica no implica ni la ausencia de control, judicial en su caso, ni la prohibicin de arbitrariedad, as como que las obligaciones del derecho ciudadano a una buena administracin siguen vigentes. Dicho esto, no cabe considerar que siempre y en todo caso la discrecionalidad tcnica sea una "contradictio in terminis", con el argumento de que la misma aplicacin de reglas tcnicas dejaba fuera de campo la posible discrecionalidad decisoria. Pues es posible encontrar opiniones variadas, sobre todo en el campo de las ciencias sociales, però no nicamente, que implican un alto margen de opinabilidad que dista mucho de aproximarse al de una solucin nica. Como señala por ejemplo el TC en su sentencia de 6 de febrero de 1995, son possibles “"diversas interpretaciones a las que son propensos los exmenes de tipo test, el carcter esencialmente discutible de toda materia jurdica y la falta absoluta de precisin del lenguaje jurdico"”, por ejemplo y por citar solo una disciplina.

Por ello, en nuestra opinin, existiendo autntica discrecionalidad tcnica sta no sera parametrizable al 100% y por tanto sera preferible evitar la automatizacin por las razones aducidas.

(61). Vase al respecto, en el apartado siguiente, el razonamiento que efecta un tribunal administrativo italiano al respecto.

(62). Es habitual que los contratistas de la Administracin pblica establezcan clusulas de confidencialidad o simplemente entreguen aplicaciones cerradas sin permitir el acceso al cdigo Fuente, a pesar de que la LCSP dispone que, en principio, en los pliegos de clusulas administrativas o en el documento contractual, los contratos de servicios que tengan por objeto el desarrollo y la puesta a disposicin de productos protegidos por un derecho de propiedad intelectual o industrial llevarn aparejada la cesin de este a la Administracin contratante (artculo 308.1).

(63). “SEGUNDO.- Sobre el derecho a una buena administracin, sobre el principio de transparencia administrativa y sobre su manifestacin en el derecho constitucional de acceso del ciudadano a los archivos y registros administrativos.

El derecho a una buena administracin se contena en el artculo 41 de la Carta de Derechos Fundamentales de la Unin Europea de 7 de diciembre de 2000). Esa Carta no se encontraba integrada en los Tratados Constitutivos pero fue asumida por todos los pases miembros en la cumbre de Niza - Tratado de 26 de febrero de 2001 -. Y ese derecho sera concretado despus en el Cdigo Europeo de Buena Conducta Administrativa de 2005.

En el derecho a una buena administracin se integra el derecho de acceso de los ciudadanos a los archivos y registros administrativos, derecho reconocido en el artculo 105.b. de la Constitucin (RCL 1978, 2836) y que, al igual que el derecho de audiencia o la obligacin de motivar las decisiones administrativas, como decamos, ntegra el contenido del derecho a una buena administracin, derecho de ltima generacin.”

(64). En el mismo sentido, STS de 6 de octubre de 2015. En su escrito de demanda, la representacin procesal de la entidad mercantil recurrente adujo que se vulner el trmite de informacinpblica, al no haber prestado atencin alguna a las alegaciones formuladas por los interesados en el primer perodo de dicho trmite . Pues bien, el TS señala que:

<<En definitiva, como esta Sala del Tribunal Supremo ha declarado, entre otras, en sus Sentencias de fechas 25 de febrero de 2003 (recurso de casacin 6876/1999), 16 de febrero de 2009 (recurso de casacin 9414/2004) y 15 de marzo de 2012 (recurso de casacin 6335/2008), la falta de respuesta a las alegaciones presentadas en el trmite de informacin pblica equivale a la privacin del derecho de audiencia, lo que supone la omisin de un trmite esencial del procedimiento, ya que el exacto cumplimiento de dicho trmite de informacin pblica requiere no slo la mera formalizacin y recepcin de las diversas alegaciones de los interesados sino su atenta lectura y contestacin especfica sobre las razones que lleven a la aceptacin o rechazo de tales alegaciones, y exclusivamente as cabe tener por cumplido el trmite de informacin pblica destinado a posibilitar la participacin pblica en la elaboracin del planeamiento”

(65). Ponce, J., (2012) “El ejercicio privado de funciones pblicas en el moderno derecho pblico: la supervisin por los Ombudsmen de los privados a propsito del nuevo papel del Defensor cataln”, Documento de Trabajo nm. 13, PRADPI, Alcal de Henares:

https://pradpi.es/documentos_trabajo/DT_13_Juli_Ponce_Sole.pdf

(66). Citron, D. (2008) “Technological Due Process’”85 Washington University Law Review 1249, 1256.

(67). As, en el mbito del soft law, las Directrices estatales de tcnica normativa aprobadas en 2005, señalan en su art. 101 que “ el destinatario de las normas jurdicas es el ciudadanos”, por lo que “deben redactarse en un nivel de lenguaje culto , pero accesible”.

En el mbito del hard law, la ley 14/1986, General de Sanidad, art. 10, dispone que toda persona tiene el derecho “a que se le d en trminos comprensibles, a l y a sus familiares o allegados, informacin completa y continuada, verbal y escrita, sobre su proceso, incluyendo diagnstico, pronstico y alternativas de tratamiento”. Una falta de diligencia en hacer la informacin comprensible podra, pues, generar responsabilidad patrimonial de la Administracin sanitaria, por incumplimiento de ese “deber de comprensin” (STS de 2 de noviembre de 2007, rec. 5765/2003, FJ 2, entre otras).

Asimismo, la ley 19/2013 ya aludida, cuando se refiere en su art. 5.5 a la publicidad activa, señala que:

“Toda la informacin ser comprensible, de acceso fcil y gratuito y estar a disposicin de las personas con discapacidad en una modalidad suministrada por medios o en formatos adecuados de manera que resulten accesibles y comprensibles, conforme al principio de accesibilidad universal y diseño para todos”.

En la misma lnea, la ley 39/2015, de procedimiento administrativo comn, en referencia a la actividad de regulacin, señala en su art. 129 el debido respeto de diversos principios generales del derecho referidos a la buena regulacin, entre los que queremos destacar ahora los siguientes:

“artculo 129. Principios de buena regulacin.

2. En virtud de los principios de necesidad y eficacia, la iniciativa normativa debe estar justificada por una razn de inters general, basarse en una identificacin clara de los fines perseguidos y ser el instrumento ms adecuado para garantizar su consecucin.

4. A fin de garantizar el principio de seguridad jurdica, la iniciativa normativa se ejercer de manera coherente con el resto del ordenamiento jurdico, nacional y de la Unin Europea, para generar un marco normativo estable, predecible, integrado, claro y de certidumbre, que facilite su conocimiento y comprensin y, en consecuencia, la actuacin y toma de decisiones de las personas y empresas.

5. En aplicacin del principio de transparencia, las Administraciones Pblicas posibilitarn el acceso sencillo, universal y actualizado a la normativa en vigor y los documentos propios de su proceso de elaboracin, en los trminos establecidos en el artculo 7 de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la informacin pblica y buen gobierno; definirn claramente los objetivos de las iniciativas normativas y su justificacin en el prembulo o exposicin de motivos; y posibilitarn que los potenciales destinatarios tengan una participacin activa en la elaboracin de las normas.”

(68). Aunque sin duda el derecho a una explicacin comprensible puede ser difcil en el caso de algoritmos de aprendizaje automtico o profundo, lo cierto es que la carga de la misma recae en la Administracin obligada.

Se han expuesto diversos medios, algunos en uso, otros en desarrollo, para facilitar ese derecho a una explicacin comprensible. Por ejemplo, las llamadas explicaciones contrafactuales. Un ejemplo sera cuando una solicitud de prstamo bancario es denegada y el algoritmo se ocupara de decir que debera haber necesitado el solicitante para conseguir el prstamo y de dar algunos elementos para ello: por ejemplo, que si el ingreso fuera de X miles euros ms, se habra concedido. Compañas como Google estn trabajando con instrumentos de visualizacin de datos mejores que puedan ayudar a comprender al algoritmo, sin exponer toda su complejidad, como cuadros de instrumentos de automviles que indican ciertos niveles como el aceite, la gasolina, etc. Vase House of Commons Science and Technology Committee (2018), Algorithms in decisionmaking, Fourth Report of Session 2017–19:

https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/35102.htm

(69). Commission d’accès aux documents administratifs, avis 20144578, 8 de enero de 2015 y avis 20180276, 19 de abril de 2018, consultables en https://www.cada.fr/20180276

(70). 281 TAR Lazio-Roma, Seccin III bis, 22 de marzo de 2017, No 3769: https://www.giurdanella.it/2017/05/02/gestione-procedura-mobilita-docenti-miur-condannato-a-pubblicare-algoritmo/ . En concreto la sentencia señala que:

“si ritiene che la qualificabilità in termini di atto amministrativo informatico del software ai fini che interessano possa essere fondatamente sostenuta sulla base delle seguenti considerazioni:

– è con il software che si concretizza la volontà finale dell’amministrazione procedente;

– è con il software che, in definitiva, l’amministrazione costituisce, modifica o estingue le situazioni giuridiche individuali anche se lo stesso non produce effetti in via diretta all’esterno;

– il software finisce per identificarsi e concretizzare lo stesso procedimento;

– la circostanza che il software sia compilato mediante linguaggi di programmazione che sono solitamente incomprensibili non solo al funzionario che ne fa uso ai fini della elaborazione della decisione finale del procedimento amministrativo ma anche al privato destinatario dell’atto stesso non appare dirimente atteso che, da un lato, la predetta circostanza è conseguenza della scelta, questa sì discrezionale dell’amministrazione di ricorrere a uno strumento innovativo, quale è ancora la programmazione informatica, per la gestione di un procedimento di propria spettanza e competenza e che, dall’altro, ai fini della sua comprensione e della verifica della sua correttezza, il privato destinatario dell’atto, in particolare, può, comunque, legittimamente avvalersi dell’attività professionale di un informatico competente in materia;

– la circostanza che il software non sia elaborato direttamente da parte dell’amministrazione pubblica ma da parte di un soggetto privato specificatamente competente in materia, anche se sulla base delle indicazioni puntuali in ordine ai criteri e alle finalità di natura amministrativa fornite dalla stessa amministrazione, parimenti, non assume valenza dirimente ai fini che interessano, in quanto già in precedenza si è rilevato come la stessa nozione di atto amministrativo informatico, per come elaborata in sede di accesso agli atti nell’ambito dell’art. 22, comma 1, lett. d), della legge n. 241 del 1990, sia idonea a ricomprendere in s anche atti di provenienza e disciplina sostanziale di natura privatistica, purch utilizzati da un’amministrazione nell’ambito di un’attività di rilievo pubblicistico”

(71). Vase Garca Herrero, J., “¿Cmo auditar un algoritmo?”, entrada de 28 de febrero de 2017 en el blog https://jorgegarciaherrero.com/auditar-algoritmo/

(72). Vase la Algorithmic Justice League: https://www.ajlunited.org/ . Tambin House of Commons Science and Technology Committee (2018), Algorithms in decisionmaking, Fourth Report of Session 2017–19:

https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/35102.htm

(73). Calders, T., Kamiran, F., & Pechenizkiy, M. (2009, December). “Building classifiers with independency constraints”. In Data mining workshops, 2009. ICDMW'09. IEEE international conference on (pp. 13-18). IEEE.

(74). Noto La Diega, G. (2018), “Against the Dehumanisation of Decision-Making – Algorithmic Decisions at the Crossroads of Intellectual Property, Data Protection, and Freedom of Information”, 9 (2018) JIPITEC 3 para 1.

(75). “Artculo 28. Obligaciones generales del responsable y encargado del tratamiento.

1. Los responsables y encargados, teniendo en cuenta los elementos enumerados en los artculos 24 y 25 del Reglamento (UE) 2016/679, determinarn las medidas tcnicas y organizativas apropiadas que deben aplicar a fin de garantizar y acreditar que el tratamiento es conforme con el citado reglamento, con la presente ley orgnica, sus normas de desarrollo y la legislacin sectorial aplicable. En particular valorarn si procede la realizacin de la evaluacin de impacto en la proteccin de datos y la consulta previa a que se refiere la Seccin 3 del Captulo IV del citado reglamento.

2. Para la adopcin de las medidas a que se refiere el apartado anterior los responsables y encargados del tratamiento tendrn en cuenta, en particular, los mayores riesgos que podran producirse en los siguientes supuestos:

a) Cuando el tratamiento pudiera generar situaciones de discriminacin, usurpacin de identidad o fraude, prdidas financieras, daño para la reputacin, prdida de confidencialidad de datos sujetos al secreto profesional, reversin no autorizada de la seudonimizacin o cualquier otro perjuicio econmico, moral o social significativo para los afectados.

b) Cuando el tratamiento pudiese privar a los afectados de sus derechos y libertades o pudiera impedirles el ejercicio del control sobre sus datos personales.

c) Cuando se produjese el tratamiento no meramente incidental o accesorio de las categoras especiales de datos a las que se refieren los artculos 9 y 10 del Reglamento (UE) 2016/679 y 9 y 10 de esta ley orgnica o de los datos relacionados con la comisin de infracciones administrativas.

d) Cuando el tratamiento implicase una evaluacin de aspectos personales de los afectados con el fin de crear o utilizar perfiles personales de los mismos, en particular mediante el anlisis o la prediccin de aspectos referidos a su rendimiento en el trabajo, su situacin econmica, su salud, sus preferencias o intereses personales, su fiabilidad o comportamiento, su solvencia financiera, su localizacin o sus movimientos.

e) Cuando se lleve a cabo el tratamiento de datos de grupos de afectados en situacin de especial vulnerabilidad y, en particular, de menores de edad y personas con discapacidad.

f) Cuando se produzca un tratamiento masivo que implique a un gran nmero de afectados o conlleve la recogida de una gran cantidad de datos personales.

g) Cuando los datos personales fuesen a ser objeto de transferencia, con carcter habitual, a terceros Estados u organizaciones internacionales respecto de los que no se hubiese declarado un nivel adecuado de proteccin.

h) Cualesquiera otros que a juicio del responsable o del encargado pudieran tener relevancia y en particular aquellos previstos en cdigos de conducta y estndares definidos por esquemas de certificacin.”

(76). “an AI Watchdog, or a trusted and independent regulatory body” which would be “equipped with the proper expertise (spanning ideally law, ethics, to computer science), resources and auditing authority (to make inspections) to ensure that algorithmic decision making is fair, unbiased and transparent”. Vase House of Commons Science and Technology Committee (2018), Algorithms in decisionmaking

Fourth Report of Session 2017–19:

https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/35102.htm

(77). Dado que creemos que sta debera circuncribirse al ejercicio de potestades reglades, tngase en cuenta, por todas, la Sentencia de 16 de febrero de 2009:

“En esta tesitura, como hemos subrayado en la () sentencia de 14 de julio de 2008 (FJ 4º) y en la de 22 de septiembre del mismo año (casacin para la unificacin de doctrina 324/07, FJ 3º), para determinar si un sujeto de derecho est obligado jurdicamente a soportar el daño que le ha infligido el funcionamiento de un servicio pblico, uno de los elementos a tomar en consideracin es la naturaleza misma de la actividad administrativa. Decamos entonces que el panorama no es igual si se trata del ejercicio de potestades discrecionales, en las que la Administracin puede optar entre diversas alternativas, indiferentes jurdicamente, sin ms lmite que la arbitrariedad que proscribe el artculo 9, apartado 3, de la Constitucin, que si acta poderes reglados, en lo que no dispone de margen de apreciacin, limitndose a ejecutar los dictados del legislador. Y ya en este segundo grupo, habr que discernir entre aquellas actuaciones en las que la predefinicin agotadora alcanza todos los elementos de la proposicin normativa y las que, acudiendo a la tcnica de los conceptos jurdicos indeterminados, impelen a la Administracin a alcanzar en el caso concreto la nica solucin justa posible mediante la valoracin de las circunstancias concurrentes, para comprobar si a la realidad sobre la que acta le conviene la proposicin normativa delimitada de forma imprecisa. Si la solucin adoptada se produce dentro de los mrgenes de lo razonable y de forma razonada, el administrado queda compelido a soportar las consecuencias perjudiciales que para su patrimonio jurdico derivan de la actuacin administrativa, desapareciendo as la antijuridicidad de la lesin [vase nuestra sentencia de 5 de febrero de 1996, ya citada, FJ 3º, rememorada en la de 24 de enero de 2006 (casacin 536/02, FJ 3º); en igual sentido se manifestaron las sentencias de 13 de enero de 2000 (casacin 7837/95, FJ 2º), 12 de septiembre de 2006 (casacin 2053/02, FJ 5º), 5 de junio de 2007 (casacin 9139/03, FJ 2º), 31 de enero de 2008 (casacin 4065/03, FJ 3º) y 5 de febrero de 2008 (recurso directo 315/06, FJ 3º)]. >>Ahora bien, no acaba aqu el catlogo de situaciones en las que, atendiendo al cariz de la actividad administrativa de la que emana el daño, puede concluirse que el particular afectado debe sobrellevarlo. Tambin resulta posible que, ante actos dictados en virtud de facultades absolutamente regladas, proceda el sacrificio individual, no obstante su anulacin posterior, porque se ejerciten dentro de los mrgenes de razonabilidad que cabe esperar de una Administracin pblica llamada a satisfacer los intereses generales y que, por ende, no puede quedar paralizada ante el temor de que, si revisadas y anuladas sus decisiones, tenga que compensar al afectado con cargo a los presupuestos pblicos, en todo caso y con abstraccin de las circunstancias concurrentes. En definitiva, para apreciar si el detrimento patrimonial que supone para un administrado el funcionamiento de un determinado servicio pblico resulta antijurdico ha de analizarse la ndole de la actividad administrativa y si responde a los parmetros de racionalidad exigibles. Esto es, si, pese a su anulacin, la decisin administrativa refleja una interpretacin razonable de las normas que aplica, enderezada a satisfacer los fines para los que se la ha atribuido la potestad que ejercita. As lo hemos expresado en las dos sentencias referidas de 14 de julio y 22 de septiembre de 2008, dictadas en unificacin de doctrina (FFJJ 4º y 3º, respectivamente)”.

(78). Art. 34.1 Ley 40/2015: “Slo sern indemnizables las lesiones producidas al particular provenientes de daños que ste no tenga el deber jurdico de soportar de acuerdo con la Ley. No sern indemnizables los daños que se deriven de hechos o circunstancias que no se hubiesen podido prever o evitar segn el estado de los conocimientos de la ciencia o de la tcnica existentes en el momento de produccin de aqullos...”

(79). Smith, A., La teora de los sentimientos morales, cuya primera edicin apareci en 1759 y que se cita aqu por la edicin española de Alianza Editorial, tercera reimpresin de 2012, pg. 49.

Comentarios - 2 Escribir comentario

#2

Me ocurre lo mismo, el articulo aparece cortado

Escrito el 25/04/2019 13:49:33 por jescudero.agad@salud.madrid.org Responder Es ofensivo Me gusta (0)

#1

al descargar el artículo, aparece recortado el margen derecho.¿cómo podría corregir esto?
gracias.
josea.martinez7@carm.es

Escrito el 09/04/2019 13:58:37 por josea.martinez7@carm.es Responder Es ofensivo Me gusta (0)

Escribir un comentario

Para poder opinar es necesario el registro. Si ya es usuario registrado, escriba su nombre de usuario y contrasea:

 

Si desea registrase en la Administracin al Da y poder escribir un comentario, puede hacerlo a travs el siguiente enlace: Registrarme en La Administracin al Da.

  • El INAP no es responsable de los comentarios escritos por los usuarios.
  • No est permitido verter comentarios contrarios a las leyes espaolas o injuriantes.
  • Reservado el derecho a eliminar los comentarios que consideremos fuera de tema.

Últimos estudios

Conexión al Diario

Ágora

Ágora, Biblioteca online de recursos de la Administración Pública

Publicaciones

Lo más leído:

 

Atención al usuario: publicacionesinap.es

© INAP-2024

Icono de conformidad con el Nivel Doble-A, de las Directrices de Accesibilidad para el Contenido Web 1.0 del W3C-WAI: abre una nueva ventana