David Antonio Cuesta Bárcena

David Antonio Cuesta Bárcena es Profesor Ayudante Doctor en la Universidad de Cantabria
El artículo se publicó en el número 70 de la Revista General de Derecho Administrativo (Iustel, octubre 2025)
THE EXERCISE OF SANCTIONING POWERS THROUGH ARTIFICIAL INTELLIGENCE: REALITIES AND ILLUSIONS?
ABSTRACT: The automation of administrative procedures through artificial intelligence is still an incipient phenomenon, yet one that is expected to undergo significant development, the limits of which are difficult to foresee. However, this technology does not fit easily within the current legal framework, as it proves incompatible with certain essential procedural steps and safeguards. It is therefore necessary to examine each procedure and stage individually in order to assess the feasibility of its automation. This analysis may begin with the sanctioning procedure, which is subject to the highest legal safeguards; examining aspects such as its initiation, the assessment of minutes, the motion for a resolution or its termination provides valuable insights for reflecting on the use of artificial intelligence by public administrations.
I. LA AUTOMATIZACIÓN DE PROCEDIMIENTOS ADMINISTRATIVOS MEDIANTE INTELIGENCIA ARTIFICIAL
El desarrollo de la tecnología en las últimas décadas ha transformado profundamente el funcionamiento de la Administración pública. En búsqueda de la ansiada eficacia administrativa a que aspira el artículo 103.1 CE, la legalidad se ha ido llenando de nuevas realidades, como el expediente en formato electrónico, la práctica de notificaciones por medios electrónicos, las sedes electrónicas o la identificación personal mediante el certificado y la firma electrónicos. Esta transformación se ha acentuado en los últimos años con el desarrollo de la inteligencia artificial (IA, en adelante). El término <<inteligencia artificial>> hace referencia a la realización, por sistemas informáticos, de tareas que anteriormente exigían la intervención humana o que se consideran características del ser humano por exigir alguna forma de razonamiento(1). Los instrumentos de IA toman sus decisiones siguiendo un determinado procedimiento lógico llamado <<algoritmo>>, una secuencia finita de instrucciones que permite resolver un problema. El software que implementa este algoritmo está formado por una serie de instrucciones codificadas en lenguaje de programación: el <<código fuente>>. Esta tecnología ha abierto un horizonte de oportunidades e incertidumbres muy favorable al optimismo y al pesimismo exacerbado(2). In medio stat virtus. La IA está llamada a traer grandes avances, especialmente necesarios en una Administración excesivamente burocratizada y falta de medios materiales y personales, pero no va a compensar todas sus carencias ni a corregir todas sus ineficiencias. La IA entraña riesgos, representados principalmente por los sesgos, pero no debe temerse la transformación de las ciudades en la Metrópolis de T. von Harbou(3).
La pregunta más básica que plantea la introducción de la IA en la Administración es en qué medida resulta posible que ésta ejerza sus potestades mediante aquélla. Este interrogante es poco menos que diabólico: las posibilidades que ofrece esta tecnología disruptiva y la heterogeneidad de las potestades administrativas impiden dar una respuesta general y cerrada. No obstante, pueden establecerse algunas máximas, aunque sean aproximativas, a partir del estudio de sus características principales (apdo. 1) y de la legislación actual (apdo. 2).
1. Ejercicio de potestades administrativas mediante IA
La IA es una tecnología compleja con multitud de variantes que conviene diferenciar a efectos de analizar sus posibles usos por la Administración pública. Aún a riesgo de simplificarla excesivamente, sus múltiples tipos pueden dividirse en dos grandes grupos: simbólicos y computacionales.
En los primeros, existe una predeterminación tendencialmente absoluta en lenguaje computacional: la máquina es instruida y opera a modo de silogismo(4). El algoritmo ha sido completamente definido por el programador y consiste en una secuencia de instrucciones precisas.
En los segundos, la predeterminación no existe en sentido estricto, la máquina no tiene un funcionamiento preprogramado al detalle, sino que el resultado que ofrece deriva de un proceso interno autónomo y no dependiente de la voluntad humana(5). La máquina no está programada con reglas explícitas, sino que aprende correlaciones (no relaciones causales) mediante técnicas estadísticas y matemáticas. El algoritmo consiste en un conjunto de procedimientos que permiten ajustar internamente sus parámetros (como los pesos de una red neuronal) para minimizar el error en las respuestas (predicciones) o en la clasificación de los datos. No contiene directamente la solución a los problemas planteados, sino las instrucciones para que el sistema aprenda a aproximarla a partir de los datos. En consecuencia, una vez definido el algoritmo, la máquina necesita entrenarse con cantidades masivas de datos (etiquetados, cuando el sistema requiere conocer el resultado correcto asociado a cada entrada [v. gr. clasificación de imágenes o detección de fraude], o no etiquetados, cuando aprende estructuras o patrones sin supervisión directa [v. gr. agrupación automática de documentos]) para ir ajustando automáticamente sus parámetros internos hasta alcanzar un rendimiento satisfactorio. En este proceso cabe distinguir entre los algoritmos de entrenamiento, que permiten al sistema aprender a partir de los datos, y los algoritmos de funcionamiento o de inferencia, que aplican lo aprendido a nuevos casos concretos. En este paradigma computacional se distingue, a su vez, entre el machine learning y el deep learning, basado este último en arquitecturas de redes neuronales profundas. El deep learning permite a la Administración procesar y analizar grandes volúmenes de datos complejos y no estructurados de forma automática, mejorando la precisión y eficiencia en tareas como la detección de fraudes, el análisis de imágenes satelitales o la gestión documental, frente a los modelos de machine learning. La distinción no es, empero, meramente técnica, puede tener implicaciones jurídicas relevantes, particularmente en cuanto al grado de explicabilidad de los resultados. En los modelos de machine learning es posible reconstruir el camino seguido por el algoritmo: qué variables han influido en la decisión y con qué peso. Esta trazabilidad permite ofrecer justificaciones comprensibles del resultado. Por el contrario, en el deep learning, aunque se conoce formalmente el algoritmo y se dispone de los datos de entrada y salida, el número de parámetros y la forma en que se procesan internamente las señales hacen que el modelo funcione como una auténtica <<caja negra>>. Resulta extremadamente difícil, incluso para los desarrolladores, explicar por qué el sistema ha llegado a una conclusión concreta(6).
Ahora bien, ni los sistemas de machine learning ni los de deep learning, en su configuración pura, pueden dictar actos administrativos motivados, por cuanto no son capaces de aplicar ni interpretar normas jurídicas ni de construir un razonamiento normativo explícito y controlable. Aunque el machine learning permite una mayor trazabilidad que el deep learning, sus resultados se fundamentan en correlaciones estadísticas, no en argumentos jurídicos, y carecen, por tanto, de la motivación necesaria. Esta limitación, empero, puede superarse mediante la construcción de sistemas mixtos, en los que el aprendizaje automático se utilice exclusivamente para identificar hechos o patrones en los datos, mientras que la aplicación de la norma y la motivación del acto se confíen a un módulo específicamente diseñado con base en reglas jurídicas explícitas. Así, la decisión final será expresable en términos normativos.
En toda esta complejidad, las aplicaciones de la IA en la Administración pueden ser múltiples y diversas; entre otros: envío automático de correos electrónicos para realizar comunicaciones; captación de imágenes para determinar si un vehículo ha superado el límite de velocidad o ha circulado por una zona de acceso restringido, automatizando la denuncia; o elaboración de borradores de resoluciones administrativas o de autoliquidaciones de impuestos(7).
La valoración jurídica de la utilización de la IA por la Administración es, en cambio, discutible. Lo más sensato y realista es analizar potestad por potestad, trámite por trámite del procedimiento administrativo, para determinar qué concreto sistema se podría implantar para su realización y en qué medida. No parece responsable admitir indiscriminadamente la IA para ejercer potestades administrativas sin tener en cuenta, por ejemplo, si los efectos de éstas se limitan al interior de la Administración o trascienden a los ciudadanos y, en este caso, si los efectos para los mismos son favorables o desfavorables; si la potestad está vinculada a la prestación de servicios públicos y la realización del Estado Social; si la potestad puede generar efectos generales estables en el tiempo, como en el caso de las potestades de planificación; los intereses generales subyacentes a la potestad; si la herramienta va a utilizarse para automatizar completamente la decisión o va a ser un elemento más de análisis o apoyo en la tramitación del procedimiento; o si la potestad es reglada o discrecional(8).
Entre estos factores, resulta particularmente relevante el carácter reglado o discrecional de las potestades administrativas: a salvo de mayores precisiones por otras características, el carácter reglado o discrecional marca una diferencia fundamental entre las potestades administrativas que determina su ejercicio mediante instrumentos de IA.
En las potestades regladas, la norma jurídica regula exhaustivamente el supuesto de hecho y la consecuencia jurídica: la Administración no tiene margen de valoración subjetiva en su ejercicio, se limita a constatar la concurrencia del supuesto de hecho y aplicar la única consecuencia jurídica prevista. En las potestades discrecionales, la norma jurídica regula exhaustivamente el supuesto de hecho, pero confiere a la Administración un margen de valoración subjetiva en la elección de la consecuencia jurídica, un margen para elegir entre varias decisiones lícitas (discrecionalidad de elección) o entre actuar o no actuar (discrecionalidad de actuación)(9).
El uso de herramientas de IA en el ejercicio de potestades regladas no presenta a priori grandes problemas. Al contrario, parece un ámbito propicio para esta tecnología, en el que se podría incrementar la capacidad de la Administración para resolver expedientes. Incluso, podría prescindirse de la referencia a la utilización de IA en la adopción de la resolución, pues ello resultaría irrelevante para su control jurídico, ya que éste se limitaría a la comparación de aquélla con el marco normativo correspondiente. El límite principal para esta tecnología en estas potestades viene impuesto por su incapacidad para valorar determinados tipos de pruebas y, en consecuencia, verificar la concurrencia de algunos supuestos de hecho(10). Tal es así que parece poco viable más allá de asuntos sencillos cuya interpretación resulte evidente mediante documentos, imágenes o mediciones claras (v. gr. liquidación de un tributo a partir de una declaración presentada por el contribuyente).
Más complejo resulta el empleo de la IA en el ejercicio de potestades discrecionales, en relación con las cuales parecen ideales los modelos computacionales o, más correctamente, mixtos simbólicos-computacionales, por su capacidad para analizar multitud de alternativas(11). Esta posibilidad ha sido fuertemente cuestionada por la doctrina nacional e internacional, al menos para la toma de decisiones, la adopción de los actos administrativos finalizadores del procedimiento; no tanto para el apoyo a la toma de decisiones, la asistencia a las personas físicas que adopten estos actos o la adopción de actos de trámite(12). Entre los distintos argumentos empleados, parecen especialmente convincentes los planteamientos de J. Ponce Solé, que critica la falta de empatía y capacidad de realizar inferencias abductivas de las máquinas. La empatía debe entenderse ínsita en el derecho a una buena administración, pues ésta exige la debida diligencia en la toma en consideración de todos los factores relevantes antes de adoptar una decisión administrativa, siendo la situación concreta de la persona que se relaciona jurídicamente con la Administración un factor relevante a tomar en cuenta(13). Las máquinas, carentes de empatía, no pueden realizar satisfactoriamente este ejercicio. Tampoco pueden tomar decisiones como las personas, que utilizan inferencias abductivas para realizar conjeturas vinculadas a una comprensión global del mundo y a las experiencias vividas y con sentido común. Las máquinas realizan inferencias deductivas o inductivas(14). En consecuencia, propone una <<reserva de humanidad>> para la toma de decisiones administrativas en el ejercicio de potestades discrecionales(15). En este sentido, también resultan relevantes las reflexiones de I. Martín Delgado, A. Huergo Lora y S. de la Sierra Morón. El primero defiende que <<con el estado actual de la tecnología, no cabe ejercer potestades discrecionales en sentido estricto de forma completamente automatizada a través de sistemas algorítmicos precisamente por [el] margen “político” de actuación: la expresión de la voluntad político-administrativa, que implica actos de dirección, coordinación o similares, ha de llevarse a cabo por humanos>>(16). El segundo sostiene que el razonamiento valorativo necesario para elegir entre las distintas decisiones jurídicamente válidas es <<totalmente ajeno al ámbito de la inteligencia artificial>> y que <<en la medida en que haya juicios de valor o preferencias entre intereses enfrentados entre sí, no veo cómo podrá sustituirse el juicio humano (la preferencia humana) por un juicio informático>>(17). La tercera advierte que delegar en instrumentos de inteligencia artificial el ejercicio de potestades discrecionales supondría la deshumanización de la Administración pública y del Estado y que un Estado de Derecho requiere que las personas tomen las riendas en lo esencial y no deleguen sino lo estrictamente instrumental(18). Finalmente, hay que tener presente que el artículo 35.1 i) de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas (LPACAP, en adelante) exige la motivación de los actos administrativos dictados en el ejercicio de potestades discrecionales y que la misma habría de incluir la justificación de las conclusiones alcanzadas por el sistema de IA para poder controlarlas judicialmente(19); exigencia inalcanzable (al menos, plenamente) para la IA basada en deep learning, la más potente.
No hay que confundir el margen de valoración subjetiva de la Administración en el ejercicio de potestades discrecionales con el margen de apreciación que tiene reconocida en relación con los conceptos jurídicos indeterminados. Las normas jurídicas que atribuyen potestades a la Administración pueden incluir referencias a realidades que sólo pueden apreciarse en el momento de su aplicación mediante conceptos de experiencia o de valor. La aplicación de estos conceptos no admite una pluralidad de soluciones válidas, sino una sola. Por influencia de la doctrina alemana, se viene distinguiendo en ellos una zona de certeza positiva (Begriffkern), una zona de certeza negativa y una zona de incertidumbre (Begriffhof). En esta última se reconoce a la Administración un margen de apreciación (Beurteilungsspielraum), el beneficio de la duda. Los conceptos jurídicos indeterminados que incorporan nociones de experiencia se ventilan en la apreciación de los hechos y la competencia del juez para controlar su aplicación es ilimitada. Los conceptos jurídicos indeterminados que incorporan nociones de valor implican juicios de esta naturaleza, técnicos o políticos, y proporcionan a la apreciación de la Administración una cierta presunción en favor de su juicio en la zona de incertidumbre; presunción que no llega hasta excluir el control judicial, aunque lo limita, pues el juez debe normalmente conformarse con el control de los límites o excesos en que la Administración haya podido incurrir(20). La IA puede resultar muy útil en la aplicación de ciertos conceptos jurídicos indeterminados, especialmente aquellos que incluyan el análisis de largas series de datos(21). Este sería el caso, por ejemplo, de conceptos probabilísticos como <<peligro para la seguridad o salud de las personas>> o <<riesgo [para] la seguridad vial>>(22) o, más técnicos, como <<peligro [para] la solvencia o viabilidad>> de una entidad financiera(23). En estos casos parece necesaria la intervención humana, que una persona tenga la última palabra en la aplicación del concepto jurídico indeterminado, por los motivos esgrimidos en defensa de la reserva de humanidad en las potestades discrecionales. La herramienta de IA proporcionará un informe que se llevará a la motivación de la decisión que se adopte (art. 88.6 LPACAP), pudiendo ser así controlada judicialmente junto con los restantes elementos de la motivación(24). No obstante, hay otros conceptos para cuya aplicación la IA parece manifiestamente inadecuada, como las <<faltas de respeto y consideración>> o los <<actos de exhibición obscena>>(25).
2. Regulación de la utilización de IA por la Administración
Las teorías expuestas en el apartado anterior están a medio camino entre la lege ferenda y la lege data, pues todavía no hay una regulación de la IA que fije límites semejantes.
La no regulación de la IA no impide su utilización por la Administración pública: no hay una reserva de ley general ni una vinculación positiva en materia tecnológica para la Administración, ésta no tiene prohibido utilizar la tecnología que no tenga expresamente permitida. La regulación se necesitará cuando la utilización de tecnología afecte a la normativa vigente o se pretendan imponer nuevas obligaciones relacionadas con ella(26), así como en lo que afecte a materias reservadas a la ley, fundamentalmente, derechos fundamentales. Además, la rapidez con que se desarrolla la IA, superior a la que pueda alcanzar la producción de normas jurídicas, hace conveniente la contención normativa, a fin de no lastrar el desarrollo y evolución de la Administración. Al menos, en relación con los usos que no entrañen riesgos demasiado altos; en estos casos, la conveniencia de una regulación preventiva es evidente(27).
Es posible que la clave para una correcta utilización de la IA por la Administración no esté en una regulación amplia y detallada que la restrinja fuertemente, sino en una transparencia que permita una fiscalización razonable. El artículo 6 bis, apartado 2, de la Ley 19/2013, de 9 de diciembre, de Transparencia, Acceso a la Información Pública y Buen Gobierno, impone a la Administración la obligación de difundir las actividades que impliquen el tratamiento de datos personales de personas físicas mediante la publicación de un inventario de las mismas. La norma se remite al Reglamento General de Protección de Datos(28) (RGPD, en adelante), que define el <<tratamiento>> como <<cualquier operación o conjunto de operaciones realizadas sobre datos personales o conjuntos de datos personales, ya sea por procedimientos automatizados o no, como la recogida, registro, organización, estructuración, conservación, adaptación o modificación, extracción, consulta, utilización, comunicación por transmisión, difusión o cualquier otra forma de habilitación de acceso, cotejo o interconexión, limitación, supresión o destrucción>> (art. 4 2)); lo que, evidentemente, incluye las operaciones que realizan los sistemas de inteligencia artificial(29). En esta línea, el artículo 11.1 i) del Reglamento de actuación y funcionamiento del sector público por medios electrónicos (aprobado por el RD 203/2021, de 30 de marzo) (RAFME, en adelante) prevé que toda sede electrónica (o sede electrónica asociada) dispondrá, a disposición de las personas interesadas, de la relación actualizada de las actuaciones administrativas automatizadas vinculadas a los servicios, procedimientos y trámites disponibles, acompañándose cada una de la descripción de su diseño y funcionamiento, los mecanismos de rendición de cuentas y transparencia y los datos utilizados en su configuración y aprendizaje. El incumplimiento de estas obligaciones es, empero, generalizado(30).
En todo caso, la realidad es que, ante el avance y las perspectivas de avance a corto y medio plazo de la IA, ya se han aprobado normas, con distinto alcance y densidad, que la contemplan como una herramienta de la Administración. Estas normas, por lo que interesa a España, provienen, fundamentalmente, de la Unión Europea (apdo. 2.1) y de las instituciones nacionales (apdo. 2.2).
2.1. Regulación europea de la utilización de IA por la Administración
En los últimos años la Unión Europea ha reaccionado a la evolución de la IA aprobando dos reglamentos fundamentales: el Reglamento General de Protección de Datos y el Reglamento de Inteligencia Artificial(31) (RIA, en adelante).
En muchas ocasiones se ha destacado el artículo 22 RGPD como la primera regulación del empleo de la IA por la Administración. Este precepto establece que <<[t]odo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar>> (apdo. 1). Esta previsión, no obstante, está limitada por una serie de excepciones establecidas en el mismo precepto (apdo. 2). En particular, resulta relevante la no prohibición de decisiones automatizadas si el Derecho de la Unión Europea o de los Estados miembros las autoriza y establece <<medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado>> (letra b))(32). Esta regulación mínima de la IA permite a los Estados sortearla mediante la mera aprobación de una norma que habilite a la Administración nacional a adoptar decisiones automatizadas y prevea una serie de garantías indeterminadas, por lo que tiene una eficacia muy limitada, prácticamente nula. Además, el Reglamento General de Protección de Datos protege, únicamente, a las personas físicas (art. 1), no a las jurídicas, interesadas en buena parte de los procedimientos administrativos que se tramitan en España.
En 2024 fue aprobado el Reglamento de Inteligencia Artificial. El principal objetivo de esta norma es evitar una fragmentación del régimen jurídico de la IA por parte de los Estados miembros, impidiéndoles que adopten unilateralmente medidas que puedan afectar a la libre circulación transfronteriza de bienes y servicios basados en esta tecnología (cdo. 1 y art. 1)(33). Es por ello por lo que se caracteriza por un ámbito de aplicación objetivo y subjetivo muy amplio y una incidencia en el funcionamiento de los poderes públicos, especialmente en el de las Administraciones nacionales, reducida.
El Reglamento abarca, grosso modo, la totalidad de sistemas de inteligencia artificial computacional(34), independientemente de que su uso sea público o privado, y a todos los actores, públicos y privados, que intervengan en alguna medida en su utilización en la Unión Europea (art. 2.1 y 2). Asimismo, incluye previsiones para los modelos de IA de uso general (art. 2.1). Entre las escasas aplicaciones de esta tecnología no cubiertas, pueden destacarse las relativas a materias ajenas al Derecho de la Unión Europea, las militares y las relativas a la defensa y a la seguridad nacional (art. 2.3) y las dirigidas a la investigación y desarrollo científico (art. 2.6).
La lógica de la norma es sencilla: partiendo del principio de libertad en el empleo de la IA, establece una serie de restricciones, obligaciones y controles para determinados usos en función de los riesgos que entrañen(35). No contiene una regulación completa y detallada de esta tecnología. Así, establece prohibiciones para las prácticas de riesgo inaceptable y somete a requisitos, obligaciones y controles de distinta exigencia a los sistemas de alto riesgo(36), a los modelos de uso general y a los sistemas de riesgo limitado. A todo ello se añade la previsión de medidas de apoyo a la innovación; un ambicioso marco institucional de gobernanza, tanto a nivel europeo como nacional(37); mecanismos de vigilancia poscomercialización, intercambio de información y vigilancia del mercado; y un amplio régimen sancionador.
La Administración estará sometida al Reglamento de Inteligencia Artificial tanto en los supuestos en que se limite a utilizar sistemas de IA desarrollados por terceros (como responsable de su despliegue), como en los supuestos (menos frecuentes) en que también asuma el desarrollo de los mismos (como proveedora) (art. 2.1 a) y b)). La Unión Europea no es competente para regular el uso de la IA por la Administración, ello corresponde a los Estados miembros. Únicamente puede regular transversalmente el uso de esta tecnología estableciendo normas que la afecten(38). En consecuencia, las medidas previstas en el Reglamento resultan demasiado genéricas e inespecíficas para la problemática y singularidades que presenta la integración de la IA en el funcionamiento de la Administración. Están diseñadas con una vocación más amplia, son un marco general a desarrollar y completar por los Estados miembros(39). En particular, el uso de IA por la Administración no se considera práctica prohibida (art. 5) ni los sistemas que ésta pueda emplear en los procedimientos que tramite tienen la consideración de <<alto riesgo>> (arts. 6 y 7). Al menos, con carácter general(40).
2.2. Regulación española de la utilización de IA por la Administración
La utilización de la IA por la Administración pública española está muy lejos de tener un marco normativo común que ordene verdaderamente la materia y, más o menos exhaustivamente, responda a las grandes cuestiones que plantea. Es posible que esta falta de respuesta ante la última transformación digital sea una postura meditada y compartida por el Gobierno y el Parlamento, apostando por la contención normativa y la libertad de la Administración para evolucionar y adaptarse al cambio. También es posible que sea una parálisis (temporal) ante uno de los grandes retos que se nos plantea como sociedad. Lo cierto es que la Unión Europea ha movido ficha y el siguiendo movimiento, si hay que darlo, corresponde a los Estados miembros. Hasta este momento, la legislación nacional, especialmente la estatal, es realmente parca(41).
El 11 de marzo de 2025, el Consejo de Ministros aprobó un anteproyecto de ley, según su título, <<para el buen uso y la gobernanza de la inteligencia artificial>>. No obstante, sin perjuicio de los cambios que pueda experimentar el texto en los trámites sucesivos, el artículo 1 limita su objeto al <<régimen jurídico sancionador aplicable a los sistemas de IA introducidos, puestos en servicio, comercializados o en pruebas en condiciones reales, en territorio español, por incumplimientos del [Reglamento de Inteligencia Artificial]>> y al <<régimen jurídico de autorización de uso de los sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público con fines de garantía del cumplimiento del Derecho, en cumplimiento con el artículo 5 [RIA]>>. Es, por tanto, un anteproyecto de ley para completar y desarrollar determinadas partes del Reglamento de Inteligencia Artificial; no plantea una regulación de la IA para la Administración, ni para fuera de ella.
La disposición más aproximada es el artículo 41 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público (LRJSP, en adelante)(42). Este precepto hace referencia a la <<actuación administrativa automatizada>>, entendida como <<cualquier acto o actuación realizada íntegramente a través de medios electrónicos por una Administración Pública en el marco de un procedimiento administrativo y en la que no haya intervenido de forma directa un empleado público>> (apdo. 1), pero se limita a señalar que, en estos casos, <<deberá establecerse previamente el órgano u órganos competentes [] para la definición de las especificaciones, programación, mantenimiento, supervisión y control de calidad y, en su caso, auditoría del sistema de información y de su código fuente>>, y que <<se indicará el órgano que debe ser considerado responsable a efectos de impugnación>> (apdo. 2)(43). El artículo 41 LRJSP ha sido desarrollada por el artículo 13 RAFME, que, tras reconocer que la tramitación electrónica de una actuación administrativa puede llevarse a cabo de manera automatizada (apdo. 1), señala las condiciones necesarias en el ámbito estatal (apdo. 2) y local (apdo. 3). En relación con la Administración estatal, se requiere que la determinación de una actuación administrativa como automatizada se autorice por resolución del titular del órgano administrativo competente por razón de la materia o del órgano ejecutivo competente del organismo o entidad de derecho público (según corresponda) y se publique en la sede electrónica correspondiente. Esta resolución tiene que expresar los recursos que procedan contra la actuación, el órgano administrativo o judicial ante el que hubieran de presentarse y el plazo para interponerlos y establecer <<medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos de las personas interesadas>>. En definitiva, se limita a establecer un marco formal para la automatización de decisiones por los titulares de los órganos competentes, pero no señala límites ni condiciones sustantivos más allá de la referencia final a las <<medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos de las personas interesadas>>, que no es sino una reproducción de la misma condición impuesta por el artículo 22 RGPD. En definitiva, la virtualidad real de los artículos 41 LRJSP y 13 RAFME es articular internamente las previsiones europeas en materia de decisiones automatizadas para habilitar a los órganos de la Administración estatal a decidir individualmente en este ámbito. En relación con la Administración local, la referencia es mínima: en caso de actuación administrativa automatizada se estará a lo dispuesto en la disposición adicional 8ª del RD 128/2018, de 16 de marzo, por el que se regula el régimen jurídico de los funcionarios de Administración Local con habilitación de carácter nacional, que señala, meramente, que, a los efectos del ejercicio en soporte electrónico de las funciones reservadas a los funcionarios regulados en ese real decreto, los puestos reservados a ellos tendrán la consideración de órganos.
Finalmente, la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, también contiene referencias a la IA, si bien centradas, fundamentalmente, en evitar tratamientos discriminatorios por parte de esta tecnología y muy poco concretas, testimoniales(44). En particular, destaca el artículo 23, en virtud del cual la Administración debe: favorecer la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas (apdo. 1); priorizar la transparencia en el diseño y la implementación de estos algoritmos y la capacidad de interpretación de las decisiones adoptadas por los mismos (apdo. 2); y promover el uso de una IA ética, confiable y respetuosa con los derechos fundamentales (apdo. 3).
II. LA AUTOMATIZACIÓN DE PROCEDIMIENTOS ADMINISTRATIVOS SANCIONADORES MEDIANTE INTELIGENCIA ARTIFICIAL
Entre las potestades administrativas, la sancionadora es, posiblemente, la que requiere mayores cautelas en la automatización de los procedimientos: la finalidad punitiva y las garantías materiales y formales reconocidas a los interesados frente a su ejercicio imponen un celo especial en la tramitación de los procedimientos a fin de evitar castigos injustos y contrarios a Derecho. Además, la discrecionalidad propia de esta potestad limita sensiblemente la idoneidad de la IA. A pesar de todas estas precauciones, prudentes en un momento en el que la IA se encuentra en un estado de incipiente introducción en la Administración pública, es posible empezar a plantear la viabilidad de la utilización de esta tecnología para la realización, o apoyo a la realización, de las actuaciones sancionadoras más elementales: el inicio del procedimiento sancionador (apdo. 1), el levantamiento de actas (apdo. 2), la elaboración de la propuesta de resolución (apdo. 3) y la terminación del procedimiento (apdo. 4)(45). Las ventajas en términos de eficacia y eficiencia de la IA bien merecen esta reflexión(46). Igualmente, la posibilidad de una tramitación simplificada del procedimiento sancionador también requiere una atención especial (apdo. 5), por si permitiera un encaje más fácil de la IA, con las posibilidades que ello abriría, tanto de extensión del procedimiento a más infracciones, como de extensión de la IA, mejor afinada, a otros procedimientos sancionadores.
1. Inicio del procedimiento sancionador
El procedimiento sancionador se inicia siempre de oficio por acuerdo del órgano competente (art. 63.1 LPACAP), que puede responder a la propia iniciativa del mismo, la orden de un órgano jerárquicamente superior, la petición razonada de otro órgano o una denuncia (art. 58 LPAC)(47). Este acuerdo debe contener la identificación del presunto responsable, los hechos que se le imputan y su posible calificación y la sanción que se pudiera imponer, así como cierta información sobre el procedimiento administrativo (art. 64.2 LPACAP)(48). La IA ofrece numerosas posibilidades en relación con este trámite.
El órgano competente para iniciar el procedimiento sancionador puede hacerlo a iniciativa propia cuando tenga conocimiento de las circunstancias, conductas o hechos objeto del mismo (art. 59 LPACAP). Es realista pensar que estos órganos, si no ahora, en un futuro cercano, puedan estar servidos por sistemas de IA que detecten hechos constitutivos de infracción administrativa y, automatizadamente, adopten el acuerdo de iniciación, lo comuniquen al instructor (trasladándole las actuaciones existentes) y lo notifiquen al inculpado y demás interesados (art. 64.1 LPACAP). Al menos, para asuntos repetitivos que supongan una carga de trabajo importante para la Administración, pero que no presenten especiales dificultades. En los asuntos más complejos, el sistema de IA debería limitarse a elaborar un borrador de acuerdo para que un funcionario lo revise y tramite, por si hubiera que identificar más interesados a los que notificar (art. 64.1 LPACAP), corregir la calificación de los hechos o adoptar medidas provisionales especiales (art. 64.2 b) y e) LPACAP)(49).
En materia de tráfico y seguridad vial es bien conocida la detección de excesos de velocidad mediante cinemómetros y la toma de imágenes de los vehículos mediante cámaras auxiliares, lo que permite al Jefe de la Unidad de Sanciones del Centro de Tratamiento Automatizado de Denuncias formular las denuncias correspondientes. No parece lejano que el Centro dé un paso más e incorpore un sistema de IA que formule y notifique automatizadamente las denuncias(50). En materia de urbanismo es usual que los Ayuntamientos, tras recibir una denuncia, prueben la realización de obras clandestinas en parcelas privadas, no visibles desde el exterior, mediante imágenes extraídas de Google Maps. ¿Por qué no van a dotarse en el futuro de sistemas de IA que, periódicamente, confronten las imágenes de esta página web con los planes urbanísticos y demás información en su poder para detectar automatizadamente infracciones administrativas?
El órgano competente para iniciar el procedimiento sancionador también puede hacerlo a iniciativa de otro órgano de la Administración, superior o no. En este segundo caso, el órgano, que habrá tenido conocimiento de las circunstancias, conductas o hechos objeto del procedimiento, formulará una petición razonada, no vinculante, que deberá especificar, en la medida de lo posible: las personas presuntamente responsables, las conductas o hechos que pudieran constituir infracción administrativa y su tipificación y el lugar y la fecha o período de tiempo continuado en que se produjeron (art. 61 LPACAP). Este órgano ha podido tener conocimiento del objeto del procedimiento ocasionalmente, pero lo más habitual es que lo haya tenido en el ejercicio de sus funciones de inspección, averiguación o investigación (art. 61.1 LPACAP). A estos efectos, la IA puede tener una incidencia, directa e indirecta, notable.
Las Fuerzas y Cuerpos de Seguridad del Estado, en virtud del artículo 22 de la Ley Orgánica 4/2015, de 30 de marzo, de protección de la seguridad ciudadana (LOPSC, en adelante), pueden grabar videos de la comisión de infracciones administrativas, como la celebración de una manifestación no comunicada (art. 37.1 LOPSC) o la perturbación del desarrollo de una manifestación lícita (art. 36.8 LOPSC). A fin de identificar a los presuntos responsables para formular la correspondiente petición a la Delegación o Subdelegación del Gobierno competente para iniciar el procedimiento sancionador, podría ser útil un sistema de identificación biométrica mediante IA, para cuyo uso estarían habilitados por el artículo 11.1 h) de la Ley Orgánica 2/1986, de 13 de marzo, de Fuerzas y Cuerpos de Seguridad(51). Esta actuación no sería contraria al Reglamento General de Protección de Datos, pero podría violar el Reglamento de Inteligencia Artificial.
El Reglamento General de Protección de Datos prohíbe la automatización de decisiones basadas, entre otros tipos de datos personales, en los <<datos biométricos dirigidos a identificar de manera unívoca a una persona física>>, salvo que se cumplan dos condiciones: i) que el tratamiento sea necesario por razones de un interés público esencial, sobre la base del Derecho de la Unión Europea o de los Estados miembros, que debe ser proporcional al objetivo perseguido, respetar en lo esencial el derecho a la protección de datos y establecer medidas adecuadas y específicas para proteger los intereses y derechos fundamentales del interesado; y ii) que se tomen medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado (art. 22.4, en conexión con el art. 9.1 y 2 g)). Además de la exigencia reiterada de adoptar medidas protectoras de los derechos e intereses de los ciudadanos, el Reglamento requiere que la identificación biométrica sea necesaria por razones de un interés público esencial y proporcional al objetivo perseguido, lo que a priori llevaría a cuestionar si la Administración pública podría recurrir a la identificación biométrica para sancionar cualquier infracción en cualesquiera circunstancias o si, por el contrario, su utilización estaría más restringida. La potencialidad de esta previsión, sin embargo, queda, en buena medida, mermada por el artículo 23.1, que prevé que pueda limitarse, por el Derecho de la Unión Europea y de los Estados miembros, respetándose en lo esencial los derechos y libertades fundamentales y de una manera necesaria y proporcionada en una sociedad democrática, para salvaguardar una serie de fines muy amplios, entre los que puede destacarse la seguridad pública (letra c)) o, más específicamente, el ejercicio de la autoridad pública en actividades de inspección dirigidas a la salvaguarda de la misma (letra h)(52). En la práctica, parece forzoso concluir que la Administración tendría una gran libertad para utilizar la identificación biométrica con fines sancionadores.
El Reglamento de Inteligencia Artificial prohíbe, con excepciones, el uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de garantía del cumplimiento del Derecho (art. 5.1 h)). La identificación biométrica para la identificación de los responsables de infracciones administrativas no se realizaría en tiempo real, sino en diferido, a partir de vídeos grabados anteriormente. No obstante, el sistema de IA, que tendría la consideración de alto riesgo (apdo. 1 a) del Anexo III RIA), podría ser contrario al artículo 26.10 RIA. El párrafo III de este precepto establece que los sistemas de IA de alto riego de identificación biométrica remota en diferido <<no se utilizará[n] en ningún caso a los efectos de la garantía del cumplimiento del Derecho de forma indiscriminada, sin que exista relación alguna con un delito, un proceso penal, una amenaza real y actual o real y previsible de delito, o con la búsqueda de una persona desaparecida concreta>>. Esto es, sensu contrario, únicamente podrán utilizarse estos sistemas, para la garantía del cumplimiento del Derecho: en el marco de la investigación de delitos o procesos penales; para hacer frente a amenazas reales, actuales o previsibles, de delitos; o para buscar personas desaparecidas. Es posible considerar, a estos efectos, delitos algunas infracciones administrativas, pero serán la excepción(53). Y en relación con éstas, serán de aplicación el inciso final del artículo 26.10.III y el artículo 14.5 RIA. En virtud del primero, no podrán adoptarse decisiones que produzcan efectos jurídicos adversos para una persona <<exclusivamente sobre la base de los resultados de salida de dichos sistemas de identificación biométrica remota en diferido>>; esto es, será necesaria una actividad probatoria complementaria por parte de la Administración. De acuerdo con el segundo, el responsable del despliegue del sistema no podrá actuar ni tomar ninguna decisión basándose en la identificación generada por el mismo, salvo que (por lo menos) dos personas físicas <<con la competencia, formación y autoridad necesarias>> hayan verificado y confirmado por separado esta identificación, excepto si el Derecho de la Unión Europea o de los Estados miembros considere este requisito desproporcionado(54).
La racionalización de la inspección administrativa ha llevado a la elaboración de planes que la encauzan y en cuya elaboración, en los últimos años, se viene empleando la IA. Esta tecnología permite analizar automatizadamente cantidades masivas de datos para identificar patrones estadísticos y perfiles de riesgo sobre la base de correlaciones históricas en base a los cuales elaborar planes de inspección que dirijan a la Administración hacia ámbitos concretos en los que existen altas probabilidades de hallar irregularidades. Estos incumplimientos de la legalidad, en algunos casos, serán constitutivos de infracción administrativa y darán lugar a la incoación de procedimientos sancionadores. Así, la IA tiene también una incidencia indirecta, pero importante, en la iniciación de procedimientos sancionadores(55).
2. Actas y su valor probatorio
En muchas ocasiones, la Administración pública se sirve, para probar los hechos por los que pretende sancionar, de actas levantadas por funcionarios públicos que se incorporan al procedimiento. El valor probatorio de estos documentos es una cuestión ciertamente importante. El artículo 77.5 LPACAP establece que <<[l]os documentos formalizados por los funcionarios a los que se reconoce la condición de autoridad y en los que, observándose los requisitos legales correspondientes se recojan los hechos constatados por aquéllos harán prueba de éstos salvo que se acredite lo contrario>>. Es decir, establece una presunción iuris tantum de veracidad de los documentos levantados por funcionarios que tengan la condición de autoridad en lo que se refiere a los hechos recogidos en los mismos(56). Esta presunción ha sido reconocida, asimismo, en la legislación sectorial(57).
Los sistemas de IA podrían elaborar actas en el seno de la Administración en los que recogieran hechos detectados por los mismos constitutivos de infracción administrativa. Volviendo a los ejemplos anteriores, podrían dar cuenta de la realización de obras clandestinas detectadas por Google Maps o la dirección de una manifestación no comunicada o la perturbación de una manifestación lícita por una persona determinada. Esta hipótesis plantea la cuestión de si tales actas se beneficiarían de la presunción de veracidad referida, o no. El valor probatorio privilegiado de las actas levantadas por funcionarios públicos recogiendo hechos constados por ellos se justifica en su imparcialidad y especialización(58). Los sistemas de IA son, también, imparciales y pueden especializarse altamente, pero, más que constatar hechos, los extraen de las fuentes de información que los nutren. Estas actas automatizadas, por tanto, tendrían valor probatorio como pruebas documentales, serían certificaciones de las referidas fuentes, donde estaría verdaderamente la prueba, cuya incorporación al expediente sancionador haría innecesario la de éstas. En consecuencia, no cabría extender a ellas la presunción de veracidad del artículo 77.5 LPACAP y la legislación sectorial correspondiente(59). En algunos supuestos, los sistemas de IA podrían extraer los hechos de dispositivos vinculados a los mismos que realizasen por sí mismos mediciones, como cinemómetros para detectar excesos de velocidad en el tráfico y cámaras para tomar imágenes de los vehículos. En estos casos, esas mediciones e imágenes mantendrían el valor probatorio que ya tuvieran reconocido en los sectores correspondientes(60).
Estas actas elaboradas por sistemas de IA no deben confundirse con las pruebas por indicios construidas por los mismos mediante métodos matemáticos o estadísticos. Las herramientas de IA pueden demostrar una probabilidad tan alta de la comisión de una infracción administrativa que, a falta de pruebas directas, pueda destruir la presunción de inocencia y servir como base a la imposición de una sanción. Así puede ocurrir, por ejemplo, en una licitación en la que se presenten proposiciones tan alineadas para producir un resultado que maximice los beneficios de las empresas implicadas (cfr. arts. 1.1 a) y 62.4 a) de la Ley 15/2007, de 3 de julio, de Defensa de la Competencia) que puede concluirse que se ha producido una coordinación entre los licitadores por lo improbable que sería que se hubiera alcanzado este resultado casualmente)(61).
3. Propuesta de resolución
El procedimiento sancionador puede finalizar en la fase de instrucción, archivándose las actuaciones, mediante resolución del órgano instructor en la que manifieste la inexistencia de los hechos que motivaron su incoación, que los mismos no han sido probados o no constituyen infracción administrativa; la inexistencia de responsables, que no es posible identificarles o están exentos de responsabilidad; o la prescripción de la infracción (art. 89.1 LPACAP). También puede formular una propuesta de resolución en la que declare que no existe infracción o responsabilidad (art. 89.3 LPACAP). Evidentemente, la instrucción no tiene que resultar, necesariamente, en un desenlace favorable para los inculpados: el órgano instructor, tras finalizar esta fase, puede formular una propuesta de resolución sancionadora. En ella fijará motivadamente los hechos probados y su exacta calificación jurídica y determinará la infracción que constituyan, los responsables, la sanción propuesta y la valoración de las pruebas practicadas (art. 89.3 LPACAP). En todo caso, la propuesta de resolución tiene que estar motivada (art. 35.1 h) LPACAP) y notificarse a los interesados indicándoles la puesta de manifiesto del procedimiento y el plazo para formular alegaciones y presentar los documentos e informaciones que estimen pertinentes (art. 89.2 LPACAP).
La propuesta de resolución sancionadora es un trámite fundamental, pues la resolución que ponga fin al procedimiento sancionador tiene que guardar la debida correlación con ella, tanto en lo relativo a los hechos probados como en lo que hace a la valoración jurídica de los mismos. Por un lado, el órgano competente para resolver no puede aceptar hechos distintos de los determinados en el curso del procedimiento (art. 90.2 LPACAP). En caso de que considere que la instrucción ha sido incompleta, puede acordar motivadamente la realización de las actuaciones complementarias indispensables para resolver, notificando el acuerdo a los interesados y dándoles plazo para formular las alegaciones pertinentes tras su finalización (art. 87 LPACAP). Por otro lado, el órgano competente para resolver puede hacer una valoración jurídica de los hechos diferente a la realizada en la propuesta de resolución, pero si considera que la infracción o la sanción revisten mayor gravedad que la determinada en ella, tiene que notificarlo al inculpado para que aporte las alegaciones que estime convenientes (art. 90.2 LPACAP). Igualmente tiene que proceder si la propuesta de resolución calificó los hechos como no constitutivos de infracción administrativa, pero discrepa y opta por sancionar (STS, Sala 3ª, 1382/2020, de 22 de octubre, FFJJ 2 y 3).
Habida cuenta de estas características de las propuestas de resolución, puede plantearse la cuestión de si la Administración pública podría recurrir a un sistema de IA para elaborarlas o, por lo menos, para elaborar borradores que el titular del órgano instructor tendría que corregir o ratificar. Ello no sería sencillo, pues supondría que la máquina tendría que valorar conjuntamente la instrucción realizada, lo que podría incluir elementos tan sensibles como las alegaciones formuladas (especialmente las alegaciones formuladas al acuerdo de iniciación [art. 64.2 f) LPACAP] y antes de redactar la propuesta de resolución [art. 82 LPACAP], pero también las formuladas en otros momentos de la instrucción [art. 76.1 LPACAP]) o medios de prueba altamente complejos, como la declaración del inculpado o de testigos o el reconocimiento de un lugar u objeto, para calificar jurídicamente los hechos, indicando la infracción cometida, y determinar la sanción correspondiente.
Las herramientas de IA actuales ya permitirían valorar alegaciones. Es técnicamente posible o un sistema entrenado con un alto número de escritos de alegaciones presentados ante la misma Administración y respondidos por la misma, que identifique las ideas recogidas en los nuevos escritos de alegaciones que se le introduzcan y los valore tomando las respuestas dadas en asuntos similares. No obstante, esta nueva forma de proceder tendría un inconveniente relevante: la congelación de los criterios seguidos por la Administración, la perpetuación del precedente administrativo. El sistema de IA reproduciría criterios existentes, sin permitir a los órganos instructores replanteárselos y, en su caso, modificarlos, actualizando así la interpretación del ordenamiento jurídico a la realidad del momento o a la última jurisprudencia.
El inculpado o los testigos que presten declaración en el marco de la instrucción del procedimiento administrativo sancionador lo harán ante el funcionario titular del órgano competente. Esta misma persona será la encargada de reconocer los lugares u objetos relevantes a efectos del procedimiento. Estos medios de prueba deberán valorarse conforme a la Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil (art. 77.1 LPACAP). Y deberán valorarse por el funcionario ante el que se practicaron por mor del principio de inmediación que rige en la valoración de los medios de prueba. El artículo 24.2 CE reconoce el derecho fundamental a un proceso con todas las garantías, que incluye, entre otras y no sólo en la jurisdicción penal, la garantía de la inmediación (STC 177/2014, de 3 de noviembre, FFJJ 4 y 5), en virtud de la cual la prueba tiene que practicarse ante el órgano judicial al que corresponde su valoración a fin de evitar los riesgos de valoración inadecuada procedentes de la intermediación entre éste y aquélla (STC 16/2009, de 26 de enero, FJ 5). En el procedimiento sancionador debe respetarse esta garantía del inculpado, si no es por aplicación directa de la Constitución, por aplicación de la Ley de Enjuiciamiento Civil, que la recoge. Ello hace muy difícil aceptar que un sistema de IA pueda valorar medios de prueba practicados ante la persona física titular del órgano instructor. Alguien podría defender la aptitud de esta tecnología para valorar los registros efectuados en la práctica los mismos, pero parece evidente que ello sería contrario a este principio y el significado actual de la inmediación en nuestro sistema, pues introduciría una entidad que sustituiría en la valoración de medios de prueba a la persona ante la que se practicaron: si no se admite su sustitución por otra persona, ¿por qué admitirla por una herramienta de IA?(62)
Aun admitiendo que la IA pudiera valorar satisfactoriamente alegaciones y medios de prueba, la formulación de la propuesta de resolución requeriría, todavía, calificar jurídicamente los hechos, indicando la infracción cometida, y determinar la sanción correspondiente. La primera operación podría exigir interpretar conceptos jurídicos indeterminados fuera del alcance de esta tecnología (véase apdo. I.1)(63). En estos casos, el sistema se limitaría a aplicar automáticamente precedentes administrativos, lo que provocaría los problemas de congelación de criterios expuestos en relación con la valoración de alegaciones(64). La segunda operación no sería más sencilla. Lo habitual es que las leyes prevean para cada infracción una sanción en forma de marco: una sanción mínima y una máxima, debiendo la Administración decidir, en cada caso, el castigo concreto a imponer. La graduación de la sanción no es enteramente libre. El artículo 29.3 LRJSP indica que las sanciones administrativas deben ser adecuadas a la gravedad del hecho constitutivo de la infracción, es decir, proporcionadas. Además, este precepto señala una serie de criterios que, a estos efectos, han de tenerse en cuenta: el grado de culpabilidad o la existencia de intencionalidad, la continuidad o persistencia en la conducta infractora, la naturaleza de los perjuicios causados y la reincidencia (la comisión, en el término de un año, de más de una infracción de la misma naturaleza cuando haya sido así declarado por resolución firme en vía administrativa). Esto sin perjuicio de que las leyes sectoriales prevean normas especiales para la graduación de las sanciones en su sector(65). La graduación de las sanciones es, por tanto, una operación compleja que requiere valorar y ponderar una amplia variedad de circunstancias, algunas tan profundamente complejas como la naturaleza humana. En consecuencia, no parece adecuado confiar esta labor en un sistema de IA. Al respecto, son válidos los argumentos expuestos en favor de la reserva de humanidad para la toma de decisiones en el ejercicio de potestades discrecionales (apdo. I.1), aunque esta operación haya sido considerada por la Sala 3ª del Tribunal Supremo como reglada (Sentencias de 25 de mayo de 2004, FJ 3, y de 21 de febrero de 2006, FJ 6)(66).
La valoración de las alegaciones y de los medios de prueba o la calificación de los hechos y la determinación de la sanción son argumentos suficientes (aunque no exhaustivos) para cuestionar fuertemente la automatización de las propuestas de resolución en los procedimientos sancionadores. En el estado actual de la IA parece que lo más correcto es rechazar esta posibilidad(67). Es posible que haya infracciones y procedimientos concretos en los que, por sus particularidades, pueda admitirse, pero serían excepciones(68). En cambio, quizá sí que pueda irse planteando ya la posibilidad de emplear sistemas de IA para elaborar borradores de propuestas de resolución que, posteriormente, ratifiquen o corrijan los funcionarios titulares de los órganos instructores. Ello podría tener ventajas importantes, como facilitar el trabajo a los mismos, lo que debería traducirse en un incremento del número de expedientes tramitados, o reducir las discriminaciones, aportándoles los precedentes administrativos idénticos o similares a los asuntos que instruyan(69).
4. Terminación del procedimiento sancionador
En los procedimientos administrativos sancionadores, la fase instructora y sancionadora está encomendada a órganos distintos (art. 63.1 LPACAP). En consecuencia, el órgano instructor, tras la audiencia del acusado, tendrá que elevar la propuesta de resolución (junto con el expediente completo) al órgano competente para sancionar (art. 88.7 LPACAP), que dictará una resolución en la que deberá pronunciarse sobre los mismos elementos analizados en aquélla: la valoración de las pruebas practicadas, la fijación de los hechos, los responsables, la infracción cometida y la sanción impuesta o la inexistencia de infracción o responsabilidad (art. 90.1 LPACAP)(70). Ello respetando la debida correlación entre una y otra y motivadamente (art. 35.1 h) LPACAP). En consecuencia, las mismas reservas formuladas a la automatización de la propuesta de resolución mediante IA (apdo. 3) valen para la automatización de la resolución; si bien en este trámite no parece que tenga mucho sentido encomendar a esta tecnología la elaboración de un borrador, pues el titular del órgano sancionador ya tendrá una base sólida sobre la que resolver: la propuesta del instructor.
Asimismo, una eventual automatización de la propuesta y de la resolución plantearía problemas desde el punto de vista de la separación de las fases instructora y sancionadora del procedimiento. Y es que cabría preguntarse si realmente se mantendría esta separación si estos trámites se realizaran por órganos diferentes, pero servidos por un mismo sistema de IA diseñado y entrenado para llevar a cabo tareas sustancialmente idénticas (parece poco probable que la Administración fuera a adquirir y poner en funcionamiento dos sistemas distintos). Ello supondría que los actos, la propuesta y la resolución, serían elaborados por un único modelo de IA entrenado con el mismo algoritmo y los mismos datos. ¿No sería asimilable esta coincidencia técnico-funcional a una suerte de identidad mental entre el funcionario instructor y sancionador? Lo más razonable sería derogar la separación entre la fase instructora y sancionadora antes de automatizar la propuesta y la resolución en el procedimiento sancionador. Ello lo permitiría la Constitución, pues la separación entre instrucción y enjuiciamiento se deriva del artículo 24.2 únicamente para los procesos penales, no para los procedimientos administrativos sancionadores (STC 174/2005, de 4 de julio, FJ 2). Incluso, podría justificarse la eliminación de esta garantía en que la misma pretende asegurar la imparcialidad objetiva del órgano juzgador, virtud garantizada en un sistema de IA, que no podría incurrir en <<prevenciones y prejuicios respecto a la culpabilidad>> del acusado (STC 145/1988, de 12 de julio, FJ 7), pues serían vicios puramente humanos.
Antes de concluir este apartado, resulta oportuno apuntar tres supuestos particulares en los que la terminación del procedimiento sancionador mediante un sistema de IA podría resultar a priori viable: i) el reconocimiento por el infractor de su responsabilidad, ii) el pago voluntario de la multa propuesta y iii) la caducidad del procedimiento.
El infractor, tras la notificación del acuerdo de iniciación del procedimiento, puede reconocer su responsabilidad, esto es, reconocer que son ciertos los hechos imputados y ajustada a la legislación la tipificación y la sanción propuesta (STS, Sala 3ª, 179/2023, de 15 de febrero, FJ 5). En este caso, se dictará una resolución declarando la terminación del procedimiento (STS, Sala 3ª, 1260/2022, de 6 de octubre, FJ 3) e imponiendo la sanción propuesta (STS, Sala 3ª, 179/2023, de 15 de febrero, FJ 5)(71) menos el 20% de reducción en caso de multa (art. 85.1 y 3 LPACAP)(72). Ello debe hacerse al inicio del procedimiento, pues la reducción de la multa pretende incentivar la colaboración del imputado, evitando la tramitación del mismo. Así lo evidencia el que deba indicarse esta posibilidad en el mismo acuerdo de iniciación (arts. 64.2 d) y 85.2 LPACAP) (STS, Sala 3ª, 179/2023, de 15 de febrero, FJ 5). Más concretamente, debe hacerse en el plazo para formular alegaciones al acuerdo de iniciación, pues es la primera oportunidad que tiene el acusado para pronunciarse sobre su responsabilidad; más tarde se habrá iniciado la instrucción o, incluso, se habrá considerado el acuerdo propuesta de resolución(73). El reconocimiento de la responsabilidad desvirtúa la presunción de inocencia del imputado, sin necesidad de más elementos de prueba y simplificando la motivación de la resolución sancionadora (STS, Sala 3ª, 1260/2022, de 6 de octubre, FJ 3), y debe acompañarse de su compromiso de aceptar la sanción propuesta, con la reducción procedente, renunciando a impugnar en vía administrativa la resolución que ponga fin al procedimiento (STS, Sala 3ª, 179/2023, de 15 de febrero, FJ 5). En caso de que incumpla este compromiso, perderá la reducción (art. 85.3 LPACAP). En estos supuestos, la terminación del procedimiento es, por tanto, un trámite reglado que no requiere más innovación que analizar la declaración del infractor para constatar que ha asumido la responsabilidad imputada; el resto de elementos de la resolución están determinados en el acuerdo de iniciación y únicamente procede su elevación a la misma. En consecuencia, podría automatizarse este trámite sin ninguna dificultad, máxime teniendo en cuenta que el reconocimiento de la responsabilidad podría realizarse mediante un medio inequívoco dispuesto por la Administración, como un modelo normalizado en soporte electrónico.
El imputado puede pagar voluntariamente la multa propuesta antes de que se dicte la resolución sancionadora sin reconocer su responsabilidad. Esta actuación se limitará a garantizar el pago de la sanción que, en su momento, se le podría haber impuesto (STS, Sala 3ª, 1260/2022, de 6 de octubre, FJ 3). A fin de incentivar la colaboración del acusado, se le reducirá la multa en un 20% (art. 85.2 y 3 LPACAP)(74). El carácter voluntario del pago requiere que se manifieste expresamente la voluntad de proceder al abono de la totalidad de la multa y que éste se haga efectivo en un momento previo a dictarse la resolución sancionadora (STS, Sala 3ª, 446/2023, de 30 de marzo, FJ 5). La reducción debe indicarse en el acuerdo de iniciación del procedimiento (art. 85.2 y 3 LPACAP), a partir del cual puede procederse al pago anticipado (STS, Sala 3ª, 1260/2022, de 6 de octubre, FJ 3). Al no comportar el pago voluntario reconocimiento de la responsabilidad, la Administración estará obligada a aportar al procedimiento todos los elementos de prueba que permitan desvirtuar la presunción de inocencia del imputado para dictar una resolución que ponga fin al procedimiento con el mismo contenido que si no se hubiera producido el pago anticipado (STS, Sala 3ª, 1260/2022, de 6 de octubre, FJ 3)(75). En caso de que el imputado recurra la resolución en vía administrativa, perderá la reducción de la sanción (art. 85.2 y 3 LPACAP). No parece viable confiar la formulación de esta resolución a un sistema de IA, pues ello implicaría que éste tendría que valorar las alegaciones formuladas por el imputado y los medios de prueba aportados al procedimiento para desvirtuar motivadamente su presunción de inocencia, lo que no parece adecuado que realice una máquina (apdo. 3).
El reconocimiento de la responsabilidad y el pago anticipado de la multa no son opciones excluyentes para el imputado: éste puede realizar ambas acciones para reducir la multa un 40% (art. 85.3 LPACAP). La diferencia fundamental entre una y otra, a efectos de la automatización de la resolución sancionadora, reside en la descarga probatoria de la Administración por la asunción de la responsabilidad del infractor, que la evita tener que valorar las alegaciones y los medios de prueba incorporados al expediente. En consecuencia, en este supuesto, no hay grandes problemas para aceptar la intervención de la IA. Quizá podría presentar una cierta complejidad la constatación del pago voluntario por el infractor, pero la informatización de los expedientes administrativos y la gestión bancaria permiten múltiples recursos para superarla.
Finalmente, puede darse la situación de que el procedimiento sancionador caduque por el vencimiento del plazo máximo establecido sin que se haya dictado y notificado la resolución correspondiente. En este supuesto, la Administración tendrá que dictar una resolución declarando la caducidad (con indicación de los hechos producidos y las normas aplicables) y ordenando el archivo de las actuaciones (arts. 21.1, 25.1 b) y 84.1 LPACAP). A priori, parece un trámite sencillo que podría automatizarse mediante un sistema de IA, pues el cómputo de plazos es una mera operación aritmética que no entraña ninguna complejidad si la máquina tiene acceso a la fecha del acuerdo de iniciación (art. 21.3 a) LPACAP), al plazo fijado en la normativa correspondiente (art. 21.2 LPACAP) y al calendario de días inhábiles de la Administración. No obstante, habría dos circunstancias que tendría que tener en cuenta para cuya valoración podría tener dificultades: i) si el procedimiento se ha paralizado por causa imputable al interesado, pues el cómputo del plazo se habría interrumpido (art. 25.2 LPACAP), y ii) si la cuestión suscitada afecta al interés general o es conveniente sustanciarla para su definición y esclarecimiento, supuesto en el que podría no aplicarse la caducidad (art. 95.4 LPACAP)(76). Quizá, por ello, sería más conveniente que las herramientas de IA se limitaran a hacer saltar una alerta advirtiendo de la posible caducidad del procedimiento para que el funcionario correspondiente lo valore y obre en consecuencia.
5. Tramitación simplificada del procedimiento sancionador
El Reglamento del Procedimiento para el Ejercicio de la Potestad Sancionadora (aprobado por el RD 1398/1993, de 4 de agosto) preveía la tramitación simplificada del procedimiento sancionador (arts. 23 y 24). La Ley del Procedimiento Administrativo Común de las Administraciones Públicas derogó este reglamento (apdo. 2 e) de la disposición derogatoria única), pero mantuvo esta posibilidad en el art. 96. El órgano competente para iniciar el procedimiento sancionador puede adoptar su tramitación simplificada cuando considere que existen elementos de juicio suficientes para calificar la infracción como leve (apdo. 5). Esta decisión, en consecuencia, debe tomarse en el acuerdo de iniciación del procedimiento, por lo que los elementos de juicio que permitan calificar así la infracción deben proceder, necesariamente, de actuaciones previas al inicio del mismo (v. gr. la denuncia o las actuaciones previas previstas en el artículo 55 LPACAP)(77). Y, aunque es potestativa y reversible, en cualquier momento anterior a la resolución se puede acordar la continuación del procedimiento con arreglo a la tramitación ordinaria (apdo. 1), no cabe la oposición por parte del acusado (apdo. 2). En esencia, esta modalidad de tramitación del procedimiento sancionador consiste en la reducción de plazos y trámites. El procedimiento deberá resolverse en 30 días a contar desde el siguiente al que se notifique el acuerdo de iniciación. A este acuerdo le seguirán cuatro trámites: alegaciones, que deben formularse en el plazo de 5 días; audiencia, cuando la resolución vaya a ser sancionadora; informes exigidos por la normativa sectorial, en su caso; y resolución (apdo. 6). En caso de que el procedimiento exigiera la realización de un trámite distinto, deberá ser tramitado de manera ordinaria (apdo. 7).
Esta regulación, aparentemente sencilla y ágil, plantea numerosos interrogantes, tales como si pueden practicarse pruebas, si se mantiene la separación entre la fase de instrucción y la de resolución o qué ocurre con la propuesta de resolución(78). Quizá por estas lagunas la tramitación simplificada de los procedimientos sancionadores no ha tenido el éxito esperado por el Legislador, que parece, incluso, haber empeorado la regulación anterior, que tampoco tuvo una utilización masiva(79). En esta línea, J. A. García-Trevijano Garnica ha llegado afirmar que el nuevo procedimiento común simplificado no es aplicable a los expedientes sancionadores, pues el esquema procedimental que contempla el artículo 96 LPACAP no encaja con ese tipo de procedimientos, que deben en todo caso comenzar con los requisitos que establece el artículo 64 LPACAP y que exigen la instrucción, la elaboración de la propuesta de resolución y el otorgamiento de plazo de alegaciones tras ella, tal y como establece el artículo 89.2 LPACAP(80).
Independientemente de la viabilidad o conveniencia de la tramitación simplificada del procedimiento administrativo sancionador, la automatización del mismo mediante herramientas de IA no parece posible, al menos completamente. Aparecen aquí los obstáculos señalados en relación con el acuerdo de iniciación (apdo. 1), la valoración de alegaciones (apdo. 3) y la formulación de la resolución (apdo. 4). Ello sin perjuicio de los otros problemas que puedan plantear actuaciones y trámites inciertos, como la valoración de pruebas o la elaboración de la propuesta de resolución (apdo. 3). En definitiva, no parece una posibilidad que allane significativamente el camino a la IA.
III. VALORACIÓN FINAL DE LA AUTOMATIZACIÓN DE PROCEDIMIENTOS ADMINISTRATIVOS SANCIONADORES MEDIANTE INTELIGENCIA ARTIFICIAL
La introducción de la IA en la Administración pública es una revolución incipiente, pero que avanzará a gran rapidez hasta límites difíciles de prever. La eterna búsqueda de la eficacia irá produciendo la paulatina automatización de trámites y procedimientos enteros, que se desarrollarán con mayor rapidez, objetividad, consistencia y fundamento estadístico, para ventaja de los ciudadanos y empresas. No obstante, esta revolución tecnológica también planteará importantes retos muy diferentes, como técnicos, económicos, medioambientales o jurídicos, que habrá afrontar.
El correcto funcionamiento de muchos sistemas de IA requerirá el entrenamiento de éstos, para lo que se necesitarán cantidades masivas de datos que llevará tiempo y esfuerzo recopilar y preparar para este fin. En la Administración General del Estado, que tramita un alto volumen de expedientes, este proceso puede ser más sencillo; pero en las Administraciones autonómicas y Ayuntamientos será más difícil. Incluso, puede haber procedimientos tan específicos en los que no llegue a haber una masa de datos suficiente. La colaboración entre Administraciones y entre éstas y las empresas privadas que desarrollen las herramientas de IA será fundamental. También será importante la coordinación con el CENDOJ, a fin de que los modelos de IA puedan entrenarse con la última jurisprudencia para ir incorporándola y corrigiendo los criterios administrativos que los tribunales rechacen o maticen.
La adquisición e implementación de los sistemas de IA, así como su mantenimiento en términos de ciberseguridad y actualización, puede tener un coste económico muy elevado, por lo que es posible que la automatización mediante esta tecnología únicamente resulte rentable en determinados sectores de la Administración en los que se tramiten asuntos de grandes cantidades de dinero (v. gr. contratación, recaudación de impuestos, gestión de subvenciones o vigilancia del tráfico) o especial trascendencia (v. gr. control de la competencia o del sector bancario o salud pública). Al menos inicialmente, pues la experiencia demuestra que el tiempo reduce el coste económico de la tecnología, permitiendo su extensión y generalización.
La IA tiene un alto impacto medioambiental que proviene sobre todo del alto consumo energético y del uso de agua para refrigerar los centros de datos. Algunos datos permiten ilustrar esta idea. El entrenamiento de GPT-3 (la tercera generación del modelo Chat GPT) supuso la emisión de 552 toneladas de CO2 y gastó 700 000 litros de agua(81). El uso global de agua por IA podría llegar en 2027 a los 4,2-6,6 mil millones de metros cúbicos(82). Es previsible que esta tecnología se optimice y su impacto medioambiental se reduzca, pero es poco probable que llegue a ser completamente verde. Igual, en algún momento, debería plantearse una regulación medioambiental específica para la IA, que podría incluir la limitación de su uso.
La irrupción de la IA ha encendido el debate sobre hasta qué punto conviene regular los avances tecnológicos de la Administración. La no regulación permitiría una introducción más rápida y profunda de la IA, con las ventajas que ello tendría en términos de eficacia. No obstante, también entrañaría mayores riesgos. Lo más adecuado, quizás, es la aprobación de unas normas mínimas que, reconociendo un amplio espacio de libertad a las Administraciones, establezcan el marco necesario para evitar usos inadecuados de esta tecnología. Esta regulación convendría que fuera legislación básica estatal, para asegurar una cierta homogeneidad en todo el territorio español, preferiblemente incorporada en la Ley del Procedimiento Administrativo Común de las Administraciones Públicas y en Ley de Régimen Jurídico del Sector Público(83), sin perjuicio de las adaptaciones que fueran pertinentes en normativas específicas.
La superación de estos retos no eliminará, empero, la necesidad de un adecuado control judicial de los resoluciones y actos administrativos de trámite cualificados, sancionadores o no, dictados por sistemas de IA(84). Este control será, necesariamente, más amplio que el de los actos producidos por personas físicas, pues abarcará, también, el cumplimiento, por el sistema de IA, de la normativa que le resulte de aplicación. El incumplimiento de esta normativa será un vicio de anulabilidad del acto o, incluso, de nulidad (v. gr. violación de la normativa en materia de protección de datos personales, que implica la lesión de un derecho fundamental) (arts. 47.1 y 48 LPACAP)(85). No obstante, este control presentará una dificultad especial para los jueces y magistrados, pues les situará ante realidades técnicas muy sofisticadas que requerirán una formación amplia y profunda de la que actualmente carecen(86).
IV. BIBLIOGRAFÍA
Alarcón Sotomayor, L.: El procedimiento administrativo sancionador y los derechos fundamentales, Thomson-Civitas, 2007.
Barrachina Navarro, G. y Boix Palop, A.: <<La aplicabilidad del Reglamento de inteligencia artificial al ámbito de la Administración pública y servicios públicos y especialidades respecto de su cumplimiento: Especial atención a anexo III y actuación administrativa y particularidades cumplimiento>>, en L. Cotino Hueso y P. Simón Castellano (dirs.): Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea, Aranzadi, 2024, págs. 351-371.
Bermejo Latre, J. L.: <<La aplicación de la inteligencia artificial en la actividad formal e informal de la Administración>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, Instituto Nacional de Administración Pública, 2024, págs. 233-250.
Cano Campos, T.: <<La presunción de veracidad de las actas de inspección>>, en J. J. Díez Sánchez (coord.): La función inspectora. Actas del VIII Congreso de la Asociación Española de Profesores de Derecho Administrativo, Instituto Nacional de Administración Pública, 2013, págs. 223-240.
- Claves Prácticas. Derecho Administrativo. Sanciones Administrativas, Francis Lefebvre, 2018.
Carlón Ruiz, M.: Las Administraciones públicas ante la inteligencia artificial, Tirant lo Blanch, 2024.
Casino Rubio, M.: <<La automatización de las actuaciones administrativas sancionadoras>>, en M. Vaquer Caballería (dir.) y J. Pedraza Córdoba (coord.): La actuación administrativa automatizada: sus claves jurídicas, Tirant lo Blanch, 2025, págs. 539-585.
Cerrillo i Martínez, A.: <<¿Son fiables las decisiones de las Administraciones públicas adoptadas por algoritmos?>>, European Review of Digital Administration & Law, n.º I/1-2, 2020, págs. 18-36.
- <<Robots, asistentes virtuales y automatización de las administraciones públicas>>, Revista Galega de Administración Pública, n.º 61, 2021, págs. 271-309.
- <<Retos y oportunidades de la regulación española de la inteligencia artificial>>, en A. Cerrillo i Martínez, F. Di Lascio, I. Martín Delgado y C. I. Velasco Rico (dirs.): Inteligencia artificial y Administraciones públicas: una triple visión en clave comparada, Iustel, 2024, págs. 101-117.
Cotino Hueso, L.: <<Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público>>, en E. Gamero Casado (dir.) y F. L. Pérez Guerrero (coord.): Inteligencia artificial y sector público. Retos, límites y medios, Tirant lo Blanch, 2023, págs. 260-351.
- <<Alcance y delimitación de los sistemas de alto riesgo en el Reglamento de inteligencia artificial>>, en L. Cotino Hueso y P. Simón Castellano (dirs.): Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea, Aranzadi, 2024, págs. 291-313.
De la Sierra Morón, S.: <<Inteligencia artificial y justicia administrativa: una aproximación desde la teoría del control de la Administración pública>>, Revista General de Derecho Administrativo, n.º 53, 2020.
- <<Una introducción a la Carta de derechos digitales>>, en L. Cotino Hueso (coord.): La Carta de Derechos Digitales, Tirant lo Blanch, 2022, págs. 27-52.
- <<El ejercicio de potestades mediante inteligencia artificial>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, Instituto Nacional de Administración Pública, 2024, págs. 251-277.
Díaz González, G. M.: <<Prohibited Artificial Intelligence Practices (Chapter II)>>, en A. Huergo Lora (ed.) y G. M. Díaz González (coord.): The EU regulation on artificial intelligence, Wolters Kluwer-CEDAM, 2025, págs. 37-77.
Gamero Casado, E.: <<Las garantías de régimen jurídico del sector público y del procedimiento administrativo común frente a la actividad automatizada y la inteligencia artificial>>, en E. Gamero Casado (dir.) y F. L. Pérez Guerrero (coord.): Inteligencia artificial y sector público. Retos, límites y medios, Tirant lo Blanch, 2023, págs. 398-461.
- <<Sistemas automatizados de toma de decisiones en el Derecho administrativo español>>, Revista General de Derecho Administrativo, n.º 63, 2023.
García Luengo, J.: <<La reducción de las sanciones administrativas por reconocimiento de la responsabilidad o pago voluntario>>, Revista General de Derecho Administrativo, n.º 61, 2022.
García-Trevijano Garnica, J. A.: <<Comentario al artículo 96. Tramitación simplificada del procedimiento administrativo común>>, en J. M. Baño León y J. J. Lavilla Rubira (dirs.): Comentarios al Procedimiento Administrativo, Tirant lo Blanch, 2021, págs. 679-694.
Garrido Juncal, A.: <<Evaluación y perspectivas de la tramitación simplificada del procedimiento administrativo común>>, Revista General de Derecho Administrativo, n.º 47, 2018.
García de Enterría, E. y Fernández Rodríguez, T. R.: Curso de Derecho Administrativo II, Civitas, 1998.
- Curso de Derecho Administrativo I, Civitas, 2024.
Gómez Tomillo, M. y Sanz Rubiales, I.: Derecho Administrativo Sancionador. Parte General, Aranzadi, 2023.
González de Zárate Lorente, R.: <<Procedimiento administrativo e inteligencia artificial>>, Revista Vasca de Administración Pública, n.º 130, 2024, págs. 189-219.
González Ríos, I.: <<Reglas generales de ordenación e instrucción de los procedimientos>>, en E. Gamero Casado (dir.) y J. Valero Torrijos y S. Fernández Ramos (coords.): Tratado de Procedimiento Administrativo Común y Régimen Jurídico Básico del Sector Público, Tirant lo Blanch, 2017, págs. 1523-1552.
Huergo Lora, A.: <<Una aproximación a los algoritmos desde el Derecho administrativo>>, en A. Huergo Lora (dir.) y G. M. Díaz González (coord.): La regulación de los algoritmos, Thomson Reuters Aranzadi, 2020, págs. 23-87.
- <<Administraciones Públicas e inteligencia artificial ¿más o menos discrecionalidad?>>, El Cronista del Estado Social y Democrático de Derecho, n.º 96-97, 2021, págs. 78-95.
- <<Inteligencia artificial y sanciones administrativas>>, en M. Rebollo Puig, A. Huergo Lora, J. Guillén Caramés y T. Cano Campos (dirs.): Anuario de Derecho Administrativo sancionador 2022, Civitas, 2022, págs. 275-309.
- <<Inteligencia artificial y Administraciones públicas: para qué y cómo>>, Teoría & Derecho, n.º 37, 2024, págs. 40-69.
- <<De la digitalización a la inteligencia artificial: ¿evolución o revolución?>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, Instituto Nacional de Administración Pública, 2024, págs. 31-72.
- <<El uso de algoritmos por las Administraciones públicas>>, en M. E. Casas Baamonde (dir.) y D. Pérez del Prado (coord.): Derecho y tecnologías, Fundación Ramón Areces, 2025, págs. 297-334.
- <<El uso de inteligencia artificial en la detección de ilícitos administrativos>>, en M. Rebollo Puig, A. Huergo Lora, J. Guillén Caramés y T. Cano Campos (dirs.) y M. Izquierdo Carrasco, A. M. Bueno Armijo y L. Alarcón Sotomayor (coords.): Anuario de Derecho Administrativo sancionador 2025, Civitas, 2025, págs. 649-681.
- <<Classification of AI Systems as high-risk (Chapter III, Section 1)>>, en A. Huergo Lora (ed.) y G. M. Díaz González (coord.): The EU regulation on artificial intelligence, Wolters Kluwer-CEDAM, 2025, págs. 79-130.
Huergo Lora, A. (ed.) y Díaz González, G. M. (coord.): The EU regulation on artificial intelligence. Wolters Kluwer-CEDAM, 2025.
Izquierdo Carrasco, M.: <<La utilización policial del reconocimiento facial automático en despliegues ocasionales en la vía pública y los derechos fundamentales>>, en D. Terrón Santos y J. L. Domínguez Álvarez (dir.) y P. M. Tomé Domínguez (coord.): Inteligencia artificial y defensa. Nuevos horizontes, Thomson Reuters Aranzadi, 2021, págs. 63-77.
- <<Actuaciones automatizadas en la sanción de irregularidades en el orden social>>, en L. Cotino Hueso y A. Todolí Signes (coords.): Explotación y regulación del uso del big data e inteligencia artificial para los servicios públicos y la ciudad inteligente, Tirant lo Blanch, 2022, págs. 261-288.
- <<Inteligencia Artificial y procedimiento administrativo sancionador>>, en M. Rebollo Puig, A. Huergo Lora, J. Guillén Caramés y T. Cano Campos (dirs.) y M. Izquierdo Carrasco, A. Bueno Armijo y L. Alarcón Sotomayor (coords.): Anuario de Derecho Administrativo sancionador 2025, Civitas, 2025, págs. 683-722.
Kearns, M. y Roth, A.: The Ethical Algorithm. The Science of Socially Aware Algorithm Design, Oxford University Press, 2020.
Li, P.; Yang, J.; Islam, M. A.; y Ren, S.: <<Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models>>, ENLACE, Universidad de Cornell, 2023 (última revision en 2025).
Martín Delgado, I.: <<La aplicación del principio de transparencia a la actividad administrativa algorítmica>>, en E. Gamero Casado (dir.) y F. L. Pérez Guerrero (coord.): Inteligencia artificial y sector público. Retos, límites y medios, Tirant lo Blanch, 2023, págs. 132-194.
Martín Fernández, C.: El régimen sancionador de la seguridad ciudadana, Aranzadi, 2023.
- <<Los planes de inspección y la Inteligencia Artificial>>, Gabilex. Revista del Gabinete Jurídico de Castilla-La Mancha, n.º 41, 2025, pág. 165-210.
Martín Rebollo, L.: <<Ayer y hoy de la responsabilidad patrimonial de la Administración>>, Revista de Administración Pública, n.º 150, 1999, págs. 317-371.
Martínez Otero, J. M.ª: <<Hipervigilancia administrativa y supervisión automatizada: promesas, amenazas y criterios para valorar su oportunidad>>, Revista Española de Derecho Administrativo, n.º 231, 2024, págs. 145-176.
Patterson, D.; Gonzalez, J.; Le, Q.; Liang, C.; Munguia, L. M.; Rothchild, D.; So, D.; Texier, M.; y Dean, J.: <<Carbon Emissions and Large Neural Network Training>>, ENLACE, Universidad de Cornell, 2021.
Ponce Solé, J.: La lucha por el buen gobierno y el derecho a una buena administración mediante el estándar jurídico de diligencia debida, Universidad de Alcalá de Henares, 2019.
- <<Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico>>, Revista General de Derecho Administrativo, n.º 50, 2019.
- <<Seres humanos e inteligencia artificial: discrecionalidad artificial, reserva de humanidad y supervisión humana>>, en E. Gamero Casado (dir.) y F. L. Pérez Guerrero (coord.): Inteligencia artificial y sector público. Retos, límites y medios, Tirant lo Blanch, 2023, págs, 196-225.
- <<Inteligencia artificial, decisiones administrativas discrecionales totalmente automatizadas y alcance del control judicial: ¿indiferencia, insuficiencia o deferencia?>>, Revista de Derecho Público: Teoría y método, n.º 9, 2024, págs. 171-220.
- El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, el derecho a una buen a administración digital y su control judicial en España, Marcial Pons, 2024.
Ponce Solé, J. y Cerrillo i Martínez, A.: The EU Artificial Intelligence Act and the Public Sector - Humans and AI Systems in Public Administration in the light of the European Regulation on Artificial Intelligence of 2024, European Public Law Organization Publications, 2025.
Rebollo Puig, M.: <<Ejercicio obligado o facultativo de la potestad sancionadora. Legitimación para exigir su ejercicio>>, en M. Rebollo Puig, M. Izquierdo Carrasco, L. Alarcón Sotomayor y A. M. Bueno Armijo: Derecho Administrativo Sancionador, Lex Nova, 2010, págs. 473 a 513.
- <<La actividad inspectora>>, en J. J. Díez Sánchez (coord.): La función inspectora. Actas del VIII Congreso de la Asociación Española de Profesores de Derecho Administrativo, Instituto Nacional de Administración Pública, 2013, págs. 55-116.
- <<Control judicial del no ejercicio de la potestad sancionadora>>, en J. Guillén Caramés y M. Cuerdo Mir (dirs.): Estudios sobre la potestad sancionadora en Derecho de la Competencia, Thomson Reuters, 2015, págs. 407-466.
Rebollo Puig, M. y López Benítez, M.: <<El principio de legalidad administrativa>>, en M. Rebollo Puig y D. Vera Jurado (dirs.) y M. Rebollo Puig (coord.): Derecho Administrativo. Tomo I, Tecnos, 2023, págs. 127-160.
Sanz Rubiales, I.: <<La reducción de sanciones pecuniarias por pago adelantado y por reconocimiento de la responsabilidad>>, Revista Aragonesa de Administración Pública, n.º 58, 2022, págs. 13-57.
Solar Cayón, J. I.: Inteligencia artificial jurídica e imperio de la ley, Tirant lo Blanch, 2025.
Tornos Más, J.: <<Comentario al artículo 85. Terminación en los procedimientos sancionadores>>, en J. M. Baño León y J. J. Lavilla Rubira (dirs.): Comentarios al Procedimiento Administrativo, Tirant lo Blanch, 2021, págs. 603-612.
Vida Fernández, J.: <<El marco europeo para la regulación del uso de la inteligencia artificial por las Administraciones públicas>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, Instituto Nacional de Administración Pública, 2024, págs. 143-154.
Wisner Glusko, D. C.: <<Inteligencia artificial sostenible: entre la sostenibilidad digital y los entornos digitales sostenibles>>, Studies in Law: Research Papers, n.º 1 (30), 2022, págs. 117-127.
NOTAS:
(1). A. Huergo Lora: <<Inteligencia artificial y sanciones administrativas>>, en M. Rebollo Puig, A. Huergo Lora, J. Guillén Caramés y T. Cano Campos (dirs.): Anuario de Derecho Administrativo sancionador 2022, Civitas, 2022, pág. 276.
(2). M. Kearns y A. Roth han llegado a hablar de <<ansiedad algorítmica>> en su obra: The Ethical Algorithm. The Science of Socially Aware Algorithm Design, Oxford University Press, 2020.
(3). No deja de resultar paradójico que, en la época actual, en la que está aumentando la sensibilidad por el medio ambiente, la atención a los riesgos de la IA se centre en los sesgos que puede incorporar, escaseando las referencias a su impacto medioambiental. En relación con este tema, puede destacarse el trabajo de D. C. Wisner Glusko: <<Inteligencia artificial sostenible: entre la sostenibilidad digital y los entornos digitales sostenibles>>, Studies in Law: Research Papers, n.º 1 (30), 2022.
(4). S. de la Sierra Morón: <<El ejercicio de potestades mediante inteligencia artificial>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, INAP, 2024, pág. 256.
(6). En todo caso, pueden señalarse dos características evidentes de estos modelos de IA: son conservadores, pues parten del presupuesto de que el futuro será como el pasado (A. Huergo Lora, <<Inteligencia artificial y sanciones administrativas>>, op. cit., pág. 279), lo que es una simplificación de la naturaleza humana, y son ciegos, realizan predicciones sin tener acceso directo al objeto que intentan predecir, para lo que utilizan proxies, elementos que suelen correlacionar con lo que se desea predecir y que son más fácilmente observables o mensurables (Ibid., pág. 283).
(7). S. de la Sierra Morón: <<El ejercicio de potestades mediante inteligencia artificial>>, op. cit., págs. 256-257. Más detalladamente, M. Carlón Ruiz y. Ponce Solé han hecho una relación de algunos sistemas de IA en funcionamiento o desarrollo en España en, respectivamente: Las Administraciones públicas ante la inteligencia artificial, Tirant lo Blanch, 2024, págs. 45-55, y El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, el derecho a una buen a administración digital y su control judicial en España, Marcial Pons, 2024, págs. 29-35.
(8). S. de la Sierra Morón: <<El ejercicio de potestades mediante inteligencia artificial>>, op. cit., pág. 271.
(9). M. Rebollo Puig y M. López Benítez: <<El principio de legalidad administrativa>>, en M. Rebollo Puig y D. Vera Jurado (dirs.) y M. Rebollo Puig (coord.): Derecho Administrativo. Tomo I, Tecnos, 2023, págs. 146-148.
(10). A. Huergo Lora: <<Inteligencia artificial y Administraciones públicas: para qué y cómo>>, Teoría & Derecho, n.º 37, 2024, págs. 44-45 y 49-50.
(11). Aunque no han faltado propuestas para la utilización de modelos puramente simbólicos, el ejercicio de la discrecionalidad exige aplicarla en cada caso en función de las circunstancias específicas, no es posible su eliminación prefigurándola rígidamente mediante su parametrización previa. Esta obligación de ejercicio individualizado de la discrecionalidad se desprende del derecho a una buena administración, recogido en la Carta de Derechos Fundamentales de la Unión Europea (art. 41) e, implícitamente, en la Constitución (arts. 9.3, 103.1 y 106.1) (STS, Sala 3ª, 1312/2021, de 4 de noviembre, FJ 2). Existe, incluso, algún pronunciamiento judicial en este sentido, como la STS, Sala 3ª, de 28 de octubre de 2015, en la que se anuló la disposición adicional 2ª del RD 177/2014, de 21 de marzo, por el que se regula el sistema de precios de referencia y agrupaciones homogéneas de medicamentos en el Sistema Nacional de Salud, pues esta disposición reglamentaria fijaba un procedimiento de revisión de los precios de comercialización de determinadas presentaciones de los medicamentos que daba lugar a decisiones meramente aritméticas que se adoptaban de forma automática en función de un único parámetro, lo que iba en contra de lo establecido legalmente, que implicaba discrecionalidad administrativa (J. Ponce Solé: <<Inteligencia artificial, decisiones administrativas discrecionales totalmente automatizadas y alcance del control judicial: ¿indiferencia, insuficiencia o deferencia?>>, Revista de Derecho Público: Teoría y método, n.º 9, 2024, págs. 180 y 182-184).
En relación con el derecho a una buena administración, L. Martín Rebollo, a finales del siglo XX, ya afirmó que en la Constitución se encontraba implícito <<el derecho a un buen funcionamiento de una Administración cuya función es servir (artículo 103 CE)>> (<<Ayer y hoy de la responsabilidad patrimonial de la Administración>>, RAP, n.º 150, 1999, pág. 363). Más recientemente, J. Ponce Solé ha señalado que este derecho introduce una nueva obligación jurídica de la Administración <<consistente en la debida diligencia o el debido cuidado que debe desplegar el decisor administrativo en la ponderación de todos los hechos, intereses y derechos relevantes para la toma de la decisión y en la motivación de esta>> (La lucha por el buen gobierno y el derecho a una buena administración mediante el estándar jurídico de diligencia debida, Universidad de Alcalá de Henares, 2019, pág. 38).
(12). En distinto grado, se han pronunciado a favor de la utilización de IA para la toma de decisiones en el ejercicio de potestades discrecionales: L. Cotino Hueso (<<Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público>>, en E. Gamero Casado [dir.] y F. L. Pérez Guerrero [coord.]: Inteligencia artificial y sector público. Retos, límites y medios, Tirant lo Blanch, 2023, pág. 276), E. Gamero Casado (<<Las garantías de régimen jurídico del sector público y del procedimiento administrativo común frente a la actividad automatizada y la inteligencia artificial>>, en E. Gamero Casado [dir.] y F. L. Pérez Guerrero [coord.]: Inteligencia artificial y sector público, op. cit., págs. 448-452), A. Cerrillo i Martínez (<<Retos y oportunidades de la regulación española de la inteligencia artificial>>, en A. Cerrillo i Martínez, F. Di Lascio, I. Martín Delgado y C. I. Velasco Rico [dirs.]: Inteligencia artificial y Administraciones públicas: una triple visión en clave comparada, Iustel, 2024, págs. 108-109) y M. Izquierdo Carrasco (<<Inteligencia Artificial y procedimiento administrativo sancionador>>, en M. Rebollo Puig, A. Huergo Lora, J. Guillén Caramés y T. Cano Campos [dirs.] y M. Izquierdo Carrasco, A. Bueno Armijo y L. Alarcón Sotomayor [coords.]: Anuario de Derecho Administrativo sancionador 2025, Civitas, 2025, págs. 698-700).
(14). J. Ponce Solé: <<Inteligencia artificial, decisiones administrativas discrecionales totalmente automatizadas>>, op. cit., págs. 184-188.
(15). J. Ponce Solé: <<Seres humanos e inteligencia artificial: discrecionalidad artificial, reserva de humanidad y supervisión humana>>, en E. Gamero Casado (dir.) y F. L. Pérez Guerrero (coord.): Inteligencia artificial y sector público, op. cit., págs. 195-225
(16). I. Martín Delgado: <<La aplicación del principio de transparencia a la actividad administrativa algorítmica>>, en E. Gamero Casado (dir.) y F. L. Pérez Guerrero (coord.): Inteligencia artificial y sector público, op. cit., pág. 179.
(17). A. Huergo Lora: <<Inteligencia artificial y Administraciones públicas>>, op. cit., pág. 50.
(18). S. de la Sierra Morón: <<El ejercicio de potestades mediante inteligencia artificial>>, op. cit., pág. 255.
(20). E. García de Enterría y T. R. Fernández Rodríguez: Curso de Derecho Administrativo I, Civitas, 2024, págs. 523-530.
(21). En este sentido, A. Huergo Lora (<<De la digitalización a la inteligencia artificial: ¿evolución o revolución?>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, op. cit., pág. 39) y J. I. Solar Cayón (Inteligencia artificial jurídica e imperio de la ley, Tirant lo Blanch, 2025, pág. 240). En un sentido más general, A. Cerrillo i Martínez ha afirmado que la IA permite que la Administración pueda tener un mayor conocimiento del contexto en el que toma sus decisiones y anticipar y evaluar el impacto de las mismas, dotándolas de mayor eficacia y calidad (<<¿Son fiables las decisiones de las Administraciones públicas adoptadas por algoritmos?>>, European Review of Digital Administration & Law, n.º I/1-2, 2020, pág. 17).
(22). Véanse, respectivamente, las infracciones administrativas de los artículos 86 c) de la Ley 25/1964, de 29 de abril, sobre energía nuclear, y 77 ñ) del Texto Refundido de la Ley sobre Tráfico, Circulación de Vehículos a Motor y Seguridad Vial, aprobado por el RD Legislativo 6/2015, de 30 de octubre.
(23). Véase la infracción administrativa del artículo 92 o) de la Ley 10/2014, de 26 de junio, de ordenación, supervisión y solvencia de entidades de crédito.
(24). A. Huergo Lora: <<Administraciones Públicas e inteligencia artificial ¿más o menos discrecionalidad?>>, El Cronista del Estado Social y Democrático de Derecho, n.º 96-97, 2021, págs. 91-92, e <<Inteligencia artificial y Administraciones públicas>>, op. cit., págs. 48 y 64, y E. Gamero Casado: <<Las garantías de régimen jurídico del sector público>>, op. cit., págs. 439-441.
El uso de IA en la aplicación de conceptos jurídicos indeterminados está cubierto por la libertad de medios de prueba que establece el artículo 77.1 LPACAP para los procedimientos administrativos. Una de las críticas más habituales al valor probatorio de esta tecnología es el fenómeno de la <<caja negra>>, inherente al deep learning. Esta crítica es correcta, pero adolece de cierta incoherencia, pues obvia que en la aplicación de conceptos jurídicos indeterminados ya se utilizan informes periciales basados en tecnologías que tienen márgenes de incertidumbre pacíficamente admitidos (v. gr. herramientas de predicción meteorológica o demoscópica o de geolocalización). Es decir, la incertidumbre residual que penaliza a la IA se permite a otra tecnología (A. Huergo Lora: <<Inteligencia artificial y Administraciones públicas>>, op. cit., págs. 46-48). Lo más razonable sería negar el valor probatorio de los informes elaborados por IA únicamente en los supuestos en los que el grado de incertidumbre fuera elevado por no estar los modelos empleados suficientemente contrastados.
(25). Véanse, respectivamente, las infracciones administrativas de los apartados 4 y 5 del artículo 37 de la Ley Orgánica 4/2015, de 30 de marzo, de protección de la seguridad ciudadana.
(26). A. Huergo Lora: <<Inteligencia artificial y Administraciones públicas>>, op. cit., págs. 42-43 y 58-59.
(27). Más matizadamente, S. de la Sierra Morón opina que el principio de legalidad no exige la habilitación normativa a la Administración para la utilización de un instrumento de IA concreto, pero sí un marco jurídico para este tipo de instrumentos que regule los elementos esenciales de su utilización. En las materias reservadas constitucionalmente a la ley, como los aspectos básicos del procedimiento administrativo, sería necesaria una norma con rango de ley; en el resto de materias sería suficiente una norma reglamentaria. Este marco jurídico, entre otras condiciones, debería distinguir las diversas aplicaciones de la inteligencia artificial atendiendo a sus efectos y a las fases del procedimiento administrativo en las que podrían ser utilizadas, indicando su peso específico en el proceso de toma de decisiones y los efectos jurídicos en cada caso (S. de la Sierra Morón: <<El ejercicio de potestades mediante inteligencia artificial>>, op. cit., págs. 259-260). En el mismo sentido, J. Ponce Solé deduce del artículo 18.4 CE una reserva de ley en materia de utilización de IA por la Administración, pues ello puede afectar al ejercicio por los ciudadanos de derechos como los de intimidad, igualdad o buena administración. Esta reserva de ley no impondría una habilitación específica para cada uso de la IA en el sector público; se trataría de una reserva de ley relativa que abarcaría, fundamentalmente, la decisión de los ámbitos en que estaría excluida la automatización, el diseño del procedimiento administrativo debido digital, la creación de un registro de algoritmos y la revisión periódica de los sistemas (El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, op. cit., págs. 159-182).
(28). Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos.
(29). M. Carlón Ruiz: Las Administraciones públicas ante la inteligencia artificial, op. cit., pág. 45.
(31). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial. A pesar de que la norma entró en vigor a los 20 días de su publicación en el Diario Oficial de la Unión Europea (art. 113), el inicio de su aplicación está sometido a distintos plazos, marcados en los artículos 111 y 113.
En fechas recientes se ha publicado una obra colectiva, editada por A. Huergo Lora y coordinada por G. M. Díaz González, en la que se recoge el comentario exhaustivo de la norma: The EU regulation on artificial intelligence. Wolters Kluwer-CEDAM, 2025. Asimismo, más centrada en su aplicación al sector público, también se ha publicado la obra, editada por J. Ponce Solé y A. Cerrillo i Martínez: The EU Artificial Intelligence Act and the Public Sector - Humans and AI Systems in Public Administration in the light of the European Regulation on Artificial Intelligence of 2024, EPLO Publications, 2025. La referencia a las mismas, por su interés y trascendencia, resulta obligada.
(32). El artículo 22 RGPD ha sido analizado exhaustivamente, incidiendo especialmente en la condición de que la decisión no haya sido basada <<únicamente>> en el tratamiento automatizado de datos, por J. I. Solar Cayón (Inteligencia artificial jurídica e imperio de la ley, op. cit., págs. 221-223) y A. Huergo Lora (<<Inteligencia artificial y Administraciones públicas>>, op. cit., pág. 59).
(33). J. Vida Fernández: <<El marco europeo para la regulación del uso de la inteligencia artificial por las Administraciones públicas>>, en P. Valcárcel Fernández y F. L. Hernández González (coords.): El Derecho Administrativo en la era de la inteligencia artificial, op. cit., pág. 147.
(34). El artículo 3 1) señala que, a efectos del Reglamento, se entiende por sistema de IA, <<un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales>>.
(35). A. Huergo Lora: <<Inteligencia artificial y Administraciones públicas>>, op. cit., pág. 60, y J. Vida Fernández: <<El marco europeo para la regulación del uso de la inteligencia artificial>>, op. cit., pág. 148.
(36). Los sistemas de IA de alto riesgo son el núcleo del Reglamento de Inteligencia Artificial. El artículo 6 recoge una serie de reglas para determinar qué sistemas de IA tienen esta consideración, para lo que sigue un sistema dual. Por un lado, la consideración de sistema de alto riesgo está asociada a los productos cubiertos por determinada normativa de armonización de la Unión Europea relacionada en el Anexo I; bien por ser el sistema un componente de seguridad del producto, bien por ser un producto independiente. Por otro lado, el carácter de alto riesgo de los sistemas se vincula con una serie de finalidades y usos enumerados en el Anexo III: biometría; infraestructuras críticas; educación y formación profesional; empleo, gestión de los trabajadores y acceso al autoempleo; acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones; garantía del cumplimiento del Derecho; migración, asilo y gestión del control fronterizo; y Administración de Justicia y procesos democráticos (A. Huergo Lora: <<El uso de algoritmos por las Administraciones públicas>>, en M. E. Casas Baamonde [dir.] y D. Pérez del Prado [coord.]: Derecho y tecnologías, Fundación Ramón Areces, 2025, pág. 325, y L. Cotino Huesdo: <<Alcance y delimitación de los sistemas de alto riesgo en el Reglamento de inteligencia artificial>>, en L. Cotino Hueso y P. Simón Castellano [dirs.]: Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea, Aranzadi, 2024, págs. 291-292). En particular, los sistemas de IA de alto riesgo tienen que cumplir una serie de requisitos para garantizar su fiabilidad y seguridad, para lo que tienen que ser sometidos a una evaluación de conformidad por un organismo notificado y poder así llevar el marcado CE que habilita a su uso y comercialización dentro la Unión Europea. Estos requisitos son: contar con un sistema de gestión de riesgos para su identificación, evaluación y mitigación (art. 9); una política de gestión y gobernanza de datos para garantizar su calidad y pertinencia (art. 10); una documentación actualizada y adecuada (art. 11); un sistema de registro que permita la trazabilidad (art. 12); un nivel de transparencia suficiente para interpretar y usar correctamente sus resultados (art. 13); el sometimiento a vigilancia humana efectiva para prevenir o reducir los riesgos (art. 14); y una garantía de precisión, solidez y ciberseguridad (art. 15) (J. Vida Fernández: <<El marco europeo para la regulación del uso de la inteligencia artificial>>, op. cit., pág. 149).
(37). En España ya ha sido presentada la Agencia Española de Supervisión de Inteligencia Artificial, cuyo Estatuto fue aprobado por el RD 729/2023, de 22 de agosto, llamada a ser la referencia en el país en materia de IA.
(38). J. Vida Fernández: <<El marco europeo para la regulación del uso de la inteligencia artificial>>, op. cit., pág. 150.
(39). Ibid., págs. 150-151. En esta línea, el Reglamento reconoce que <<no debe obstaculizar el desarrollo y el uso de enfoques innovadores en la Administración>> (cdo. 58).
(40). Más precisamente, G. Barrachina Navarro y A. Boix Palop han analizado detalladamente la utilización de sistemas de IA de alto riesgo por la Administración en: <<La aplicabilidad del Reglamento de inteligencia artificial al ámbito de la Administración pública y servicios públicos y especialidades respecto de su cumplimiento: Especial atención a anexo III y actuación administrativa y particularidades cumplimiento>>, en L. Cotino Hueso y P. Simón Castellano (dirs.): Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea, op. cit. En todo caso, es pertinente recordar que hubo una enmienda aprobada por el Parlamento Europeo (n.º 738), para que fueran considerados de alto riesgo los sistemas de IA <<destinados a ser utilizados por [] un órgano administrativo, o en su nombre, para ayudar a [] un órgano administrativo en la investigación e interpretación de hechos y de la ley, así como en la aplicación de la ley a un conjunto concreto de hechos>>. Esta enmienda, finalmente, no prosperó; de haberlo hecho, la incidencia del Reglamento de Inteligencia Artificial en la Administración habría sido mucho mayor.
(41). Ante esta pasividad del Gobierno de la Nación y las Cortes Generales, algunas comunidades autónomas han comenzado a regular, más o menos detalladamente, la utilización de IA por la Administración en base a sus competencias en materia de autoorganización, desarrollo de las bases del régimen jurídico de las Administraciones públicas y procedimiento administrativo común (J. Ponce Solé: El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, op. cit., págs. 154 y 160). Aunque en este trabajo no puede abordarse el estudio de toda esta normativa autonómica, por su heterogeneidad, sí pueden señalarse algunas muestras por el interés que presenta. La Ley 26/2010, de 3 de agosto, de régimen jurídico y de procedimiento de las administraciones públicas de Cataluña, señala que <<[s]ólo son susceptibles de actuación administrativa automatizada los actos que puedan adoptarse con una programación basada en criterios y parámetros objetivos>> (art. 44.2). El Decreto 622/2019, de 27 de diciembre, de administración electrónica, simplificación de procedimientos y racionalización organizativa de la Junta de Andalucía, indica que <<[n]o cabrá realizar mediante actuación administrativa automatizada actividades que supongan juicios de valor>> (art. 40.2). El País Vasco, aunque ha apostado por la automatización de la actuación administrativa en el Decreto 91/2023, de 20 de junio, de atención integral y multicanal a la ciudadanía y acceso a los servicios públicos por medios electrónicos, no ha establecido más límites a la misma que la referencia, en el Catálogo Corporativo de Servicios y Procedimientos, a las actuaciones administrativas automatizadas vinculadas a los servicios y procedimientos disponibles, con indicación de <<la descripción de su diseño y funcionamiento, los mecanismos de rendición de cuentas y transparencia, así como los datos utilizados en su configuración y aprendizaje>> (art. 31.5 i)). La Orden de 14 de mayo de 2024, de la Consejera de Gobernanza Pública y Autogobierno, por la que se regula este catálogo, tampoco ha establecido límites de este tipo. Ante esta atomización de la regulación de la IA por la Administración es legítimo preguntarse si convendría la aprobación, por lo menos, de una legislación básica de mínimos para evitar grandes diferencias entre territorios y una posible España a varias velocidades, tecnológicamente hablando. La competencia del Estado en materia de bases del régimen jurídico de las Administraciones públicas y procedimiento administrativo común (art. 149.1.18ª CE) lo ampararía.
(42). El artículo 42 LRJSP también hace referencia a la actuación administrativa automatizada, pero se limita a regular los sistemas de firma. La Carta española de Derechos Digitales también contiene varias referencias a la IA, pero no tiene valor normativo. En relación con este documento, puede consultarse el trabajo de S. de la Sierra Morón: <<Una introducción a la Carta de derechos digitales>>, en L. Cotino Hueso (coord.): La Carta de Derechos Digitales, Tirant lo Blanch, 2022.
(43). El artículo 41 LRJSP, apdo. 1, hace referencia únicamente a la actuación administrativa automatizada enmarcada en un procedimiento administrativo; por este motivo, hay autores que han entendido que la automatización sólo es posible respecto a la actividad administrativa formalizada (Gamero Casado, E.: <<Sistemas automatizados de toma de decisiones en el Derecho administrativo español>>, RGDA, n.º 63, 2023). En el apdo. 2, el inciso <<en su caso>>, relativo a la auditoría del sistema de información y del código fuente, debe entenderse en el sentido de que estos controles deben imponerse siempre que sea posible por las características del sistema (E. Gamero Casado: <<Las garantías de régimen jurídico del sector público>>, op. cit., pág. 412).
(44). J. Vida Fernández: <<El marco europeo para la regulación del uso de la inteligencia artificial>>, op. cit., pág. 149.
(45). En relación con la precaución en la introducción de la IA en la Administración, J. Ponce Solé ha llegado a proponer, ante <<la incertidumbre que rodea aún a la posibilidad de replicar una consciencia humana y una empatía emocional equivalente en la IA>>, la aplicación jurídica del principio de precaución para prevenir los graves riesgos que entraña, especialmente la automatización de la toma de decisiones discrecionales (<<Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico>>, RGDA, n.º 50, 2019). En el mismo sentido, A. Cerrillo i Martínez (<<Robots, asistentes virtuales y automatización de las administraciones públicas>>, RGAP, n.º 61, 2021, pág. 296).
(46). El objetivo del presente trabajo es analizar la viabilidad, en términos jurídicos, de la automatización de procedimientos sancionadores mediante IA. Queda fuera de su ámbito de estudio el análisis de las garantías que, en su caso, correspondería adoptar en relación con cada sistema y trámite en virtud del Reglamento de Inteligencia Artificial y la normativa en materia de protección de datos personales, transparencia, reutilización de información del sector público y, en general, ciberseguridad. Al respecto, pueden consultarse los trabajos de I. Martín Delgado (<<La aplicación del principio de transparencia a la actividad administrativa algorítmica>>, op. cit., págs. 153-172), M. Carlón Ruiz (Las Administraciones públicas ante la inteligencia artificial, op. cit., págs. 63-117, 139-208, 215-253, y 257-295), R. González de Zárate Lorente (<<Procedimiento administrativo e inteligencia artificial>>, RVAP, n.º 130, 2024, págs. 193-194), M. Izquierdo Carrasco (<<Actuaciones automatizadas en la sanción de irregularidades en el orden social>>, en L. Cotino Hueso y A. Todolí Signes [coords.]: Explotación y regulación del uso del big data e inteligencia artificial para los servicios públicos y la ciudad inteligente, Tirant lo Blanch, 2022, págs. 267-283, e <<Inteligencia Artificial y procedimiento administrativo sancionador>>, op. cit., págs. 692-693 y 702-711) y J. Ponce Solé (El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, op. cit., págs. 113-159 y 212-222).
(47). Aunque es muy debatido si la Administración tiene margen de valoración para decidir la incoación o no del procedimiento sancionador, la posición más consolidada es la que lo niega. Ya en las primeras ediciones del Curso de Derecho Administrativo II de E. García de Enterría y T. R. Fernández Rodríguez se podía leer que <<en modo alguno puede admitirse que abrir un expediente sancionatorio y sancionar dentro de él constituya una potestad discrecional de la Administración>> (Civitas, 1998, pág. 186). Esta cuestión ha sido ampliamente analizada por M. Gómez Tomillo e I. Sanz Rubiales, dando cuenta de las distintas líneas doctrinales, en la obra Derecho Administrativo Sancionador. Parte General (Aranzadi, 2023, págs. 679-683). En sentido contrario al expuesto, puede destacarse la posición de M. Rebollo Puig (<<Ejercicio obligado o facultativo de la potestad sancionadora. Legitimación para exigir su ejercicio>>, en M. Rebollo Puig, M. Izquierdo Carrasco, L. Alarcón Sotomayor y A. M. Bueno Armijo: Derecho Administrativo Sancionador, Lex Nova, 2010, págs. 474-478, y <<Control judicial del no ejercicio de la potestad sancionadora>>, en J. Guillén Caramés y M. Cuerdo Mir [dirs.]: Estudios sobre la potestad sancionadora en Derecho de la Competencia, Thomson Reuters, 2015, págs. 410-421).
(48). Ello sin perjuicio de que, si en el momento de dictarse el acuerdo de iniciación, no existen elementos suficientes para la calificación inicial de los hechos, la calificación pueda hacerse posteriormente mediante la elaboración de un pliego de cargos, que deberá notificarse a los interesados (art. 64.3 LPACAP).
(49). En este sentido se ha pronunciado M. Casino Rubio, quien, acertadamente, ha defendido la automatización de la incoación del procedimiento sancionador, actuación reglada, poniendo en valor la objetividad de la IA frente a la posible subjetividad del funcionario actuante y las discriminaciones a que puede dar lugar (<<La automatización de las actuaciones administrativas sancionadoras>>, en M. Vaquer Caballería [dir.] y J. Pedraza Córdoba [coord.]: La actuación administrativa automatizada: sus claves jurídicas, Tirant lo Blanch, 2025, págs. 569-574). En la misma línea, si bien con matices: A. Huergo Lora: <<El uso de inteligencia artificial en la detección de ilícitos administrativos>>, en M. Rebollo Puig, A. Huergo Lora, J. Guillén Caramés y T. Cano Campos (dirs.) y M. Izquierdo Carrasco, A. M. Bueno Armijo y L. Alarcón Sotomayor (coords.): Anuario de Derecho Administrativo sancionador 2025, op. cit., pág. 671.
(50). La disposición adicional 1ª de la Ley del Procedimiento Administrativo Común de las Administraciones Públicas señala que las actuaciones y procedimientos sancionadores en materia de tráfico y seguridad vial se rigen por su normativa específica, esto es, el Texto Refundido de la Ley sobre Tráfico, Circulación de Vehículos a Motor y Seguridad Vial. No obstante, a efectos ilustrativos de la automatización del inicio de procedimientos sancionadores, la referencia resulta válida.
Asimismo, en algunos municipios se han introducido medios técnicos para facilitar la denuncia de infracciones por circular y estacionar en zonas de acceso restringido. Sin embargo, en la mayoría de ellos, al menos, no se ha producido una completa automatización de las denuncias, pues los medios implantados se limitan a vigilar y detectar infracciones, pero no formulan la denuncia correspondiente, lo que hace una persona física. En este sentido se ha pronunciado la Sala de lo C.-a. del TSJ de Madrid en la Sentencia 30/2021, de 29 de enero, FJ 5, en relación con los instrumentos del municipio de Madrid.
(51). M. Izquierdo Carrasco: <<La utilización policial del reconocimiento facial automático en despliegues ocasionales en la vía pública y los derechos fundamentales>>, en D. Terrón Santos y J. L. Domínguez Álvarez (dir.) y P. M. Tomé Domínguez (coord.): Inteligencia artificial y defensa. Nuevos horizontes, Thomson Reuters Aranzadi, 2021, págs. 70-71.
(52). M. Izquierdo Carrasco: <<Actuaciones automatizadas en la sanción>>, op. cit., págs. 280-281.
(53). El término <<delito>>, en el marco del Reglamento de Inteligencia Artificial, es previsible que termine extendiéndose a algunas infracciones administrativas por aplicación de los célebres criterios Engel, sentados por el Tribunal Europeo de Derechos Humanos, que el Tribunal de Justicia de la Unión Europea ha asumido (Sentencias de 5 de junio de 2012, Bonda, C-489/10, y de 26 de febrero de 2013, Åkerberg Fransson, C-617/10) (M. Izquierdo Carrasco: <<Inteligencia Artificial y procedimiento administrativo sancionador>>, op. cit., págs. 712-717, y A. Huergo Lora: <<Classification of AI Systems as high-risk (Chapter III, Section 1)>>, en A. Huergo Lora [ed.] y G. M. Díaz González [coord.]: The EU regulation on artificial intelligence, Wolters Kluwer-CEDAM, 2025, págs. 109-110).
(54). Además, estará prohibida la utilización de sistemas de IA para crear o ampliar bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión (art. 5.1 e) RIA), lo que indirectamente limitará la capacidad de las Fuerzas y Cuerpos de Seguridad para la identificación biométrica de sospechosos al restringir la alimentación de las bases de datos que podrían utilizar para ello.
(55). La elaboración de planes de inspección mediante IA ha sido estudiada con gran detalle y precisión por C. Martín Fernández en el reciente trabajo: <<Los planes de inspección y la Inteligencia Artificial>>, Gabilex. Revista del Gabinete Jurídico de Castilla-La Mancha, n.º 41, 2025.
A estos efectos, resulta interesante el artículo 5.1 d) RIA, que prohíbe <<la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva>>. El precepto sólo hace referencia a los <<delitos>>, pero es previsible que acabe aplicándose a determinadas infracciones administrativas (véase nota n.º 53). Empero, es muy dudoso que la elaboración de planes de inspección mediante IA encaje en esta prohibición, prima facie limitada a predicciones relativas a personas físicas predeterminadas (G. M. Díaz González: <<Prohibited Artificial Intelligence Practices (Chapter II)>>, en A. Huergo Lora [ed.] y G. M. Díaz González [coord.]: The EU regulation on artificial intelligence, op. cit., págs. 51-52). En cambio, sí parece posible calificar estos sistemas como de alto riesgo en virtud del Anexo III, apartado 6, letra d), RIA: <<[s]istemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho [] para evaluar [] comportamientos delictivos pasados de personas físicas o colectivos>> (C. Martín Fernández: <<Los planes de inspección y la Inteligencia Artificial>>, op. cit., pág. 40, y A. Huergo Lora: <<El uso de inteligencia artificial en la detección de ilícitos administrativos>>, op. cit., pág. 679). La elaboración de los planes de inspección mediante inteligencia artificial se basa, precisamente, en la evaluación de comportamientos pasados y contrarios a Derecho de personas físicas y colectivos.
(56). Esta presunción de veracidad ha sido reconocida por la Sala 3ª del Tribunal Supremo en relación con el artículo 137.3 de la Ley 30/1992, de 26 de noviembre, antecedente del artículo 77.5 LPACAP, entre otras, en la Sentencia de 18 de septiembre de 2012, FJ 5. La Sala de lo C.-a. de la Audiencia Nacional ha mantenido esta jurisprudencia en relación con el artículo 77.5 LPACAP, entre otras, en la Sentencia de 16 de abril de 2021, FJ 3. La Academia, en cambio, ha matizado esta presunción de veracidad, introduciendo relevantes observaciones; pueden consultarse, entre otros, los trabajos de L. Alarcón Sotomayor (El procedimiento administrativo sancionador y los derechos fundamentales, Thomson-Civitas, 2007, pág. 415), M. Rebollo Puig (<<La actividad inspectora>>, en J. J. Díez Sánchez [coord.]: La función inspectora. Actas del VIII Congreso de la Asociación Española de Profesores de Derecho Administrativo, INAP, 2013, págs. 99-102) o T. Cano Campos (<<La presunción de veracidad de las actas de inspección>>, en J. J. Díez Sánchez (coord.): La función inspectora, op. cit., págs. 223-240).
(57). En materia urbanística, por ejemplo, el artículo 217.3 b) de la Ley 2/2006, de 30 de junio, de Suelo y Urbanismo (País Vasco), reconoce a las actas de inspección <<presunción de veracidad respecto a los hechos que en ellas se consignen>>. En materia de seguridad ciudadana, el artículo 52 LOPSC señala que <<[e]n los procedimientos sancionadores que se instruyan en las materias objeto de esta Ley, las denuncias, atestados o actas formulados por los agentes de la autoridad en ejercicio de sus funciones que hubiesen presenciado los hechos, previa ratificación en el caso de haber sido negados por los denunciados, constituirán base suficiente para adoptar la resolución que proceda, salvo prueba en contrario y sin perjuicio de que aquéllos deban aportar al expediente todos los elementos probatorios disponibles>>. Este precepto carece de la claridad del anterior. La Sala de lo C.-a. de la Audiencia Nacional le ha reconocido el mismo sentido mutatis mutandis que el artículo 77.5 LPACAP (Sentencia de 6 de junio de 2018, FJ 1). No obstante, hay autores que consideran que no puede deducirse de él tal presunción de veracidad (C. Martín Fernández: El régimen sancionador de la seguridad ciudadana, Aranzadi, 2023, págs. 240-241).
(58). T. Cano Campos: <<La presunción de veracidad de las actas de inspección>>, op. cit., págs. 226-228, y M. Casino Rubio: <<La automatización de las actuaciones administrativas sancionadoras>>, op. cit., pág. 580.
(59). M. Izquierdo Carrasco: <<Actuaciones automatizadas en la sanción>>, op. cit., págs. 265-266, y A. Huergo Lora: <<Inteligencia artificial y sanciones administrativas>>, op. cit., pág. 296.
(60). En relación con las mediciones mediante instrumentos técnicos, especialmente en materia de tráfico y seguridad vial: M. Casino Rubio: <<La automatización de las actuaciones administrativas sancionadoras>>, op. cit., págs. 580-582.
(61). A. Huergo Lora: <<El uso de inteligencia artificial en la detección de ilícitos administrativos>>, op. cit., pág. 668.
(62). En caso de que se introdujera este tipo de sistemas de IA, parece lógico que se debieran considerar de alto riesgo, en virtud del apartado 6 c) del Anexo III RIA, por servir para <<evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos>>. Ello en los casos en que la sanción correspondiente cumpliera los criterios Engel (véase nota n.º 53).
(63). En relación con algunas infracciones, la calificación jurídica de los hechos requiere, incluso, que la Administración clasifique aquéllas según su gravedad aplicando una serie de criterios establecidos en las leyes sectoriales. Estos criterios incorporan, muchas veces, conceptos jurídicos indeterminados, lo que aumenta estos problemas en la calificación por herramientas de IA (M. Casino Rubio: <<La automatización de las actuaciones administrativas sancionadoras>>, op. cit., págs. 577-578).
(64). Si la Administración no fuera permeable a los cambios sociales podrían darse situaciones tan absurdas como que, actualmente, se sancionara a las mujeres que hicieran topless en la playa por considerarlo la realización de un acto de exhibición obscena constitutivo de la infracción del artículo 37.5 LOPSC.
(65). La búsqueda de la proporcionalidad en la graduación de las sanciones puede llevarse más allá: el artículo 29.4 LRJSP permite a la Administración imponer la sanción en el grado inferior <<[c]uando lo justifique la debida adecuación entre la sanción que deba aplicarse con la gravedad del hecho constitutivo de la infracción y las circunstancias concurrentes>>.
(66). En este sentido, A. Huergo Lora ha señalado que, actualmente, no es técnicamente posible incorporar los criterios de graduación de las sanciones a los sistemas de IA (<<Una aproximación a los algoritmos desde el Derecho administrativo>>, en A. Huergo Lora [dir.] y G. M. Díaz González [coord.]: La regulación de los algoritmos, Thomson Reuters Aranzadi, 2020, págs. 70-71). Asimismo, M. Casino Rubio ha apuntado, como una posible forma de superar esta dificultad, la eliminación de los márgenes sancionadores, definiendo las cuantías de las multas en una cantidad exacta. Ha señalado, incluso, como posible causa de algunas modificaciones normativas recientes en esta línea, la intención del Legislador de avanzar en la automatización de las sanciones. A su juicio, ello supone la tendencia <<inquietante>> de adaptar las normas sancionadoras a la IA, y no al revés, como sería razonable (<<La automatización de las actuaciones administrativas sancionadoras>>, op. cit., págs. 575-577). El autor coincide, en esta última apreciación, con J. M.ª Martínez Otero (<<Hipervigilancia administrativa y supervisión automatizada: promesas, amenazas y criterios para valorar su oportunidad>>, REDA, n.º 231, 2024).
(67). En este sentido, M. Casino Rubio considera que la automatización de la propuesta de resolución sólo sería posible en los supuestos en que no medien alegaciones del interesado o éste preste su conformidad a la sanción propuesta y se fundamente en datos y antecedentes recogidos en las bases de datos de la propia Administración o en elementos de prueba captados por medios electrónicos. En definitiva, <<la más mínima oposición del interesado a la infracción sirve para desactivar automáticamente la automatización del procedimiento sancionador>> (<<La automatización de las actuaciones administrativas sancionadoras>>, op. cit., págs. 570-571). Más estrictamente, M. Izquierdo Carrasco sostiene que la formulación autónoma de propuestas de resolución sancionadora <<está vedada por la especial afección a los Derechos fundamentales que siempre tiene el régimen sancionador y por otras consideraciones como su incompatibilidad con la propia idea de justicia o de dignidad de la persona>> (<<Inteligencia Artificial y procedimiento administrativo sancionador>>, op. cit., págs. 700-701).
(68). Entre estos supuestos excepcionales puede señalarse uno sui generis. El acuerdo de iniciación del procedimiento sancionador puede ser considerado propuesta de resolución si contiene un pronunciamiento preciso sobre la responsabilidad imputada y no se efectúan alegaciones sobre su contenido (art. 64.2 f) LPACAP). En los supuestos en que este acuerdo fuera dictado por un sistema de IA (apdo. 1), si se cumplen estas condiciones, este producto de la IA podría adquirir la condición de propuesta de resolución.
(69). En esta línea, M. Izquierdo Carrasco ha señalado la utilidad de un sistema de IA que verificase si la propuesta de resolución se aparta del criterio seguido por la Administración en actuaciones precedentes (<<Inteligencia Artificial y procedimiento administrativo sancionador>>, op. cit., págs. 692 y 697). Es importante que esta información no pase inadvertida, básicamente, porque la separación del precedente debe hacerse motivadamente (art. 35.1 c) LPACAP) y porque puede poner de manifiesto errores en la interpretación y aplicación del Derecho evitables.
(70). Asimismo, en la resolución se exigirá, si es el caso, la reposición de la situación alterada a su estado originario y la indemnización por los daños y perjuicios causados a la Administración pública (art. 28.2 LRJSP). En caso de que la cuantía de la indemnización no hubiera quedado determinada en el expediente, se fijará mediante un procedimiento complementario en los términos del artículo 90.4 LPACAP.
(71). La Sala 3ª del Tribunal Supremo, en la Sentencia 1260/2022, de 6 de octubre, FJ 3, ha planteado, como obiter dicta, la posibilidad de que la sanción impuesta tras el reconocimiento de la responsabilidad no sea la propuesta previamente, sino la que a posteriori la Administración considere procedente: <<el [artículo 85.1 LPACAP] parece reservar a la Administración la potestad de imponer la sanción que proceda, no la que se hubiese apreciado en los trámites iniciales del procedimiento y a la que se ha aquietado el sancionado; exigencia que está en la base del principio de legalidad que condiciona toda potestad administrativa>>. Esta interpretación supondría que el infractor estaría reconociendo una responsabilidad no totalmente determinada, sino indeterminada en un elemento fundamental: la sanción concreta que se le iría a imponer. Esta idea, acertadamente, no ha prosperado, pues habría situado al acusado en una cuestionable situación de inseguridad jurídica. En la jurisdicción penal tampoco se ha optado por esta alternativa: en las sentencias de conformidad, la figura más próxima al reconocimiento de la responsabilidad sancionadora, la pena impuesta está determinada por la conformidad prestada por el acusado (arts. 655.5 [procedimiento ordinario], 787 ter.1 [procedimiento abreviado] y 801.2 [procedimiento para el enjuiciamiento rápido de determinados delitos] de la Ley de Enjuiciamiento Criminal).
(72). El 20% de reducción puede incrementarse mediante reglamento (art. 85.3 LPACAP), sin perjuicio de las reducciones previstas en la legislación sectorial. Por ejemplo, la Ley 5/2022, de 15 de julio, de Ordenación del Territorio y Urbanismo de Cantabria prevé, además de la aplicación de la reducción establecida en la Ley del Procedimiento Administrativo Común de las Administraciones Públicas, la imposición de una multa por importe del 50% de la correspondiente a la infracción en grado mínimo si el infractor, en el primer trámite tras el acuerdo de iniciación del procedimiento, reconoce la comisión de la infracción y acredita la restauración de la legalidad urbanística. En caso de que lo haga en un momento posterior, pero antes de que se dicte la resolución sancionadora, la multa ascenderá al 75% (art. 276.3).
(73). Si en el momento en que se dictó el acuerdo de iniciación no pudieron calificarse los hechos por falta de elementos suficientes y ello se hace posteriormente, mediante la elaboración de un pliego de cargos, el reconocimiento de la responsabilidad deberá hacerse en el plazo para formular alegaciones al mismo, cuando la responsabilidad del acusado queda suficientemente determinada por la Administración.
El momento concreto del procedimiento administrativo sancionador en el que el imputado puede reconocer la responsabilidad resulta altamente controvertido. En contra de la solución jurisprudencial, I. Sanz Rubiales sostiene que puede hacerlo en cualquier momento anterior a la resolución sancionadora (<<La reducción de sanciones pecuniarias por pago adelantado y por reconocimiento de la responsabilidad>>, RAAP, n.º 58, 2022, págs. 43-44) y J. García Luengo defiende que puede asumir la responsabilidad en el momento en que se notifica la propuesta de resolución (<<La reducción de las sanciones administrativas por reconocimiento de la responsabilidad o pago voluntario>>, RGDA, n.º 61, 2022). También T. Cano Campos ha señalado que esta posibilidad existe más allá del plazo para presentar alegaciones al acuerdo de iniciación, incluso ha afirmado que debería anunciarse en la propuesta de resolución (Claves Prácticas. Derecho Administrativo. Sanciones Administrativas, Francis Lefebvre, 2018, págs. 175-176).
(74). El 20% de reducción referido puede incrementarse mediante reglamento (art. 85.3 LPACAP), sin perjuicio de las reducciones previstas en la legislación sectorial. Así, el Texto Refundido de la Ley sobre Tráfico, Circulación de Vehículos a Motor y Seguridad Vial prevé una reducción del 50% de la multa si se paga voluntariamente en el acto de entrega de la denuncia o en los 20 días naturales siguientes al día de su notificación (art. 94 a)). Igualmente, la Ley Orgánica de protección de la seguridad ciudadana establece, para los procedimientos por infracciones graves o leves, la posibilidad para el imputado de poner fin a los mismos pagando voluntariamente la multa, con una reducción del 50%, en los 15 siguientes a la notificación del acuerdo de iniciación (art. 54).
(75). La discrecionalidad de la Administración en este trámite ha sido analizada por J. García Luengo, quien sostiene que sería conveniente que, en la aplicación de esta reducción, se pudieran tener en consideración todas las circunstancias del caso, evitando un automatismo ciego en una materia tan compleja, en la que son muchas las consideraciones de interés público, de eficacia y de garantía del ciudadano que deben hacerse según las circunstancias de cada caso. Empero, admite que esta propuesta tiene muy difícil encaje en Ley del Procedimiento Administrativo Común de las Administraciones Públicas (<<La reducción de las sanciones administrativas>>, op. cit.). Es, en todo caso, un tema controvertido: a favor de la discrecionalidad de la Administración se ha pronunciado J. Tornos Más (<<Comentario al artículo 85. Terminación en los procedimientos sancionadores>>, en J. M. Baño León y J. J. Lavilla Rubira [dirs.]: Comentarios al Procedimiento Administrativo, Tirant lo Blanch, 2021, págs. 606-607); en contra, I. Sanz Rubiales (<<La reducción de sanciones pecuniarias>>, op. cit., págs. 41-43). La jurisprudencia actual se ha alineado con la segunda opción (SSTS, Sala 3ª, 1260/2022, de 6 de octubre, FJ 3, y 179/2023, de 15 de febrero, FJ 5).
(76). La Sala 3ª del Tribunal Supremo, en la Sentencia 466/2024, de 14 de marzo, FJ 4, se ha pronunciado afirmativamente en relación con la cuestión, controvertida, de la aplicación del artículo 95.4 LPACAP a los procedimientos iniciados de oficio.
(77). M. Gómez Tomillo e I. Sanz Rubiales: Derecho Administrativo Sancionador, op. cit., pág. 664.
(78). Entre otros, han destacado los problemas que plantea el artículo 96 LPACP: I. González Ríos (<<Reglas generales de ordenación e instrucción de los procedimientos>>, en E. Gamero Casado [dir.] y J. Valero Torrijos y S. Fernández Ramos [coords.]: Tratado de Procedimiento Administrativo Común y Régimen Jurídico Básico del Sector Público, Tirant lo Blanch, 2017, págs. 1545-1551), A. Garrido Juncal (<<Evaluación y perspectivas de la tramitación simplificada del procedimiento administrativo común>>, RGDA, n.º 47, 2018) y J. A. García-Trevijano Garnica (<<Comentario al artículo 96. Tramitación simplificada del procedimiento administrativo común>>, en J. M. Baño León y J. J. Lavilla Rubira [dirs.]: Comentarios al Procedimiento Administrativo, op. cit.).
(79). Por ejemplo, el Reglamento del Procedimiento para el Ejercicio de la Potestad Sancionadora permitía la proposición y práctica de prueba, diferenciaba la fase de instrucción y la de resolución y preveía la propuesta de resolución (art. 24).
(80). García-Trevijano Garnica, J. A.: <<Comentario al artículo 96>>, op. cit., pág. 682. Muy acertadamente, el autor concluye que la verdadera simplificación de los procedimientos sancionadores está en los artículos 64.2 f) LPACAP, la falta de alegaciones sobre el acuerdo de iniciación permite que éste pueda ser considerado propuesta de resolución, y 85.1 LPACAP, si, iniciado un procedimiento sancionador, el infractor reconoce su responsabilidad, se podrá resolver el procedimiento con la imposición de la sanción que proceda (Ibid., pág. 682).
(81). D. Patterson, J. Gonzalez, Q. Le, C. Liang, L. M. Munguia, D. Rothchild, D. So, M. Texier, J. Dean: <<Carbon Emissions and Large Neural Network Training>>, ENLACE, Universidad de Cornell, 2021.
(82). P. Li, J. Yang, M. A. Islam y S. Ren: <<Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models>>, ENLACE, Universidad de Cornell, 2023 (última revision en 2025).
(83). En esta línea, J. L. Bermejo Latre ha realizado una propuesta bastante detallada de modificación de la Ley del Procedimiento Administrativo Común de las Administraciones Públicas y de la de la Ley de Régimen Jurídico del Sector Público para adaptarlas a la IA (<<La aplicación de la inteligencia artificial en la actividad formal e informal de la Administración>>, en P. Valcárcel Fernández y F. L. Hernández González [coords.]: El Derecho Administrativo en la era de la inteligencia artificial, op. cit., págs. 233-242).
(84). El control judicial seguirá siendo fundamental incluso en relación con los actos administrativos dictados formalmente por personas físicas con la asistencia de sistemas de IA, pues es muy frecuente que las mismas desarrollen el <<sesgo de automatización>> (automation bias), una confianza excesiva en la IA que las lleve a asumir sus resultados, incluso cuando contradicen el criterio propio (M. Carlón Ruiz: Las Administraciones públicas ante la inteligencia artificial, op. cit., págs. 205-207, y M. Izquierdo Carrasco: <<Inteligencia Artificial y procedimiento administrativo sancionador>>, op. cit., pág. 702).
(85). El control de los actos administrativos dictados por sistemas de IA presenta tal complejidad que merecería un trabajo dedicado exclusivamente al mismo. En este estudio cabe, únicamente, remitirse a las investigaciones de S. de la Sierra Morón (<<Inteligencia artificial y justicia administrativa: una aproximación desde la teoría del control de la Administración pública>>, RGDA, n.º 53, 2020), A. Huergo Lora (<<Inteligencia artificial y sanciones administrativas>>, op. cit., págs. 304-306), M. Carlón Ruiz (Las Administraciones públicas ante la inteligencia artificial, op. cit., págs. 306-312), R. González de Zárate Lorente (<<Procedimiento administrativo e inteligencia artificial>>, op. cit., págs. 210-215) y J. Ponce Solé (<<Inteligencia artificial, decisiones administrativas discrecionales totalmente automatizadas>>, op. cit., págs. 199-214, y El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, op. cit., págs. 183-222).
(86). En este sentido, S. de la Sierra Morón: <<Inteligencia artificial y justicia administrativa>>, op. cit. y J. Ponce Solé (<<Inteligencia artificial, decisiones administrativas discrecionales totalmente automatizadas>>, op. cit., pág. 211, y El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, op. cit., pág. 201).
Noticia aún sin comentar.
Para poder opinar es necesario el registro. Si ya es usuario registrado, escriba su nombre de usuario y contraseña:
Si desea registrase en la Administración al Día y poder escribir un comentario, puede hacerlo a través el siguiente enlace: Registrarme en La Administración al Día.