El Gobierno da luz verde al anteproyecto de ley para un uso tico, inclusivo y beneficioso de la Inteligencia Artificial

 12/03/2025
Compartir: 

Aprobado por el Gobierno el anteproyecto de ley de gobernanza de la Inteligencia Artificial (IA), que busca garantizar un uso de la Inteligencia Artificial que sea tico, inclusivo y beneficioso para las personas. Este instrumento normativo adaptar la legislacin espaola al reglamento europeo de IA, ya en vigor, bajo un enfoque regulador que impulsa la innovacin.

Digital.gob.es 11.03.25

“La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o atacar a la democracia; puede tener buenos usos o malos usos. La IA puede ser utilizada para investigar el cncer o el Alzheimer, para prevenir catstrofes naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir bulos y mentiras, esparcir odio y atacar a nuestra democracia. Por eso es oportuno su buen uso y gobernanza”, ha destacado el ministro para la Transformacin Digital y de la Funcin Pblica, scar Lpez, en la rueda de prensa posterior al Consejo de Ministros.

El anteproyecto de ley, que se tramitar por la va de urgencia, seguir ahora los trmites preceptivos antes de volver al Consejo de Ministros para su aprobacin definitiva como proyecto de ley y envo a las Cortes para su aprobacin.

Con el objetivo de que la Unin Europea disponga de un marco legal comn para el desarrollo, comercializacin y uso de sistemas de IA que eviten los riesgos para las personas, el reglamento prohbe determinados usos maliciosos de la IA, introduce obligaciones ms rigurosas para sistemas considerados de alto riesgo y establece unos requisitos mnimos de transparencia para el resto.

Incorpora, adems, un nuevo derecho digital de retirada provisional del mercado español de sistemas de IA por la autoridad de vigilancia competente cuando hayan provocado un incidente grave, como el fallecimiento de una persona.

Prcticas prohibidas de la IA

Las prcticas prohibidas entraron en vigor el 2 de febrero de 2025 y desde el 2 de agosto de 2025 se podrn sancionar mediante multas u otras medidas adicionales (requerir su adaptacin al sistema para que sea conforme, impedir que se comercialice) aplicando el rgimen sancionador que incorpora el anteproyecto de ley, dentro de las horquillas que fija el reglamento europeo. A modo de ejemplo, son prcticas prohibidas:

- El uso de tcnicas subliminales (imgenes o sonidos imperceptibles) para manipular decisiones sin consentimiento, causando un perjuicio considerable a la persona (adicciones, violencia de gnero o menoscabo de su autonoma). (Ej: un chatbot que identifica usuarios con adiccin al juego y les incita a entrar, con tcnicas subliminales, en una plataforma de juego online).

- Explotar vulnerabilidades relacionadas con la edad, la discapacidad o situacin socioeconmica para alterar sustancialmente comportamientos de modo que les provoque o pueda provocar perjuicios considerables (Ej: Un juguete infantil habilitado con IA que anima a los niños a completar retos que les producen o pueden producirles daños fsicos graves).

- La clasificacin biomtrica de las personas por raza u orientacin poltica, religiosa o sexual. (Ej: Un sistema de categorizacin facial biomtrica capaz de deducir la orientacin poltica o sexual de un individuo mediante anlisis de sus fotos en redes sociales).

- La puntuacin de individuos o grupos basndose en comportamientos sociales o rasgos personales como mtodo de seleccin para, por ejemplo, denegarles la concesin de subvenciones o prstamos.

- Valorar el riesgo de que una persona cometa un delito basndose en datos personales como su historial familiar, nivel educativo o lugar de residencia, con excepciones legales.

- Inferir emociones en centros de trabajo o educativos como mtodo de evaluacin para promocin o despido laboral, salvo por razones mdicas o de seguridad.

Las sanciones que se pondrn para este tipo de sistemas oscilan entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, si esta ltima cifra es superior, salvo en el caso de pymes, que podr ser la menor de las dos cuantas.

Las autoridades encargadas de vigilar los sistemas prohibidos sern la Agencia Española de Proteccin de Datos (para sistemas biomtricos y gestin de fronteras); el Consejo General del Poder Judicial (para sistemas de IA en el mbito de la justicia), la Junta Electoral Central (para sistemas que IA que afecten a procesos democrticos) y la Agencia Española de Supervisin de la Inteligencia Artificial en el resto de los casos.

Sistemas de alto riesgo

Los sistemas de IA de alto riesgo son, segn el reglamento, los siguientes:

- Todos los que puedan añadirse como elementos de seguridad a productos industriales (mquinas, ascensores, sistemas de proteccin-EPIS, equipos a presin o aparatos a gas), juguetes, equipos radioelctricos, productos sanitarios incluyendo diagnsticos in vitro, productos de transportes (aviacin, ferrocarril, equipos marinos y vehculos a motor de 2 y 3 ruedas y agrcolas, embarcaciones y transporte por cable).

- Sistemas que formen parte de los siguientes mbitos: biometra, infraestructuras crticas, educacin y formacin profesional, empleo, acceso a servicios privados esenciales (como servicios crediticios o de seguros) y a servicios y prestaciones pblicos esenciales (como servicios de emergencias o triajes) y disfrute de estos servicios y prestaciones.

- Sistemas para la garanta del derecho, migracin, asilo y gestin del control fronterizo

- Sistemas para su uso en la administracin de justicia y en procesos democrticos.

Estos sistemas debern cumplir una serie de obligaciones, como disponer de un sistema de gestin de riesgos y de supervisin humana, documentacin tcnica, una gobernanza de datos, conservacin de registros, transparencia y comunicacin de informacin a los responsables del despliegue, sistema de calidad, etc. En caso de incumplimiento, se exponen a sanciones en funcin de su gravedad:

- Se entender como una infraccin muy grave cuando el operador de un sistema de IA no comunica un incidente grave (como la muerte de una persona, un daño que haya comprometido una infraestructura crtica o un daño al medio ambiente), o cuando incumpla las rdenes de una autoridad de vigilancia de mercado. Las sanciones en este caso oscilarn entre los 7,5 y los 15 millones de euros o hasta el 2% y el 3% del volumen de negocio mundial del ejercicio anterior.

- Ejemplos de infracciones graves son el no introducir supervisin humana en un sistema de IA que incorpore la biometra en el trabajo para controlar la presencialidad de los trabajadores o no disponer de un sistema de gestin de calidad en robots con IA que desarrollan las tareas de inspeccin y mantenimiento en sectores industriales, entre otros. Las sanciones oscilarn en estos casos entre 500.000 euros y 7,5 millones de euros o entre el 1% y el 2% del volumen de negocio mundial.

Tambin se considerar como una infraccin grave no cumplir con la obligacin de etiquetar correctamente cualquier imagen, audio o vdeo generado o manipulado con IA y que muestren a personas reales o inexistentes diciendo o haciendo cosas que nunca han hecho o en lugares donde nunca han estado, lo que constituye una ultrasuplantacin (deepfake). Estos contenidos debern identificarse como contenidos generados por IA “de manera clara y distinguible a ms tardar con ocasin de la primera interaccin o exposicin”, tal y como especifica el reglamento europeo.

Se considerarn infracciones leves no incorporar el marcado CE en el sistema de IA de alto riesgo o, cuando no sea posible, en su embalaje o en la documentacin que lo acompañe, para indicar la conformidad con el Reglamento de IA.

Las autoridades encargadas de vigilar los sistemas de alto riesgo sern las que por defecto ya estn supervisando al sector afectado cuando se trate de productos sujetos a legislacin armonizada. Adicionalmente, sern competentes la Agencia Española de Proteccin de Datos (para sistemas de gestin de migraciones y asilo asociados a las Fuerzas y Cuerpos de Seguridad del Estado); el CGPJ para sistemas de IA en administracin de justicia y la Junta Electoral Central (para sistemas de procesos electorales); el Banco de España para sistemas de clasificacin de solvencia crediticia; la Direccin General de Seguros (para sistemas de seguros) y la CNMV para sistemas de mercados de capitales. En el resto de los casos, la autoridad competente ser la AESIA.

Apoyo a la innovacin en IA

A partir del 2 de agosto de 2026, el reglamento europeo obliga a los pases miembros a establecer al menos un sandbox de IA (entorno controlado de pruebas) que fomente la innovacin y facilite el desarrollo, la formacin, las pruebas y la validacin de sistemas innovadores de IA durante un tiempo limitado antes de su comercializacin o puesta en servicio, y de manera acordada entre los proveedores o posibles proveedores y la autoridad competente.

España se ha adelantado a este requisito con el lanzamiento en diciembre pasado de una convocatoria para seleccionar hasta un total de 12 sistemas de IA de alto riesgo que, durante un año, participarn en un entorno controlado de pruebas. La experiencia acumulada y las lecciones aprendidas servirn para publicar unas guas tcnicas sobre el cumplimiento de los requisitos aplicables a los sistemas de alto riesgo.

PRESENTACIN MEDIDAS IA

Comentarios

Noticia aún sin comentar.

Escribir un comentario

Para poder opinar es necesario el registro. Si ya es usuario registrado, escriba su nombre de usuario y contrasea:

 

Si desea registrase en la Administracin al Da y poder escribir un comentario, puede hacerlo a travs el siguiente enlace: Registrarme en La Administracin al Da.

  • El INAP no es responsable de los comentarios escritos por los usuarios.
  • No est permitido verter comentarios contrarios a las leyes espaolas o injuriantes.
  • Reservado el derecho a eliminar los comentarios que consideremos fuera de tema.

Últimos estudios

Conexión al Diario

Ágora

Ágora, Biblioteca online de recursos de la Administración Pública

Publicaciones

Lo más leído:

 

Atención al usuario: publicacionesinap.es

© INAP-2025

Icono de conformidad con el Nivel Doble-A, de las Directrices de Accesibilidad para el Contenido Web 1.0 del W3C-WAI: abre una nueva ventana