Comentario de la ley 2/2025, de 2 de abril, para el desarrollo e impulso de la inteligencia artificial en Galicia / Anxo Varela Hernández
Numero 2 2025 • ANNO XLVI
Profesor substituto de Derecho Administrativo, Universidad de Santiago de Compostela
- 1. Introducción y contextualización
- 2. Estructura y contenido de la ley: apuntes iniciales
- 3. Los principios rectores en materia de IA
- 4. Los derechos de la ciudadanía
- 5. La organización administrativa y los órganos de gobernanza
- 6. La ordenación de la planificación. Especial atención a la Estrategia gallega de inteligencia artificial
- 7. Otras cuestiones de interés: la colaboración y otros elementos programáticos
- 8. Conclusiones
- Note
1. Introducción y contextualización
La Ley 2/2025, de 2 de abril, para el desarrollo e impulso de la inteligencia artificial en Galicia constituye el primer marco normativo regional español[1] y europeo dedicado íntegramente al fomento de la inteligencia artificial[2]. Estamos, pues, ante una norma novedosa, pionera y necesaria, que toma como premisas la normativa imperante en la materia en el ámbito supraregional. Su objeto, según reconoce su artículo 1, no es otro que diseñar, adquirir, implementar y utilizar sistemas de IA -en este caso, en la administración gallega- y promover su desarrollo económico, apoyándose, fundamentalmente, en los principios de transparencia, reserva de humanidad y seguridad, tomando como base el enfoque que Europa ha promovido en los últimos años, “centrado en el fortalecimiento de sus capacidades tecnológicas internas, impulsando una inteligencia artificial segura, ética y centrada en los derechos fundamentales”, tal y como reconoce su preámbulo. Debe destacarse, pues, que no estamos ante una verdadera ley de inteligencia artificial sino ante una norma legal que pretende regular su uso en el seno de la Administración autonómica aunque, como detallaremos, el legislador gallego se ha preocupado de que otras administraciones -nombradamente la Administración local- puedan aprovecharse de los esfuerzos hechos en esta materia por la propia Xunta de Galicia[3]. Esta cuestión es relevante en tanto en cuanto el objetivo de la norma no es -ni podría ser[4]- desarrollar la norma europea que regula la IA, sino que, como hemos dicho, su objeto es regular el correcto uso de la IA por parte del sector público autonómico de Galicia, y en este extremo es en el que descansa la verdadera relevancia y novedad de esta ley, que desarrollaremos de forma profusa.
Estamos ante una norma necesaria, ya que, sobre todo, es preciso regular y garantizar que el empleo de los sistemas de la IA por parte del sector público[5] no suponga una merma de los derechos de las personas ni un debilitamiento del Estado de derecho en el mundo digital, tal y como ha defendido en diferentes ocasiones Almeida Cerreda[6].
Esta norma, aprobada hace apenas dos meses, se articula en un amplio cuerpo legal que abarca la enumeración de las definiciones más relevantes en la materia; la estipulación de una serie de principios generales – en cuyo análisis nos detendremos –; las medidas de fomento y la gobernanza – a la que dedica uno de los dos capítulos del título I –; los derechos de la ciudadanía – que deben ser un elemento nuclear de cualquier normativa sobre IA en el contexto del Estado de Derecho –; los procedimientos para la puesta en marcha de proyectos en el ámbito de la IA y la colaboración público – privada – por la que resulta nítido que se ha preocupado el legislador gallego.
El análisis académico de esta ley exige, pues, examinar su estructura y contenido, su coherencia interna y su capacidad transformadora, así como su interrelación con el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (el AI Act europeo[7]) para identificar convergencias y considerar su impacto potencial en la sociedad, la economía y el marco jurídico y ético concretado.
Antes de todo ello, debe destacarse que no estamos ante una norma vacía de contenido. Pues, aunque es cierto que el marco regulatorio viene delimitado por el Reglamento europeo y, en su caso, por la norma estatal que lo concrete, la ley 2/2025 responde a la Recomendación sobre inteligencia artificial adoptada por el Consejo de la Organización para la Cooperación y el Desarrollo Económico el 22 de mayo de 2019, en la que se establece que los gobiernos han de desarrollar un entorno de políticas que facilite el camino para la adopción de sistemas de inteligencia artificial fiables, capacitar a las personas con competencias en esta materia y apoyar a las personas trabajadoras con miras a asegurar una transición equitativa[8].
2. Estructura y contenido de la ley: apuntes iniciales
La ley se organiza en un título preliminar compuesto por tres capítulos en donde, además de una serie de disposiciones generales, se concretan los principios que impregnan la norma y los derechos que se le confieren a la ciudadanía en este ámbito. El resto de títulos (cinco en total) se organizan en base a la gobernanza y la planificación; la gestión y la colaboración; concretan procedimiento para la puesta en marcha de proyectos de IA; el uso de sistemas de IA de alcance general; y, finalmente, se recoge un elenco de medidas que se podrán llevar a cabo para impulsar la IA en el ámbito de la Comunidad Autónoma de Galicia.
Termina este texto legal con una única disposición adicional, relativa a la atribución de funciones de las personas comisionadas de inteligencia artificial -que desarrollaremos oportunamente en el apartado 5.5 de este artículo-; una disposición transitoria única que aborda la identificación y registro de sistemas de IA existentes; y tres disposiciones finales en donde se autoriza al Consello de la Xunta[9] a dictar disposiciones para su desarrollo reglamentario, se concreta la modificación de la ley autonómica de transparencia[10], y se informa de su entrada en vigor en el plazo de 20 días desde su publicación, que es el mismo establecido por defecto en el artículo 2.1 del Código Civil, en caso de que no exista previsión expresa dispuesta por la norma en cuestión.
2.1. Objeto, finalidad, ámbito y definiciones
En su título preliminar la ley define su alcance principal: regular la IA en la administración gallega y en su sector público[11], estableciendo un marco de gobernanza, planificación, despliegue y evaluación, siempre con plena observancia de la buena administración, bajo el paraguas de la normativa europea y estatal imperante en la materia, y centrada en la consideración a una serie de elementos vertebradores del Estado de Derecho, como el respeto a los derechos fundamentales. Podemos observar que estamos ante una norma completa e integradora de todos los elementos que cercan al fenómeno de la IA, en tanto en cuanto, por ejemplo, también procura que esta sea respetuosa con el medio ambiente[12] e, incluso, que los sistemas utilizados por la Administración sirvan para mejorar las condiciones en las que este se encuentra[13].
En última instancia enumera entre los elementos que integran su objeto, el impulso «del desarrollo de la inteligencia artificial en el tejido empresarial y el ecosistema de investigación e innovación de la Comunidad Autónoma de Galicia, con el fin de mejorar su productividad y competitividad»[14], lo que parece una verdadera preocupación del legislador gallego, que no solo le ha otorgado una dimensión específica en este artículo, sino que le ha dedicado un título (el quinto) y, además, hace referencias continuadas a esta cuestión a lo largo de todo el texto normativo.
Con base en dichos objetivos, la ley concreta sus tres finalidades principales: fijar las bases para la gobernanza y la planificación de los sistemas de IA, de forma que se controle su uso y calidad; establecer los principios rectores dentro del marco regulador imperante a nivel nacional y supranacional; y establecer el marco regulador elemental, también desde el punto de vista del soft law, de forma que se puedan establecer guías o códigos de conducta de aplicación voluntaria e implantar medidas de capacitación – que trasciendan lo público.
Debe destacarse, en última instancia, que se ha determinado como uno de los fines principales de la norma garantizar el uso normal de la lengua gallega en los procesos de desarrollo de sistemas de IA y potenciar, de igual forma, el desarrollo de sistemas y modelos de IA en gallego[15]. Ello es relevante en tanto en cuanto esta es la lengua propia de Galicia. Pues, aunque tanto el gallego como el castellano son cooficiales en dicho territorio, defendemos que la preocupación del legislador por garantizar que en el ámbito de la IA la lengua propia de su región tenga presencia, se trata de un elemento nuclear, que, a mayores, preocupa a la ciudadanía gallega y que, en consecuencia, debe preocupar a los poderes públicos que, de hecho, tienen la obligación de garantizar el uso normal del gallego, tal y como exige el artículo 2 de la Ley 3/1983, de 15 de junio, de normalización lingüística. De todos modos, la preocupación del gobierno gallego por esta materia se ha expresado con anterioridad, por ejemplo, a partir de la puesta en marcha – en el año 2022 – por la Consellería de Educación, Ciencia, Universidades e Formación Profesional[16] junto con la Universidad de Santiago de Compostela el Proxecto Nós[17] cuyo objetivo principal es crear los recursos necesarios para facilitar el desarrollo en gallego de servicios y productos basados en la tecnología de la lengua -como asistentes de voz, traductores automáticos o agentes conversacionales-. De forma complementaria, este promueve la presencia digital del gallego, facilitando la creación de una amplia variedad de herramientas y recursos de gran calidad y de uso libre.
2.2. La coherencia con la normativa europea y española
Como ya hemos adelantado, estamos frente a una ley con una capacidad legislativa muy acotada, pero con grandes posibilidades transformadoras. Esto es, la regulación marco viene predeterminada por el Reglamento (UE) 2024/1689 y por la norma estatal que, en su caso, concrete aquellas cuestiones que estime pertinentes. Ergo, la ley gallega no puede añadir, sobremanera, elementos reguladores novedosos, en tanto en cuanto la regulación europea es de aplicación directa a la ciudadanía y deja un escaso margen de acción a los legisladores de los estados miembros, precisamente, con la finalidad de mantener una regulación homogénea en el seno de la Unión. Pero si que puede, y es aquí donde estriba el interés de la norma, guiar la implementación de la IA en Galicia y marcar la pauta al resto de comunidades autónomas – tal y como ya ha hecho Galicia en diversas ocasiones[18]. Como consecuencia, las definiciones clave que contiene la ley han sido tomadas directamente del reglamento como el concepto de “sistema de IA”[19], “modelo de IA de uso general”[20], u “operador”[21], aunque también incorpora conceptos propios de la Administración autonómica como “proyecto de IA”, que es iniciativa que tiene por objeto resolver problemas definidos de manera clara y objetiva mediante la utilización de sistemas de IA en alineación con las estrategias existentes en la materia; o “factoría de IA”, para referirse a clusters de supercomputación. Las definiciones establecen un alineamiento terminológico con el Derecho europeo[22], lo cual facilita la coherencia normativa, y también con la normativa estatal, pues, por ejemplo, en la definición de “actuación administrativa automatizada” nos remite al artículo 41 de la Ley 40/2015, de 1 de octubre, del régimen jurídico del sector público. Todo ello reduce la ambigüedad terminológica, y permite una aplicación armonizada, lógica y coherente de la regulación existente en la materia.
Conviene destacar, por cierto, que la ley 2/2025 no solo ha reiterado definiciones ya contenidas en el reglamento europeo, sino que sigue ese enfoque proporcional conforme al riesgo, y aunque no contempla esa lista de prohibiciones hecha por el reglamento – pues tampoco es necesario –, insiste en evaluar los riesgos y mitigar los posibles daños que puedan existir. Esto es, la noción del riesgo es exactamente la misma que el reglamento, siendo este, según la letra k del artículo 4 de la ley gallega “la combinación de la probabilidad de que se produzca un daño y la gravedad de ese daño”. Así pues, partiendo de las limitaciones de los sistemas de alto riesgo de IA previstos por la normativa europea, en el caso de estar ante un sistema de IA que determine, por ejemplo, prestaciones sociales, la evaluación del impacto de los derechos sería conforme al AI Act, y, en cambio, las evaluaciones organizativas que correspondan dentro del sector público, serían conforme a la ley gallega. Por otro lado, como para los sistemas que no son de alto riesgo el reglamento deja más discrecionalidad a la normativa infra europea, el derecho estatal y, en su caso, el de las comunidades autónomas, tiene margen para el desarrollo, por ejemplo, de las diferentes vías de sumisión voluntaria a códigos de conducta o a guías de buenas prácticas – como detallaremos al abordar el análisis del título IV.
No obstante, la inclusión de conceptos propios, como el de “proyecto de IA”, añade una complejidad – quizás inevitable – y podría llegar a generar solapamientos con otras leyes, sobre todo estatales, pese a que la norma introduce un vocabulario preciso que facilita la comprensión de sus alcances. Ello podría producirse en tanto en cuanto a nivel estatal todavía no ha aprobado la norma que va a concretar el reglamento de IA y que, en todo caso, no es responsabilidad del legislador autonómico, sino del español. Pues, aunque el pasado 11 de marzo el Consejo de Ministros aprobó el Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial[23], con el convulso panorama político existente en la actualidad, es difícil saber cuándo se convertirá en ley.
3. Los principios rectores en materia de IA
Este extenso capítulo enumera los principios y obligaciones generales que debe observar la administración en todo proyecto o uso de IA y reúne una serie de principios diferenciados, bien articulados y amplios -que pretenden garantizar, entre otras cuestiones de interés, el respeto por los derechos fundamentales de la ciudadanía y la imparcialidad de la actuación administrativa-, muchos de los cuales reflejan las Directrices éticas para una inteligencia artificial fiable[24] presentadas el 8 de abril de 2019 por el Grupo de expertos de alto nivel sobre la IA[25].
Nos encontramos frente a un capítulo -el capítulo II del título preliminar- completo y ambicioso que adopta prácticamente todos los principios legales hoy reconocidos (transparencia, equidad, responsabilidad, etc.) y en términos de coherencia con el resto de la normativa, no solo sectorial, conectando con leyes relevantes en el ámbito administrativo español, como la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas.
Huelga salientar, antes de detallar cada uno de los principios, que en su artículo 5 la ley 2/2025 insiste en que estos serán de aplicación de manera complementaria al resto de «principios y obligaciones exigidos en la correspondiente normativa europea y estatal que les resulte de aplicación». De manera particular, tal y como adelantamos líneas atrás, concreta la norma autonómica que en el caso de hallarnos ante un sistema de alto riesgo, se aplicará directamente lo previsto en el reglamento. Este se ha encargado de prever una serie de aspectos regulatorios exhaustivos que no den margen a que exista dispersión en la legislación de los diferentes países europeos en las cuestiones que mayor relevancia pueden tener en el ámbito de la IA, sobre todo, por su potencial afectación a los derechos de la ciudadanía. Ergo, la ley admite expresamente que, por encima de sus principios generales, los proyectos de alto riesgo seguirán el esquema europeo de evaluaciones de riesgo, certificación e inspección técnica, entre otros. Esta alineación normativa es clave para evitar conflictos posteriores, y debe valorarse muy positivamente que la ley gallega reconozca, expresamente, que esta opera sin perjuicio de la regulación básica estatal y comunitaria.
En primer lugar, el artículo 6 prevé el principio de buena administración digital y diligencia debida de forma tal que cualquier IA deba respetar los principios generales de legalidad, eficacia e imparcialidad, en tanto en cuanto se insiste en la exigencia de motivar las decisiones administrativas que empleen esta tecnología. Se exige así, que las decisiones asistidas o adoptadas con IA sean comprensiblemente motivadas, incluyendo el marco legal, los criterios aplicados y las características del propio sistema. Finalmente, se incorpora un deber proactivo de gestión de riesgos algorítmicos, en línea con la gobernanza anticipatoria, que exige la participación de múltiples actores públicos y privados[26].
El artículo 7 configura un modelo de administración algorítmica donde la rendición de cuentas debe ser posible incluso en presencia de sistemas de aprendizaje automático no determinista, pues ordena que todos los sistemas de IA usados sean auditables en cualquier momento de su ciclo de vida, trazables y que permitan explicar, en términos sencillos, los datos, procesos y la lógica que llevaron a una predicción o decisión. También se obliga a facilitar a los afectados información que les permita comprender el resultado y cuestionarlo en caso de que hayan sido afectados de modo negativo[27]. Este mandato coincide con la necesidad de la explainability que subrayan los expertos ya que, como entre otros reconoce DIGNUM, la IA no es magia y sus resultados están condicionados por las convicciones de sus diseñadores, por lo que es crucial entender sus mecanismos internos[28].
La transparencia[29], junto con la claridad, son reguladas en el artículo 8 y 9 respectivamente. En este caso el legislador gallego exige que en el Portal de Transparencia y Gobierno Abierto[30] se publique información pertinente sobre la arquitectura y el funcionamiento de los sistemas de IA que desarrollen o empleen en su actividad información, siendo necesario indicar aquellos procedimientos administrativos en los que se utilizan, sus parámetros de funcionamiento y la determinación de su nivel de riesgo, entre otros[31]. Una de las finalidades de este principio es acotar la opacidad de los algoritmos, que es una cuestión que plantea diversas posibilidades, pues la precitada opacidad “puede tener diversas causas (técnicas, jurídicas u organizativas) que pueden impedir que la ciudadanía tenga información suficiente y adecuada (...) pero también se puede dar la circunstancia de que las propias administraciones públicas carezcan de esta información”, entre otros motivos, porque hayan adquirido los IA del mercado”, como reconoce Cerillo i Martnez[32]. De todos modos, se plantea en este ámbito una reflexión interesante, porque para que el principio de transparencia resulte efectivo, es necesario que la ciudadanía ejerza sus derechos en este ámbito y, paradójicamente “la proliferación de nuevos sistemas tecnológicos ha ampliado los umbrales de la tolerancia pública ante la intromisión en la esfera privada y personal”[33] y frente al tratamiento de datos, como ya afirmaba López Portas a mediados de la década pasada.
Se ha preocupado aquí el legislador de que dicha información sea accesible[34], al contemplar la exigencia de que las comunicaciones sean realizadas en un lenguaje claro y sencillo para lo que se podrá recurrir, incluso, al empleo de iconos estandarizados y al buen diseño de los documentos. De hecho, en conexión con lo anterior, el artículo 14 recoge la necesidad de que la IA empleada por la Administración autonómica cumpla con los más altos estándares de universalidad y accesibilidad, de modo que la utilización de estos sistemas no suponga el ensanchamiento de las brechas digitales, en especial, las determinadas por razones económicas, de edad y de discapacidad[35].
De manera interrelacionada con el punto anterior, se prevé la imparcialidad y ausencia de sesgos en el artículo 10, en tanto se insiste en la necesidad de adoptar aquellas medidas necesarias para mitigar cualquier resultado discriminatorio, apelando al deber de equidad. La ley no define esas métricas, pero implícitamente exige la evaluación de impacto socioeconómico -en su artículo 16 – en donde se incluirían los riesgos de sesgo, y – en su artículo 17– la evaluación continua de los sistemas de IA con el fin de asegurar su calidad, su adaptación a cambios tecnológicos o normativos, y que las personas afectadas reciban un trato justo y no discriminatorio. Como comentamos en un comienzo, esta ley contempla de un modo amplio las incidencias que la IA puede tener. Como muestra de ello, el artículo 17.2 exige que se evalúe que estos sistemas «empleen energías renovables como fuente de energía, sean eficientes en su consumo y empleen, siempre que sea posible, recursos de origen sostenible». Así las cosas, se conmina a la administración a realizar evaluaciones de impacto organizativo, económico, social y medioambiental de las IA que implemente, lo que resulta completamente independiente – como ya se había apuntado ut supra – de la evaluación de derechos fundamentales exigida por el AI Act, debiendo valorarse el abandono de los sistemas cuyas evaluaciones detectan riesgos graves, en virtud del principio de precaución previsto en el artículo 18 de la misma norma. Por ello, ante daños potenciales, prevalece la seguridad, debiendo asegurarse la más alta probabilidad de su buen funcionamiento – en consonancia con la previsión del artículo 15 relativo a la responsabilidad[36].
Precisamente el artículo 11 aborda la seguridad y la privacidad, o lo que es lo mismo exige la garantía de la integridad, la confidencialidad, la disponibilidad y la autenticidad de los datos con arreglo, fundamentalmente, a los ya citados Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, y Ley orgánica 3/2018, de 5 de diciembre, de protección de datos personales y garantía de los derechos digitales, de los que destaca sus principios fundamentales, como el de minimización de datos o el de responsabilidad proactiva. En definitiva, la ley gallega ahora analizada implementa el concepto de privacy and data governance de las directrices de la UE[37].
El artículo 12 regula, por su parte, dos de los principios de mayor relevancia en la materia: la reserva de humanidad y la revisión humana. Por tanto, la ley gallega hace suyos estos dos principios que, fundamentalmente, se diferencian en tanto en cuanto, mientras el principio de reserva de humanidad exige que determinadas decisiones que afectan de manera sustancial a los derechos fundamentales solo puedan ser adoptadas por seres humanos, y no completamente delegadas en sistemas automatizados; el principio de revisión humana permite que la decisión inicial sea tomada por un sistema automatizado, pero impone que exista posibilidad real y efectiva de intervención o supervisión humana posterior, especialmente cuando la decisión afecte negativamente a una persona. Mientras en el primero de los casos existe una línea roja normativa – según la cual ciertas funciones decisorias deben permanecer bajo control humano exclusivo–, el segundo de los principios implica que, aunque el ser humano no tiene por qué tomar directamente la decisión, sí debe tener la capacidad de comprenderla, evaluarla críticamente y eventualmente corregirla. La diferencia es, por tanto, sustancial: mientras el principio de reserva de humanidad excluye el uso autónomo de sistemas de IA en determinados ámbitos, el principio de revisión humana lo admite condicionalmente, siempre que haya mecanismos de control y garantía adecuados.
De esta forma, dice la ley ahora comentada, las decisiones con efectos jurídicos irán acompañadas necesariamente de intervención de una persona humana por lo que sí que podrán utilizarse automatizaciones puras para casos estrictamente reglamentados, es decir, en los que no quepa discrecionalidad subjetiva y tras la resolución conjunta de los órganos competentes y técnicos, por lo que si un acto automatizado puede afectar gravemente a un ciudadano, requerirá validación final por una persona física. Adicionalmente se garantiza el derecho del interesado a exigir la intervención humana en casos de impacto significativo. Esto está en plena consonancia con el reglamento, que exige la supervisión reforzada sobre las IA de alto riesgo y el derecho a pedir la intervención de una persona, tal y como se extrae, entre otros, del considerando 73 de la norma europea[38].
Por su parte, el artículo 13 se recoge los principios de proactividad y personalización, que exigen que la Administración general de la Comunidad Autónoma de Galicia y su sector público diseñen procedimientos gestionados a través de IA de motu proprio, de acuerdo con la regulación de los servicios proactivos personalizados recogida en el artículo 25 de la Ley 4/2019, de 17 de julio, de administración digital de Galicia, y respetando la protección adecuada de los derechos, libertades e intereses legítimos de los destinatarios de dichos procedimientos[39]. De este modo nos encontramos en un escenario en donde la IA mejorará no solo la eficiencia de los servicios públicos sino también ayudará a que la actividad administrativa tenga una mayor capacidad de afectación positiva sobre la esfera (jurídica e incluso económica) de la ciudadanía.
Como comentamos líneas atrás, el artículo 15 explicita la necesidad de que los sistemas de IA empleados por la Administración cuenten con las debidas garantías en cuanto a la más alta probabilidad de su funcionamiento. Sin embargo, ha previsto aquí el legislador una regulación concreta de la responsabilidad por los daños que potencialmente se puedan causar, matizando que independientemente de su grado de autonomía, deberán ser reparados íntegramente. Cierto es que el legislador no añade ningún ex novo, porque efectúa un reenvío a la legislación de responsabilidad patrimonial administrativa[40]; situando al proveedor de IA en una cadena de responsabilidad, mediante la acción de regreso[41].
Termina este capítulo con la concreción de principios de gran relevancia, pero cuyo análisis puede ser sucinto, como la formación contínua de los empleados públicos – que en el caso que nos atañe corresponderá, sobre todo, a la Escola Galega de Administración Pública[42]-; el fomento de las colaboraciones público-privadas[43]; y el reconocimiento de que las exigencias deben ser proporcionales a la capacidad técnica y financiera disponible con fundamento en los principios de capacidad técnica, proporcionalidad y suficiencia financiera[44].
En definitiva, nos encontramos ante un elenco de principios coherentes y necesarios para asegurar la correcta implementación de los sistemas de IA en la Administración pública, en estricta consonancia con las previsiones europeas, y que son requisito sine qua non en el marco del Estado de Derecho. De hecho, aunque a nivel estatal todavía no contamos -tal y como se ha dicho más atrás- con una norma que concrete el reglamento europeo, sí que se han aprobado normas con rango inferior a la ley que toman como eje de partida dichos principios. A modo de ejemplo, el Real decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de reglamento del Parlamento Europeo y del Consejo por la que se establecen normas armonizadas en materia de inteligencia artificial, establece algunos de estos principios -como el de transparencia- como fundamento de los requisitos de evaluación en la valoración de solicitudes para participar en dichos espacios de pruebas a efectos de ensayar el cumplimiento de ciertos requisitos por parte de algunos sistemas de IA que pudieran suponer riesgos para la seguridad, la salud y los derechos fundamentales de las personas.
4. Los derechos de la ciudadanía
Este capítulo determina los derechos específicos de las personas frente a la intervención de sistemas de IA en su relación con la administración con fundamento en los principios ya enumerados que podrán ser ejercitados tanto de forma individual como colectiva. En este último caso, por asociaciones representativas de intereses supraindividuales, como reza el artículo 26 de la ley ahora examinada.
El artículo 23 otorga derechos informativos a toda persona en cuya relación con la Administración intervengan sistemas de IA. Debe valorarse de forma positiva que se hayan concretado cuáles son esos derechos informativos pues, en la actualidad, ello puede reducir la conflictividad judicial o, en todo caso, asegurar una respuesta homogénea de los tribunales que no tendrán que interpretar hasta donde llega el principio de acceso a la información pública en materia de IA. Así, la ciudadanía puede conocer de forma clara el carácter automatizado de la interacción; la configuración del sistema de IA, su lógica interna y los datos de entrada; la identidad del titular del sistema y el nivel de contribución del IA; las categorías de datos personales utilizados, su origen y sus fuentes; las medidas de seguridad implementadas; y cómo ejercer el derecho a supervisión, entre otros. Igualmente, el afectado tiene derecho a pedir una explicación detallada de una decisión automatizada con impacto jurídico, incluyendo la ponderación de criterios y el nivel de intervención humana, pudiendo requerir dicha intervención si una decisión por IA tiene efectos significativos. Todo ello refuerza principios como el de revisión humana, el de fiabilidad, el de responsabilidad o el mismo principio de transparencia.
Por su parte, el artículo 24, con fundamento en el artículo 14 de la Constitución española de 1978, prohíbe toda discriminación directa e indirecta, de lo que deriva que ningún sistema de IA pueda imponer condiciones técnicas o presupuestarias que generen discriminación alguna, exigiendo que la interacción garantice principios de universalidad, accesibilidad, asequibilidad y calidad, y que se procure la protección especial de colectivos vulnerables con la finalidad de obtener un tratamiento justo e isonómico. Todo ello, con el objetivo de evitar que el uso de IA profundice brechas sociales o excluya personas con discapacidad o sin recursos, entre otras, y de corregir los sesgos discriminatorios que puedan surgir.
Finalmente, el artículo 25, aunque no añade ninguna novedad, concreta el reconocimiento de los derechos de impugnación, es decir, los mecanismos de tutela de los derechos que existen y que, por tanto, también imperan en esta materia. Dicho de otro modo, este precepto refuerza pero no transforma derechos existentes. En este sentido, la ciudadanía puede instar la revisión de decisiones o actuaciones materiales asistidas por IA que produzcan efectos jurídicos negativos (art. 25.1.b), pudiendo alegar deficiencias técnicas, falta de fiabilidad, sesgos o vulneración de principios; puede reclamar para hacer valer derechos que contempla la normativa de protección de datos personales («ante las decisiones efectuadas por IA», art. 25.1.a); y, finalmente, este artículo 25 remite en su párrafo segundo a las vías de recurso establecidas en los artículos 85 y siguientes del Reglamento (UE) 2024/1689, garantizando así la compatibilidad con el derecho europeo a los recursos efectivos.
Como se observa, nos encontramos ante una sección que refuerza la perspectiva centrada en la persona y en la que sus preceptos, relativos a los derechos, enlazan estrechamente con los principios anteriores (transparencia, no discriminación…) y con los derechos fundamentales consagrados en la Constitución (como el de igualdad, o el de tutela judicial efectiva) y con otros previstos por la normativa de la Unión Europea (como el de protección de datos). Así pues, la innovación real de la ley en este ámbito radica, como es lógico, más en la especificación de derechos en el contexto de IA que en la creación de nuevas figuras jurídicas.
5. La organización administrativa y los órganos de gobernanza
El título I, dedicado a la gobernanza y a la planificación, se inicia con el desarrollo de los órganos de gobernanza interna, para después explicar, con sumo detalle, los instrumentos que componen la ordenación de la planificación.
Antes de comenzar a detallar cada uno de dichos órganos, debe realizarse una consideración de relevancia. En no pocas ocasiones, la ley para el desarrollo e impulso de la inteligencia artificial en Galicia hace referencia a la entidad instrumental del sector público competente en materia de tecnologías de la información y de la comunicación y la innovación y el desarrollo tecnológico. Esta no es otra que la AMTEGA, esto es, la Agencia para la Modernización Tecnológica de Galicia, por lo que, aunque la norma no lo concrete por razones de técnica normativa, y para evitar disfuncionalidades si el nombre de dicha entidad instrumental cambiase, nosotros lo emplearemos indistintamente.
5.1. Los órganos promotores funcionales y responsables tecnológicos
En primer lugar, en el artículo 27 se regulan los órganos promotores y responsables tecnológicos, que deben existir en el seno de cada consellería y de cada entidad instrumental de la administración autonómica y a los que se la asignan una serie de funciones coherentes con el ciclo de un proyecto: identificar necesidades funcionales, fijar objetivos claros, elaborar informes justificativos y evaluar riesgos. Distribución esta que no hace más que buscar una gobernanza matricial.
Así pues, los órganos promotores funcionales serán designados internamente, esto es, dentro de su estructura, y serán los encargados de definir necesidades y objetivos de los proyectos de IA.
Por otro lado, los órganos responsables tecnológicos serán designados por la entidad instrumental del sector público competente en materia de tecnologías de la información y de la comunicación y la innovación y el desarrollo tecnológico – que, como ya adelantamos, es la AMTEGA – para cada consellería o entidad instrumental que tendrá, entre sus tareas, la identificación de la necesidad y de la oportunidad de implantar sistemas de IA – con la correspondiente evaluación de sus riesgos –, y la supervisión del entrenamiento de dichos sistemas, así como la realización del seguimiento y control de su implantación, mantenimiento, ejecución y, en su caso, desactivación.
Ergo, mientras los órganos promotores funcionales realizan el seguimiento funcional del proyecto, los órganos responsables tecnológicos realizan el control técnico, encomendando a ambos, por tanto, la coordinación de todos los proyectos de IA para lo que realizarán el informe de cada proyecto.
5.2. La Oficina de Inteligencia Artificial
En el artículo 28 la ley 2/2025 crea la denominada Oficina de Inteligencia Artificial, que es una oficina coordinadora interna que formará parte de la estructura de la entidad pública competente en materia de tecnologías, es decir, de la AMTEGA -que tiene un absoluto protagonismo en esta ley-. Esta oficina se erige como un supervisor interno dentro de la propia Administración autonómica, ya que se encargará del control y apoyará a los órganos promotores tecnológicos regulados en el artículo anterior en la implantación de sistemas, coordinando la implantación de la IA en la administración gallega. Ello no es óbice para que se le encomiende la interlocución con autoridades nacionales y europeas, teniendo en este caso la persona titular de la oficina funciones de análisis de viabilidad, asesoramiento continuado, vigilancia de riesgos y actualización sobre tendencias tecnológicas y regulatorias.
5.3. La Comisión estratégica para el asesoramiento en Inteligencia Artificial
Aunque existen ciertos órganos que crea la propia norma, el artículo 29 deja margen a que la persona titular de la AMTEGA cree la Comisión estratégica para el asesoramiento en Inteligencia Artificial para analizar proyectos de carácter estratégico por su riesgo, impacto o complejidad. Por tanto, las valoraciones del grupo alimentarán la decisión de la oficina analizada en el epígrafe inmediatamente anterior.
Estamos, pues, frente a una suerte de grupo de trabajo cuyos estudios y cuyas valoraciones deberán tenerse en cuenta por la persona titular de la AMTEGA e incluirá expertos en TIC, innovación, sostenibilidad financiera, asesoramiento en derecho o inclusión social, cuyo conocimiento complementario hará que dicha comisión se pronuncie con conocimiento de causa de todos y cada uno de los casos que se puedan llegar a sustanciar. Pilares, todos ellos, de máxima relevancia dado su carácter interdisciplinar y horizontal, si se pretende la implementación de una IA garante de los derechos fundamentales, respetuosa con el medioambiente y que respete, entre otros, los principios de sostenibilidad financiera o la procura de la transición ecológica justa, la sostenibilidad, etc.
5.4. El Consejo Gallego de Inteligencia Artificial
Si en el anterior caso nos hallábamos ante un órgano de asesoramiento para determinadas cuestiones concretas internas, en este caso estamos frente un órgano de fomento. Es decir, en último término, el capítulo I de este título I regula en su artículo 30 el Consejo Gallego de IA, que es un órgano colegiado de carácter estratégico adscrito a la consellería competente en materia de tecnologías de la información -es decir, la actual Consellería de Hacienda y Administración pública- y que, entre sus funciones, se encarga de la asesoría y vigilancia; de conocer la estrategia autonómica de IA; de proponer mejoras en políticas públicas; de elaborar informes por encargo, y de identificar estrategias regulatorias eficaces y detectar barreras al desarrollo de la IA.
En la ley se detalla una composición amplia y diversa[45], que valoramos positivamente en tanto órgano de fomento, y que incluye representantes de la Administración, de áreas como sanidad, industria, supercomputación, promoción económica o política lingüística; representantes de colegios profesionales; de la confederación de empresarios; y de las tres universidades públicas gallegas. Ello no es óbice para que puedan asistir a las sesiones del Consejo Gallego de Inteligencia Artificial, “previa invitación del presidente o presidenta, los representantes de aquellas entidades y organismos de la Administración general y el sector público autonómico de Galicia que tengan relación relevante con las materias incluidas en el orden del día”, tal y como reza el párrafo 6 del artículo 30.
Como acabamos de relatar, la composición del órgano es diversa y, en su caso, dinámica, propia de un órgano que tiene como misión «el asesoramiento e impulso en materia de inteligencia artificial en la Comunidad Autónoma de Galicia»[46]. Entre otros, destacamos positivamente la inclusión de la dimensión lingüística única en un texto de IA, que no hace más que atender a la realidad de Galicia, como ya se adelantó al comienzo de este análisis.
5.5. Las personas comisionadas de inteligencia artificial
Si se examina esta norma con cierto grado de detalle, aunque los artículos destinados a la gobernanza rematan con el consejo de IA analizado en el epígrafe anterior, el artículo 36 de la ley 2/2025 crea una suerte de autoridad de control interno, serían las denominadas personas comisionadas de IA.
Estas deben existir en cada entidad instrumental o consellería y deben velar por el cumplimiento de esos principios u obligaciones, aunque también tienen competencias en materia de prevención, detección y eliminación de riesgos. Es decir, fundamentalmente estas personas comisionadas velarán por el uso ético de la IA en el seno del sector público autonómico y supervisarán su implementación. Además, los afectados por la utilización de un sistema de IA también pueden dirigirse con carácter previo a la persona que ostente esta figura, tal y como ocurre con el delegado de protección de datos.
En estricta conexión con este artículo 36, la disposición adicional única cobra relevancia porque clarifica un posible vacío, puesto que en el resto del articulado se habla de “personas comisionadas” sin definir a quien corresponde el ejercicio de sus funciones, y aquí se resuelve asignándolas al rol ya existente del delegado de protección de datos, exigida por la normativa sectorial que corresponde.
Esta atribución suscitó diversas dudas durante su tramitación parlamentaria pero que, en cambio, nosotros valoramos muy positivamente. Desde nuestro punto de vista el hecho de que converjan ambas figuras -la del delegado de protección de datos y la de la comisionada de IA- en la misma persona es positivo, en tanto en cuanto uno de los mayores problemas que pueden plantear estos sistemas es la vulneración del derecho fundamental a la protección de datos previsto en el artículo 18.4 de la Constitución española. Ello puede suponer un refuerzo añadido a la protección de los derechos de los ciudadanos ya que como el régimen en materia de protección de datos es sancionador y rígido, es muy probable que las actuaciones de estas personas comisionadas tiendan al análisis restrictivo respecto de la utilización de sistemas de IA que puedan suponer riesgos, frente a la posibilidad de mantener la existencia de sistemas que, aunque sea potencialmente, puedan afectar a los derechos de privacidad. En todo caso, como señala Almeida Cerreda[47], ambos puestos son compatibles, tal y como se extrae de todas las resoluciones de la Agencia Española de Protección de Datos -sobre la independencia de la figura del delegado- y en ninguna de ellas se establece un régimen de incompatibilidades con las funciones que tendría esta suerte de supervisor en materia de IA.
Sea como fuere, ello también tiene el inconveniente de que se puede lastrar el avance económico, aunque solo en casos extremos que, entendemos, no se producirán a efectos prácticos -dada la existencia de un entramado de órganos amplio y cuyas funciones se complementan-. En todo caso, no debemos olvidar que en una estricta aplicación del juicio de proporcionalidad, debe priorizarse la garantía de un derecho fundamental, como lo es la protección de datos, a la búsqueda del avance económico de una región, que no es más que una de las misiones que tienen encomendadas los poderes públicos.
6. La ordenación de la planificación. Especial atención a la Estrategia gallega de inteligencia artificial
En cuanto a la planificación, se establece una estructura escalonada cuyo documento marco es la Estrategia Gallega de Inteligencia Artificial, con vigencia de cinco años con carácter general, en la que se determinan los objetivos generales, indicadores y prioridades. Esta estrategia se desarrolla a través de programas sectoriales específicos por cada consellería, que concretan los diagnósticos y objetivos en cada ámbito en absoluta coordinación con la participación de la Comunidad Autónoma de Galicia en las estrategias nacionales e internacionales. Finalmente, los proyectos de IA se definen con especificaciones técnicas, análisis de riesgos y mecanismos de evaluación continua.
La elaboración de dicha estrategia, por cierto, corresponde, según el texto legal, a la AMTEGA, aunque su aprobación dependerá, como resulta nítido, del Consello de la Xunta de Galicia[48].
En este caso el ejecutivo autonómico no parte de cero, puesto que en la actualidad se encuentra vigente la Estrategia Gallega de Inteligencia artificial 2030. Hacia una Galicia Inteligente, lo que demuestra que la aprobación de esta ley 2/2025 no es más que una medida continuista dentro de la preocupación que la Xunta de Galicia viene demostrando, desde hace años, por convertir a Galicia en una región inteligente que contribuya a la soberanía digital de la Unión Europea. Esta estrategia[49], también coordinada por la AMTEGA, en consonancia con lo previsto por la nueva ley, se articula en torno a 4 ejes prioritarios y 15 medidas con actuaciones concretas y, en el momento de su aprobación, preveía movilizar 330 millones de euros para generar un impacto en la generación de riqueza de unos 472 millones.
7. Otras cuestiones de interés: la colaboración y otros elementos programáticos
7.1. Los instrumentos operativos internos y de colaboración interadministrativa y externa
El título II está integrado por un conjunto de artículos eminentemente operativos, pues se destina a la “gestión y colaboración” y se encarga de regular, en su primer capítulo, los instrumentos operativos internos, como el inventario de IA o la creación de la figura de las personas comisionadas de inteligencia artificial – ya estudiadas ut supra –; y la colaboración tanto interadministrativa como público-privada en materia de IA, en el capítulo II.
En primer término, el artículo 35 exige la existencia de un inventario obligatorio donde la administración debe inscribir de oficio todos los sistemas de IA que diseñe o emplee -o que venga utilizando- con la finalidad de buscar mejorar la eficiencia, la transparencia y la coordinación. Todo ello -y esta cuestión es especialmente relevante, porque demuestra la preocupación del legislador gallego por la coherencia con los instrumentos previstos por la normativa supra regional- sin perjuicio del necesario cumplimiento del mandato europeo de registro en la base de datos de la UE para los sistemas de IA de alto riesgo conforme al Reglamento 2024/1689. De nuevo, la gestión del inventario corresponde a la propia AMTEGA, que deberá diferenciar entre datos identificativos -relativos a la existencia, finalidad y destinatarios de un sistema de IA- y los datos de funcionamiento y rendimiento – que permiten conocer el funcionamiento específico de cada sistema de IA y sus hitos del ciclo de vida.
Sin embargo, observamos aquí dos elementos que nos preocupan. El primero de ellos, el artículo 35.5 indica que estos datos identificativos serán objeto de publicación en el portal de la AMTEGA, lo que puede generar duplicidades con la exigencia de transparencia que se entendía satisfecha con la referencia de aquellos datos objeto de publicidad en la página web de transparencia de la Administración autonómica. Y, en segundo término, no se concreta donde serán publicados estos datos de funcionamiento y rendimiento, ya que la norma se limita a concretar, en el artículo 35.6, que dichos datos “podrán ser consultados” salvo que existan razones imperiosas – que, por cierto, enumera – que lo impidan.
Por su parte, el capítulo II de este título II insiste en uno de los mantras de la ley 2/2025: la necesidad de colaboración permanente con el resto de organismos existentes en la materia, como la Oficina Europea de IA, la Agencia Española de Supervisión de IA y otros organismos nacionales e internacionales, intercambiando conocimientos sobre regulación y supervisión. Además, entre sus funciones se halla el fomento del contacto con las entidades locales, universidades y otros organismos públicos gallegos, lo que se concreta en la existencia del repositorio de sistemas de inteligencia artificial.
Aunque al comienzo reconocemos que no nos hallábamos frente a una verdadera ley de IA, sino ante un texto legal que regulaba el uso de la IA en la Administración autonómica, también insistimos en que la norma se preocupaba de transferir el conocimiento en materia de IA a administraciones de diferente nivel territorial. Así las cosas, este repositorio servirá para “poner a disposición de las demás administraciones que operan en la Comunidad Autónoma de Galicia los sistemas de inteligencia artificial y modelos de inteligencia artificial de uso general (...) siempre que tengan los derechos de propiedad intelectual sobre ellos o que alcancen un acuerdo con la persona titular de estos derechos a tal fin”. Esto refuerza la idea de red de administraciones, alineando con el Reglamento (UE) 2018/1724 del Parlamento Europeo y del Consejo, de 2 de octubre de 2018, relativo a la creación de una pasarela digital única de acceso a información, procedimientos y servicios de asistencia y resolución de problemas, y promueve la reutilización de soluciones dentro del sector público, evitando duplicar esfuerzos tecnológicos.
Finalmente, el artículo 39 anima a la Administración, como un mero enunciado de buena voluntad, a impulsar proyectos de IA con un tímido mandato que señala que dicha colaboración puede instrumentarse permitiendo consorcios y fórmulas flexibles para el desarrollo conjunto, como sociedades de economía mixta, o mecanismos negociables como convenios de colaboración o contratos administrativos.
7.2. Procedimiento para proyectos de inteligencia artificial
Este título regula el procedimiento interno para definir, evaluar, diseñar, desarrollar e implementar proyectos de IA en la administración gallega. Se articula en dos capítulos relativos a la definición y aprobación de dichos proyectos, y al diseño, desarrollo o adquisición e implantación de los propios sistemas de IA.
De forma muy resumida, tal y como ya se ha comentado anteriormente[50], la definición de nuevos proyectos de IA la realizarán en conjunto el órgano promotor funcional y el responsable tecnológico, aunque será la Oficina de IA la encargada de revisar este informe desde el punto de vista de necesidad y oportunidad, contando únicamente con el plazo de un mes desde su recepción para emitir, en su caso, la propuesta para su aprobación.
Este informe deberá abordar un contenido mínimo recogido en el artículo 41.2 de la ley 2/2025 y, entre otros elementos, se halla la evaluación de impacto relativa a los derechos fundamentales. En caso de tratarse, dice la ley, de un sistema de IA de alto riesgo, “se seguirá el modelo de cuestionario elaborado por la Oficina Europea de Inteligencia Artificial de acuerdo con la normativa vigente de aplicación”. Demuestra en este punto el legislador regional, de nuevo, su preocupación por el pulcro respeto a las directrices de la Unión Europea.
Una vez el proyecto ha sido aprobado, será el órgano responsable tecnológico quien procederá a su diseño y llevará a cabo el entrenamiento del propio sistema, para efectuar una validación de los parámetros de aprendizaje, mientras que competerá al órgano funcional la prueba del sistema de IA a fin de confirmar el rendimiento esperado antes de su activación; en estricta conexión con el ámbito material de desarrollo de las competencias de uno y otro en el apartado 5.1 de este texto.
Podríamos destacar, en última instancia, el mandato de elaborar un plan de gestión de datos, coherente con las obligaciones y principios explicitados por la norma, y las pruebas piloto en los “espacios controlados de pruebas”, regulados en el artículo 49 – que cita el Reglamento 2024/1689 en su artículo 57– y cuya dotación dependerá de la misma AMTEGA, aunque se exige que la autoridad competente en materia de protección de datos esté vinculada al funcionamiento de dicho espacio en la medida en que dichos sistemas de IA impliquen el tratamiento de datos personales[51].
A modo de conclusión, la ley insiste en informes previos y controles continuos, lo cual es consecuente con el principio de diligencia debida, lo que se ve reforzado por la promoción de la colaboración interdepartamental, al requerir informes conjuntos. De igual modo, la centralización en la Oficina de IA garantiza uniformidad. No obstante, el trámite descrito es complejo y quizá excesivo para proyectos de bajo riesgo puesto que, según parece, la ley no distingue claramente niveles de riesgo en este proceso interno. Sólo alude, de hecho, genéricamente al alto riesgo. Podría interpretarse, en suma, que todos los proyectos siguen el mismo procedimiento burocrático, lo que en la práctica exigirá desarrollo reglamentario para graduar las exigencias según el tipo de IA.
7.3. Uso de inteligencia artificial en la Administración
El título IV de la ley ahora estudiada destina cuatro disposiciones referidas al empleo directo de sistemas de IA en los procedimientos administrativos.
Por su parte, el artículo 50 autoriza expresamente la adopción de actos administrativos de forma automatizada sin la intervención directa de un empleado público siempre que se trate de competencias regladas (sin margen subjetivo) y que se haya agotado previamente todo el margen de discrecionalidad en la fase de diseño. Dicho de otro modo: la administración podrá dictar resoluciones automáticas cuando la ley o norma aplicable define objetivamente el resultado. Además, se prevé que la IA pueda emitir recomendaciones o borradores en casos discrecionales para respaldar la decisión humana. Este artículo legaliza de manera pionera lo que podríamos denominar “la administración algorítmica” sujetándola a condiciones estrictas: la automatización solo donde la evaluación sea puramente objetiva, y siempre bajo supervisión residual. Es un punto innovador pero delicado, pues entra de lleno en la interacción entre tecnología y el ejercicio de potestades públicas, por lo que resultará fundamental que se vigile que su aplicación respete derechos como el de audiencia y motivación suficiente. Parece claro, entonces, que la IA modifica sustancialmente el alcance y las capacidades del Derecho Administrativo del presente lo que, desde luego, exige precisiones normativas como la que ahora analizada. En esta materia, y en estricta conexión con la afirmado, señala Valero Torrijos que «parece singularmente relevante poner el foco en el alcance de los mecanismos de control y, en particular, el diseño de los algoritmos y su funcionamiento en la práctica, de manera que se articulen vías adecuadas de impugnación no sólo de las decisiones administrativas concretas sino, asimismo, de las premisas tecnológicas en las que se basan»[52], como propone la ley gallega.
Seguidamente, el artículo 51 encarga a la AMTEGA la elaboración de guías o normas de uso de los sistemas de IA, lo que equivale a crear manuales internos de buenas prácticas que muestran una intención de institucionalizar el aseguramiento de calidad. Es, pues, una medida prudente y proactiva, alineada con el principio de diligencia, y una de las permisiones de la normativa europea, como ya se ha adelantado al comienzo de este estudio al referenciar la relevancia del soft law en el ámbito de la IA. En este sentido existe, o puede llegar a existir, mejor dicho, un cierto paralelismo con la normativa de protección de datos que, tal y como afirma Almeida Cerreda, se complementa con «un heterogéneo conjunto de instrumentos paranormativos que se caracterizan por contener indicaciones razonables de cómo interpretar la misma, pero, en principio, per se, carecen de fuerza obligatoria. No obstante, en la práctica, gozan de un notable nivel de vinculatoriedad, en la medida en que los organismos administrativos de control y los tribunales los tienen en cuenta a la hora de adoptar y fundamentar sus decisiones»[53].
Por su lado, el artículo 52, en conexión con el principio de supervisión continua, exige el desarrollo de herramientas tecnológicas que ayuden a la administración a comprobar internamente si sus sistemas cumplen los principios pulcramente recogidos en esta ley. A mayor ahondamiento, se exige en el siguiente artículo la elaboración de un protocolo de reacción inmediata para detectar, y sobre todo mitigar, las consecuencias de un fallo de IA derivado del mal funcionamiento, de la aplicación de un sesgo o de la perpetración de un ataque cibernético, por ejemplo.
7.4. Impulso de la inteligencia artificial en Galicia
Finalmente, el título V agrupa, de forma amplia, un conjunto de medidas de fomento económico, tecnológico, científico y fiscal para fortalecer el ecosistema regional de IA. Este último título es claramente proyectivo y de política pública activa, no tanto normativo, por lo que contiene mandatos y líneas de actuación preferentes y compromisos de futuro, pero, por su propia naturaleza, muchos artículos carecen de contenido ejecutivo inmediato y quedan supeditados a futuros planes y reglamentos. Sin embargo, otorgan indicaciones muy útiles a la administración.
En primera instancia, el legislador asienta una serie de nociones elementales que pretenden erigir a la IA como un impulsor en materia de política industrial. En el artículo 54 la IA se concreta como uno de los elementos a tener en cuenta en la elaboración de los planes directores de los distintos sectores industriales que contempla el Decreto Legislativo 1/2015, de 12 de febrero, por el que se aprueba el texto refundido de las disposiciones legales de la Comunidad Autónoma de Galicia en materia de política industrial y, de hecho, en virtud del artículo 55 de la ley 2/2025, los proyectos relacionados directamente con la IA tendrán la consideración de pertenencia a un sector estratégico y, en virtud del artículo 56, el sector de la IA será considerado como un sector de especial importancia a los efectos de los requisitos que se exigen para la determinación de los proyectos empresariales singulares. También se fomenta la promoción de la IA a efectos de lograr la consecución del ahorro y la eficiencia energética y la óptima gestión de los recursos energéticos, alineándose con la Estrategia Gallega de Cambio Climático y Energía 2050 y con el Plan Regional Integrado de Energía y Clima 2030, actualizados, precisamente, en enero del presente año. Finalmente, se dispone a la Oficina Doing Business Galicia, prevista en el artículo 16 de la Ley 9/2021, de 25 de febrero, de simplificación administrativa y de apoyo a la reactivación económica de Galicia, como el canal único de apoyo a las empresas que impulsen nuevas tecnologías e IA, creándose, además, un sistema de vigilancia tecnológica en IA para las empresas y apoyando la fabricación inteligente, la automatización y la modernización de procesos de las empresas, en particular de las pequeñas y medianas, a través de la IA, como reconoce el artículo 58. Como punto de remate, se propone, en primer término, la creación de un fondo de participación en empresas que desarrollen en Galicia sistemas de IA a través de la sociedad mercantil pública autonómica de la Xunta de Galicia con competencia en la materia – o lo que es lo mismo, XESGALICIA, Sociedad Gestora de Entidades de Inversión de Galicia –, o, en segunda instancia, la reducción de los costes fiscales a empresas que innoven en este ámbito y que se encuentren instaladas en el territorio de la Comunidad Autónoma.
En segundo lugar, se procura el fomento de la investigación e innovación en el ámbito de la IA y la promoción de un ecosistema emergente de investigación e innovación en esta materia, de forma pareja a la creación del Mapa del ecosistema de inteligencia artificial de Galicia, elaborado por la AMTEGA y que tendrá como misión identificar a los agentes que operan en la región, bien sea invirtiendo, diseñando, creando u operando con soluciones de IA innovadoras.
En último lugar, se impulsará la dotación y la mejora de las grandes infraestructuras de supercomputación para el desarrollo del ecosistema de IA de Galicia y, de manera particular, se impulsará al Centro de Supercomputación de Galicia (CESGA)[54] y la puesta en marcha de factores de IA y otras iniciativas, al igual que se dotará de espacios controlados de pruebas al tejido investigador y empresarial cuyas características y concreciones se desarrollarán reglamentariamente. Este último aspecto es relevante, porque la ley gallega se ha preocupado de concretar la creación de los entornos controlados que, grosso modo, regula la normativa europea: son los llamados sandboxes.
Sin embargo, la inclusión de la IA en el día a día de la Administración tiene una serie de consecuencias inevitables sobre la contratación pública, de lo que se preocupa esta ley, que en su artículo 68 insta a la elaboración de un catálogo de cláusulas administrativas que deben garantizar, entre otros extremos, la inclusión de interfaces que permitan la efectiva supervisión por personas, la vigencia del principio de responsabilidad a lo largo del ciclo de vida del sistema de IA y la obligación de explicar, en todo momento, cómo un sistema que utilice esta tecnología ha llegado a un resultado concreto, de conformidad con el estado del arte de la materia.
En tercer y último lugar, se contempla la formación y capacitación de las personas empleadas públicas en materia de IA de una forma amplia y multidisciplinar, ya que además de comprender los aspectos técnicos, el conocimiento de los empleados públicos tiene que abarcar los aspectos éticos y legales del empleo de los mismos, aunque no debe olvidarse la importancia del apoyo del gobierno autonómico a la formación universitaria y profesional en este ámbito, ni la formación de la ciudadanía para la lucha contra los riesgos de los sistemas de IA.
8. Conclusiones
La ley 2/2025, de 2 de abril, para el desarrollo e impulso de la inteligencia artificial en Galicia establece un marco normativo sólido y bien estructurado que aborda tanto los beneficios como los riesgos asociados a la implementación de la IA.
Su enfoque equilibrado -que combina el fomento de la innovación tecnológica con estrictas salvaguardas en cuanto al respeto a los derechos fundamentales (de forma particular el principio de igualdad), la transparencia y los principios característicos de la actividad administrativa, como el de responsabilidad-, ofrece una respuesta adecuada a los desafíos que plantea el uso de tecnologías avanzadas en el presente. O lo que es lo mismo, esta ley abarca desde la arquitectura institucional interna hasta los incentivos externos al ecosistema de IA, por lo que no solo posiciona a Galicia como un referente en la regulación de la IA en el contexto español, sino que también contribuye al debate más amplio sobre cómo regular el desarrollo tecnológico en el contexto europeo. Así pues, esta norma de rango legal se constituye como un texto pionero en España -y en Europa- y ejemplar en su alcance, ya que estamos frente a una iniciativa legislativa muy novedosa con un ámbito de aplicación restringido en tanto en cuanto se aplica, fundamentalmente, dentro del sector público autonómico.
Sin embargo, el hecho de que la norma española que concretará[55] el Reglamento (UE) 2021/1689 aún no haya entrado en vigor -de hecho, como ya se ha dicho, todavía se encuentra en fase de anteproyecto-, puede provocar futuras disfuncionalidades. Con todo, el legislador gallego ha reducido al máximo esta posibilidad porque insiste, de modo continuo, en que la norma ahora analizada se encuentra acotada por la regulación uniforme armonizada de la UE y por la legislación estatal que exista en el ámbito de la IA, o lo que es lo mismo, es positivo que la ley gallega reconozca, expresamente, que esta opera sin perjuicio de la regulación básica estatal y comunitaria. Lo que ayuda a solventar posibles vacíos o contradicciones provocadas por la norma de rango superior, y reduce la ambigüedad terminológica -especialmente al partir de las definiciones del reglamento- y permite una aplicación armonizada, lógica y coherente de la regulación existente en la materia.
Sea como fuere, en la actualidad ya existen distorsiones. A modo de ejemplo, la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) – que es el organismo público encargado de garantizar el uso ético y seguro de la inteligencia artificial en España cuya principal misión es asegurar que tanto entidades públicas como privadas cumplan con la normativa vigente, protegiendo la privacidad, igualdad de trato y derechos fundamentales- no está dotada de la independencia que exige la normativa europea, como le ocurre a la Agencia per l’Italia Digitale (AGID), lo que estriba, fundamentalmente, en que la creación de la agencia española surge como un mandato de la Ley 11/2020, de 30 de diciembre, de Presupuestos Generales del Estado para el año 2021, que se concretó en el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial, mientras que la norma europea no fue aprobada hasta el pasado año 2024. Así pues, nos hallamos con una agencia que precede a la propia norma que concreta sus características y funciones al igual que, en la actualidad, nos encontramos con una ley autonómica que precede a su ley estatal que es la que, de manera natural, debe concretar al reglamento.
Los elementos positivos que hacen que Galicia se siga situando a la vanguardia, en este caso en materia de IA, incluyen la alineación terminológica y filosófica con el Reglamento (UE) 2024/1689, la puesta en valor de la transparencia o de principios como el de supervisión humana; la incorporación de mecanismos efectivos de tutela y el pulcro respeto por la normativa de protección de datos; y la promoción de la cooperación multisectorial, además de la identificación de roles precisos (como la Oficina de IA o las personas comisionadas) que permiten dar estabilidad institucional al seguimiento de los proyectos que utilicen esta tecnología en el sector público gallego. Concluimos, por tanto, que la creación de instituciones específicas, y la voluntad de conjugar el fomento con las garantías jurídicas de los derechos de la ciudadanía reflejan una madurez regulatoria poco frecuente en este tipo de materias tecnológicas. De hecho, una de las claves de la ley se halla, precisamente, en la contemplación de un elenco de principios coherentes y necesarios para que la IA se implemente en el sector público de forma respetuosa con los principios que imperan en la materia y con las exigencias que derivan del Estado de Derecho y, de manera particular, de los Derechos Fundamentales y de los principios concretados en el artículo 9.3 de la Constitución española.
No debemos olvidarnos, con todo, de otros elementos que podrían semejar secundarios pero que hacen visible el esfuerzo que el legislador ha hecho por construir una norma integradora, amplia y horizontal, que contemple elementos que, aunque tangenciales si se entienden de modo inconexo, de manera conjunta dotan a la ley de una mayor capacidad de proyección. Entre otros, las diferentes previsiones relativas a la protección del medioambiente, y la protección y fomento de la lengua gallega en el ámbito de la IA.
Sin embargo, su viabilidad práctica requerirá esfuerzos. El compromiso político y financiero de la Xunta será crucial; la cooperación con la UE y el Gobierno central será determinante; y será fundamental que se traduzcan los mandatos generales a acciones concretas mediante reglamentos – normas aprobadas por el poder ejecutivo con carácter inferior a la ley –, puesto que, sin ellos, el cumplimiento se basaría en la autodisciplina administrativa, con riesgo de interpretaciones dispares. De hecho, como ya se reiteró en diversas ocasiones, es importante que se realice un examen de la estructura orgánica y de las capacidades de la AMTEGA, que ha adquirido una serie de funciones novedosas y laboriosas que se suman a las que ya preexistían.
En síntesis, la ley gallega constituye un paso significativo en la gobernanza algorítmica pública ya que apuesta decididamente por una IA deseable, fiable y centrada en las personas sustentada en una serie de principios rectores cohesionados, coherentes y amplios, que procuran el respeto por los derechos de la ciudadanía y por los principios y las reglas administrativas más básicas. Es precisamente su visión complementaria – consistente en gobernar el uso público de la IA y potenciar el ecosistema regional – lo que la hace coherente con los niveles superiores. En el mejor de los casos, la ley 2/2025 marcará un estándar para otras comunidades autónomas y servirá de piloto para la futura normativa estatal y, en el peor escenario, podría quedarse como un texto cargado de buenas intenciones sin demasiada efectividad real si no se concreta rápidamente o si la administración carece de recursos técnicos y humanos adecuados, aunque esto último parece remoto.
Es positivo que, por ejemplo, la Oficina de IA tenga atribuida la supervisión de riesgos y la relación con organismos nacionales e internacionales, lo cual contribuye a coherencia vertical con las políticas estatales y europeas, o que las personas comisionadas de IA recaigan en las figuras preexistentes del delegado de protección de datos. No obstante, crear estos órganos requiere recursos personales y conocimientos especializados y, gran parte de ellos, confía esta tarea a la entidad instrumental competente en el área de las TIC, es decir, a la propia AMTEGA, que deberá asumir un coste de personal y una elevación de su carga de trabajo y de sus responsabilidades significativa.
En suma, la ley articula un modelo de gobernanza algorítmica con seguridad jurídica, capaz de ser referente en el ámbito nacional y comunitario, y que se alinea con los principios y las previsiones del legislador comunitario por lo que le auguramos una potencial capacidad integradora de la IA en el ámbito de la Administración general de la Comunidad Autónoma de Galicia y de su sector público, y una amplia proyección para convertirse en un documento que sirva de ejemplo para el desarrollo de futuras normas en otros territorios.
Note
[1] España es, tal y como defienden de manera reciente autores como Blanco Valdés, una suerte de estado descentralizado que, en su Constitución de 1978, optó por el llamado modelo de las autonomías. Se trata de una solución sui generis que se articula en torno al artículo 2 de la Carta Magna que, reconociendo el derecho a la autonomía, permite que aquellos territorios constituidos en tanto Comunidad Autónoma adquieran una serie de competencias habilitadas en el artículo 148. Así pues, el término Comunidad Autónoma podría entenderse, grosso modo, como una región con ciertas competencias delimitadas por la propia Constitución, y por los Estatutos de Autonomía de cada una de ellas, con poder ejecutivo y legislativo, pero no con poder judicial, que es único para todo el país.
[2] En adelante, IA.
[3] Es el nombre que recibe el Poder Ejecutivo de la Comunidad Autónoma de Galicia.
[4] Como insistimos en el epígrafe 2.2 de este artículo.
[5] Sobre esta cuestión puede consultarse L. Cotino Hueso, P. Simón Castellano (Dirs.), Tratado sobre el reglamento de inteligencia artificial de la Unión Europea, Aranzadi, 2024.
[6] Que es uno de los integrantes de la comisión de expertos para el desarrollo y uso ético de la inteligencia artificial en Galicia, impulsada por la Xunta de Galicia a finales de 2023, que está formada por diez personas expertas en diferentes ámbitos, como la economía, la filosofía, la evolución humana, la tecnología aplicada, la ética y normativa o la política pública. Esta comisión está presidida por el director de la Agencia para la Modernización Tecnológica de Galicia (AMTEGA), de la que hablaremos en diversas ocasiones a lo largo de este estudio. En cuanto a los pronunciamientos del prof. Almeida, pueden consultarse diferentes intervenciones en universidades, Administraciones públicas, y medios de comunicación. A modo de ejemplo: https://www.xunta.gal/es/notas-de-prensa/-/nova/008186/xunta-destaca-papel-inteligencia-artificial-para-dotar-mayor-calidad-eficacia [fecha de última consulta 07/06/2025].
[7] Sobre su origen y su interrelación con otra normativa -como la de protección de datos, ciberseguridad o sobre servicios digitales-, puede consultarse C. Fernández Hernández, Guía práctica del Reglamento Europeo de Inteligencia Artificial. Manual de referencia para conocer, entender y aplicar la AI Act, Aranzadi La Ley, 2025.
[8] Tal y como reconoce la propia ley gallega en el apartado III de su exposición de motivos.
[9] Que es el órgano colegiado que dirige la política general y la Administración de la Comunidad Autónoma de Galicia y que está formado por el presidente de la Xunta, los vicepresidentes que en su caso haya (en este momento ninguno) y los conselleiros y conselleiras.
[10] Ley 1/2016, de 18 de enero, de transparencia y buen gobierno.
[11] Por lo que abarca no sólo la Administración general, sino también a las entidades instrumentales, las instituciones sanitarias, las fundaciones […].
[12] Según se extrae, entre otros, de su artículo 18, analizado ut infra.
[13] Según se extrae de su artículo 57, analizado ut infra.
[14] Artículo 1.3 de la ley analizada.
[15] Tal y como se extrae de la lectura del artículo 2 letra g).
[16] Que es el departamento del gobierno regional con competencias en el ámbito de la investigación.
[17] Se puede consultar más información sobre este proyecto en el siguiente enlace: https://www.xunta.gal/es/notas-de-prensa/-/nova/79228/proyecto-nos-intensifica-trabajo-por-inclusion-del-gallego-inteligencia-artificial [fecha de última consulta 07/06/2025].
[18] En este sentido, podemos destacar otras normas, como el también reciente Decreto 20/2025, de 10 de marzo, por el que se regula la señalización, la identificación, la información, la publicidad y las actividades de promoción de las oficinas de farmacia y botiquines de Galicia. De hecho, de este tipo de cuestiones se han hecho eco medios de renombre nacional, como La Voz de Galicia – uno de los periódicos mas leídos de la región gallega – que titulaba “La Xunta exporta a gobiernos de otras comunidades y países hasta 50 proyectos y leyes propias”, tal y como se puede consultar en el siguiente enlace: https://www.lavozdegalicia.es/noticia/galicia/2025/04/18/xunta-comparte-comunidades-paises-experiencia-50-proyectos-leyes-propias/00031744987256850225725.htm [fecha de última consulta 07/06/2025].
[19] Definición 1 del reglamento (recogida en su artículo 3), y definición primera, también, de la ley gallega (recogida en la letra a de su artículo 4).
[20] Definición 63 del reglamento y definición segunda (recogida en la letra b) de la ley gallega.
[21] Definido en el punto 8 del artículo 3 del reglamento, y en el tercer lugar de la ley gallega (letra c de su artículo 4).
[22] No solo porque las definiciones clave en materia de IA sean una réplica de las previstas en la norma europea, sino por la constante referencia, por ejemplo, al Reglamento (UE) 2016/679 en relación con la protección de datos personales, cuya intersección con la IA es fundamental. Como muestra de ello, se pueden consultar pronunciamientos públicos de la Agencia Española de Protección de Datos (AEPD) como el accesible en el siguiente enlace: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/la-aepd-publica-una-guia-para-adaptar-al-rgpd-los-productos-y [fecha de última consulta 07/06/2025].
[23] Su texto provisional puede consultarse en el siguiente enlace: https://avance.digital.gob.es/_layouts/15/HttpHandlerParticipacionPublicaAnexos.ashx?k=19128 [fecha de última consulta 07/06/2025].
[24] Estas pueden consultarse, en diferentes idiomas, en el siguiente enlace: https://digital-strategy.ec.europa.eu/es/library/ethics-guidelines-trustworthy-ai [fecha de última consulta 07/06/2025].
[25] Que fueron elaboradas tras el análisis de más de 500 observaciones a través de una consulta pública abierta después de la publicación del primer proyecto de directrices en diciembre de 2018.
[26] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 20, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[27] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 39, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[28] Ello se recoge en el blog virtual de la entidad ALLAI, que es una organización independiente dedicada a impulsar y fomentar la IA. Su reflexión completa puede consultarse en el siguiente enlace: https://allai.nl/the-myth-of-complete-ai-fairness-by-virginia-dignum/#:~:text=therefore%20appealing,systems%20and%20their%20decision%20capabilities [fecha de última consulta 07/06/2025].
[29] No debe olvidarse, en este punto, que la normativa de transparencia contempla una serie de límites al derecho de acceso tanto de forma general en el ámbito estatal -artículo 25 de la Ley 1/2016, de 18 de enero, de transparencia y buen gobierno-, como en el propio ámbito autonómico -artículo 14 de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno-. En este último caso, se detallan una serie de excepciones a las obligaciones derivadas de la transparencia que, en materia de IA, podrían tener incidencia. Especialmente, las referidas a la seguridad nacional -que son invocadas como una especie de cláusula apertus que permite no facilitar información cuando el poder ejecutivo no tiene interés en ello, o la propiedad intelectual – cuando los sistemas de IA que utilice la Administración autonómica no le pertenezcan en este último sentido.
[30] Al que se puede acceder en el siguiente enlace: https://transparencia.xunta.gal/es/portada [fecha de última consulta 07/06/2025].
[31] En la actualidad, dicho portal cuenta con diferentes apartados específicos entre los que podemos destacar el que permite conocer el registro de las actividades de tratamiento en el ámbito de la protección de datos personales que exige el artículo 30 del Reglamento (UE) 2016/679 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y el artículo 31 de la Ley Orgánica 3/2018. Así pues, se podría optar por la misma solución en este caso.
[32] A. Cerrillo i Martínez: Robots, asistentes virtuales y automatización de las administraciones públicas, Revista galega de administración pública (REGAP), vol. 1, 61, 2021, p. 286.
[33] B. López Portas, La Configuración Jurídica Del Derecho al Olvido en el Derecho Español a tenor de la doctrina del TJUE, Revista de Derecho Político, nº 93, 2015, p. 146.
[34] Esta preocupación del legislador se ha manifestado en diferentes textos legales, algunos de ellos de gran relevancia pese a encontrarse derogados, como la Ley 4/2006, de 30 de junio, de transparencia y de buenas prácticas en la Administración pública gallega, que insistía en que “los particulares tienen derecho a solicitar y obtener información, en forma clara y comprensible – teniendo en cuenta cualquier tipo de discapacidad física o psíquica que puedan padecer – tanto de carácter general como de carácter particular, sobre todos aquellos aspectos de la actividad administrativa que puedan afectar a sus derechos e intereses legítimos”, como sostienen Almeida Cerreda y Santiago Iglesia en Transparencia, buenas prácticas y gestión de la calidad en la actividad de la Administración Pública gallega, Dereito: Revista xuridica da Universidade de Santiago de Compostela, vol. 19, nº 2, 2010, pp. 140-141.
[35] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 55:20, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[36] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 01:11:05, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[37] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 01:36:50, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[38] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 01:33:15, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[39] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 50:50, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[40] Huelga recordar que el régimen español de responsabilidad patrimonial de las administraciones públicas tiene carácter objetivo por lo que la Administración Pública es responsable de indemnizar los daños causados a los ciudadanos, incluso en ausencia de negligencia o culpa por parte de la Administración, siempre y cuando exista una relación causal entre la actividad administrativa y el daño efectivamente producido.
[41] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[42] Que es el organismo autónomo que tiene entre sus funciones la formación del cuerpo de funcionarios y personal laboral de la Xunta de Galicia, y de otras administraciones que actúan en el ámbito territorial gallego, como las Administraciones locales o, incluso, las universidades.
[43] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, en el minuto 01:45:06, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[44] Vid. una detallada explicación el concepto, contenido, alcance y manifestaciones de este principio en M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, entre otros, en el minuto 24:10, accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[45] Cuyos integrantes no percibirán remuneración alguna por el ejercicio de sus funciones en dicho órgano, artículo 30.7 de la ley 2/2025.
[46] Como reza el artículo 30.1 de dicha ley.
[47] M. Almeida Cerreda, Bases para la regulación y gobernanza de la Inteligencia Artificial en el sector público, INAP, Madrid, 2025, minuto 01:39:10 accesible en el siguiente enlace: https://l1nq.com/M9NGC.
[48] Es decir, del propio ejecutivo regional.
[49] Accesible en el siguiente enlace web: https://amtega.xunta.gal/es/node/9861 [fecha de última consulta 07/06/2025].
[50] Consúltese a este respecto el artículo 27.
[51] También se ha preocupado por la protección de datos personales el ya citado Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas, lo que se puede comprobar, especialmente, tras la lectura de su artículo 16.
[52] J. Valero Torrijos, El Derecho Administrativo en la era de la inteligencia artificial en P. Valcárcel Fernández, F.L. Hernández González (Coords.), El Derecho Administrativo en la era de la inteligencia artificial: Actas del XVIII Congreso de la Asociación Española de Profesores de Derecho Administrativo, Instituto Nacional de Administración Pública, 2025, p. 698.
[53] M. Almeida Cerreda, Las entidades locales y la protección de datos, Anuario de Derecho Municipal, 12, 2018, p. 91.
[54] Cuya actividad es de vital importancia, y que es utilizado de manera asidua por las Administraciones públicas, por ejemplo, por METEOGALICIA, que es el servicio meteorológico regional de la comunidad autónoma dependiente de la Xunta de Galicia y cuya principal función es la observación, predicción y difusión de información meteorológica y oceanográfica. Sobre el CESGA puede consultarse más información en el siguiente enlace: https://www.cesga.es/ [fecha de última consulta 07/06/2025].
[55] La norma europea tiene rango de reglamento y, en consecuencia, es directamente aplicable, por lo que no es exigible que se elabore una regulación nacional en tanto en cuanto no cabe transposición, sino que lo que cabe es un desarrollo normativo interno que permita concretar algunas cuestiones. Tal y como ha ocurrido en el ámbito de la protección de datos, “en principio no es necesario que los Estados adopten un acto nacional de transposición de un reglamento europeo. Sin embargo, ello puede ser conveniente para ganar en certeza y seguridad, depurando el ordenamiento interno respecto al ordenamiento de la UE, dado que este posee previsiones que no se acomodan a aquel, tal y como afirma Fernández Rodríguez en Decálogo sobre a nova normativa de protección de datos, Administración & cidadanía: revista da Escola Galega de Administración Pública, vol. 13, 2, 2018, p. 196.
Abstract: La legge 2/2025 della Galizia è una normativa pionieristica a livello regionale all’interno dell’Unione Europea, il cui scopo non è quello di regolamentare l’intelligenza artificiale (IA) in generale, compito riservato ai legislatori europei e nazionali, ma di stabilire un quadro giuridico per la sua implementazione nel settore pubblico, in conformità con i principi e le linee guida disegnati dal Regolamento (UE) 2024/1689. Il presente articolo si propone di illustrare la sua struttura sistematica, che va dai principi guida e dai diritti dei cittadini a una specifica architettura istituzionale che consente di governare efficacemente il ciclo di vita dei sistemi di IA. Ci troviamo quindi di fronte a una legge che riflette una vocazione integrativa e proattiva, che rafforza la certezza del diritto senza ostacolare l’innovazione tecnologica, proiettando così un modello istituzionale di IA pubblica che, nonostante i limiti di competenza, aspira a posizionare la Galizia come riferimento europeo nell’implementazione responsabile, sicuro e sostenibile dell’intelligenza artificiale.
Parole chiave: Intelligenza artificiale, Unione Europea, Stato di diritto, Pubblica Amministrazione, Diritti fondamentali
Commentary on Law 2/2025, of 2 April, for the development and promotion of artificial intelligence in Galicia / Anxo Varela Hernández
Abstract: Galician Law 2/2025, of April 2, constitutes a pioneering regional regulation within the European Union. Its objective is not to regulate artificial intelligence (AI) in a general manner, a task reserved for European and national legislators, but rather to establish a legal framework for its implementation in the public sector, in accordance with the principles and guidelines designed by Regulation (EU) 2024/1689. This article aims to unravel its systematic structure, which ranges from guiding principles and citizens’rights to a specific institutional architecture that enables effective governance of the lifecycle of AI systems. We are therefore faced with a law that reflects an integrative and anticipatory vocation, which reinforces legal certainty without hindering technological innovation, thus projecting an institutional model of public AI that, despite its jurisdictional limitations, aims to position Galicia as a European benchmark in the responsible, safe, and sustainable implementation of artificial intelligence.
Keywords: Artificial Intelligence, European Union, Rule of Law, Public Administration, Fundamental Rights