Departamento de Gobernanza Pública y Autogobierno

Manifiesto ético de la gobernanza de los datos y de los sistemas de inteligencia artificial del sector público de la CAE

Principios de los sistemas de inteligencia artificial (IA)

La calidad de los conjuntos de datos es primordial para el desempeño de la IA, por lo que los Principios de la Gobernanza de los Datos se encuentran íntimamente ligados a los de los sistemas de inteligencia artificial. No obstante, la gobernanza de los datos y la de los sistemas de IA suponen dos desafíos éticos distintos, con especificidades que conviene destacar.

La fiabilidad de los sistemas de IA supone un requisito imprescindible para lograr la confianza en los mismos, por consiguiente, si queremos maximizar sus beneficios y minimizar sus riesgos los principios éticos resultan un pilar fundamental para una IA fiable.

Categoría Principios
Ciudadanía / Personas
Gestión de los datos
Atributos de los sistemas de IA
Protección
Rendición de cuentas
Control y evaluación
Accesibilidad y diseño universal:
Los sistemas deberían centrarse en las personas usuarias independientemente de su edad, género, capacidades o características. Debemos poner especial atención en las personas con discapacidad, teniendo en cuenta los principios del “Diseño Universal”, que abarca todos los aspectos de la accesibilidad.
Acceso a los datos:
Todos los sistemas de IA que utilicen datos personales deben establecer protocolos de acceso a los datos, describiendo quién puede acceder a ellos y bajo qué condiciones.
Auditabilidad:
Los sistemas de IA deben poder ser evaluados, incluyendo los algoritmos, los datos y los procesos de diseño. Las evaluaciones de auditores internos y externos y la posibilidad de disponer de los informes de evaluación contribuyen a su fiabilidad. Cuando el sistema afecta a derechos fundamentales deberán poder someterse a auditorías independientes.
Calidad e integridad de los datos:
Los datos pueden contener sesgos sociales, imprecisiones o errores, por lo que su calidad resulta clave para el desempeño del sistema. Al mismo tiempo, debemos garantizar la exactitud de los datos utilizados asegurando que no se ha producido ninguna alteración o pérdida, ya sea de forma accidental o intencionada. Los procesos y datos deben ponerse a prueba y documentarse, tanto en el caso de los sistemas de IA desarrollados internamente como en el de los adquiridos externamente.
Capacidad de oposición:
Las personas que interactúan con sistemas de IA deben disponer de la capacidad de oponerse a las decisiones adoptadas por los mismos y por las personas que los manejan, pudiendo obtener, cuando resulte adecuado, compensaciones frente a ellas.
Compartición y reutilización:
Se fomentará la reutilización de los algoritmos y sistemas de IA del sector público de la CAE, incluyendo su código fuente, con el objetivo de generar valor público, potenciar el desarrollo socioeconómico, la creación de empleo y la innovación, tanto pública como privada. Para ello, se compartirán con una licencia que permita y facilite su reutilización de forma clara y accesible y se documentarán de forma precisa.
Compensación:
En el caso de que se produzcan efectos adversos injustos, se establecerán mecanismos de compensación, con el objetivo de reparar el daño producido y asegurar la confianza de la ciudadanía.
Comunicación:
La ciudadanía debe conocer cuándo está interactuando con un sistema de IA, y, cuando sea necesario, se le debe ofrecer la posibilidad de decidir si prefiere interactuar con una persona en lugar de un sistema de IA. Asimismo, también se deberá informar de las prestaciones y limitaciones del sistema a los profesionales y personas usuarias finales.
Equidad y no discriminación:
Se debe garantizar una distribución justa de los beneficios y costes de los sistemas de IA, asegurando que no se produzcan sesgos injustos, discriminación ni estigmatización. Los sesgos podrían dar lugar a prejuicios y discriminación contra determinadas personas o grupos, agravando los estereotipos y la marginación de ciertos colectivos.
Equilibrio entre intereses y valores:
Al aplicar los principios éticos podrían surgir tensiones entre los mismos, por lo que puede ser necesario encontrar un equilibrio. Resulta fundamental identificar los intereses y valores del sistema de IA y explicar cómo se ha logrado el equilibrio, documentando y razonando las decisiones. Si no fuera posible lograr un equilibrio aceptable se debería descartar la utilización del sistema en la forma prevista.
Evaluación del impacto:
Los sistemas de IA pueden ser beneficiosos para las personas, pero también podrían ser una amenaza para los derechos fundamentales. En estos casos resulta primordial realizar evaluaciones de impacto sobre los derechos fundamentales, con el objetivo de reducir los riesgos y garantizar que toda restricción de determinados derechos fundamentales respete los principios de necesidad y proporcionalidad.
Evaluación de riesgos:
Se trata de establecer procesos dirigidos a evaluar los posibles riesgos asociados a la utilización del sistema de IA en diversos ámbitos de aplicación. A partir de dicha evaluación se deberán establecer medidas de seguridad en función del nivel de riesgo detectado, de forma proactiva.
Explicabilidad:
Comprende la capacidad de explicar los procesos técnicos y las decisiones adoptadas relacionadas. Resulta fundamental para lograr que las personas usuarias confíen en los sistemas de IA. Debemos ser transparentes y comunicar sus capacidades y finalidad, explicando las decisiones adoptadas a las partes afectadas directa o indirectamente. Cuando no sea posible explicar determinados resultados (algoritmos de caja negra) será preciso adoptar otras medidas adicionales, como la trazabilidad o la auditabilidad, siempre teniendo en cuenta la gravedad de las consecuencias derivadas de un resultado erróneo.
Fiabilidad:
Un sistema de IA fiable es aquel que funciona adecuadamente con un conjunto de información y en diversas situaciones. La fiabilidad de la inteligencia artificial se basa en su licitud (respeto a la normativa aplicable), cumplimiento de los principios y valores éticos, y su robustez tanto técnica como social.
Igualdad de mujeres y hombres:
Además de respetar la legalidad en torno a la materia, los sistemas de IA generados deben contribuir a avanzar en todos objetivos de los planes de igualdad de mujeres y hombres.
Igualdad de oportunidades:
Los beneficios de la inteligencia artificial deben promover un sistema socialmente digno y justo donde todas las personas tienen las mismas posibilidades de acceder al bienestar social y poseen los mismos derechos políticos. Al promover la igualdad social las personas tienen las mismas oportunidades o derechos.
Inclusividad:
Los sistemas de IA deben tener en cuenta a todas las personas interesadas (la diversidad de agentes y valores) en el proceso. Los aspectos tecnológicos no deben evaluarse sólo por su contribución a la eficiencia y la productividad, sino también por la forma en que puede crear nuevos hábitos y comportamientos. Se deberá prestar especial atención a los posibles efectos adversos debido a las asimetrías de poder o de información (empresarios/as-trabajadores/as; empresas-consumidores/as; gobierno-ciudadanía, etc.).
La persona en el centro:
Los sistemas de IA deben ir siempre al servicio de la humanidad y en beneficio de las personas, protegiendo su dignidad, integridad, libertad, privacidad y seguridad. El sector público de la CAE desarrollará servicios inteligentes para mejorar la experiencia de las relaciones con la ciudadanía, con protección de su privacidad y de un modo responsable y seguro. La distribución de funciones entre las personas y los sistemas se centrará en las personas, dejando oportunidades a la elección humana.
Legalidad:
Los sistemas de IA generados cumplirán con las obligaciones que imponen las disposiciones legales aplicables.
Normalización del euskera:
Además de respetar la legalidad en torno a la materia, los sistemas de IA generados deben contribuir a avanzar en todos objetivos de los planes de euskera del sector público de la CAE.
Participación de las personas interesadas:
Se fomentará la consulta a las personas interesadas o que pudieran resultar afectadas directa o indirectamente por el sistema, estableciendo mecanismos de participación durante todo el ciclo de vida del sistema.
Precisión:
Se refiere a la capacidad del sistema para realizar juicios correctos, predicciones, recomendaciones o tomar decisiones correctas basándose en datos o modelos. Un alto nivel de precisión resulta crucial en sistemas que afectan directamente a la vida humana.
Prevención del daño:
Los sistemas de IA no deberían provocar daños ni perjudicar a las personas, para lo que se deberán aplicar medidas de prevención que protejan la dignidad humana y la integridad física y mental, especialmente de las personas y grupos más vulnerables. La robustez y solidez técnicas y la seguridad de los sistemas resultan claves en la prevención del daño.
Proporcionalidad entre medios y fines:
Los profesionales implicados en todo el ciclo de vida de los sistemas de IA deben respetar el principio de proporcionalidad entre los medios utilizados y los fines perseguidos con el sistema, logrando un equilibrio entre los intereses y objetivos contrapuestos.
Protección de la intimidad y la privacidad:
Se debe garantizar la protección de la privacidad y la intimidad, lo cual está íntimamente ligado a la prevención del daño. Se requiere de una adecuada gestión de los datos durante todo el ciclo de vida del sistema para lograr esta protección.
Reproductibilidad:
Los resultados de los sistemas de IA deben ser reproducibles, es decir, debemos asegurarnos que un experimento de IA muestra el mismo comportamiento cuando se repite varias veces en las mismas condiciones. Los archivos de replicación pueden facilitar el proceso de ensayo y reproducción de comportamientos.
Respeto a la libertad y autonomía humana:
Las personas deben mantener una autonomía plena y efectiva y ser capaces de participar en el proceso. Los sistemas de IA no deberían subordinar, coaccionar, manipular, condicionar o dirigir a los seres humanos de manera injustificada. Para ello se debe asegurar la supervisión y el control humano en los procesos de trabajo de los sistemas de IA. Las personas usuarias deben ser capaces de tomar decisiones autónomas con conocimiento de causa en relación a los sistemas de IA, para lo que es necesario proporcionarles conocimientos y herramientas para comprenderlos e interactuar con ellos, siempre que sea posible.
Robustez / solidez técnica:
Se refiere a que el sistema se comporte siempre según lo esperado y se minimicen los daños involuntarios, evitando perjuicios inaceptables. Se encuentra muy ligado a la prevención del daño.
Seguridad:
Los sistemas de IA deberán protegerse frente a las vulnerabilidades y ataques dirigidos contra los datos, modelos o la infraestructura tecnológica por parte de agentes malintencionados. Se deberán tomar medidas para prevenir y mitigar los riesgos del sistema.
Sostenibilidad y respeto al medio ambiente:
Debemos asegurarnos que los beneficios que los sistemas de IA nos reportan se logren respetando el medio ambiente, minimizando los recursos utilizados y el consumo de energía, priorizando las opciones más eficientes.
Supervisión y control humano:
Los sistemas de IA deben respaldar la autonomía y la toma de decisiones de las personas, apoyando la acción humana y permitiendo su supervisión por parte de las personas. La supervisión humana ayuda a asegurar que no se socave la autonomía o se ocasionen efectos adversos. Para realizar la supervisión se debe tener en cuenta la participación humana en los ciclos de decisión que se considere necesario, el control humano en el diseño y seguimiento del sistema, y el mando humano para supervisar la actividad global y decidir cómo y cuándo usar el sistema, ignorando determinadas decisiones del mismo si fuera necesario.
Transparencia:
Se encuentra muy relacionada con el principio de explicabilidad, y se refiere a la necesidad de dar cuentas y poner a disposición de la ciudadanía la información sobre los elementos de un sistema de IA: los datos, el sistema y los modelos de negocio. Se informará y publicará, con carácter general, el propósito y los usos que se le dan a los datos y a los sistemas de IA, así como los resultados de las auditorias y evaluaciones. El resultado de los procesos automáticos (algoritmos) deben ser transparentes y explicables para los intervinientes. Asimismo, la interacción con un sistema de Inteligencia Artificial debe ser previamente advertida.
Trazabilidad:
Permite identificar los motivos de una decisión incorrecta del sistema para prevenir futuros errores, facilitando la auditabilidad y la explicabilidad. La trazabilidad posibilita que los datos y procesos que desencadenan las decisiones del sistema se documenten de la forma más rigurosa posible.