El exponencial desarrollo de los sistemas de inteligencia artificial (IA) plantea importantes desafíos tanto para los ciudadanos como para los juristas. La creciente incorporación de agentes de IA en múltiples procesos cotidianos aumenta considerablemente su potencial impacto sobre los derechos y libertades fundamentales.

Estos riesgos se agudizan con los denominados agentes autónomos: sistemas capaces de tomar decisiones de forma independiente, en función de su experiencia, entorno (digital o físico) y de sus interacciones con otros agentes, humanos o artificiales. Su característica esencial es que no requieren instrucciones directas de una persona física para actuar, ya que pueden planificar y ejecutar sus propios procesos para alcanzar objetivos, descomponiéndolos incluso en subtareas. Su capacidad de adaptación y aprendizaje les permite anticipar o reaccionar a situaciones cambiantes, adoptando decisiones dentro de su ámbito funcional.

Los agentes autónomos pueden adoptar diversas formas y operar en ámbitos muy dispares: desde robots de limpieza o asistentes virtuales hasta sistemas con capacidad de decisión en contextos críticos como la salud, el acceso al crédito o la movilidad. Esta diversidad implica un impacto también diverso y potencialmente más grave en los derechos de las personas.

 

Incremento del riesgo de vulnerabilidad

La expansión de estos sistemas, unida a su creciente capacidad y a su aplicación en sectores cada vez más sensibles, incrementa el riesgo de vulneraciones de derechos fundamentales: integridad física y psíquica, libre desarrollo de la personalidad, igualdad y no discriminación, así como privacidad e intimidad. Ello justifica la necesidad urgente de establecer mecanismos normativos que regulen su desarrollo y utilización, en particular cuando se trata de agentes con capacidad de decisión autónoma.

Cabe recordar que la tecnología en sí es neutra; son los usos que las personas hacen de ella los que determinan su impacto ético y jurídico. En este marco, resulta imprescindible la existencia de sistemas de gobernanza que permitan encauzar el desarrollo y aplicación de la IA conforme a los principios y valores del ordenamiento jurídico.

 

Marco normativo en materia de gobernanza tecnológica

En este contexto se inserta el Reglamento (UE) 2024/1689 de Inteligencia Artificial, que establece un marco normativo pionero en materia de gobernanza tecnológica, fijando medidas específicas para evitar usos lesivos de los sistemas de IA. Entre los aspectos esenciales que regula, cabe destacar:

1. Limitación de usos y clasificación por riesgos. 
El Reglamento define categorías de riesgo asociadas a los distintos usos de la IA, estableciendo usos prohibidos, de alto riesgo y de riesgo limitado. Para los usos de alto riesgo, se imponen obligaciones específicas que garantizan la protección de los derechos fundamentales. En este sentido, se prohíben expresamente determinadas aplicaciones y se exigen medidas preventivas adicionales en otras.

 

2. Restricciones a la autonomía del sistema. 

Especialmente en el caso de agentes autónomos, la toma de decisiones sin intervención humana puede originar daños si se basa en datos sesgados, discriminatorios o inadecuadamente obtenidos. Por ello, el Reglamento otorga especial importancia a la supervisión humana, no solo respecto a la decisión final, sino también en la fase de introducción de datos y supervisión de los algoritmos utilizados. Esta supervisión es esencial para prevenir decisiones automatizadas que afecten negativamente a los derechos de las personas.

 

3. Transparencia y explicabilidad. 
Uno de los mayores retos de los agentes autónomos radica en la opacidad de su funcionamiento. A medida que la IA desarrolla soluciones que trascienden su programación original, se complica la trazabilidad de la lógica que subyace a sus decisiones. Esta falta de transparencia impide a los ciudadanos y operadores jurídicos comprender, cuestionar o controlar adecuadamente los criterios aplicados, dificultando la identificación de posibles sesgos o errores.

 

4. Responsabilidad jurídica. 
La capacidad de los agentes autónomos para actuar sin instrucciones humanas directas plantea complejos interrogantes sobre la imputación de responsabilidad por los daños que puedan generar. Determinar quién debe responder —el programador, el proveedor, el usuario, el titular del sistema— será uno de los principales retos que afrontará el Derecho en los próximos años. La doctrina y la jurisprudencia comienzan ya a abordar esta cuestión, que será cada vez más habitual en los tribunales.

 

5. La dimensión ética. 
Más allá de la regulación jurídica, subyace un profundo debate sobre la ética de las máquinas. ¿Es posible programar en un sistema artificial los principios y valores que sustentan nuestra convivencia? ¿Podrían los sistemas autónomos, en busca de la optimización, prescindir de los límites éticos que las personas consideramos irrenunciables? Esta cuestión trasciende el ámbito técnico y jurídico, planteando interrogantes sobre el modelo de sociedad que queremos construir.

 

En conclusión, nos encontramos ante un escenario en el que el Derecho debe adaptarse de forma imaginativa y prudente al vertiginoso desarrollo de la inteligencia artificial. La función del jurista no debe limitarse a aplicar normas existentes, sino también a anticipar y configurar nuevas respuestas jurídicas que garanticen que la evolución tecnológica no socave los derechos y libertades fundamentales. En definitiva, se trata de garantizar que la potencia de las nuevas herramientas no imponga su propia ley, sino que continúe rigiéndose por los valores del Estado de Derecho. 
 

 

Autores: Octavio Gil, manager de Derecho digital