Publicado el 6 de octubre de 2025

Gobernanza internacional de la IA: un deber que no puede esperar

La gobernanza internacional de la IA es necesaria porque su impacto está siendo global pero su regulación no. Por suerte, asistimos a grandes avances.
Gobernanza internacional de la IA

La gobernanza internacional de la IA (inteligencia artificial) es una asignatura pendiente que está cobrando especial relevancia en el escenario internacional. El porqué es evidente: el crecimiento exponencial de las herramientas de IA en todo el mundo aún no ha sido sujeto a unas reglas internacionales sobre cómo gobernar esta poderosa tecnología para que sea en beneficio de todos, sin riesgos.

El 80% de los líderes empresariales ven la ética, el sesgo, la confianza o la escasa explicabilidad de la IA como un obstáculo importante para la adopción de la IA generativa, según IBM Institute for Business Value. No es difícil concluir que establecer marcos legales y, más aún, políticas de gobernanza globales para los servicios de la IA, contribuirá con mucho a encarar el desafío. Numerosos países llevan años definiendo dichos marcos y políticas, pero no desde un enfoque de puesta en común y cooperación a nivel mundial.

Un informe de la ONU de 2024 encontró que 118 países no eran parte de ninguna de las importantes iniciativas de gobernanza de IA teóricamente internacionales. Y solo siete naciones, todas del mundo desarrollado, eran parte de todas ellas.

A fin de revertir esta situación, están surgiendo nuevas iniciativas que pretenden impulsar la puesta en marcha de una política de gobernanza internacional de la IA. A diario se presentan nuevos proyectos cuya meta, en última instancia, es la promesa de un futuro de IA al servicio de la humanidad.

Cabe destacar, como veremos en detalle a continuación, que España cuenta con una importante trayectoria en lo que se refiere a iniciativas en este campo: el sandbox de IA y la Agencia Española de Supervisión de Inteligencia Artificial (AESIA).

Iniciativas de gobernanza de la IA en España y Europa

España se convirtió en abril en el primer Estado miembro de la UE en lanzar oficialmente su Sandbox Regulatorio de IA, anticipándose en más de un año al plazo establecido en el Reglamento europeo. 

Nuestro país ya tomó la iniciativa anteriormente, primero con la aprobación del Reglamento de IA y después con la creación de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Esta, con un presupuesto de 25 millones de euros para 2025, pretende no solo ser una autoridad regulatoria, sino también el arquitecto de la gobernanza nacional para una IA ética y responsable.

Por su parte, el Sandbox de IA es un entorno de pruebas regulado para sistemas de IA de alto riesgo. Está diseñado para ayudar a empresas, especialmente pymes y startups, a adaptarse al futuro Reglamento Europeo de IA, primera regulación del mundo en la materia (presentada en abril de 2021).

Y es que los datos son esclarecedores: el 78% de las empresas españolas considera la incertidumbre regulatoria como el principal obstáculo para la adopción de IA. 

Además, el 65% de las pymes carece de recursos para navegar el complejo marco normativo europeo. El sandbox español pretende dar respuesta definitiva a estos retos, ofreciendo un entorno controlado en el que unir la innovación al cumplimiento normativo.

Según el organismo, las empresas participantes reportan una aceleración del 60% en los tiempos de desarrollo de productos de IA. También una reducción del 40% en los costes de evaluación de conformidad.

Adicionalmente, el sandbox español sirve como banco de pruebas para la Comisión Europea: proporciona datos empíricos que informarán las futuras directrices de implementación del reglamento en toda la UE.

También en Europa, destaca Reino Unido, que ha promovido la Declaración de Bletchley. Es un acuerdo de responsabilidad compartida sobre los riesgos y oportunidades de la IA, con un procedimiento para la colaboración internacional en materia de seguridad e investigación en la llamada IA de frontera (Frontier AI), en particular a través de una mayor colaboración científica. 

La IA de frontera se refiere a los modelos de IA más avanzados que existen, aquellos que pueden igualar o superar el rendimiento humano en gran cantidad de tareas diversas.

Iniciativas de gobernanza de la IA en América

En Norteamérica, Estados Unidos ha sido el impulsor del Marco de Gestión de Riesgos de IA de NIST, ampliamente conocido. Pese a ello, el enfoque actual de la Administración de Trump y su Plan de acción de IA se define por un carácter desregulatorio que apuesta por acelerar la innovación. En cambio, Canadá cuenta con su propia directiva de gobernanza, en una postura mucho más cercana a la orientación europea. 

Muy alineado con el posicionamiento europeo está también el sur de América. Para la UE, la Alianza Digital Unión Europea – América Latina y Caribe (ALC) es uno de los pilares de la estrategia digital en la región. Esta Alianza promueve el interés conjunto de ambas regiones en un modelo de transformación digital centrado en el ser humano, incluyendo a la IA.

Países como Chile, Brasil o Uruguay cuentan con políticas nacionales de IA muy robustas, sobre todo el primero. Otros como República Dominicana y Perú, aunque muy limitados en I+D y adopción de la tecnología, muestran cierto nivel en materia de gobernanza. Por el contrario, numerosos países de la región continúan en fase embrionaria (Bolivia, Cuba…).

En el medio se encuentran países como Argentina, Colombia y México, que están en una fase temprana. México tiene un buen desempeño en investigación, desarrollo y adopción de IA… Pero en gobernanza precisamente es donde muestra mayor debilidad, según el Índice Latinoamericano de Inteligencia Artificial (ILIA). También destaca, junto a Brasil, en cantidad de empresas unicornio y en tasas de patentamiento, lo que refleja un entorno de innovación más consolidado.

Iniciativas de organismos internacionales para la gobernanza de la IA

A nivel internacional, el G7 promovió sus Principios Rectores Internacionales para Organizaciones que Desarrollan Sistemas Avanzados de IA. Por su parte, la OCDE, concretó y publicó sus Principios de IA. En el caso de UNESCO, su herramienta principal es la Recomendación sobre la ética de la inteligencia artificial de 2021. Pero es la ONU la que sin duda destaca por su iniciativa.

El pasado 25 de septiembre, la ONU reunió por primera vez a sus 193 países miembro para dar forma a la cooperación internacional en gobernanza de la IA. Para ello, cuentan con dos nuevos organismos diseñados para impulsar una gobernanza internacional inclusiva para abordar los retos que plantea esta tecnología y garantizar que beneficie a todos. 

  • Diálogo Global sobre Gobernanza de IA. Un espacio común para que gobiernos, industria, sociedad civil y científicos intercambien experiencia, casos de éxito y mejores prácticas. Esto fomenta un conocimiento común, basado en principios compartidos.
  • Panel Científico Internacional Independiente sobre IA. Ofrecerá orientación imparcial y basada en evidencia sobre riesgos, oportunidades e impactos de la IA. Ayudará a garantizar que la formulación de políticas se base en evaluaciones científicas independientes. Se elaborará un informe anual, a presentar en la reunión anual del Diálogo.

Ambos organismos surgieron de recomendaciones del Órgano Asesor sobre Inteligencia Artificial en 2024.

Necesidad de una gobernanza internacional de la IA

La gobernanza de la IA se refiere a un marco de principios, procesos y regulaciones que guían el desarrollo y uso ético y responsable de los sistemas de inteligencia artificial. 

Su objetivo es controlar riesgos como sesgos, discriminación y violaciones de privacidad, entre otros. La meta es asegurar que la IA opere de forma segura, transparente y alineada con valores humanos y normativas legales. 

La importancia de una gobernanza internacional viene dada por una serie de principios básicos necesarios en la implementación y uso de la IA a escala mundial:

  • Minimizar riesgos: no solo mitigar los sesgos arriba mencionados, sino también prevenir daños y usos indebidos de la tecnología. Se trata de hacer esta tecnología segura e inofensiva para las personas.
  • Fomentar la confianza: generar confianza entre usuarios, empleados y otras partes implicadas, haciendo comprensible para todos el funcionamiento de la IA. También haciendo que los sistemas sean seguros frente a errores o ataques.
  • Impulsar la responsabilidad en la innovación tecnológica: fomentar el aprovechamiento del potencial de la IA de forma responsable. Esto es, asegurando la protección de datos y la prevención de usos malintencionados. En este sentido, es clave establecer quién es responsable de las decisiones y resultados generados por la IA. 
  • Cumplimiento legal: evitar riesgos legales y reputacionales por el incumplimiento de regulaciones. La IA también debe estar sujeta a leyes, como el Reglamento General de Protección de Datos (GDPR) o la Ley de IA de la UE.

Así, los pilares sobre los que se asienta la gobernanza de la IA son:

  • Ética y equidad. 
  • Transparencia y explicabilidad. 
  • Cumplimiento normativo. 
  • Seguridad y robustez.
  • Rendición de cuentas.

A todo ello se añade, en último lugar, la supervisión y evaluación continua. Son necesarios mecanismos que puedan monitorizar el correcto desempeño de los sistemas de IA. Esto es, asegurar que se mantengan alineados con todos los principios y pilares arriba mencionados.

Artículos relacionados

Plan Estatal de Vivienda 2026-2030

Plan Estatal de Vivienda 2026-2030

El Plan Estatal de Vivienda 2026-2030 se enfoca en el desarrollo de la vivienda pública y en la rehabilitación energética de las viviendas.

Suscríbete a nuestro newsletter

"*" señala los campos obligatorios

Datos del solicitante

Datos de contacto

Nombre y Apellidos*