Qué se debate en el ámbito de la gobernanza global de la IA

Qué se discute en la gobernanza internacional de la IA

La gobernanza internacional de la inteligencia artificial (IA) reúne a gobiernos, organizaciones internacionales, empresas, academia y sociedad civil para definir reglas, normas y mecanismos que orienten el desarrollo y uso de estas tecnologías. Los debates combinan cuestiones técnicas, éticas, económicas, de seguridad y geopolíticas. A continuación se presentan los temas centrales, ejemplos concretos y mecanismos que se proponen o aplican en distintos foros.

Amenazas para la seguridad y la integridad

La preocupación por la seguridad incluye fallos accidentales, usos maliciosos y consecuencias estratégicas a gran escala. Entre los puntos clave están:

  • Riesgos sistémicos: posibilidad de que modelos muy potentes actúen de forma imprevisible o escapen a controles, afectando infraestructuras críticas.
  • Uso dual y militarización: aplicación de IA en armas, vigilancia y ciberataques. En foros de la ONU y del Convenio sobre Ciertas Armas Convencionales se discute cómo regular o prohibir sistemas de armas completamente autónomas.
  • Reducción del riesgo por diseño: prácticas como pruebas adversarias, auditorías de seguridad, y exigencia de evaluaciones de riesgo antes del despliegue.

Ejemplo: en el escenario multilateral se debate la formulación de reglas obligatorias relacionadas con SALA (sistemas de armas letales autónomas) y la implementación de mecanismos de verificación destinados a impedir su proliferación.

Derechos humanos, privacidad y vigilancia

La IA genera desafíos para los derechos civiles y las libertades públicas:

  • Reconocimiento facial y vigilancia masiva: posible debilitamiento de la privacidad y aparición de sesgos. Diversos países y la Unión Europea analizan imponer límites o pausas a su implementación a gran escala.
  • Protección de datos: gestión responsable de grandes conjuntos de información para entrenar modelos, junto con aspectos de consentimiento, reducción de datos y procesos de anonimización.
  • Libertad de expresión e información: sistemas de moderación automatizada, creación de contenido engañoso y deepfakes que pueden influir en dinámicas democráticas.

Caso: la proliferación de campañas de desinformación impulsadas por la generación automática de contenido ha desencadenado discusiones en foros electorales y ha motivado propuestas que buscan imponer obligaciones de transparencia respecto al empleo de sistemas generativos dentro de las campañas.

Equidad, no discriminación y inclusión

Los modelos pueden reproducir o amplificar sesgos existentes si los datos de entrenamiento no son representativos:

  • Discriminación algorítmica: evaluaciones independientes, métricas de equidad y mecanismos de reparación.
  • Acceso y desigualdad global: riesgo de concentración de capacidad tecnológica en pocos países o empresas; necesidad de transferencia de tecnología y cooperación para capacidades locales.

Dato y ejemplo: diversas investigaciones han evidenciado que los modelos formados con información sesgada ofrecen un rendimiento inferior para los colectivos menos representados; por esta razón, crece la demanda de iniciativas como las evaluaciones de impacto social y los requisitos de pruebas públicas.

Claridad, capacidad de explicación y seguimiento

Los reguladores discuten cómo garantizar que sistemas complejos sean comprensibles y auditables:

  • Obligaciones de transparencia: informar cuando una decisión automatizada afecta a una persona, publicar documentación técnica (fichas del modelo, orígenes de datos) y facilitar mecanismos de recurso.
  • Explicabilidad: niveles adecuados de explicación técnica para distintos públicos (usuario final, regulador, tribunal).
  • Trazabilidad y registro: bitácoras de entrenamiento y despliegue para permitir auditorías posteriores.

la propuesta legislativa de la Unión Europea organiza los sistemas por niveles de riesgo y requiere que se entregue documentación exhaustiva para aquellos que se catalogan como de alto riesgo

Responsabilidad jurídica y cumplimiento

La asignación de responsabilidades ante daños generados por IA es un tema central:

  • Regímenes de responsabilidad: debate entre responsabilidad del desarrollador, del proveedor, del integrador o del usuario final.
  • Certificación y conformidad: modelos de certificación previa, auditorías independientes y sanciones por incumplimiento.
  • Reparación a las víctimas: mecanismos rápidos para compensación y remediación.

Datos normativos: la propuesta de la UE prevé sanciones ajustadas a la gravedad, incluidas multas de gran envergadura ante incumplimientos en sistemas clasificados como de alto riesgo.

Derechos de propiedad intelectual y disponibilidad de datos

El uso de contenidos para entrenar modelos ha generado tensiones entre creación, copia y aprendizaje automático:

  • Derechos de autor y recopilación de datos: litigios y solicitudes de claridad sobre si el entrenamiento constituye uso legítimo o requiere licencia.
  • Modelos y datos como bienes estratégicos: debates sobre si imponer licencias obligatorias, compartir modelos en repositorios públicos o restringir exportaciones.

Caso: varios litigios recientes en distintos países cuestionan la legalidad de entrenar modelos con contenidos protegidos, impulsando reformas legales y acuerdos entre sectores.

Economía, empleo y competencia

La IA puede transformar mercados, trabajos y estructuras empresariales:

  • Sustitución y creación de empleo: estudios muestran efectos heterogéneos: algunas tareas se automatizan, otras se complementan; políticas activas de formación son clave.
  • Concentración de mercado: riesgo de monopolios por control de datos y modelos centrales; discusión sobre políticas de competencia y interoperabilidad.
  • Impuestos y redistribución: propuestas para impuestos sobre beneficios derivados de automatización o para financiar protección social y reentrenamiento.

Ejemplo: variantes regulatorias incluyen incentivos fiscales para inversiones en capacitación y cláusulas en contratos públicos que favorezcan proveedores locales.

Sustentabilidad del entorno

El impacto energético y material asociado al entrenamiento y funcionamiento de los modelos se encuentra sujeto a regulaciones y prácticas recomendadas:

  • Huella de carbono: la preparación de modelos de gran escala puede requerir un uso considerable de energía; se debaten métricas y posibles límites.
  • Optimización y transparencia energética: adopción de sistemas de eficiencia, divulgación del consumo y transición hacia infraestructuras alimentadas con fuentes renovables.

Estudio relevante: diversos análisis han puesto de manifiesto que entrenar modelos de lenguaje de manera intensiva puede llegar a producir emisiones comparables a decenas o incluso cientos de toneladas de CO2 cuando el proceso no se optimiza adecuadamente.

Normas técnicas, estándares y interoperabilidad

La adopción de estándares facilita seguridad, confianza y comercio:

  • Marco de normalización: desarrollo de estándares técnicos internacionales sobre robustez, interfaces y formatos de datos.
  • Interoperabilidad: garantizar que sistemas distintos puedan cooperar con garantías de seguridad y privacidad.
  • Rol de organismos internacionales: OCDE, UNESCO, ONU, ISO y foros regionales participan en la armonización normativa.

Ejemplo: la OCDE elaboró una serie de principios sobre la IA que se han convertido en una guía para numerosas políticas públicas.

Procesos de verificación, observancia y coordinación multilateral

Sin mecanismos de verificación sólidos, las normas quedan como simples declaraciones:

  • Inspecciones y auditorías internacionales: se plantean observatorios multilaterales que monitoreen el cumplimiento y difundan información técnica.
  • Mecanismos de cooperación técnica: apoyo para naciones con menor capacidad, intercambio de buenas prácticas y recursos destinados a reforzar la gobernanza.
  • Sanciones y medidas comerciales: debate sobre restricciones a la exportación de tecnologías delicadas y acciones diplomáticas frente a eventuales incumplimientos.

Caso: las limitaciones impuestas al comercio de semiconductores ilustran cómo la tecnología de IA puede transformarse en un asunto de política comercial y de seguridad.

Instrumentos normativos y recursos aplicados

Las respuestas normativas pueden adoptar formatos rígidos o enfoques más adaptables:

  • Regulación vinculante: normas nacionales o regionales que establecen deberes y contemplan sanciones (por ejemplo, una propuesta legislativa dentro de la Unión Europea).
  • Autorregulación y códigos de conducta: lineamientos promovidos por empresas o asociaciones que suelen ofrecer mayor rapidez, aunque con requisitos menos estrictos.
  • Herramientas de cumplimiento: análisis de impacto, auditorías externas, sellos de conformidad y espacios regulatorios de prueba destinados a evaluar nuevas políticas.

Gobernanza democrática y participación de la ciudadanía

La legitimidad de las reglas depende de la inclusión:

  • Procesos participativos: consultas públicas, comités de ética y representación de comunidades afectadas.
  • Educación y alfabetización digital: para que la ciudadanía entienda riesgos y participe en decisiones.

Ejemplo: iniciativas de consulta ciudadana en varios países han influido en requisitos de transparencia y límites al uso de reconocimiento facial.

Relevantes presiones en el escenario geopolítico

La búsqueda por liderar la IA conlleva riesgos de fragmentación:

  • Competencia tecnológica: estrategias de inversión, apoyos estatales y pactos que podrían originar ecosistemas tecnológicos separados.
  • Normas divergentes: marcos regulatorios distintos (desde posturas más estrictas hasta otras más flexibles) influyen en el comercio y en la colaboración global.

Resultado: la gobernanza global intenta conciliar la armonización regulatoria con la autonomía tecnológica.

Acciones y referencias multilaterales

Existen varias iniciativas que sirven de marco de referencia:

  • Principios de la OCDE: lineamientos orientadores sobre la IA confiable.
  • Recomendación de la UNESCO: marco ético para orientar políticas nacionales.
  • Propuestas regionales: la Unión Europea impulsa un reglamento centrado en riesgo y obligaciones de transparencia y seguridad.

Estas iniciativas reflejan cómo se entrelazan directrices no obligatorias con propuestas legislativas específicas que progresan a distintos ritmos.

La gobernanza internacional de la IA es un entramado dinámico que debe integrar exigencias técnicas, valores democráticos y realidades geopolíticas. Las soluciones efectivas requieren marcos normativos claros, capacidades de verificación creíbles y mecanismos

Por Susan Brown