Les Efforts des Nations Unies pour la gouvernance de l’IA

À une époque où le développement technologique s’accélère à un rythme sans précédent, le système international fait face à un défi unique : comment gouverner une technologie qui ignore les frontières géographiques, dont les mécanismes internes ne sont pas entièrement compris, mais qui possède le pouvoir de remodeler l’ensemble du système international ? L’intelligence artificielle (IA), avec ses multiples applications et son potentiel immense, représente désormais un dilemme mondial de gouvernance qui dépasse les capacités des cadres réglementaires traditionnels.
En réponse à cette réalité, les Nations Unies ont agi le 21 mars 2024 en adoptant la première résolution mondiale sur l’IA, appelant à garantir des systèmes sûrs, fiables et respectueux des droits humains. Cela a été suivi en septembre 2024 par la publication du rapport « Gouverner l’IA pour l’humanité » du Groupe consultatif de haut niveau sur l’IA, puis, le 26 août 2025, par la création de deux nouveaux mécanismes de gouvernance mondiale : le Comité scientifique international indépendant sur l’IA et le Dialogue mondial sur la gouvernance de l’IA.
Ces initiatives reflètent une reconnaissance croissante que la technologie débridée nécessite une réponse organisée et globale ; elles soulèvent cependant une question centrale : les Nations Unies disposent-elles des outils pratiques pour maîtriser cette technologie, ou leurs efforts resteront-ils limités face aux forces du marché et à la concurrence géopolitique intense entre les États-Unis, la Chine et l’Union européenne ?
Le fossé réglementaire
Le décalage entre le développement technologique rapide et la lenteur de la réponse réglementaire constitue l’un des défis majeurs pour la communauté internationale dans le domaine de l’IA. Malgré l’existence de centaines de cadres et de directives adoptés par les gouvernements, les entreprises et les organisations internationales, ces dispositifs présentent des lacunes fondamentales : représentation, coordination et mise en œuvre.
Selon le rapport du Groupe consultatif de haut niveau des Nations Unies, 118 pays, pour la plupart dans le Sud global, ne participent à aucune des principales initiatives internationales de gouvernance de l’IA, tandis que seulement sept pays (Canada, France, Allemagne, Italie, Japon, Royaume-Uni et États-Unis) participent à toutes. Cette exclusion généralisée affaiblit la légitimité et l’efficacité de tout cadre mondial de gouvernance et risque de diviser le monde en systèmes disparates et incompatibles.
Le problème est aggravé par l’absence de coordination entre les initiatives existantes, tant au niveau international qu’au sein même du système des Nations Unies. Alors que des agences telles que l’Union internationale des télécommunications, l’UNESCO et le Bureau des droits de l’homme traitent différents aspects de l’IA, il n’existe pas de cadre global coordonnant ces efforts.
La situation est encore plus complexe sachant que la plupart des engagements actuels sont volontaires, sans mécanismes clairs de responsabilité ou d’exécution. Cela signifie que le discours éthique sur l’IA, malgré son importance, reste souvent éloigné de la pratique réelle, laissant un écart dangereux entre ambitions déclarées et application concrète.
Modèles divergents
Au niveau régional, des tentatives ambitieuses ont émergé pour combler le vide en matière de gouvernance, notamment la loi européenne sur l’IA, entrée en vigueur le 1er août 2024. Cette loi représente le premier cadre réglementaire global et adopte une approche basée sur les risques : elle interdit certains systèmes d’IA « inacceptables » (comme les systèmes de notation sociale globale) et impose des exigences strictes aux systèmes « à haut risque » (utilisés dans l’emploi, l’éducation et la justice pénale). Cependant, cette approche pionnière fait face à d’énormes défis de mise en œuvre, notamment la conciliation des législations nationales au sein de l’Union, l’assurance du respect par les entreprises dans les délais et la rapidité d’évolution de la technologie, qui peut rendre certaines dispositions obsolètes avant leur application complète.
En revanche, la Chine adopte un modèle axé sur la sécurité nationale et la stabilité sociale. Le 9 septembre 2024, citant un document du cabinet DLA Piper, la Chine a publié le Cadre de gouvernance sécuritaire de l’IA via son Comité national de cybersécurité (TC260), et le 26 juillet 2025, a lancé le Plan d’action pour la gouvernance mondiale de l’IA. Cette approche se concentre sur la surveillance du contenu généré par les systèmes d’IA générative, la conformité avec les « valeurs socialistes fondamentales », et la gestion des risques d’usage abusif et de perte de contrôle, notamment pour les systèmes open-source.
Les États-Unis adoptent une approche plus fragmentée, fondée sur une législation sectorielle et des initiatives volontaires de l’industrie, mettant l’accent sur la compétitivité et l’innovation. Ces modèles de gouvernance divergents reflètent non seulement des différences techniques, mais aussi des contradictions politiques et de valeurs fondamentales, rendant difficile la création d’un cadre mondial unifié.
Initiatives ambitieuses des Nations Unies
Face à ces modèles de gouvernance variés, l’ONU a proposé dans son rapport de septembre 2024 une vision globale pour la gouvernance de l’IA, fondée sur sept recommandations principales visant à atteindre un « compréhension partagée, terrain commun et bénéfices partagés ».
- Créer un Comité scientifique international indépendant sur l’IA, à l’image du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), pour fournir des évaluations scientifiques impartiales sur les capacités, opportunités et risques de l’IA. Ce comité produirait un rapport annuel complet, des résumés trimestriels sur les domaines prioritaires et des rapports d’urgence pour les risques émergents, afin de combler le fossé d’information entre les laboratoires avancés et le reste du monde.
- Lancer un Dialogue politique mondial sur la gouvernance de l’IA, deux fois par an, en marge de l’Assemblée générale, avec la participation de tous les pays et parties prenantes. Cela a été partiellement réalisé en septembre 2025 avec le lancement du Dialogue mondial sur la gouvernance de l’IA, l’un des deux nouveaux mécanismes créés par l’Assemblée générale. Le second mécanisme est le Comité scientifique international indépendant sur l’IA, chargé des évaluations scientifiques régulières. Ce dialogue vise à partager les meilleures pratiques, améliorer l’harmonisation entre les cadres réglementaires et relever les défis transfrontaliers.
- Créer une Plateforme d’échange sur les normes de l’IA pour gérer l’explosion des normes techniques (de 6 en 2018 à 117 mi-2024 via ISO, ITU et IEEE), et assurer une terminologie commune pour les concepts clés comme « équité », « transparence » et « sécurité ».
4–6. Propositions sur les bénéfices partagés :
- Un Réseau de développement des capacités reliant les centres d’excellence régionaux et nationaux pour fournir formation, expertise et ressources de calcul aux chercheurs et entrepreneurs sociaux, surtout dans les pays à ressources limitées.
- Un Fonds mondial pour l’IA offrant un soutien financier et matériel (ressources de calcul, modèles, données d’entraînement) aux pays incapables d’accéder à ces moyens, visant à réduire la fracture numérique.
- Un Cadre mondial pour les données d’entraînement de l’IA pour traiter la disponibilité, l’interopérabilité et l’usage équitable, en protégeant la vie privée, en promouvant la diversité culturelle et linguistique et en évitant la concentration économique.
- Créer un Bureau de l’IA au sein du Secrétariat des Nations Unies, léger et flexible, servant de « pont » reliant toutes les initiatives. Relevant directement du Secrétaire général, il coordonnerait l’action de l’ensemble du système des Nations Unies, dialoguerait avec les parties prenantes et conseillerait sur les questions émergentes, en tirant parti des capacités existantes sans créer une lourde bureaucratie.
Lors de l’Assemblée générale de septembre 2025, la lauréate du prix Nobel de la paix Maria Ressa a souligné la campagne AI Red Lines, appelant les gouvernements à s’unir « pour prévenir les risques inacceptables à l’échelle mondiale ». Plus de 200 personnalités politiques et scientifiques, dont 10 lauréats du Nobel, ont signé.
Le Conseil de sécurité a également débattu publiquement de l’IA, paix et sécurité internationales, reconnaissant que l’IA recèle à la fois opportunités et dangers, qu’elle n’est plus de la science-fiction, et qu’il est urgent de mettre en place des régulations internationales, notamment pour les armes autonomes et nucléaires.
Défis majeurs
Malgré ces ambitions, les efforts de l’ONU font face à des défis structurels profonds :
- Vitesse : L’IA évolue plus rapidement que les institutions internationales. Entre la proposition et la mise en œuvre d’un cadre réglementaire, la technologie peut avoir déjà largement progressé.
- Souveraineté : Les grandes puissances, notamment les États-Unis et la Chine, considèrent l’IA comme un actif stratégique et hésitent à accepter des limites internationales pouvant affaiblir leur avantage compétitif.
- Inégalités de pouvoir : Le développement de l’IA avancée nécessite des ressources informatiques massives, de grandes quantités de données et des compétences rares, concentrées dans peu de pays et entreprises. Cela risque de créer un « colonialisme algorithmique », où les pays sans capacités locales deviennent dépendants des producteurs technologiques. Les propositions de l’ONU, comme le Fonds mondial et le Réseau de développement des capacités, tentent de réduire cette fracture, mais le défi reste immense.
- Problématiques éthiques et légales : L’usage de l’IA dans les armes autonomes (LAWS) reste une question controversée. En novembre 2024, 161 pays ont voté une résolution de l’Assemblée générale sur les LAWS, exprimant leur inquiétude face aux nouvelles technologies militaires. Le Secrétaire général a appelé à un cadre réglementaire complet d’ici 2026, incluant l’interdiction totale de certains systèmes, mais les grandes puissances militaires hésitent à accepter des contraintes contraignantes, rendant un traité efficace très difficile. En décembre 2024, le Conseil de sécurité a débattu de l’IA dans les conflits, mais les divisions géopolitiques profondes ont empêché un accord concret.
Scénarios futurs
Plusieurs trajectoires possibles pour la gouvernance internationale de l’IA se dessinent :
- Gouvernance multipolaire : Efforts indépendants de l’UE, de la Chine, des États-Unis, etc., conduisant à un réseau interconnecté de cadres variés. Moins ambitieux qu’une gouvernance mondiale, mais peut-être le plus réaliste, conforme à l’approche « réseau flexible » de l’ONU.
- Fragmentation de la gouvernance : Échec de la coordination internationale, division du monde en blocs technologiques concurrents, imposant leurs propres normes et valeurs. Cela ressemble à une « guerre froide technologique », avec duplication d’efforts et risque de « course vers le bas » en sécurité et éthique.
- Agence internationale pour l’IA : À l’image de l’AIEA, une agence globale avec pouvoir de définition de normes, contrôle, vérification, application et intervention d’urgence. Cela nécessite un consensus politique énorme, des ressources massives et beaucoup de temps.
- Domination du secteur privé : Les grandes entreprises technologiques déterminent l’avenir de l’IA, avec une régulation limitée et une coordination internationale faible. Ce scénario soulève des inquiétudes sur la responsabilité, la concentration de pouvoir et la protection de l’intérêt public.
Conclusion
Les efforts de l’ONU pour fixer des limites à l’IA représentent une étape nécessaire pour relever l’un des défis de gouvernance les plus complexes de notre époque. Les propositions du Groupe consultatif de haut niveau – du Comité scientifique international au Fonds mondial – montrent une compréhension profonde du défi multidimensionnel. Le succès dépend toutefois de facteurs allant au-delà de la conception institutionnelle : volonté politique des grandes puissances, engagement durable pour le multilatéralisme, ressources suffisantes pour combler la fracture numérique, et mécanismes efficaces de responsabilité.
Face aux tensions géopolitiques croissantes, aux intérêts économiques considérables et à l’évolution rapide de la technologie, la question demeure ouverte : l’ONU parviendra-t-elle à transformer ses ambitions en réalité, ou l’IA débridée continuera-t-elle à dépasser les capacités de la gouvernance traditionnelle ? Une chose est sûre : la réponse façonnera fondamentalement le système international dans les décennies à venir, déterminant si l’IA sera un outil de progrès partagé ou une source d’aggravation des divisions et inégalités mondiales.



