Vers un « GIEC » de l’intelligence artificielle ? 28 pays signent un accord

 
28 pays ont signé la déclaration de Bletchley lors d’un sommet sur la sécurité de l’intelligence artificielle. De quoi aller vers plus de coopération, notamment avec des groupes de travail internationaux pour prévenir des dangers de l’IA.
Une image générée par Midjourney avec un prompt demandant une illustration d’intelligence artificielle // Source : Frandroid

Les 1er et 2 novembre, 28 représentants gouvernementaux et la présidente de la Commission européenne étaient réunis au Royaume-Uni afin de signer la déclaration de Bletchley à l’occasion du sommet sur la sécurité de l’intelligence artificielle. Les accords pourraient entraîner la création de groupes de travail internationaux dédiés à la question de l’IA, à l’instar du GIEC avec le réchauffement climatique.

Un accord rempli de généralités, mais une première étape

Ces différents États déclarent que « l’IA doit être conçue, développée, déployée et utilisée en toute sécurité, de manière à être centrée sur l’être humain, digne de confiance et responsable. » D’un commun accord, ils précisent savoir que l’IA pose des questions sur la protection des droits de l’homme ainsi que de l’éthique, et que l’intelligence artificielle pose des risques imprévus délibérés ou involontaires « découlant de la capacité à manipuler le contenu ou à générer du contenu trompeur. » Des questions « d’une importance cruciale » et qui doivent être traitées urgemment pour les signataires. C’est donc « notre compréhension de ces risques potentiels et des mesures à prendre pour y faire face » qui doivent être les priorités dans les politiques publiques des États signataires.

La photo des représentants des pays signataires de la déclaration de Bletchley // Source : Bruno Le Maire via X

Dans le texte de la déclaration, la responsabilité des dangers des modèles d’IA est imputée à ceux qui les développent. Par exemple, si ChatGPT commet des fautes, c’est à cause d’OpenAI ; de même pour Google avec Bard. Selon la déclaration, l’IA offre des possibilités pour le service public, y compris dans le « renforcement des efforts visant à atteindre les objectifs de développement durable des Nations unies. » Pour y arriver, tout le monde est convié : nations, instances internationales, entreprises, société civile et monde universitaire.

Pour ces 28 pays, jusqu’à maintenant, tout s’est bien déroulé

Un autre élément issu de la déclaration semble dénoter : tous les pays s’accordent à dire que la communauté internationale a fait ce qu’il fallait afin de « promouvoir une croissance économique inclusive, le développement durable et l’innovation, de protéger les droits de l’homme et les libertés fondamentales, et de favoriser la confiance du public dans les systèmes d’IA afin qu’ils réalisent pleinement leur potentiel. »

L’AI Safety Summit // Source : Bruno Le Maire via X

Les signataires voient en l’IA une opportunité pour « soutenir la croissance durable et combler le fossé du développement. » Néanmoins, les grandes entreprises spécialisées sont pour la plupart américaines et la recherche se concentre outre-Atlantique ainsi qu’en Chine. Le secrétaire général de l’ONU, António Guterres, rappelle qu’un rapport d’Oxford Insights de 2022 révèle « qu’aucun pays africain ne figure parmi les 50 premiers en matière de préparation à l’IA » et que « vingt-et-un des vingt-cinq pays les moins bien notés sont africains. »

Le Premier ministre britannique Rishi Sunak // Source : Rishi Sunak via X

L’Europe aussi a beaucoup à jouer dans l’IA, comme l’assume pleinement le Gouvernement français. Pour Bruno Le Maire, ministre de l’économie français présent au sommet de Londres, « nous ne devons pas répéter les erreurs de la dernière révolution technologique des années 1990. » C’est pourquoi il a appelé l’UE à « innover avant de réguler. »

Les engagements des États signataires

La déclaration de Bletchley précise que les risques de l’IA sont internationaux et que « la meilleure façon de les traiter est donc de recourir à la coopération internationale. » Les 28 pays disent vouloir y arriver « par le biais des instances internationales existantes et d’autres initiatives pertinentes ». Ainsi, des groupes de travail pourraient créer des « catégorisations de risques basées sur les circonstances nationales et les cadres juridiques applicables. » La déclaration mentionne également la possibilité d’adopter des principes communs ainsi que des codes de conduite.

Une image générée par Midjourney après lui avoir demandé d’illustrer une IA participant à un salon tech // Source : Frandroid

L’initiative la plus large et la plus avancée à l’heure actuelle est sans doute l’AI Act, une législation européenne dédiée à l’intelligence artificielle et qui est en cours de vote au Parlement européen. Par ailleurs, l’Union européenne fait partie des signataires de la déclaration aux côtés de l’Australie, du Brésil, du Canada, du Chili, de la Chine, de la France, de l’Allemagne, de l’Inde, de l’Indonésie, de l’Irlande, d’Israël, de l’Italie, du Japon, du Kenya, de l’Arabie saoudite, des Pays-Bas, du Nigeria, des Philippines, de la Corée du Sud, du Rwanda, de Singapour, de l’Espagne, de la Suisse, de la Turquie, de l’Ukraine, des Émirats arabes unis, du Royaume-Uni et des États-Unis.

Un sommet décrié par certains acteurs privés…

La veille du Sommet, une lettre ouverte a été adressée au Premier ministre britannique, Rishi Sunak, qui accueillait le sommet. Signée par une centaine d’organisations expertes et militantes internationales, dont des syndicats de travailleurs, elle déplore leur mise à l’écart. Parmi les signataires, on trouve la fondation Mozilla, l’Open Rights Group, Amnesty International, la Confédération européenne des syndicats (qui comprend en France la CFDT, la CGT ou encore FO), ou encore l’Open Data Institute.

Deux IA, représentées par des robots, s’affrontent // Source : Image créée par Frandroid avec Midjourney

Selon elles, leur participation a été « sélective et limitée » et le sommet est une « occasion manquée. » D’ailleurs, le contenu du sommet aussi est mis en cause : il serait « excessivement axé sur la spéculation concernant les « risques existentiels » lointains des systèmes d’IA « pionniers » ». La lettre insiste sur le fait que des travailleurs sont licenciés à cause des progrès de l’IA et que ces progrès sont contrôlés par « une poignée de grandes entreprises technologiques » qui « acquièrent encore plus de pouvoir et d’influence. »

… mais pas par tous

De l’autre côté, les grandes entreprises du numérique, notamment celles spécialisées en IA, se sont montrées plus collaboratives à l’égard du Sommet. Par exemple, OpenAI a annoncé la création d’une équipe de « préparation » face aux risques liés à l’IA. Elle « contribuera au suivi, à l’évaluation, à la prévision et à la protection contre les risques catastrophiques couvrant de multiples catégories ». Google aussi joue le jeu en indiquant élargir son programme de récompense pour ceux qui trouvent des vulnérabilités dans ses modèles d’IA afin d’encourager « la recherche sur la sûreté et la sécurité de l’IA ». Enfin du côté de Microsoft, on se contente de rappeler ses « politiques et pratiques en matière de sécurité de l’IA ».

La réaction de Sam Altman // Source : Sam Altman via X

Un jeu tout de même contraint par un décret de la Maison-Blanche publié ce 30 octobre. Parmi les obligations qu’il pose aux entreprises qui développent des modèles d’AI, il y a celle du partage des résultats des tests de sécurité avec le gouvernement américain. D’ailleurs, le PDG d’OpenAI, Sam Altman, s’est montré critique envers le décret : s’il est « favorable à la réglementation des systèmes », il se prononce également « contre la capture réglementaire ». Dans une publication sur X, il appuie sur le fait qu’il ne faut « pas ralentir l’innovation des petites entreprises/équipes de recherche. »

Vers un GIEC dédié à l’IA ?

Le modèle du GIEC semble avoir fait ses preuves sur la question environnementale, grâce à la réalisation et à la synthèse de nombreuses études et à la création d’un consensus scientifique. Ce même modèle pourrait être répliqué à propos de l’IA. C’est ce vers quoi semble tendre la déclaration de Bletchley : elle soutient « un réseau de recherche scientifique sur la sécurité de l’IA » venant renforcer les collaborations internationales. Le tout dans le but de « faciliter la mise à disposition des meilleures connaissances scientifiques disponibles pour l’élaboration des politiques et de l’intérêt général. »

Le GIEC est cependant une initiative à l’origine de l’Organisation des Nations Unies. Ça tombe bien, son secrétaire général António Guterres était présent au sommet. Dans une déclaration, il reconnaît lui aussi que « le fossé entre l’IA et sa gouvernance est large et ne cesse de se creuser. » Pour António Guterres, « les principes de gouvernance de l’IA devraient être fondés sur la Charte des Nations unies et sur la Déclaration universelle des Droits de l’Homme. »

Le Secrétaire général de l’ONU António Guterres // Source : Photo ONU / Manuel Elías

C’est pourquoi le secrétaire général de l’ONU a annoncé il y a quelques jours la création d’un organisme consultatif dédié à l’IA : pour l’ONU, c’est une étape importante dans ses efforts de résolution des problèmes de gouvernance internationale de l’IA. Cet organisme est composé d’« experts gouvernementaux, du secteur privé, de la communauté scientifique, de la société civile et du monde universitaire ». L’un des objectifs de cet organisme est justement de « bâtir un consensus scientifique mondial sur les risques et les défis » de l’IA. Cet organisme n’a donc pas la même forme que le GIEC, mais s’en rapproche sur certains points.

Un calendrier a d’ores et déjà été révélé : le comité publiera des recommandations préliminaires cette année, avant des recommandations finales pour l’été 2024. Le but : être prêt pour le Sommet de l’avenir en septembre 2024, mais également pour le prochain sommet international dédié à l’IA.

Un prochain sommet de l’IA dès l’année prochaine, en France

Dans un communiqué du ministère de l’Économie, on apprend que la France accueillera le prochain Sommet sur la sécurité de l’intelligence artificielle, qui aura lieu à Paris en 2024. Mais avant, un mini-sommet virtuel sera organisé dans six mois par la Corée du Sud. De quoi préparer le « vrai » sommet français.

L’objectif de ce futur sommet sera d’intensifier et d’élargir la coopération autour de l’IA suite à cette déclaration. On peut imaginer que d’autres pays pourraient se joindre, si ce premier bilan d’étape, au Royaume-Uni, s’est montré suffisamment concluant.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.

Les derniers articles