L’un des grands dangers de l’IA générative, c’est qu’elle peut tromper les citoyens : c’est le constat de toutes les administrations publiques du monde. Par ailleurs, elles réfléchissent à mettre en place des obligations pour les entreprises commercialisant des outils d’IA. En réponse à cela, ces dernières commencent à s’engager pour davantage de transparence dans les contenus générés. C’est le cas d’OpenAI, Microsoft, Google, Meta, Amazon, Anthropic et Inflection. Ces sept entreprises ont signé un engagement volontaire auprès de l’administration Biden-Harris pour « le développement d’une IA responsable ».
Les grandes entreprises s’engagent à plus de transparence dans les contenus générés par leurs IA
Dans un communiqué, la Maison-Blanche a indiqué que ces sept entreprises ainsi que l’administration Biden-Harris ont signé un accord engageant volontairement ces premières « à contribuer au développement sûr, sécurisé et transparent de la technologie de l’IA. » Pour le gouvernement américain, « les entreprises qui développent ces technologies émergentes ont la responsabilité de veiller à ce que leurs produits soient sûrs. » Trois mots d’ordre donc : sûreté, sécurité et confiance.
L’idée de cet accord est de contrôler le partage des textes, images, vidéos et sons générés par les IA. Comme OpenAI l’écrit sur son blog, « les entreprises qui prennent cet engagement reconnaissent que les systèmes d’IA peuvent continuer à présenter des faiblesses et des vulnérabilités, même après une analyse approfondie » et plus généralement après leur mise sur le marché. Ces contenus doivent être authentifiés comme générés par un outil et non par un humain, en n’induisant pas en erreur les citoyens. Dans le viseur de la Maison-Blanche, les « deepfakes » vidéos, permettant par exemple de faire dire ce que l’on souhaite au président Joe Biden.
Ce dernier rencontrera ces entreprises avec le Congrès afin de les interroger. L’objectif est d’élaborer un décret ainsi qu’un texte de loi pour mieux contrôler les IA. Un décret a déjà été signé par Joe Biden, qui ordonne « aux agences fédérales d’éradiquer les préjugés dans la conception et l’utilisation des nouvelles technologies, y compris l’IA, et de protéger le public contre la discrimination algorithmique. »
Comment le « filigrane » de contrôle fonctionnera : ce n’est pas encore clair
Les entreprises concernées entendent opter pour un « filigrane », une marque apposée à tous les contenus pour qu’ils soient indiqués comme tels. Il devra indiquer quel outil d’IA a été utilisé lors de la génération. Le gouvernement américain se félicite de cette initiative, soulignant que « cette mesure permet à la créativité en matière d’IA de s’épanouir tout en réduisant les risques de fraude et de tromperie. »
Cependant, aucune solution technique concrète n’a été mentionnée. De premières mesures ont déjà été prises par certaines sociétés, mais au cas par cas. ArsTechnica rapporte l’histoire d’une fausse arrestation de Donald Trump via de fausses images générées par Midjourney, devenues virales. Le laboratoire du même nom a banni le fondateur de l’ONG Bellingcat Eliot Higgins, qui les avait créées.
Ce que mentionne par exemple OpenAI, c’est la mise en place d’outils ou d’API « permettant de déterminer si un élément de contenu particulier a été créé » avec un système d’IA. Entre les lignes, on comprend que si par exemple on lit un article sur Internet, on pourrait demander à OpenAI s’il a été rédigé par ChatGPT. Même chose pour Midjourney : un système de recherche inversée serait disponible pour savoir si l’image en question a été générée par cette IA. Ces systèmes n’incluront pas d’informations sur l’utilisateur ayant généré le contenu.
Du côté de Google, sur son blog la firme indique vouloir intégrer un filigrane et des métadonnées prochainement dans ses outils génératifs. Un bouton « À propos de cette image » sera ajouté au moteur de recherche pour savoir le contexte d’une image ainsi que la première fois où elle a été publiée en ligne.
Les autres mesures prévues par les créateurs des IA génératives
Outre la future mise en place desdits filigranes, OpenAI, Microsoft, Google, Meta, Amazon, Anthropic et Inflection ont accepté de mettre systématiquement en place des tests internes et externes avant leur mise à disposition du public. Ils seront réalisés par des experts indépendants. Toutes ont également déclaré investir davantage dans la cybersécurité et que le signalement de vulnérabilités sera renforcé. Concernant ce dernier point, les sociétés concernées mettront en place « des systèmes de primes, des concours ou des prix pour inciter à la divulgation responsable des faiblesses, telles que les comportements dangereux ».
Aussi, ces entreprises « s’engagent à partager des informations sur la gestion des risques liés à l’IA avec l’ensemble de l’industrie, les gouvernements, la société civile et le monde universitaire », précise la Maison-Blanche. Cela comprend des rapports sur les capacités, limites, domaines d’utilisation appropriés et inappropriés et risques sociétaux (effets sur l’équité et les préjugés) des IA.
Des conséquences sur l’IA dans le monde entier
En plus de tout cela, l’administration Biden-Harris a annoncé travailler avec des gouvernements partenaires « pour établir un cadre international solide régissant le développement et l’utilisation de l’IA. » Parmi les pays avec lesquels elle a discuté, on compte l’Allemagne, l’Australie, le Brésil, le Canada, le Chili, la Corée du Sud, les Émirats arabes unis, la France, l’Inde, Israël, l’Italie, le Japon, le Kenya, le Mexique, la Nouvelle-Zélande, le Nigeria, les Pays-Bas, les Philippines, Singapour et le Royaume-Uni. Le gouvernement américain précise également discuter avec les Nations unies et ses États membres.
Ces discussions ont eu lieu en parallèle de l’élaboration de l’AI Act, texte législatif de l’Union européenne. Il prévoit aussi des réglementations concernant les IA génératives. Le Parlement et le Conseil de l’Union européenne souhaiteraient une adoption du texte définitif avant 2024.
Des invités passionnants et des sujets palpitants ! Notre émission UNLOCK est à retrouver un jeudi sur deux en direct, de 17 à 19h sur Twitch. Pensez aussi aux rediffusions sur YouTube !
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix