La méthode de Google pour protéger davantage contre les contenus générés par IA

 
Désormais disponible sur Hugging Face, SynthID Text permet aux développeurs d’apposer un filigrane invisible sur leurs textes générés par une IA. Bien que l’outil ne soit pas infaillible, Google espère qu’il contribuera à limiter la désinformation produite par Gemini et consorts.
Illustration d'un mégaphone criant "fake news"
Que soit voulu ou non, les IA comme ChatGPT risquent de faire toujours plus propager de la désinformation // Source : Hartono Creative Studio via Unsplash

Les textes générés par ChatGPT ou Claude sont omniprésents. Dans nos échanges professionnels, dans les avis sur les plateformes d’e-commerce, et inévitablement dans les articles publiés par certains médias. Ces nouvelles intelligences artificielles, bien que pratiques, présentent quelques défauts majeurs : elles sont loin d’être infaillibles et facilitent grandement la propagation d’informations erronées.

Les solutions pour y remédier ne sont pas légion. Bien que certaines entreprises s’efforcent de développer des détecteurs de contenu généré par l’IA, ceux-ci manquent de précision et peuvent même accuser des textes rédigés par des humains.

Il est cependant possible pour les développeurs d’apposer un filigrane sur leurs contenus générés par l’IA. C’est le rôle joué par SynthID Text de DeepMind, filiale de Google, qui permet d’identifier les résultats textuels produits par l’intelligence artificielle, de manière invisible pour les lecteurs.

Pour ce faire, l’outil modifie légèrement le mode de fonctionnement des IA, en affectant les tokens (ou jetons) qui leur permettent de deviner les mots ou les lettres qui doivent apparaître au fur et à mesure de leur travail. Il en résulte un motif reconnaissable par SynthID Text, qui ne « compromet pas la qualité, la précision, la créativité ou la rapidité de la génération de texte » selon les propos de DeepMind dans un billet de blog.

Un morceau de texte généré par Gemini comprenant le filigrane de SynthID Text surligné en bleu
Un morceau de texte généré par Gemini comprenant le filigrane de SynthID Text surligné en bleu // Source : DeepMind

Un outil qui n’est pas infaillible, mais qui pourrait s’avérer obligatoire

Bien sûr, SynthID Text n’est pas sans faiblesses. DeepMind souligne qu’il « fonctionne mieux lorsqu’un modèle de langage génère de longues réponses ». Il peut même détecter des textes paraphrasés, mais commence à montrer ses limites avec des résultats courts, des traductions ou des réponses très factuelles. Les textes qui ont été réécrits par des humains peuvent également avoir une incidence sur les performances de l’outil.

Ce dernier est intégré de facto dans Gemini depuis le printemps dernier, et est désormais disponible gratuitement pour les développeurs et les entreprises sur la plateforme Hugging Face. Si ces dernières ne sont pas obligées, pour l’instant, d’utiliser de tels outils dans leurs processus, certains régulateurs pourraient les y contraindre dans les mois et années à venir, notamment en Californie, comme le rapporte TechCrunch.

Et il pourrait bien s’agir d’une véritable urgence. D’après une étude d’Europol, pas moins de 90 % du contenu sur Internet pourrait être généré par l’intelligence artificielle d’ici à 2026. Un chiffre absolument délirant, qui met en péril notre capacité, en tant qu’internautes, à vérifier la véracité des informations que nous glanons ici et là sur le web.

Reste à voir qui de Google ou d’OpenAI, qui travaille depuis quelques années sur un outil semblable à SynthID Text, arrivera à imposer sa norme sur la question des filigranes.


Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).