Comment Microsoft veut créer une IA « digne de confiance »

 
Microsoft lance un nouvel outil intitulé « Correction » pour traiter les réponses les plus aberrantes pouvant être créées par les IA génératives. Une sécurité nécessaire, mais qui interroge.
Touche Copilot // Source : Microsoft

Microsoft vient de dévoiler de nouvelles fonctionnalités autour de l’intelligence artificielle pour en promouvoir la sécurité. L’entreprise propose notamment un outil intitulé « Correction » chargé de traiter les réponses aberrantes pouvant être générées.

Prévenir l’improbable

Dans une note de blog, Microsoft explique qu’elle souhaite promouvoir une intelligence artificielle « digne de confiance » en mettant l’accent sur une fonctionnalité centrée autour de la sécurité, la confidentialité et la fiabilité.

Intitulé « Correction », cet outil est conçu pour corriger en temps réel les erreurs aberrantes que pourrait commettre l’IA lors de la génération d’une réponse et de fournir une version corrigée à l’utilisateur.

Selon Windows Central, des experts alertent sur le fait qu’il pourrait être impossible d’éliminer ces erreurs. Selon OS Keyes, doctorant à l’Université de Washington :

« Essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau. C’est un élément essentiel du fonctionnement de la technologie. »

Pour aller plus loin
Nos astuces pour reconnaître les photos créées par IA (Midjourney, Dall-E, Stable Diffusion, Microsoft Designer, etc.)

En effet, on peut se demander si une IA parfaite est vraiment un outil dont on aurait réellement besoin. La technologie progresse, créant des images de plus en plus réalistes pouvant être utilisées dans le cadre d’une désinformation.

Ces erreurs parfois grotesques comme l’IA de Google suggérant d’ajouter de la colle sur de la pizza pourraient représenter un ancrage suffisamment solide pour se rappeler qu’il ne faut pas croire sur parole les résultats de l’IA.

Un outil pour tous

Windows Central nous indique que cet outil fait partie de l’API Azure AI Content Safety de Microsoft et peut être utilisé dans plusieurs modèles d’IA de génération de texte allant de Llama chez Meta à ChatGPT chez OpenAI.

Un porte-parole de Microsoft indique que cet outil fonctionne aussi bien sur un petit qu’un grand modèle de langage, mais prend une pertinence autre sur ce dernier modèle. En effet, les grands modèles agrègent une quantité de données très, voire trop importante leur permettant d’aller chercher des réponses à des endroits de leurs modèles n’ayant rien à voir simplement pour sortir une réponse, qu’importe sans pertinence.

On pourrait penser que l’erreur est un mal pour l’IA, mais elle représente peut-être le meilleur outil d’esprit critique pour les humains.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.

Les derniers articles