Microsoft vient de dévoiler de nouvelles fonctionnalités autour de l’intelligence artificielle pour en promouvoir la sécurité. L’entreprise propose notamment un outil intitulé « Correction » chargé de traiter les réponses aberrantes pouvant être générées.
Prévenir l’improbable
Dans une note de blog, Microsoft explique qu’elle souhaite promouvoir une intelligence artificielle « digne de confiance » en mettant l’accent sur une fonctionnalité centrée autour de la sécurité, la confidentialité et la fiabilité.
Intitulé « Correction », cet outil est conçu pour corriger en temps réel les erreurs aberrantes que pourrait commettre l’IA lors de la génération d’une réponse et de fournir une version corrigée à l’utilisateur.
Selon Windows Central, des experts alertent sur le fait qu’il pourrait être impossible d’éliminer ces erreurs. Selon OS Keyes, doctorant à l’Université de Washington :
« Essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau. C’est un élément essentiel du fonctionnement de la technologie. »
Pour aller plus loin
Nos astuces pour reconnaître les photos créées par IA (Midjourney, Dall-E, Stable Diffusion, Microsoft Designer, etc.)
En effet, on peut se demander si une IA parfaite est vraiment un outil dont on aurait réellement besoin. La technologie progresse, créant des images de plus en plus réalistes pouvant être utilisées dans le cadre d’une désinformation.
Ces erreurs parfois grotesques comme l’IA de Google suggérant d’ajouter de la colle sur de la pizza pourraient représenter un ancrage suffisamment solide pour se rappeler qu’il ne faut pas croire sur parole les résultats de l’IA.
Un outil pour tous
Windows Central nous indique que cet outil fait partie de l’API Azure AI Content Safety de Microsoft et peut être utilisé dans plusieurs modèles d’IA de génération de texte allant de Llama chez Meta à ChatGPT chez OpenAI.
Un porte-parole de Microsoft indique que cet outil fonctionne aussi bien sur un petit qu’un grand modèle de langage, mais prend une pertinence autre sur ce dernier modèle. En effet, les grands modèles agrègent une quantité de données très, voire trop importante leur permettant d’aller chercher des réponses à des endroits de leurs modèles n’ayant rien à voir simplement pour sortir une réponse, qu’importe sans pertinence.
On pourrait penser que l’erreur est un mal pour l’IA, mais elle représente peut-être le meilleur outil d’esprit critique pour les humains.
Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix