Vous êtes en train de taper le nom d’un ancien président dans un moteur de recherche, et cela ne donne aucun résultat directement lié au président. Ou pire, où une photo historique est étiquetée comme « fausse » par erreur. Cela est devenu une réalité ces derniers jours, ce qui a déclenché une tempête médiatique et politique aux États-Unis. Au cœur de cette tourmente : Google et Meta (anciennement Facebook), accusés de censure par Donald Trump et Elon Musk.
Les faits : quand les algorithmes s’emmêlent les pinceaux
Tout a commencé avec une simple recherche Google. Des utilisateurs, dont Elon Musk, ont remarqué que taper « président Donald » dans la barre de recherche ne faisait pas apparaître « Trump » dans les suggestions automatiques. Mais plutôt, de nombreuses news à propos de Kamala Harris.
Parallèlement, une photo montrant Donald Trump après une tentative d’assassinat a été marquée comme « fausse » sur Facebook. De quoi faire bondir l’ancien président, qui a immédiatement crié à la censure et appelé ses partisans à « s’en prendre » à Meta et Google.
Mais voilà, la réalité est un peu plus complexe. Google a rapidement réagi en expliquant qu’il s’agissait d’un bug affectant sa fonction de saisie semi-automatique. « Ce problème particulier était un bug qui couvrait l’ensemble du spectre politique, affectant également les requêtes pour plusieurs anciens présidents, comme l’ancien président Obama », a précisé l’entreprise. Du côté de Meta, on reconnaît une erreur dans le système de vérification des faits, initialement appliqué à une photo trafiquée et malencontreusement étendu à la vraie photo.
Le fonctionnement des algorithmes de recherche et de modération
Pour comprendre comment de telles erreurs peuvent se produire, il faut plonger dans les méandres des algorithmes utilisés par ces géants du web.
Prenons l’exemple de la fonction de saisie semi-automatique de Google. Contrairement à ce que l’on pourrait penser, elle ne fonctionne pas comme un simple dictionnaire. C’est un système complexe qui prend en compte de nombreux facteurs :
- La popularité des recherches
- L’actualité du moment
- La localisation géographique de l’utilisateur
- Les recherches précédentes de l’utilisateur
- Des filtres de sécurité pour éviter les contenus inappropriés ou dangereux
C’est ce dernier point qui semble avoir posé problème dans le cas présent. Google a expliqué que ses systèmes disposent de « protections intégrées contre la violence politique ». Ces protections, bien qu’utiles dans de nombreux cas, peuvent parfois être trop zélées et bloquer des contenus légitimes.
Du côté de Meta, le système de vérification des faits est tout aussi complexe. Il combine l’analyse automatisée par intelligence artificielle et l’intervention humaine de fact-checkers indépendants.
Dans le cas de la photo de Trump, il semble que le système ait fait une erreur de catégorisation, appliquant à tort un tag « faux » à une image authentique.
Google et Meta ont tous deux réagi rapidement en expliquant les erreurs survenues. Mais pour beaucoup, ces explications restent insuffisantes. Comment s’assurer que ces « bugs » ne cachent pas une volonté délibérée de manipuler l’information ?
Dans un fil de messages sur X (anciennement Twitter), Google Communications a tenu à clarifier la situation : « Au cours des derniers jours, certaines personnes sur X ont posté des allégations selon lesquelles Search “censure” ou “interdit” des termes particuliers. Ce n’est pas le cas, et nous voulons rétablir les faits. »
L’entreprise a également souligné que « la saisie semi-automatique n’est qu’un outil pour vous aider à effectuer une recherche rapidement. Quelles que soient les prévisions affichées à un moment donné, vous pouvez toujours rechercher ce que vous voulez et accéder facilement aux résultats, aux images et plus encore. ».
Face à ces préoccupations, Google a tenu à rappeler son engagement pour la transparence : « Bien que nos systèmes fonctionnent très bien la plupart du temps, vous pouvez trouver des prédictions qui peuvent être inattendues ou imparfaites, et des bugs peuvent survenir. De notre côté, lorsque des problèmes surviennent, nous apporterons des améliorations afin que vous puissiez trouver ce que vous cherchez, rapidement et facilement. ».
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix