Difficile de faire pire timing pour l’IA de Microsoft. Alors que les manifestations antiracisme battent leur plein aux États-Unis et en Europe dans le cadre du mouvement « Black Lives Matter », l’outil déployé par Microsoft pour remplacer plusieurs dizaines de responsables éditoriaux humains au sein de ses services Microsoft News et MSN, s’illustre en confondant une chanteuse métisse… avec une autre.
Une erreur qui s’est affichée dans le cadre de la photo de couverture d’un article et qui est assez révélatrice des limites technologiques de l’IA, notamment en termes d’identification faciale. Microsoft, de son côté, aurait déjà donné des consignes en interne pour éviter de relayer sur ses portails l’information publiée aujourd’hui par The Guardian.
Une illustration jugée raciste… pour un article traitant du racisme
Dans les faits, l’IA éditoriale de Microsoft a confondu deux des chanteuses métisses du groupe britannique Little Mix. C’est ainsi qu’une photo de Leigh-Anne Pinnock (complètement à droite sur la photo ci-dessus) a été publiée en illustration d’un article traitant — ironie du sort — du racisme dont sa partenaire Jade Thirlwall (complètement à gauche) a été victime durant sa scolarité.
« @MSN Si vous voulez copier et coller des articles provenant d’autres médias, vous devez vous assurer que vous utilisez une image de la bonne personne métisse du groupe », a rétorqué l’intéressée sur son compte Instagram, ulcérée par les médias comme MSN qu’elle juge « ignorants » :
Cette merde arrive à Leigh-Anne Pinnock et moi TOUT LE TEMPS, à tel point que c’est devenu une ‘running joke’. Cela m’offense que vous ne puissiez pas différencier les deux femmes de couleur sur les quatre membres d’un groupe … FAITES MIEUX !
Une IA capricieuse, et difficile à arrêter
Au-delà de la faute commise par l’IA de Microsoft, la réaction de l’éditeur en interne semble pour le moins cavalière. Contacté par The Guardian, Microsoft a bien présenté des excuses, ajoutant que l’image d’illustration de l’article avait été rapidement modifiée. Pourtant la firme chercherait maintenant à dissimuler cette erreur en forçant ses responsables éditoriaux à supprimer, notamment du portail MSN, l’article gênant du média anglais… que l’IA pourrait fort relayer.
« Comme ils ne peuvent pas empêcher le nouveau robot rédacteur en chef de sélectionner des articles sur des sites d’information externes tels que The Guardian, les autres membres du personnel, humains, ont été invités à rester vigilants et à supprimer cet article si le robot décide qu’il est intéressant et le publie automatiquement sur MSN.com », explique The Guardian, tout en ajoutant que les responsables éditoriaux ayant échappé aux licenciements ont « également été avertis que même s’ils le suppriment, l’IA peut passer outre et tenter de le publier à nouveau ».
En un mot, Microsoft semble donc désormais placer ses employés humains en censeurs, les enjoignant à dépublier manuellement les articles embarrassants que son IA pourrait juger bon de partager sur une affaire qui tombe au plus mal. « Avec toutes les protestations antiracistes actuelles, ce n’est pas le moment de faire des erreurs », a pour sa part indiqué un membre des équipes éditoriales de Microsoft contacté par The Guardian, estimant que le groupe serait inquiet des dégâts que cette erreur pourrait causer à la réputation de son IA éditoriale.
Mais... Qu'un humain fasse la confusion (quelle que soit la raison), c'est une chose, mais dire que l'IA est raciste, parce qu'elle s'est probablement basée sur une erreur humaine en affichant la photo copiée ailleurs, c'est surréaliste, non ?
Le rapport c'est qu'apparemment les 2 autres qui sont de type caucasien n'ont pas ce problème imagine que vous êtes un groupe de 4 potes dont 2 sont noir est ont les appelles souvent par le nom de l'autre alors qu'il ne ce ressemblent pas mais dans le même temps les 2 autres blanc n'ont pas ce problème Je ne dit pas que c'est du racisme dans le sens commun mais ça me fait penser qu'on ce casse pas trop la tête de vraiment savoir qui est vraiment qui, c'est juste les 2 black. Je pense que c'est ça qui doit gonfler les 2 filles.
Mais quel est le rapport ? La ressemblance physique n'a rien à voir dans le cas présent... C'est comme si l'IA avait confondu 2 membres des Spice Girls. Je ne comprends pas ce que ça a à voir avec du racisme... Est-ce qu'on s'est au moins demandé comment l'IA avait confondu les chanteuses? D'après elles, ça leur arrive souvent, donc c'est que l'IA a dû être induite en erreur en analysant des articles précédents, dans lesquels la confusion avait probablement été commise. Ça parait logique, non?
Ces vilains automates programmés pour être raciste...
Sauf qu'on a pas licencié une dizaine de personne pour te mettre en poste
L'IA est bourrée de biais inhérents aux concepteurs. Partant de la l'univers des possibles est infini. De plus ce n'est pas la première fois qu une IA soit impliquée dans actions jugées racistes. Il y a une question de fond inéluctable. Et trouver ridicule un article qui transmet des informations erronées, pas besoin d'à la rigueur, c'est un gros problèmes
Le n'importe quoi c'est comparer des nons événements avec de l'information.
Tous les jours tu confonds des filles, mais cela ne fait pas les titres d'information, à part le raconter à tes proches, ça n'intéresse personne. Donc oui te concernant il n'y a pas matière à en faire un article. Et ta comparaison est archibonnement inutile et ridicule.
Bordel il commence à nous faire chier les black live matter et les gauchiste avec leur racisme partout
Si tu les confonds, tu es raciste....je rigole! Je suis tout à fait d'accord, faire un article pour ça est inutile. De plus, prétendre que l'IA serait raciste en associant cette info aux actes réellement racistes, c'est ridicule. A la rigueur, j'aurais accepté que l'article remettre en cause le raisonnement de l'IA par rapport à l'éthique humaine (journalistique)!
Sauf qu'elle ne ce ressemble pas Donc parler des sœurs olsen ou de frères qui ce ressemble n'a pas de rapport. https://uploads.disquscdn.com/images/7f949da554e64b429ce0cd49e11025622572484e4586d57ad2f438eddb23343e.jpg
Un article sur l'IA surveillé par l'IA. Ça va partir en sucette ...
Ils n'en sont pas à leur premier loupé... https://fr.m.wikipedia.org/wiki/Tay_(intelligence_artificielle) Microsoft et les tests...
Round and brown
tu as des IA qui aprennent d'eux même, peut-être pas encore sur le marché, mais ça ne serait tarder.
Un sacré revers pour Microsoft, pas dit qu'ils s'en remettent !
l'IA ne crée pas ses propres données. Elle est nourrie par des humains d'abord. Ce biais est donc avant tout celui d'un humain. L'IA régurgite ce qu'on lui donne. Trop facile de se défausser sur une entité prétendument autonome
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix