L’IA de Microsoft a encore fait une bourde en proposant un sondage macabre

 
Décidément, le portail d’actualités de Microsoft continue à faire de belles gaffes. Cette fois-ci, l’IA de Microsoft Start a proposé un sondage pour le moins lugubre : quelle est la cause du décès d’une femme retrouvée morte, d’après une information du « Guardian ». Le journal accuse d’ailleurs Microsoft d’avoir nui à sa réputation.

Il y a trois ans, Microsoft licenciait près de 80 journalistes dont le travail était de sélectionner des contenus pour MSN.com, le portail d’actualités, devenu Microsoft Start depuis (bien que MSN.com soit toujours actualisé). Des journalistes remplacés par des algorithmes et de l’intelligence artificielle, non sans conséquences négatives. La firme fait ainsi face à une nouvelle polémique : à côté d’un article mentionnant la mort d’une femme, l’IA de Microsoft Start a proposé un sondage afin de déterminer la cause du décès.

Suicide, assassinat ou accident ? La question de l’IA de Microsoft qui dérange

Tout commence par la découverte du corps de Lilie James, entraîneuse de water polo à Sidney, relatée par The Guardian. L’article est repris dans Microsoft Start, le portail d’informations de Microsoft. Sur celui-ci, les utilisateurs peuvent interagir avec la publication : la « liker », la « disliker » (l’aimer ou ne pas l’aimer), la partager ou la commenter.

Une capture d’écran du sondage à côté de l’article du « Guardian » // Source : The Verge

Cependant, Microsoft Start va plus loin : une IA peut générer des sondages en rapport avec l’article afin de faire interagir les internautes. La question posée est la suivante : « Quelle est la cause derrière la mort de cette femme ? » Un sondage peu respectueux envers Lilie James, ne mentionnant même pas son identité.

Les choix de réponse étaient ceux-ci : le meurtre, l’accident ou le suicide. Dans l’interface de Microsoft Start, il est indiqué que le sondage est bel et bien généré par une IA. Comme le rapporte The Verge, « les commentaires reçus il y a cinq jours indiquent que les lecteurs étaient mécontents, et certains pensent clairement que les auteurs de l’article sont responsables. » Rapidement, le sondage a été retiré et les commentaires désactivés, mais pour le journal, le mal était déjà fait.

Les portails d’actualités et l’IA, un mauvais mélange pour le Guardian

C’est là tout le problème pour The Guardian. Le journal accuse Microsoft « d’avoir porté atteinte à sa réputation journalistique ». C’est la confusion pour les lecteurs entre l’article du journal et son journaliste avec le sondage généré par Microsoft qui dérange la rédaction. C’est pourquoi la directrice générale du Guardian Media Group Anna Bateson a adressé une lettre à Brad Smith, président de Microsoft.

MSN.com // Source : Frandroid

Le groupe accuse donc Microsoft d’avoir une utilisation inappropriée de la génération par IA sur un sujet d’intérêt public. Les mots sont forts : cela constituerait une « violation des droits de l’homme ». Anna Bateson rappelle que c’est l’une des raisons pour lesquelles ses équipes avaient demandé à celles de Microsoft ne pas vouloir que ses technologies expérimentales d’IA soient appliquées aux articles du Guardian.

Elle met également en cause l’« absence presque totale d’étiquetage clair ou transparent de ces résultats alimentés par l’IA générative, et certainement pas d’avis de non-responsabilité ou d’explication aux utilisateurs que ces technologies sont détenues et exploitées par Microsoft, et de leur manque de fiabilité inhérent. »

Enfin, la rédaction demande à Microsoft l’ajout d’une note à l’article pour assumer l’entière responsabilité du sondage macabre. Anna Bateson rappelle la volonté de sa société de ne pas voir appliquer les technologies d’IA sur ses articles.

Suite à cela, un porte-parole de Microsoft a déclaré que les sondages générés par Microsoft pour les articles d’actualité ont été désactivés. De plus, la société enquête sur la cause du contenu inapproprié. Enfin, il reconnaît qu’« un sondage n’aurait pas dû figurer à côté d’un article de cette nature, et nous prenons des mesures pour éviter que ce type d’erreur ne se reproduise à l’avenir. » Ce n’est pas la première fois qu’une telle erreur arrive : en août, l’IA de Microsoft avait rédigé un guide touristique invitant les lecteurs à se rendre dans une banque alimentaire.


Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !