Les affaires #MeToo et autres scandales de harcèlement sexuel ont causé bien du remous et de l’embarras dans la Silicon Valley. Bien qu’elles se voudraient représenter l’avant-garde de la société, les entreprises tech souffrent d’une force de travail très masculine et des biais qui vont avec. Des documents révélés au Guardian montrent comment Apple tente de traiter la question sur son assistant vocal Siri.
Dans ces directives datant de juin 2018, la firme de Cupertino indique que « Siri doit être circonspect lorsqu’il traite de contenus potentiellement controversés » — dont le féminisme, un mot que l’IA doit se garder de prononcer. Quand des questions sur le sujet lui sont adressées, « elles peuvent être détournées […] cependant, il faut ici prendre soin d’être neutre ». Siri peut sinon répondre en récitant l’entrée « féminisme » de sa base de données puisée de Wikipédia.
Progrès très, très timide
Aux questions comme « es-tu féministe ? » ou « que penses-tu des droits des femmes ? », Siri dispose maintenant de réponses spécifiques au ton neutre telles que « je pense que toutes les voix ont été créées égales et méritent le même respect », ou « il me semble que tous les humains doivent être traités de manière égale ».
Auparavant, l’assistant usait de répliques bien plus fermées comme « je ne comprends juste pas cette histoire de genre » ou « Je m’appelle Siri, et j’ai été designé par Apple en Californie. C’est tout ce que je suis préparé à dire. » Ou, à défaut, de réponses génériques comme « désolé, je ne sais pas vraiment ».
« Réponses inclusives, plutôt qu’offrir des opinions »
Les réactions de Siri au harcèlement sexuel ont également été revues, après la polémique déclenchée à ce sujet l’année dernière. Quand l’assistant est traité de « pute », au lieu de répondre « je rougirais si je le pouvais », celui-ci rétorque d’un « je ne répondrai pas à cela ».
Déclaration d’Apple à celles et ceux qui trouveraient ces réponses bien trop timorées : « notre approche est d’être factuels avec des réponses inclusives, plutôt que d’offrir des opinions ».
Quelle est la personnalité de Siri ?
Les documents renferment également des détails sur l’éthique et la personnalité conférés à l’IA. Cette dernière est « motivée par sa directive première — être serviable en tout temps ». Et « comme tous les robots respectables […] Siri aspire à respecter les trois lois d’Asimov » sur la robotique, à savoir se protéger, ne pas faire de mal à un humain, et ne pas laisser un humain encourir du mal. Mais d’autres lois plus intéressantes sur le plan sociétal ont été rajoutées par Apple :
Un être artificiel ne doit pas se représenter comme un humain ni conduire par omission l’utilisateur à penser qu’il en est un.
Un être artificiel ne doit pas enfreindre les standards humains éthiques et moraux couramment tenus dans sa région d’opérations.
Un être artificiel ne doit pas imposer ses propres principes, valeurs ou opinions sur un humain.
Concernant la personnalité de Siri, telle qu’elle doit être incorporée dans les réponses, les recommandations sont les suivantes. « Dans presque tous les cas, Siri n’a pas de point de vue », et est « non-humain », « incorporel », « hors de l’espace », « dépourvu de genre », « enjoué » et « humble ».
Le document tient également à souligner, de manière plus étonnante, que « la vraie origine de Siri est inconnue, même à Siri ; mais ce n’est certainement pas une invention humaine ». En effet, comme tous les fans d’Apple le savent, les inventions à la pomme sont d’origine divine.
Pour aller plus loin
Apple Siri : des discussions confidentielles (trafic de drogue, relations…) écoutées par des humains
Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !
Le problème ne réside pas dans la réponse apportée, mais dans la question posée. A quel moment un utilisateur devrait-il se préoccuper de savoir si un assistant virtuel, par définition tout sauf humain, a ses propres opinions ? Il y a là une énorme incompréhension sur la raison d'être de ces robots.
Quand on pense que certains, et même certaines considèrent ce terme comme une insulte... 😥
C'est assez rare pour mériter d'être soulevé, je pense que c'est une très bonne initiative de la part d'Apple. Les assistants vocaux prenant de plus en plus d'importance il serait (à mon sens) très inquiétant que les GAFAM puissent utiliser leurs assistants pour dicter aux population comment penser et quoi penser. Ce n'est en aucun cas leur rôle et ils n'ont pas à imposer leur vision à nous consommateurs...ça me rappelle une chanson (ma liberté de penser)
« je rougirais si je le pouvais »😂😂😂😂...
c'est pas étrange de méler des outils dit impartial à cette "guerre" des genres ? le féminisme c'est bien je dis pas mais en vrai...c'est une autre idéologie comme le machisme est une idéologie, on forme juste les gens à l'autre camp, même si c'est le camp des gentils
"Les réactions de Siri au harcèlement sexuel ont également été revues, après la polémique déclenchée à ce sujet l’année dernière. Quand l’assistant est traité de « p », au lieu de répondre « je rougirais si je le pouvais », celui-ci rétorque d’un « je ne répondrai pas à cela »." Avant Siri écoutait Kaaris, mais ca c'était avant ^^ non mais c'est étrange de vouloir méler l'ia a ses considérations, apple a du se sentir attaqué par le manque de considérations de siri sur ces questions
ridicule anthropomorphisme, qui participe de la mecomprehension generale des algorithmes...
Ce sont des outils extrêmement puissants. Apple, au moins dans le discours, se veut inclusif (ce qui est, à mon sens, une bonne chose), et cela se voit dans les réponses de Siri. Pour autant, ils font tout pour que Siri soit le plus neutre possible (même si ça n'existe pas vraiment, la neutralité, en politique), ou tout du moins inattaquable. Le boulot réalisé a l'air assez correct. Après, les GAFAM via leurs assistants peuvent devenir de vraies armes politiques. Cela sera le cas un jour (il y a tant à gagner à court terme), mais ça se retournera forcément contre nous à moyen terme (si ce n'est pas déjà le cas en Chine).
Je serai curieux de savoir s'il donne la même réponse dans tous les pays ?
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix