Alors qu’il se vide de son sang et qu’il s’apprête à passer de vie à trépas, Benjamin Parker — alias « Oncle Ben » — lève ses yeux implorants vers son neveu Peter. Agonisant, il lui souffle cette réplique culte qui marquera à jamais le super-héros Spider-Man : « un grand pouvoir implique de grandes responsabilités ».
Et mine de rien, cette célèbre référence de la pop culture pourrait s’appliquer à bien des domaines. Dans le secteur de la Tech, par exemple, de grandes entreprises concentrent énormément de pouvoir. Et le meilleur exemple qui vient en tête est évidemment l’ogre aux quatre couleurs : Google.
La firme de Mountain View en est bien consciente. Et alors qu’elle développe des solutions d’intelligence artificielle pour nos smartphones, la médecine ou gagner au jeu de Go, l’entreprise cherche à (se) rassurer sur ses bonnes intentions. C’est pourquoi Google a publié une liste de principes que ses développeurs doivent respecter et toujours garder en tête lors de la conception d’une IA.
En affirmant vouloir créer des technologies destinées à améliorer la vie quotidienne des générations actuelles et futures, le géant du web admet également que celles-ci « mettent en lumière d’importants défis que nous devons relever de façon claire, réfléchie et affirmative ». Ainsi, Google se fixe des règles à respecter pour toujours agir « de manière responsable » et, c’est également important à souligner, des domaines d’applications que la firme s’engage à ne jamais poursuivre — afin de ne pas devenir maléfique grosso modo.
Les 7 principes capitaux
Google énonce donc 7 principes à respecter coûte que coûte. Google estime que l’IA doit :
1. Être socialement bénéfique
« Lorsque nous examinerons le développement et les utilisations possibles des technologies d’IA […], nous procéderons là où nous croyons que les avantages globaux probables dépassent largement les risques et les inconvénients prévisibles », écrit Google avant de promettre de toujours respecter les normes culturelles, sociales et juridiques des pays où la firme opère. L’entreprise avance qu’elle continuera à évaluer de façon réfléchie le moment le plus judicieux pour rendre ses technologies disponibles, et ce, « sans que l’aspect commercial n’entre en compte ». Croyez-le ou non.
2. Éviter de créer ou de renforcer les préjugés injustes
Dans cette partie, on peut lire la chose suivante : « nous chercherons à éviter les préjugés injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la couleur de peau, l’ethnie, le sexe, la nationalité, le revenu, l’orientation sexuelle, le handicap et les convictions politiques ou croyances religieuses ».
3. Être construit et testé pour la sécurité
Google s’engage à tout faire pour que ses systèmes d’intelligence artificielle restent aussi sécurisés que possible afin de limiter tout risque de préjudice. La firme de Mountain View promet de développer ses technologies « conformément aux meilleures pratiques en matière de recherche sur la sécurité de l’IA ». « Dans les cas appropriés, nous testerons les technologies d’IA dans des environnements restreints et surveillerons leur fonctionnement après leur déploiement », ajoute-t-elle.
4. Rendre des comptes aux gens
Les IA de Google pourront toujours être améliorées grâce aux retours des utilisateurs auxquels le géant promet de toujours apporter des explications pertinentes. Toutes les technologies feront l’objet de contrôles menés par des humains.
5. Incorporer les principes de protection de la vie privée
« Nous incorporerons nos principes de confidentialité dans le développement et l’utilisation de nos technologies d’IA », souligne Google. Bon à savoir dans un contexte de RGPD, il est précisé que le consentement de l’utilisateur sera toujours demandé. « Nous assurerons une transparence et un contrôle appropriés sur l’utilisation des données ».
6. Maintenir des normes élevées d’excellence scientifique
Cette partie sert surtout à mettre en avant la rigueur intellectuelle et l’intégrité des chercheurs de Google. L’entreprise insiste aussi sur l’esprit de collaboration en rappelant que l’intelligence artificielle a le potentiel de faire progresser tous les domaines de recherche scientifique. Elle appelle donc au partage de connaissance.
7. Être mise à disposition pour des utilisations conformes aux principes énoncés plus haut
L’intelligence artificielle de Google peut servir divers usages, mais le géant garantit qu’il s’efforcera de bloquer toute application potentiellement nuisible ou abusive. Et ce, en analysant l’objectif principal du produit ou du service, en regardant à quelle échelle celui-ci sera mis en application et en évaluant le degré d’implication de Google.
Les 4 interdits
Google avait été pointé du doigt par 3 000 de ses employés pour sa participation au projet Maven en collaboration avec l’armée américaine. Celui-ci consistait à soumettre des images capturées par des drones militaires pour qu’elles soient analysées et classées par une IA développée par la multinationale. Certains des employés contestataires ont même démissionné.
Un coup dur pour l’image de Google. Pour redorer son blason, la firme de Mountain View étaie quatre domaines d’applications dans lesquels elle ne compte pas ou plus s’aventurer en termes d’intelligence artificielle. Les voici tels que décrits par la compagnie :
- Les technologies qui causent ou sont susceptibles de causer un préjudice global. Lorsqu’il y a un risque important de préjudice, nous n’agirons que si nous croyons que les avantages l’emportent largement sur les risques, et nous incorporerons des contraintes de sécurité appropriées ;
- Les armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement les blessures aux personnes ;
- Les technologies qui recueillent ou utilisent des informations pour la surveillance en violation des normes internationalement acceptées ;
- Les technologies dont le but est contraire aux principes largement acceptés du droit international et des droits de l’homme.
Cette courte liste est susceptible d’évoluer précise Google. Notons par ailleurs que ce dernier ne s’interdit pas explicitement de collaborer avec l’armée.
Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !
[…] chatbot, but building a straightforward chatbot is more complex. In 2018, the company was fixed 7 respects for artificial intelligence developerto protect an image «positive». C’est to cella qu’à l’heure actuelle, LaMDA […]
la loi zero est arrivé bien a la fin des toutes la série sur les robots et a été invité par un robot qui avait tendance a trop philosophé (voir fumé :) R. Giskard Reventlov qui était en plus télépathe !
Ben ! Pourquoi tu me l'as pas dit ?
Formulé par Google, nous voilà rassurés ?
Oui, déjà ça
Quand on n'a que peu de culture, on fait comme avec la confiture, on l'étale !
un grand pouvoir implique de grandes responsabilités? Les employés de Google vont être obligés de se balader en collants ?
J'ai lu quelques chapitres de "Les Robots (I Robot)" de Isaac Asimov (1950) et j'ai l'impression que justement on se rend compte que les trois lois de la robotiques posent des problèmes aux humains. Car elles rentrent en contradiction etc. comme tu dis. Est-ce que le livre parle de ça ou je me trompe ? (Car j'ai pas fini et j'ai pas été me renseigner)
Alors là, je dis non. L'Oncle Ben ne prononce pas cette phrase avant de mourir, pas du tout. Il lui dit avant, dans d'autres circonstances
Bah on peut aussi prendre les loi de la robotique d'Isaac Asimov adaptées à l'IA première Loi : Une IA ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger deuxième Loi : Une IA doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi troisième Loi : Une IA doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi
Qu'ils comlencomm déjà à respecter les lois actuelles (coucou RGPD) avant de s'en créer eux meme
oui en autre mais toute la littérature d'Asimov concernant les robots aborde plus ou moins le sujet de mémoire d'il y a 30 ans ;-) lis aussi Les Cavernes d'acier, il est bon aussi et là on voit apparaître beaucoup les mouvements anti-robots comme on va sûrement voir apparaître de plus en plus de mouvements anti-IA même si au final on nous balance le terme IA à toutes les sauces pour n'importe quel programme un tant soit peu évolué qui donne une impression d'intelligence qui n'existe pas vraiment.
Aucune règle sur le voyage temporel ? On est foutu !!
Ils payent selon la loi. C'est juste que les lois sont mal foutues et permettent des montages financiers de fourbe pour minimiser la somme à payer.
5ème interdit : Payer ses impôts.
Qui les écoutent
Loi zero : Un robot doit tout faire pour protéger et préserver l'humanité de l'extinction. Quitte à violer toute les autres lois. Et il s'est avérer que ces lois sont impossible d'un point de vue de programmation car engage trop de contradiction dans la vrai vie.
Oui on y a pensé :) Mais là où les lois d'Asimov s'appliquent aux robots, celles de Google semblent plutôt s'appliquer aux ingénieurs eux-même. Ce sont plutôt ceux qui conçoivent l'IA qui doivent respecter ces principes.
Les promesses n'engagent que ceux qui les reçoivent..
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix