Google Photos : Le machine learning peut-il être raciste ?

 
Le machine learning de Google vient de se faire une publicité que le géant de Mountain View se serait bien évitée. En effet, la nouvelle application Google Photos qui utilise le machine learning pour trier les photos des utilisateurs a confondu des personnes noires avec des gorilles. La firme de Mountain View a présenté ses excuses et indique travailler sur le problème.
Deep-neural-networks

Lors de la Google I/O, on avait pu découvrir la nouvelle application Google Photos avec son puissant mécanisme de machine learning permettant d’effectuer des recherches au sein de ses photos. Il est par exemple possible, parmi des milliers de photos, de trier celles représentant des voitures. Mais les algorithmes utilisés par Google ne semblent pas infaillibles. En effet, un twittos noir a eu la mauvaise surprise de trouver des photos de lui et sa copine (elle aussi noire) en effectuant la recherche « gorilles » dans Google Photos. L’homme a donc posté une capture d’écran sur Twitter, ce qui lui a valu les excuses du chef de projet Google+ et l’annonce d’une mise à jour de l’algorithme.

https://twitter.com/jackyalcine/status/615331869266157568

Afin d’éviter de nouvelles occurrences de ce bug pour le moins dérangeant, le tag « gorilles » tout simplement a été retiré de la base de données de Google Photos, en attendant un patch un peu plus profond du machine learning à la Google. Et justement, l’ingénieur de chez Google a précisé qu’il restait beaucoup à faire sur le machine learning et a confié que l’application a connu le même bug où tous les êtres humains étaient confondus avec des chiens.

Ce genre de problèmes est susceptible de se reproduire puisque le machine learning fonctionne d’une manière particulière. Les serveurs de Google analysent une image en réalisant plus d’une trentaine de passes sur celle-ci, par un mécanisme appelé deep neural networks. À chaque couche, ce sont différents éléments qui sont analysés. Par exemple, les formes, les ombres, les coins et les lignes dans un premier temps puis les jambes, les mains et les oreilles dans un second temps, et ainsi de suite jusqu’à réussir à reconnaître les objets ou êtres vivants présents sur la photo. Le machine learning n’est donc pas raciste, il a juste besoin d’un peu plus de temps pour apprendre de ses erreurs. Lors de la Google I/O, Sundar Pichai a d’ailleurs annoncé que le taux d’erreur sur les recherches vocales est passé de 23 % en 2013 à 8 % en 2015 grâce au deep neural networks.


Rejoignez-nous de 17 à 19h, un jeudi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !

Les derniers articles