Des photos d’enfants utilisées sans leur consentement pour entraîner des IA

 

L'ONG Human Rights Watch dénonce l'utilisation de photos d'enfants destinées à entraîner des IA génératives et ce sans leur consentement. Elles ont été récupérées sur Internet et intégrées dans des ensembles de données. De quoi engendrer des dérives sur la génération d'images d'enfants.

Une image générée par Midjourney après lui avoir demandé d’illustrer une IA participant à un salon tech // Source : Frandroid

L’une des grandes problématiques de l’entraînement des outils d’intelligence artificielle, c’est le consentement à l’utilisation des données qu’il requiert. C’est ce que dénonce une nouvelle fois Human Rights Watch dans un rapport sur l’utilisation de photos personnelles d’enfants brésiliens récupérées sur Internet sans leur consentement.

« Les enfants ne devraient pas avoir à vivre dans la crainte que leurs photos soient volées et utilisées contre eux » : l’IA une nouvelle fois dénoncée

C’est une déclaration de Hye Jung Han, chercheuse et avocate spécialisées dans les droits de l’enfant et de la technologie au sein de l’ONG. Elle demande à ce que le gouvernement brésilien prenne d’urgence des décisions pour protéger les données de mineurs contre toute utilisation abusive de l’IA.

Tout part de l’analyse d’un ensemble de données baptisé LAION-5B, qui permet d’entraîner des outils d’IA. Il a été constitué à partir de nombreux contenus disponibles sur Internet, se basant notamment sur le référentiel de données Common Crawl, qui « scrape » (récolte) des contenus sur Internet de manière automatisée. Parmi eux, des photos d’enfants brésiliens identifiables avec les noms de certains d’entre eux dans la légende ou dans l’URL de l’image. Pour Human Rights Watch, il est facilement de retrouver leur véritable identité dans la plupart des cas, notamment grâce à des informations sur le lieu et le moment où les photos ont été prises. Dans son rapport, elle précise : « l’une de ces photos montre une fillette de deux ans, bouche bée d’émerveillement alors qu’elle touche les petits doigts de sa sœur qui vient de naître. La légende et les informations intégrées à la photo révèlent non seulement les noms des deux enfants, mais aussi le nom et l’emplacement précis de l’hôpital de Santa Catarina où le bébé est né il y a neuf ans, un après-midi d’hiver. »

Le site de LAION // Source : Frandroid

Elles proviennent de blogs personnels ou de sites de partage de photos et de vidéos : les réseaux sociaux arrivent généralement à bloquer les robots qui récoltent des données sur le web. C’est aussi le cas de YouTube selon qui c’est une violation des conditions d’utilisation, bien que les protections semblent avoir des failles sur lesquelles la plateforme travaille. Les photos ont été téléchargées parfois il y a des années (des années 90 à 2023), avant même la constitution de LAION-5B. Mais pour Hye Jung Han, « il suffit de regarder le contexte dans lequel elles ont été publiées pour comprendre qu’elles jouissent d’une certaine intimité […] La plupart de ces images ne pouvaient être trouvées en ligne par le biais d’une recherche d’images inversée », a-t-elle expliqué à Wired.

Les dangers liés à l’utilisation de photos d’enfants pour entraîner des IA

Au total, ce sont 170 photos d’enfants qui ont été retrouvées par l’ONG, provenant de 10 États du Brésil. Human Rights Watch indique cependant que ce chiffre est sous-estimé par rapport à la quantité totale de données personnelles d’enfants qui existent dans LAION-5B : elle n’a analysé que 0,0001% des 5,85 milliards d’images et légendes dans cet ensemble de données. Ce qui fait que ces photos ne sont en fait très peu regardées et « semblent avoir bénéficié d’un certain degré de confidentialité. » L’organisation à but non lucratif derrière LAION-5B nommée LAION a confirmé que son ensemble de données contenait des photos personnelles d’enfants : elle s’est engagée à supprimer celles indiquées par Human Rights Watch.

Deux IA, representées par des robots, s’affrontent // Source : Image créée par Frandroid avec Midjourney

Le problème selon l’ONG, c’est que les outils d’IA peuvent parfois reproduire à l’identique le matériel sur lequel ils ont été entraînés. Ce qui signifie que ces photos d’enfants pourraient être reproduites à l’identique, avec les mêmes visages mais dans des situations différentes. Ce qui peut engendrer du plagiat d’artistes, comme cela avait été le cas avec Midjourney. Cela pose des soucis de protection des données, mais aussi de deepfakes de photos d’enfants. Y compris des photos explicites avec des mineurs à partir de photos inoffensives. Du contenu pédopornographique qui est parfois compris dans les ensembles de données : c’est ce qu’avaient démontré des chercheurs de l’université de Standford dans LAION-5B en décembre dernier. D’ailleurs, l’ensemble a été utilisé pour entraîner Stable Diffusion, un générateur d’images très populaire développé par Stability AI. LAION se défend toutefois de cela et que pour elle, il incombe aux enfants et à leurs tuteurs de retirer les photos personnelles d’Internet, ce qui est la protection la plus efficace.


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !