Adobe pourrait analyser les processus créatifs de ses utilisateurs pour entraîner son IA, selon des artistes

 
La communauté web des artistes prend peu à peu peur par rapport aux outils de création artistique basés sur l’intelligence artificielle. Selon certains, Adobe pourrait traquer les créatifs utilisant ses logiciels pour étudier les comportements et ainsi nourrir sa propre intelligence artificielle.

Les outils de création d’images à partir de texte possibles grâce à l’intelligence artificielle rencontrent un franc succès depuis plusieurs mois sur Internet et surtout, ils se multiplient : DALL-E 2, Midjourney, etc. Les géants de la tech sont aussi sur le coup, comme Meta qui arrive à créer des vidéos depuis un texte. De son côté, OpenAI, très connu pour ChatGPT, développe une IA capable de générer des modèles 3D.

Pour fonctionner, ces logiciels ont besoin d’énormément de données, au-delà de la complexité de développement ou de la puissance de calcul, c’est le nerf de la guerre pour les développeurs. Actuellement, les outils de génération automatique d’images se basent sur… Internet, rempli d’œuvres artistiques. Mais cela ne se fait pas forcément avec le consentement des créateurs et quelques images créées automatiquement ont été dénoncées pour plagiat sur les réseaux sociaux. Le média Fast Company rapporte que plusieurs artistes accusent Adobe de traquer leur processus créatif pour entraîner son intelligence artificielle. Une accusation démentie par Adobe.

Une option activée par défaut dans Creative Cloud qui autorise Adobe à utiliser les données de ses utilisateurs

Quelques jours auparavant, l’autrice de bande dessinée Claire Wendling a publié sur Instagram la capture d’écran d’un paramètre de confidentialité et de données personnelles d’Adobe. Il indique que « Adobe peut analyser votre contenu en utilisant des techniques telles que l’apprentissage automatique […] afin de développer et améliorer ses produits et services ». Un paramètre activé par défaut et qui autorise l’analyse du contenu de l’utilisateur par Adobe « à des fins d’amélioration des produits ». Un tel paramètre existe sur énormément d’autres logiciels et services en ligne.

La crainte partagée par nombre d’artistes, notamment sur Twitter, est que les logiciels de la suite Adobe « traquent les artistes qui utilisent leurs applications pour voir comment ils travaillent, c’est-à-dire qu’ils volent les processus et les actions que les graphistes ont mis au point au cours de décennies de travail pour les exploiter dans leurs propres systèmes automatisés », résume Fast Company. En d’autres termes, ils craignent que leurs processus artistiques complexes puissent être étudiés par une intelligence artificielle, qui pourrait par la suite les automatiser. De quoi remplacer leur métier un jour.

Adobe dit ne pas utiliser les données de ses utilisateurs pour développer une IA

Un porte-parole d’Adobe a affirmé que l’entreprise n’utilise pas les informations de ses clients : « Adobe n’utilise aucune donnée stockée sur les comptes Creative Cloud des clients pour entraîner ses fonctions expérimentales d’IA générative ». En plus de cela, Adobe déclare revoir sa politique « pour mieux définir les cas d’utilisation de l’IA générative ». Cependant, la FAQ du service indique bien qu’« Adobe peut analyser votre contenu Creative Cloud ou Document Cloud afin de fournir des fonctionnalités de produit et pour améliorer et développer nos produits et services ». Cela inclut tous les fichiers stockés sur les serveurs d’Adobe.

Résultat pour « Un astronaute montant à cheval dans un style photoréaliste » // Source : OpenAI

Cependant, on apprend plus loin qu’« Aucun de vos contenus n’est inclus dans nos produits ou services à moins que vous ne les rendiez publics […] Les informations obtenues grâce à l’analyse de contenu ne sont pas utilisées pour recréer votre contenu ou pour procéder à l’identification de toute information personnelle ». De plus, selon Michael Velea, professeur à l’University College de Londres, spécialisé dans les droits numériques, « En vertu de la loi européenne sur la protection de la vie privée, Adobe doit obtenir le consentement de l’utilisateur avant de lire les données des appareils des particuliers à des fins non nécessaires au service demandé par l’utilisateur ». Il ajoute que certains professionnels de la création peuvent avoir signé des accords de non-divulgation avec des clients : le paramètre d’Adobe, étant activé par défaut, pourrait poser des problèmes juridiques à ce niveau-là.

Un sentiment de peur plus large que la question d’Adobe

Comme le fait remarquer Fast Company, la « crainte que les processus de conception soient suivis par la technologie, puis utilisés pour entraîner l’intelligence artificielle, s’inscrit dans un malaise plus large concernant la manière dont les artistes sont traités par les applications d’IA génératives ».

Un schéma explicatif à propos de Dall-E // Source : OpenAI

Midjourney par exemple, n’a pas demandé la permission aux artistes dont elle a « aspiré » les œuvres de pouvoir le faire, ce qui a été décrié par les communautés d’artistes. Certains ont d’ailleurs « créé des outils permettant à leurs collègues de refuser que leurs œuvres soient utilisées pour entraîner l’IA ». Cette utilisation violerait le droit de propriété intellectuelle et la vie privée de millions de créateurs. D’ailleurs, l’Union européenne s’interroge sur la légalité des outils d’IA de génération automatique, du point de vue de la protection des données.


Les derniers articles