ChatGPT, Midjourney… Comment les IA vont-elles être régulées ? Voici quelques éléments de réponse

 
Les autorités publiques de régulation américaines et britanniques annoncent s’attaquer à la question fâcheuse de l’intelligence artificielle. Comment réguler les outils de génération automatique de texte ou d’image, comme ChatGPT ou Midjourney ? La FTC et la CMA donnent quelques premiers éléments de réponse.
Deux IA, representées par des robots, s’affrontent // Source : Image créée par Frandroid avec Midjourney

Deux autorités publiques de protection des consommateurs et de promotion de la concurrence ont annoncé très récemment examiner le marché de l’intelligence artificielle, notamment pour les outils de génération de texte et d’image. Ce alors même que l’Union européenne et sa Commission tendent à prendre du retard sur la question, malgré un AI Act en développement.

Des questions autour de l’IA qui ne sont pas nouvelles

Alors que nombre de géants de la tech tentent d’intégrer de l’IA partout, parfois au détriment de législations en vigueur, la CMA se défend de tout retard sur la question. Selon sa directrice générale Sarah Cardell, « l’IA a fait irruption dans la conscience publique au cours des derniers mois, mais elle est sur notre radar depuis un certain temps. »

Deux IA, representées par des robots, s’affrontent // Source : Image créée par Frandroid avec Midjourney

Dans une tribune publiée dans le New York Times par Lina Khan, présidente de la Federal Trade Commission (FTC), l’autorité américaine qui s’intéresse à la protection des consommateurs et à la concurrence des marchés, on y lit que « la dernière fois que nous avons été confrontés à un changement social d’une telle ampleur provoqué par la technologie, c’était au début de l’ère du web 2.0, au milieu des années 2000. » Selon elle, l’utopie de Google ou de Facebook, le rêve de la gratuité, s’est plus ou moins transformé en cauchemar avec la protection des données personnelles et les modèles commerciaux de ces nouveaux géants. Elle rappelle que la FTC a démontré que certaines de ces entreprises n’avaient pas respecté la loi et que sa commission avait permis de changer certaines choses.

Deux autorités publiques examinent le marché de l’intelligence artificielle

La Competition and Markets Authority (CMA), l’autorité publique britannique en charge des marchés et de la concurrence, annonce ouvrir un premier examen « des considérations relatives à la concurrence et à la protection des consommateurs dans le cadre du développement et de l’utilisation des modèles de base de l’IA » suite à une demande de son gouvernement. L’intérêt de la CMA sur ce dossier est de garantir que les outils d’intelligence artificielle profitent aux consommateurs et aux entreprises britanniques, ainsi qu’à l’économie de l’Union. Dans son communiqué, la CMA précise chercher « à obtenir des avis et des preuves de la part des parties prenantes et souhaite recevoir des soumissions d’ici le 2 juin 2023. »

Lina Khan, commissaire à la FTC // Source : FTC

Quant à la FTC, elle se dit consciente de la « course au déploiement et à la monétisation de l’IA » et va aussi examiner ce marché, afin de « promouvoir une concurrence loyale et protéger les Américains contre les pratiques déloyales ou trompeuses. » Pour Lina Khan, « l’adoption croissante de l’IA risque d’asseoir encore davantage la domination du marché par les grandes entreprises technologies en place. » En cause, le fait qu’elles disposent des puissances de calcul et des machines nécessaires aux start-ups qui souhaitent se lancer. La FTC va même plus loin en expliquant que les outils d’intelligence artificielle utilisés pour fixer des prix « peuvent faciliter les comportements collusoires qui gonflent injustement les prix ». Lina Khan ajoute avoir peur d’une augmentation des escroqueries, l’IA étant « déjà capable de rédiger un message apparemment authentique beaucoup mieux que l’escroc moyen ».

GPT-4 imaginé par Midjourney
GPT-4 imaginé par Midjourney // Source : Midjourney par Frandroid

Leur but à elles deux sera d’examiner la concurrence sur le marché de l’intelligence artificielle, en établissant plusieurs scénarios de son évolution pour prévoir des protections pour les consommateurs. Elles vont également étudier comment sont développés les outils d’IA : leur développement pose des multiples questions, sur la sécurité, la vie privée, le droit d’auteur, mais aussi les conditions des travailleurs du secteur. Mais pour la FTC, « les lois existantes interdisant la discrimination s’appliqueront, de même que les autorités existantes interdisant la collecte ou l’utilisation de données personnelles à des fins d’exploitation. »

Une Commission européenne en retard ?

Nous avons abordé jusqu’à maintenant les positions des autorités britanniques et américaines, mais qu’en est-il du côté de l’Union européenne, qui représente pourtant un marché très important. En parallèle du Digital Services Act et du Digital Markets Act, la Commission européenne travaille à un AI Act depuis avril 2021, destiné à légiférer sur l’intelligence artificielle. Mais il faut reconnaître que le projet tend à prendre du retard sur les innovations et l’intégration de ces technologies.

Microsoft ChatGPT vs Google Bard, les deux IA sont représentées par des robots // Source : Image créée par Frandroid avec Midjourney

En décembre dernier, le Conseil a adopté une position commune sur la question, il dit vouloir « veiller à ce que les systèmes d’intelligence artificielle (IA) mis sur le marché de l’UE et utilisés dans l’Union soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux et les valeurs de l’Union. » Pour le moment, le texte, très axé sur les usages, prévoit d’interdire l’utilisation de l’intelligence artificielle « à des fins de notation sociale », mais aussi que les systèmes d’identification biométriques « en temps réel » ne soient utilisées par des autorités répressives que de manière exceptionnelle. On apprend aussi que le texte prévoit de renforcer la transparence sur l’utilisation des IA, par exemple si des utilisateurs se trouvent en face d’un « système de reconnaissance des émotions ».

Quelques exemples de question à poser à ChatGPT via Bing // Source : Capture d’écran

Au-delà de la législation, l’Union européenne se rêve en pionnier de l’intelligence artificielle, surtout du point de vue de l’innovation. Comme l’écrivait Le Monde il y a quelques mois, le Commissaire européen au marché intérieur Thierry Breton est « partisan de faire émerger une économie des données, notamment industrielles. »

Le principal problème de l’AI Act, c’est qu’il ne mentionne pas clairement les intelligences artificielles dites « génératives » : on parle ici de ChatGPT, Bing Chat, Google Bard, Midjourney ou encore de Stable Diffusion. Si sous la présidence française du Conseil, Jean-Noël Barrot argue que « Paris a poussé pour que les systèmes d’intelligence artificielle à portée générale soient intégrés », le changement de présidence a « limité la portée » selon Alexei Grinbaum, membre du Comité national d’éthique du numérique. Il note également que la question de la responsabilité des développeurs de modèles d’intelligence artificielle pouvant être utilisés par des entreprises. On peut par exemple penser à GPT-4, qui peut être utilisé par des entreprises éditant leurs propres outils. Un point sur lequel OpenAI « s’est inquiétée de l’incertitude autour de la responsabilité et des obligations », écrivait le journaliste Alexandre Piquard. Pour connaître la réelle portée de l’AI Act, il faudra attendre d’ultérieures discussions entre le Conseil et la Commission.


Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Les derniers articles