À l’heure où les entreprises technologiques font tout pour mettre en place des outils d’IA génératives partout dans leurs services, l’heure est à la réglementation de l’intelligence artificielle. Gouvernements et sociétés privées tentent d’avancer main dans la main en trouvant des accords. C’est ce qu’il s’est passé à Séoul cette semaine où les deux parties étaient réunies.
Un « kill switch » pour désactiver instantanément les IA en cas de problème
Le scénario le plus extrême concernant les IA, c’est le cas où elles se retourneraient contre leurs créateurs et leurs utilisateurs. Un scénario catastrophe, mais sur lequel il convient de rassurer. C’est là-dessus que le sommet pour l’intelligence artificielle de Séoul a tenu à statuer, comme l’a annoncé le gouvernement britannique. Dans ce nouvel accord, les entreprises signataires se sont engagées sur plusieurs points :
- La détection des menaces et des mesures de protections contre les risques sociétaux ;
- L’investissement dans la cybersécurité, notamment afin de réduire les risques de vulnérabilités ;
- La possibilité pour les utilisateurs de savoir si un contenu est généré par une IA ;
- Le compte-rendu des capacités des modèles, leurs limites et les domaines d’utilisation appropriés.
Parmi les mesures évoquées, il y a la volonté de mettre en place des « kill switches », sorte de processus qui permettrait de désactiver facilement et rapidement l’activité de toute IA. L’importance d’avoir une sorte de bouton d’urgence pour désactiver les IA tient aussi du fait que les entreprises concernées comme OpenAI reconnaissent elles-mêmes ne pas savoir jusqu’où peuvent aller leurs outils.
Par exemple, on ne s’attendait pas à ce que les LLM soient capables de faire de la traduction. Sam Altman, le PDG d’OpenAI, a lui-même reconnu que l’intelligence artificielle générale (AGI), qui est selon lui une IA pouvant dépasser l’intelligence humaine, pourrait bientôt exister. Ce sommet à Séoul organisé par les gouvernements britannique et coréen réunissait pas moins de 16 entreprises :
- Amazon
- Anthropic
- Cohere
- G42
- IBM
- Inflection AI
- Meta
- Microsoft
- Mistral AI
- Naver
- OpenAI
- Samsung Electronics
- Technology Innovation Institute
- xAI
- Zhipu.ai
Après les accords, il faut des lois
Le prochain sommet sur l’IA est prévu à Paris en France début 2025. Les participants ont d’ores et déjà annoncé élaborer des définitions de ce qui constitue un risque en matière d’IA. Le problème avec ces deux sommets, celui de Bletchley en octobre dernier et celui de Séoul cette semaine, c’est que les engagements pris ne sont pas coercitifs. En fait, ils ne sont pas inscrits dans les lois et c’est actuellement le défi législatif prochain de tous les gouvernements du monde.
Pour aller plus loin
Mais pourquoi l’IA générative tarde-t-elle à arriver en Europe ?
Le président américain Joe Biden a toutefois mis en place une réglementation sur la sécurité de l’IA en octobre dernier. La Chine a adopté une politique officielle à propos du droit d’auteur et de la collecte des données personnelles. Quant à l’Union européenne, le Parlement s’est mis d’accord sur l’AI Act, un texte de loi global autour de l’IA, qui devrait prochainement être ratifié. De quoi mettre la pression sur les entreprises et aller au-delà des effets d’annonces de ces sommets.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix