Tantôt assistant personnel, générateur d’images ou génératrices d’arnaques. L’intelligence artificielle se démocratise dans de nombreux secteurs. Des avancées qui poussent l’état de Californie vers une réglementation proche de celle que l’on retrouve en Europe. Une décision qui ne plaît pas à tout le monde.
La loi face au lobby
Le 15 août 2024, le projet de loi « SB 1047 » a été adoptée par l’Assemblée et le Sénat de l’Etat de Californie. Entre les mains du gouverneur de l’Etat, le projet vise à mettre en place des garde-fous face aux avancées de l’IA. Le projet dans sa première version prévoyait un « kill switch » sur certaines IA ou encore des tests de sécurité approfondie pour juger du risque de l’IA sur l’humanité.
Des décisions qui ne passent pas pour les industriels mis face à leurs responsabilités sur leur création.
Le projet a depuis été remanié, ne permettant plus de poursuivre les développeurs pour des incidents de sécurité majeurs. Il devrait tout de même permettre d’agir dans le cadre de deepfake menaçant l’intégrité démocratique.
Cette version adoucie ne fait toujours pas consensus au sein de l’industrie qui évoque un retard qu’elle pourrait prendre face à d’autres pays. The Verge a pu entrer en contact avec certains entrepreneurs dont Andrew Ng, fondateur de Google Brain qui souhaite faire la distinction entre la technologie et son usage. « Quand quelqu’un entraîne un grand modèle de langage… c’est une technologie. Quand quelqu’un les […] utilise pour générer des deepfakes politiques ou du porno deepfake non consensuel, ce sont des applications », affirme-t-il.
Une justification qui déchargerait les concepteurs des actes malveillants pouvant être commis avec leurs « outils ».
Pour aller plus loin
Mais pourquoi l’IA générative tarde-t-elle à arriver en Europe ?
Un écho européen
L’état californien est réputé pour avoir une position puissante pour réglementer l’IA avec un système se rapprochant de la RGPD européenne. Avec sa version assouplie, la loi « SB 1047 » constitue un élément réflexif pour les entreprises. Les obligeant à prendre plus au sérieux les risques de leurs créations.
En Europe, une loi similaire intitulée l’ « AI Act » exige des entreprises IA une transparence sur leurs modèles d’entraînements, les données personnelles ou encore le droit d’auteur. Une loi qui se place du côté des utilisateurs, mais qui ne plait pas aux industriels qui retardent le lancement de leurs produits en Europe quitte à se mettre à dos leurs utilisateurs.
Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix