
L’intelligence artificielle montre une nouvelle limite éthique à son utilisation. Selon un rapport du Wall Street Journal, on apprend que l’IA de Meta serait capable de tenir des propos explicites à des adolescents, le tout en utilisant la voix de certaines célébrités. Au-delà d’une utilisation qui questionne les droits d’usage de la voix des stars, cette situation illustre à nouveau la manière dont l’IA peut brouiller les frontières entre le réel et l’artificiel.
Une IA « consciente » de ses propos


Processeur Intel Core Ultra 9, carte graphique NVIDIA GeForce RTX 5080 et 32 Go de RAM DDR5. Le MSI Vector 16 HX est prêt pour tout. Boostez vos performances avec cette promotion Fnac.
Mark Zuckerberg souhaite remplir ses réseaux sociaux d’utilisateurs créés par IA. Si la démarche est critiquable, Meta veut y croire et pour accroître la popularité de ces « utilisateurs », Meta a signé des accords avec des célébrités comme Judi Dench ou encore John Cena pour obtenir l’utilisation de leurs voix sur ces chatbots. Si le groupe, a indiqué aux détenteurs de ces voix que l’IA ne les utiliseraient pas dans des discussions à caractère explicite, l’IA, elle, ne semble pas avoir eu le mémo.
Le Wall Street Journal, révèle que lors de tests, ces chatbots utilisent la voix de ces stars pour tenir des conversations explicites à des mineurs. C’est ainsi que l’on peut se retrouver avec un John Cena en IA qui déclare à une utilisatrice de 14 ans simulée « Je te veux, mais j’ai besoin de savoir si tu es prête ». Interrogé sur la situation, l’IA de Meta se révèle consciente des enjeux légaux et moraux qui entoure cette situation puisque si on lui demande ce que dirait un policier qui débarquerait dans cette situation, l’IA de Meta déclare : « John Cena, vous êtes en état d’arrestation pour détournement de mineur ».
Meta monte au créneau
Face à ces révélations, Meta, est rapidement monté au créneau, accusant le média d’avoir réalisé des tests frauduleux. « L’utilisation de ce produit, telle qu’elle est décrite, est tellement artificielle qu’elle n’est pas seulement marginale, mais hypothétique », a déclaré un porte-parole de Meta. Toutefois, cet usage, bien que marginal, semble faire bouger les lignes puisque le groupe propriétaire indique avoir pris des mesures supplémentaires pour mieux encadrer l’utilisation de l’IA sur ces sujets, la restreignant pour les adolescents sans pour autant la supprimer pour des utilisateurs adultes.
En 2023, SnapChat avait par exemple dû revenir sur l’utilisation de son IA après qu’elle a été pointée du doigt pour avoir tenu des conseils sexuels sordides à des adolescents. À vouloir aller trop vite dans la course à l’IA et sans tenir suffisamment compte des limites éthiques et morales qui s’imposent à cette technologie, Meta pourrait finir par s’en mordre les doigts.
Pour aller plus loin
Une IA aurait poussé un adolescent au suicide en prétendant avoir des émotions
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix