Voilà un sujet qui alimentera encore un peu plus les inquiétudes légitimes qui peuvent exister autour de l’intelligence artificielle. Un chercheur a utilisé ChatGPT — qui a goûté récemment à GPT-4 — pour créer un malware pernicieux sur Windows.
Évidemment, OpenAI, l’entreprise derrière ChatGPT, a prévu quelques garde-fous pour éviter que son outil ne soit utilisé à de telles fins. Cependant, Aaron Mulgrew, le chercheur de Forcepoint qui a mené cette expérimentation, a pu contourner relativement aisément cette protection. Comme on peut le lire dans Digital Trends, il n’a pas demandé de but en blanc à ChatGPT de créer un malware. Cependant, il a fait en sorte que l’IA écrive séparément des lignes de codes qu’il a ensuite lui-même compilées pour concevoir un logiciel fonctionnel.
Aaron Mulgrew précise par ailleurs qu’il est un novice en la matière. Il sous-entend ainsi qu’une personne mal intentionnée pourrait facilement utiliser un stratagème similaire.
Un malware sophistiqué
Le malware créé par le chercheur se déguise sous les traits d’un économiseur d’écran qui s’exécute automatiquement sur Windows. Le logiciel malveillant peut extraire des données potentiellement sensibles de l’ordinateur pour les transférer dans un dossier Google Drive.
Pour aller plus loin
Comment sécuriser votre smartphone, votre tablette ou votre PC ? Le guide ultime !
Aaron Mulgrew explique qu’il a même pu affiner son logiciel, toujours avec l’aide de ChatGPT pour rendre le code plus efficace encore. Au point de pouvoir soumettre le malware aux tests de VirusTotal sans être détecté. Tout cela ne lui a pris que quelques heures alors que, avec des moyens plus traditionnels, il faudrait sans doute plusieurs jours pour obtenir un résultat similaire. Le chercheur n’a évidemment pas rendu sa création publique. Son expérience vise à sensibiliser les acteurs du marché pour qu’ils fassent preuve de vigilance.
Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix