Le général Anthony J. Cotton, commandant du US Strategic Command, a révélé lors de la conférence 2024 du Département de la Défense que son service étudie « toutes les technologies possibles » pour moderniser les capacités NC3. Cette déclaration intervient dans un contexte où les États-Unis prévoient d’investir 1,7 trillion de dollars pour mettre à jour leur arsenal nucléaire.
Cotton a toutefois tenu à rassurer : « L’IA améliorera nos capacités de prise de décision, mais nous ne devons jamais lui permettre de prendre ces décisions à notre place ». Cette position fait écho à l’engagement pris en mai dernier par Paul Dean, responsable du contrôle des armements au Département d’État, affirmant la volonté américaine de maintenir le contrôle humain sur les armes nucléaires.
Pour aller plus loin
Pourquoi Google passe au nucléaire pour alimenter son IA
L’IA pourrait rendre les armes nucléaires encore plus dangereuses
Les motivations avancées pour l’intégration de l’IA incluent la gestion d’un volume croissant de données de capteurs, les préoccupations de cybersécurité, et la nécessité de maintenir l’avantage stratégique américain. Chris Adams, de Northrop Grumman, souligne que le NC3 comprend des centaines de systèmes qui doivent être modernisés face à des menaces en constante évolution.
Cependant, des inquiétudes persistent. Une étude récente impliquant différents modèles d’IA, dont GPT-4, a révélé une tendance inquiétante à l’escalade dans les simulations de conflits, certains systèmes allant jusqu’à suggérer l’utilisation d’armes nucléaires sans avertissement. On espère que le prochain GPT-5 ne tiendra pas de propos similaires, puisqu’on sait déjà qu’OpenAI veut en faire une véritable superintelligence.
Le général Cotton est heureusement bien conscient de ces risques : « Nous devons orienter nos recherches pour comprendre les effets en cascade des modèles d’IA, les comportements inattendus, et l’intégration indirecte de l’IA dans les processus de décision nucléaire ».
Bien que l’expert Alex Wellerstein de l’Institut Stevens de Technologie estime qu’il ne s’agit pas d’un scénario « Skynet », l’influence potentielle de l’IA sur les décisions nucléaires soulève des questions éthiques et sécuritaires majeures. Le défi consistera évidemment à trouver un équilibre entre modernisation technologique et maintien d’un contrôle humain absolu sur ces armes de destruction massive.
Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix