Google supprime son engagement contre l’utilisation de l’IA pour les armes

 
Google a récemment supprimé de ses principes éthiques une clause interdisant l’utilisation de l’intelligence artificielle pour les armes ou la surveillance, une promesse en vigueur depuis 2018.
Good Kill
Image extraite du film Good Kill avec Ethan Hawke, un militaire chargé de gérer des frappes ciblées par drones

La décision de Google de supprimer de ses principes éthiques une clause interdisant l’utilisation de l’IA pour les armes ou la surveillance, repérée par Bloomberg, est un véritable tournant dans la stratégie de l’entreprise face à un contexte géopolitique en mutation.

L’entreprise justifie ce revirement par la nécessité pour les démocraties de maintenir leur avance technologique dans un paysage dominé par des régimes autoritaires. Son blog officiel souligne l’importance d’une collaboration entre entreprises, gouvernements et organisations pour développer une IA alignée sur des valeurs comme la liberté et le respect des droits humains. Pour rappel, Microsoft, Amazon et OpenAI travaillent déjà avec le secteur militaire, notamment via des projets de cloud sécurisé pour l’armée américaine.

Vers une IA militaire « responsable » ?

La suppression de cette clause intervient après des années de tensions internes. En 2018, des employés avaient protesté contre le projet Maven, une collaboration avec le Pentagone pour améliorer les systèmes de ciblage des drones. Le Pentagone a d’ailleurs d’autres projets en cours utilisant l’IA, notamment un projet de renforcement de l’armement nucléaire. Si Google affirme toujours respecter les principes du droit international et des droits humains, l’absence de mention explicite des armes ou de la surveillance laisse place à l’interprétation.

Les nouveaux principes de Google, réduits à trois axes (« innovation audacieuse », « développement responsable » et « collaboration »), mettent l’accent sur la prévention des préjudices et l’alignement sur les normes internationales. Cependant, cette flexibilité suscite des inquiétudes quant à une possible dérive vers des usages controversés. L’entreprise semble privilégier une approche pragmatique, évaluant chaque cas d’utilisation de l’IA au cas par cas.

Ce revirement pourrait marquer un alignement avec les politiques de Donald Trump, qui a récemment assoupli les réglementations sur l’IA aux États-Unis. Alors que les budgets militaires pour l’IA explosent, Google se positionne pour ne pas être marginalisé dans cette course technologique. Reste à voir comment l’entreprise conciliera innovation et éthique dans un contexte où les frontières entre sécurité nationale et risques humains restent floues.


Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !