La décision de Google de supprimer de ses principes éthiques une clause interdisant l’utilisation de l’IA pour les armes ou la surveillance, repérée par Bloomberg, est un véritable tournant dans la stratégie de l’entreprise face à un contexte géopolitique en mutation.
L’entreprise justifie ce revirement par la nécessité pour les démocraties de maintenir leur avance technologique dans un paysage dominé par des régimes autoritaires. Son blog officiel souligne l’importance d’une collaboration entre entreprises, gouvernements et organisations pour développer une IA alignée sur des valeurs comme la liberté et le respect des droits humains. Pour rappel, Microsoft, Amazon et OpenAI travaillent déjà avec le secteur militaire, notamment via des projets de cloud sécurisé pour l’armée américaine.
Vers une IA militaire « responsable » ?
La suppression de cette clause intervient après des années de tensions internes. En 2018, des employés avaient protesté contre le projet Maven, une collaboration avec le Pentagone pour améliorer les systèmes de ciblage des drones. Le Pentagone a d’ailleurs d’autres projets en cours utilisant l’IA, notamment un projet de renforcement de l’armement nucléaire. Si Google affirme toujours respecter les principes du droit international et des droits humains, l’absence de mention explicite des armes ou de la surveillance laisse place à l’interprétation.
Les nouveaux principes de Google, réduits à trois axes (« innovation audacieuse », « développement responsable » et « collaboration »), mettent l’accent sur la prévention des préjudices et l’alignement sur les normes internationales. Cependant, cette flexibilité suscite des inquiétudes quant à une possible dérive vers des usages controversés. L’entreprise semble privilégier une approche pragmatique, évaluant chaque cas d’utilisation de l’IA au cas par cas.
Ce revirement pourrait marquer un alignement avec les politiques de Donald Trump, qui a récemment assoupli les réglementations sur l’IA aux États-Unis. Alors que les budgets militaires pour l’IA explosent, Google se positionne pour ne pas être marginalisé dans cette course technologique. Reste à voir comment l’entreprise conciliera innovation et éthique dans un contexte où les frontières entre sécurité nationale et risques humains restent floues.
Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix