Avec l’arrivée d’iOS 15 et macOS Monterey, Apple commence à déployer de nouvelles protections permettant de lutter contre les abus sexuels sur mineurs. Une bonne volonté qui soulève malheureusement beaucoup de questions pour finalement assez peu de résultats.
Deux outils très différents
Ce qu’Apple appelle CSAM Detection (pour Child Sexual Abuse Material) est en fait divisé en deux outils distincts. Le premier concerne l’application Messages et permet de scanner toutes les images qui y transitent afin de repérer, grâce à une intelligence artificielle, du contenu sexuellement explicite envoyé ou reçu. Dans le cas d’un résultat positif, l’image est alors floutée et l’enfant est notifié.
Tout cela se passe directement sur l’iPhone, l’iPad ou le Mac et aucune image n’est donc transmise à Apple. Par ailleurs, cela ne concerne que les appareils des enfants au sein d’un compte familial et les parents ne sont notifiés que si l’enfant a 12 ans ou moins. À partir de 13 ans, l’enfant peut donc décider de regarder les images en question s’il le souhaite, et ce en toute discrétion.
L’idée est plutôt intéressante pour préserver les yeux chastes de nos petites têtes blondes, mais nécessite tout de même que l’enfant passe par Messages et non une autre messagerie (WhatsApp, Telegram, Signal, Messenger…) et ne protège pas vraiment les enfants à partir de 13 ans qui pourraient succomber à des discours enjôleurs. Par ailleurs, certains experts en sécurité affirment que c’est là une atteinte à la promesse de chiffrement de bout en bout de la messagerie, puisqu’un contrôle du contenu est effectué à un moment du processus.
Mais c’est le deuxième outil qui soulève réellement des questions. Celui-ci scanne toutes les photos contenues sur iCloud afin de les comparer à une base de données de contenus pédopornographiques (fournie par le National Center for Missing and Exploited Children) et le signaler aux autorités en cas de correspondance avérée. Apple assure que la sécurité des données est conservée puisque seules les photos contrevenant à la loi sont partagées.
Une vague de mécontentement
À la suite de cette annonce, plusieurs voix se sont élevées contre ce qui est considéré par certains comme une atteinte à la vie privée. Tim Sweeney, fondateur d’Epic Games ayant beaucoup de choses à reprocher à Apple, a par exemple qualifié cela de « spyware gouvernemental », de même que Will Cathcart, le responsable de WhatsApp qui en a profité pour assurer que son application de messagerie n’adopterait jamais un tel système, ou encore l’ONG Electronic Frontier Foundation.
Soyons clairs : les abus sexuels sur mineurs sont horribles et sont condamnés de toute part, mais il existe d’autres moyens de lutter contre ces pratiques qu’une boîte noire opaque. C’est là le principal reproche à l’encontre de la méthode d’Apple. La base de données utilisée par Apple, bien que hashée (rendue illisible par un algorithme), contient du contenu illégal, ce qui empêche quiconque de tenter de le décrypter afin d’en vérifier son contenu. Théoriquement, elle pourrait donc également contenir d’autres éléments.
En pleine lutte contre les fuites, Apple pourrait par exemple intégrer à ce catalogue des images volées de ses propres produits afin de remonter à la source. De même, un gouvernement pourrait forcer Apple à rajouter à cette liste d’autres éléments. Matt Blaze, chercheur en informatique, assure qu’il va désormais « y avoir une énorme pression sur Apple de la part des gouvernements du monde pour étendre cette capacité de détection à d’autres types de ‘mauvais’ contenu ».
Dans un document visant à clarifier les choses, Apple promet de refuser toutes ces demandes et indique que cette base de données est intégrée au système pour éviter une injection pernicieuse d’images afin de repérer un autre contenu… mais il faudra pour cela croire l’entreprise de Cupertino sur parole. Par ailleurs, l’affaire Pegasus a montré qu’il existe toujours des failles de sécurité permettant d’exploiter des vulnérabilités.
Une protection limitée
Cette intégration n’est donc pas sans risque pour les libertés individuelles en ligne et risque malheureusement de n’avoir qu’un impact très faible sur la lutte contre la pédopornographie. Le fonctionnement de ces outils étant détaillé, les plus malintentionnés pourront sans souci les contourner pour arriver à leurs fins. Un simple lien envoyé par l’application Messages par exemple ne serait pas analysé par l’outil d’Apple et pourrait mener vers le même type de contenu.
Pour sa part, Will Cathcart indique que WhatsApp a rapporté 400 000 cas en 2020 au National Center for Missing and Exploited Children, juste en se basant sur les signalements des utilisateurs, et que plus de 300 000 comptes sont bannis chaque mois. Des chiffres qui font un peu peur, il faut bien l’avouer…
Notre émission Twitch SURVOLTÉS, c’est un mercredi sur deux de 17h à 19h : retrouvez-vous nous pour parler voiture électrique ou vélo électrique, autour de débats, d’interviews, d’analyses et de jeux !
[…] right there. I wanted to do something crazy. Now I had to find a boy willing to go with me. It was quite easy actually. I found the best looking boy around and asked him to show me the […]
[…] right there. I wanted to do something crazy. Now I had to find a boy willing to go with me. It was quite easy actually. I found the best looking boy around and asked him to show me the […]
On dirait que les mecs oublient qu’ils utilisent Google photos qui est utilisé comme base de référence, WhatsApp qui est = Facebook et donc comme messenger chaque photo accessible par l’application est aspirée, bref on crache sur Apple mais de l’autre côté c’est mieux non plus
apple a quand même une obligation légale sur ses serveurs. Il est probable qu'apple est eu des déconvenues sur des affaires de pédo s'il impose ça de fait. Par contre le hachage combiné à de l'IA il est probable qu'il y ait un certain nombre de faux positifs et donc que des photos privées soient regardé par quelqu'un d'humain. A partir de là, on peut considérer qu'il n'y a plus de confidentialité sur iPhone... Mais bon tout est relatif, la confidentialité n'existe que virtuellement, un réalité tous les services généraux ont une vue sur ce qui transite dans leurs pays, la France ne fait pas acception
Avec le hashage sur les gros fichiers ont peut savoir ce que tu possèdes comme fichiers s'ils sont connus.On utilise cette méthode pour vérifier la validité d'un téléchargement. Avec les mots de passe on arrive à les retrouver avec des bases de comparaisons.
"La base de données utilisée par Apple, bien que hashé (chiffré)" Navré mais non. Hashé n'est pas chiffré. Le chiffrement est réversible qu'il soit symétrique ou asymétrique, alors que le hashage ne l'est pas. Cela n'a donc rien à voir.
Ce qui est sur votre iPhone, Tim s'en occupe, dormez tranquille :)
Les deux outils c'est n'importe quoi. Mais le second est le pire. Mais bon, c'est le risque pour tout ceux qui mettent leur photo dans le cloud de n'importe quelle entreprise.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix