« J’ai vu des images horribles » : Instagram frappé par un bug qui fait scandale

 
Les utilisateurs d’Instagram ont récemment vécu une expérience assez perturbante sur la plateforme, puisque les vidéos courtes de la plateforme ont été inondées de contenus assez choquants.

De nombreux internautes ont signalé une soudaine augmentation de contenus violents et sexuellement explicites dans leur flux Reels sur Instagram, soulevant des inquiétudes quant à un possible dysfonctionnement de l’algorithme de recommandation. Cette situation a provoqué une vague de réactions sur les réseaux sociaux, notamment sur X (anciennement Twitter).

Les utilisateurs ont exprimé leur choc et leur incompréhension face à l’apparition de vidéos graphiques, y compris des scènes de violence extrême et de gore.

Certains ont même rapporté avoir été exposés à ces contenus malgré l’activation des paramètres de contrôle du contenu sensible. L’ampleur du problème est d’autant plus préoccupante que les Reels sont devenus une fonctionnalité centrale d’Instagram, avec plus de 17,6 millions d’heures de visionnage quotidien.

Les utilisateurs passent environ la moitié de leur temps sur la plateforme à regarder ces courtes vidéos, ce qui rend l’exposition à du contenu choquant particulièrement problématique.

Pour aller plus loin
Instagram : comment créer un montage de plusieurs photos en story

Meta reconnaît l’erreur et promet des solutions

Face à l’indignation croissante des utilisateurs, Meta, la société mère d’Instagram, a finalement réagi. Un porte-parole de l’entreprise a reconnu l’existence d’un bug ayant entraîné la recommandation de contenus inappropriés dans les flux Reels de certains utilisateurs. L’entreprise s’est excusée pour cette erreur et a affirmé avoir corrigé le problème.

Cet incident soulève des questions sur l’efficacité des systèmes de modération de contenu de Meta. L’entreprise utilise une combinaison de technologies d’intelligence artificielle et d’une équipe de plus de 15 000 modérateurs pour détecter et supprimer les contenus violant ses règles. Cependant, ce récent dysfonctionnement met en lumière les limites de ces systèmes.

La situation est d’autant plus délicate pour Meta que Mark Zuckerberg a récemment annoncé des changements dans sa politique de modération, visant à favoriser la liberté d’expression. Ces modifications incluent une réduction des interventions automatisées pour les violations mineures des règles et une plus grande dépendance aux signalements des utilisateurs.

Cet incident survient également dans un contexte de réduction des effectifs chez Meta, avec la suppression de 21 000 emplois en 2022 et 2023, affectant notamment les équipes chargées de l’intégrité civique et de la sécurité. Avec moins de personnel pour modérer les contenus, il fallait inévitablement s’attendre à de telles dérives, qui sont d’ailleurs aussi un fléau sur X depuis son rachat par Elon Musk.