Google et Facebook face aux problèmes de la pédopornographie
Des réseaux publicitaires accolés à des applications de découverte de groupe WhatsApp sont responsables de liens redirigeant vers des groupes de pédopornographie, explications.
Google s’est démêlé pour supprimer les applications tierces qui ont conduit les utilisateurs à des groupes de partage de pornographie enfantine sur WhatsApp, à la suite du rapport de TechCrunch sur le problème la semaine dernière.
Nous avons contacté Google avec le nom de l’une de ces applications et la preuve qu’il proposait, avec d’autres, des liens vers des groupes WhatsApp permettant de partager des images d’exploitation d’enfants. À la suite de la publication de notre article, Google a retiré cette application de Google Play Store et au moins cinq applications similaires. Plusieurs de ces applications ont été téléchargées plus de 100 000 fois et sont toujours fonctionnelles sur les appareils qui les ont déjà téléchargées.
WhatsApp n’a pas réussi à contrôler correctement sa plate-forme, confirmant à TechCrunch qu’elle n’était modérée que par ses propres 300 employés et non par celle de Facebook (20 000 collaborateurs dédiés à la sécurité et à la modération). Il est clair que les systèmes d’intelligence artificielle évolutifs et efficaces ne permettent pas de protéger la communauté WhatsApp, qui compte 1,5 milliard d’utilisateurs, et les entreprises telles que Facebook doivent investir davantage dans des enquêteurs humains inaccessibles.
En réponse, un porte-parole de Google explique que :
Google adopte une approche de tolérance zéro à l’égard des contenus d’abus sexuels sur enfants et nous avons investi dans la technologie, des équipes et des partenariats avec des groupes tels que le Centre national pour les enfants disparus et exploités, afin de résoudre ce problème depuis plus de deux décennies. Si nous identifions une application promouvant ce type de contenu que nos systèmes n’ont pas encore bloqué, nous le signalons aux autorités compétentes et le supprimons de notre plateforme. Ces stratégies s’appliquent aux applications répertoriées dans le Play Store ainsi qu’aux applications qui utilisent les services de publicité de Google.
Dans le même temps, Facebook a blâmé Google Play, affirmant que l’éligibilité des applications pour ses publicités Facebook Audience Network était liée à leur disponibilité sur Google Play et qu’elles avaient été supprimées lors de leur démarrage à partir du magasin d’applications Android. La société était plus ouverte, annonçant à TechCrunch qu’elle rembourserait les annonceurs dont les promotions étaient diffusées sur ces applications abominables. Il tire également le réseau d’audience de toutes les applications qui permettent aux utilisateurs de découvrir les groupes WhatsApp.
→ Lire aussi : USA: Washington DC. poursuit Facebook pour le scandale de Cambridge Analytica
Facebook a fourni cette déclaration concernant la position de WhatsApp sur les groupes de partage d’images illégales et les applications tierces pour les retrouver :
WhatsApp ne fournit pas de fonction de recherche pour les personnes ou les groupes – WhatsApp n’encourage pas non plus la publication de liens d’invitation vers des groupes privés. WhatsApp s’engage régulièrement avec Google et Apple pour appliquer leurs conditions de service aux applications qui tentent d’encourager les abus sur WhatsApp. À la suite des rapports publiés plus tôt cette semaine, WhatsApp a demandé à Google de supprimer toutes les applications de partage de liens de groupe connues. Lorsque des applications sont supprimées de Google Play Store, elles le sont également du réseau Audience.
Les réseaux publicitaires doivent être surveillés
Le chiffrement s’est avéré un obstacle pour WhatsApp, empêchant ainsi la propagation d’images sur l’exploitation des enfants. WhatsApp ne peut pas voir ce qui est partagé à l’intérieur des discussions de groupe. Au lieu de cela, il doit s’appuyer sur les quelques données publiques et non chiffrées, telles que les noms de groupe et les photos de profil, ainsi que les photos de profil de leurs membres, à la recherche de noms suspects ou d’images illégales. La société compare ces images à une base de données PhotoDNA contenant des photos d’exploitation d’enfants connues afin de gérer les interdictions, et demande à des modérateurs humains de rechercher si des images apparemment illégales ne sont pas déjà enregistrées. Il rend ensuite compte de ses conclusions aux forces de l’ordre et au Centre national pour enfants disparus et exploités. Un cryptage puissant est important pour protéger la vie privée et les dissensions politiques, mais il empêche également la détection de contenus illégaux et nécessite par conséquent une modération manuelle accrue.
Avec seulement 300 employés au total et un seul sous-groupe travaillant sur la sécurité ou la modération de contenu, WhatsApp semble en sous-effectif pour gérer une base d’utilisateurs aussi importante. On a essayé de dépendre de l’IA pour protéger la communauté. Cependant, cette technologie ne peut pas encore mener les enquêtes nuancées nécessaires pour lutter contre l’exploitation. WhatsApp fonctionne de manière semi-indépendante de Facebook, mais pourrait engager davantage de modérateurs pour enquêter sur les applications de découverte de groupe qui conduisent à la pornographie enfantine si Facebook affectait davantage de ressources à son acquisition.
Les applications de découverte de groupe WhatsApp comprenaient des sections pour adultes contenant des liens vers des groupes d’imagerie sur l’exploitation des enfants, Google et Facebook, avec leurs vastes effectifs et leurs marges de profit, négligent de contrôler correctement les hébergeurs de leurs réseaux publicitaires. Les entreprises ont cherché à générer des revenus supplémentaires en diffusant des annonces sur d’autres applications, sans toutefois assumer la responsabilité qui leur incombait de veiller à ce que ces applications ne facilitent pas la criminalité. Des examens plus stricts du contenu intégré à l’application doivent être effectués avant qu’une application ne soit acceptée dans les magasins d’applications ou les réseaux d’annonces, et périodiquement une fois qu’ils sont en cours d’exécution. Et lorsque les systèmes automatisés ne peuvent pas être déployés, comme cela peut être le cas avec le contrôle des applications tierces, des employés doivent être affectés en dépit du coût.
Il devient de plus en plus évident que les réseaux sociaux et les réseaux publicitaires qui tirent profit du contenu d’autres personnes ne peuvent pas être des vaches à lait demandant peu d’entretien. Les entreprises doivent investir beaucoup d’argent et de main-d’œuvre dans la sauvegarde de toutes les propriétés qu’elles gèrent ou monétisent, même si cela rend les opportunités moins lucratives. L’exploitation à nu d’Internet sans se soucier des conséquences doit prendre fin.
Abdellah Chbani avec TechCrunch