Contenus nocifs: Facebook à la poursuite du risque zéro
L’intelligence artificielle joue un rôle exponentiel dans la chasse de Facebook aux vidéos terroristes ou aux images faisant l’apologie du suicide, mais le géant des technologies a aussi besoin de nombreux experts en chair et en os pour ne pas se faire rattraper par les nombreux risques de scandales.
« Nos efforts sont en train de payer », assure d’emblée Mark Zuckerberg, lors d’une conférence de presse mercredi, à l’occasion de la publication d’un rapport bi-annuel de Facebook sur la transparence, se targuant dans le même temps d’avoir supprimé 5,4 milliards de faux comptes d’utilisateurs depuis le début de l’année.
Les algorithmes du réseau social « sont désormais capable d’identifier de façon pro-active environ 80% des contenus que nous retirons », « contre quasiment 0% il y a deux ans », s’est félicité le fondateur du géant des réseaux.
Mais il reconnaît que les technologies d’intelligence artificielle (IA) ont plus de mal à repérer les discours haineux que les vidéos comportant de la nudité, à cause des « nombreuses nuances linguistiques ».
C’est tout le problème du contexte: une vidéo montrant une attaque raciste peut être partagée à des fins de condamnation… ou de glorification.
Difficile par exemple de savoir dans quel but des utilisateurs ont essayé, et essaient encore, de republier la vidéo de la tuerie de Christchurch. Mais les algorithmes de Facebook ont su bloquer en amont 95% de leurs tentatives.
→ Lire aussi : Facebook accusé de discrimination dans le ciblage publicitaire
En tout, depuis l’attaque le 15 mars dernier, 4,5 millions d’extraits de cette vidéo ont été détectés par l’IA. L’assaillant, un suprémaciste blanc, s’était filmé en direct en train de massacrer des fidèles dans une mosquée en Nouvelle-Zélande. Le réseau avait mis 17 minutes à stopper la diffusion.
Pour Facebook, l’enjeu est d’anticiper d’où va venir la menace, avant qu’elle n’arrive, pour empêcher que ce genre de scénario ne se reproduise.
« Nous avons désormais plus 350 personnes dans l’entreprise dont la responsabilité première est d’empêcher des membres de groupes terroristes d’utiliser notre service », remarque Monika Bickert, vice-présidente en charge de la modération de Facebook.
« Une partie d’entre eux sont des spécialistes du terrorisme, que nous avons embauchés pour leur expertise ».
Même stratégie sur Instagram, qui a récemment durci sa réglementation pour lutter contre la circulation de contenus susceptibles d’encourager le suicide ou l’automutilation.
Le réseau a interdit les photos, puis les dessins et illustrations sur le sujet après qu’un père eut accusé le réseau social d’avoir une responsabilité dans le suicide de sa fille de 14 ans. L’adolescente avait, selon son père, consulté beaucoup de contenus sur ce sujet.
Dans le même temps, Facebook ne veut pas censurer les personnes qui se serviraient de ses services pour exprimer leurs émotions ou appeler à l’aide.
« Nous avons intensifié le rythme de nos rencontres avec des experts de l’autodestruction à une fois par mois » précise Monica Bickert.
En tout, Facebook compte 35.000 personnes qui travaillent, en interne et chez des entreprises partenaires, à la sécurité et à la modération de contenus sur ses plateformes.
Le réseau dominant a traversé plusieurs scandales d’utilisation néfaste de ses plateformes, des contenus dangereux aux campagnes de désinformation menées pendant des campagnes électorales, qui nuisent à la démocratie.
Depuis, il multiplie les efforts, notamment en matière de transparence, pour rétablir la confiance avec ses utilisateurs, les autorités et les annonceurs publicitaires.
Le géant des technologies a affirmé avoir supprimé 5,4 milliards de faux comptes d’utilisateurs depuis le début de l’année, contre 2,1 milliards l’année dernière à la même période.
Dans son rapport il explique avoir « amélioré ses capacités à détecter et bloquer » les créations de comptes « faux ou abusifs » au point d’empêcher des millions de tentatives tous les jours.
« La probabilité que des utilisateurs voient des contenus interdits par notre règlement (…) est très faible. Quand nous faisons des tests il arrive que nous ne trouvions rien du tout », constate Guy Rosen, vice-président en charge de l’intégrité du réseau.
Selon Mark Zuckerberg, la « très faible proportion de contenus nocifs » sur la plateforme prouve que Facebook ne cherche pas à profiter de contenus viraux, donc lucratifs, comme l’accusent certains détracteurs.
Le groupe tire l’essentiel de ses revenus de la publicité, mais « les annonceurs ne veulent pas que leurs marques apparaissent à côté des contenus problématiques », insiste-t-il. « Donc si nos affaires nous influencent, c’est plutôt pour nous encourager à nous attaquer à ces contenus de façon encore plus agressive ».
Avec AFP