Le plus grand réseau social du monde, une fois n'est pas coutume, montre patte blanche. Il dévoile la plupart des chiffres liés au direct et à la vidéo de la fusillade de Christchurch, publiée par son auteur. Il explique également ses modes de fonctionnement et ses projets futurs.
Facebook a été décrié par certains observateurs pour son manque de réaction face au massacre de Christchurch, en Nouvelle-Zélande. Pour rappel, la semaine passée, un terroriste a diffusé en direct sur le plus grand réseau social au monde son effroyable fusillade, qui a causé la mort de 50 personnes.
Ce jeudi, l'entreprise américaine a réagi plus en profondeur, publiant des détails, des chiffres, ce qu'elle n'a pas l'habitude de faire. La preuve que Facebook veut montrer patte blanche dans ce sordide – mais exceptionnel, heureusement – exemple d'une utilisation abusive (le mot est faible) de sa fonctionnalité de communication en direct.
La publication de Guy Rosen, responsable de l'intégrité chez Facebook, est disponible en anglais via ce lien.
Chronologie d'un macabre 'Facebook Live'
Facebook a supprimé la vidéo du direct "quelques minutes" après que la police de Nouvelle-Zélande l'a prévenu. Le réseau social ne peut pas tout dire à ce sujet, à la demande des autorités. Mais voici quelques données importantes:
Le direct (le 'Facebook Live' avant sa publication automatique) a été vu un peu moins de 200 fois
Personne n'a signalé le direct durant sa diffusion. Or, les signalements sur les directs sont modérés en priorité.
Après l'arrêt du direct par le terroriste, la vidéo de ce direct a été publiée automatiquement sur Facebook, c'est la procédure standard. En tout (direct + vidéo), le massacre "original" sur Facebook a été vu 4.000 fois avant d'être supprimé.
Le premier signalement par un utilisateur, sur le direct original, est arrivé 29 minutes après sa publication, et donc 12 minutes après la fin de ce direct. Le direct n'a pas été signalé comme "tentative de suicide", donc il n'a pas été traité de manière ultra-prioritaire par les modérateurs.
Durant les 24 heures qui ont suivi la diffusion de cette vidéo, Facebook a supprimé 1,2 million de vidéos de l'attaque au moment de l'upload, donc avant qu'elles ne soient visibles. 300.000 vidéos supplémentaires ont été supprimées après avoir été postées (sans doute modifiées, elles avaient trompé l'algorithme visant à supprimer préventivement cette vidéo).
D'après l'enquête de Facebook, au moins un utilisateur a enregistré la vidéo et l'a diffusée sur 8chan, un site de propagande d'extrême droite américain, qui comptait Brenton Tarrant parmi ses membres. Un lien vers cette vidéo a été postée sur un site de partage de fichiers, et à partir de là, la vidéo du massacre s'est répandue plus largement, se retrouvant sur YouTube, Twitter, etc. C'était donc probablement une diffusion de masse orchestrée par le groupuscule extrémiste.
Que va faire Facebook ?
Dans le reste de la publication, Facebook fait amende honorable. Il reconnait que les 'Facebook Lives' amènent son lot de "défis uniques en leur genre". Les équipes de Facebook utilisent de plus en plus l'intelligence artificielle pour aider les modérateurs à faire leur travail de manière plus efficace, par exemple en mettant en haut de la liste des vidéos à caractère suicidaire ou violent.
On critique souvent les censures de Facebook, elles sont donc dues à la prudence du réseau social qui préfère se tromper dans ce sens-là plutôt que d'être trop laxiste et de laisser trop longtemps du contenu inadéquat. Bon à savoir.
Facebook admet d'ailleurs que "tout n'est pas parfait", et que sa technologie basée sur l'intelligence artificielle et le machine learning nécessite un "entrainement", donc des milliers d'exemples de contenus inappropriés pour permettre aux serveurs d'éliminer anticipativement toutes traces de fusillades en direct, mais aussi de pornographie, de tentative de suicide, etc…
Il l'avoue: "la vidéo (du massacre de Christchurch) n'a déclenché aucune alarme dans notre système". Et bien entendu, vu la position dominante de Facebook, et la fortune colossale que le réseau social amasse depuis quelques années grâce à la publicité ciblée, on ne lui pardonne rien.
De manière générale, Facebook promet des améliorations dans la détection a priori d'une telle séquence (automatique, par l'intelligence artificielle), et dans la rapidité de son intervention a posteriori (humaine, par ses 30.000 modérateurs).
Vos commentaires