Facebook a recruté la police de part et d'autre de l'Atlantique pour éduquer ses outils d'intelligence artificielle afin de stopper les retransmissions vidéos d'attaques extrémistes en direct sur sa plateforme, à l'instar de la tuerie de Christchurch, diffusée pendant de longues minutes sur le réseau social.
Cette initiative, annoncée mardi par le premier réseau social du monde, s'inscrit dans le cadre plus large des mesures prises par le réseau social pour nettoyer les contenus "haineux et extrémistes" et en particulier de ses efforts pour ajouter les mouvements ou individus prêchant le suprémacisme blanc à sa liste "d'organisations terroristes".
Le réseau fondé par Mark Zuckerberg a été vivement critiqué pour avoir mis 17 minutes avant de stopper la vidéo retransmise en direct d'un suprémaciste blanc, qui s'est filmé pendant qu'il attaquait une mosquée le 15 mars à Christchurch, en Nouvelle-Zélande. Il a tué 51 fidèles musulmans.
Depuis, l'entreprise multiplie les initiatives: restrictions pour l'accès à Facebook Live, rencontres avec des responsables politiques, en passant par une alliance avec d'autres réseaux pour freiner le "détournement de technologies permettant de diffuser du contenu terroriste".
La police de Londres apportera son concours à partir du mois d'octobre pour permettre à Facebook de mieux entraîner ses outils d'intelligence artificielle à détecter rapidement ces contenus et les supprimer.
La difficulté vient du fait que la "machine" doit pouvoir faire la différence entre une attaque dans la vraie vie et une scène de film ou de jeu vidéo.
Les images filmées par les caméras portées par les unités de la police londonienne lors de leurs entraînements au tir viendront alimenter et enrichir la banque d'images que Facebook a déjà constituée grâce aux forces de l'ordre américaines.
Les outils d'intelligence artificielle ont besoin de quantités énormes de données --ici des images de fusillades-- pour pouvoir apprendre à les identifier correctement, les trier et in fine les supprimer.
- "Terrorisme" au sens plus large -
Après avoir mis beaucoup de moyens pour combattre l'utilisation de son réseau par des organisations comme le groupe Etat islamique, Facebook a récemment mis l'accent sur le suprémacisme blanc, dont les adeptes sont à l'origine de nombreuses tueries perpétrées ces dernières années, notamment aux Etats-Unis.
Le réseau rappelle avoir banni 200 organisations suprémacistes blanches et avoir élargi sa définition de ce qui constitue une organisation "terroriste" en faisant appel à des experts. "La nouvelle définition reste concentrée sur le comportement, pas l'idéologie de ces groupes", mais elle est désormais élargie à "des actes de violence en particulier dirigés contre des civils avec l'intention de les contraindre et de les intimider".
Facebook a aussi élargi les missions d'une équipe de 350 experts du maintien de l'ordre, de la sécurité nationale, de l'anti-terrorrisme mais aussi des universitaires spécialisés dans l'étude du phénomène de radicalisation pour juguler les efforts "de gens et d'organisations qui appellent à la violence ou commettent des actes violents qui ont un impact dans le monde réel" et pas seulement en ligne.
Dans la même veine, l'entreprise a étendu à l'Austalie et l'Indonésie une initiative lancée en mars aux Etats-Unis, consistant à aiguiller les usagers qui font une recherche contenant des mots-clés associés à la suprémacie blanche vers un site de "déradicalisation". Pour mesurer précisément l'efficacité de ces initiatives, Facebook s'est associé à Moonshot CVE (pour Countering Violent Extremism), une jeune entreprise britannique qui se base sur l'exploitation de données pour cibler les utilisateurs aux vues extrémistes.
Moonshot CVE a mis au point une méthode permettant de rediriger ces extrémistes vers des sites aux informations neutres, ou faisant appel à des personnalités reconnues ou des personnes ayant quitté des groupes radicalisés pour tenter de les faire changer d'avis.
Vos commentaires