Accueil Actu

Le terroriste a diffusé en direct son massacre en Nouvelle-Zélande: où est le contrôle des réseaux sociaux?

Tout est parti d'un direct diffusé sur Facebook, puis publié sur YouTube. En quelques minutes, la vidéo de l'une des fusillades qui ont fait 49 morts dans deux mosquées en Nouvelle-Zélande était accessible au monde entier. Les esprits les plus tordus l'ont enregistrée, pour pouvoir la rediffuser dès qu'elle était signalée et supprimée. Comment tout cela est-il "géré" par les géants du web ?

Une attaque terroriste a fait 49 victimes dans deux mosquées ce vendredi en Nouvelle-Zélande (voir notre compte-rendu complet dans cet article). Un des éléments très perturbant est que le tireur (ou l'un des tireurs, il n'est pas exclu qu'il n'ait pas agi seul), identifié comme "terroriste australien extrémiste de droite et violent" par les autorités, a diffusé sa propre fusillade sur les réseaux sociaux. Notamment sur Facebook, via l'outil "Diffuser en direct" accessible à tout le monde. "Le massacre néo-zélandais a été diffusé en continu sur Facebook, annoncé le 8 janvier, retransmis sur YouTube, commenté sur Reddit, et copié dans le monde entier avant même que les sociétés de technologie ne puissent réagir", a déclaré le journaliste du Washington Post Drew Harwell.

Comment Facebook s'y prend-il pour gérer ces directs ?

Se pose donc à nouveau la question de la modération, du contrôle de ce genre de contenu par Facebook. Récemment, on évoquait la problématique via un sujet beaucoup plus léger: le réseau social avait censuré par erreur une vidéo d'une utilisatrice filmant son cheval. On avait appris auprès du géant américain que "près de 30.000 personnes" à travers le monde modéraient les contenus de tous types, publiés dans toutes les langues. Et que pour les vidéos et les photos, il y avait "une combinaison de technologies intelligentes (analyse des images par ordinateur) et de travail humain" pour modérer au mieux ce contenu.

Nous avons contacté à nouveau Facebook ce vendredi pour savoir ce qu'il en était des diffusions en direct, qui posent forcément un autre problème. En effet, pour qu'ils soient de vrais directs, il ne peut y avoir de modération en amont. Mais nous n'avons pas eu beaucoup de détails, la discrétion restant de mise du côté des géants du web, quels qu'ils soient. "Pour tous nos contenus, y compris les Facebook Lives, nous utilisons une combinaison de technologies, de signalements par la communauté et de modération humaine pour retirer tous les contenus offensants", nous a répété Linda van Aalten, de Facebook Benelux.

Concernant le drame en Nouvelle-Zélande, voici la réaction officielle du réseau social le plus populaire au monde (près de 2 milliards d'utilisateurs): "Nos pensées vont vers les victimes, leur famille et la communauté touchée par cet acte horrifiant. La police de Nouvelle-Zélande nous a alertés de la présence d'une vidéo sur Facebook peu après le début de la diffusion en direct, et nous avons rapidement supprimé les comptes Facebook et Instagram du tireur. Nous retirons également toutes les louanges ou les soutiens envers ce crime ou ce tireur dès que nous les constatons. Nous continuerons à travailler directement avec la police de Nouvelle-Zélande, tout au long de leur enquête". Ces mots sont de Mia Garlick, travaillant pour la filiale locale de Facebook.

Toujours des traces sur Twitter, et ailleurs

Notez que Twitter est également submergé par la diffusion de cette terrible vidéo. Vendredi matin, le direct du tireur, téléchargé et copié par de nombreuses personnes, était encore accessible. Sur Twitter ou YouTube, contrairement à Facebook, on peut effectuer des recherches ciblées, et la majorité des comptes et contenus sont publics, donc consultables par tout le monde.

Twitter et YouTube travaillent principalement avec le signalement par la communauté (une personne peut signaler en quelques clics un contenu indésirable qu'il a pu voir). Mais sans doute, on l'imagine, avec des algorithmes qui identifient les contenus offensants. Hélas, une telle fusillade est plus difficile à identifier qu'une scène pornographique. On y voit une rue, un bâtiment, des gens qui courent et qui crient. Même l'arme du crime, un peu camouflée par des inscriptions blanches, est difficilement identifiable. De plus, une telle scène ressemble à s'y méprendre à un jeu vidéo ou à la scène d'un film d'action. Et on sait que de nombreux gamers diffusent régulièrement en direct leurs parties. Impossible pour un ordinateur de faire la part des choses entre fiction et réalité.

L'œil humain doit donc intervenir. Les vidéos sont signalées, et progressivement, Twitter va parvenir à toutes les identifier, à bloquer les comptes qui l'ont diffusée, etc. Hélas, sur d'autres sites dont le contenu est moins surveillé, la vidéo restera accessible, sans doute éternellement.

Google dit aussi être mobilisé pour identifier, supprimer et bloquer les vidéos et ceux qui la partagent sur YouTube. Mais là aussi, c'est le jeu du chat et de la souris, les algorithmes ayant leurs limites. Les ingénieurs de YouTube sont capables de créer un "modèle" de la vidéo concernée, et de s'en servir pour trouver puis supprimer tout ce qui ressemble à ce modèle. Mais on trouve également des copies, parfois modifiées graphiquement, du massacre.

Un journaliste de Buzzfeed, un célèbre média en ligne américain, a recensé les réactions des grands acteurs du web concernés dans ces tweets (cliquez dessus pour voir le déroulé):

À lire aussi

Sélectionné pour vous