Youtube a supprimé les lives de l'incendie de Notre Dame de Paris considérant que ces vidéos étaient des fake news liées au 11 septembre -

Youtube a supprimé les lives de l’incendie de Notre Dame de Paris considérant que ces vidéos étaient des fake news liées au 11 septembre

Le monde a été stupéfait lundi dernier lorsque des images horribles de la cathédrale Notre-Dame de Paris engloutie par les flammes ont été diffusées sur les médias sociaux. Dans presque tous les pays, des organes d’information du monde entier ont diffusé en direct l’incendie dévastateur sur des plateformes comme Facebook, Twitter et YouTube.

Cependant, ceux qui ont regardé la diffusion en direct sur YouTube ont vu quelque chose d’étrange – un extrait d’un article de l’Encyclopedia Britannica concernant l’attentat du World Trade Center du 11 septembre 2001 accompagnait les images. Et bien que la zone de texte puisse sembler être une non-séquence complète, il s’agissait en fait d’un avertissement destiné à décourager la diffusion de ce que les algorithmes de YouTube signalaient par erreur comme une « théorie du complot » ou une « fausse nouvelle ».

Il s’est avéré que les colonnes de fumée s’élevant de la cathédrale gothique ressemblaient étonnamment à celles du 11 septembre – et le logiciel anti-conspiration de YouTube s’est rapidement mis en marche.

YouTube s’est excusé par la suite pour cette dénégation de responsabilité. Selon Bloomberg, un porte-parole de l’entreprise a déclaré :

Nous sommes profondément attristés par l’incendie en cours à la cathédrale Notre-Dame… Ces panneaux sont déclenchés de façon algorithmique et nos systèmes font parfois le mauvais choix. Nous désactivons ces panneaux pour les flux en direct liés à l’incendie.

Les boîtes de texte ont été présentées à YouTube l’an dernier lors d’une annonce faite par Susan Wojcicki, directrice générale, qui a présenté le système – qui s’appuie sur des sites Web dont Wikipedia – comme un nouvel outil qui permettrait d’arrêter la viralité des fausses vidéos de nouvelles sur la plateforme.

À l’époque, le PDG a dit :

Quand il y a des vidéos qui sont centrées sur quelque chose qui est une conspiration – et nous utilisons une liste de conspirations Internet bien connues de Wikipedia – alors nous montrerons une unité d’information complémentaire de Wikipedia montrant que voici des informations sur l’événement.

L’annonce de l’an dernier a été faite alors que YouTube, une division de Google d’Alphabet Inc., a été critiquée pour avoir permis à son algorithme de diriger le trafic de contenus dits  » modérés  » vers des vidéos considérées comme en marge du discours politique, notamment des vidéos sur le négationnisme, des théories du 11 septembre, des conspirationnistes sur les faits du terrorisme et une multitude de vidéos allant des fausses informations fallacieuses à celles qui sont carrément fallacieuses, mais aussi des canulars et des canulars et des informations virales sur le Web qui contribuent à la culture de  » fausses  » de l’actualité.

Pourtant, le nouveau système – qui, selon YouTube, génère des boîtes d’information sous forme de vidéos « des dizaines de millions » de fois par semaine – n’a guère satisfait les critiques des géants des médias sociaux comme Twitter, Facebook et Google.

Pas plus tard que le mois dernier, des séquences vidéo de l’attaque contre des mosquées en Nouvelle-Zélande ont été diffusées en continu sur diverses plateformes de médias sociaux, de Twitter à YouTube en passant par LiveLeak, ce qui a donné lieu à un effort frénétique pour retirer les vidéos des sites sur le Web.

Le Wall Street Journal a qualifié la diffusion rapide de la vidéo d' » exemple macabre de la façon dont les plates-formes de médias sociaux peuvent être utilisées pour répandre la terreur malgré les dépenses élevées de leurs propriétaires pour la contenir « .

Les responsables gouvernementaux des États-Unis et d’Europe ont également appelé les plateformes de médias sociaux à créer de nouveaux moyens d’arrêter la diffusion de « vidéos toxiques » et de « contenus haineux », tandis que les autorités néo-zélandaises ont averti les net-citoyens qu’ils risquent jusqu’à dix ans de prison pour possession de cette vidéo.

Cependant, comme le montre l’avertissement de lundi, les tentatives d’introduire une censure automatisée ou des filtres d’avertissement peuvent souvent conduire à de faux positifs et à l’élimination ou à l’étiquetage erroné d’informations manifestement non « toxiques » qui présentent un intérêt pour le public.

Traduit ,par Dr.Mo7oG

Source : ACTIVISTPOST

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *