Les vidéos conspirationnistes n’en finissent plus de fleurir sur YouTube. Pour démonter ces théories du complot et pallier la désinformation qui ne cesse de se développer notamment autour des dernières fusillades en Floride, YouTube se tourne vers un allié inattendu, Wikipédia. Les vidéos proposeront bientôt des liens vers des pages de l’encyclopédie en ligne pour contrecarrer les rumeurs…
Les évènements tragiques qui se sont déroulés au mois de février dernier à Parkland en Floride restent inexplicables pour beaucoup. Cherchant des réponses sur YouTube, la vidéo numéro un du top tendance n’était pourtant pas une séquence d’actualité, mais une vidéo conspirationniste développant une théorie selon laquelle, David Hogg, survivant de la tuerie, était en fait un acteur.
La plateforme a choisi de retirer la vidéo de son site, mais elle avait déjà atteint les quelques 200 000 vues… Afin d’éviter que ce genre d’engouement autour de fausses informations ne se reproduise, la société s’est décidée à agir. Le site Wired précise cependant que YouTube n’en a pas dit plus sur la manière dont il prévoit de gérer la diffusion de ce genre de vidéo de désinformation.
Hier, la directrice générale du site, Susan Wojcicki, a cependant présenté une solution potentielle. Elle annonce ainsi que YouTube ajoutera dorénavant aux vidéos conspirationnistes des liens vers des contenus avec une approche plus factuelle. Wojcicki a apporté des précisions sur cette nouvelle fonctionnalité qu’elle nomme « indicateurs d’information » à l’éditeur en chef du site Wired, Nicholas Thompson, lors de la conférence South by Southwest à Austin, le 14 mars.
Il rapporte ainsi le fonctionnement : « Si vous recherchez et cliquez sur une vidéo conspirationniste à propos, disons, des chemtrails [De l'anglais chemical trails, traînées chimiques, ndlr] déversées par les avions à haute altitude, YouTube vous proposera dorénavant un lien vers une page Wikipédia qui démonte les canulars liés à la vidéo. Un autre exemple : une vidéo qui remet en cause le fait que l’être humain n’ait jamais posé le pied sur la lune pourrait être accompagnée par la page Wikipédia officielle à propos de l’alunissage du programme Apollo en 1969. »
La fonctionnalité ne devrait pour le moment s’appliquer qu’aux vidéos conspirationnistes soulevant de « véritables débats » sur la plateforme. Il est en parallèle surprenant d’apprendre que YouTube n’a pas encore avancé la mise en œuvre de règles claires quant à l’ajout de vidéos conspirationnistes sur son site, acte qui pour le moment n’enfreint aucune des règles de la communauté. La réponse est dans l'énoncé :
Every single video on the YouTube trending page is fake. The videos are made by 'verified' YouTube creators, they garner millions of views and the sad reality is that Google is indirectly encouraging the promotion of hoax content with AdSense dollars. pic.twitter.com/EepDCylP6y
— Amit Agarwal (@labnol) 1 mars 2018
Soit : « Chacune des vidéos sur la page des tops de Youtube sont fausses. Les vidéos sont réalisées par des créateurs youtube "vérifiés", ils récoltent des millions de vues et la triste réalité, c'est que Google encourage indirectement la promotion de canulars avec les dollars d'AdSense [Régie publicitaire de Google, ndlr.] » Les revenus liés aux Google Ads sont en effet importants, et ces vidéos particulièrement plébiscitées. CQFD...
À plusieurs reprises, l'algorithme de YouTube a d'ailleurs été pointé pour ses résultats de recherches orientés... vers des vidéos problématiques. Par ailleurs, Wikipedia reste une encyclopédie en accès libre, en lecture comme en écriture : sa fiabilité dépend de l'activité des modérateurs, et de leur propre légitimité. Le site a d'ailleurs lui-même dû revoir ses politiques de vérification et de relecture, pour éviter la propagation de fausses informations...
Pas de commentaires