Blog

YouTube dit qu'il interdira le contenu trompeur lié aux électionslié aux élections

Le jour des caucus de l'Iowa, la plate-forme vidéo a déployé une politique complète sur la façon dont elle prévoyait de gérer le faux contenu électoral.BOSTON - YouTube a déclaré lundi qu'il envisageait de supprimer le contenu trompeur lié aux élections qui peut entraîner «un risque grave de préjudice flagrant», la première fois que la plate-forme vidéo a expliqué de manière exhaustive comment elle traitera ces vidéos politiques et ces mensonges viraux.Le site appartenant à Google, qui avait auparavant plusieurs politiques différentes en place concernant le contenu faux ou trompeur, a déployé le plan complet le jour des caucus de l'Iowa , lorsque les électeurs commenceront à indiquer leur candidat présidentiel démocrate préféré."Au cours des dernières années, nous avons intensifié nos efforts pour faire de YouTube une source plus fiable de nouvelles et d'informations, ainsi qu'une plate-forme ouverte pour un discours politique sain", Leslie Miller, vice-présidente des affaires gouvernementales et des politiques publiques à YouTube, a déclaré dans un article de blog. Elle a ajouté que YouTube appliquerait ses politiques "sans égard au point de vue politique d'une vidéo".Cette décision est la dernière tentative des entreprises technologiques de lutter contre la désinformation en ligne , qui devrait s'accélérer avant les élections de novembre. Le mois dernier, Facebook a déclaré qu'il supprimerait les vidéos modifiées par l'intelligence artificielle de manière à induire en erreur les téléspectateurs, bien qu'il ait également déclaré qu'il autoriserait les publicités politiques et ne les contrôlerait pas pour la véracité. Twitter a complètement interdit les publicités politiques et a déclaré qu'il ne musellerait pas les tweets des dirigeants politiques, bien qu'il puisse les désigner différemment .

Face à la désinformation liée aux élections, YouTube est confronté à une tâche redoutable. Plus de 500 heures de vidéo par minute sont téléchargées sur le site. La société est également aux prises avec des préoccupations selon lesquelles ses algorithmes pourraient pousser les gens vers des opinions radicales et extrémistes en leur montrant davantage de ce type de contenu.Dans son blog de lundi, YouTube a déclaré qu'il interdirait les vidéos qui donnaient aux utilisateurs la mauvaise date de vote ou celles qui diffusaient de fausses informations sur la participation au recensement. Il a déclaré qu'il supprimerait également les vidéos qui répandraient des mensonges sur le statut de citoyenneté d'un candidat politique ou son éligibilité à une fonction publique. Un exemple d'un risque grave pourrait être une vidéo qui a été techniquement manipulée pour faire croire qu'un fonctionnaire du gouvernement était mort, a déclaré YouTube.La société a ajouté qu'elle mettrait fin aux chaînes YouTube qui tentaient d'usurper l'identité d'une autre personne ou chaîne, de cacher leur pays d'origine ou de cacher une association avec le gouvernement. De même, les vidéos qui ont augmenté le nombre de vues, de likes, de commentaires et d'autres mesures à l'aide de systèmes automatisés seraient supprimées.YouTube est susceptible de se demander s'il applique ces politiques de manière cohérente à mesure que le cycle électoral s'accélère. Comme Facebook et Twitter, YouTube est confronté au défi qu'il n'y a souvent pas de méthode unique pour déterminer ce qui équivaut à une déclaration politique et quel type de discours franchit la ligne de la tromperie publique.Graham Brookie, directeur du Digital Forensic Research Lab de l'Atlantic Council, a déclaré que même si la politique donnait "plus de flexibilité" pour répondre à la désinformation, il incomberait à YouTube de savoir comment elle avait choisi de répondre, "en particulier pour définir les voix faisant autorité YouTube prévoit de mettre à niveau ou les seuils de suppression des vidéos manipulées comme les deepfakes. "
Ivy Choi, une porte-parole de YouTube, a déclaré que le contexte et le contenu d'une vidéo détermineraient si elle avait été supprimée ou autorisée à rester. Elle a ajouté que YouTube se concentrerait sur les vidéos «techniquement manipulées ou trafiquées d'une manière qui induit les utilisateurs en erreur au-delà des clips pris hors contexte».À titre d'exemple, elle a cité une vidéo devenue virale l'an dernier de la présidente Nancy Pelosi, démocrate de Californie. La vidéo a été ralentie pour donner l'impression que Mme Pelosi a prononcé ses mots . Selon les politiques de YouTube, cette vidéo serait retirée car elle était "techniquement manipulée", a déclaré Mme Choi.Mais une vidéo de l'ancien vice-président Joseph R. Biden Jr. répondant à un électeur du New Hampshire, qui a été coupée pour suggérer à tort qu'il a fait des remarques racistes , serait autorisée à rester sur YouTube, a déclaré Mme Choi.Elle a déclaré que les deepfakes - des vidéos manipulées par l'intelligence artificielle pour donner aux sujets une apparence différente ou dire des mots qu'ils n'avaient pas réellement prononcés - seraient supprimés si YouTube déterminait qu'ils avaient été créés avec une intention malveillante. Mais le fait que YouTube ait retiré les vidéos parodiques dépendra à nouveau du contenu et du contexte dans lequel elles ont été présentées, a-t-elle déclaré.Renée DiResta, responsable de la recherche technique pour le Stanford Internet Observatory, qui étudie la désinformation, a déclaré que la nouvelle politique de YouTube tentait de remédier à «ce qu'elle perçoit comme une nouvelle forme de préjudice»."L'inconvénient ici, et lorsque le contexte manquant est différent d'un spot télévisé avec la même vidéo, c'est que les canaux sociaux présentent des informations aux personnes les plus susceptibles de les croire",