?>

«La fiction surpasse la réalité»: comment l’algorithme de YouTube déforme la vérité.

  • 06 Mart 2021
  • 35 kez görüntülendi.

“ La fiction surpasse la réalité ”: comment l’algorithme de YouTube déforme la vérité.

Guillaume Chaslot, un ancien ingénieur logiciel de Google. Photographie: Talia Herman / The Guardian.

Un ancien initié de YouTube révèle comment son algorithme de recommandation favorise les clips qui divisent et les vidéos de complot. Ont-ils nui à la candidature d’Hillary Clinton à la présidence??

Dernière modification le Jeu 10 janvier 2019 à 14h50 GMT.

C’était l’une des vidéos les plus virales de janvier. Logan Paul, une célébrité de YouTube, tombe sur un homme mort suspendu à un arbre. Le jeune de 22 ans, qui se trouve dans une forêt japonaise réputée comme lieu de suicide, est visiblement choqué, puis amusé. «Mec, ses mains sont violettes», dit-il, avant de se tourner vers ses amis et de rire. «Vous ne vous tenez jamais à côté d’un mort?»

Paul, qui compte 16 millions d’abonnés pour la plupart adolescents à sa chaîne YouTube, a retiré la vidéo de YouTube 24 heures plus tard au milieu d’une réaction furieuse. Il était encore assez long pour que la séquence reçoive 6 millions de vues et une place sur la liste très convoitée des vidéos tendance de YouTube.

Le lendemain, j’ai regardé une copie de la vidéo sur YouTube. Ensuite, j’ai cliqué sur les vignettes «Suivant» des vidéos recommandées que YouTube présente sur le côté droit du lecteur vidéo. Ce convoyeur de clips, dont la lecture automatique est par défaut, est conçu pour nous inciter à passer plus de temps sur la plate-forme de diffusion vidéo de Google. J’étais curieux de savoir où ils pourraient mener.

La réponse était une multitude de vidéos d’hommes se moquant d’adolescents désemparés de Logan Paul, suivies par des images de vidéosurveillance d’enfants volant des choses et, quelques clics plus tard, une vidéo d’enfants se faisant arracher les dents avec des engins bizarres et faits maison..

J’avais effacé mon historique, supprimé mes cookies et ouvert un navigateur privé pour m’assurer que YouTube ne personnalisait pas les recommandations. C’était l’algorithme qui m’a emmené dans un voyage de sa propre volonté, et il a culminé avec une vidéo de deux garçons, âgés d’environ cinq ou six ans, se frappant et se donnant des coups de pied..

«Je vais le publier sur YouTube», a déclaré une adolescente, qui semblait être une sœur aînée. “Fais demi-tour et frappe ce petit garçon.” Ils se sont échauffés pendant plusieurs minutes jusqu’à ce que l’un ait frappé la dent de l’autre.

Il y a 1,5 milliard d’utilisateurs de YouTube dans le monde, ce qui est plus que le nombre de foyers possédant une télévision. Ce qu’ils regardent est façonné par cet algorithme, qui parcourt et classe des milliards de vidéos pour identifier 20 clips «suivants» qui sont à la fois pertinents pour une vidéo précédente et très probablement, statistiquement parlant, pour garder une personne accrochée à leur écran..

Les initiés de l’entreprise me disent que l’algorithme est le moteur le plus important de la croissance de YouTube. Dans l’une des rares explications publiques sur le fonctionnement de la formule – un article académique qui esquisse les réseaux neuronaux profonds de l’algorithme, analysant un vaste pool de données sur les vidéos et les personnes qui les regardent – les ingénieurs de YouTube la décrivent comme l’une des «plus grandes échelles et les systèmes de recommandation industrielle les plus sophistiqués existants ».

L’algorithme ne semble pas être optimisé pour ce qui est véridique, équilibré ou sain pour la démocratie.

Dernièrement, il est également devenu l’un des plus controversés. Il a été constaté que l’algorithme promouvait les théories du complot sur les tirs de masse à Las Vegas et encourageait, par le biais de recommandations, une sous-culture florissante qui cible les enfants avec un contenu dérangeant tel que des dessins animés dans lesquels le personnage des enfants britanniques Peppa Pig mange son père ou boit de l’eau de Javel..

Des vidéos obscènes et violentes ont été proposées aux tout-petits qui regardent YouTube Kids, une application dédiée aux enfants. Un créateur YouTube qui a été interdit de générer des revenus publicitaires à partir de ses vidéos étranges – dans lesquelles ses enfants se faisaient vacciner contre la grippe, enlevant le cérumen et pleurant sur des animaux morts – a déclaré à un journaliste qu’il ne répondait qu’aux exigences de l’algorithme de Google. «C’est ce qui nous a rendus populaires et populaires», a-t-il déclaré. «Nous avons appris à le nourrir et à faire tout ce qu’il fallait pour plaire à l’algorithme.»

Google a répondu à ces controverses dans un processus proche de Whac-A-Mole: élargir l’armée de modérateurs humains, supprimer les vidéos YouTube offensantes identifiées par les journalistes et démonétiser les chaînes qui les créent. Mais aucun de ces mouvements n’a atténué l’inquiétude croissante que quelque chose n’ait profondément tourné avec l’intelligence artificielle qui alimente YouTube..

Pourtant, jusqu’à présent, une pierre n’a pas été retournée. On a beaucoup écrit sur l’impact de Facebook et de Twitter sur la politique, mais ces derniers mois, des universitaires ont émis l’hypothèse que les algorithmes de YouTube auraient pu contribuer à alimenter la désinformation lors de l’élection présidentielle de 2016. «YouTube est l’histoire la plus négligée de 2016», a tweeté en octobre Zeynep Tufekci, un sociologue et critique technologique très respecté. «Ses algorithmes de recherche et de recommandation sont des moteurs de désinformation.»

Si l’algorithme de recommandation de YouTube a vraiment évolué pour promouvoir un contenu plus dérangeant, comment cela s’est-il passé? Et qu’est-ce que cela fait à notre politique?

«Comme la réalité, mais déformée»

Comment l’algorithme de YouTube déforme la réalité – Explication vidéo.

Ce ne sont pas des questions faciles à répondre. Comme toutes les grandes entreprises technologiques, YouTube ne nous permet pas de voir les algorithmes qui façonnent nos vies. Ce sont des formules secrètes, des logiciels propriétaires et seuls certains ingénieurs sont chargés de travailler sur l’algorithme. Guillaume Chaslot, un programmeur informatique français de «Amener Bates»: les fans spéculent sur une nouvelle cour 36 ans titulaire d’un doctorat en intelligence artificielle, était l’un de ces ingénieurs.

Pendant les trois années où il a travaillé chez Google, il a été placé pendant plusieurs mois avec une équipe d’ingénieurs YouTube travaillant sur le système de recommandation. L’expérience l’a amené à conclure que les priorités que YouTube donne à ses algorithmes sont dangereusement faussées..

«YouTube est quelque chose qui ressemble à la réalité, mais il est déformé pour vous faire passer plus de temps en ligne», me dit-il lors de notre rencontre à Berkeley, en Californie. «L’algorithme de recommandation ne permet pas d’optimiser ce qui est véridique, équilibré ou sain pour la démocratie.»

Chaslot explique que l’algorithme ne reste jamais le même. Il change constamment le poids qu’il donne aux différents signaux: les modèles de visionnage d’un utilisateur, par exemple, ou la durée pendant laquelle une vidéo est regardée avant que quelqu’un ne clique dessus..

Les ingénieurs avec lesquels il travaillait étaient chargés d’expérimenter en permanence de nouvelles formules qui augmenteraient les revenus publicitaires en prolongeant la durée de visionnage des vidéos. «Le temps de visionnage était la priorité», se souvient-il. «Tout le reste était considéré comme une distraction.»

Chaslot a été licencié par Google en 2013, apparemment pour des problèmes de performances. Il insiste sur le fait qu’il a été relâché après avoir agité pour le changement au sein de l’entreprise, utilisant son temps personnel pour faire équipe avec des ingénieurs partageant les mêmes idées pour proposer des changements qui pourraient diversifier le contenu que les gens voient..

Il était particulièrement préoccupé par les distorsions qui pourraient résulter d’un objectif simpliste de montrer aux gens des vidéos qu’ils trouvaient irrésistibles, créant des bulles de filtre, par exemple, qui ne montrent aux gens que le contenu qui renforce leur vision actuelle du monde. Chaslot a déclaré qu’aucun de ses correctifs proposés n’avait été repris par ses responsables. «Il existe de nombreuses façons pour YouTube de modifier ses algorithmes pour supprimer les fausses nouvelles et améliorer la qualité et la diversité des vidéos que les gens voient», dit-il. “J’ai essayé de changer YouTube de l’intérieur, mais cela n’a pas fonctionné.”

YouTube m’a dit que son système de recommandation avait évolué depuis que Chaslot travaillait dans l’entreprise et «va maintenant au-delà de l’optimisation de la durée de la veille». La société a déclaré qu’en 2016, elle avait commencé à prendre en compte la «satisfaction» des utilisateurs, en utilisant des sondages, par exemple, ou en regardant combien de «j’aime» une vidéo reçue, pour «s’assurer que les gens étaient satisfaits de ce qu’ils visionnaient». YouTube a ajouté que des changements supplémentaires avaient été mis en œuvre en 2017 pour améliorer le contenu des nouvelles apparaissant dans les recherches et les recommandations et décourager la promotion de vidéos contenant du contenu «religieux ou suprémaciste incendiaire»..

Il n’a pas dit pourquoi Google, qui a acquis YouTube en 2006, a attendu plus d’une décennie pour effectuer ces changements. Chaslot pense que ces changements sont principalement cosmétiques et n’ont pas réussi à modifier fondamentalement certains biais inquiétants qui ont évolué dans l’algorithme. À l’été 2016, il a construit un programme informatique pour enquêter.

Le logiciel écrit par Chaslot a été conçu pour offrir la première fenêtre au monde sur le moteur de recommandation opaque de YouTube. Le programme simule le comportement d’un utilisateur qui commence sur une vidéo, puis suit la chaîne de vidéos recommandées – tout comme je l’ai fait après avoir regardé la vidéo de Logan Paul – suivi des données en cours de route.

Il trouve des vidéos grâce à une recherche de mots, en sélectionnant une vidéo «source» pour commencer et en enregistrant plusieurs couches de vidéos recommandées par YouTube dans la colonne «Suivant». Il le fait sans historique de visionnage, garantissant que les vidéos détectées sont des recommandations génériques de YouTube, plutôt que des vidéos personnalisées pour un utilisateur. Et il répète le processus des milliers de fois, accumulant des couches de données sur les recommandations YouTube pour créer une image des préférences de l’algorithme.

Au cours des 18 derniers mois, Chaslot a utilisé le programme pour explorer les biais dans le contenu YouTube promu lors des élections françaises, britanniques et allemandes, le réchauffement climatique et les fusillades de masse, et a publié ses résultats sur son site Web, Algotransparency.org. Chaque étude trouve quelque chose de différent, mais la recherche suggère que YouTube amplifie systématiquement les vidéos qui divisent, sensationnelles et conspiratrices..

Lorsque son programme a trouvé une vidéo de départ en recherchant la requête «Qui est Michelle Obama?» puis a suivi la chaîne de suggestions «up next», par exemple, la plupart des vidéos recommandées disaient qu’elle «est un homme». Plus de 80% des vidéos recommandées par YouTube sur le pape et détectées par son programme décrivaient le dirigeant catholique comme «diabolique», «satanique» ou «anti-Christ». Des millions de vidéos ont été mises en ligne sur YouTube pour satisfaire l’appétit de l’algorithme pour le contenu affirmant que la terre est plate. «Sur YouTube, la fiction surpasse la réalité», déclare Chaslot.

Un électeur de l’Ohio. Trump a remporté l’élection par seulement 80000 voix réparties dans trois États swing. Photographie: Ty Wright / Getty Images.

Il pense que l’un des exemples les plus choquants a été détecté par son programme à l’approche de l’élection présidentielle de 2016. Comme il l’a observé dans un court article de blog largement inaperçu publié après l’élection de Donald Trump, l’impact de l’algorithme de recommandation de YouTube n’était pas neutre pendant la course à la présidentielle: il diffusait des vidéos qui étaient, dans l’ensemble, utiles à Trump et dommageables pour Hillary Clinton. . «C’était étrange», m’explique-t-il. «Partout où vous avez commencé, que ce soit à partir d’une recherche Trump ou d’une recherche Clinton, l’algorithme de recommandation était beaucoup plus susceptible de vous pousser dans une direction pro-Trump.»

Trump a remporté le collège électoral à la suite de 80000 votes répartis dans trois États swing. Il y avait plus de 150 millions d’utilisateurs de YouTube aux États-Unis. Les vidéos contenues dans la base de données de Chaslot contenant les vidéos électorales recommandées par YouTube ont été visionnées, au total, plus de 3 milliards de fois avant le vote de novembre 2016..

Même un petit biais dans les vidéos aurait été significatif. «Les algorithmes qui façonnent le contenu que nous voyons peuvent avoir un impact considérable, en particulier sur les personnes qui n’ont pas encore pris leur décision», déclare Luciano Floridi, professeur au Digital Ethics Lab de l’Université d’Oxford, qui étudie l’éthique de l’intelligence artificielle. «Des coups de coude doux, implicites et silencieux peuvent au fil du temps nous amener à faire des choix que nous n’aurions peut-être pas faits autrement.»

Promouvoir les théories du complot.

Chaslot m’a envoyé une base de données de plus de vidéos recommandées par YouTube que son programme a identifiées dans les trois mois précédant l’élection présidentielle. Il contenait plus de 8 000 vidéos – toutes détectées par son programme apparaissant «up next» à 12 dates entre août et novembre 2016, après un nombre égal de recherches pour «Trump» et «Clinton»..

Ce n’était pas un ensemble complet de vidéos et ce n’était peut-être pas un échantillon parfaitement représentatif. Mais il s’agissait, a déclaré Chaslot, d’un ensemble de données inédit de ce que YouTube recommandait aux personnes intéressées par le contenu sur les candidats – un instantané, en d’autres termes, des préférences de l’algorithme..

Jonathan Albright, directeur de recherche au Tow Center for Digital Journalism, qui a examiné le code utilisé par Chaslot, dit qu’il s’agit d’un logiciel relativement simple et d’une méthodologie réputée. “Cette recherche a capturé la direction apparente de l’écosystème politique de YouTube”, dit-il. «Cela n’a pas été fait auparavant.»

J’ai passé des semaines à regarder, trier et catégoriser le trésor de vidéos avec Erin McCormick, journaliste d’investigation et experte en analyse de bases de données. Dès le début, nous avons été stupéfaits par le nombre de vidéos extrêmes et conspiratrices recommandées et par le fait que presque toutes semblaient être dirigées contre Clinton..

Certaines des vidéos que YouTube recommandait étaient celles que nous nous attendions à voir: des émissions de débats présidentiels, des extraits d’actualités télévisées, des sketches du Saturday Night Live. Il y avait également des vidéos de discours des deux candidats – bien que, nous avons constaté, la base de données contenait beaucoup plus de discours recommandés par YouTube par Trump que par Clinton..

Mais ce qui était le plus convaincant, c’était la fréquence à laquelle le logiciel de Chaslot détectait des vidéos de conspiration anti-Clinton apparaissant «à côté» à côté d’autres vidéos.

Il y avait des dizaines de clips indiquant que Clinton avait eu une dépression mentale, rapportant qu’elle avait la syphilis ou la maladie de Parkinson, l’accusant d’avoir des relations sexuelles secrètes, y compris avec Yoko Ono. Beaucoup étaient encore plus sombres, fabriquant le contenu des révélations de WikiLeaks pour faire des allégations non fondées, accusant Clinton d’être impliquée dans des meurtres ou la connectant à des cultes sataniques et pédophiles..

Une vidéo qui, selon les données de Chaslot, a été particulièrement poussée par l’algorithme de YouTube était un film bizarre d’une heure affirmant que l’ascension de Trump était prédite dans Isaiah 45. Une autre était intitulée: «BREAKING: VIDEO MONTRANT BILL CLINTON RAPING 13 YR-OLD WILL PLUNGE RACE INTO REVENDICATIONS ANONYMES DU CHAOS ». Le moteur de recommandation semble avoir été particulièrement utile à la chaîne Alex Jones, qui diffuse des théories du complot d’extrême droite sous la marque Infowars..

Le théoricien du complot et animateur de talk-show Alex Jones. Photographie: Brooks Kraft / Getty Images.

Il y avait trop de vidéos dans la base de données pour que nous puissions toutes les regarder, nous nous sommes donc concentrés sur 1000 des vidéos les plus recommandées. Nous les avons passés au crible un par un pour déterminer si le contenu était susceptible d’avoir profité à Trump ou à Clinton. Un peu plus d’un tiers des vidéos n’étaient pas liées à l’élection ou contenaient un contenu globalement neutre ou impartial. Sur les 643 vidéos restantes, 551 étaient des vidéos favorisant Trump, tandis que 92 seulement favorisaient la campagne Clinton..

L’échantillon que nous avions examiné suggérait que la conclusion de Chaslot était correcte: YouTube était six fois plus susceptible de recommander des vidéos qui aidaient Trump que son adversaire. YouTube n’a probablement jamais programmé son algorithme pour profiter à un candidat plutôt qu’à un autre. Mais sur la base de ces preuves, au moins, c’est exactement ce qui s’est passé.

«Conduire les gens dans des terriers haineux»

«Nous avons beaucoup de respect pour le Guardian en tant que média et institution», m’a envoyé un porte-parole de YouTube après que je leur ai transmis nos conclusions. “Nous ne sommes cependant pas du tout d’accord avec la méthodologie, les données et, surtout, les conclusions tirées de leurs recherches.”

Le porte-parole a ajouté: «Nos systèmes de recherche et de recommandation reflètent ce que les gens recherchent, le nombre de vidéos disponibles et les vidéos que les gens choisissent de regarder sur YouTube. Ce n’est pas un préjugé envers un candidat en particulier; c’est le reflet de l’intérêt du spectateur. »

C’était une réponse curieuse. YouTube semblait dire que son algorithme était un miroir neutre des désirs des personnes qui l’utilisent – si nous n’aimons pas ce qu’il fait, nous sommes nous-mêmes à blâmer. Comment YouTube interprète-t-il “l’intérêt des spectateurs” – et “les vidéos que les gens choisissent de regarder” ne sont-elles pas influencées par ce que l’entreprise leur montre?

Offert le choix, nous pouvons instinctivement cliquer sur une vidéo d’un homme mort dans une forêt japonaise, ou sur un faux clip de nouvelles affirmant que Bill Clinton a violé un jeune de 13 ans. Mais ces impulsions instantanées reflètent-elles vraiment le contenu que nous voulons nourrir?

Tufekci, le sociologue qui a mis en garde il y a plusieurs mois sur l’impact que YouTube a pu avoir sur l’élection, me dit que le système de recommandation de YouTube a probablement compris que le contenu énervé et haineux est engageant. «C’est un peu comme une cafétéria à pilote automatique dans une école qui a découvert que les enfants ont les dents sucrées et aiment aussi les aliments gras et salés», dit-elle. «Vous faites donc une ligne offrant de tels aliments, en chargeant automatiquement l’assiette suivante dès que le sac de chips ou de bonbons devant le jeune a été consommé.»

Une fois que cela est normalisé, cependant, ce qui est un peu plus énervé ou bizarre devient, dit Tufekci, nouveau et intéressant. «Ainsi, la nourriture devient de plus en plus riche en sucre, en graisse et en sel – des envies naturelles de l’homme – tandis que les vidéos recommandées et lues automatiquement par YouTube deviennent de plus en plus bizarres ou haineuses.

Mais pourquoi un parti pris en faveur de vidéos toujours plus étranges ou qui divisent-il un candidat par rapport à un autre? Cela dépend des candidats. La campagne de Trump n’était rien sinon bizarre et source de division. Tufekci pointe des études montrant que «le champ de la désinformation» a largement incliné l’anti-Clinton avant l’élection. «Les faux fournisseurs de nouvelles», dit-elle, «ont constaté que le faux matériel anti-Clinton jouait beaucoup mieux avec la base pro-Trump que le faux matériel anti-Trump avec la base pro-Clinton.»

Elle ajoute: «La question qui nous est posée est l’éthique de conduire les gens dans des terriers haineux pleins de désinformation et de mensonges à grande échelle simplement parce que cela fonctionne pour augmenter le temps que les gens passent sur le site – et cela fonctionne.»

Tufekci était l’un des nombreux universitaires avec lesquels j’ai partagé nos recherches. Philip Howard, professeur à l’Oxford Internet Institute, qui a étudié la propagation de la désinformation pendant les élections, en était un autre. Il se demande si un autre facteur aurait pu être en jeu. «Il s’agit d’une recherche importante car elle semble être le premier examen systématique de la manière dont YouTube a pu être manipulé», dit-il, évoquant la possibilité que l’algorithme ait été joué dans le cadre des mêmes campagnes de propagande qui ont prospéré sur Twitter et Facebook..

Lors de son témoignage devant le comité du renseignement de la Chambre, enquêtant sur l’ingérence de la Russie dans les élections, l’avocat général de Google, Kent Walker, a minimisé le degré d’infiltration des efforts de propagande de Moscou sur YouTube. L’enquête interne de la société n’a identifié que 18 chaînes YouTube et 1 100 vidéos soupçonnées d’être liées à la campagne de désinformation de la Russie, a-t-il déclaré au comité en décembre – et généralement les vidéos ont eu un nombre de vues relativement limité. Il a ajouté: «Nous pensons que l’activité que nous avons trouvée était limitée en raison de diverses garanties que nous avions mises en place avant les élections de 2016 et du fait que les produits de Google ne se prêtaient pas au type de micro-ciblage ou de diffusion virale. que ces acteurs semblaient préférer.

Les conseillers généraux de Twitter, Facebook et Google se préparent à témoigner devant la commission du renseignement de la Chambre sur l’utilisation des médias sociaux par la Russie pour influencer les élections. Photographie: Shawn Thew / EPA.

Walker n’a fait aucune mention des recommandations de YouTube. Cependant, une correspondance rendue publique la semaine dernière révèle que le sénateur Mark Warner, le démocrate de rang du comité du renseignement, a par la suite écrit à la société au sujet de l’algorithme, qui, selon lui, semblait «particulièrement sensible à l’influence étrangère». Le sénateur a demandé à savoir ce que l’entreprise faisait spécifiquement pour éviter une «incursion malveillante» dans le système de recommandation de YouTube. Walker, dans sa réponse écrite, a fourni peu de détails, mais a déclaré que YouTube disposait d’un «système sophistiqué de détection des spams et des failles de sécurité pour identifier les comportements anormaux et les incursions malveillantes»..

Tristan Harris, un ancien initié de Google devenu dénonciateur technologique, aime décrire Facebook comme «une scène de crime vivante et vivante pour ce qui s’est passé lors des élections de 2016» à laquelle les enquêteurs fédéraux n’ont pas accès. On pourrait dire la même chose de YouTube. Environ la moitié des vidéos que l’émission de Chaslot a détectées et recommandées lors de l’élection ont maintenant disparu de YouTube – beaucoup d’entre elles ont été supprimées par leurs créateurs. Chaslot a toujours pensé cela suspect. C’étaient des vidéos avec des titres tels que «Must Watch !! Hillary Clinton a tenté d’interdire cette vidéo », regardée des millions de fois avant de disparaître. “Pourquoi quelqu’un retirerait-il une vidéo qui a été visionnée des millions de fois?” il demande.

Ce que vous devez savoir sur l’enquête Trump-Russie.

Quelle est la gravité des allégations?

L’histoire de Donald Trump et de la Russie se résume à ceci: un président en exercice ou sa campagne est soupçonné de s’être coordonné avec un pays étranger pour manipuler une élection américaine. L’histoire ne pouvait pas être plus grande, et les enjeux pour Trump – et le pays – ne pouvaient pas être plus élevés.

Quelles sont les questions clés?

Les enquêteurs posent deux questions fondamentales: la campagne présidentielle de Trump s’est-elle associée à quelque niveau que ce soit avec des agents russes pour influencer l’élection présidentielle américaine de 2016? Et Trump ou d’autres ont-ils enfreint la loi pour éloigner les enquêteurs de la piste??

Que pense le pays?

Alors qu’une majorité du public américain pense désormais que la Russie a tenté de perturber les élections américaines, les opinions sur l’implication de Trump dans la campagne électorale ont tendance à se diviser selon des lignes partisanes: 73% des républicains, mais seulement 13% des démocrates, pensent que Trump n’a «rien fait de mal» en ses relations avec la Russie et son président, Vladimir Poutine.

Quelles sont les implications pour Trump?

L’affaire a le potentiel d’expulser Trump de ses fonctions. Des observateurs juridiques expérimentés estiment que les procureurs enquêtent pour savoir si Trump a commis une obstruction à la justice. Richard Nixon et Bill Clinton – les seuls présidents à avoir été confrontés à une procédure de destitution au siècle dernier – ont été accusés d’entrave à la justice. Mais le sort de Trump dépend probablement des électeurs. Même si de solides preuves d’actes répréhensibles de sa part ou de celle de sa cohorte apparaissaient, une majorité républicaine au Congrès bloquerait probablement toute action visant à le démettre de ses fonctions. (Une telle action serait une rareté historique.)

Que s’est-il passé jusqu’à présent?

L’ancien conseiller en politique étrangère George Papadopolous a plaidé coupable de parjure pour ses contacts avec des Russes liés au Kremlin, et l’ancien directeur de campagne du président Paul Manafort et un autre assistant font face à des accusations de blanchiment d’argent..

Quand l’enquête prendra-t-elle fin?

Les enquêtes ont un calendrier ouvert.

J’ai trouvé une copie de «Cette vidéo fera élire Donald Trump», une sensation virale qui a été regardée plus de 10 millions de fois avant de disparaître de YouTube. C’était un montage bienveillant de séquences historiques de Trump, accompagné d’une douce musique de piano. Mais quand j’ai joué la vidéo au ralenti, j’ai vu qu’elle contenait d’étranges flashs de Miley Cyrus léchant un miroir. Cela semblait une tentative d’amateur et bizarre d’insérer des images subliminales et sexualisées. Mais cela a souligné le peu de contrôle que nous avons sur quiconque voudrait utiliser YouTube pour influencer l’opinion publique à grande échelle..

J’ai partagé toute la base de données de 8 000 vidéos recommandées par YouTube avec John Kelly, le directeur général de la société d’analyse commerciale Graphika, qui a suivi les campagnes de désinformation politique. Il a comparé la liste à sa propre base de données de comptes Twitter actifs pendant l’élection et a conclu que de nombreuses vidéos semblaient avoir été diffusées par des réseaux de marionnettes et de robots Twitter contrôlés par des consultants numériques pro-Trump avec «une assistance vraisemblablement non sollicitée» Russie.

«Je n’ai pas de preuve irréfutable de qui s’est connecté pour contrôler ces comptes», dit-il. “Mais à en juger par l’histoire de ce que nous avons vu ces comptes faire auparavant, et les caractéristiques de la façon dont ils tweetent et s’interconnectent, ils sont assemblés et contrôlés par quelqu’un – quelqu’un dont le travail était d’élire Trump.”

Chaslot et certains des universitaires à qui j’ai parlé ont estimé que cette activité sur les réseaux sociaux était importante. L’algorithme de YouTube a peut-être développé ses préjugés de manière organique, mais aurait-il également pu être poussé à diffuser encore plus ces vidéos? “Si une vidéo commence à monter en flèche, il ne fait aucun doute que l’algorithme de YouTube va commencer à la pousser”, déclare Albright.

YouTube n’a pas nié que la propagande des médias sociaux aurait pu influencer ses recommandations, mais a minimisé la probabilité, soulignant que son système «n’optimise pas» le trafic de Twitter ou Facebook. «Il semble que le Guardian essaie de faire de la recherche, des données et de leurs conclusions un récit commun sur le rôle de la technologie lors des élections de l’année dernière», a ajouté le porte-parole. “La réalité du fonctionnement de nos systèmes, cependant, ne supporte tout simplement pas cette prémisse.”

Après que la correspondance du Sénat avec Google sur une possible interférence russe avec l’algorithme de recommandation de YouTube a été rendue publique la semaine dernière, YouTube m’a envoyé une nouvelle déclaration. Il a souligné les modifications apportées en 2017 pour décourager le système de recommandation de promouvoir certains types de contenus problématiques. «Nous apprécions le travail du Guardian pour braquer les projecteurs sur cette question difficile», a-t-il ajouté. “Nous savons qu’il reste encore beaucoup à faire ici et nous sommes impatients de faire d’autres annonces dans les mois à venir.”

Créateurs de contenu.

Une vidéo du Next News Network alimentée par des allégations démenties contre Bill Clinton. Photographie: YouTube.

Avec ses graphismes flashy et son ancre aux cheveux lisses, le Next News Network a les apparences d’une chaîne d’information crédible. Mais derrière la façade se trouve une opération douteuse qui recycle des histoires récoltées dans des publications d’extrême droite, de faux sites d’information et des médias russes..

La chaîne est dirigée par le présentateur Gary Franchi, autrefois l’un des principaux partisans d’un complot qui prétendait que le gouvernement américain créait des camps de concentration pour ses citoyens. C’est le Next News Network qui a diffusé les affirmations fabriquées sur Bill Clinton violant un adolescent, bien que Franchi insiste sur le fait qu’il n’est pas un faux producteur de nouvelles. (Il me dit qu’il préfère voir sa chaîne comme «commentant des informations et des opinions conservatrices».)

Dans les mois qui ont précédé les élections, le Next News Network s’est transformé en une usine de nouvelles et d’opinions anti-Clinton, produisant des dizaines de vidéos par jour et atteignant un public comparable à celui de la chaîne YouTube de MSNBC..

Les recherches de Chaslot ont indiqué que le succès de Franchi pouvait en grande partie être attribué aux algorithmes de YouTube, qui amplifiaient constamment ses vidéos à lire «à côté». YouTube avait catégoriquement rejeté les recherches de Chaslot.

J’ai contacté Franchi pour voir qui avait raison. Il m’a envoyé des captures d’écran des données privées fournies aux personnes qui mettent en ligne des vidéos YouTube, y compris une description de la façon dont leur public a trouvé leurs clips. La plus grande source de trafic vers la vidéo de viol de Bill Clinton, qui a été visionnée 2,4 millions de fois au cours du mois précédant les élections, était les recommandations de YouTube..

La même chose était vraie pour toutes les vidéos pour lesquelles Franchi m’a envoyé des données, sauf une. Un exemple typique était une vidéo du Next News Network intitulée «WHOA! HILLARY PENSE QUE LA CAMÉRA EST DÉSACTIVÉE… ENVOIE UN MESSAGE DE CHOC POUR TRUMP »dans lequel Franchi, montrant un minuscule mouvement des lèvres de Clinton lors d’un débat télévisé, affirme qu’elle dit« va te faire foutre »à sa rivale présidentielle. Les données partagées par Franchi ont révélé au cours du mois précédant les élections, 73% du trafic vers la vidéo – soit 1,2 million de vues – était dû aux recommandations de YouTube. Le trafic externe ne représentait que 3% des vues.

Franchi est un professionnel qui vit de sa chaîne, mais bon nombre des autres créateurs de vidéos anti-Clinton à qui j’ai parlé étaient des détectives amateurs ou des théoriciens du complot à temps partiel. En règle générale, ils peuvent recevoir quelques centaines de vues sur leurs vidéos, ils ont donc été choqués lorsque leurs vidéos anti-Clinton ont commencé à recevoir des millions de vues, comme si elles étaient poussées par une force invisible..

Dans tous les cas, la plus grande source de trafic – la force invisible – provenait des clips apparaissant dans la colonne «up next». William Ramsey, un enquêteur occulte du sud de la Californie qui a fait «une preuve irréfutable: Hillary Clinton a un trouble épileptique!», A partagé des captures d’écran qui montraient que l’algorithme de recommandation avait poussé sa vidéo même après que YouTube lui avait envoyé un e-mail pour dire qu’il enfreignait ses directives. Les données de Ramsey montrent que la vidéo a été regardée 2,4 millions de fois par des utilisateurs basés aux États-Unis avant le jour des élections. «Pour personne comme moi, c’est beaucoup», dit-il. «Assez pour influencer les élections, non?»

Daniel Alexander Cannon, un théoricien du complot de Caroline du Sud, me dit: “Chaque vidéo que je publie sur les Clinton, YouTube la ferait exploser.” Son clip le plus performant était une vidéo intitulée «Hillary et Bill Clinton« Les 10 photos que vous devez voir »», essentiellement un diaporama d’images épouvantables (et apparemment trafiquées) des Clinton avec voix off dans laquelle Cannon spécule sur leur santé. Il a été vu 3,7 millions de fois sur YouTube, et 2,9 millions de ces vues, a déclaré Cannon, provenaient des recommandations «up next»..

Chaslot a mis en lumière une mine de vidéos de conspiration anti-Clinton qui avaient été cachées dans l’ombre – à moins que vous ne fassiez partie des millions que YouTube leur a servies. Mais ses recherches font aussi quelque chose de plus important: révéler à quel point nos vies sont désormais médiatisées par l’intelligence artificielle.

Il y a moins d’une génération, la façon dont les électeurs considéraient leurs politiciens était en grande partie façonnée par des dizaines de milliers de rédacteurs en chef de journaux, de journalistes et de responsables de la télévision. Aujourd’hui, les codes invisibles derrière les grandes plateformes technologiques sont devenus les nouveaux faiseurs de rois.

Ils arrachent à l’obscurité des gens comme Dave Todeschini, un ingénieur d’IBM à la retraite qui, «se défoulait» pendant les élections en s’enregistrant en se prononçant sur l’implication supposée de Clinton dans la pédophilie, les sacrifices d’enfants et le cannibalisme. «C’était fou, c’était fou», a-t-il déclaré à propos de l’avalanche de trafic sur sa chaîne YouTube, qui, le jour du scrutin, avait plus de 2 millions de vues..

«Dernières nouvelles», a-t-il annoncé dans l’une de ses dernières dépêches avant le vote: le FBI, a-t-il dit, venait de trouver des images graphiques de Clinton et de son aide dans des «positions sexuellement compromettantes» avec un adolescent. «Il me semble, avec les voyages de Bill Clinton sur l’île des pédophiles à plusieurs reprises, que ce que nous avons ici n’est rien de moins que le réseau pédophile de Clinton», a-t-il déclaré..

Todeschini est assis dans son salon sombre du New Jersey, regardant fixement son smartphone. “Je vais vous dire quoi: le terrier du lapin vient de se creuser de quelques mètres.”

Une description complète de la méthodologie utilisée par Chaslot pour détecter les recommandations YouTube (et une explication de la façon dont le Guardian les a analysées) est disponible ici.

Your Name

Yazarın şu ana kadar yazmış olduğu 409 altılı tahmini bulunuyor.
ZİYARETÇİ YORUMLARI

Henüz yorum yapılmamış. İlk yorumu aşağıdaki form aracılığıyla siz yapabilirsiniz.

BİR YORUM YAZ