Quel point commun entre Twitter, Facebook, Reddit ou encore Google ? Ces acteurs majeurs de la communication d’aujourd’hui se présentent comme des parangons de vertu et d’équilibre, mais ce n’est qu’une façade. Profondément engagés à gauche, ils pèsent de tout leur poids contre ceux qu’ils considèrent comme le camp adverse.
Google et YouTube
L’implication partisane de Google dans la bataille entre les camps républicains et démocrates en faveur des seconds a fait l’objet de nombreuses études, dont celle-ci, particulièrement détaillée. Que ce soit en termes de dons des employés pour les partis politiques, de parcours de carrière allant d’une position de dirigeant dans l’entreprise à celle d’un partenaire de campagne pour un candidat ou simplement de lobbyisme auprès des élus, l’entreprise entretient un engagement idéologique profond.
En termes pratiques, Google oriente les résultats de ses recherches. Par exemple, lorsque Hillary eut un malaise lors de la matinée des cérémonies du 11 septembre 2016, amenant ses gorilles à la balancer évanouie dans son van blindé avec autant d’élégance que si elle avait été un quartier de bœuf, la nouvelle défraya la chronique puis devint virale, malgré les tentatives de YouTube de censurer toutes les vidéos en rapport. Mais Google mit en place un filtre pour « protéger » le grand public de ces interrogations. Il suffit aujourd’hui encore de taper « Hillary Clinton Health » dans la barre de recherche de votre navigateur pour voir des suggestions sur Mme Clinton – mais aucune sur sa santé, jamais. Le terme « Health » est tabou dans Google Suggest lorsqu’il est associé à Hillary Clinton. On peut se poser la question de la pertinence de ce filtre maintenant encore alors que cette histoire est derrière nous ; il est probable que personne chez Google n’ait simplement pensé à l’enlever.
Avoir une opinion politique n’est pas un problème en soi. Elle le devient si celle-ci interfère avec la neutralité prétendument assurée par la plateforme, et quand celle-ci a un quasi-monopole dans l’accès à l’information du public. Comme on s’en doute, Google a sa propre police du discours. Pour éviter d’être directement mise en cause, l’entreprise de Mountain View décharge habilement sa politique de censure à plus de 100 ONG et agences gouvernementales pour aider YouTube à déterminer les contenus « extrémistes », allant des « discours de haine » à des vidéos de recrutement terroriste. Mais qu’est-ce qu’un « discours de haine », pour commencer ? Il n’en existe pas la moindre définition légale, ce qui permet de cibler n’importe qui.
Google et YouTube s’engagent à ne pas communiquer le nom de leurs partenaires dans ce programme, mais cette discrétion laisse présager le pire. Nous en avons la preuve à travers certaines ONG qui choisissent tout de même de révéler leur participation, comme l’Anti-Defamation League ou No Hate Speech, des organisations très politisées qui sont bien plus concernées par l’élimination de toute expression conservatrice sur Internet que par celle des vidéos de décapitation de l’État islamique, comme de nombreux contributeurs libéraux, conservateurs ou journalistes indépendants purent en faire l’amère expérience.
L’hypocrisie de YouTube et Google va plus loin ; lorsqu’ils ne peuvent directement interdire certaines vidéos – une hésitation qu’ils éprouvent de moins en moins souvent – ils peuvent encore les cacher, en exigeant un accès restreint à YouTube en présentant leur contenu comme « pour public averti » ou en choisissant de les démonétiser, privant effectivement les producteurs de la vidéo des revenus reliés à son visionnement. À défaut d’interdire d’antenne, ils étranglent financièrement les canaux qui les dérangent.
Le but de la manœuvre est clairement de promouvoir certains contenus au détriment d’autres.
Facebook et Reddit
Facebook est un acteur majeur de la distribution d’information aujourd’hui, et la posture pro-démocrate de Facebook n’est plus à démontrer. Elle fut révélée il y a plus de deux ans dans les colonnes de The Guardian, un journal dont les vues ne sont pas vraiment de droite.
D’anciens employés de Facebook décrivirent le processus en détail :
« [Des employés] de Facebook ont régulièrement supprimé les articles d’intérêt intéressant les lecteurs conservateurs de la section d’information "tendances" du réseau social. (...) Ils avaient aussi pour instruction d’injecter artificiellement des articles sélectionnés dans le module de nouvelles, même s’ils n’étaient pas assez populaires pour justifier leur inclusion, ou dans certains cas, ne buzzaient pas du tout. Les anciens employés, qui travaillaient tous en tant que sous-traitants, ont également indiqué qu’ils avaient reçu l’ordre de ne pas inclure de nouvelles concernant Facebook dans le module des tendances. (...)
Les histoires couvertes par les publications conservatrices (comme Breitbart, Washington Examiner et Newsmax) qui étaient assez nombreuses pour être prises en compte par l’algorithme de Facebook étaient exclues à moins que les sites classiques comme le New York Times, la BBC ou CNN ne couvrent le même sujet. (...)
Dans d’autres cas, les employés injectaient une histoire, même si elle n’était pas largement discutée sur Facebook, car elle était jugée importante pour que le réseau ressemble à un endroit où les gens parlaient de nouvelles difficiles. "Les gens ont cessé de se soucier de la Syrie", déclara un ancien employé. "[Et] si cette tendance se traduisait sur Facebook, Facebook aurait mauvaise allure." Ce même opérateur déclara que le mouvement Black Lives Matter avait également été injecté dans le module d’actualités de Facebook. "Facebook a subi beaucoup de pression à cause d’une absence de sujet tendance sur Black Lives Matter", déclara l’individu. "Ils ont réalisé que c’était un problème, et ils l’ont renforcé dans l’algorithme. Ils lui ont donné la priorité sur d’autres sujets. Lorsque nous l’avons injecté, tout le monde a commencé à dire : « Maintenant, je le vois comme numéro un »". Cet exemple d’injection est particulièrement remarquable parce que le mouvement #BlackLivesMatter est né sur Facebook, présence puissante des médias sociaux. »
Cette manipulation des tendances n’est pas propre à Facebook. Reddit (phonétiquement « Read it », « je l’ai lu ») est un site web communautaire de partage de liens permettant aux utilisateurs de soumettre leurs contributions et de voter pour celles proposées par autrui. Ainsi, les liens les plus populaires se retrouvent propulsés en page d’accueil. Le site se situe en quatrième position des sites américains les plus fréquentés, car on peut parler de tout sur Reddit. Quel que soit le sujet, il y a forcément d’autres passionnés avec le même centre d’intérêt. Ceux-ci se regroupent sur des « canaux » dévolus à un thème précis – comme la politique.
Certaines des manipulations de Reddit sont le fait de ses utilisateurs. Par exemple, le fameux canal /r/politics, prétendument non-partisan, a été de longue date colonisé par la gauche américaine qui y détient désormais les influentes positions de modération. Rien de plus facile donc que de filtrer tout contenu gênant (une nouvelle favorable à l’administration Trump, par exemple.) Pour éviter de donner l’apparence d’une modération partisane, la manœuvre est en deux temps. D’abord, un complice se contente de poster un lien vers un article positif pour Trump (« Sprint va rapatrier 5 000 emplois aux États-Unis, annonce Trump ») en lui associant volontairement un commentaire violemment hostile et contraire à la charte du canal (« Prenez ça sales crétins gauchistes !) », ce qui permet à la modération d’effacer le tout. Ainsi, l’article disparaît instantanément. Et si un utilisateur bien intentionné tente plus tard de soumettre la même nouvelle, il recevra un message d’erreur lui disant que ce lien a déjà été proposé à la communauté.
Mais les manœuvres partisanes s’étendent jusque dans l’administration du site, comme les utilisateurs de Reddit purent s’en rendre compte lors de la campagne présidentielle américaine de 2016 opposant Hillary Clinton à Donald Trump.