Jeffrey A. Tucker & Debbie Lerman
Ils sont en train d’annuler l’Internet en ce moment même

30 octobre 2024 Les cas de censure se multiplient au point de devenir normaux. Malgré les litiges en cours et l’attention accrue du public, les médias sociaux grand public se sont montrés plus féroces ces derniers mois que jamais auparavant. Les podcasteurs savent avec certitude ce qui sera instantanément supprimé et débattent entre eux du contenu […]

30 octobre 2024

Les cas de censure se multiplient au point de devenir normaux. Malgré les litiges en cours et l’attention accrue du public, les médias sociaux grand public se sont montrés plus féroces ces derniers mois que jamais auparavant. Les podcasteurs savent avec certitude ce qui sera instantanément supprimé et débattent entre eux du contenu dans les zones grises. Certains, comme Brownstone, ont abandonné YouTube au profit de Rumble, sacrifiant ainsi de vastes audiences, ne serait-ce que pour voir leur contenu survivre et voir la lumière du jour.

Il ne s’agit pas toujours d’être censuré ou non. Les algorithmes d’aujourd’hui comprennent une série d’outils qui affectent la capacité de recherche et de découverte. Par exemple, l’interview de Joe Rogan avec Donald Trump a atteint le nombre impressionnant de 34 millions de vues avant que YouTube et Google ne modifient leurs moteurs de recherche pour la rendre difficile à trouver, tout en provoquant un dysfonctionnement technique qui a empêché de nombreuses personnes de la visionner. Face à cette situation, Joe Rogan s’est rendu sur la plateforme X pour poster les trois heures.

Naviguer dans cet enchevêtrement de censure et de quasi-censure fait désormais partie du modèle économique des médias alternatifs.

Il ne s’agit là que des cas qui font la une des journaux. Mais, en dessous des gros titres, il y a des événements techniques qui affectent fondamentalement la capacité de tout historien à regarder en arrière et à comprendre et raconter ce qui s’est passé. Aussi incroyable que cela puisse paraître, le service Archive.org, qui existe depuis 1994, a cessé de prendre des images de contenu sur toutes les plates-formes. Pour la première fois en 30 ans, depuis le 8-10 octobre, ce service n’a pas documenté la vie de l’internet en temps réel.

À l’heure où nous écrivons ces lignes, nous n’avons aucun moyen de vérifier le contenu qui a été publié durant les trois semaines d’octobre précédant les jours de l’élection la plus controversée et la plus importante de notre vie. Il est essentiel de noter qu’il ne s’agit pas de partisanerie ou de discrimination idéologique. Aucun site web sur l’internet n’est archivé de manière accessible aux utilisateurs. En fait, toute la mémoire de notre principal système d’information n’est qu’un grand trou noir à l’heure actuelle.

Les problèmes d’Archive.org ont commencé le 8 octobre 2024, lorsque le service a été soudainement frappé par une attaque massive par déni de service (DDOS, attaque par déni de service distribué) qui n’a pas seulement mis le service hors ligne, mais a introduit un niveau de défaillance qui a failli le faire disparaître complètement. Travaillant sans relâche, Archive.org est revenu en tant que service en lecture seule, comme c’est le cas aujourd’hui. Toutefois, vous ne pouvez consulter que le contenu publié avant l’attaque. Le service n’a pas encore repris l’affichage public d’un miroir de n’importe quel site sur l’internet.

En d’autres termes, la seule source sur l’ensemble du World Wide Web qui reflète le contenu en temps réel a été désactivée. Pour la première fois depuis l’invention du navigateur web, les chercheurs se voient privés de la possibilité de comparer le contenu passé avec le contenu actuel, une action qui est essentielle pour les chercheurs qui étudient les actions des gouvernements et des entreprises.

C’est grâce à ce service, par exemple, que les chercheurs de Brownstone ont pu découvrir précisément ce que le CDC avait dit à propos du plexiglas, des systèmes de filtration, des bulletins de vote par correspondance et des moratoires sur les loyers. Tout ce contenu a ensuite été supprimé de l’Internet, de sorte que l’accès aux copies d’archives était le seul moyen de savoir et de vérifier ce qui était vrai. Il en a été de même pour l’Organisation mondiale de la santé et son dénigrement de l’immunité naturelle, qui a été modifiée par la suite. Nous avons pu documenter les changements de définition grâce à cet outil qui est maintenant désactivé.

Ce que cela signifie est le suivant : N’importe quel site web peut publier n’importe quoi aujourd’hui et le supprimer demain sans laisser de trace de ce qu’il a publié, à moins qu’un utilisateur, quelque part, ne fasse une capture d’écran. Même dans ce cas, il n’y a aucun moyen d’en vérifier l’authenticité. L’approche standard permettant de savoir qui a dit quoi et quand a disparu. Cela signifie que l’ensemble de l’internet est déjà censuré en temps réel, de sorte que pendant ces semaines cruciales, alors qu’une grande partie du public s’attend à ce qu’il y ait des irrégularités, n’importe qui dans l’industrie de l’information peut faire n’importe quoi et ne pas se faire prendre.

Nous savons ce que vous pensez. Cette attaque DDOS n’est certainement pas une coïncidence. Le moment était trop bien choisi. Et c’est peut-être vrai. Mais nous n’en savons rien. Archive.org soupçonne-t-il quelque chose de ce genre ? Voici ce qu’ils disent :

La semaine dernière, en plus d’une attaque DDOS et de l’exposition des adresses électroniques et des mots de passe cryptés, le JavaScript du site Internet Archive a été abîmé, nous obligeant à fermer le site pour accéder à notre sécurité et l’améliorer. Les données stockées par l’Archive de l’internet sont en sécurité et nous travaillons à la reprise des services de manière sûre. Cette nouvelle réalité exige une attention accrue en matière de cybersécurité et nous y répondons. Nous nous excusons pour l’impact de l’indisponibilité de ces services de bibliothèque.

L’État profond ? Comme pour toutes ces choses, il n’y a aucun moyen de savoir, mais l’effort visant à supprimer la capacité de l’Internet à avoir un historique vérifié s’inscrit parfaitement dans le modèle de distribution de l’information par les parties prenantes qui a clairement été priorisé au niveau mondial. La Déclaration sur l’avenir de l’internet l’indique très clairement : l’internet devrait être « régi par une approche multipartite, dans laquelle les gouvernements et les autorités compétentes s’associent à des universitaires, à la société civile, au secteur privé, à la communauté technique et à d’autres acteurs ». Toutes ces parties prenantes bénéficient de la possibilité d’agir en ligne sans laisser de traces.

Certes, un bibliothécaire d’Archive.org a écrit que « bien que la Wayback Machine (Machine à Remonter le Temps) soit en mode lecture seule, l’exploration et l’archivage du web se poursuivent. Ces documents seront disponibles via la Wayback Machine au fur et à mesure que les services seront sécurisés ».

Quand ? Nous ne le savons pas. Avant les élections ? Dans cinq ans ? Il peut y avoir des raisons techniques, mais il semble que si l’exploration du web se poursuit en coulisses, comme le suggère la note, elle pourrait également être disponible en mode lecture seule dès à présent. Ce n’est pas le cas.

Il est inquiétant de constater que cet effacement de la mémoire Internet se produit à plusieurs endroits. Pendant de nombreuses années, Google a proposé une version en cache du lien que vous recherchiez, juste en dessous de la version en direct. Ils disposent de beaucoup d’espace serveur pour le faire, mais non : ce service a disparu. En fait, le service de cache de Google s’est officiellement terminé une ou deux semaines avant le crash d’Archive.org, à la fin du mois de septembre 2024.

Ainsi, les deux outils disponibles pour la recherche de pages en cache sur Internet ont disparu à quelques semaines d’intervalle et à quelques semaines des élections du 5 novembre.

D’autres tendances inquiétantes font que les résultats de recherche sur Internet deviennent de plus en plus des listes contrôlées par l’IA qui privilégie les récits approuvés par l’establishment. Auparavant, la norme sur le web voulait que le classement des résultats de recherche soit régi par le comportement des utilisateurs, les liens, les citations, etc. Il s’agissait de mesures plus ou moins organiques, basées sur une agrégation de données indiquant l’utilité d’un résultat de recherche pour les internautes. En d’autres termes, plus un résultat de recherche est jugé utile par les internautes, mieux il était classé. Aujourd’hui, Google utilise des paramètres très différents pour classer les résultats de recherche, notamment ce qu’il considère comme des « sources fiables » et d’autres déterminations opaques et subjectives.

En outre, le service le plus utilisé pour classer les sites web en fonction de leur trafic a disparu. Ce service s’appelait Alexa. La société qui l’a créé était indépendante. Puis, un jour de 1999, elle a été rachetée par Amazon. Cela semblait encourageant, car Amazon disposait de moyens importants. L’acquisition semblait consolider l’outil que tout le monde utilisait comme une sorte de mesure de popularité sur le web. À l’époque, il était courant de prendre note d’un article quelque part sur le web, puis de le rechercher sur Alexa pour en connaître la portée. Si l’article était important, on le remarquait, mais s’il ne l’était pas, personne ne s’en souciait vraiment.

C’est ainsi qu’une génération entière de techniciens du web fonctionnait. Le système fonctionnait aussi bien qu’on pouvait s’y attendre.

Puis, en 2014, des années après avoir acquis le service de classement Alexa, Amazon a fait une chose étrange. Elle a lancé son assistant-domestique (et dispositif de surveillance) portant le même nom. Soudain, tout le monde en avait chez soi et pouvait obtenir n’importe quelle information en disant « Hey Alexa ». Il semblait étrange qu’Amazon donne à son nouveau produit le nom d’une entreprise non apparentée dont elle avait acquis des années plus tôt. Il ne fait aucun doute que le chevauchement des noms a provoqué une certaine confusion.

Voici ce qui s’est passé ensuite. En 2022, Amazon a activement retiré l’outil de classement des sites web. Elle ne l’a pas vendu. Elle n’a pas augmenté les prix. Elle n’en a rien fait. Elle l’a soudainement rendu complètement obscur.

Personne n’a compris pourquoi. C’était le standard de l’industrie, et soudain, il a disparu. Il n’a pas été vendu, juste supprimé. Plus personne ne pouvait déterminer le classement d’un site web en fonction du trafic sans payer des prix très élevés pour des produits propriétaires difficiles à utiliser.

Tous ces points de données, qui peuvent sembler sans rapport les uns avec les autres lorsqu’ils sont considérés individuellement, font en réalité partie d’une longue trajectoire qui a transformé notre paysage de l’information en un territoire méconnaissable. Les événements Covid de 2020-2023, avec des efforts massifs de censure et de propagande à l’échelle mondiale, ont considérablement accéléré ces tendances.

On peut se demander si quelqu’un se souviendra de ce que c’était autrefois. Le piratage et le blocage d’Archive.org soulignent ce point : il n’y aura plus de mémoire.

À l’heure où nous écrivons ces lignes, trois semaines de contenu web n’ont pas été archivées. Personne ne sait ce qu’il manque et ce qui a changé. Et nous n’avons aucune idée de la date à laquelle le service sera rétabli. Il est tout à fait possible qu’il ne revienne pas, que le seul véritable historique auquel nous pourrons avoir recours soit antérieur au 8 octobre 2024, date à laquelle tout a changé.

L’internet a été fondé pour être libre et démocratique. Il faudra des efforts herculéens pour rétablir cette vision, car quelque chose d’autre est en train de la remplacer rapidement.

Jeffrey Tucker est fondateur, auteur et président du Brownstone Institute. Il est également chroniqueur économique principal pour Epoch Times, auteur de 10 livres, dont Life After Lockdown, et de plusieurs milliers d’articles parus dans la presse scientifique et populaire. Il intervient fréquemment sur des sujets d’économie, de technologie, de philosophie sociale et de culture.

Debbie Lerman, membre de brownstone en 2023, est diplômée en anglais de Harvard. Elle est rédactrice scientifique à la retraite et artiste praticienne à Philadelphie, en Pennsylvanie.

Texte original : https://brownstone.org/articles/they-are-scrubbing-the-internet-right-now/