le professeur David Hughes
La guerre cognitive

Le « domaine humain » ; les outils cybernétiques pour contrôler le domaine humain ; la doctrine de guerre cognitive de l’OTAN ; la gestion des trois camps de sensibilisation L’une des nombreuses formes d’attaque contre l’esprit humain qui a été développée au cours de la dernière décennie et ouvertement militarisée en 2020 est ce que l’on appelle la guerre […]

Le « domaine humain » ; les outils cybernétiques pour contrôler le domaine humain ; la doctrine de guerre cognitive de l’OTAN ; la gestion des trois camps de sensibilisation

L’une des nombreuses formes d’attaque contre l’esprit humain qui a été développée au cours de la dernière décennie et ouvertement militarisée en 2020 est ce que l’on appelle la guerre cognitive. Ma thèse, exposée au chapitre 5 de « Covid-19 », Psychological Operations, and the War for Technocracy (« Covid-19 », opérations psychologiques et la guerre pour la technocratie), est que les capacités cognitives du public ont été délibérément attaquées en 2020/21. J’explique ici les origines et le développement de la doctrine de « guerre cognitive » de l’OTAN et la manière dont elle peut être utilisée à des fins de gestion de la perception.

Le « domaine humain »

La guerre cognitive découle du concept militaire de « domaine humain », défini par Curthoys (2014, p. 42) comme « toutes les questions relatives aux aspects socio-économiques, la construction de partenariats, les aspects cognitifs et culturels des opérations », impliquant « l’engagement et l’influence ». Comme l’explique du Cluzel (2020, p. 36), si les cinq premiers domaines (terre, mer, air, espace et cyberespace) peuvent déboucher sur des victoires tactiques et opérationnelles, « seul le domaine humain permet de remporter la victoire finale et totale », c’est-à-dire sur la population elle-même.

Le « domaine humain » trouve son origine dans des documents militaires tels que U.S. Army Mastering the Human Domain : Identity Operations for Strategic Landpower (Gearty et al., 2014) et Training Humans for the Human Domain (Tatham & Giles, 2015). Ce dernier note que bien que l’expérience de l’Afghanistan et de l’Irak a démontré l’importance de comprendre le domaine humain, les enseignements tirés vont « bien au-delà des opérations de contre-insurrection dans le monde islamique ».

Il s’avère que ces leçons s’appliquent beaucoup plus près de chez nous, à savoir l’opération Jade Helm de 2015, dont le slogan était « Master the Human Domain » (Maîtriser le domaine humain).

Source : U.S. Army Special Operations Command (Commandement des opérations spéciales de l’armée américaine, 2014)

Dirigé par l’amiral William McRaven, chef du commandement des opérations spéciales de l’armée américaine, Jade Helm était un exercice d’entraînement massif à la guerre non conventionnelle. Il a impliqué plus de 1 200 militaires de trois branches de l’armée, déployés pendant huit semaines dans sept États américains, dont 17 sites au Texas.

Étant donné que McRaven (2014, p. 28) définit le domaine humain comme « l’ensemble du tissu culturel, ethnique et social qui constitue la population d’une région donnée », le choix d’un territoire familier pour Jade Helm semble pour le moins étrange, à moins que ce ne soit finalement la population nationale elle-même qui soit visée par les opérations de contre-insurrection, conformément à la logique de l’Omniwar (guerre universelle).

Outils cybernétiques pour contrôler le domaine humain

Le Joint Threat Research Intelligence Group (JTRIG) du Government Communications Headquarters (GCHQ) du Royaume-Uni nous apprend que les services de renseignement envisageaient en 2011 de « compiler des profils psychologiques sur la base des informations disponibles sur l’individu sur l’internet afin que ceux qui mènent des opérations HUMINT [renseignement humain] en ligne puissent compiler et exploiter de tels profils » (Dhami, 2011). Ce que l’on appelle la « psychographie » consiste à recueillir des données sur tous les aspects de la vie d’un individu afin de produire un profil psychologique qui permet à l’intelligence artificielle d’envoyer des messages ciblés à des personnes spécifiques (Corbett, 2017).

Facebook a été délibérément conçu pour générer des « boucles de rétroaction à court terme alimentées par la dopamine », par exemple en recevant des « likes » et des notifications, comme l’a admis en 2017 Chamath Palihapitiya, vice-président de Facebook chargé de la croissance du nombre d’utilisateurs jusqu’en 2011 (cité dans Wong, 2017). Cela signifie que les médias sociaux et les plateformes similaires ont un pouvoir de dépendance chimique. Tout comme les machines à sous sont conçues pour inciter l’utilisateur à continuer à tirer le levier, ces plateformes utilisent des algorithmes pour que les utilisateurs continuent à faire défiler les pages, à interagir et à revenir.

Le résultat est douloureusement évident lorsqu’on voit un grand nombre de personnes rivées à leur smartphone en public ou dans des contextes sociaux où une conversation en face à face serait appropriée. Un grand nombre de personnes semblent incapables de se passer de leur appareil intelligent à n’importe quelle heure du jour ou de la nuit. Le caractère addictif des applications et des appareils signifie que les gens alimentent constamment en informations personnelles la machine Big Tech qui est inséparable des agences de renseignement (Corbett, 2019d).

Ces personnes sont une « cible facile » pour la guerre cognitive (du Cluzel, 2020, p. 7), car elles sont constamment programmées, par exemple par le biais du type d’informations qui apparaissent ou non dans leur fil d’actualité. Comme l’a dit Palihapitiya : « Vos comportements, vous ne vous en rendez pas compte, mais vous êtes programmés » (cité dans Wong, 2017).

Huxley (1958, p. 38) fait référence à la technique de propagande de la persuasion par association. L’idée est d’associer des mots clés à d’autres mots et phrases qui créent une impression positive ou négative, selon le besoin, et de répéter ces associations aussi souvent que possible pour créer des associations inconscientes dans l’esprit du public. Parmi les exemples classiques de notre époque, citons « islamique » + « extrémiste » et « vaccin » + « sûr et efficace ». Les nouvelles technologies numériques permettent d’automatiser ce processus. Par exemple, Word2vec, breveté en 2013 par une équipe de chercheurs de Google dirigée par Tomas Mikolov, utilise le traitement du langage naturel pour créer des représentations vectorielles des mots. Les mots qui sont souvent associés, ou utilisés dans des contextes similaires, apparaissent plus proches les uns des autres sur la représentation vectorielle que les mots qui ne le sont pas. Il devient alors possible, grâce à l’intelligence artificielle, de manipuler le contenu en ligne de manière à créer les vecteurs de mots souhaités.

Entre 2013 et 2016, la société britannique d’analyse de données, Cambridge Analytica, a utilisé une application appelée « This is Your Digital Life » pour collecter les données personnelles d’environ 87 millions d’utilisateurs de Facebook sans leur consentement éclairé. Ces données ont été utilisées pour créer des profils psychographiques sur les utilisateurs, qui ont à leur tour été utilisés pour créer des publicités politiques personnalisées sur des plateformes en ligne pour les campagnes présidentielles de Ted Cruz et Donald Trump en 2016.

Le scandale Cambridge Analytica est un bon exemple de la notion de Fitts (2022) selon laquelle le contrôle est exercé une personne à la fois, de manière rentable. Par exemple, dans une section intitulée « Hacking the individual (Pirater l’individu) », le responsable du Centre d’innovation de l’OTAN, François du Cluzel (2020, p. 7), écrit : « La révolution des technologies de l’information a permis des manipulations cognitives d’un genre nouveau, à une échelle sans précédent et très élaborée. Tout cela se fait à un coût bien inférieur que par le passé, lorsqu’il fallait créer des effets et un impact par des actions non virtuelles dans le domaine physique ».

Dans ce contexte, il est intéressant d’établir un contraste entre le « 11 septembre » en tant qu’acte terroriste sous fausse bannière, cinétique et à forte intensité de ressources, et les allégations ultérieures, depuis environ 2012 (Sandy Hook) et 2013 (l’incident du marathon de Boston), selon lesquelles certains attentats terroristes majeurs ont été mis en scène (Hall, n.d.; Davis, 2024). Après tout, pourquoi mener de vraies attaques sous fausse bannière, en laissant de vraies preuves à poursuivre par de vrais proches de vraies victimes , alors que la guerre cognitive peut être utilisée pour convaincre le public que les attaques sont réelles ? Comme l’a écrit Orwell (1984, p. 225), « si le passé et le monde extérieur n’existent que dans l’esprit, et si l’esprit est contrôlable — que se passe-t-il alors ? »

Un rapport de l’U.S. Naval College de 2023 sur la guerre cognitive fait référence à « l’utilisation de la psychologie et des technologies de pointe pour cibler précisément des individus ou des groupes » (MacDonald & Ratcliffe, 2023). Les TIC (technologies de l’information et de la communication) perturbatrices ont permis d’identifier des millions d’individus, d’établir leur profil psychographique et de cibler leur cognition. Un exemple simple est celui de Netflix qui recommande aux utilisateurs ce qu’ils devraient regarder : la télévision numérique n’est pas destinée aux masses, elle est personnalisée pour les individus. Mais lorsque les fils d’actualité, les sections de commentaires, les recommandations de contenu, etc. sont tous manipulés par des algorithmes, le sens de la réalité d’un individu peut être massivement déformé.

Visualisation de la guerre cognitive par l’U.S. Naval College (MacDonald & Ratcliffe, 2023)

L’I.A. peut être utilisée pour enfermer les utilisateurs des médias sociaux dans des silos, de sorte qu’ils sont principalement exposés à des informations qui confirment leur propre vision du monde. Différents groupes de personnes font l’expérience de réalités sociales différentes, et la société devient divisée, incapable de s’unir contre les technocrates qui cherchent à atteindre un contrôle social total.

En raison de l’ampleur des manipulations cognitives, on pourrait croire qu’il s’agit d’une forme de manipulation de masse similaire à la propagande du 20e siècle. L’OTAN (n.d.), par exemple, affirme que la guerre cognitive étant « conçue pour modifier les perceptions de la réalité, la manipulation de l’ensemble de la société est devenue une nouvelle norme, la cognition humaine devenant un domaine critique de la guerre ». Dans la pratique, cependant, cette manipulation « de l’ensemble de la société » est réalisée une personne à la fois et non par le biais de messages de masse.

Représentation visuelle de la guerre cognitive de l’OTAN (n.d.)

La manipulation cognitive se distingue également de la propagande traditionnelle par le fait qu’elle ne consiste pas simplement à imposer des idées et des comportements particuliers, mais plutôt à modifier la cognition, c’est-à-dire à « influencer le processus par lequel nous parvenons nous-mêmes à des idées, à des convictions, à des choix et à des comportements » (van Hamelen, 2022). En d’autres termes, il ne s’agit pas seulement d’influencer ce que nous pensons, mais aussi la manière dont nous pensons (du Cluzel, 2020, p. 8).

Un exemple simple est celui de TikTok, dont les courtes vidéos réduisent la durée d’attention des utilisateurs, ainsi que leur capacité à absorber des contenus de longue durée et à établir des connexions « globales ». De moins en moins de personnes semblent capables de lire un vrai livre d’un bout à l’autre. L’externalisation de la pensée et de la mémoire au profit du GPS, de la correction automatique, des alertes de calendrier, des calculatrices, etc. crée un « processus à long terme de désactivation des connexions dans le cerveau » (du Cluzel, 2020, p. 16).

La doctrine de guerre cognitive de l’OTAN

Il est révélateur que la manipulation cognitive cède la place à la doctrine de « guerre cognitive » de l’OTAN en 2020, année du début de l’Omniwar. À partir de ce moment, un aspect ouvertement destructeur est introduit, accompagné du langage de l’« ennemi » : « La guerre cognitive est donc une forme de guerre non conventionnelle qui utilise des outils cybernétiques pour altérer les processus cognitifs de l’ennemi, exploiter les biais mentaux ou la pensée réflexive et provoquer des distorsions de la pensée, influencer la prise de décision et entraver les actions, avec des effets négatifs, tant au niveau individuel que collectif » (Claverie & du Cluzel, n.d., p. 2).

Les forces d’opérations spéciales de l’armée américaine (2008, pp. 1-2) définissent la guerre non conventionnelle comme « des opérations menées par, avec ou par l’intermédiaire de forces irrégulières pour soutenir un mouvement de résistance, une insurrection ou des opérations militaires conventionnelles ». Parmi les exemples de guerre non conventionnelle cités, on peut citer le soutien apporté par les États-Unis aux Contras au Nicaragua et aux moudjahidines en Afghanistan dans les années 1980. En d’autres termes, il s’agit de subversions illégales de la société.

L’un des principaux objectifs de la guerre cognitive est de « saper la confiance (confiance du public dans les processus électoraux, confiance dans les institutions, les alliés, les hommes politiques…) » (du Cluzel, 2020, p. 8). Le scandale de Cambridge Analytica occupe une place importante à cet égard. Ce processus d’ébranlement de la confiance, poursuit du Cluzel, a le « potentiel de défaire l’ensemble du contrat social qui sous-tend les sociétés. » Or, c’est précisément le but de l’Omniwar, à savoir détruire des siècles de tradition libérale et la remplacer par une technocratie mondiale.

Contrairement à la propagande traditionnelle, les individus soumis à la guerre cognitive ne sont pas simplement des destinataires passifs de certains types de messages, mais contribuent activement à la diffusion de ces messages par le biais des médias sociaux et d’autres formes de participation en ligne. cet égard, « l’individu devient l’arme » (du Cluzel, 2020, p. 8). Cela est conforme au principe général selon lequel si nous ne résistons pas activement à l’Omniwar, nous devenons nous-mêmes des armes et des instruments de notre propre oppression.

La connaissance de la manière de manipuler ces processus, a déclaré du Cluzel lors d’une table ronde de l’OTAN le 5 octobre 2021, « est facilement transformée en arme » (cité dans van Hamelen, 2022). Par exemple, la discussion et le débat rationnels nécessaires au fonctionnement de la démocratie sont rendus impossibles par les « chambres d’écho » créées par les algorithmes de l’IA. Une « société » composée de personnes vivant des réalités sociales différentes — et rendue incapable de connaître la réalité en premier lieu par la technologie « deep fake » — ne peut pas fonctionner démocratiquement et ne peut être gérée que de manière technocratique.

La littérature officielle attribue la responsabilité de la guerre cognitive et des tentatives de perturbation de la démocratie à la Russie et à la Chine (MacDonald & Ratcliffe, 2023), ce qui signifie que les États-Unis « ne peuvent pas se permettre d’être en retrait » face aux développements de la guerre cognitive (du Cluzel, 2020, p. 31). C’est le même modèle qui a été utilisé pendant la guerre froide pour justifier le programme MKULTRA, le développement d’armes biologiques, le stockage massif d’armes nucléaires, etc. Le prétexte de l’« ennemi officiel » est toujours utilisé pour dissimuler les activités néfastes de l’État profond, qui sont aujourd’hui militarisées contre les populations occidentales.

Selon l’OTAN (n.d.), la guerre cognitive consiste à « attaquer et dégrader la rationalité » et devient « de plus en plus complexe à mesure que des cibles non militaires sont impliquées ». En d’autres termes, il s’agit d’attaquer la rationalité des citoyens. Ce que j’ai appelé « l’attaque cognitive » contre la population était une caractéristique essentielle de l’opération psychologique « Covid-19 » (Hughes, 2024a, chapitre 5).

Par ailleurs, si « l’objectif de la guerre cognitive est de faire de chacun une arme » et de « nuire aux sociétés » (du Cluzel, 2020, pp. 25), il a été atteint lors de l’opération « Covid-19 », où la majorité de la société a été manipulée pour attaquer la minorité afin qu’elle se conforme à des diktats draconiens (Hughes, 2024a, chapitre 7). Les clivages sociaux qui en ont résulté, gâchant les relations de toutes sortes, sont profonds.

L’OTAN (n.d.) inclut la guerre juridique dans la catégorie de la guerre cognitive. Les récentes tentatives de recours à la guerre juridique pour mettre fin aux interrogations sur les incidents terroristes sous fausse bannière sont donc notables, par exemple dans le cas de Sandy Hook (Alex Jones) et de l’attentat de Manchester Arena en 2017 (Richard D. Hall [voir Davis, 2024]). Il convient de rappeler que l’OTAN est connue pour ses actes de terrorisme sous fausse bannière (Hughes, 2024b, p. 92-95).

Trois camps de sensibilisation

La guerre cognitive peut également être utilisée à des fins de gestion de la perception.

Conformément à la promotion par la DARPA (n.d.) des « récits stratégiques » et des techniques de gestion de la perception, qui remonte au moins au 11 septembre, il semble qu’il y ait au moins trois camps de sensibilisation lorsqu’il s’agit de contrôler le récit de « Covid-19 ». Le premier camp est celui du récit officiel, tel qu’il est véhiculé par le courant dominant ; il repose sur de gros mensonges, mais il est cru par une majorité décroissante, sensible à la puissance de la propagande.

Le second camp est destiné à ceux qui ont des doutes sur le camp 1, mais qui sont accueillis par un bataillon de faux dissidents dont le rôle est de s’assurer que le débat critique et la discussion ne s’éloignent jamais de certains paramètres, en l’occurrence un paradigme de santé publique/pharmaceutique/médical. Les faux héros sont reconnaissables à leur grand nombre d’adeptes, à leur capacité à survivre et à prospérer sur les plateformes grand public, à la quantité invraisemblable de contenu qu’ils sont capables de produire tout en parcourant le monde d’un événement à l’autre, à leur promotion croisée du travail des uns et des autres, à leur ostracisme à l’égard des membres du camp 3 et à leur refus d’examiner sérieusement certaines preuves essentielles (par exemple, le refus de Project Veritas d’approfondir la question du contenu des « vaccins Covid-19 »).

Le camp 3 représente la vérité. Il attire les chercheurs de vérité les plus sérieux, dont la portée sur les plates-formes grand public est très limitée. Par rapport au camp 2, le camp 3 est minuscule, ce qui témoigne du succès de la campagne de gestion de la perception. Dans le cas de « Covid-19 », sa caractéristique est la capacité de parvenir à comprendre les relations sociales sous-jacentes qui produisent les récits des deux premiers camps, en reconnaissant en particulier le rôle central de l’armée et les agendas technocratiques et transhumanistes à l’œuvre. Le camp 3 est encore plus difficile à atteindre, intellectuellement et psychologiquement, que le camp 2, parce qu’il exige un engagement inébranlable envers la vérité, une recherche plus rigoureuse, une volonté d’endurer des sacrifices personnels et une capacité à faire face à la véritable horreur de ce qui se passe dans le monde.

La guerre cognitive utilise des algorithmes pour amplifier les messages du camp 1 vers ceux du camp 1, et les messages du camp 2 vers ceux des camps 2 et 3, tout en supprimant le contenu de ceux du camp 3. Grâce à cette technique, les membres des camps 1 et 2, enfermés dans leur chambre d’écho, deviennent de plus en plus convaincus de la véracité de leurs propres positions, qu’ils promeuvent ensuite activement. Il est peu probable qu’ils parviennent à percer le voile de tromperie qui a été tissé pour eux.

Références

Claverie, B., & du Cluzel, F. (n.d.). Le concept de guerre cognitive. Centre d’innovation de l’OTAN. https://innovationhub-act.org/wp-content/uploads/2023/12/CW-article-Claverie-du-Cluzel-final_0.pdf.

Corbett, J. (2017, 2 juillet). Psychographie 101. The Corbett Report. https://corbettreport.com/psychographics-101/.

Curthoys, K. (2014, 6 janvier). L’armée en 2014. Army Times. https://www.documentcloud.org/documents/2075518-nexis-human-domain.html#document/p28/a216990.

DARPA. (n.d.). Narrative networks. https://www.darpa.mil/program/narrative-networks

Davis, I. (2024). L’attentat de Manchester. Publication indépendante. https://iaindavis.com/sfcz9nrjt/.

Dhami, M. K. (2011, 10 mars). Behavioural Science Support for JTRIG’s (Joint Threat Research and Intelligence Group’s) Effects and Online HUMINT Operations. Joint Threat Research Intelligence Group. https://www.statewatch.org/media/documents/news/2015/jun/behavioural-science-support-for-jtrigs-effects.pdf.

du Cluzel, F. (2020, juin-novembre). La guerre cognitive. Centre d’innovation de l’OTAN. https://innovationhub-act.org/wp-content/uploads/2023/12/20210113_CW-Final-v2-.pdf.

Fitts, C.A. (2022, 14 janvier). Le contrôle est une personne à la fois. Rapport Solari. https://home.solari.com/control-is-one-person-at-a-time/.

Gearty, D.L., Sproul, T., McMurtrie, R., Munn, C., Boyd, J. et Castleman, E. (2014). L’armée américaine maîtrise le domaine humain : Identity Operations for Strategic Landpower. Armée américaine. https://publicintelligence.net/us-army-identity-operations/.

Hall, R.D. (n.d.). L’attentat de Manchester. https://www.richplanet.net/manchester.php.

Hughes, D. A. (2024a). “Covid-19, Psychological Operations, and the War for Technocracy (Covid-19, opérations psychologiques et guerre pour la technocratie). Palgrave Macmillan.

Hughes, D. A. (2024 b). Wall Street, les nazis et les crimes de l’État profond. Skyhorse.

Huxley, A. (1958). Le meilleur des mondes revisité. Harper & Row.

MacDonald, A. et Ratcliffe, R. (2023). Cognitive Warfare: Manœuvrer dans la dimension humaine. Proceedings of the U.S. Naval Institute. https://www.usni.org/magazines/proceedings/2023/april/cognitive-warfare-maneuvering-human-dimension.

L’OTAN. (s.d.). La guerre cognitive. https://www.act.nato.int/activities/cognitive-warfare/.

Orwell, G. (1984). Nineteen eighty-four. Oxford University Press.

Tatham, S. et Giles, K. (2014). Training Humans for the Human Domain. United States Army War College Press. https://press.armywarcollege.edu/monographs/435/.

Commandement des opérations spéciales de l’armée américaine. (2014). Demande d’entraînement militaire réaliste (RMT) JADE HELM 15. https://www.documentcloud.org/documents/2075511-jade-helm-15-presentation.html.

Forces d’opérations spéciales de l’armée américaine. (2008). La guerre non conventionnelle. https://irp.fas.org/doddir/army/fm3-05-130.pdf

van Hamelen, E. (2022, 22 septembre). Citizen’s Brain Is the Battlefield in 21st-century Warfare (Le cerveau du citoyen est le champ de bataille de la guerre du 21e siècle). Global Research. https://www.globalresearch.ca/citizen-brain-battlefield-21st-century-warfare/5794156

Wong, J. C. (2017, 12 décembre). Un ancien cadre de Facebook : les médias sociaux déchirent la société. The Guardian. https://www.theguardian.com/technology/2017/dec/11/facebook-former-executive-ripping-society-apart.

Texte original : https://dhughes.substack.com/p/cognitive-warfare

David A. Hughes est l’auteur de ‘Covid-19’, Psychological Operations, and the War for Technocracy (Palgrave Macmillan, 2024) et Wall Street, the Nazis, and the Crimes of the Deep State (Skyhorse, 2024). Il a obtenu sa licence et sa maîtrise à l’Université d’Oxford et est titulaire de doctorats en études allemandes (Université Duke) et en relations internationales (Université Oxford Brookes).