Léon-Jacques Delpech : Les nouvelles épistémologies


09 Nov 2010

VOLUME 142, N° 10 DÉCEMBRE 1984

ANNALES

MÉDICO-PSYCHOLOGIQUES

MÉMOIRES ORIGINAUX

QUE PEUT APPORTER L’ÉPISTÉMOLOGIE

EN PSYCHIATRIE

A L’ÈRE DES RECHERCHES INTERDISCIPLINAIRES ?

par

P. MARCHAIS

Mots-clés : Épistémologie, Recherche interdisciplinaire, Informatique, Méthode systémale

RÉSUMÉ : L’auteur montre la nécessité d’une étude critique et logique des sciences pour mieux comprendre l’apparition et le développement des multiples aspects de la psychiatrie. Il introduit le travail d’un philosophe des sciences, le Pr L.-J. Delpech, qui évoque la rupture entre la pensée classique et la pensée scientifique contemporaine dans un texte sur « Les nouvelles épistémologies ».

P. Marchais rappelle que certaines d’entre elles ont tenu un rôle important dans ses propres travaux. Elles lui ont permis de renouveler son mode d’observation et de fonder une nouvelle méthode efficace pour sa connaissance et son activité clinique quotidienne. Ainsi peut-il témoigner des effets théoriques et pratiques de l’épistémologie en psychiatrie.

SUMMARY: The author shows it is necessary to perform a critical and logical study of the sciences in order to understand better the origin and the development of the multiple aspects of psychiatry. He introduces the work of a philosopher of science, Pr L.-J Delpech who points out the rupture between classical and contemporary scientific thinking in an article on “The new epistemologies”.

P. Marchais recalls that some of them have played an important role in his own work. They have permitted him to renew his mode of observation and to found a new effective method for organizing his daily clinical activities. Thus he can testify the theoretical and practical effects of epistemology in psychiatry.

La diversité des courants d’étude et la disparité des niveaux de connaissances en psychiatrie l’influence croissante d’autres disciplines comme la biologie, le rôle important des techniques modernes, notamment de l’informatique, et les transformations qui ne manqueront pas d’en résulter ne peuvent être bien appréciés dans leur ensemble sans être situés par rapport au développement historique de la connaissance scientifique.

Il en est de même pour le passage de la clinique empirique initialement syndromique — apparue avec Pinel au début du XIXe siècle — à celle des entités — ayant atteint son apogée avec Kraepelin —, l’apparition conjointe de la psychodynamique fonctionnelle objective fondée par P. Janet et interprétative dominante analogique sensible de Freud concernant les phénomènes inconscients, l’évolution de la conception nosographique en maladies vers  celle des processus psychopatbologiques, et tant d’autres facettes apparemment contradictoires et pourtant complémentaires de la connaissance psychiatrique.

Néanmoins, cette connaissance si diversifiée se présente comme une vaste construction d’ensemble, fruit de plusieurs générations de cliniciens depuis la fin du XVIIIe siècle, auxquels se sont joints tout récemment des fondamentalistes. Tout psychiatre averti sait qu’aucun courant ne pourrait en être exclu ou tenu à l’écart sans déformer le visage de sa discipline, chacun ayant contribué d’une façon ou d’une autre à l’élaboration de cet édifice et ayant même parfois induit l’éclosion de nouveaux courants ou participé à leur maturation. En outre, si nous voulons assurer sa valeur scientifique et ne pas la laisser s’effriter sous les assauts de ses détracteurs, nous devons comprendre et souligner la cohérence de son développement.

Par suite, pour mieux en saisir le sens général, il convient de la situer au sein de la connaissance générale et d’en extraire les dynamiques internes, comme le clinicien peut en découvrir dans les phénomènes inconscients du sujet, ou dans la pathologie du patient. Ceci est le rôle de l’épistémologue qui se livre à une étude logique et critique des connaissances.

Certes, une telle réflexion est apparemment éloignée des préoccupations immédiates du clinicien. Cependant contrairement aux apparences, il ne s’agit pas de vaines considérations théoriques qui seraient dénuées d’efficacité pratique. En se penchant sur les courants de pensée qui servent de référence l’observateur, le psychiatre peut mieux comprendre le sens et les limites de ses propres connaissances. Par suite, il peut s’ouvrir davantage à de nouveaux modes de pensée plus enrichissants pour l’étude et le traitement des troubles mentaux.

Toutefois, le domaine de l’épistémologie n’est pas simple ni facile ù assimiler, car il nécessite des efforts d’abstraction parfois ardus. En outre, i| n’est pas clos ni bien limité et ne peut être défini une fois pour toutes. En tant que réflexion sur la connaissance, l’épistémologie demeure ouverte en permanence aux innombrables directions et détours possibles de la pensée humaine. Elle prend donc divers aspects et comporte une histoire pour chacun d’eux. R. Blanché distinguait ainsi une « épistémologie externe » ou générale, plus proche de la philosophie, et une « épistémologie interne », propre à chaque discipline. Sa complexité est donc certaine. Cependant, les réflexions qu’elle suscite peuvent enrichir ses adeptes à la mesure des efforts qu’elle leur impose.

Il est donc important pour le psychiatre de s’intéresser à elle, car il doit non pas opposer le pragmatisme médical au langage abstrait de l’épistémologue, mais se rendre compte que sa pratique quotidienne peut être enrichie par les conséquences rétro- et antéroactives de la réflexion épistémologique. En ce sens, un aperçu sur ce domaine peut lui être utile.

Le Pr Léon-Jacques Delpech, psychologue, psychothérapeute, et philosophe des sciences, ancien collaborateur de G. Bachelard et auteur du rapport « Épistémologie et Psychologies» au Congrès International de Philosophie tenu à Paris en 1948, était particulièrement qualifié pour exposer les orientations modernes de l’épistémologie. Il montre la rupture de la connaissance scientifique contemporaine avec la pensée classique dans un texte condensé sur « Les nouvelles épistémologies ». Il rappelle ainsi certaines théories modernes qui ont déjà contribué au renouvellement de la connaissance dans les sciences humaines et qui pourront peut-être enrichir à l’avenir notre discipline. Ce texte ne fait pas apparaître les rapports entre la psychiatrie et l’épistémologie, car ce travail reste celui du psychiatre, mais il servira de référence à ce dernier pour assurer ses propres démarches en un domaine abstrait qui ne lui est pas familier. Au lecteur qui n’en saisirait pas l’intérêt immédiat, rappelons qu’il lui suffirait de se reporter à l’état de la psychiatrie avant l’apparition de la pensée freudienne ou avant les années 50, époque à laquelle la chimie et la pharmacologie sont venues transformer nos modes de pensée et même nos concepts nosographiques, pour admettre la nécessité d’une ouverture sur les nouveaux aspects de la pensée contemporaine particulièrement riche en rebondissements.

Le clinicien pourra aimai trouver des éléments pour mieux comprendre les conditions d’apparition et les caractéristiques de la pensée scientifique contemporaine et, par suite, l’éclosion des nouveaux courants de connaissance présents et à venir en psychiatrie. Ainsi pourra-t-il mieux saisir les raisons des révolutions passées et futures dans l’histoire de cette discipline, et mieux en préciser les dynamiques. En outre, en se penchant sur ces nouvelles théories, il pourra voir lui-même si certaines d’entre elles l’incitent à modifier ses propres méthodes d’observation ou à remanier celles qui lui sont proposées. Ainsi loin d’être enfermé dans un monde purement théorique, il pourra au contraire se rendre compte des possibilités de libération conceptuelle qui lui sont offertes par l’épistémologie.

A titre d’exemple, nous rappellerons brièvement notre expérience personnelle en ce domaine, car elle nous a montré que l’épistémologie pouvait apporter en psychiatrie des ouvertures et des moyens nouveaux directement transposables dans notre activité quotidienne avec des conséquences pratiques immédiates.

De nouvelles conditions d’observation en service libre d’hôpital général nous avaient montré dès 1950 l’inadéquation des référentiels classiques face aux phénomènes observés. Aussi avions-nous essayé d’en mieux comprendre les raisons. A cet effet nous avions tenté, il y a une dizaine d’années, de proposer pour la première fois en notre discipline une épistémologie interne dans notre ouvrage intitulé « Métapsychiatrie » (Masson, Paris, 1974). Cet essai n’avait manifestement pas été bien compris, certains critiques n’en percevant que les considérations théoriques sans en pressentir les effets pratiques. Or, les travaux que nous avions utilisés pour cet ouvrage nous avaient fait prendre conscience des limites de la pensée psychiatrique classique et incité à rechercher d’autres modes de pensée possibles pour notre discipline.

Ainsi les études de R. Carnap, H. Poincaré, F. Gonseth, G. Bachelard, J. Cavaillès, J. Piaget, K. Popper, Th. S. Kuhn, L. von Bertalanffy, et tant d’autres — nous avaient conduit à remodeler notre attitude d’observation initiale. Notamment, l’œuvre de G. Bachelard fut pour nous déterminante par sa mise en lumière du caractère toujours approché de la connaissance, la nécessité de connaître les aspects cachés derrière l’apparence des phénomènes, l’objectivité du concept qui peut de nos jours devenir réalité, la dialectique d’une démarche « abstraite-concrète » qui permet d’approcher de mieux en mieux la réalité observée, etc.

Pour affiner l’observation clinique des troubles mentaux nous avions donc été tenté de recourir à un support conceptuel de référence cohérent, d’ordre logique et mathématique relativement élémentaire, capable de prendre valeur de réalité face aux phénomènes observés. De ce fait, ce système de référence pouvait devenir particulièrement efficace en psychiatrie, tout en étant entièrement nouveau. Théoriquement, un tel choix permettait d’obtenir la meilleure cohérence possible dans les démarches de connaissance, devenant par-là susceptible de faire évoluer la psychiatrie vers un statut plus scientifique. Ainsi avons-nous pu élaborer une nouvelle méthode d’observation que nous avons dénommée systémale, en recourant à l’analyse comparative et différentielle des phénomènes de même nature, aux notions d’invariant, de modèle opératoire, de rétroaction cybernétique, de système, d’ensemble, de combinatoire, d’intégrale… De même, cette orientation nous a conduit à utiliser l’aide technique de l’ordinateur, puisque cet ensemble de démarches s’avère cohérent avec celles de l’informatique, et nous essayons actuellement d’affiner l’étude clinique de la pathologie mentale par cette nouvelle méthode. La voie d’une psychiatrie assistée par ordinateur est ainsi ouverte dans une prospective non plus seulement quantitative, comme les recherches qui utilisent les notions classiques, mais aussi qualitative plus spécifique à la nature des phénomènes observés en notre discipline.

Nous ne reviendrons pas sur ce renouvellement de l’observation que nous avons exposé dans plusieurs ouvrages, notamment dans « Les Processus psychopathologiques de l’adulte » (Privat, 1981), et « Les Mouvances psychopathologiques » (Eres, 1983), travail que nous sommes en train de développer pour l’étude des interrelations du trouble mental et du milieu, afin de faciliter les recherches en psychiatrie sociale et transculturelle.

Disons simplement qu’il aboutit à une observation psychodynamique objective et vérifiable, capable de pouvoir toujours affiner l’étude des troubles mentaux. Ce nouveau mode d’analyse clinique extrait leurs propriétés invariantes qui permettent d’élaborer des modèles opératoires en permanence ouverts. Cette observation peut être aussi bien centrée sur le seul patient et ses infrastructures biopsychologiques qu’ouverte sur ses relations avec le milieu ambiant socioculturel et sur les propriétés des communications établies. L’assistance de l’ordinateur, rendue possible par le caractère permanent des invariants, facilite l’analyse des innombrables liaisons et corrélations de ces invariants qui participent à la pathologie mentale, qu’elles soient d’ordre biopsychologique ou sociopsychologique. De cette façon, l’ordinateur permet des analyses intrasystémiques et intersystémiques, ainsi que des études interdisciplinaires fondées sur des isomorphismes structuraux. Le caractère fonctionnel et qualitatif des données traitées évite le danger d’un modèle clinique clos informatisable qui conduirait tôt ou tard à l’épuisement des recherches.

Sans même entrer dans le détail de cette démarche d’ensemble ou des raisons qui l’ont motivée et qui la justifient, il est possible de se contenter d’en utiliser les effets, c’est-à-dire des modèles, pour se rendre compte des nouvelles possibilités qu’elle offre face à la clinique.

Ainsi l’épistémologie nous a permis d’envisager une nouvelle méthode d’observation en nous faisant bénéficier d’une cohérence conceptuelle interne et d’une congruence étroite avec les phénomènes observés. En outre, elle nous a incité à maintenir pour cette méthode une ouverture permanente, qui s’est avérée productive aussi bien pour la recherche théorique que pour le traitement quotidien de nos patients.

Dès lors, devant les résultats obtenus, nous pouvons aujourd’hui témoigner que toutes ces notions logiques, mathématiques et techniques, qui spécifient la pensée scientifique moderne et qui investissent progressivement le monde où nous vivons sont assimilables par la psychiatrie pour l’étude des phénomènes cliniques qualitatifs qui la caractérisent.

Cependant, notre option n’est qu’une réalisation possible parmi d’autres. Loin d’être unique et fixée une fois pour toutes, elle peut toujours s’enrichir à d’autres notions épistémologiques, être complétée, voire renouvelée, comme nous le faisons pour nos recherches transculturelles actuelles.

Ainsi est-il possible de se rendre compte de l’ouverture conceptuelle et des effets pratiques que l’épistémologie peut apporter en psychiatrie. Puisse notre discipline s’ouvrir à ces nouveaux modes de réflexion pour participer à l’évolution de la pensée scientifique contemporaine et ne pas rester à l’écart des apports incontestés et constructifs que celle-ci nous réserve pour le plus grand bien des malades mentaux.

Le Dr. Pierre Marchais est neuropsychiatre. Ancien chef de service à l’Hôpital Foch de Suresnes, Secrétaire général et Président de la Société Médico-Psychologique, membre de l’Académie européenne interdisciplinaire des sciences, il a participé à la fondation de nouvelles institutions psychiatriques en milieu hospitalier général, pénitentiaire, et de recherche. Adepte d’études interdisciplinaires sur le fonctionnement psychique, il est l’auteur de travaux couronnés par l’Académie de Médecine et l’Académie française, et d’une longue suite d’ouvrages dont plusieurs ont été traduits à l’étranger.

Livres :

L’esprit : Essai sur l’unité paradoxale des flux énergétiques de la dynamique psychique de Pierre Marchais 2009

La conscience humaine : Des flux énergétiques réflexifs, interactifs et transcendants de Pierre Marchais 2007

L’activité psychique : De la psychiatrie à une théorie de la connaissance de Pierre Marchais  2004

Le nouvel esprit psychiatrique de Pierre Marchais et Axel Randrup 2000

Permanence et relativite du trouble mental de Pierre Marchais et Axel Randrup 1986

Les mouvances psychopathologiques : essai de psychiatrie dynamique de Marchais Pierre 1983

Magie et mythe en psychiatrie de Pierre Marchais 1977

Psychiatrie de synthèse de Pierre MARCHAIS 1973

*** ***

LES NOUVELLES ÉPISTÉMOLOGIES

par

Pr Léon-Jacques DELPECH

Professeur Honoraire a la Sorbonne.

Président de la Société Française de

Cybernétique et des Systèmes Généraux

HISTORIQUE

L’épistémologie est la science de la connaissance. C’est une discipline qui d’une certaine manière est récente puisqu’elle date de la deuxième moitié du XVIIIe siècle avec l’ouvre du philosophe allemand Kant (1724-1804). Mais comme toutes les grandes disciplines elle a une préhistoire, c’est-à-dire que sans prendre conscience de sa réalité autonome, les problèmes qu’elle implique ont été abordés depuis des temps reculés de la tradition philosophique : ainsi les sophistes grecs dans la haute antiquité ont été les premiers à mettre en question la valeur de la connaissance quelques siècles avant Jésus-Christ, et curieusement ce phénomène n’a pas été spécifique à l’Occident mais il a été universel, s’étendant en Inde et en Chine (cf. P. Masson-Oursel : Les sophistes, Revue de métaphysique et morale, 1915). Cette crise que j’ai été amené à comparer à celle de 1968 dans une lettre à André Malraux, a été conjurée par Socrate et à sa suite la constitution d’une philosophie consistante réalisée par son disciple Platon qui a su mettre en valeur, sous le nom d’Idées, des invariants. Le platonisme devait continuer son itinéraire jusqu’à nos jours où il aboutit d’une part à la psychanalyse (j’entends par là une philosophie qui met l’accent sur l’inconscient et l’affectivité) du suisse Jung et à certaines conceptions du philosophe anglais B. Russell. Kant a donc posé le premier en toute conscience le problème épistémologique, mais curieusement si on lit sa logique on y trouve les catégories aristotéliciennes telles qu’elles sont décrites dans le livre des Analytiques d’Aristote dont l’étude, disait Joseph de Maistre, assure à ceux qui l’avait pénétrée une supériorité d’esprit indiscutable. Pourtant à travers le XIXe siècle cet ordre séculaire allait être bouleversé par des critiques concentriques venant de diverses directions. Il y a d’abord les logiciens anglais Boole, Morgan et Jevons qui, reprenant certaines idées de Leibniz, idées exposées par Couturat dans sa logique de Leibniz (1902) montrèrent que la logique dépassait de loin le discours soumis aux principes d’identité de contradiction et de raison suffisante, et ne pouvait se rattacher d’une certaine manière à l’algèbre (cf. L. Liard: Les logiciens anglais contemporains 1878). Une seconde attaque contre l’épistémologie classique est venue du domaine préférentiel philosophique et l’œuvre du penseur allemand Dilthey avec sa Critique des sciences humaines (1885) qui partant du modèle autobiographique et biographique a mis en lumière la distinction entre l’explication causale et la compréhension intuitive : c’est ce que le penseur allemand Jaspers a mis en œuvre dans son célèbre Traité de Psychopathologie Générale (1912). Cette distinction  qu’on retrouve chez Bergson est un des points fondamentaux de la spécificité des sciences humaines dont Gusdorf dans une œuvre prodigieuse de plus de dix volumes raconte l’épopée. Une troisième attaque contre l’épistémologie classique dont le modèle est le couple Newton-Kant, a été réalisée par le mathématicien Henri Poincaré. Celui-ci examinant l’œuvre du physicien anglais J.-C. Maxwell, un des créateurs de la physique moderne par sa découverte de l’équivalence entre la lumière et l’électricité, est arrivé après un examen de son œuvre un peu déroutante à cette découverte que si un modèle mathématique est satisfaisant, on peut démontrer que n modèles le sont, et on choisira le plus commode. Si nous résumons le cheminement mis en lumière, il faut dire qu’en dehors d’une raison ferme et unilatérale nous devons utiliser des logiques nouvelles. Je ne peux continuer cet itinéraire : je me contenterai de dire que s’est développé une double exigence d’unité et de multiplicité dans les sciences cosmologiques dont le type est la physique, et dans les sciences humaines. La physique a pris des formes diverses et une tentative d’unification entre la physique des quanta et celle de la relativité a été tentée par J.-L. Destouches qui en 1943 a publié un traité de physique où il multipliait les points de vue, puis en 1954 il parlait de physico-logique une discipline nouvelle qui étudiait La structure et la combinaison des théories physiques. Dans le domaine des sciences humaines Palmade avait soutenu en 1953 une thèse sur l’unité des sciences humaines qui prenait comme modèle la psychotechnie. Cette thèse, malheureusement publiée en 1961, n’eut à peu près aucune résonnance.  Il n’en demeure pas moins que le problème épistémologique a pris peu à peu une grande importance. La dissociation entre la logique et le réel a disparu de plus en plus. Aussi pour faire comprendre le problème, nous allons examiner une série d’épistémologies contemporaines qui à l’heure actuelle ont permis à ceux qui les utilisaient d’obtenir des résultats de plus en plus efficaces.

***

ÉPISTÉMOLOGIES CONTEMPORAINES

1. LES PSYCHO-LOGIQUES

Il s’agit de disciplines qui étudient particulièrement les rapports des théories physiques et de la logique. Elles furent créées par Gonseth, Bachelard et Destouches.

F. Gonseth, mathématicien et épistémologue suisse, condisciple d’Einstein à 1’École polytechnique de Zurich, est mort en 1976. Dans une œuvre de plus de huit volumes et cent cinquante articles, il a énoncé quatre principe de base : 1o Le principe  de réversibilité. Aucun élément de la connaissance ne peut « sans arbitraire » être posé comme  » fermé « , achevé dans sa signification et par conséquent irréformable dans toutes ses significations. Au plan de l’hypothèse scientifique, le principe ne s’oppose pas à telle ou telle « hypothèse de fermeture », qu’on se proposerait de mettre à l’épreuve. Il doit cependant être interdit de décréter qu’un élément quelconque ne sera jamais susceptible d’être réformé, qu’il ne sera jamais capable de la révision qui lui permettrait éventuellement d’entrer dans une position ultérieurement corrigée ou précisée. « Il n’existe pas de raison absolument et inconditionnellement valable de nous croire capable de décider par avance et pour toujours, que tel ou tel secteur de notre connaissance n’aura jamais à être révisé ». 2o Le principe de structuralité. Si la réversibilité est à la fois le trait commun à toute connaissance et la condition de tout progrès, il est une seconde caractéristique du fait scientifique qui elle aussi s’impose à l’observation en même temps qu’elle apparait comme la forme que revêtent l’acquisition et le progrès de la connaissance. Cette seconde caractéristique dans le prolongement de l’opposition classique du rationnel et de l’empirique est quelquefois désignée par Gonseth sous le nom de principe de dualité. Mais déjà dans « la géométrie et le problème de l’espace », la notion de dualité est dépassée. L’équivalence de vérité entre l’intuitif, l’expérimental et le rationnel implique la coexistence de trois aspects et non de deux aspects. La seconde synthèse dialectique confirme que trois aspects concourent à l’unité et à la cohérence de l’opération géométrisante. Dans la conclusion de son livre, Gonseth insiste sur l’insuffisante d’une simple mise en synthèse de l’empirique et du rationnel. Aucun aspect, aucun phénomène n’est localisable et discernable à l’état pur. Si la méthode peut néanmoins se proposer de mettre l’un ou l’autre en évidence, elle se gardera de l’isoler de la diversité intégrée des aspects ou des phénomènes. A ces derniers correspondront des schémas plus ou moins adéquats et significatifs, des structures qu’il y aura lieu d’envisager comme rattachées à une diversité que l’état présent de la recherche n’épuise ni ne circonscrit jamais. Comme pour l’axiomatisation, la méthodologie conteste que telle ou telle structure puisse prendre son sens méthodologique et scientifique hors d’une mise en situation dialectique, hors d’un effort de synthèse où la valeur des éléments en présence est suspendue à la nature de la relation qui peut s’établir entre eux. De ce point de vue la diversité intégrée des aspects ou des structures suppose une  unité structurale propre à chaque  domaine de connaissance ou du moins à chaque discipline. Cette unité structurale représente l’horizon méthodologique et critique où les schémas de la connaissance spécialisée,  notamment, révéleront, au-delà de leur signification intrinsèque, les significations extérieures qu’ils peuvent revêtir soit du côté de l’objet, soit du côté du sujet. Mais cette unité n’est pas donnée d’avance, elle est à construire selon une idée directrice, à faire valoir et susceptible d’être révisée en tout temps. 3o Le principe de technicité. C’est en corrélation avec le principe précédent que le principe de technicité prend toute sa valeur. Dans la méthodologie, la technicité recourt à l’instrumental, en tant qu’il est susceptible de se distinguer des informations naturelles et des opérations de l’esprit. Sa forme variera du verbal à l’objet ou à la machine : l’essentiel est de voir que rien, et à aucun titre, ne peut être considéré comme du purement instrumental, toute délimitation se justifiant en fonction  des données propres à chaque discipline. L’autonomie d’une discipline, l’efficacité de ses pratiques expérimentales, sont intimement liées à sa technicité ; la méthodologie doit prendre acte du fait technique comme d’un fait principal sans lequel son analyse resterait en deçà des réalités de la pratique. 4o Le principe de solidarité ou d’intégralité. Il relève simplement du fait « que la connaissance scientifique forme une trame dont toute les parties se tiennent et se conditionnent les unes les autres ». Il rappelle le fait qu’une révolution portant sur  telle ou telle partie de ce système bien lié peut ou doit entrainer des révisions en tel ou tel autre point. Il n’y a là guère autre chose que la formulation dune expérience commune.

G. Bachelard, professeur la Faculté de Dijon, puis la Sorbonne, est mort en 1961. Il s’est efforcé durant sa carrière de créer une psychologie de l’esprit scientifique avec pour corollaire une méthodologie en vue d’établir les fondements d’une conscience de la rationalité qui soit à la mesure de notre temps. La Science incite l’homme à saisir les choses et les phénomènes dans des cadres rigides (précis) mais avec un contrepoint dans l’imaginaire. La réflexion philosophie est dans un premier moment constructive. La science est une suite infinie de rectifications. La connaissance est approchante, elle est toujours approchée (c’est le titre de sa thèse de 1929),   jamais définitive. Le sujet connaissant est en interaction incessante avec le phénomène scientifique. Jamais la science n’est donnée d’un coup, elle suit un long processus d’élaboration. Il y a d’abord une connaissance première des faits scientifiques, celle-ci est fournie par les premiers enregistrements des sens. Mais aussitôt, la raison loin d’entériner ces faits les travaille pour en dégager le sens au service de la science. Or rien dans la raison humaine n’est immobile. Au contact de l’objet scientifique la raison se forme et se déforme (Le Nouvel esprit scientifique). Aucun principe, aucune catégorie, aucune structure que la raison se donne n’est définitif. Tout change en fonction du stade de développement de la science. La science fonde aujourd’hui un type d’intelligibilité qui est dialectique. Connaître ne peut éveiller « qu’un seul désir : connaître davantage, connaître mieux ». Le nouvel esprit scientifique est l’ébauche de cette attitude mais au préalable il faut exclure deux types d’explications métaphysiques. La pensée de Bachelard après avoir établi que la science est dialectique va adopter un ton critique. D’une part la science ne se borne pas à l’enregistrement des faits bruts. Il n’y a de science que de ce qui est caché. Il est nécessaire pour l’esprit scientifique d’établir des normes et des cadres qui favorisent l’explication de ces données immédiates des sens et de la perception. D’autre pat, la raison humaine ne peut se constituer une fois pour toutes. La science est un effort sans cesse rectifié pour s’adapter aux phénomènes. Les domaines nouveaux conquis par la science contemporaine ne peuvent plus faire l’objet d’une mise en pratique des cadres aristotéliciens et kantiens. L’intelligibilité aristotélicienne était valable pour la science macroscopique. Aujourd’hui elle est un obstacle à la connaissance, car elle ne permet pas l’analyse du domaine de l’infiniment petit. Au contact des phénomènes l’homme transforme son esprit, sa raison s’affine. « Le nouvel esprit scientifique montre sous sa forme la plus simple, la plus pure, le jeu dialectique de la raison. Les moyens de la connaissance s’approfondissent sans cesse. Il faut donc que la connaissance soit admise comme un fait dialectique. Le savoir est une remise en question incessante ». Rien n’est jamais acquis, c’est donc par un échange sans fin et dans les deux sens, entre l’objet et le sujet, que s’accroît la connaissance. Le monde connu n’est pas une donnée brute, le monde est un monde construit en fonction d’un type d’intelligibilité. Pour Bachelard la science dans son histoire et dans ses processus de construction est l’affirmation de la dialectique. Une connaissance n’est qu’un moment sur l’axe du devenir. Au niveau de l’activité scientifique, l’homme est donc l’être de la dialectique. Il est dans le monde, mais il cherche à le réduire à l’expression qu’il en a. Son rapport au monde est dialectique, c’est-à-dire que le monde est sa représentation. Celle-ci est consécutive à sa façon de le penser, autrement dit aux moyens mis en œuvre, c’est-à-dire les cadres de l’intelligibilité. Nous venons de saisir cette dialectique dans son caractère général : l’homme est présent au monde. Ce monde lui est donné, il pense ce monde et réagit sur lui, ce rapport met en évidence une interaction entre l’homme et le monde. Le modèle de l’explication du monde n’est jamais définitif. Une théorie est sans cesse rectifiée, transformée; vérifiée au contact de l’expérience. Elle va du réel à l’abstrait, puis revient vers le réel : la technique ou quelque forme que ce soit de vérification. Ce retour au réel rend nécessaire un nouveau type d’intelligibilité. La raison humaine se transforme ainsi indéfiniment au contact de l’expérience. Une rectification objective est immédiatement une rectification subjective. « Si l’objet m’instruit, il me modifie. De l’objet comme principal profit, je réclame une modification spirituelle ».

Cette dialectique de la connaissance, Bachelard la saisit au niveau du concept. Le concept traduit dans la science la réalité objective. Il est forcément limitatif car il a besoin d’être précis, affiné. Ainsi le concept de déterminisme est rendu faux par la naissance des théories modernes. Or, c’est par une référence à la réalité, à une vérification par la pratique que ce concept a pu se transformer. Le concept crée souvent son propre appareil de vérification. Mieux le concept crée souvent la matière qui à son tour va transformer le concept comme on le voit en chimie. Du réel au concept il y a toute l’activité de la science, le concept étant la réalité rendue intelligible. Une démarche inverse nous ramène au réel.

A ce niveau se pose le problème de l’objectivité du concept. Le concept est objectif dans la mesure où il traduit avec le maximum d’efficacité la réalité. Il est objectif dans la mesure où il rend compte d’un phénomène. Il se substitue à un nouveau concept devenu moins prégnant sur le réel, du fait des enseignements nouveaux. Il est plus objectif car il rend davantage compte de l’ensemble d’un phénomène. C’est ce qui s’est passé avec les grands bouleversements de la science du XXe siècle. On a cru à une faillite de la science car des notions telles que déterminisme, espace-temps, sont apparues nettement insuffisantes pour expliquer les phénomènes. La raison devait créer un nouveau concept. Ainsi fut créée la notion d’indéterminisme qui permit à la science un regain d’activité, le précédent concept devenant un cas particulier du second. Il y a là une leçon de compréhension du réel à tirer. C’est ce que fit Bachelard dans sa « Philosophie du non » (1941).

La notion de profil épistémologique, d’après Bachelard.

Partant du concept mécanique de masse, Bachelard a mis en évidence une filiation de cinq doctrines philosophiques nécessaires à l’éclairer. Mais comment progresser ? Il répond ainsi : « Il nous semble qu’une psychologie de l’esprit scientifique devrait dessiner ce que nous appellerons le profil épistémologique des diverses conceptualisations. C’est par un tel profil mental qu’on pourrait mesurer l’action psychologique effective des diverses philosophies dans l’œuvre de la connaissance ». On réalise alors un profil en portant en abscisse les philosophies successives (réalisme, empirisme, rationalisme, etc.) et en ordonnée une valeur qui mesure l’importance relative de nos convictions. Bachelard insiste sur le fait qu’un profil épistémologique doit toujours être relatif à un concept désigné, qu’il ne vaut que pour un esprit particulier qui s’examine à un stade particulier de sa culture. « C’est cette double particularisation qui fait son intérêt » et Bachelard ajoute en élargissant son point de vue : « C’est seulement après avoir recueilli l’album des profils épistémologiques de toutes les notions de base qu’on pourra vraiment étudier l’efficacité relative des diverses philosophies… Nous suggérerions volontiers une analyse philosophique spectrale qui déterminerait avec précision comment les diverses philosophies réagissent au niveau d’une connaissance objective particulière

J.-L. Destouches, physicien français, mort en 1980, créa en 1939 1a physico-logique. Il écrit en 1954 : « J’ai été amené à adopter comme objet d’étude les théories elles-mêmes, ainsi que la notion de théorie physique et non plus les phénomènes que, ces théories cherchent à expliquer. J’ai ainsi été orienté vers des recherches épithéoriques pour employer un terme emprunté au Pr Curry. Ces recherches se sont développées dans différentes directions et forment les bases d’une discipline qu’on peut appeler la physico-logique ».

Une partie importante de la physico-logique est constituée par la, recherche, des conséquences de la conception prévisionnelle d’une théorie physique, c’est-à-dire de la conception selon laquelle une théorie consiste au moins à calculer des prévisions. On peut aussi construire une théorie générale des prévisions qui conduit déductivement des résultats généraux précis, comme il y a deux types de théories physiques. Si on se place au point de vue prévisionnel, les théories que l’on construit ne visent plus à décrire des réalités intrinsèques mais seulement à relier d’une manière cohérente des résultats de mesure pour pouvoir faire des prévisions.

Si on l’envisage de ce point de vue, la mécanique ondulatoire de L. de Broglie avec interprétation probabiliste apparaît comme tout à fait naturelle. Toutes les conclusions énoncées qui paraissent étranges sont des conséquences normales de l’intention prévisionnelle. En effet, dans cette perspective la microphysique exige que les appareils de mesure aient un rôle inéliminable dans la description théorique.

La recherche opérationnelle.

Durant la dernière guerre on a eu à traiter des problèmes militaires complexes et comportant trop de paramètres pour être abordés par la voie purement scientifique. De là est née la recherche opérationnelle, inventée par le physicien anglais Blackette et dont le précurseur fut Napoléon, comme l’a montré P. Vendryes dans son livre « Vers la Théorie de l’Homme » (1973), fondée initialement sur l’analyse mathématique des mécanismes quantitatifs intéressant l’organisation, la gestion, l’action et la réaction en vue d’un but bien défini. La recherche théorique des facteurs dominants et des lois régissant les phénomènes quantitatifs à travers la théorie des jeux de Borel, les recherches économiques de Cournot et Pareto, où le calcul des probabilités tient une place prépondérante, préludaient d’ailleurs à cette discipline. Lorsque cette recherche inclut des paramètres variables, c’est toujours dans la limite de contraintes définies. Ce préalable permet à l’analyse d’aborder l’amélioration des méthodes ou des matériaux et même les conséquences engendrées par la variation des conditions d’action et des objectifs considérés. Elle fournit donc tout à la fois des éléments de prévision et de décision. C’est son aspect prospectif.

La valeur et l’efficacité de la recherche opérationnelle sont liées aux conditions de la réalisation du modèle mathématique résumant le problème. Cette réalisation résulte d’échanges entre techniciens et utilisateurs. Elle peut avoir plusieurs aspects comme l’exploitation directe du modèle ou la simulation du phénomène sous forme accélérée, en confrontant les réactions des utilisateurs et celle d’un ordinateur animé par le modèle. Si l’animation de l’ordinateur présente des caractères difficiles, on utilise la technique des jeux de guerre où se combinent attaques et ripostes. Mais l’élaboration de modèles mathématiques ne peut se réaliser qu’aux conditions suivantes. Tout d’abord obtenir entre techniciens et utilisateurs des échanges de vues compréhensifs, les premiers s’efforçant de mettre leurs questions à la portée des seconds de manière à éviter toute équivoque. Il est alors possible de réaliser une analyse objective et une exploration exhaustive du phénomène pour en dégager des lois et les facteurs prépondérants, les critères de base en fonction desquels on comparera les solutions offertes. A partir du moment où l’information réciproque est estimée comme sûre et bien traduite, on est en droit d’élaborer le modèle. Il est presque toujours soumis à trois sortes de simplifications. Tout d’abord on est souvent conduit à négliger des aspects qui pour sembler accessoires conservent une influence réelle dont parfois la valeur est sous-estimée. Lorsque la question se complique en fonction de la densité du problème, elle conduit à des équations différentielles qui ne sont pas toujours formellement intégrales d’où une certaine approximation dans les formules utilisables. Enfin quand des phénomènes qualitatifs interviennent on ne peut les traiter qu’imparfaitement par le biais de plusieurs méthodes d’approche, comme la fréquence et la répétition des comportements conventionnels, tels qu’on les rencontre dans les sondages d’opinion et dans les études sociologiques, les méthodes analogiques où on extrapole une situation théorique pour prévenir un développement, une situation historique, pour prévoir un développement technique ou politique corrigé par de nouvelles contraintes, enfin les méthodes de simulation.

Cependant les normes d’ordre moral, social, passionnel ou historique, en leur aspect irrationnel, tout ce que les réactions humaines enfin comportent d’intuitif, échappent nécessairement au modèle faute de pouvoir se traduire en chiffres.

Le contrôle de la valeur du modèle est assuré non seulement par la mise à l’épreuve préalable des hypothèses de base et des solutions possibles (quand c’est convenable), mais encore par la mise à l’épreuve du modèle et des solutions qu’il fournit. Ces vérifications se font sous deux formes : l’essai de fonctionnement du phénomène et la comparaison rétrospective de ce fonctionnement nouveau avec des éléments tirés de l’expérience du passé. Dans ce second cas, l’intervention d’un philosophe de l’histoire est indispensable, parce que les expériences du passé présentées à l’état brut perdent leur signification, lorsqu’un facteur essentiel a changé notablement de grandeur. La comparaison ne peut donc s’effectuer qu’à la faveur des méthodes comparatives de la philosophie de l’histoire.

La recherche opérationnelle, en dépit de ses imperfections, comporte de nombreux avantages. Elle contraint d’abord à une analyse rigoureuse des problèmes et permet d’atteindre des résultats inaccessibles à la pure logique.

2. LA THÉORIE DES JEUX.

Il y a longtemps que les mathématiciens se sont intéressés au comportement humain du jeu. Pascal y aperçut les premiers rudiments d’une théorie des probabilités. De nombreux savants examinèrent ensuite la structure des jeux, faisant l’analyse de leurs possibilités variées en cours de partie. L’idée d’étudier un jeu en tant qu’élaboration d’une suite de décisions humaines, et de considérer les rapports globaux de ces suites de décisions à l’issue de la partie, est cependant relativement plus récente. Esquissée depuis quelques décennies, cette étude vient de prendre corps dans un ouvrage considérable de J. Von Neumann et O. Morgenstern. L’importance de cet ouvrage réside non seulement dans le centrage sur l’élément spécifiquement humain du jeu, mais encore dans l’ébauche d’un lien relativement distinct avec les problèmes de la science économique. Car il y a un aspect économique dans le jeu : on y intéresse les parties, et les joueurs ont dès lors à s’assurer un maximum de gain ou à limiter le plus possible leurs pertes. C’est sur cet aspect du jeu que notre attention va pour l’instant se concentrer. Ce qui est évidemment un cas passablement éloigné de ce que montre la psychologie usuelle associant confusément l’intérêt économique aux autres intérêts du jeu.

Quoi qu’il en soit, pour chaque joueur une partie d’un jeu déterminé, échecs, poker ou autre, consiste en une suite de coups joués à leur tour et dans les règles, la tricherie étant supposée exclue. Les différents partenaires font, chacun par leurs coups respectifs, évoluer une certaine situation définie par la règle elle-même, depuis une situation d’entrée jusqu’à une situation finale qui provoque le règlement des comptes entre les joueurs. Cette évolution est discontinue : les « coups » qui l’entraînent forment une suite discrète. Elle est aléatoire : chaque coup est joué par un joueur mis d’ordinaire en présence d’une pluralité de possibilités entre lesquelles le choix se trouve fixé, tantôt par un simple effet du hasard matériel (distribution de cartes, tirage de dés, etc.), tantôt par une décision méditée (échecs, jeu de la levée aux cartes, etc.).

Dans les jeux usuels les possibilités ouvertes à chaque coup sont en nombre fini. Il y existe en outre quelques règles assurant, directement ou, non, le caractère fini de la suite des coups susceptibles de constituer une partie du jeu. De telle sorte que le dénombrement de toutes les parties possibles est lui-même fini.

Supposons un joueur raisonnant à l’avance sur un jeu auquel il se propose de jouer avec l’intention de gagner le plus possible. En droit tout au moins, il peut se représenter le système complet des situations dans lesquelles il est possible à un joueur de se trouver au cours d’une partie quelconque. Il peut de même, pour chaque situation, se figurer la suite complète des possibilités qu’elle ouvre. Il peut alors — relativement à chacun des partenaires du jeu, ses adversaires aussi bien que lui-même — construire l’ensemble, lui aussi fini, de tous les schémas d’enchaînement de décisions qu’il est possible d’attribuer à un joueur faisant une partie. On appelle ces schémas des stratégies. Examinant le tableau d’ensemble de ses possibilités stratégiques de ses partenaires, le joueur peut tirer certaines conclusions sur l’avantage ou l’inconvénient qu’il y a à se prescrire telle ou telle stratégie, étant supposé que de leur côté les partenaires sont capables de poursuivre, de leur point de vue, des méditations tout aussi approfondies.

La théorie met en évidence les faits suivants. Tout d’abord dans les jeux à deux partenaires, lorsque les situations faites aux joueurs par l’évolution de la partie comportent la connaissance de tous les éléments du coup à jouer, il existe, pour l’un des joueurs, au moins une stratégie infailliblement gagnante, ou sinon capable de faire partie nulle, quelle que soit la stratégie que lui oppose son partenaire. Dans cette dernière hypothèse, le partenaire peut lui aussi toujours faire partie nulle. Tel est le cas des échecs. Dans le cas où les situations faites aux joueurs leur laissent ignorer une partie des éléments du coup — ainsi en est-il ordinairement des jeux de cartes — il n’y a plus habituellement de stratégie décisive quel que soit le comportement du partenaire. Mais il existe pour chaque joueur des façons de varier ses stratégies au cours d’une suite de parties, qui rendent maximum l’espérance mathématique de gain.

Si cependant le nombre des joueurs est supérieur à deux, il n’existe à l’ordinaire ni stratégie, ni système de variations stratégiques susceptibles de rendre maximum l’espérance mathématique de gain du joueur isolé. Tout dépend en effet de la physionomie prise par la combinaison des stratégies que réalisent tous les autres joueurs pris ensemble. Or cette combinaison est le fruit d’un concours de libertés se faisant au hasard, à moins qu’elle n’ait été intentionnellement convenue, avant la partie, par les joueurs dont elle est le fait. Comme tous les joueurs se trouvent pour leur propre compte dans une situation semblable, il apparaîtra, pour finir, que certaines associations définies de joueurs peuvent s’assurer collectivement une espérance de gain supérieur à la somme des espérances que chacun de leurs membres pourraient s’assurer individuellement. Le jeu tendra alors de lui-même à faire apparaître des tractations entre joueurs faites préliminairement aux parties. Ces tractations auront pour objet la constitution de groupes coordonnant au mieux les décisions des individus.

C’est précisément à l’étude des points d’équilibre possibles en de pareilles circonstances que la « Théorie des jeux » se consacre en majeure partie. On pourrait croire cette étude relativement aisée. On ne tarde pas, en réalité, à s’apercevoir de son extrême complexité. Seul le cas à trois joueurs est complètement débrouillé à l’heure actuelle.

A première vue, on se demandera sans doute quel est l’intérêt de ces considérations fort abstraites, et somme toute assez rarement applicables, fût-ce à la pratique concrète de nos jeux. Car leur complexité est trop grande déjà pour qu’il nous soit possible, avec nos moyens ordinaires, de faire l’étude complète de leurs virtualités stratégiques. L’importance de la théorie des jeux vient cependant de ce qu’elle permet pour la première fois de représenter distinctement la liaison entre une certaine finalité « économique », le gain, et un schéma d’actions humaines coordonnées en fonction tant de certaines conditions matérielles que d’autres initiatives humaines. Le jeu est ainsi une sorte d’économie ultra-simplifiée, se définissant dans des univers finis et discrets, et c’est pour l’instant la seule approximation de la réalité économique que nous puissions considérer comme scientifiquement bien définie sur le plan théorique. Approximation à coup sûr très élémentaire. Elle suffit cependant à constituer un pas en avant, très caractéristique, pour la science des processus humains.

Note sur le « jeu de guerre » (Kriegspiel) de Von Neumann.

Ce jeu a été mis au point par Von Neumann lors des travaux qui ont fait suite à son célèbre ouvrage sur la Théorie des Jeux et été réalisés pour le département de la Défense des États-Unis. Il cherche à résumer dans des éléments les plus simples possibles l’aspect d’une guerre moderne vers 1950 entre deux états ou deux coalitions. Il prend donc en considération non plus tellement les armées et leur position stratégique sur un terrain, que les aspects économiques et le potentiel industriel des deux partenaires.

On résume le potentiel agressif d’un pays par l’ensemble des éléments suivants qui peuvent être présentés par des carrés de papier de couleur ou des pièces d’échecs :

—  R correspond au potentiel constructif d’un pays,

—  A correspond au potentiel de protection de ce pays (défense anti-aérienne, fortifications, protection des populations industrielles, défense contre la propagande adverse, contre-espionnage. etc.),

—  F correspond à l’armée proprement dite, (potentiel militaire, corps d’armées, etc.),

—  L correspond aux forces mobiles, c’est-à-dire essentiellement à l’aviation ou la marine, susceptibles de déplacements extra-rapides et de réaliser des destructions sur le potentiel de construction, sur les armées ou sur les communications,

—  K, enfin, à l’ensemble des systèmes de communication, le terme de « communication » couvrant ici aussi bien les communications matérielles (transports des biens ou des personnes, des armées ou des objets d’un point à un autre, à l’exception de ce qui concerne « L ») que les communications de messages ou les liaisons.

On estime que les deux pays ne sont susceptibles d’entrer en conflit que quand ils sont de forces égales et que la politique ou la diplomatie ont peur rôle de retarder les actions jusqu’à ce que ce moment soit venu. Il y a donc de part et d’autre les mêmes éléments en présence : c’est le rôle de la préparation à la guerre que de prévoir l’égalité dans chaque pays des potentiels militaires, industriels, de protection ou de communications.

Les mouvements des éléments représentent les actes élémentaires de la tactique, ils peuvent aboutir à deux types de résultats, soit :

— réduire, c’est-à-dire détruire un élément adverse et par là l’éliminer du jeu, soit,

— produire, c’est-à-dire faire apparaître un élément qui n’existait pas.

Enfin, il est possible de protéger, c’est-à-dire sans réduire ni produire empêcher toute action de l’ennemi.

L’étude des conditions de fonctionnement d’un pays industriel au cours des guerres, fournit les équations suivantes :

2 F réduit 1 F ou 1 A,

2 L réduit 1 F ou 1 A ou 1 K ou 1 R,

3 L réduit 1 L,

3 R produit 1 L ou 1 R ou 1 K ou 1 A,

1 A protège  1 R ou l A ou l F ou 1 L ou 1 K.

Le jeu se termine théoriquement quand toutes les unités d’un jeu partenaire ont été éliminées du jeu par l’autre ; on peut, par exemple, effectuer ce jeu en plaçant deux équipes de chaque côté d’une table, chaque équipe représentant l’état-major, et en disposant sur la table des pions ou des papiers de formes différentes pour exprimer leur nature et des couleurs différentes pour exprimer leur appartenance, les éléments retirés du jeu sont mis à part et comptés au fur et à mesure par un personnage observateur qui est l’historien de la partie.

Ce jeu a été très abondamment pratiqué dans les milieux d’état-major et dans les instituts de recherche stratégique dans les années comprises entre 1945 et 1955.

3. — LA STRUCTURE ABSOLUE.

L’écrivain Raymond Abellio, polytechnicien de formation, puis phénoménologue de l’ésotérisme, a poursuivi des recherches sur les structures mentales dans les années 1950 avec son Cercle de métaphysique, puis il les a poussées et mises au point dans un livre paru en 1965 « La structure absolue ». Il montre d’abord que la conscience transcendantale est conscience de conscience. Si la philosophie classique a oscillé du réalisme à l’idéalisme et inversement, c’est que chaque philosophe s’est vu sous un aspect dualiste, comme sujet devant un monde d’objets, un monde objectif. L’historique du dualisme a été fait par S. Pétrement. En quelque sorte, donner dès lors la priorité au sujet ou à l’objet devenait une question d’opinion, de choix. D’où les querelles d’écoles. Husserl, pour sa part, a vu, comme un peintre, que l’objet se situe sur un fond, qui est le fond du monde ; autrement dit, du côté de l’objet, il y a déjà une dualité : le sujet ne se trouve plus confronté à un objet isolé, mais à la dualité de celui-ci et du fond sans lequel il n’apparaîtrait pas. Le monde, dit Raymond Abellio, n’est pas la somme des objets, mais la condition de leur apparition. Mais ce que n’a pas vu Husserl, c’est qu’il y a également une dualité du côté du sujet : je perçois un objet par l’un ou plusieurs des organes de mes sens, et c’est ainsi que mon œil, s’il s’agit d’un objet simplement perçu de façon visuelle, émerge sur le fond de mon corps, auquel il appartient, exactement comme l’objet en face de moi émerge sur le fond du monde ; il y a donc une double dualité : le rapport de deux rapports. Du sujet à l’objet, il ne s’agit plus, dès lors, d’un simple rapport, mais d’une proposition : l’objet est au monde ce que mon œil est à mon corps. Par suite, à la dualité se substitue une quaternité, et nous pouvons quadraturer la dualité objet-monde sur la dualité œil-corps, la crucifier. Nous allons voir à présent comment fonctionne cette dialectique, ou plutôt cette génétique. Dans un premier temps, le monde est passif, il vit d’une vie sourde dont rien n’émerge. Puis il devient actif, est produit un objet dans une première ek-stase. Dès lors, le monde devient passif, et c’est l’objet qui est devenu actif ; il excite mon œil, mais celui-ci est encore passif, il ne voit pas l’objet. Mais celui-ci, en quelque sorte, s’obstine et mon œil va s’éveiller et cet objet va s’imposer à mon œil qui va le percevoir. Jusqu’à présent, mon corps était passif, mais, sous l’impulsion de ma perception oculaire, i1 devient actif, en ce sens que, dans une troisième ek-stase, mon œil a transféré cet objet vu vers mon corps qui, dans une quatrième ek-stase, va en faire un outil qu’il va rabattre sur le monde afin de susciter l’apparition de nouveaux objets. Et le cycle recommence. Telle est la part « horizontale » de la structure de la perception.

Nous avons donc là, une double rotation. Mais, « verticalement », nous voyons l’apparition de deux produits : vers le bas, en ampleur, nous avons l’accumulation des outils dans mon corps, ces outils n’en étant que le prolongement ; vers le haut, en intensité, nous avons l’unification du sens du monde. Autrement dit, plus j’accumule les outils dans mon corps, plus j’acquiers d’expérience, plus le monde prend de sens pour moi. Comme le dit Raymond Abellio, les cycles diachroniques horizontaux entraînent la corrélation de l’ampleur de la constitution des outils dans mon corps et de l’intensité de la donation de sens que je fais au monde. Au centre de la quadrature se trouve l’égo transcendantal.

Nous ne nous trouvons donc plus en présence d’une dualité, ni même d’une quaternité, mais d’un sénaire, et même d’un sénaire-septénaire si l’on tient compte de la position centrale de l’ego. C’est là un « modèle » de l’ensemble dont nous parlions plus haut.

Toutefois, il est capital de noter qu’on ne saurait appliquer arbitrairement une telle méthode. Il faut d’abord définir un champ pertinent d’application de la structure absolue. Pour prendre un exemple, si la dualité homme-monde constitue un tel champ, il n’en est nullement de même de la dualité constituée par un fragment de l’homme et un fragment du monde : il est impossible de structurer un bras isolé et un rocher ; c’est là une pseudo-structure morte.

Ensuite, une fois déterminé le champ, il importe de savoir en nommer les polarités. Dans le champ de la perception, le sujet et l’objet vont se subdiviser en quatre polarités, puis en six comme nous l’avons vu. C’est ainsi que dans le champ social, qui est pertinent, la dualité de l’administration des choses et du gouvernement des hommes va fournir une série de sénaires, ainsi d’ailleurs que, dans le champ scientifique qui lui est homologue, celle de la théorie et de l’expérimentation.

Il n’existe aucune règle, ni pour déterminer un champ, ni pour nommer les polarités, et c’est parce qu’il faut insister sur la distinction du compris et du vécu qu’il faut vivre la structure absolue pour pouvoir l’appliquer, au sens strict du terme — à tel champ pertinent convenablement polarisé dans le cadre du même vécu. Qu’il n’y ait aucune règle ne saurait surprendre : la structure absolue est intemporelle et ne peut, dès lors, être saisie par le langage, qui est engagé dans le temps : déterminer le champ pertinent et nommer correctement les polarités sont l’œuvre de l’ego transcendental, et non du Moi naturel amateur de recettes.

Université de la structure absolue.

Il serait difficile de montrer, en si peu de place, l’universalité de la structure absolue à laquelle Raymond Abellio a consacré un ouvrage de plus de 500 pages. Disons simplement que, moyennant une réflexion, une méditation en soi et pour soi, il est possible de constater que le sénaire-septénaire est un invariant universel.

On a vu que le champ social et le champ scientifique sont pertinents, moyennant les dénominations correctes des polarités. Il est une infinité de tels champs, la cellule vivante, par exemple, ou l’atome. C’est là l’affaire de biologistes et de physiciens, à condition qu’ils soient phénoménologues. Dans le premier appendice de « La structure absolue », Abellio étudie la structure des sciences et montre comment on peut déduire leur genèse par la méthode de la structure absolue. Disons simplement que, moyennant une réflexion, une méditation en soi et pour soi, il est possible de constater que le sénaire-septénaire est un invariant universel.

4. — LOGIQUE DE LA SIMPLICITÉ, d’A. Lamouche.

C’est André Lamouche, philosophe français contemporain, qui développe une logique de la simplicité retrouvant certains principes énoncés au XIXe siècle par le philosophe allemand Avenarius.

Lamouche remarque qu’en vertu de sa polyvalence et de son universalité ce principe est susceptible d’être présenté sous des formes différentes encore qu’équivalentes. Du point de vue logique et sémantique, on peut l’énoncer ainsi : il y a toujours recherche de simplicité des valeurs relatives maximales entre la valeur et la signification des mots qui sont associés de proche en proche dans la construction logique comme dans l’évolution linguistique. On peut l’énoncer ainsi : la recherche des rapports inter-notionnels et interrelationnels de simplicité maximum.

Du point de vue causal ce principe s’énonce : toutes choses égales d’ailleurs, il y a toujours le rapport le plus simple possible entre la cause et l’effet. Ce principe maintes fois appliqué par les chercheurs sous des formes diverses peut seul suppléer à l’insuffisance reconnue du principe d’identité causal. Il existe, de même, un énoncé probabiliste du principe de simplicité, la probabilité d’un phénomène simple est plus grande que celle d’un phénomène compliqué. Le calcul des probabilités tout entier et ses applications constituent des illustrations implicites de ce principe.

Mais en dépit de leur intérêt les énoncés qui précèdent n’atteignent pas le fond du problème. D’une part en effet ils ne mentionnent pas le caractère ambifonctionnel du principe de simplicité, d’autre part ils ne font pas ressortir le parallélisme entre l’énoncé cosmique et l’énoncé psychique de ce principe, parallélisme qui est le fondement d’une logique naturelle et universelle de simplicité.

En résumé ces énoncés se formulent ainsi :

Énoncé cosmique. Le dynamisme universel obéit à une double tendance alternée de l’assimilation-extension et de la composition-coordination. Ces deux tendances complémentaires sont régies par un critère de simplicité relative maximale s’exerçant de proche en proche dans l’espace et dans le temps.

Énoncé psychique. Les phénomènes psychiques de toute nature (réflexes, sensations, perceptions, images et souvenirs, sentiments, idées, concepts), tendent à s’associer suivant un double processus rythmiques d’assimilation-extension et de composition-coordination régi de proche en proche par une condition de simplicité relative maximale.

Ainsi que Lamouche l’a établi dans ses œuvres, c’est le parallélisme entre ces deux énoncés, à savoir l’applicabilité du principe ambifonctionnel de simplicité aux trois étages biologique, cosmique et psychique de l’évolution qui est à l’origine de la communauté de rythme entre l’activité infrastructurelle du Cosmos et celle qui sous-tend notre propre activité psycho-physiologique. Et seule l’isorythmie entre le déterminisme cosmique et le processus dualiste de l’association psychique s’explique par l’existence d’une logique cohérente et son accord possible avec la réalité.

Dans le domaine conceptuel le plus simple, celui de la quantité, le principe de simplicité est susceptible de recevoir un énoncé parallèle aux énoncés cosmique et psychique. Voici cet énoncé mathématique : « Les normes mathématiques (notions, relations, structures et fonctions typifiées) peuvent être engendrées logiquement à partir des éléments conceptuels les plus simples (l’unité et le nombre entier) par un double processus alterné d’assimilation-extension et de composition, coordination régie de proche en proche par la condition de simplicité relative maximale ».

Cet énoncé renferme en puissance une axiomatique mathématique de la simplicité. C’est en récapitulant l’histoire des sciences notamment dans la période critique qui s’est produite à la fin du siècle dernier et au début de celui-ci que Lamouche a remarqué le parallélisme que présente l’évolution des sciences physico-chimiques et celle des mathématiques du point de vue du critère de simplicité. Les unes comme les autres tendaient en effet, séparément mais simultanément à s’arithmétiser. Dans ces deux branches connexes de la connaissance scientifique, le nombre entier se révélait comme jouant un rôle déterminant dans la genèse des concepts mathématiques et dans celle des phénomènes physiques parallèlement. Or, de toutes les normes mathématiques le nombre entier est celle dont la structure et les lois opérationnelles satisfont à la condition de simplicité maximale.

5. — LA NAISSANCE DES THÉORIES INTER-DISCIPLINAIRES.

Il y a une quarantaine d’années, la biologie était entrainée dans la controverse mécaniste-vitaliste. La démarche mécaniste consistait essentiellement à décomposer les êtres vivants en parties et en processus partiels. L’organisme était un agrégat de cellules, la cellule un assemblage de colloïdes et de molécules, le comportement une somme de réflexes conditionnés et inconditionnés, etc. L’organisation de ces différentes parties au service de la maintenance de l’organisme du même ordre était soit omise, soit, selon la théorie vitaliste, explicable seulement par l’intervention de facteurs du genre de l’âme ou de petits lutins, errant dans la cellule ou dans l’individu… ce qui, à l’évidence, n’était rien d’autre qu’une déclaration de faillite de la science. Dans ce contexte von Bertalanffy biologiste hongrois fut conduit à soutenir le point de vue dit organismique. En bref, il exprime le fait que les êtres vivants sont des choses organisées et que, en tant que biologistes, nous avons quelques découvertes à faire à leur sujet. Bertalanffy a essayé de réaliser ce programme organismique dans des études variées sur le métabolisme, la croissance et la biophysique de l’être vivant et, pour ce faire, il a présenté une méthode sous le nom de théorie des systèmes ouverts et des états stables : théorie qui correspond principalement a une extension de la physico-chimie conventionnelle, de la cinétique et de la thermodynamique. Il apparaissait, cependant, que Bertalanffy ne pouvait plus s’arrêter sur cette voie, si bien qu’il fut ultérieurement amené à une plus large généralisation qu’il nomma : « la théorie générale des systèmes ».

Depuis cette date, 1937, et après une période où il a connu ce que Gauss appelait la « clameur des béotiens », un changement de climat intellectuel est survenu et un grand nombre d’hommes de science ont suivi de semblables cheminements de pensée. Si bien que la théorie générale des systèmes, après tout, n’est pas aussi solitaire ou idiosyncrasique que son auteur ne le croyait, mais correspond plutôt à l’une de ces tentatives parallèles que l’on peut aujourd’hui découvrir en un bref survol.

La cybernétique se fonde sur le principe des rétroactions et des enchainements circulaires de causalité qui règlent les mécanismes intervenants dans les comportements de quête et l’autocontrôle. La théorie de l’information introduit le concept d’information comme une quantité mesurable, grâce à une expression superposable à celle de l’entropie négative en physique, et développe les principes de sa transmission. La théorie des jeux que nous avons étudiée analyse dans un nouveau cadre mathématique la compétition rationnelle entre deux ou plusieurs antagonistes qui cherchent à obtenir le maximum de gain et le minimum de perte. La théorie de la décision, de la même manière, étudie les choix rationnels au sein des organisations humaines, et s’appuie sur l’examen d’une situation donnée et de ses conséquences possibles. La topologie inclut des problèmes non métriques tels que la théorie des réseaux et des graphes. L’analyse factorielle isole mathématiquement les facteurs qui interviennent dans les phénomènes à multi-variables en psychologie et autres disciplines. Enfin, la théorie générale des systèmes, au sens strict, part d’une définition d’un système envisagé comme un complexe de composantes en interaction, comme un ensemble organisé, et elle essaie d’établir des concepts caractéristiques : tels que celui d’interaction, de somme, de mécanisation, centralisation, compétition, finalité, etc., elle tente, enfin, de les appliquer à des processus concrets.

Dans son sens large, la théorie générale des systèmes se présente alors comme une science fondamentale, avec ses correspondances dans les domaines de l’application, quelquefois rassemblées sous le nom général de science des systèmes. Ce prolongement est étroitement solidaire de l’automation moderne, et on y distingue : « l’engineering », la recherche opérationnelle… En effet, une illustration très simple de la nécessité d’étudier les systèmes homme-machine est, par exemple, fournie par les voyages. N’importe qui comprendra facilement à quel point, après avoir traversé des continents à une incroyable vitesse grâce aux avions à réaction, mais après avoir aussi perdu des heures sans fin à attendre, à faire la queue en foule dans les aérodromes, à quel point donc les techniques physiques du voyage aérien sont perfectionnées, tandis que les techniques « d’organisation » en sont encore à leur niveau le plus primitif.

Toutes ces théories ont un certain nombre de traits communs. 1° Elles sont d’accord pour souligner que quelque chose doit être fait au sujet des problèmes caractéristiques des sciences biologiques et comportementales qui ne peuvent être traitées par la théorie physique conventionnelle. 2° Elles introduisent des concepts et des modèles nouveaux (quelquefois même matériels) à côté de ceux fournis par la physique : par exemple, celui de système généralisé, ou celui d’information comparée à l’énergie qu’utilise la physique. Ces modèles sont alors interdisciplinaires et transcendent les divisions habituelles de la science. 3° Elles s’intéressent particulièrement aux problèmes à plusieurs variables. 4° Elles permettent aussi une économie de travail, car un ensemble de principes peut être transféré d’un domaine à un autre, sans qu’il soit nécessaire de renouveler l’invention comme cela arriva dans le passé. 5° Enfin, et c’est peut-être le plus important, les concepts de totalité, d’organisation, de téléologie et d’orientation qui semblaient, dans la science mécaniste, a-scientifiques ou métaphysiques, sont aujourd’hui pris au sérieux et justiciables d’une analyse scientifique.

Toutes ces voies d’approche ne sont pas, et ne doivent pas être, envisagées d’une manière totalitaire. Un des aspects importants des modifications survenues dans la pensée scientifique moderne, réside dans la prise de conscience du fait qu’il n’existe aucun système unique susceptible d’embrasser tout l’univers. Les constructions scientifiques ne traduisent que certains aspects ou certaines perspectives du réel. Cela s’applique même à la physique théorique qui, loin d’être une représentation métaphysique de la réalité ultime (comme le matérialisme passé le proclamait, et comme le positivisme moderne l’implique encore), n’est qu’un modèle parmi d’autres, et, ainsi que le montrent ses récents développements, ni exhaustif ni unique. Les diverses théories des systèmes sont aussi des modèles qui reflètent différentes images. Elles ne s’excluent pas mutuellement et même, souvent, se combinent dans certaines de leurs applications.

Et loin d’être rejeté, l’espoir demeure d’une future synthèse au sein de laquelle les diverses approches actuelles vers une théorie de la totalité et de l’organisation pourront être intégrées et unifiées.

Les méthodes de recherche

Le cybernéticien anglais Ashby a nettement souligné les deux voies possibles et les méthodes générales de l’étude des systèmes. « L’une, est déjà bien développée dans les mains de Von Bertalanffy et de ses collaborateurs. Ils prennent le monde comme ils le trouvent, examinent les systèmes variés qu’il comprend — zoologique, physiologique, etc. — et dressent alors un compte rendu des régularités observées qui s’y maintiennent. Cette méthode est essentiellement empirique. La seconde méthode procède à l’inverse. Au lieu d’étudier d’abord un système, puis un autre, enfin un troisième et ainsi de suite, elle va à l’autre extrême, considère l’ensemble de tous les systèmes concevables et réduit ensuite cet ensemble à une taille plus raisonnable. C’est la méthode que j’ai récemment suivie ».

Il est facile de voir que toutes les recherches concernant les systèmes suivent finalement l’une ou l’autre de ces méthodes ou une combinaison des deux, qui ont chacune leurs avantages et leurs inconvénients.

a) La première méthode est empirico-intuitive. Elle a l’avantage de rester assez proche de la réalité et peut aisément être illustrée et même vérifiée par des exemples pris dans les différentes disciplines scientifiques. D’un autre côté, elle peut apparaître naïve et anarchique aux esprits qui attendent d’elle une élégance mathématique et une force déductive dont elle est dépourvue.

b) La voie déductive fut donc suivie par Ashby. Ce dernier s’interroge sur la notion fondamentale de machine et en vient à une conception moderne de « machine avec facteur d’entrée », et constituée par un ensemble S d’états internes, un ensemble I de facteurs d’entrée, et une application f dans S du produit I x S. On en arrive ainsi aux deux significations possibles des systèmes auto-organisateurs selon Ashby.

Dans un premier cas, le système naît avec des éléments séparés qui se modifient ensuite pour s’articuler les uns aux autres : exemple, les cellules embryonnaires qui, tout d’abord, n’exercent que peu, ou pas du tout, d’effet les unes sur les autres et qui s’unissent ultérieurement pour constituer le système nerveux hautement interdépendant. C’est un système « évoluant d’un état inorganisé à un état organisé ».

La seconde signification envisage le système comme « modifiant un mauvais état d’organisation en un état meilleur ». Exemple : un enfant que sa structure cérébrale conduit tout d’abord à l’attirance du feu, tandis qu’une nouvelle organisation l’entraîne à l’éviter ; ou bien encore, un pilote automatique et un avion, tout d’abord couplés en une rétroaction positive dangereuse, qu’on inverse ensuite. Dans ces deux cas, l’organisation primitive étant défectueuse, le système ne s’avère « auto-organisant » que dans la mesure où un changement est automatiquement réalisé. Mais, ajoute Ashby, « aucune machine ne peut être, en ce sens, auto-organisante ». Car l’adaptation signifie que l’application f (défectueuse) se modifie en g (salutaire), donc que l’organisation varie en fonction du temps. « Ce changement ne peut être attribué à aucune cause de l’ensemble S. Il doit venir de quelque agent externe, agissant sur le système comme un facteur d’entrée ». En d’autres termes, pour être auto-organisatrice, la machine S doit être couplée à une autre machine.

Ce bref aperçu permet de remarquer les limites de cette seconde voie d’approche. La définition moderne des systèmes qui, selon Ashby, correspond à une « machine avec facteur d’entrée » introduit un modèle à caractère assez particulier : le modèle cybernétique d’un système ouvert à l’information mais clos au transfert d’entropie. Cela devient net quand cette définition est appliquée aux systèmes auto-organisants dont les plus importants ne peuvent avoir aucune place parmi les modèles d’Ashby. Sont ainsi exclus tous les ensembles se structurant eux-mêmes par voie de différenciation progressive, évoluant d’états de faible complexité vers des états de très haute complexité. Et ce sont pourtant les formes les plus remarquables d’auto-organisation, apparentes dans l’ontogenèse, probables dans la phylogenèse et, certainement aussi, valables dans de multiples organisations sociales. Pour de telles structures, il n’est pas question de bonne ou de mauvaise organisation mais d’augmentation de la différenciation et de la complexité, qu’elle soit utile ou non. Ce critère est objectif et, au moins en principe, justifiable de mesures (en termes d’entropie décroissante, ou d’information). L’affirmation d’Ashby selon laquelle « les changements ne peuvent être attribués à aucune cause interne à l’ensemble S, mais doivent survenir de quelque agent extérieur, de quelque facteur d’entrée », revient donc à exclure les systèmes auto-différenciants.

Or, la raison pour laquelle de tels ensembles ne sont pas conformes aux machines d’Ashby est patente. Les systèmes auto-différenciants qui évoluent vers une complexité de plus haut niveau (entropie décroissante) ne peuvent exister, pour des raisons thermodynamique, que comme systèmes ouverts : c’est-à-dire qui importent en quantité suffisante une matière riche en énergie libre pour compenser l’accroissement d’entropie dû aux processus irréversibles internes aux systèmes (ils importent ainsi une entropie négative). Pourtant, nous ne pouvons pas dire que le changement vient de quelque agent externe, d’un facteur d’entrée. La différenciation, à l’intérieur d’un embryon en développement et d’un individu, est due à ses lois internes d’organisation, et le facteur d’entrée (la consommation d’oxygène qui peut varier quantitativement, ou la nutrition qui peut varier qualitativement dans les limites d’un très large éventail) rend seulement cette organisation énergétiquement possible.

Tout cela fut, d’ailleurs, ultérieurement illustré par des exemples complémentaires fournis par Ashby, imaginons une calculatrice électronique digitale, effectuant des multiplications au hasard. La machine tendra à livrer des nombres pairs (parce que les produits pair x pair, aussi bien que pair x impair donnent des nombres pairs) et éventuellement seuls les zéros « survivront ». Ashby cite aussi le dixième théorème de Shannon, établissant que (dans un circuit d’information) si un canal de correction possède une capacité H, on peut enlever un montant H d’équivocation mais guère plus. Ces deux exemples montrent le travail des systèmes clos. L’évolution de la calculatrice se fait vers la disparition de la différenciation, et l’établissement d’une homogénéité maximale (analogue au second principe des systèmes clos). Le théorème de Shannon, pareillement, concerne les systèmes clos où aucune entropie négative ne réside. Comparée à l’organisation d’un système vivant, la matière importée par la nutrition ne transporte aucune information mais du « bruit ». Néanmoins, son entropie négative est utilisée pour maintenir, et même pour accroître, le contenu informationnel du système. C’est une situation apparemment non prévue par le dixième théorème de Shannon qui nee traite pas du transfert d’information dans les systèmes ouverts avec transformation de matière. Dans ces deux cas, l’organisme vivant (et les autres systèmes comportementaux ou sociaux) n’est pas une machine d’Ashby parce qu’il évolue vers une différenciation et une hétérogénéité croissantes, et parce qu’il peut rectifier le « bruit » à un plus haut degré que ne peut le faire un canal de communication inanimé. Cependant, tous ces cas ne sont que les conséquences du caractère organismique des systèmes ouverts, et il souligne simplement qu’il n’y a pas de voie royale pour la théorie générale des systèmes. Cette dernière devra se développer dans une intrication de méthodes empiriques, intuitives et déductives. Car, si la démarche intuitive laisse beaucoup à désirer quant à la rigueur logique et à la perfection, l’approche déductive se heurte à la difficulté de savoir si les termes fondamentaux ont été correctement choisis.

Dans l’esprit de son créateur, la théorie générale des systèmes; doit être conçue comme une hypothèse de travail. Homme de science praticien, il lui semble que la fonction principale des modèles théoriques est d’interpréter, de prédire et de commander les phénomènes jusqu’ici inexpliqués. D’autres peuvent tout aussi légitimement insister sur l’importance d’une approche axiomatique, et citer à cet effet des exemples tels que la théorie des probabilités, les géométries non euclidiennes, plus récemment encore les théories de l’information et des jeux qui furent primitivement élaborées comme des domaines mathématiques déductifs, et ensuite appliqués à la physique ou à d’autres disciplines scientifiques. Il n’y aura pas de dispute sur ce point. Mais, le danger de toutes les voies poursuivies est de considérer trop précocement un modèle théorique comme clos et définitif. Un danger particulièrement important pour une discipline comme celle des systèmes généraux, qui tâtonne encore à la recherche de ses fondements exacts.

***

EN CONCLUSION, comme nous le disions en commençant, la science classique a subi de profonds bouleversements et a tendu à être remplacée par des disciplines qui sont à la fois théoriques et pratiques. Leur valeur est fondée, essentiellement sur l’action : ce sont selon une expression de Bachelard des phénomènes techniques. Nous avons essayé dans ce modeste essai d’en parcourir quelques-unes. Mais certaines comme la théorie des probabilités ont déjà été explicitées. Je pense à Vendryes et sa Théorie de l’homme (1974) et bien avant à son livre malheureusement méconnu : la Probabilité en histoire (1953). La fécondité de ces nouveaux points de vue est immense et nous espérons que nos lecteurs utiliseront souvent ces quelques esquisses…

L.-J. DELPECH,

Professeur honoraire à la Sorbonne.

Président de la Société française de Cybernétique et

des Systèmes généraux