(Extrait de: Portrait de dieu ou la nouvelle figure de dieu par Marc Beigbeder. Édition Robert Morel 1978)
Précédent Suivant
Contrairement à ce qui est si souvent ingurgité au public, notre mathématique, promise par Descartes à être universelle, n’a pas pénétré puissamment en biologie, sauf dans quelques secteurs, comme celui de la génétique. Après bien d’autres, comme un Raymond Ruyer au premier chef, c’est l’un des plus créateurs de nos mathématiciens, doublé d’un remarquable épistémologue, René Thom, qui en a fait l’observation [1]. C’est, nous dit-il, que les situations biologiques sont des situations de conflit, de « catastrophe », assez étrangères à l’esprit mathématique traditionnel. Il rejoint ainsi non seulement Héraclite, comme il le pense, mais aussi un Stéphane Lupasco.
Ouvrez n’importe quel manuel de physiologie; malgré la logique magistrale, vous le trouverez grouillant d’antagonismes complémentaires, de couplages contradictoires. J’en énumérerai, en vrac, quelques-uns.
Au niveau hormonal, effets couplés et opposés des hormones ovariennes, la folliculine ou œstrogène et la progestérone du corps jaune; la première provoquant notamment l’avortement, la kératinisation des cellules épithéliales du vagin, déterminant des modifications morphologiques et fonctionnelles dans la pituitaire antérieure, excitant la sécrétion des glandes muqueuses du col de l’utérus, celle de la prolactine des glandes mammaires, tandis que la seconde agit, chaque fois, en sens inverse et opposé. Effets également couplés et opposés de l’insuline et du glucagon, tous deux sécrétés par le pancréas, l’une hypoglycémiante, l’autre hyperglycémiante; de l’insuline du pancréas et de l’adrénaline de la médullo-surrénale; des œstrogènes et des androgènes, d’une part, et des hormones corticosurrénales, d’autre part : de celles-ci et de la vasopressine du lobe antérieur de l’hypophyse et de l’insuline; des hormones thyroïdiennes et de l’hormone du lobe antérieur de l’hypophyse. Au niveau neuro-physiologique : nerfs accélérateurs, du cœur; effets antagonistes et couplés des systèmes sympathique et parasympathique, l’un accélérant les contractions du cœur, contractant les muscles lisses des vaisseaux sanguins, provoquant une augmentation de la tension artérielle, tandis que l’autre agit en sens opposé. De même, tandis que le parasympathique (qu’il a bien fallu « inventer » après avoir trouvé l’autre) détermine la contraction des muscles lisses de l’estomac, de l’intestin, des bronches, du sphincter de la pupille, etc., le sympathique l’inhibe. Au niveau génétique, antagonisme électrique et cybernétique des bases négatives et des ponts d’hydrogène positifs, actualisations et potentialisations respectives et alternatives des « activateurs » et des « répresseurs ». Etc.
Mais la complémentarité antagoniste n’est pas seulement couplage horizontal, elle est en même temps couplage vertical, de par un développement en systèmes de systèmes, inhérent à la dynamique de l’antagonisme, à son « intensité », comme dit Raymond Abellio, à sa trans-finité, comme dit plutôt Stéphane Lupasco. Et la liaison verticale est, elle aussi, à double sens, réciproque.
Ainsi la glande préhypophyse contrôle le système endocrinien par six hormones, mais elle est elle-même contrôlée antagoniquement, au moyen de feedbacks, par les glandes et les récepteurs mêmes sur lesquels elle agit. L’hormone corticotrope, qui contrôle les cortico-surrénales, est contrôlée elle-même par les sécrétions de ces glandes, par certaines quantités d’équilibration antagoniste dans le sang. Les hormones gonadotropes, qui agissent sur les glandes sexuelles, sur leur formation et leur développement, comme sur leurs sécrétions, sont elles-mêmes soumises à l’action antagoniste équilibrante de ces sécrétions : elles inhibent et diminuent celles-là, par leurs excès, et les augmentent, par leur appauvrissement. L’hormone somatotrope, qui tient sous son contrôle antagoniste la synthèse protéinique — en inhibant les processus de dégradation, le métabolisme des graisses, en s’opposant à leur synthèse — est, à son tour, dépendante cybernétiquement du taux de cette glycémie, c’est-à-dire des hormones mêmes qui en engendrent l’économie cybernétique particulière. L’hypophyse elle-même est sous la dépendance de l’hypothalamus, c’est-à-dire, en fin de compte, des centres nerveux supérieurs; mais si le système hypothalamo-hypophysaire est ainsi au sommet de la hiérarchie des cybernétiques hormonales, il est commandé par les cybernétiques de la base. Les systèmes particuliers de dynamismes antagonistes engendrent d’eux-mêmes des systèmes de systèmes, de par la causalité antagoniste. Mais la hiérarchie y est réversible.
Cependant retrouver le champ biologique comme conflictuel, à tous niveaux, et les complémentarités, les régulations, comme antagonistes, n’est pas suffisant. Il faut marquer la spécificité du conflit.
La logique, c’est la description réduite au schème. Tout système peut être considéré, logiquement, comme couplage de deux tendances ou orientations ou polarisations antithétiques, l’une à l’identité, à la répétition, au même, au stable, à l’homogène, l’autre à la différence, à la variance, au changement, à l’instable, à l’hétérogène. Ce qui spécifierait le champ biologique, c’est que la seconde y domine statistiquement dans le conflit, non sans précarité.
Ces deux tendances contradictoires se retrouveraient en Thermodynamique ou Science de l’énergie, avec la notion d’entropie, marquée d’uniformisation, thermique notamment, et celle de néguentropie, empreinte de différenciation. On sait que, pour notre Thermodynamique traditionnelle, le devenir énergétique est, pour un système fermé, à accroissement d’entropie irréversible, comme l’exprime son deuxième Principe. Ces deux tendances contradictoires se retrouveraient aussi en Cybernétique, avec la notion de feed-back négatif, où la contre-action rétablit l’équilibre primitif, et la notion de feed-back positif, où elle produit un changement.
Cette équivalence importante entre logique et thermodynamique correspond à la brèche que présentent les phénomènes biologiques vis-à-vis de notre Thermodynamique traditionnelle, de son deuxième Principe de devenir énergétique, et qu’un Prigogine, conforté dernièrement par un prix Nobel, a contribué puissamment à faire reconnaître. Voyons comment sa pensée confirme nos définitions logiques.
La Thermodynamique classique est consacrée, remarque Prigogine, aux propriétés des systèmes en état d’équilibre thermodynamique, c’est-à-dire où les forces thermodynamiques (gradients thermiques, affinités chimiques, etc.) et les flux thermodynamiques (flux de chaleur, vitesses de réaction, etc.) sont régis par des lois linéaires. Le principe dit de modération de Le Chatelier impose que « tout système en équilibre éprouve du fait de la variation d’un des facteurs de l’équilibre une transformation dans un sens tel que, si elle se produit, elle amène une variation de signe contraire du facteur considérée ». Autrement dit, les fluctuations, ici, sont enchaînées à la stabilité. Par exemple, un cristal se forme et se maintient par des transformations réversibles, ou du moins n’impliquant que de faibles écarts par rapport à l’équilibre thermodynamique.
En termes logiques, de tels systèmes seraient donc à dominante de même, d’homogénéisation, de répétition, par processus antagonistes, d’ailleurs, et complémentaires. En termes de thermodynamique, ils seraient à dominante d’entropisation. En termes cybernétiques, ils seraient essentiellement à feed-backs négatifs.
Par contre, pour Prigogine, les structures biologiques se formeraient et se maintiendraient en étant au-delà de l’équilibre thermodynamique. Ce passage à la limite est rendu possible par les échanges de matière-énergie avec l’extérieur, qui sont leur condition d’existence. Ce sont des « structures dissipatives », des « systèmes ouverts », où les fluctuations ne sont jamais ramenées à l’état dit d’équilibre. Cela leur conférerait une multiplicité de possibilités, des indéterminations — de sorte que la définition ne peut plus en être que statistique —, une auto-gérance, une probabilité, une dimension historique aussi — en ce sens qu’il ne suffit plus, pour décrire le système, des valeurs d’un certain nombre de variables à un moment donné, mais qu’il faut aussi connaître la suite des instabilités qui se sont succédées dans le passé. L’hétérogénéité, ici, est la principale règle : des inégalités entre concentrations chimiques différentes sont maintenues par les réactions chimiques et les échanges actifs. C’est aussi valable au niveau supra-cellulaire que au niveau cellulaire ou infra-cellulaire. Un agrégat de myxomycètes peut être considéré, Keller et Segel l’ont montré, comme une instabilité engendrée dans une distribution homogène. Etc.
Ces structures sont donc bien, en termes logiques, à dominante statistique de différenciation antagoniste, et en termes de thermodynamique à dominante statistique de néguentropisation. En termes de cybernétique, elles verraient prédominer fragilement les feed-backs positifs sur les feed-backs négatifs. Et ce qui apparaît assez bien aussi, avec Prigogine, c’est que ces dominances sont incessamment en train de se faire dynamiquement et dans l’antagonisme complémentaire.
Il y a ainsi, appelées par la considération des structures biologiques et de leurs originalités, une deuxième modulation logiques, — où la logique de l’identité tout en étant présente et active, est surclassée par une logique de la différenciation; une deuxième Thermodynamique, où le devenir énergétique, à accroissement le plus probable de néguentropie, est à orientation inverse de celle qu’énonce la Thermodynamique classique; une deuxième Cybernétique, dont le chemin a été frayé notamment par Ashby et « les machines qui apprennent »; et une deuxième Chimie.
Mais prenez garde : si l’on considère le bilan de l’ensemble milieu-vie, et non plus seulement celui des structures biologiques, l’expression usuelle du deuxième Principe Thermodynamique ne serait pas violée; il serait à accroissement d’entropie. D’autre part, entre la seconde Thermodynamique et la première, comme entre la seconde Cybernétique et la première, ou entre la seconde Chimie et la première, il n’y a pas de différence substantielle. Nous savons aujourd’hui que les sexes se distinguent seulement par une répartition différente des mêmes hormones. Il en est de même pour les Thermodynamiques, les Cybernétiques, les Chimies. Elles correspondent seulement à des répartitions différentes de la stabilité et de l’instabilité, du même et du variant, dans leur conflit.
Ainsi, par exemple, les éléments de la Table de Mendeleïev sont communs à la première et à la seconde Chimies, ainsi que la définition des modes de liaisons. Il y a une Chimie générale, commune à la première et à la seconde Chimies. Mais, dans la seconde Chimie, le jeu des combinaisons va comparativement plus à la non-saturation et à la multiplication différentielle que dans la première Chimie. Elle utilise des molécules dissymétriques, c’est-à-dire à extrémités différentes, se comportant différemment, du point de vue électrique, aux limites de séparation. Les « blocs » ou nucléotides des chaînes de la macromolécule vivante sont non seulement des milliers, mais leurs formes, leurs liaisons, leurs positions sur les chênes, sont extrêmement variées et variables. Les atomes qui les constituent sont, en très forte proportion, des atomes légers et instables, chacun dans un état quantique différent. À la différence des composés minéraux, aux réactions généralement rapides, pratiquement instantanées, totales, irréversibles, les composés organiques engendrent des réactions qui ne connaissent jamais leur terme théorique et qui se trouvent comme suspendues dans la réalisation d’un certain équilibre entre les deux membres de l’équation de la réaction. Chaque protéine a un point isoélectrique différent; chaque enzyme est spécifique par rapport à un substrat; chaque individu — à moins d’être vrai jumeau — a des antigènes spécifiques d’histo-compatibilité. Les systèmes d’oxydo-réduction inhérents au protoplasme sont modifiés sans répit par les multiples hétérogénéités de ses protéines, des amido-acides constitutifs de chaque protéine, comme par les membranes lipo-protéiques, à grande variété d’antagonisme électrique et de dispositifs de dépolarisation sélective. Les transformations énergétiques du métabolisme visent à obtenir l’énergie non seulement en « petite monnaie », mais en petite monnaie variée.
Ce sont là quelques exemples, jetés rapidement en vrac, que vous trouveriez multipliés chez Stéphane Lupasco [2], comme dans nos manuels. C’est assez sans doute pour faire comprendre qu’il y a une Chimie spécifique de la vie, sans que cela exclue une Chimie générale commune, au niveau des éléments et de la définition des liaisons. Comme en rend compte la grille des complémentarités antagonistes, toute spécificité, logique, chimique, cybernétique, thermodynamique, est seulement différence relative de distribution des termes antagonistes et complémentaires, dans le jeu dynamique conflictuel.
Nous pouvons en formuler les différents types d’équilibres — on pourrait dire aussi bien déséquilibres — plus convenablement qu’on ne le fait encore ordinairement. Ce qu’on appelle usuellement équilibre, en Thermodynamique, est un procès d’uniformisation thermique et énergétique. Quand il est atteint, en système rigoureusement fermé, il y a effacement de toute différence de potentiel, condition de travail et d’actualisation énergétique. Il y a uniformisation sur un refoulement total, sur une potentialisation absolue, obtenue technologiquement, de la différenciation. Un tel équilibre doit donc s’appeler « équilibre antisymétrique ». En fait, n’est généralement pas atteint complètement pour les combinaisons ordinaires de la première chimie, dans les systèmes naturels. On peut dire, dans ces conditions, que nous avons ici des équilibres à dissymétrie très dominante d’uniformisation antagoniste. Par contre, les équilibres des structures biologiques « dissipatives », et ce qui leur est assimilable dans d’autres champs, — comme, en Physique, les phénomènes de résonance paramagnétique et les lasers — doivent être définis comme des équilibres dissymétriques à dominance précaire de différenciation antagoniste, ce qui spécifie leur type de fluctuations.
Prigogine observe que les systèmes du premier type peuvent être décrits suivant le déterminisme classique, tandis que les systèmes biologiques et assimilés ne pourraient l’être que suivant le déterminisme probabilitaire et statistique. Cette remarque, elle aussi, doit être affinée.
D’abord, on l’a vu, l’universalité de la constante de Planck implique que les systèmes du premier type d’équilibre ne puissent être l’objet, eux non plus, d’un déterminisme rigoureux, du moins en principe, qu’il ne saurait être chez eux aussi que statistique, du moins en principe, comme l’a rappelé Kastler. En pratique, il n’en va pas ainsi, parce que l’impact de la constante de Planck est négligeable à cette échelle.
Surtout, le déterminisme statistique et probabilitaire est le couplage de deux déterminismes orientations ou polarisations inverses, l’un d’identité, d’universalité, d’invariance, d’uniformisation, l’autre de différenciation, de singularisation, de variance, d’hétérogénéité. Cela est éclatant avec les structures biologiques, parce que l’un et l’autre y sont assez puissants dans le conflit. Mais cette conjonction de deux déterminismes inverses vaudrait aussi pour les systèmes du premier type. Elle y est seulement bien moins visible, en général, à cause justement de leur équilibre tendant à l’anti-symétrie antagoniste, c’est-à-dire à actualiser avant tout le déterminisme d’identité, d’universalité, d’invariance, de stabilité, d’uniformisation. Comme c’est la considération de ces systèmes qui a surtout influencé, historiquement, notre Science pendant des siècles, on comprend qu’elle ne reconnaisse et même ne connaisse encore qu’un type de déterminisme, celui d’identité, d’universalité, d’invariance, de stabilité, d’uniformisation, d’homogénéité, du moins magistralement. Au niveau de ses descriptions, elle est trop pragmatique pour ne pas faire aussi une certaine place à l’autre, pratiquement, sans trop s’en rendre compte. Cette « innocence » ne va pas sans inconvénients : on en comprend insuffisamment la notion de statistique et celle d’indétermination.
C’est l’immunologie qui a sans doute le plus contribué à affranchir la biologie vis-à-vis du premier type de systèmes. Pendant longtemps on a surtout énoncé des rapports d’identité entre les composants biochimiques des êtres vivants d’une même espèce. Les difficultés des hétérogreffes, le travail de dentellier nécessaire pour tourner ou tromper les rejets, ont entraîné à découvrir l’importance des différenciations — ainsi que l’a souligné le professeur Jean Hamburger [3] — et devraient faire reconnaître l’antagonisme structural, puisque ce travail est opéré, en fait, dans son intelligence. L’embryologie a été libérante, elle aussi, en tant qu’elle offre un spectacle évident de différenciation; mais son enseignement reste à l’état de problématique, tant que n’ont pas été reconnus magistralement le déterminisme de différenciation, et sa mémoire corrélative, qui est évidemment peu compréhensible à une logique d’identité.
Les victoires de la génétique ont été plus obscurcissantes qu’éclairantes, logiquement. Elles manient, en effet, avant tout, le déterminisme d’identité et de répétition. On en oublie que le gène est une unité de variation, que les rapports inter-géniques sont antagonistes. On en oublie aussi que l’évolution naturelle va dans le sens de la différenciation progressive, tant par la complexification que par les mutations, les créations d’espèces, et l’invention de dispositifs, comme celui de la sexualité. Quant aux belles expérimentations de synthèses de constituants de la matière vivante, elles ne sont pas toujours bien lues, logiquement, comme un Prigogine en fait d’ailleurs la remarque, en disant qu’elles consistent à introduire, par l’effet de certaines secousses, un coefficient d’instabilité dans un chimique de premier type. Tant que l’on n’aura pas réalisé ce qu’il y a ici, effectivement, d’écart, de discontinuité, dans l’expérimentation même, on risque de fortifier une conception linéaire de l’évolution, de laisser dans l’ombre de l’empirisme le déterminisme de différenciation, de continuer à confondre la chimie, la cybernétique, la thermodynamique de la vie — et de ce qui lui est assimilable — avec celles du premier type de systèmes.
Bien que le principal travail, en biologie, soit aujourd’hui au niveau fin, il faut considérer la microphysique à part de la biologie. D’abord parce que celle-ci n’est que électronique, alors que la microphysique est aussi atomique et nucléaire. Ensuite parce qu’on trouve la microphysique au travail dans bien d’autres champs. Enfin, parce que suivant les champs, et même les secteurs des champs, elle opère différemment, comme le donnait déjà à penser notre découverte de deux chimies — à l’intérieur d’une chimie générale —, de par une différence de répartition des jeux de combinaisons.
Ce que je remarquerai d’abord, dans ces quelques indications rapides sur la microphysique, c’est que le concept d’atome s’avère, aujourd’hui, à complémentarité contradictoire. L’atome référent est réputé en équilibre électrique, par notamment l’opposition des charges électroniques négatives et de la charge à bilan positif du noyau, qui se contre-balancent. Vu cette égalité antagoniste, nous sommes devant un type d’équilibre non pas dissymétrique ni antisymétrique, mais que j’appellerai symétrique. Il serait plutôt seulement symétrisant, du fait qu’on peut le préjuger statistique, ce qui pourrait n’être pas sans conséquences. En ce cas, il y aurait de minimes fluctuations, qui offriraient peut-être la possibilité, par exemple, de rendre compte des « transmutations » encore hétérodoxes d’un Kervran [4], qui intéressent puissamment l’agriculture biologique. Mais je ne m’engagerai pas sur ce terrain. Je ne suis qu’un lecteur, un grammairien, comme disait Jean Paulhan, quand il quittait sa chaire de littérature pour les sciences.
Nous avons donc ici, logiquement, avec l’atome référent, une nouvelle forme d’équilibre, un type d’équilibre antagoniste symétrisant, on peut dire encore « contradictoriel », si l’on veut bien admettre que ce mot un peu barbare, dont j’userai dorénavant, signifie une contradiction dont les deux termes antagonistes sont aussi forts l’un que l’autre, statistiquement, dans un système.
Si, au lieu de regarder tout l’atome, nous nous bornons à son noyau, nous allons trouver le même type d’équilibre. Sans entrer dans le monde de plus en plus complexe qu’il connaît aujourd’hui, en nous limitant au bilan énergétique, nous voyons bien que s’y opposent des forces qu’on peut dire de répulsion — celles des protons entre eux, par exemple, puisqu’ils sont positifs et se repoussent — et des forces qu’on peut dire d’attraction, celles de liaison nucléaire au premier chef. Parce que ces dernières étaient indispensables à l’équilibre du noyau, il a bien fallu, un jour, les inventer, c’est-à-dire en faire l’hypothèse, puis les constater, avec toutes chances de les trouver : elles étaient appelées par le découpage. Forces de liaison et forces de répulsion se contrebalancent. Nous sommes donc encore devant une complémentarité « contradictorielle », un équilibre antagoniste symétrique, ou plutôt symétrisant, car il n’est vraisemblablement, lui aussi que statistique.
Ce qui est curieux, c’est que, malgré cette « contradictorialité » qu’ils ont eux-mêmes établie, en fait, beaucoup de praticiens continuent à voir le noyau — ainsi que l’atome référent — comme une pure identité, comme une unité — et une stabilité — non antagoniste. Cela leur rend assez incompréhensible qu’il soit lieu-temps d’incessantes transformations, comme ils le savent bien pourtant. On ne se débarrasse pas facilement de l’héritage logique. Cela n’est pas surprenant, aujourd’hui où l’ethnologie a montré que le nerf principal d’une culture était sa logique, et d’abord dans la langue même.
Je dirai plus précisément : le nerf magistral, officiel. Car, dans notre culture, comme probablement dans toutes, il y a un autre processus de connaissance, celui de l’absence de principes, de l’empirisme, qui, comme on dit, fait découvrir par hasard, par force. C’est aux distractions, aux coups de force, aux intuitions « aberrantes » d’un empirisme sans principes, méprisé officiellement — souvent même par ceux qui en usent brillamment — que cette civilisation d’action doit sans doute la plupart de ses découvertes — jusqu’en mathématiques et en microphysique [5] —, et de ce point de vue l’histoire des sciences serait largement à réécrire.
L’aspect différenciateur, on le trouverait, de façon importante, du côté du noyau. Mais il est plus évident encore du côté de la conception en couches des électrons, qui est à la base de la formation du système périodique des éléments, et qui est déterminée par le principe dit d’exclusion de Pauli. Ce principe — qui s’applique d’ailleurs à tous les « fermions », c’est-à-dire les particules à spin demi-entier — énonce que tout électron exclut de son état quantique, défini par des nombres quantiques, tout autre électron. Aucun n’a exactement le même ensemble quantique. Tout électron — comme, en général, tout fermion — est, de ce point de vue, singulier. Pourtant, à lire nos manuels, et nonobstant qu’ils enseignent, bien sûr, le principe de Pauli, vous pourriez ne pas avoir idée de cette singularisation. On n’y insiste que sur l’indistinction des électrons entre eux, comme sur celle de toutes particules de même famille, en général.
Les manuels ne mentent pas. Il y a indistinction. Les électrons ont même masse, même charge, comme toutes les particules de même famille. Les manuels pèchent par omission, comme c’est la ressource des honnêtes gens. Tout en étant identiques sous ces aspects, les électrons sont en même temps différents, singuliers, variables, par leur distribution, par un nombre au moins de leur ensemble quantique. On peut distinguer, sous ce jour du moins, ces indistinguables. Bref, tout en obéissant à un déterminisme d’identification, d’uniformisation, d’invariance, les électrons — entre autres particules — répondent simultanément à un déterminisme opposé de diversification, de variance, de différenciation, d’individuation. Les voilà contradictoires dans leur « être », si l’on peut prononcer ce mot à leur propos: dans leur définition, dans leur concept, en tout cas.
Pauli en avait une curieuse conscience. Redevenu prisonnier, au réveil, de la logique à non contradiction d’identité, il déclarait son principe incompréhensible, absurde, irrationnel, autant que en fait obligatoire. Il n’est irrationnel que devant cette logique. Il entre comme chez lui dans une logique des complémentarités contradictoires : il signifie dans le concept d’électron, une orientation de différenciation, unie antagoniquement et complémentairement à une orientation d’indistinction, d’identité.
C’est en réalisant cette union de contradictoires que l’on peut le mieux comprendre, aujourd’hui, la notion d’indétermination, sur laquelle on est en arrêt depuis quelque cinquante ans, et que j’ai commencé plus haut d’effleurer.
En s’imposant au niveau fin, que ce soit pour l’atome référent, le noyau, ou les particules, cette union antagonique confirme l’intérêt de poser aujourd’hui non plus une seule nécessité, celle d’uniformisation, d’universalisation, d’invariance, correspondant à notre déterminisme officiel, mais aussi une nécessité inverse, celle de différenciation, de singularisation, de variance, qu’appelaient déjà l’embryologie, et l’immunologie. Il y a une nécessité « mécanique » et une nécessité « nécanique », comme je les nommerai désormais, à orientations et développements opposés [6]. Elles sont toujours confrontées, conjuguées, imbriquées, mixées. Chacune tend à inhiber, à refouler, à potentialiser, plus ou moins, l’autre. On pourra alors spécifier logiquement les systèmes, les champs, les secteurs, etc., par l’évaluation du rapport, toujours particulier, entre la nécessité « mécanique » et la nécessité « nécanique », par l’évaluation de leur quantité d’antagonisme complémentaire. On pourra les spécifier, par là-même, thermodynamiquement, puisqu’il y a équivalence entre nécessité « mécanique » et entropisation, entre nécessité « nécanique » et néguentropisation. On pourra, encore les spécifier, par là-même, cybernétiquement, puisqu’il y a équivalence entre nécessité « mécanique » et feed-back négatif, entre nécessité « nécanique » et feed-back positif.
Dans ces conditions, il n’y a jamais de structure à nécessité strictement univoque, sinon par idéalisation. La substitution du déterminisme probabilitaire et statistique au déterminisme classique correspond sans qu’on en soit encore bien conscient à cette « bivocité » antagoniste de toute structure. Le déterminisme statistique remplace l’expression exclusive de l’une des deux nécessités — la nécessité « mécanique » en l’occurrence — par l’expression relative de sa dominance. Mais, justement parce qu’il ne se connaît pas encore trop, il n’en est guère réalisé que la dominance statistique de l’une des deux nécessités implique une certaine présence de l’autre : en tant que celle-ci est potentialisée, comme en tant qu’elle ne l’est pas absolument, elle fait partie de la structure. C’est d’ailleurs cette co-présence antagoniste de la nécessité inverse — « nécanique » en l’occurrence — qui, par l’indéterminisation qu’elle inflige relationnellement, au moins dans quelque mesure, à la nécessité statistiquement dominante, limite la prévision au probabilitaire. Mais surtout on n’a pas encore compris que la dominance statistique de l’une des deux nécessités implique des renversements événementiels, minoritaires, passagers, de dominance, où celle-ci passe à la nécessité inverse — « nécanique », en l’occurrence. La nécessité statistiquement dominante — « mécanique » en l’occurrence — s’en voit alors, relationnellement, fortement indéterminisée. Comme l’observateur n’a pas d’explication possible de cet effet d’indétermination dans sa grille à non contradiction d’identité, il parle de hasard. Or si cette détermination résulte de l’effet relationnel de la détermination de l’une des deux nécessités, du passage événementiel de la nécessité statistiquement dominée à la dominance dans l’actualisation, il n’y a pas proprement hasard, dans la structure.
Le mot d’indétermination est-il plus heureux ? Oui et non. Oui : effectivement cette actualisation dominante de la nécessité statistiquement minoritaire inflige une indétermination à la nécessité statistiquement dominante. Non ? cette indétermination est déterminée par une nécessité à orientation inverse. On peut garder l’expression d’indétermination, mais en l’écrivant à tout le moins « indétermination relationnelle ». Cela signale qu’elle est une indétermination par rapport à l’une des deux nécessités, mais qu’elle ne l’est point pour l’autre; qu’elle est un des effets de la bivocité structurale, de la complémentarité antagoniste.
Pour qui ou pour ce qui est sous la coupe de la nécessité statistiquement dominante cet effet d’indétermination relationnelle apparaît libératoire, quand même il est dû à une autre nécessité. Des combinaisons, des transformations originales sont susceptibles de s’ensuivre, modifiant une structure qui, reprise en main par la nécessité statistiquement dominante, ne pourra plus être exactement la même. Par exemple, dans la mesure où l’électron, à bien des niveaux biologiques, serait plus vers l’état dit libre, c’est-à-dire moins soumis aux conditions internes de l’ensemble atomique, moins « asservi », il y aura plus de possibilités de différenciation, de variation, comme de néguentropisation, plus de liberté relationnelle, quand même celle-ci est l’expression d’un rapport et d’une autre nécessité. On comprend que, dans ces conditions, en microphysique sans grandes masses, la causalité classique tende à s’envoler; que le théoricien et l’opérateur puissent dire que l’électron, par exemple, leur échappe de ce point de vue : il est alors moins soumis, effectivement, à la causalité d’identité, de continuité, en étant plus soumis à la causalité antagoniste et complémentaire de différenciation, de variance et de discontinuité, qui attend toujours sa reconnaissance officielle. Il ne suffit pas, en effet, de dire, comme Cournot, qu’il y a séries indépendantes. Ce n’est là qu’une reconnaissance de fait, incompatible d’ailleurs avec une logique exclusive de l’identité et de la continuité. Outre qu’il y aurait autonomie plutôt qu’indépendance, il faut poser que cela implique, dans l’univers, et pour tout ensemble ou sous-ensemble, plus ou moins à l’œuvre, une co-logique de la différence, de la variance et de la discontinuité.
Mais le cas le plus intéressant à considérer, pour la liberté, n’est pas celui de ces structures dissymétrisantes, à dominance relative de l’une ou l’autre des deux nécessités, où la liberté correspond seulement à l’emprise passagère de la nécessité minoritaire. Supposons que nous ayons, à la différence, une structure à équilibre antagoniste « symétrisant », où les deux nécessités inverses d’uniformisation et de différenciation, de « mécanisme » et de « nécanisme », aussi fortes l’une que l’autre, relativement, pour l’ensemble statistique des fluctuations, tendent à s’annihiler mutuellement, à l’instar d’une particule et de son antiparticule. Ou, plus précisément, à s’empêcher mutuellement de s’actualiser, car il n’y a pas d’anéantissement dans cette situation, ni d’ailleurs nulle part. Cela nous donne une structure, relativement et fluctuamment, à mi-actualisations mi-potentialisations, pour chacune des deux nécessités, ou même à ni actualisations ni potentialisations; étant entendu que ce schéma est très simplifié, qu’il devrait être non pas duel, mais au moins quaternaire, c’est-à-dire opposer deux systèmes à égalisation relative, chacun, d’uniformisation et de différenciation, de « mécanisme » et de « nécanisme »; ou bien encore deux systèmes couplés, l’un à dominance d’uniformisation et de « mécanisme », l’autre à dominance de différenciation et de « nécanisme » : la figure est alors à quatre termes, puisque, pour chaque système, il faut compter de l’actualisation et de la potentialisation.
Dans une telle structure, puisque les déterminations inverses de « mécanisme » et de « nécanisme » s’y inhibent mutuellement, la situation est celle d’un a-déterminisme relationnel, relatif, situationnel. Où « tout est possible »; où, plus précisément, il y a éclosion, floraison de possibles; étant entendu que le mot de « possible » signifie ce qui peut arriver et tout autant ne pas se produire. En somme, une situation vraiment de liberté, celle-ci. Mais non pas en l’air, à la manière de tant de conceptions classiques du « libre-arbitre ». C’est seulement une certaine figure, logique, thermodynamique, cybernétique du couplage conflictuel, de la complémentarité antagoniste, de la bivocité structurale. Puisqu’elle correspond à une égalisation antagoniste — relative et statistique —, je la dirai « équi ». Mais il faut bien voir que cet état « équi » justement parce que relatif et statistique, est, lui aussi, mobilité, fluctuance entre des seuils. Surtout il s’y produit, en raison même de l’« équité », des transformations spécifiques, aussi décousues que cousues, autant différenciatrices que identitaires, autant « nécaniques » que « mécaniques », les deux intimement à la fois et autant. Des créations, en somme. Mais comme cet état « équi » n’est qu’une des figures de la complémentarité antagoniste circulante, il ne peut être tenu longtemps. Plus ou moins rapidement — à moins de blocage « pathologique » — il tend à aller, par réduction structurale, par disjonction, vers la privilégisation, l’actualisation dominante d’un des possibles éclos, créés. C’est l’opération, à tendance univocisante, du choix.
De telles configurations « équi », nous les rencontrons au niveau microphysique : chaque fois que nous avons devant nous un équilibre antagoniste symétrisant, comme avec l’atome référent, ou le noyau, dont la fission « libère » l’énergie — amplifiée suivant des chaînes —, c’est-à-dire le disjoncte vers l’un de ses possibles, que nous avons choisi, à tort ou à raison — c’est une autre histoire. Justement parce que « contradictoriel », parce que à tension statistiquement égale de « mécanisme » et de « nécanisme », l’état « équi » a une grande capacité énergétique.
Dans cette perspective, l’idée apparemment folle, relancée périodiquement, suivant laquelle le microphysique pourrait être siège de liberté, n’a rien d’extravagant, se justifie en se précisant. Cela est exact, posable du moins, lorsque la configuration microphysique est à équilibre « équi ». Et que l’on voit que liberté et création, ou créativité, se conjoignent.Or une telle configuration semble être, notamment, celle des atomes en fusion, dans la thermodynamique astrale.
Mais le principal intérêt de cet éclairage rapide de la microphysique et de la découverte de la structure ou systématique « équi », c’est qu’ils vont nous permettre une lecture particulièrement intéressante de la neurophysiologie.
Précédent Suivant
______________________________________________________
1 René Thom Modèles mathématiques de la Morphogenèse, 10 / 18, 1976.
2 Stéphane Lupasco, L’énergie et la matière vivante, Julliard, 1962. Réédition en 1974.
3 Jean Hamburger, L’Homme et les hommes, Flammarion, 1975.
4 Louis Kervran, Transmutations biologiques, Maloine, 1975.
5 De ces côtés l’empirisme est évidemment très abstrait. Mais l’idée de transformer le postulat des parallèles, devant l’échec de sa démonstration, celle aussi de poser le nombre imaginaire, lui appartiendraient, par exemple. C’est encore plus éclatant pour le quantum de Planck, qu’il introduisit en se faisant violence, et dont il demeura choqué toute sa vie.
6 Je dérive par opposition le mot « nécanique » de celui de mécanique, comme on a fait dériver néguentropie d’entropie. Par là même ce que le mot mécanique contient étymologiquement — machine — est contenu également dans « nécanique » : le processus est aussi machinal, mais en sens inverse. Dès lors, bien entendu, il y aura toujours plus ou moins et de « mécanisme » et de « nécanisme », aux sens où je prends ces mots.