Marceau Felden : Le Cerveau, l’Intelligence artificielle et le futur


28 Jan 2011

Certaines parties de cet entretien sont à mettre à jour, mais les notions d’auto-référence, d’auto-organisation etc. sont bien exposées

Extrait d’entretien avec Marceau Felden Paris 1987

SC : M. Felden vous êtes physicien spécialisé dans l’étude des milieux ionisés. On comprend que vous vous êtes intéressé à l’informatique puisqu’elle vous sert à améliorer vos calculs, les rendre plus rapides et même d’effectuer d’autres qui n’étaient pas faisables, mais comment se fait-il que vous vous êtes intéressé à l’intelligence artificielle (IA)  et à la simulation des capacités du cerveau par la machine?

Marceau Felden : C’est une longue histoire. Dans les années 1968-70, j’avais commencé une grande réflexion qui concernait le devenir des nouvelles technologies et de certaines inventions faites après la 2e guerre mondiale et qui, je crois, ont des incidences à longue portée.

Dans un ouvrage précédent et dans un certain nombre de travaux de réflexion, il m’a semblé, en particulier, que les quatre grandes technologies du futur, c’est-à-dire celles qui vont prendre une place très importante au cours du 21e siècle, seraient d’une part l’informatique et l’intelligence artificielle, d’autre part la fusion thermonucléaire qui est une possibilité de résolution des problèmes de l’énergie, troisièmement l’installation de l’homme dans l’espace qui lui permettra de conquérir des éléments nouveaux, de s’installer dans le cosmos, d’avoir accès à des nouvelles sources d’énergie, de matières premières etc. et quatrièmement les biotechnologies qui sont la possibilité pour l’homme d’agir sur le vivant et de modifier totalement la biosphère dans le sens d’un bon équilibre.

Il est clair que ces quatre technologies nous amènent à réfléchir car elles devraient offrir à l’homme de nombreux nouveaux moyens et lui permettront d’accéder à un nouveau   palier du développement de l’humanité. Il existe, bien entendu, une foule énorme de dangers qui sont associés à une exploitation non rationnelle et non planifiée laissée au choix des spécialistes et des politiciens. Il résulte donc qu’il ne faut pas développer ces technologies uniquement, mais également les contrôler et cela devient un problème  au niveau planétaire. On ne peut plus concevoir que des pays se sur-développent tandis que d’autres restent sans possibilité de développement. Il y a donc cette réflexion qui porte d’abord sur les technologies et ensuite sur leurs incidences politiques, économiques et sociales.

Mon deuxième élément de réponse est que je suis un physicien des plasmas, c’est-à-dire que je m’occupe de fusion thermonucléaire en vue de la domestication de l’une des énergies les  plus fondamentales de l’univers et qui est l’énergie des étoiles. Le problème est d’essayer  de reproduire en laboratoire les processus qui ont lieu dans le soleil et dans les étoiles ce qui nous permettra avec les éléments dont on dispose sur terre, et en particulier le deutérium, d’avoir accès à une source inépuisable d’énergie en attendant  la disparition de la terre dans à peu près 1 à 2 milliards d’années. Le soleil à ce moment là sera transformé en une géante rouge et toute la surface terrestre sera brulée.

La fusion thermonucléaire est une de ces disciplines nouvelles qui ont les plus besoin d’informatique. Et où plus on fait des calculs plus on a besoin d’en faire encore. Prenons par exemple la météorologie. Le problème ici est de prévoir le temps qu’il fera au bout d’un certain nombre de jours. Si on veut prévoir le temps qu’il fera dans dix jours avec les moyens informatiques que nous disposons actuellement (en 1987) il nous faudrait environ 30 jours de calculs! C’est donc une opération qui n’est pas rentable. On peut prévoir, actuellement, presque surement 3 à 4 jours et approximativement 5 jours, au-delà ce n’est pas possible. C’est une question de moyens de calculs.

Prenons un autre exemple. Pour faire une seule configuration d’une navette spatiale – qui est une structure dans un état donné –, il faut faire environ 10 milliards opérations de calcul… Jusqu’au années 80 cela prenait environ 30 jours de travail avec l’ordinateur en supposant qu’il ne tombe en panne; c’est une opération acrobatique! Avec la génération actuelle (années 85-87), ce même calcul ne prend qu’une douzaine d’heures. L’idéal est de descendre au-dessous de l’heure. Il faut savoir que pour étudier complètement une navette plusieurs configurations doivent être étudiées. Il nous fallait donc une dizaine d’années pour le faire, mais avec les nouvelles générations c’est ramené à une année.

On peut donner beaucoup d’autres exemples. Aujourd’hui en 1987 un ordinateur des plus performants comme le cyber 305 ou le Cray 2 sont capables de faire en une seconde autant de calculs que 250 mathématiciens durant toute leur vie professionnelle, c’est-à-dire travaillant pendant 50 ans à raison de 8 heures par jours et pendant 300 jours l’année… Je parle uniquement, bien sûr, des calculs car heureusement les mathématiciens ne font pas du calcul uniquement.

Un deuxième volet est qu’on s’est aperçu dès la mise au point vers 1946 de l’ordinateur qu’il était aussi capable de faire d’autres choses que le calcul. Il peut aussi manipuler des symboles et utiliser un certain nombre de processus d’inférences et de manipulations de règles de logique formelle qui lui permettent finalement de faire de la logique à l’état industriel et de résoudre un certain nombre de problèmes. Parallèlement des recherches en logique étaient en cours. Elles avaient débuté avant la guerre avec l’école de Vienne des années 1930 et l’école de Frege, de Wittgenstein et d’autres… On s’est rendu compte petit à petit qu’il est possible de mettre au point des méthodes  purement formelles, d’une sorte d’algèbre de la pensée comme l’avait fait Boole et De Morgan au 19e siècle et qui permettrait de résoudre des  problèmes. C’est l’idée initiale et l’origine avant la lettre de l’intelligence artificielle.

Dans les années 46, il s’agissait d’élaborer un système  et le premier était le « General Problem Solver » GPS des américains Simon, Newell et Shaw dans les années 50 et qui permettait de résoudre des problèmes du style rébus, des petits problèmes de logique simple, des petites astuces mathématiques que l’esprit humain a généralement de la peine à résoudre. Eh bien, on s’est aperçu que les ordinateurs résolvaient ces problèmes avec une vitesse foudroyante. A cela s’est ajouté l’étude des jeux comme par exemple les effets de faire jouer l’ordinateur au jeu d’échec qui n’a pas bien marché; par contre avec le jeu des dames c’était plus facile. Ensuite d’autres travaux comme ceux concernant la compréhension du langage n’ont pas donné de grands résultats.

Mais au début, dans les années cinquante on a cru que l’ordinateur était capable de faire un certain nombre de fonctions cérébrales et c’était l’euphorie. Le problème n’était pas encore bien cerné et on a cru que l’ordinateur allait devenir le cerveau artificiel.

Entre les années 60 et 70 de nouveaux progrès technologiques sont apparus, en particulier l’introduction du transistor dont l’invention remontait à 1948. La performance des machines s’est alors sensiblement améliorée en rapidité et vers moins de consommation d’énergie et d’espace. Mais, en même temps, on s’est aperçu que les succès du début commençaient à plafonner. Par exemple, on n’arrivait pas dans la résolution des rébus à passer à l’échelon supérieur; aussi dans la compréhension du langage, au début on pensait qu’il était possible de faire une machine à traduire mais on s’est heurté rapidement à des grandes difficultés car il ne suffit pas de faire un dictionnaire des mots il faut aussi connaitre le contexte général etc. Dans les échecs, aussi, on avait au début atteint rapidement le niveau d’un joueur médiocre puis on a plafonné. Une période pessimiste a succédé à la première période.

Et en 1969 un nommé Dreyfus, un spécialiste américain, a posé le problème plus profondément en disant que le cerveau ne fonctionne pas comme un ordinateur. Au début entre les années 48 et 55 avec la naissance de la cybernétique, de la robotique, des travaux de Van Neumann et les travaux sur les bases de l’ordinateur on a cru hâtivement que le fonctionnement du  cerveau et de la machine étaient analogues, car aussi on ne connaissait du cerveau que les neurones sous leur aspect électrique. On ne connaissait pas toute la biochimie associée à la fonction neuronale. Donc Dreyfus a posé le problème brutalement en disant aux spécialistes qu’ils étaient complètement  à côté du problème : l’ordinateur et le cerveau sont deux choses différentes et ne fonctionnent pas de la même façon. Les réactions violentes n’ont pas manqué et une énorme polémique à été enclenché aux états unis.

Ici j’attire l’attention que jusqu’aux années 70, il y avait très peu de gens à s’occuper d’IA. Les principaux se trouvaient aux états unis en Californie, il y avait aussi un important centre en Angleterre (écosse) et peut être un ou deux centres en union soviétique et presque rien d’autre. A la suite de cela les problèmes étaient bien posés et une grande réflexion autour de ces problèmes s’est instauré jusqu’aux années 73-74.

Mais en 1973 les circuits intégrés sont apparus. C’était une véritable révolution technologique. Jusqu’à 73 l’ordinateur ne cessait de grossir, mais à partir de 73 il a commencé à diminuer  et maintenant avec le taux actuel d’intégration on arrive à réuni un million de composants électroniques sur une puce de circuit intégré. Et il est évident qu’à partir de 1973 les performances des ordinateurs ont pris des dimensions totalement nouvelles.  Ce qui a permis d’aller beaucoup plus vite avec la possibilité de faire de tas d’autres calculs et ensuite d’exécuter des inférences logiques et d’autres d’une manière totalement différente.

Les questions ont été reposées à nouveau et finalement le jeu d’échec est reparti sur de nouvelles bases ainsi que la machine à traduire et celle à converser. Mais cela ne marchait pas encore très bien. Mais du point de vue des performances des calculs d’abord et des interférences logiques on a pu aller plus loin. Ainsi sont apparus les systèmes experts, ils ont constitué une véritable percée. Le système expert est un système informatique capable de résoudre un problème précis; c’est-à-dire qu’on choisit un domaine donné comme celui du diagnostic d’une maladie sanguine ou autre et le système expert traite uniquement ce problème. Depuis les années  quatre vingt, les systèmes experts deviennent très performants et ils sont capables de résoudre des problèmes extrêmement difficiles. Ainsi le système Maxima peut résoudre certains problèmes mieux  qu’un diplômé de l’école polytechnique – une des meilleurs écoles de mathématiques en France et dans le monde!

Le système expert (SE) ne fait pas une résolution numérique, mais donne une solution littérale. Par exemple si on lui donne une équation du second degré : AX2 + Bx + C = 0, il ne donnera comme c’était avant les valeurs A, B et C mais il répondra : x = (-B ± ?B2 – 4AC)/2.

Il faut en moyenne mille opérations élémentaires pour faire une inférence de la forme « Si… Alors… ». Prenons un exemple : quand votre voiture ne démarre pas, le SE vous dira en vue de dépanner la voiture : Si mettre le contact Alors voyant rouge s’allume; Si voyant rouge s’allume Alors tournez et regardez démarreur; Si voyant rouge ne s’allume pas Alors regardez batterie. Donc avec des « Si… Alors… » comme ceux-là, on peut résoudre la plupart des problèmes, mais la procédure est lente.

Les  systèmes experts (SE) et les nouvelles générations d’ordinateurs  qui sont capables d’exécuter un milliard d’opérations élémentaires par seconde sont capables de faire un million d’inférences par seconde; tandis que le cerveau humain n’est capable que de faire une seule. On voit à quelle vitesse cela va.

Sont apparus aussi de nouveaux langages de programmation, des nouvelles architectures d’ordinateurs. On peut citer par exemple le Prolog qui est un langage au deuxième degré. Il permet pratiquement à l’utilisateur de converser avec l’ordinateur en langage presque naturel. Cela rend les machines plus performantes dans l’exploitation des inférences logiques.

A partir  de là un certain nombre d’hypothèses a été formulé et des écoles américaines et à leur suite d’autres européennes, soviétiques et japonaises croient que finalement l’IA – terme à qui je préférerai « l’électronique de la complexité » – va bientôt être l’égale du cerveau pour le dépasser par la suite. Donc ces chercheurs pensent que nous entrons dans une ère nouvelle où l’informatique généralisée, l’électronique de la complexité et les nouvelles sciences de l’artificielle vont dépasser les capacités de l’homme et constituer peut être une menace.

C’était l’objet de mon livre « Le songe de Minerve ». Minerve était une déesse Capitoline, une des trois divinités principales de Rome. Elle est la déesse de la sagesse et également la déesse des artisans ; donc un peu d’arithmétique donc de mathématique. Et étant réputée être une personne sage et étant proche de Jupiter et de Junon, elle peut se permettre un certain nombre de fantaisies.  Le songe de Minerve consiste en fait en trois interrogations concernant ces problèmes fondamentaux et auxquels j’ai essayé d’apporter des réponses. Je crois que certains informaticiens, certains neurobiologistes et un nombre d’auteurs de science fiction qui disent que le cerveau va être supplanté par l’informatique ont complètement tort et sont à côté du problème. C’est pour cela que j’ai examiné les trois songes de Minerve pour les réfuter par des arguments scientifiques.

Premier point : le cerveau ne fonctionne pas comme un ordinateur. La moitié du livre est consacrée à l’étude du cerveau. C’est une étude un peu spéciale faite par un physicien et non par un biologiste. J’ai pris donc mes précautions en faisant vérifier ce travail par des experts. J’ai fait le point des travaux les plus récents en neurophysiologie. Les neurosciences ont progressé considérablement ces dernières années grâce à l’expérimentation par le scanner, aux méthodes radioactives, à la caméra à positrons, à la coloration des tissus par les microélectrodes, à l’analyse du signal etc. J’ai essayé de regarder ces travaux en détail et de les interpréter à la manière d’un informaticien. Pourquoi? Parce que je crois que j’ai été un des premiers en France à traiter des problèmes d’informatique. Je suis rentré dans la recherche vers 1955 au moment ou l’informatique apparaissait. J’ai travaillé en permanence avec l’informatique comme outil de travail. Je mettais au point  des programmes avec l’équipe que je dirigeai pour faire des calculs et on avait toujours besoin de nouveaux programmes avec l’évolution de la recherche. J’ai connu donc les premiers ordinateurs ces monstres énormes dans lesquels on câblait les programmes au lieu  de les écrire. Et puis j’ai vécu les progrès qui nous ont conduits à l’ordinateur d’aujourd’hui. Et un jour on est emmené à réfléchir à propos de ces machines. J’ai pu suivre l’affaire Dreyfus, grâce à mes voyages professionnels, qui m’a attiré l’attention à ce problème. En vérité je me suis toujours intéressé à la philosophie de la science. Je crois que l’on ne peut se contenter de faire de la recherche, mais qu’il faut aussi poser des questions sur la finalité de cette recherche. J’ai commencé dans les années 70 de prendre des notes, lire des livres et en  faire une synthèse et la critique etc. pour aboutir enfin à ce livre.

Depuis ma jeunesse un problème m’intriguait : Comment fonctionne le cerveau? Cette question fait partie d’une nouvelle famille de problèmes qui ont été détecté récemment et que peu de gens connaissent; ce sont les problèmes autoréférentiels.  Un exemple de ce genre de problèmes est le suivant : Les mathématiques sont elles capables d’analyser et de justifier ses bases? Un tas de problèmes de ce genre existe. Vous savez que les mathématiques sont passées par une phase cruciale à la fin du 19e siècle. La question était de savoir si on pouvait réduire toute la mathématique à l’arithmétique et ensuite si on pouvait réduire l’arithmétique à la théorie des groupes. Le problème si on se limitait à l’arithmétique était le suivant : Est que les postulats de base de l’arithmétique sont complets, cohérents et non contradictoire? Gödel a montré que s’ils étaient complets, on ne pouvait pas démontrer qu’ils étaient non contradictoires; et s’ils étaient non contradictoires on ne pouvait pas démontrer qu’ils étaient complets. On a cherché la raison pendant longtemps et on s’est aperçu il y a peu de temps que cela fait partie d’une classe particulière de problèmes : les problèmes autoréférentiels. C’est-à-dire qu’un système ne peut s’étudier de l’intérieur  sans sortir du système. Pour étudier les mathématiques, il faut faire des métamathématiques. Mais à nouveau se pose le problème des métamathématiques. Donc on ne s’en sort pas car on fait une régression infinie et le problème est toujours transposé à un étage supérieur.

Cela ressemble à l’œil qui ne peut se voir et aux dents qui ne peuvent se mordre…

MF : Il y a un meilleur exemple. Une femme est confrontée à un problème autoréférentiel quand elle nettoie sa maison; car à la fin, elle a ses outils de nettoyage sales. Ou va-t-elle les nettoyer? Dans la salle de bains ou ailleurs… Elle va resalir la salle de bain, elle aura des outils propres et une salle de bain sale! Cette illustration est claire. Tous les problèmes philosophiques, tous les problèmes religieux sont autoréférentiels et n’ont donc pas de solution. Ce qui est extraordinaire c’est que les grecs avaient découvert ces problèmes. Parménide avait dit que tous les crétois sont des menteurs or je suis crétois. C’est de la forme : « La phrase qui suit est fausse; la phrase qui précède est vraie ». C’est un problème autoréférentiel. Mais ces problèmes n’étaient vraiment étudiés, les philosophes s’amusaient avec. Aujourd’hui on s’aperçoit qu’une des limitations au savoir scientifique fondamental, aux bases de ce savoir est les problèmes autoréférentiels. Mais heureusement cela n’a pas de conséquences sur les applications pratiques, car cela n’empêche pas les ordinateurs de fonctionner, ni la technologie d’avancer.

Pour moi le problème autoréférentiel numéro un qui génère les autres est : le cerveau peut il comprendre le cerveau? J’analyse ce problème à la fin de mon livre mais je vais plus loin en posant une deuxième question : « Le cerveau peut il engendrer un mécanisme plus complexe que le cerveau »?

La réponse est aléatoire, autoréférentiel. C’est-à-dire que si le cerveau arrive à engendrer une chose plus compliquée que lui, alors il a dû commencer par une étape, et il sera obligé de passer à une étape supérieure pour comprendre cette chose, puis une autre étape l’amènerait à une autre supérieure etc.  Cela ressemble à la régression infinie : math, métamath, métaméta…

Donc au premier songe de Minerve on peut répondre  qu’en l’état actuel des choses le cerveau reste infiniment plus compliqué dans ses fonctionnements, ses principes de base, ses structure et ses mécanismes propres que l’électronique de la complexité. Un exemple est le neurone qui possède un fonctionnement électrique et un autre chimique. Ce dernier a été découvert seulement dans les années 70-80; en particulier par R. Guillermin  prix Nobel américain d’origine française, grâce aux neurotransmetteurs etc. Le transistor ou le circuit intégré ne fonctionne qu’avec l’information électrique. Mais on sait aujourd’hui que l’information chimique est au moins aussi importante que l’information électrique. L’ordinateur est donc un handicapé : il a une partie de l’information électrique et manque totalement de la chimique. Le cerveau est donc un ordinateur dans certaines de ses parties mais dans sa totalité il est beaucoup plus que cela.

Mais ce domaine chimique n’est il pas de plus en plus abordé grâce à la bioélectronique naissante?

MF : La biopuce c’est-à-dire le transistor électrique et biochimique est l’objet de recherches importantes qui sont d’une manière générale ultrasecrètes pour des raisons militaires. Mais on peut avoir un certain nombre d’informations  à ce sujet. Je peux dire que la biopuce devrait être mise au point avant la fin du siècle. Avant cela il faut passer par plusieurs étapes. On commence par faire des biocircuits c’est-à-dire au lieu de faire des puces bidimensionnelles (circuits câblés dans un plan) on va faire des circuits tridimensionnelles puis des circuits plus petits et plus performants. Mais pour l’instant la biotechnologie sert à sculpter des biocircuits qui restent électroniques et on espère par la suite utiliser une composante chimique dans le circuit analogue à celle du neurone donc de nouvelles perspectives seront ouvertes.   Mais je doute que l’on sera capable de faire fonctionner ces systèmes de manière aussi cohérente et structurée comme dans le cerveau d’un mammifère des plus primitifs et il n’est pas du tout sûr qu’on ne sera pas appelé à prendre des cerveaux animaux et les modifier pour en faire des neuro-ordinateurs! Des choses comme cela ne sont pas exclues.

Donc on ne peut pas répondre car de nouvelles percées scientifiques auront lieu certainement et il n’est pas possible d’un point de vue scientifique de faire un quelconque pronostic. On verra sûrement apparaitre un nouveau type d’ordinateur, un ordinateur neurobiologique où l’élément de base sera la biopuce. Mais cette biopuce sera t’elle complètement artificielle obtenue par manipulation génétique ou par des technologies à naitre ou bien par une machinerie animale modifiée? Je ne saurai répondre. J’ai le sentiment personnel qui n’est pas fondé sur des éléments rationnels qu’on arrivera enfin de compte à mettre au point une biopuce qui représentera les deux aspects. Mais que fera-t-on avec cette biopuce? Je ne peux vous le dire. Il me suffit de dire qu’avec un calcul relativement simple, que j’ai fait en son temps, on montre qu’avec les biopuces  et avec les limites prévisibles des biotechnologies on pourrait faire, à volume égal à celui du cerveau, une structure qui serait probablement un million de fois plus performante. Par performance je désigne la capacité et la rapidité dans les inférences. Cette chose aura-t-elle les capacités du cerveau ? Non pas nécessairement car à l’état actuel des données du problème elle fonctionnera encore à la manière des automates qui seront peut être non déterministes. Il faudrait savoir s’ils ont des états bien définis ou si on peut passer à une structure où la notion d’état devient floue. Un ordinateur ne peut fonctionner qu’à travers des états successifs, mais on sait depuis les années 70 que le cerveau ne fonctionne pas de cette façon, car l’élément de base du cerveau est le circuit neural et non le neurone car autrement l’information sera détruite avec la destruction continuelle des neurones et la performance de l’homme décroitra rapidement. Va-t-on pouvoir parler de l’état de circuit? C’est encore prématuré.

Donc ma première conclusion est la suivante : Pour l’instant et en l’état actuel des connaissances le cerveau est une structure de loin plus performante que l’ordinateur et il faudrait de nombreuses percées technologiques pour s’approcher des performances d’un cerveau rudimentaire. Mais on va retomber dans les problèmes autoréférentiels déjà mentionnés.  Je doute, pour ma part, que le cerveau puisse créer une structure plus complexe que la sienne en raison des principes de base de la science en général et de la physique en particulier. L’homme est une structure bien faite et plus performante qu’on le croit généralement. On ne pourra pas accroitre ses performances même si l’on n’utilise que 1 à 2% de ce cerveau, et ce pour deux raisons : la première est que le  cerveau consomme 20% de l’énergie totale du corps alors si on multipliait seulement par 2 le rendement du cerveau – c’est-à-dire passer de 1 à 2% – il faudrait que les poumons aient leur volume  augmenté de 20% pour fournir l’oxygène nécessaire  et ça ne suffira pas parce que le système régulateur sanguin ne marcherait plus. Il y a donc un problème d’énergie à la base. La deuxième raison est qu’on a des neurones qui se détruisent tout les jours par vieillissement et à causes de tous les rayons qui viennent les irradier. C’est grâce à une réserve énorme de neurones que les capacités du cerveau ne décroissent pas rapidement et restent presque identiques  durant une vie. Donc accroitre ces capacités nous fera encore utiliser encore plus de neurones et rendra notre réserve plus faible.

Ce qu’on peut faire c’est non pas augmenter le rendement du cerveau mais l’utiliser autrement par l’éducation adéquate durant les dix à quinze premières années de la vie. Pour ce faire, je crois que les classes ou on met les enfants selon l’âge disparaitront et feront place à des nouveaux moyens éducationnels et informatiques qui permettront au cerveau d’être autrement organisé. Et l’électronique de la complexité va apporter des éléments essentiels dans ce processus en simulant les fonctions cérébrales.

Le deuxième songe de Minerve est : Va-t-on finalement créer des robots, des artefacts, des SE et toute une structure qui sera une menace pour l’homme? Non pour une simple raison : La biologie a un avantage énorme par rapport à toute l’électronique de la complexité. Cette dernière n’a besoin que d’un fil et d’une alimentation globale. C’est-à-dire si vous coupez le fil tout s’arrête comme pour la télévision ou l’ordinateur, tandis que chaque cellule vivante possède une alimentation autonome avec l’adénosine. Chaque cellule a donc  un grain de vie autonome qui a  son programme qui est l’ADN qui a sa matière première qui est le cytoplasme qui a son usine de fabrication de synthèse qui est le ribosome… Et ici on ne peut couper. Donc ça serait une régression, au sens darwinien, de passer d’un système à source d’énergie distribuée, comme le biologique, à un système de l’électronique de la complexité à source d’énergie intégrée. Les lois de Darwin montrent sans exception  qu’un système régressif disparaitra.

On pourra toujours imaginer une sorte d’accumulateur d’énergie solaire distribuée sur tout le robot…

MF : Ça ne sera pas comparable. Il sera trop tributaire de l’énergie. Un autre point et que le robot n’a pas de motivation, il n’a pas de cerveau limbique. L’homme a trois cerveaux : Le paléo-encéphale, le limbique et le néocortex. Le limbique étant celui des émotions et des motivations. Pour faire quelque chose il faut être motivé et le robot n’a que les motivations qu’on voudrait lui donner. Il n’est pas capable de concevoir autre chose que ce que son concepteur lui a donné. Il n’a aucune autonomie et il ne sera jamais capable de créer ses références propres. Je ne parle pas de ce qui se passera dans un millénaire mais disons de ce qui peut arriver au prochain siècle.

Le 3e songe de Minerve est : Pour autant, tout va-t-il devenir pour le mieux dans le meilleur du monde? Va-t-on avoir des robots qui vont tout faire et transformer la terre en un paradis? Non, car les robots seront des aides. Ça va peut être permettre à la femme de ne plus faire le ménage et la cuisine et d’avoir du temps pour autre chose et à l’homme d’exercer plusieurs métiers et d’avoir plus de facilités de travailler chez lui et de se déplacer autrement. Donc ça va apporter des facilités dans l’organisation, mais l’homme gardera ses motivations, ses rapports avec la nature, avec la civilisation et toutes ses facultés psychiques, intellectuelles et spirituelles. Le grand problème qui se pose à l’homme et qui va se poser avec plus d’insistance se résume dans la phrase de Malraux : « Le 21e siècle sera religieux ou ne sera pas ». Je dirai pour ma part qu’il sera philosophique ou ne sera pas. C’est-à-dire que l’homme a besoin de buts, de motivations, d’un certain nombre de guides intellectuels pour bien mener sa vie. Ce qu’il faut comprendre aujourd’hui est qu’un seul modèle spirituel sera la destruction de l’humanité. Il faut une grande diversité comme nous le montre l’évolution.

Le grand avantage des nouvelles technologies est qu’ils vont permettre à l’homme d’arriver à un nouveau palier d’évolution. L’évolution se fait par palier, donnons quelques exemples : Le passage du paléolithique au néolithique était un palier fondamental ou l’homme de chasseur, de prédateur qu’il était s’est fixé et a fait l’agriculture ce qui a permis à l’humanité  de se multiplier rapidement, de s’organiser socialement et d’inventer finalement la civilisation. On connait beaucoup de paliers. Un des derniers grands paliers a été l’ère industrielle qui a débuté en Europe avec la machine à vapeur et le charbon ce qui a permis à la grande industrie de naitre et de changer complètement nos modes d’organisation.

Je pense que nous allons arriver à un autre palier qui est l’installation de l’homme dans l’espace.  Je crois que la mission profonde de l’homme est de coloniser l’espace, les planètes pour la mise en valeur maximale de cette source fabuleuse d’énergie qu’est le soleil. Pour des raisons scientifiques, que j’ai  exposées dans « Les nouvelles dimensions du futur », je crois que le phénomène de la vie intelligente est restreint à notre terre. En effet la vie est apparue grâce à un nombre de facteurs aléatoires extraordinairement complexes qui font qu’il s’en est fallu de très peu pour que la vie n’apparaisse pas. Malgré les milliards de systèmes probablement équivalents au notre dans l’univers, il faut un nombre incroyable de conditions pour l’apparition de la vie. Si par exemple la trajectoire de la terre variait de 1% en plus, la terre deviendrait brulante et l’eau s’évaporera, et si la variation est de 1% en moins elle deviendrait froide et l’eau solide. Il y a d’autres facteurs comme le niveau d’excitation du carbone dans la nucléosynthèse etc. etc….

Vous faites allusion au principe anthropique ?

MF : Exactement. Pour conclure avec cet aspect je crois que nous sommes les seuls êtres intelligents dans l’univers et que notre mission est d’abord de valoriser le système solaire pour ensuite aller au-delà. Ainsi l’espèce humaine perdurera c’est-à-dire qu’elle aura un temps de vie supérieure à celui du soleil qui est un peu plus que 5 milliards d’années.

Revenons aux trois autres domaines essentiels du 21e siècle, peut-on avoir quelques aperçus?

MF : Commençons par la fusion thermonucléaire qui est une domestication de l’énergie. Toute société humaine est basée sur trois piliers fondamentaux. Le premier est les ressources alimentaires et les matières premières. Le deuxième est les technologies qui vont exploiter ces ressources. Le troisième est l’énergie, car les technologies ne servent à rien sans énergie.  L’énergie est donc un problème critique. La plupart des civilisations disparues ont connu une crise dans un de ces trois piliers et c’était l’énergie en générale. Le problème de l’énergie pourrait être résolu d’une manière définitive et aussi longtemps que durera le soleil par la domestication de l’énergie de la fusion thermonucléaire. Des résultats fondamentaux seront probablement obtenus dans les années qui viennent.

La fusion thermonucléaire marche bien dans les étoiles, mais sur terre nous ne pouvons pas avoir un réacteur de la dimension d’une étoile! Il faut donc chercher d’autres méthodes. On sait faire la fusion d’une manière non contrôlée, c’est la bombe H. Mais le problème est de la contrôler et de la faire durer autant que nécessaire. Pour le moment on nous avons différentes méthodes  mais il faudrait démontrer la faisabilité.

Il existe deux machines dans le monde – qui semble t’il – sont sur le point de le faire. Ce sont le JET (Joint European Tor) fabriqué par la communauté Européenne et qui devrait atteindre la zone critique (la zone de démonstration de faisabilité) dès avant les années 90, et le DFTR Tokamak (Fusion Test Reactor de Princeton) qui est une machine équivalente. Il existe d’autres voies pour maitriser la fusion, en particulier le confinement inertiel par laser, mais je ne pense pas que cette voie permettra de produire de l’énergie en masse. En revanche la voie par confinement magnétique est très prometteuse et où on utilisera le deutérium qui est contenu dans l’eau abondamment. Le pouvoir énergétique du  deutérium contenu dans un litre d’eau ordinaire est équivalent à 220 litres d’essence et comme il existe 1,9 milliards de Kilomètres cube d’eau à la surface de la terre cela représentera deux milliards d’années de réserve au taux de la consommation de l’an 2000 et tout cela sans déchet radioactif, sans risque d’explosion, sans risque de prolifération militaire.

Il se trouve aussi que cette énergie est parfaitement adaptée à la conquête de l’espace et à l’installation de l’homme dans l’espace. Il existe par exemple des projets pour installer l’homme sur Mars. Mars est une planète froide sans atmosphère, on pense créer d’abord une atmosphère qui jouera l’effet de serre en piégeant  les rayons solaire et en chauffant la surface et rendre ainsi les conditions de vie acceptables. Avec l’énergie de fusion il faut dix mille ans pour faire cela, ce qui est très court par rapport à l’âge de la terre qui est 4,55 milliards d’années et où la vie est apparue il ya 3,5 milliards d’années et l’homme il y a 40 mille ans; donc 10000 ans c’est véritablement court, c’est demain!

Un autre domaine est l’installation de l’homme dans l’espace dont nous parlions. Il existe actuellement les éléments d’une plateforme d’habitation permanente qui commence à être construite par les soviétiques, c’est la station MIR qui représente déjà un ensemble de 34M. de long et qui va être complétée bientôt par d’autres éléments pour aboutir probablement à une structure géométrique assez complexe. Quant aux américains, quand ils auront terminé avec le problème de leur lanceur, ils vont commencer à construire leur propre station. Elle sera la station orbitale américaine avec la partie européenne COLOMBOS et les européens parlent de faire leur propre station.

Vraisemblablement, l’homme va s’installer dans l’espace pour trois raisons.  La première est, bien sûr, militaire; la deuxième pour des raisons scientifiques : observer l’univers et la terre, les télécommunications  ainsi que de nombreuses autres applications militaires en grande partie. La troisième est industrielle. Il est clair que dans l’espace, en l’absence de la gravité, on peut faire des matériaux et nombre d’autres choses qu’il est impossible de réaliser sur terre. Par exemple on ne peut mélanger, sur terre, du tungstène avec de l’aluminium tandis que dans l’espace c’est faisable. Ce qui permettra de construire des réfracteurs ultralégers et révolutionnera par ex. les  moteurs des voitures, des fusées etc. On peut faire monocristaux, des nouveaux médicaments etc. etc.

Ces trois axes vont se développer d’ici jusqu’à la fin du siècle. Et on pense qu’au début du prochain siècle on construira des grandes   plateformes, des grandes stations spatiales qui seront probablement sphériques et où vivra un millier de personnes; et parallèlement une base lunaire sera installée comme le précise le projet de la NASA. On espère aussi voir des explorations américano-soviétiques conjointes de la planète Mars  et d’autres planètes et des projets d’exploitation de bases sur mars et d’autres verront certainement le jour avant le milieu du prochain siècle.

L’homme va s’installer aussi en mer. Il va commencer par exploiter la surface et puis il va s’installer au dessous. C’est la fusion qui le permettra. Grâce au deutérium de l’eau, on aura de l’énergie à bon marché. La mer va devenir une source de production très importante.

Enfin la dernière grande technologie est bien sûr les biotechnologies; c’est-à-dire  les manipulations génétiques. La possibilité pour l’homme d’aller modifier l’ADN qui est le patrimoine génétique des êtres vivants et ainsi créer de nouvelles espèces et modifier d’autres.

Ce qui nous ramène à la question déjà posée en IA, pourrai t’on égaler ou dépasser l’homme?

C’est le même problème. On pourra surement créer des hommes qui auront des jambes plus courtes, une plus grosse tête etc. Ce qui est une chose à éviter! Mais enfin, on pourra toujours imaginer quelqu’un qui voudra créer des singes supérieurs ou des hommes inférieurs etc. Il faut absolument une supervision technologique généralisée donc un control mondial. Je pense que les manipulations génétiques doivent servir essentiellement à améliorer un certain nombre de races végétales et animales et nous permettre d’avoir plus de nourriture et de vivre peut être autrement tout en tenant compte de la biosphère, c’est-à-dire que l’ensemble du milieu biologique doit rester en équilibre sans que l’on supprime une partie au détriment de tout le reste. Il est vrai qu’on peut concevoir d’autres équilibres que l’actuel. Mais tout équilibre doit préserver les principales fonctions.

Mais ici aussi on ne connait pas le lien qui existe entre l’ADN et le cerveau. L’ADN est une structure relativement simple en comparaison avec l’organisation extraordinairement complexe du cerveau. Il est très vraisemblable que tout n’est pas programmé et déterminé dans l’ADN. Il reste le problème culturel, le problème d’environnement etc. Les circuits neuraux sont câblés dans les  dix premières années selon des plans qui ne paraissent pas être complètement programmés dans l’ADN. Donc il y a un libre arbitre et le problème ne changera pas avec les manipulations génétiques. La nature a été prudente et le cerveau se trouve à un étage au-dessus de l’ADN. L’ADN contient potentiellement la qualité des neurones comme les circuits de base mais ne contient pas toute la circuiterie comme le néocortex. Il n’est pas évident qu’on puisse agir sur l’intelligence humaine en manipulant l’ADN. Ce n’est pas encre démontré. On ne sait pas encore comment passe l’information entre les deux.

Mais indépendamment de ce problème on pourra certainement créer des races nouvelles plus ou moins performantes et recréer des races disparues. Mais cela représente un nombre énorme de danger. Aujourd’hui notre système politique est en crise et l’organisation mondiale est au bout de ses possibilités. Avec l’énergie abondante et à bon marché de la fusion thermonucléaire, avec les ressources illimitées de l’espace, avec les potentialités  de l’intelligence artificielle et de l’électronique de la complexité, avec les possibilités apportées par les biotechnologies, notre organisation mondiale est complètement remise en cause.  Les états devraient se restructurer autrement.

Ce qu’il faudrait c’est que des politiques, des philosophes, des scientifiques, des religieux et d’autres commencent à poser ces questions et à les discuter ensemble. Je ne sais pas ce que sera l’avenir. Mais si le mot maitre tolérance ou acceptation des autres ne devient pas directeur du 21e siècle nous risquons d’aboutir à des problèmes insurmontables.

A mon avis les hommes sont tous égaux et je ne pense pas qu’une doctrine philosophique ou religieuse soit préférable à une autre. Je crois au contraire qu’il nous en faut beaucoup. Une des conditions essentielles à l’harmonie du monde de demain est l’existence de plusieurs tendances et non pas que tout le monde devienne catholique ou musulman etc. Ce n’est pas possible. Il faut accepter la diversité avec une philosophie qui la couvre et qui a pour finalité l’homme. L’homme doit être préservé. Il faut qu’il puisse se développer au-delà des idéologies, des clivages politiques et économiques. On ne peut pas admettre qu’il y ait des riches et d’autres très pauvres. Mais les problèmes sont difficiles à résoudre car les pays industrialisés n’ont pas à imposer leur mode de vie aux autres pays. Pourquoi va t’en imposer à un africain le mode de vie européen? Et il n’y a pas de raison pour faire le contraire. Il faut préserver la diversité par la tolérance car personne ne détient la vérité car le cerveau ne peu comprendre le cerveau!

D’ailleurs le mot vérité qu’est ce que ça signifie?

Quelques livres de Marceau Felden

– Aux frontières de l’univers : Du Big Bang au Quark  2005.

– La Physique et l’énigme du réel  1998.

– Le modèle géométrique de la physique: L’espace et le problème de l’interprétation en  relativité et en physique quantique  1997.

– La démocratie au XXIe siècle  1996.

– La guerre dans l’espace  1995.

– Et si l’homme était seul dans l’univers? 1994.

– Le songe de Minerve 1987.

– 21e siècle: Les nouvelles dimensions du futur 1981.

– Énergie, le défi nucléaire (Collection Connaître et comprendre) 1976.