Accueil > 02 - SCIENCES - SCIENCE > Biologie : Rétroaction de la vie et de la mort > Qu’est-ce que la vie ? Un processus d’auto-organisation de la matière

Qu’est-ce que la vie ? Un processus d’auto-organisation de la matière

samedi 22 septembre 2012, par Robert Paris

Qu’est-ce que la vie ? Un processus d’auto-organisation de la matière

Nous essayons de répondre à la question « qu’est-ce que la vie » que posait dans l’ouvrage fameux du même nom le physicien quantique Schrödinger. Cet article repose sur un ouvrage collectif intitulé « Auto-organisation et émergence dans les sciences de la vie ». Les auteurs sont notamment le physicien Gérard Weisbuch, le spécialiste en neurosciences cognitives Francisco Varela, le biologiste Henri Atlan, le neurophysiologue Marc Crommelinck, le spécialiste de biologie cellulaire Irun Cohen, le spécialiste en réseaux neuronaux Philippe Lefevre, le spécialiste de la vie artificielle Jean-Claude Heudin, le généticien des processus de feedback René Thomas et bien d’autres scientifiques et spécialistes de la philosophie des sciences comme les organisateurs du recueil qui sont des spécialistes en philosophie, de l’Université catholique de Louvain et de la faculté Notre Dame de la Paix de Namur, en Belgique. Je ne citerai pas tous ces auteurs car il sont 27 !

En guise de présentation de l’ouvrage, les directeurs de l’ouvrage Bernard Feltz, Marc Crommelinck et Philippe Goujon affirment : « Le concept d’émergence renvoie à l’apparition de propriétés nouvelles liées à la complexité d’une organisation. L’ordre à partir du chaos mis en évidence par les modèles auto-organisationnels est souvent interprété en termes d’émergence, de surgissement d’un niveau d’organisation supérieur. »

Je voudrais rappeler d’abord que la notion d’auto-organisation a été employée dans le domaine du vivant pour plusieurs raisons. Et d’abord pour compléter nos conceptions concernant la composition biochimique des molécules de la vie. On s’est en effet aperçu que cette composition ne suffisait pas à comprendre le vivant et les différences entre différents êtres vivants. Citons par exemple François Jacob qui déclarait ainsi lors du premier exposé de l’Université de tous les savoirs, le 1er janvier 2000 : « On a longtemps pensé que les molécules de différents organismes étaient entièrement différentes. Et même que c’était la nature de leurs molécules qui donnait aux organismes leurs propriétés et particularités. En d’autres termes, que les chèvres avaient des molécules de chèvres et les escargots des molécules d’escargot. Que c’étaient le molécules de chèvre qui donnaient à la chèvre ses particularités. (..) Ce qui distingue un papillon d’un lion ou une poule d’une mouche, c’est moins une différence dans les constituants chimiques que dans l’organisation et la distribution de ces constituants. Par exemple, ce qui rend un vertébré différent d’un autre c’est plus un changement dans le temps d’expression et dans les quantités relatives des produits des gènes au cours du développement de l’embryon que les petites différences observées dans la structure de ces produits. (..) Chez la mouche, qui jouit d’un long passé génétique, ont été mi en évidence les gènes qui assurent, dans l’œuf, la mise en place des axes du futur embryon, puis ceux qui découpent le corps de l’embryon en segments puis ceux qui déterminent le destin et la forme de chacun de ces segments. A la stupéfaction générale, ces mêmes gènes ont été retrouvés chez tous les animaux examinés : coup sur coup grenouille, ver, souris et homme. Qui eut dit, il y a encore quinze ans, que les gènes qui mettent en place le plan d’un être humain sont les mêmes que ceux qui fonctionnent chez une mouche ou un ver ? »

Walter Gehring faisait l’expérience (exposée dans « La drosophile aux yeux rouges ») : inoculer un gène maître d’œil de souris à une mouche drosophile. Le résultat était la production d’un œil de drosophile. Cela prouvait que le matériel génétique d’un mammifère fonctionne sur une mouche !

Et Jacob donne le fond de l’explication : ne plus considérer chaque gène comme un individu mais comme un élément d’une structure globale des gènes et des protéines.

Je le cite encore : « On voit les changements apportés dans la manière de considérer l’évolution biochimique. Tant que chaque gène, donc chaque protéine, était regardé comme un objet unique, résultat d’une séquence unique de nucléotides ou d’acides aminés, chacun d’eux ne pouvait se former que par une création nouvelle, de toute évidence hautement improbable. »

L’auto-organisation vise d’autre part à compléter les notions darwiniennes d’évolution. En effet, si la sélection est reconnue par tous, elle ne sert qu’à supprimer des organismes nouveaux mais pas à produire de la nouveauté. Les néo-darwiniens ont attribué ce rôle aux mutations. Cette conception a changé. Là encore je cite Jacob dans son exposé pour l’Université de tous les savoirs : « L’évolution biochimique ne repose que secondairement sur des mutations comme on l’avait longtemps cru. » Elle est essentiellement le produit d’une réorganisation : « Elle est due avant tout à la duplication de segments d’ADN et à leur réassortiment. »

On parvient ainsi à deux notions : d’une part celle de bricolage de l’évolution et, d’autre part, celle de structure des interaction des gènes. C’est cette structure qui se modifie lors de l’évolution des espèces.

Dupuy écrivait ainsi dans « ordre et désordre » :

« En biologie, certains persistent à parler de programme génétique comme si l’ontogénèse n’était que le déroulement d’un programme ’’écrit d’avance’’. (..) Le concept d’auto-organisation permet de sortir de l’opposition déterminisme causal / autonomie créatrice. Si un système auto-organisateur est capable d’engendrer du nouveau, c’est parce qu’il a la capacité de s’adapter aux événements aléatoires qui l’agressent, de les assimiler en modifiant sa structure. Mais l’aléatoire, ici, n’est que l’autre nom que l’on donne au nouveau. Car le nouveau est, par définition, ce qui est étranger à la structure réceptrice et qui, par rapport à l’ordre qu’elle représente, constitue le désordre. (..) Mais, pour cela il faut que le système soit prêt, que sa structure ait les conditions requises. Une condition nécessaire est une certaine dose d’autodétermination. »

Le sujet de cet article pourrait s’appeler : les diverses sortes d’auto. Bien sûr, cela ne signifie pas que je vais vous entretenir sur les véhicules mais sur l’une des grandes familles de conception du vivant fondée sur l’idée que la vie est le produit d’une auto-organisation de la matière. L’auto-organisation est une réponse à la question : comment se fait-il que la matière vivante soit capable d’augmenter le nombre de ses niveaux d’organisation hiérarchiques spontanément ?
Je rappelle que dans la thèse dite « auto » les propriétés du vivant qui sont soulignées débutent par le suffixe auto comme autonomie, auto-organisation, auto-évolution (ou variation), auto-reconnaissance (encore appelée immunologie), auto-structuration (appelée encore émergence), autopoïese (auto-création, c’est-à-dire capacité de constituer une unité fondée sur une séparation du milieu ainsi que la relation avec le milieu et de les reproduire), auto-réaction c’est-à-dire auto-accélération et auto-inhibition (autrement appelée boucle de rétroaction) et auto-régulation (ou homéostasie) ainsi qu’auto-reproduction (ou génétique). Il s’agit bien d’une même famille de conception de la vie : celle que j’appellerai par l’abréviation auto.

Rappelons que, sur cette question, il y a actuellement trois grandes familles de conceptions qui sont les thèses réductionnistes, les thèses vitalistes et les thèses auto.

La question posée est : comment se fait-il que la matière vivante possède ses propriétés dynamiques que l’on ne trouve pas dans la matière inerte ? Il y a trois types de réponses. La thèse vitaliste suppose l’existence d’une force ou d’une énergie vitale apportant à la matière inerte des propriétés qu’elle ne possédait pas. La thèse réductionniste suppose au contraire que la matière inerte possède toutes les propriétés nécessaires pour produire le vivant. Elle étudie ainsi les propriétés des molécules comme l’ADN pour expliquer la cellule vivante et les propriétés de la cellule pour expliquer l’organisme. Elle réduit le vivant aux propriétés de ses éléments, par exemple le cerveau est réduit aux neurones et aux connections neuronales. La thèse réductionniste est le projet, jamais réalisé, de réduire la physique aux particules, la biologie à la physique, l’homme à la biologie et la pensée à l’homme physique. Contrairement aux thèses vitalistes et réductionnistes, la thèse auto ne considère pas que le matériau biochimique suffise à expliquer le vivant, pas plus que le vivant suffirait à expliquer l’homme, ni que l’homme physique suffirait à expliquer l’homme pensant. Cependant, contrairement aux vitalistes elle ne suppose pas de propriété venue de l’extérieur. La thèse auto suppose que chaque niveau a produit, de façon autonome, c’est-à-dire sans action externe, le niveau supérieur. Les particules ont produit la matière. La matière inerte a produit le niveau du vivant. Le vivant a produit le niveau de structure de l’homme. Et l’homme la pensée.

Cette structure n’est pas déjà présente au niveau inférieur ni dans ses propriétés comme le pensent les réductionnistes. Elle n’est pas non plus venue de l’extérieur comme les vitalistes l’affirment.
Ce n’est pas seulement la question du caractère exogène ou endogène du vivant qui est posée. C’est carrément trois philosophies différentes et divergentes qui soutendent les trois thèses. Les réductionnistes sont des matérialistes dits mécanistes. Les vitalistes sont des dualistes puisqu’il supposent deux domaines indépendants, l’inerte et le vivant, le corps et l’esprit. Les adeptes de la thèse « auto » sont des émergentistes. Cela signifie qu’ils reconnaissent que la vie appartient à un niveau de structure plus élevé que la matière inerte mais ils considèrent que ce niveau supérieur peut être spontanément produit par la dynamique des niveaux inférieurs. C’est ce que l’on appelle l’émergence de structure.

De ces trois familles de conception, la seule que j’expose est celle, longuement discutée parmi nous et celle de Lambert, c’est-à-dire la thèse « auto » qui est développée dans l’ouvrage collectif déjà cité. Il s’agira de textes de Dominique Lambert, spécialiste en philosophie des sciences de l’université Notre Dame de la Paix de Namur en Belgique.

A l’origine de la thèse auto, il y a des scientifiques de deux domaines : d’une part la cybernétique, avec les automates cellulaires et la vie artificielle et d’autre part de l’auto-organisation en physique et en biologie, avec les transitions de phase de la matière et les ruptures de symétrie. Comme vous pouviez vous en douter, je parlerai là de chaos déterministe ! Et je vais essayer de ne pas vous donner le vertige en passant de la cybernétique à la physique, des mathématiques des systèmes complexes aux boucles de rétroaction en génétique, puis de l’immunologie aux neurosciences. De quoi donner le tournis.


Le plan de l’exposé :

1°) la cybernétique et l’émergence

2°) la physique, les ruptures de symétrie et les transitions de phase

3°) les modèles mathématiques des systèmes complexes

4°) les boucles de rétroaction en génétique

5°) auto-organisation en immunologie

6°) émergence en neurosciences et fonctions cognitives

7°) conclusions sur les propriétés caractéristiques du vivant

CYBERNETIQUE

Commençons par la cybernétique. Cette science de l’information des systèmes logiques a eu de grands succès puisqu’elle a mené à la fois à l’informatique, aux robots, aux réseaux neuronaux et aux systèmes auto-régulateurs. Les thèses de l’auto-organisation et de l’émergence sont la dernière variante de cette famille d’études débutée par Turing, Von Neuman et Foerster.

C’est entre 1960 et 1962 que des chercheurs Von Foerster, Varela et Maturana ont organisé des symposiums dont les thèmes étaient la causalité circulaire, le rôle organisateur du hasard et les systèmes auto-organisateurs. Les préoccupations de leur recherche étaient un anti-réductionnisme et, en même temps, une méthode dans laquelle l’organisation n’est pas donnée d’avance mais construite par la dynamique. Ces thèses ont connu de multiples étapes, passant du cerveau-machine logique de l’Intelligence Artificielle à l’étude des homéostasies et à la phase connexioniste avec les spécialistes en réseaux neuronaux et les physiciens spécialistes des verres de spin, pour finir par les réseaux neuronaux. Une des étapes fondamentales qui a mené à ces notions est ce que l’on a appelé « la vie artificielle » c’est-à-dire la découverte de systèmes informatiques dans lesquels une loi simple produit par elle-même des structures nouvelles, plus complexes, avec de nouvelles lois qui n’existaient pas, même à l’état de traces au sein du système de base. Le plus connu de ces produits des logiques informatiques s’appelle « le jeu de la vie » conçu en 1970 par Conway, un jeune mathématicien de l’université de Cambridge rendu célèbre par les articles de Martin Gardner. A la base, il y a un simple jeu sur ordinateur opérant avec des règles très élémentaires. Conway a conçu un automate cellulaire à deux dimensions où chaque case a deux possibilités : être vivante ou morte, case noire ou blanche. L’état de la cellule change à chaque pas du temps appelé une génération. A partir de là, il y a une règle très simple : une cellule est vivante (la case est alors noire) à la génération suivante si elle est entourée de trois cellules voisines vivantes. Une cellule reste comme elle était si elle est voisine de deux cellules vivantes. Une cellule est morte à la génération suivante dans tous les autres cas. A partir de ces règles simples, on constate qu’un groupement complexe de cinq cellules vivantes va être produit par la dynamique et se déplacer dans le jeu en restant globalement stable. On l’appelle le planeur. C’est une structure émergente.

C’est Christopher Langton du département de psychologie de l’hôpital Massachusetts de Boston qui inventa ce que l’on appela « la vie artificielle » en 1971. Il fondait son modèle sur deux idées :
1°) la vie est une propriété d’organisation de la matière et non une propriété du matériel biochimique lui-même.

2°) les propriétés complexes résultent d’interactions non-linéaires entre éléments obéissant à des propriétés simples.
A partir de là, il y a eu plusieurs versions, donnant plus ou moins d’importance au facteur organisation et plus ou moins au facteur base matérielle.

C’est à partir d’un automate cellulaire que Francisco Varela a simulé en 1982 un système capable de produire par lui-même une structure avec autopoïese. Dans cette simulation, l’automate cellulaire agit sous la stimulation d’un catalyseur et va constituer spontanément une enveloppe qui sépare l’intérieur et l’extérieur et ensuite reproduire cette structure.

D’autres modèles ont été proposés après les automates cellulaires de Langton ou Von Neumann. C’est l’embryologie artificielle de Dawkins, l’algorithme génétique de John Holland qui a synthétisé artificiellement des programmes évolutifs permettant mutation et croisement. Ce sont également les réseaux automatiques de Eigen et Kauffman qui imagent la vie prébiotique. Ils sont fondés sur des chaînes de réactions autocatalytiques. Enfin citons les modèles de Jean Claude Heudin, l’un des auteurs de l’ouvrage collectif, qui a étudié des modèles de comportement collectifs et qui a abouti à un nouveau domaine appelé la réalité virtuelle.

Examinons maintenant le rapport entre la notion de vie artificielle et celle d’émergence. Je donne la parole à Jean Claude Heudin : « Lors des congrès sur la Vie Artificielle, le concept clé a été celui d’émergence. De fait la Vie artificielle peut être considérée comme le domaine qui étudie les phénomènes émergents. Une propriété émergente est une structure ou un comportement global qui se forme spontanément lors des interactions d’une collection d’éléments, sans aucun contrôleur global responsable des comportements ou de l’organisation de ces éléments. L’idée de l’émergence est que la propriété nouvelle n’est pas réductible aux propriétés des éléments. Autrement dit : le tout vaut plus que la somme de ses parties. Cette approche a prouvé son efficacité en physique. »

C’est ce que nous allons voir maintenant avec le physicien Gérard Weisbuch qui aborde dans notre ouvrage collectif l’apport en sciences physique de la question de l’auto-organisation avec celle des systèmes complexes adaptés. Il s’agit de montrer qu’un ensemble d’automates logiques mathématiques va interagir de manière à constituer un ordre global. La première modélisation de ce type a été réalisée par Stuart Kauffman et ces modèles sont exposés ici par Weisbuch. Il constate que ces processus font partie d’un ensemble de fonctionnement que l’on retrouve en physique sous le nom de transitions de phase.

Plus loin, j’exposerai la thèse de Philippe Meire, spécialiste en psychologie clinique, qui montre que l’auto-organisation et l’émergence sont le produit de ce que l’on appelle en physique des ruptures de symétries. Pour sa part, il va étudier des ruptures de symétries dans les états mentaux. Mais, pour les transitions de phase comme pour les ruptures de symétrie nous allons d’abord examiner comment elles ont été introduites en physique avant d’être conçues pour le vivant et pour les états mentaux.

PHYSIQUE

Dans ces deux cas, il s’agit d’un changement brutal du système et de ses lois. La nature progresse en effet par sauts et même par crises, passant d’un état à l’autre. C’est bien connu depuis l’étude des états matériels, liquides et gazeux. Ce sont les transitions de phase qui ont été étudiées dans la matière inerte mais ce ne sont pas les seules. On a constaté de nombreux sauts de niveau de structure au sein de la matière qui est sujette à des transformations par crises brutales et violentes. Ce qui étonne, c’est que chaque saut mène à un nouvel équilibre. Le désordre mène à un nouvel ordre. Examinons la fusion qui donne les différents atomes. Chaque augmentation d’un unité du nombre de nucléons (protons et neutrons) dans le noyau de l’atome est un saut qualitatif, acquis grâce à un choc énergétique.

Historiquement, les divers sauts qualitatifs qui ont donné les éléments de plus en plus lourds sont le produit de diverses transformations brutales, des explosions nucléaires aux explosions des supernovae. Songeons à la transformation d’une grosse planète en étoile, d’une grosse étoile en amas d’étoiles ou en supernovae, on assiste à chaque fois à une explosion extraordinaire. Eh bien, le simple saut quantique de l’électron d’un état dans un autre n’est pas moins brutal (absorption ou émission brutale et imprévisible d’un photon). Le passage d’une phase de réchauffement à une phase de glaciation est très court au regard des périodes stables qui le précédent et qui le suivent. C’est un changement brutal. Aussi brutal que la durée de passage d’un liquide à un gaz : l’ébullition. C’est fait presque instantané, imperceptible par rapport aux échelle de la dynamique dans laquelle il se produit : un événement de l’histoire. On pense encore à la microphysique qui multiplie les exemples de sauts : saut quantique d’un électron dans l’atome, émission ou absorption brutale d’un photon par un électron, transformation brutale en rayonnement d’une paire électron/positron qui explose, décomposition de toutes les particules instables de l’atome excité à l’atome radioactif ou du neutron au neutrino. Tous ces cas très divers ont des points communs. Et d’abord le saut a lieu à un seuil bien précis, comme en témoigne l’exemple bien connu de l’eau qui bout à 100 degrés à la pression atmosphérique. Il y a un seuil précis pour que électron et positron (ou tout autre couple de particule et d’antiparticule) se rencontrent et s’annihilent en se transformant en énergie. C’est à un seuil que la matière change de phase. Une notion fondamentale dans l’étude de la nature est celle des transitions de phase, c’est-à-dire des sauts qualitatifs entre des états structurellement différents et pas seulement quantitativement différents. C’est un changement brutal, qualitatif et qui signifie que les lois elles-mêmes sont bouleversées. Par exemple, une diminution continue de la température entraîne un changement discontinu. L’eau gèle à 0°. Les lois des solides ne sont pas celles des liquides. Quelque chose qui jusque là se maintenait n’est brutalement plus conservé. Pour l’eau qui glace, il s’agit du nombre de degrés de liberté. Cela peut être le nombre de particules qui change, la masse qui change, le moment cinétique qui change, l’énergie qui change. Au sein d’un même domaine ces quantités se conservent mais ce n’est pas le cas dans une transition de phase qui est une espèce de révolution au sein de la matière. C’est donc un phénomène catastrophique mais qui n’a rien de surnaturel, qui est reproductible par expérience, naturel et spontané. La catastrophe en question fait partie des lois du réel au même titre que la phase apparemment stable précédente. C’est nous qui l’avions exclus du rang des phénomènes naturels par un a-priori social opposé à la notion de changement brutal et de révolution, comme le relevait précédemment Gould.

Venons en à la rupture de symétrie

Les sciences ont d’abord fondé leurs lois sur des conservations (masse, charge, énergie, moment cinétique, électrique ou magnétique par exemple). Gravitation comme quantique sont fondées sur des lois de conservation. Elles sont liées à des symétries. Par exemple, la conservation de la charge électrique est liée à la symétrie entre charge positive et négative.

Ces lois supposent que l’état symétrique soit celui vers lequel tend tout système car il est le plus stable. Cette condition est loin d’être évidente : la position d’une boule sur une pointe est symétrique mais instable. Et d’autre part, ces lois de conservation ne permettent de décrire aucun saut qualitatif et aucune interaction entre des singularités et aucun changement d’échelle du phénomène. « Les lois de symétrie ne peuvent régner que sur des systèmes physiques dans lesquels les lois de conservation sont déjà instaurées. Elles ne règnent que sur un monde immobile, sans passé et sans avenir, où l’évolution n’a pas droit de cité et où le temps ne s’écoule pas .(..) Les théories relativistes et quantiques ne peuvent décrire qu’une certaine stationnarité, mais non la manière dont elle s’installe. C’est pourquoi la symétrie y joue un grand rôle ; elles ne décrivent qu’un monde figé dans une sorte d’éternité, où tout est déjà arrivé » disait Georges Lochak dans « la géométrisation de la physique ».En effet, dans tous ces cas il n’y a pas conservation mais, au contraire, violation de la loi de conservation. De tels changements sont appelés des ruptures de symétrie parce que l’état symétrique précédent est rompu. Ce qui étonne dans ce phénomène, c’est que la rupture de symétrie est spontanée. Elle n’est pas le produit d’une action extérieure.

On appelle symétrique un système qui est le même dans une direction et dans la direction opposée, qui est identique à son image reflétée dans un miroir, ou encore en effectuant une rotation dans un sens et dans le sens inverse. On rompt une symétrie à chaque fois que les phénomènes permettent de distinguer une direction de la direction opposée. Cela entraîne l’apparition d’un nouveau paramètre. Cette rupture de symétrie signifie la formation d’un nouveau système, obéissant à des nouvelles lois.

Une des ruptures de symétries fondamentales est celle entre le passé et le futur, celle qui rend l’évolution irréversible et qui fixe un sens d’écoulement du temps. Là encore, on ne trouve pas cette rupture de symétrie dans les lois de conservation.

La symétrie n’opère qu’au sein d’un système sans changements radicaux et elle n’est pas capable de décrire un système sujet à de tels sauts. Du coup, elle décrit l’état de conservation du système mais pas sa mise en place. Dans un système qui ne connaîtrait que la conservation, il serait impossible qu’apparaisse des particules, que la lumière se libère et que l’univers lui soit transparent. C’est la rupture de symétrie qui permet des changements qualitatifs.

Par exemple, de nombreuses interactions violent la symétrie entre passé et futur qui existe dans les lois physiques, tant gravitationnelle que quantique. Les créations/annihilation de matière dans le vide violent la conservation de la quantité de matière. Les fluctuations d’énergie du vide violent la conservation de l’énergie. Notre univers, constitué de matière, rompt la symétrie entre matière et antimatière. La séparation entre matière et lumière rompt la symétrie des cordes. La vie rompt la symétrie de rotation entre les molécules. Celles de la biologie tournent toutes dans le même sens, ce qui a amené Pasteur à déclarer : « la dissymétrie, c’est la vie. »

C’est ce paradigme de la rupture de symétrie qui va nous permettre de comprendre l’apparition de phénomènes nouveaux : la matière, la vie, l’homme ou encore le passage d’un niveau d’organisation à un autre. En ce sens, c’est la rupture spontanée de symétrie que nous allons considérer ici comme le fondateur de toute nouveauté dans un système qui, apparemment, n’en contenait pas la possibilité. Ainsi l’apparition de la vie est une rupture de symétrie dans le sens de rotation des molécules. libération de la lumière est une rupture de symétrie des cordes. L’apparition de la glace au sein de l’eau est également une rupture de symétrie. Les exemples dans lesquels l’unité de l’univers comme symétrie entre des interactions contradictoires sont légion. L’unité ne supprime pas la contradiction mais constitue un ensemble dans laquelle elle est voilée. Ainsi est voilée la contradiction entre lumière et matière au sein d’une étoile, entre électricité négative et positive au sein d’un atome.

L’apparition de la matière est une rupture de symétrie entre matière et anti-matière. La Le vide contient autant de matière que d’anti-matière et il est pourtant à l’origine d’un univers matériel. Les molécules de la vie sont toutes tournées dans un seul sens et pourtant ces molécules existent à l’état naturel autant dans un sens que dans l’autre. Un sens particulier est donc apparu au sein d’un ensemble qui n’en privilégiait aucun.

Pour illustrer cette notion de rupture de symétrie, partons d’un exemple simple et bien connu. Sur terre, la chute d’un corps permet de reconnaître le haut du bas mais pas le sens de rotation. Il y a une différence entre l’action de monter ou de descendre un poids mais il n’y a pas de différence entre le fait de le tourner dans le sens des aiguilles d’une montre ou dans le sens inverse. Et, pour un seul objet, il n’y a pas de rotation spontanée. Quand on translate un objet sans le faire tourner, il ne tourne pas de lui-même. On pourrait donc croire que dans les objets matériels, il ne peut y avoir apparition d’une rotation dans un système qui n’en possédait pas. Par contre, dans un système dynamique d’un grand nombre d’objets, cette rupture de symétrie est classique. Donnons en un exemple tiré de la vie courante. Il suffit en effet de faire tomber de l’eau dans un entonnoir pour constater que la chute va produire une rotation : c’est le phénomène bien connu des tourbillons dans les baignoires. Le phénomène est simple et général : quand un liquide ou un gaz se contracte, il tourne. C’est le cas de l’eau dans le tuyau et aux abords du trou. C’est aussi l’origine de la rotation du système solaire formé à partir de la chute des matériaux d’un immense nuage de gaz et de poussières. On retrouve en effet cette propriété d’un gaz en contraction dans une galaxie en formation. Elle se contracte par gravitation et se met à tourner. Mais dans quel sens va-t-elle tourner ? Rien ne permet de le dire. Cette rotation est une rupture de symétrie. Il y avait symétrie entre les deux sens possibles de rotation autour de l’axe du tuyau de la baignoire et elle n’existe plus. La symétrie est rompue. La symétrie entre les deux sens possibles de rotation est une instabilité. Une boule placée sur une pointe est en équilibre instable et peut rouler indifféremment de l’un ou de l’autre côté. La rupture de symétrie est donc un mouvement d’un univers instable vers un univers un peu plus stable. Il est plus stable parce que l’un des côtés de la boule a été choisi. Si l’image de la boule sur une pointe peut sembler banale, l’idée est fondamentale et porteuse de nombreux renseignements. Elle explique que la nature peut produire spontanément des structures globalement stables, augmenter l’ordre et la complexité, alors qu’une loi de la thermodynamique (appelée « augmentation spontanée de l’entropie ») semblait dire exactement le contraire. Le passage d’un ordre à un autre est appelé une « transition de phase ». Pendant de longues années, on n’a connu que des transitions de phase très élémentaires comme le passage de l’eau d’un état solide (glace ou neige) à l’état liquide puis gazeux.

L’histoire du cosmos présente de multiples transitions de phase dans lesquelles la rupture de symétrie fait passer du continu au discontinu, ou de l’ordre au désordre, et inversement. L’évolution continue de la température ou de la pression ou encore de la concentration de tel produit provoque, au passage d’un seuil, un changement qualitatif. L’expansion du vide entraîne un refroidissement (baisse de l’énergie par unité de volume) et des transformations qualitatives à certains seuils de température et de pression de l’énergie : formation des quarks, des protons et des électrons, nucléosynthèse, premiers atomes (hydrogène et hélium), découplage de la matière et du rayonnement, formation des galaxies et des étoiles, formation des atomes lourds.

L’histoire de l’univers est celui d’une baisse continue de température qui produit la formation des diverses structures de la matière et du rayonnement, lors de sauts brutaux, à des seuils fixes : libération du rayonnement, formation des particules, formation des atomes, des molécules, des solides, des étoiles, des supernovae, constitution des atomes lourds. Il y a des effets de seuil. Par exemple, à douze millions de degrés, une masse de matière en contraction enclenche la formation d’une étoile (un soleil), les explosions nucléaires commençant au centre. Au seuil de cent fois la masse solaire, un soleil explose donnant un amas d’étoiles, etc...

Désordre (chaleur et agitation) et ordre (construction et stabilisation de structure) loin de s’opposer se compensent et s’unissent dans le fonctionnement de l’univers (matière/rayonnement). La formation de l’univers est une rupture de symétrie entre le vide et la matière, entre lumière et matière, entre énergie et temps. Le passage d’un état de la matière à un autre est une véritable révolution puisque le nouvel état n’obéit pas aux même lois, possède de nouvelles structures qui n’étaient même pas en germe dans l’état précédent. C’est ce que l’on appelle « l’ordre émergent ». Il ne fait appel à aucune création irrationnelle et pourtant il correspond à l’apparition d’une nouveauté surprenante et, parfois, inattendue.

Je conclurai ce paragraphe sur les applications au vivant de ces notions de transition de phase et de rupture de symétrie.
Ecoutons d’abord Gérard Weisbuch : « Une vaste classe de systèmes physiques, connus sous le nom de systèmes multi-phasiques, sont des systèmes désordonnés au niveau macroscopique, mais quelques uns sont également désordonnés au niveau microscopique. Les verres, par exemple, diffèrent des cristaux en ce que les liaisons interatomiques dans le verre ne sont pas distribuées selon les symétries que l’on observe dans les cristaux. En dépit de ce désordre, les propriétés physiques macroscopiques d’un verre de composition donnée seront généralement identiques pour différents échantillons. (..) Les modèles simples utilisés sont basés sur des réseaux aux nœuds desquels sont placés par exemple des composants conducteurs et isolants. (..) Ces exemples simples illustrent l’approche choisie par un certain nombre de biologistes théoriciens. (..) Cette approche de la biologie est dynamique. Nous partons d’une description locale des changements d’état et nous espérons obtenir une description globale du système, c’est-à-dire le comportement à long terme du système en tant qu’entité. (..) En procédant ainsi avec des automates logiques, on obtient des transitions de phase comme l’a montré Stuart Kauffman en traitant de la différenciation cellulaire avec des automates booléens aléatoires. »

Ecoutons maintenant Philippe Meire pour une autre analogie avec la physique, concernant cette fois les ruptures de symétrie qui déclare, citant d’abord André Pichot : « L’existence du vivant requiert non seulement la cohérence interne mais aussi la cohérence externe, c’est-à-dire un déterminisme circulaire avec son milieu extérieur. (..) Le déterminisme circulaire – la cohérence interne – n’est jamais réalisé de manière synchrone, en raison du temps nécessaire pour réaliser les différentes réactions. L’équilibre est donc un attracteur inaccessible. (..) Chez les être vivants, il n’y a que des équilibres locaux, partiels et transitoires. (..) La vie apparaît ainsi comme une histoire (..) mais cette histoire ne peut se réaliser qu’à travers une interaction constante avec le milieu Pour Pichot, l’individu biologique émerge d’une scission entre deux pôles (le pôle subjectif et le milieu) pôles qui sont à la fois reliés et distincts. (..) C’est l’émergence progressive de la subjectivité au sein de la matière. » Meire explique ainsi préférer imager le vivant et l’expérience individuelle comme une rupture de symétrie plutôt que comme une dualité. Et cela nous amène à notre partie mathématique et le sujet est la modélisation mathématique de l’émergence de structures complexes par des systèmes dynamiques


MATHEMATIQUES

Je vais maintenant donner la parole à un autre intervenant de cet ouvrage collectif, Dominique Lambert : « La notion d’organisation est liée à celle d’ordre. L’ordre peut être traduit mathématiquement par la notion de symétrie. L’étymologie de ce terme évoque d’ailleurs la propriété caractéristique de deux grandeurs qui ont entre elles une mesure commune. (..) D’une manière générale, nous dirons qu’un ensemble est organisé ou est doué d’un ordre s’il peut être muni d’une symétrie, c’est-à-dire si l’on peut définir sur lui des opérations douées d’invariants caractéristiques. (..)Le concept d’auto-organisation indique la capacité d’un système de produire de lui-même, de manière purement autonome, un ordre particulier. L’idée sous-jacente à ce concept est une sorte de réaction contre un finalisme ou contre un vitalisme qui supposerait que l’ordre vital est imposé par une cause extrinsèque. (..) L’étude des systèmes dynamiques mais aussi de la thermodynamique non-linéaire ou de la théorie de l’information ont conduit progressivement à reconnaître que des formes très évoluées d’organisation pouvaient être expliquées par la seule considération d’interactions physico-chimiques. On est venu alors à parler d’auto-organisation. (..) Les concepts théoriques qui interviennent pour modéliser les situations d’émergence sont les suivants. Tout d’abord le concept de bifurcation. Celle-ci est souvent associée à une instabilité du système qui peut évoluer, sous l’action de fluctuations infinitésimales, suivant des dynamiques très différentes vers des états stationnaires de nature différente. Les bifurcations ont lieu fréquemment dans des systèmes décrits par des dynamiques non-linéaires. L’émergence peut être décrite comme l’apparition d’un état stationnaire dans une zone éloignée de l’équilibre thermodynamique. Ceci est possible par le biais d’une dissipation d’entropie dans le milieu qui entoure le système, cet état stationnaire est alors une structure dissipative au sens de Prigogine.

L’émergence peut être modélisée à partir de la théorie des transitions de phase. En tant que brisure de symétrie généralisée, l’émergence n’est qu’un processus dynamique parmi d’autres. (..) Elle est similaire à une transition de phase qui apparaît lors de la transformation d’eau liquide en vapeur d’eau par exemple. L’utilisation du terme d’émergence pourrait faire croire que l’on a affaire à une apparition d’un état tout à fait déconnecté du substrat sur lequel il se manifeste. Ce serait là une erreur. » Je m’excuse de cette longue citation mais il me semble qu’elle résume de manière brillante le lien entre les différents points mentionnés et positionne clairement le problème tel que les scientifiques le posent actuellement.


GENETIQUE

Nous allons maintenant examiner comment René Thomas, spécialiste en circuits de feedback de la génétique, analyse le rôle des boucles de rétroaction en génétique et leur importance dans le processus de différenciation cellulaire.

Il débute par quelques considérations d’analyse mathématique qui montrent qu’il y a une analogie entre des boucles de rétroaction interactives et des systèmes d’équations différentielles chaotiques.
Rappelons d’abord qu’on a une boucle de rétroaction à chaque fois que part d’un élément une série de réactions qui revient agir sur cet élément. La rétroaction peut être positive ou négative. Cela signifie que l’action en retour peut favoriser la production de cet élément ou au contraire la freiner ou la bloquer.

Rappelons aussi que les équations différentielles sont celles qui relient les quantités et leur vitesse d’évolution ainsi que l’accélération de cette évolution. Les lois sont généralement des équations différentielles de ce type. Celles qui ont trois paramètres sont capables d’engendrer un attracteur chaotique. Cela signifie que les courbes sont feuilletées à l’extrême, chaque courbe se rapprochant infiniment de la suivante. Il en découle que la moindre variation d’un paramètre fait sauter d’une courbe à une autre. En découle aussi que la suite de l’histoire est changée par un tout petit changement. C’est ce que l’on appelle la sensibilité aux conditions initiales. On est en plein dans le chaos déterministe.

Or René Thomas montre que les mêmes conditions qui font que des boucles de rétroaction à trois éléments engendrent des situations de type foyer-col font que l’équation différentielle correspondante mène à un attracteur chaotique. Et ce qui caractérise les cols, c’est que, bien qu’en pleine pente, ils permettent de faire une pause et de prendre une position stationnaire. En ce qui concerne une dynamique, l’expression col signifie qu’une position stationnaire peut être trouvée et conservée un certain temps.

Vous avez le droit d’être un peu perdu par des considérations mathématiques à ce niveau de complexité. J’y perd le peu de latin – pardon de mathématiques – que j’avais acquis. Aussi je me permet d’en donner tout de suite la conclusion en langage pour gens normaux, si l’on peut dire : il peut y avoir un état stationnaire instable produit par des interactions entre des boucles de rétroactions lorsqu’il y a une dynamique chaotique. C’est un point très important.
On en déduit que des lois non-linéaires des gènes qui rétroagissent peuvent produire des structures émergentes.

Rappelons que les gènes sont effectivement rétroactifs et constituent avec les protéines des boucles positives ou négatives qui actionnent, inhibent, accélèrent ou ralentissent la production des protéines par les gènes. C’est ainsi que l’ADN qui, seul, est inactif devient la base de l’activité génétique du vivant.

Le matériel génétique ne doit donc pas être conçu comme porteur à lui seul de la génétique qui est une structure d’auto-organisation des interactions. Chaque gène doit donc être perçu non comme un individu mais comme une boucle de rétroaction qui interagit avec d’autres boucles. Ces diverses boucles peuvent produire des structures stationnaires instables. Ce sont des réseaux de rétroactions couplés. C’est un ordre génétique. On conçoit ainsi que l’ordre génétique n’est pas programmé, inscrit d’avance mais construit par la dynamique des interaction entre boucles de rétroaction des gènes.

L’espèce est conçue génétiquement comme un ordre émergent. Chaque individu construit lui-même cet ordre en explorant les possibilités de la génétique. C’est en interagissant que les boucles de rétroaction des gènes explorent leurs possibilités. Elles n’ont pas de réponse faite d’avance. C’est ce qui explique que la vie soit à la fois sujette à la variation et à la reproduction à l’identique, deux propriétés apparemment diamétralement opposées.


IMMUNOLOGIE

Passons maintenant à l’auto-organisation en immunologie en donnant la parole à Heri Atlan et Irun Cohen en continuant à suivre les exposés de notre ouvrage collectif.

Le système immunitaire est celui qui reconnaît les molécules biochimiques du soi et nous protège des molécules du non-soi. Il est, par excellence, un système apoïetique, capable de reproduire le soi et de le distinguer du milieu. Le processus de production du système immunitaire a donc une importance fondamentale pour la compréhension du vivant.

Henri Atlan et Irun Cohen en discutent en termes de théorie de l’information. Ils exposent ce que signifie l’apparition d’une nouveauté au sein du matériel biochimique comme une création d’information dans un système fondé sur l’auto-organisation d’un système complexe fondé sur le bruit.

En génétique le bruit provient notamment d’erreurs de copiage dans les nucléotides de l’ARN messager.

Les deux auteurs exposent les deux conditions dans les systèmes complexes fondés sur le bruit pour qu’il puisse y avoir réorganisation après une désorganisation :

1°) une organisation hiérarchique à plusieurs niveaux

2°) un système fondé sur des redondances, c’est-à-dire la multiplicité des voies pour accéder au même résultat et la multiplicité des copies.
La redondance permet qu’en cas de modification il n’y ait pas perte de l’information et blocage du fonctionnement. Pour Claude Shannon, fondateur de la théorie de l’information, la redondance est le prix à payer pour que dans un système complexe fondé sur le bruit, un état stationnaire ne soit pas déstabilisé par le bruit au point de ne pas donner un nouvel état stationnaire mais du désordre.

L’organisation à plusieurs niveaux hiérarchiques permet qu’une perte d’information à un niveau corresponde à du bruit au niveau plus élevé permettant de donner une nouvelle solution pour le système entier.
Redondance et structuration hiérarchique sont deux conditions posées en théorie de l’information de Shannon pour permettre une évolution dans un système complexe fondé sur le bruit. La biologie du vivant correspond parfaitement à ces deux conditions.

Il en résulte un contenu de l’information du message qui n’est pas entièrement contenu dans le message lui-même mais qui est une relation avec le contexte, avec toute l’histoire de la situation qui est évoquée par le message.

Atlan et Cohen utilisent ces notions pour étudier la théorie de Burnet sur l’action des antigènes qui s’appelle la théorie de la sélection clonale.

La question posée par Burnet est la suivante : l’antigène, chargé de protéger le soi contre toute agression du non-soi, est-il une partie du soi ou du non-soi ? En effet, la fonction principale du système immunitaire est de discriminer entre le soi et le non-soi. Et la question mérite d’être posée puisque l’anti-gène est incapable de se discriminer soi-même. La réponse de Brunet est que les lymphocytes sont entraînés dans une première étape à rencontrer les anti-gènes. Ces lymphocytes nouveaux-nés sont éliminés s’ils ne réagissent pas bien aux molécules du corps, si elles ont des contacts trop importants avec elles. En somme l’information est fondée sur un suicide massif de lymphocytes. On se souvient que c’est aussi la thèse exposée par Ameisen. En somme, l’information contenue dans le système immunitaire encore appelé mémoire immunitaire est fondé sur une négation : la suppression de toutes les molécules qui ne conviennent pas. C’est au cours de leur histoire que les lymphocytes vont rejeter ensuite tout anti-gène qui ne convient pas et sera combattu. Il y a donc une histoire et une expérimentation permanente du corps. Le système immunitaire n’est pas formé d’emblée et une fois pour toutes.

Irun Cohen a proposé de compléter la compréhension du système immunitaire par une création cognitive. Il remarque d’abord que la réaction des lymphocytes n’est pas simplement le choix entre réaction et absence de réaction. Il y a de multiples degrés de réaction. Comment le système immunitaire fait-il pour distinguer s’il doit déclencher une petite protection ou si c’est la guerre totale. Ce n’est pas seulement une question d’information ou de mémoire innée ou acquise. Il y a information mais en plus elle organisée c’est-à-dire hiérarchique. Il y a une mémoire à plusieurs degrés qui sont auto-organisés. Cela signifie une mémoire de l’individu, une mémoire du groupe et une mémoire de l’espèce. La vie fonctionne toujours comme une histoire, et une histoire non-linéaire. Le signal est le reflet de cette non-linéarité. L’information consistant à dire que c’est du soi est donc une information à plusieurs échelons avec plusieurs réactions possibles successives, plus ou moins rapides.

D’autre part le soi n’est pas un objet ni un ensemble de propriétés immuables de l’individu. Il peut changer ou être modifié par exemple par des maladies comme le cancer ou des modifications moléculaires. Il est donc nécessaire que lors de tels changements le système immunitaire soit capable d’évoluer pour ne pas s’attaquer au soi et risquer d’enclencher une maladie auto-immune.

Je cite Atlan : « Le soi immunitaire n’est pas un sujet immuable défini par un ensemble fixé d’anti-gènes. Le soi immunitaire ressemble plutôt à une série de phrases immunitaires évolutives, constituées d’antigènes en relation spécifique avec des signaux spécifiques. Le soi immunitaire n’est pas le sujet d’une l’histoire. Le soi immunitaire est l’histoire. Une histoire qui s’écrit elle-même et qui prend son sens de page en page. Il s’agit donc ici de l’auto-organisation d’un soi. »
On voit tout l’intérêt de cette définition. Elle ne considère pas l’mmunologie de l’individu comme un système préétabli et définitif. Et Atlan rajoute qu’il en va de même que pour le moi psycho-social.


NEUROSCIENCES

Passons maintenant aux neurosciences et à la notion d’auto-organisation et d’émergence dans les fonctions cognitives.
L’hypothèse exposée par Francisco Varela dans cet ouvrage est celle d’événements mentaux fondés sur des ensembles neuronaux appelés assemblées cellulaires constitués de cellules appartenant à des zones diverses et ces cellules sont reliées par un point commun : le maintien transitoire en phase des diverses émissions neuronales des neurones ainsi connectés dans l’assemblée cellulaire.

Un des points essentiels de cette conception est la relation réciproque entre les neurones d’une même assemblée cellulaire. C’est elle qui permet le contrôle réciproque au plan temporel c’est-à-dire le contrôle de la synchronisation des phases des émissions neuronales.
Varela explique ainsi que cette modélisation du système cognitif se démarque dorénavant de celle du cerveau conçu comme une machine informatique :

« Une assemblée cellulaire peut être activée à partir de n’importe quel sous ensemble. Un des principaux constats des neurosciences modernes est que les régions du cerveau sont en effet interconnectées de manière réciproque. Le terme réciproque est crucial ici. Ainsi, quelque soit le type de mécanisme neuronal impliqué dans des tâches cognitives spécifiques, ce sont nécessairement de larges régions du cerveau, séparées géographiquement, qui se trouvent concernées par ces tâches. Par ailleurs, on ne peut pas considérer que ces régions distinctes soient organisées selon un ordre séquentiel, comme si une activité cognitive pouvait naître de la convergence graduelle de différentes modalités sensorielles au niveau d’aires multimodales ou associatives, pour impliquer ensuite les aires frontales supérieures responsables de la décision et de la planification active des comportements. Cette conception séquentielle traditionnelle nous vient de l’époque où dominait la métaphore de l’informatique dont une des idées clé était que le flux d’information allait dans une direction montante (de la périphérie vers l’unité centrale de traitement. A l’opposé, nous mettons ici l’accent sur l’importance primordiale des propriétés de réseaux à connexions réciproques au sein desquels le caractère séquentiel est remplacé par un processus de contrôle temporel : la synchronisation des réseaux. »

Varela remarque trois niveaux distincts d’émergence permettant de construire et de faire fonctionner les assemblées cellulaires :

• la formation des neurones et des circuits activés entre eux lors de la construction du cerveau

• la structuration par apprentissage des niveaux de connexions synaptiques entre les neurones, les neurones synchrones renforçant leur liaison synaptique

• la mise en place d’un temps rapide d’activation de l’assemblée pour atteindre une cohérence sans être submergé par les messages voisins.

Varela postule qu’une assemblée spécifique correspond à un acte cognitif. Il pense également que la désignation d’une assemblée particulière provient d’un processus de synchronisation de message par des assemblées concurrentes. Pour qu’un processus de perception cognitive soit réalisé il faut que l’assemblée ait eu le temps d’être parcourue par plusieurs cycles. C’est ce que l’on appelle la synchronisation par verrouillage de phase et cela dure seulement une fraction de seconde (essentiellement grâce à des ondes gamma).
C’est ainsi que chaque processus cognitif individuel surgirait d’un processus d’émergence d’une assemblée de neurones. Cela constituerait une espèce de conscience primaire qui serait la base des événements mentaux-cognitifs qui seraient beaucoup moins synchronisés et cohérents. Cette base serait donc constituée de phénomènes de synchronisation transitoires et peu durables.
Les autres phénomènes cognitifs seraient fondés sur cet espace constitué d’assemblées activées de façon cohérente.

Varela expose en conclusion les diverses remarques fondamentales sur les état mentaux :

« 1°) Les espaces mentaux ont lieu dans un espace unitaire. Par exemple, il n’y a pas de fragmentation dans le vécu expérientiel de différentes modalités sensorielles, ni de rupture entre les sensations, les souvenirs et le tonus corporel

2°) Les états mentaux son transitoires dans le sens qu’aucun état ne perdure au-delà d’une certaine limite. Inversement, l’expérience d’un état mental requiert une durée minimale. L’état mental a donc un caractère fini, d’une durée à la fois incompressible et non-extensible

3°) L’état mental est toujours lié au corps, à un champ particulier de sensation

4°) L’état mental peut être déclenché par un événement endogène. Il peut également arriver qu’un même état mental ait des conséquences perceptuelles et comportementales différentes. Le type d’événements neuraux sous-jacents à un état mental doit rester distinct et être facile à distinguer d’autres types d ‘événements neuraux de telle sorte que cette double relation reste valide. »

CONCLUSION

J’ai terminé mon petit tour de cet ouvrage collectif parfois difficile dans certain de ses articles mais très intéressant. Je n’en ai rapporté que certains articles. J’ai notamment omis toute la première partie philosophique qui rapporte les divers points de vue philosophiques sur l’auto-organisation dans les anciennes philosophies comme celles de l’antiquité, de Kant, Leibniz, des philosophes des sciences des 18ième et 19ième siècles.

Des propriétés de la matière expliquent l’existence et le développement de la vie

Ces modes de fonctionnement de la matière dont dérive le phénomène du vivant sont au nombre de six.

Je les énumère :

Première propriété : des boucles de rétroaction

Deuxième propriété : l’émergence de structure

Troisième propriété : des transitions de phase

Quatrième propriété : des ruptures de symétrie

Cinquième propriété : l’auto-organisation

Sixième propriété : la néguentropie

Ces propriétés ne me semblent pas indépendantes les unes des autres mais semblent, au contraire, être interdépendantes.
Je débuterai par la dernière. C’est la néguentropie. Pour qu’un système gagne en organisation, il faut qu’il perde en entropie à la faveur du milieu. Cela suppose que le milieu lui transmette non seulement de l’énergie mais qu’il perde lui-même des niveaux d’organisation. C’est ainsi que la thermodynamique continue à répondre aux lois de la physico-chimie. Pour cela, il faut que l’apparition de la structure nouvelle entraîne une réaction du milieu qui reçoit de l’entropie.

Un processus d’auto-organisation nécessite donc de concevoir ce type de relations entre le nouvel ordre intérieur et l’extérieur. C’est le cas dans les transitions de phase classiques de la physique. Quand un corps perd de l’entropie, il est de plus en plus structuré et passe de l’état gazeux à l’état liquide puis solide. Il gagne à chaque fois un degré d’organisation et le milieu extérieur est inversement plus agité.
Le nouvel état de la matière ainsi créé n’est pas simplement un nouvel agencement des molécules comme on l’a souvent cru. C’est plus que cela. C’est une nouvelle forme d’organisation qui, pour être rendue possible, nécessite que la relation entre intérieur et extérieur ait trouvé une nouvelle relation.

Cela nous ramène à la question de la symétrie. Ainsi, en passant du gaz au liquide puis au solide, on perd à chaque fois un niveau en ce qui concerne le mouvement libre des molécules. Les lois sont également changées brutalement.

Ce petit rappel vise à redire dans ce cas bien connu combien ces diverses notions sont interdépendantes ce que l’ouvrage vise aussi à montrer dans le domaine des phénomènes du vivant.

La question « qu’est-ce que la vie ? » est-elle restée sans réponse ? Je ne le pense pas bien que l’on ne puisse pas dire qu’elle est définie de façon rigoureuse par des axiomes ou des définitions.

Le physicien quantique Schrödinger y répondait en introduisant l’idée d’une macromolécule contenant un motif chimique non-périodique. La découverte de l’ADN a semblé lui donner raison. Mais aujourd’hui, on considère que le génome ne donne pas le fin mot de la vie.

J’espère avoir montré que la vie n’est pas seulement fondée sur un matériau ayant des propriétés bien particulières comme la molécule d’ADN mais également sur des propriétés des systèmes complexes auto-organisés. Cela signifie que la vie s’est elle-même auto-organisée sur la base de millions de réactions interactives.
Mais, bien entendu, comme les auteurs de l’ouvrage dont je rappelle le titre « auto-organisation et émergence dans les sciences de la vie », j’en suis toujours à la réflexion sur la vie et non à une réponse solide à la question posée.

Car, finalement, dire ce qu’est la vie ce serait répondre à la question des origines, de la finalité plus que du fonctionnement et nous en sommes encore loin.

Le mot fin est dit en ce qui concerne mon exposé mais pas le mot fin en ce qui concerne la compréhension de la vie bien évidemment.
Pour ma part, l’idée que je retiendrai pour le moment est le fait que des systèmes collectifs fonctionnant sur une base désordonnée au départ peuvent fonctionner de manière structurée qu’ils produisent eux-mêmes au cours de leur histoire s’ils possèdent deux caractéristiques :

1°) un système hiérarchique

2°) un mode redondant de transmission de l’information
Dans ce cas, ils deviennent des systèmes capables d’apprentissage et à un certain seuil d’accumulation de telles connaissances, ces systèmes acquièrent un niveau supplémentaire de structure. Ils sont donc évolutifs par sauts qualitatifs. Ils constituent des niveaux de structure avec interaction non-linéaire d’échelle.
La vie semble avoir été l’un de ces sauts qualitatifs. La conscience humaine serait une autre de ces émergences de structure.

Je voudrais terminer en conseillant la lecture du numéro de « Pour la science » de décembre 2003 titré « La complexité, la science du XXIème siècle ».

Je ne vais pas ici résumer ce numéro sur les systèmes complexes qui contient des articles notamment d’Albert Libchaber sur information et complexité, Albert Goldbeter sur la modélisation des rythmes du vivant, Jean-Claude Ameisen sur la mort et la vie ou Eric Bois sur le chaos du système solaire, ou encore de Jacques Mazoyer sur la zoologie des automates cellulaires.

Je citerais seulement l’éditorial de Philippe Boulanger de ce dossier sur la complexité qui annonce « L’étude de la complexité met le doigt sur les défis à surmonter. Or, l’histoire des sciences l’a montré, de la théorie de Darwin à la mécanique quantique, de tels défis ont toujours fait surgir de nouveaux concepts. Des frémissements avant-coureurs incitent à penser qu’il n’est pas trop tôt pour être optimistes. »

A lire sur l’auto-organisation du vivant

Qu’est-ce que l’auto-organisation

Qu’est-ce que la rétroaction de la vie et de la mort ?

Qu’est-ce que la rupture de symétrie ?

La symétrie dans la nature

Qu’est-ce qui caractérise finalement la vie et son évolution ? Quelle leçon tirer de l’existence de la vie, de l’existence de l’homme ?

Pouvons-nous définir « la vie » afin de rechercher les traces de ce phénomène dans l’Univers ?

Que savons-nous du passage de l’inerte au vivant ?

Faut-il opposer diamétralement la matière vivante et la matière inerte ?

Inerte, la matière non vivante ?!!!

Quelques idées fausses sur la vie et « le Vivant »

Portfolio

Messages

  • La totalité des biologistes considèrent que la vie sur Terre est une émergence de la chimie. Autrement dit, les premiers éléments constitutifs d’un organisme auquel on prête les caractéristiques définissant un être vivant seraient apparus à la suite de processus intéressant la combinaison et la synthèse de corps chimiques, eau, carbone, oxygène, etc. Ainsi la production des premières molécules biologiques n’aurait pas été possible sans la présence de composés de type biochimiques tels que les enzymes. Certes des processus physiques, tels que les modifications de gradients de température et de pression, ont été nécessaires pour accélérer sinon déclencher les réactions vitales évolutionnaires, mais celles-ci n’auraient pas eu lieu sans l’existence préalable de telles enzymes 1)
    Or un article récent associant un physicien et un biologiste reconnus, Nigel Goldenfeld et Carl Woese de l’Université de l’Illinois, propose un paradigme tout à fait différent, susceptible de bouleverser bien des opinions établies intéressant le concept même de vie, et pas seulement son apparition. Il implique la vie telle qu’elle a pu ou pourrait être, non seulement sur Terre mais dans l’univers au sens large. Nous avons dans des articles précédents mentionné le rôle de Carl Woese comme « inventeur » d’un 3e domaine de la vie, les archées, et d’un mécanisme essentiel dans la production d’espèces nouvelles, le transfert horizontal de gènes. Il a aussi proposé de conférer à l’ARN se développant sur des substrats favorables un rôle essentiel dans la production des premières formes de vie. Il s’agit de l’hypothèse dite du « monde de l’ARN » (RNA world) 2). Quant à Nigel Goldenfeld, il est professeur de physique et de biophysique, très investi dans l’étude des phénomènes de complexité 3).

    Aujourd’hui, dans l’article de arxiv.org référencé ci-dessous, ils font l’hypothèse que l’apparition de la vie n’a pas été liée, au moins primitivement, à des phénomènes d’évolution de type darwinien entre composants chimiques et biochimiques. Ils proposent de la lier à une branche de la physique dite de la matière condensée. Plus précisément, la vie serait un phénomène émergent se produisant dans certains systèmes physiques définis comme loin de l’équilibre, selon l’expression popularisée par Ilya Prigogine. On appelle condensées les phases de la matière qui apparaissent dans les systèmes où le nombre de constituants est grand et les interactions entre eux sont fortes (wikipedia http://fr.wikipedia.org/wiki/Physiq... ). Cette matière ne se rencontre à l’état naturel que dans des milieux cosmologiques exotiques, tels que les étoiles à neutrons. Mais elle peut être produite en laboratoire.

    On avait constaté (wikipedia) dès les années 1960 qu’en ce cas, nombre de théories et de concepts développés pour l’étude des solides pouvaient s’appliquer à l’étude des fluides, les propriétés du fluide quantique constitué par les électrons de conduction d’un métal étant très similaires à celle d’un fluide constitué d’atomes, ainsi que le montre la forte ressemblance entre la supraconductivité conventionnelle et la superfluidité de l’hélium-3. Nous pouvons définir ici la supraconductivité (ou supraconduction) comme un phénomène caractérisé par l’absence de résistance électrique et l’annulation du champ magnétique. La superfluidité, pour sa part, peut être décrite comme la propriété de l’hélium liquide à très basse température lui permettant de s’écouler à travers des canaux capillaires ou des fentes étroites sans adhérer aux parois. Ces deux propriétés apparaissent subitement, lorsque l’on modifie les conditions de température et de pression, d’une façon mal expliquée, de sorte que la plupart des physiciens estiment légitime de parler d’émergence.

    Mais comment la vie pourrait-elle émerger de processus loin de l’équilibre ? Là encore un minimum de définition s’impose dans le cadre de cet article. On nomme loin de l’équilibre les systèmes physiques soumis à la thermodynamique et donc au temps. Lorsque l’on modifie les conditions de l’équilibre d’un corps, par exemple la température ou la pression, on augmente au niveau microscopique sa capacité à bifurquer vers des états imprévisibles. La matière peut alors se réorganiser en faisant par exemple apparaître de nouvelles structures cristallines. Ceci est vrai tant pour la matière macroscopique que pour la matière microscopique ou infra-atomique. Dans le cas de la vie, que pourrait-il se passer ?

    Goldenfeld et Woese prennent l’exemple de la supraconductivité citée ci-dessus. Les phénomènes de supraconductivité pourraient être expliqués par l’appel à des processus chimiques, les propriétés des atomes étant modifiées par les changements d’orbite de leurs électrons résultant des modifications de température et de pression. Mais pour Goldenfeld et Woese ces explications ne suffisent pas. Ils rappellent que la supraconductivité est liée aux caractéristiques quantiques de la matière (on parle notamment de condensat de Bose-Einstein). Il s’agit de théories qui décrivent les relations entre des champs magnétiques et des phénomènes plus profonds intéressant la matière/énergie au plan fondamental.

    Pour eux, la vie est comparable à la supraconductivité, sans évidemment qu’elle découle de causes analogues. Elle devrait pouvoir être décrite comme un phénomène émergent nécessitant la compréhension des lois physiques fondamentales qui commandent son comportement. Les algorithmes darwiniens qui sont utilisés pour décrire les phénomènes de l’évolution biologique sont pour eux bien trop réducteurs. Ils font très vite apparaître des contraintes, telles que celles résultant de la « construction de niches », qui limitent et canalisent les possibilités théoriques du paysage évolutionnaire. Dès qu’une solution est trouvée par l’évolution biologique, qu’ils nomment un « minimum local », que l’on pourrait aussi qualifier d’optimum local, elle est exploitée aux détriment de ce que pourraient être l’exploration d’autres embranchements évolutifs conduisant à des solutions profondément différentes.

    Or l’on pourrait imaginer que les lois physiques relevant de l’aléatoire quantique puissent faire « émerger » des formes prévitales (prébiotiques) qui seraient d’abord de nature physique, puis ensuite biologiques, ceci à partir de contraintes beaucoup plus larges et donc moins limitatives. Dans ce cas, dans les trillions de planètes peuplant la voie lactée, aux conditions physiques variées, pourquoi ne pas penser que des formes de vie très différentes de celles que nous connaissons aient pu ou pourraient apparaître. Pourquoi ne pas essayer en laboratoire de mettre en oeuvre des processus physiques partant des mêmes hypothèses ?

    • En effet,"on pourrait imaginer" ceci ou cela comme le phlogistique ou l’ether ou le création spontanée,etc ;le problème c’est que ces "imaginations" ont toutes,les une après les autres,controuvées de façon radicale !Imaginez donc
      n’importe quoi,messieurs les scientifiques,la réalité vous donne toujours tort mais,je comprends qu’il faut bien passer le temps et gagner sa vie et une belle notoriété à la clé.Ainsi Einstein qui affirme avoir crée la théorie de la relativisée généralisée alors que le français Henri Poincarré,le denier vrai grand savant universel,,tout le monde est d’accord là-dessus,l’avait fait des décennies avant lui !Ensuite ,furieyx que Planck ait éléboré la théorie quantique,il passa une partie du retste de sa vie à chercher "la variable cachée qui aurait supprimé le -relatif-indéterminisme de cette théorie et ne le trouva
      jamais parce que il n’existait pas dans celle salope de réalité.Peut- etre le bioson du modeste Higgs ?Qui sait ?Quant à son affirmation que la vitesse de la lumière était un mur indéfranchissable,il vient d’être franchi facilement plusieurs fois et par des équipes différentes.Jean foutre qui rouait sa première femme de coups-voir la lettre qu’il lui a écrit avant:interdit de faire ceci,interdit de faire cela,bref de troubler le génie einstein qui lui préférait "les prostituées qui sentaient mauvais"-dixit lui-même !erlande.wordpress.com,pour rigoler,entre autres choses plus sérieuses, de ces clowns tristes !

    • Oui, mais...

      Mais si vous disiez pourquoi l’auto-organisation de la matière, c’est n’importe quoi ?!!!!

  • Interview d’Henri Atlan :

    Question : Vous critiquez aussi la vision trop « informatique » de certains biologistes, pour qui le programme ADN est la réponse à toutes les questions.

    Pr HA : C’est une vieille histoire. En ce qui me concerne, cette réflexion a commencé à l’époque des grandes découvertes de la biologie moléculaire et de l’interprétation de ces découvertes en termes de « programme ». L’idée selon laquelle un programme serait écrit (au sens littéral) dans la séquence ADN m’a toujours semblé approximative. Il ne s’agit pas là bien sûr de mensonge, mais de facilité dans l’usage d’un langage métaphorique. Cette métaphore est trompeuse, mais elle a eu un effet extraordinaire dès lors que de nombreux biologistes l’ont eux-mêmes prise au sérieux ! Aujourd’hui encore, cette idée persiste dans le grand public, mais la plupart des biologistes ont réalisé que cela ne fonctionnait pas de cette façon, ne serait-ce que parce que les analyses des génomes censées confirmer la réalité de cette métaphore en ont, au contraire, montré les limites.

    Question : Vous critiquez aussi la confusion entre la valeur heuristique des modèles informatiques de systèmes complexes et le statut de vérité scientifique établie qui leur est trop souvent accordé.

    Pr HA : Cette question des modèles est directement reliée au débat sur le réchauffement climatique. Je ne suis pas un spécialiste du climat, mais je sais que le climat est une affaire complexe et fait intervenir de nombreux paramètres. Je sais également, pour avoir travaillé sur la modélisation de systèmes complexes en biologie, que tous les systèmes complexes (en particulier si on ne peut pas les expérimenter) ont cette propriété de présenter des modèles sous-déterminés par rapport aux observations. En d’autres termes, le problème n’est pas de réaliser un bon modèle ; le problème est qu’il existe trop de bons modèles capables d’expliquer les mêmes observations.

    J’ai constaté cette sous-détermination des modèles à l’époque où je faisais de la modélisation de systèmes immunitaires. Pourtant, les systèmes biologiques présentent l’avantage, par rapport aux systèmes écologiques ou climatiques, d’autoriser quelques expériences suggérées par les modèles et permettant éventuellement d’en éliminer certains.

    L’intérêt des modèles se limite, le plus souvent, à suggérer de nouvelles expériences, mais dans le cas des recherches sur le climat ou sur une niche écologique, il n’y a pas d’expérience possible pour trancher entre différents « bons » modèles, et les scientifiques qui utilisent des modèles en connaissent parfaitement les limites. J’ai participé à une réunion rassemblant des mathématiciens, des informaticiens et des physiciens qui créaient des modèles pour la biologie. Tous étaient parfaitement conscients du fait que leurs modèles étaient bons du point de vue du modélisateur puisqu’ils expliquaient des phénomènes connus, mais tous s’accordaient aussi à dire qu’ils ne décrivaient pas forcément la réalité et qu’il fallait réaliser des expériences pour tenter de réduire leur sous-détermination.

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.