Accueil > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 05 : Nature’s discontinuites make jumps and gaps - Les (...) > La discontinuité, un très vieux problème ... qui revient

La discontinuité, un très vieux problème ... qui revient

mardi 2 juin 2020, par Robert Paris

"Les physiciens contemporains sont convaincus qu’il est impossible de rendre compte des traits essentiels des phénomènes quantiques (changements apparemment discontinus et non déterminés dans le temps de l’état d’un système, propriétés à la fois corpusculaires et ondulatoires des entités énergétiques élémentaires) à l’aide d’une théorie qui décrit l’état réel des choses au moyen de fonctions continues soumises à des équations différentielles. [...] Surtout, ils croient que le caractère discontinu apparent des processus élémentaires ne peut être représenté qu’au moyen d’une théorie d’essence statistique, où les modifications discontinues des systèmes seraient prises en compte par des modifications continues des probabilités relatives aux divers états possibles. " (1949)

Albert Einstein

La discontinuité, un très vieux problème ... qui revient

Les sciences s’en sont longtemps tenues à l’hypothèse du continu. La cause principale de ce choix est l’efficacité des mathématiques du continu, du moment que l’on se garde de passer des seuils avec changement qualitatif. Le premier domaine qui a pu être étudié à l’aide d’une mathématique du continu a été la Mécanique. Mais cette science a dû contourner la difficulté. Les objets sont des discontinuités par rapport à l’espace où elles évoluent qui, lui, est considéré comme continu. Pour éluder cette question, on a considéré le mouvement des objets comme celui des points matériels (du centre de gravité des corps), l’espace comme un ensemble de points et le mouvement comme un parcours d’un point à un autre. Bien entendu, cela suppose que la matière ne transforme pas l’espace dans lequel il se déplace, ce que la Relativité a remis en cause. De plus, considérer le segment ou la courbe comme une succession de points physiques est loin d’être une évidence mathématique, comme on le verra par la suite. Il faut, de plus, répondre à la question : la matière (point matériel) est-elle passée d’une position à une autre de l’espace par une série continue de points ou a-t-elle sauté d’un point à un autre ? La Mécanique a choisi de représenter l’ensemble du mouvement par un segment continu ou par une courbe continue. On se déplace donc d’un point à un autre mais le résultat global est une courbe continue. Entre les concepts de point et de ligne, entre le continu et le discontinu, il y a une contradiction sur laquelle se sont penchés notamment les philosophes et mathématiciens grecs. La mathématique enseignée à l’école, est fondée sur le continu, aussi bien la continuité des nombres en algèbre que celle des courbes de la géométrie (géométrie d’Euclide). Mais elle utilise la notion continue de droite mais aussi la notion discontinue de point. Le segment, un des « éléments » de cette géométrie, n’a rien d’élémentaire. C’est un objet mathématique complexe composé d’une ligne continue et de deux extrémités, des ruptures discontinues. Cette mathématique a été bâtie au 3ème siècle avant JC comme une construction logique, utilisant des postulats, des axiomes et des démonstrations. Ses éléments géométriques sont des objets théoriques dessinés (droite, segment, point, cercle). Sur la base de quelques énoncés de base, elle démontre des propriétés géométriques plus complexes. Tout semble découler de façon non contradictoire des définitions et axiomes. En réalité, le véritable postulat de base n’est jamais clairement formulé ni discuté. C’est celui de l’existence de deux sortes d’objets contradictoires, des ensembles continus (ligne, plan, cercle et sphère) et des éléments discontinus (les points). Cette supposition pose aux mathématiciens grecs et posera aux mathématiciens suivants de multiples problèmes et même des contradictions insolubles. Le fond de ces difficultés est l’incompatibilité totale entre l’hypothèse de la continuité du monde et celle de sa discontinuité. Zénon d’Elée a déjà touché du doigt cette incompatibilité lorsqu’il étudie le mouvement. Il a montré que, si on conserve la continuité, le mouvement est impossible (voir en annexe les paradoxes de Zénon).. En effet, le temps est conçu comme une série d’instants (discontinu) formant un intervalle de temps (continu), de la même manière que le mouvement est formé d’états sur une courbe. Pour concevoir un tel mouvement, il faudrait décomposer le mouvement en instants à l’infini. Zénon montrait que jamais le corps en mouvement ne devait atteindre son point d’arrivée. Pythagore avait, pour résoudre ces contradictions du mouvement, admis qu’on peut décomposer le continuum du temps en instants de durée arbitrairement courte, mais il avait produit ainsi de nouvelles contradictions entre immobilité et mouvement, entre continu et discontinu, qui restent insolubles dans la conception de Pythagore du segment composé de suites d’un nombre entier de points, les monades.

Aristote ne pourra répondre à ces problèmes qu’en renonçant à la divisibilité du temps en instants. Au sein du continu, on ne peut admettre aucun trou ni aucune séparation. Cependant, Aristote restera partisan du continu et cela ne l’empêchera pas de défendre un point de vue idéaliste et religieux. Cela devrait d’ailleurs faire réfléchir tous les auteurs qui se retranchent derrière la lutte contre la religion pour combattre les discontinuités dans la nature et la notion de la singularité. On peut lire ainsi dans « La Métaphysique » d’Aristote : « L’un est le continu. (...) Telles sont les différentes significations de l’Un : le continu naturel, le tout, l’individu et l’universel. (...) Est contigu tout ce qui, étant consécutif, est en contact (...) On dit qu’il y a continuité quand les limites par lesquelles deux choses se touchent, et se continuent, deviennent une seule et même limite. (...) Si les points sont susceptibles d’être en contact, les unités ne le sont pas : il n’y a, pour elles, que la succession ; enfin il existe un intermédiaire entre deux points, mais non entre deux unités. (...) Il est impossible que le mouvement ait commencé ou qu’il finisse, car il est, disons-nous, éternel. Et il en est de même pour le temps, car il ne pourrait y avoir ni l’avant ni l’après si le temps n’existait pas. Le mouvement est, par suite, continu, lui aussi de la même façon que le temps, puisque le temps est lui-même, ou identique au mouvement, ou une détermination du mouvement. (...) Aussi appelons-nous DIEU un vivant éternel rayon parfait ; la vie et la durée continue et éternelle appartiennent donc à DIEU, car c’est même cela qui est DIEU. (...) On pourrait se poser encore la difficulté suivante. Etant donné qu’il n’y a pas de contact dans le nombres, mais simple consécution, est-ce les unités entre lesquelles il n’existe pas d’intermédiaire (...) Les mêmes difficultés se présentent pour (...) la ligne, la surface et le solide (...) La même question pourrait se poser au sujet du point. (...) Ces points ne viennent certes pas d’un certain intervalle. »

La question du continu pose un problème philosophique de fond : celui de la dialectique [1]. Aristote ne s’y trompait pas. « La Métaphysique » est une charge contre les dialecticiens : « Il y a, dans les êtres, un principe au sujet duquel on ne peut pas se tromper (...) : c’est qu’il n’est pas possible que la même chose, en un seul et même temps, soit et ne soit pas, et il e est de même pour tout couple semblable d’opposés. (...) On ne peut donc pas être dans la vérité en adoptant les doctrines d’Héraclite ou celles d’Anaxagore ; sans quoi il s’ensuivrait que les contraires sont affirmés du même sujet. (...) Les arguments d’Héraclite les persuadèrent que toutes les choses sensibles sont dans un flux perpétuel. (...) Il n’y a pas de science de ce qui est en perpétuel écoulement. » Tout en choisissant l’a priori du continu, Aristote a constaté des contradictions de cette position en mathématiques. Il en déduit qu’il faut rejeter non le continu mais … les mathématiques comme base philosophique. La continuité à laquelle il tient en premier est le mouvement et la relation de cause à effet : « Dans l’ordre du temps, un acte est toujours préexistant à un autre acte. (...) Ce qui constitue l’unité de tous les êtres, c’est l’indivisibilité du mouvement. (...) Le mouvement local continu est le mouvement circulaire. »

Pour Aristote, l’exemple même du continu est le cercle et le mouvement circulaire. Cependant le cercle va poser, après les penseurs Grecs, de nouvelles interrogations sur la notion de continuité. Les chercheurs se sont heurtés au problème, appelé « la quadrature du cercle », de l’impossibilité de construire les points d’un cercle par une série des polygones dont on augmenterait à l’infini le nombre de côtés. Beaucoup plus tard, au Moyen Age, le mathématicien Nicolas de Cues tenta une première démonstration, expliquant qu’à chaque augmentation du nombre de côtés du polygone, la longueur du côté se réduisait progressivement, le pourtour du polygone se rapprochait de la courbe circulaire. Par contre, il restait une différence qualitative entre le polygone et le cercle. Pire même, cette différence s’accroissait au fur et à mesure. Dans le polygone, les droites son brisées à chaque sommet alors que, dans le cercle, il n’y a pas de rupture dans l’évolution de la pente. Or, plus le nombre de côtés du polygone grandit, plus grandissent les ruptures (discontinuités de la dérivée). Quand on pousse à l’infiniment petit chaque côté, le nombre de discontinuités est infiniment grand alors qu’il est nul pour le cercle. La limite des polygones n’est pas le cercle. Le cercle, figure continue par excellence, n’est pas atteint par une série infinie de polygones. On allait remarquer ensuite que cette impossibilité d’obtenir le cercle par une série de polygones, ou « la quadrature de cercle », est reliée à la nature « irrationnelle » du nombre π. Il reste que cette réflexion sur le cercle en pose une autre plus large : l’impossibilité de la transformation du discontinu au continu par passage à l’infini. La discontinuité ne peut pas être noyée dans la continuité par limite infinie. Une série infiniment grande de discontinuités infiniment petites n’est pas une fonction continue. Le cercle continu va cependant contribuer à faire crédibiliser la notion mécanique de déplacement circulaire continu. La rotation va même servir d’exemple typique du mouvement continu. Elle va notamment permettre le développement d’une mathématique du mouvement périodique qui va notamment servir de base aux notions d’ondes continues.

Notes

[1] Jacques Chapelon, professeur à l’école polytechnique, note ainsi dans sa Préface à « Mathématiques et matérialisme dialectique » de Gaston Casanova : « Les mouvements de la mécanique, les variables continues de l’analyse mathématique correspondent à des changements procédant par transitions insensibles. (...) Le plus souvent, les changements dialectiques sont discontinus et parfois les discontinuités font surgir des phénomènes entièrement nouveaux »

Pourquoi la notion de continuité fait de la résistance

La discontinuité est partout, autour de nous comme en nous, et la continuité n’est qu’un artefact, une apparence ou une moyenne. Ce que l’on a constaté pour la molécule, l’atome, la particule de matière ou de lumière gagne sans cesse des domaines divers. Et tout d’abord l’ensemble des phénomènes matériels sont, à un niveau ou à un autre, discontinus. Ils ne le sont pas marginalement puisque tout changement et tout mouvement ne progresse que par sauts. Et ce n’est pas seulement vrai à l’échelle microscopique. Une surface, une ligne, une forme, un contenu, une évolution, un mouvement ne sont continus qu’en apparence. La physique des fractales de Mandelbrot révèle les discontinuités des côtes, des interfaces, des limites, des frontières, des membranes, etc… La physique des transitions de phase étend la discontinuité aux changements qualitatifs. Ceux-ci existent non seulement entre échelles du réel mais également façonnent l’histoire de la matière et de la lumière. L’astrophysicien Michel Cassé souligne dans « Du vide et de la création » que « Les transitions de phase marquent des réorganisations radicales de structure. (...) L’Univers épouse une succession d’états dynamiques. Il est emporté par le changement. (...) L’histoire du refroidissement de l’Univers sera scandé par les transitions fondamentales qui font apparaître sous une forme radicalement nouvelle la matière ou bien les forces qui gouverne son comportement, c’est-à-dire les brisures de symétrie. » La physique du vide découvre la discontinuité la plus fondamentale, celle du sous-univers qui fonde matière et lumière. L’image continue d’une transformation provient du fait que, lors des sauts qualitatifs, une ou plusieurs variables conservent une allure régulière ou quasi-régulière. Par exemple, lors d’une transition de phase de la matière, certaines quantités ne sont pas affectées par le saut, parce qu’à certaines échelles il n’y a apparemment pas de changement qualitatif. Et cependant, le changement brutal va affecter la matière dans son ensemble. Par exemple, lors du passage de l’état solide au liquide ou au gaz, la molécule ne change pas individuellement. Ce sont les interactions qui se modifient et, du coup, les lois statistiques fondées sur des interactions collectives.

La découverte de l’existence de l’antimatière est l’un des exemples que donne l’astrophysicien Michel Cassé de l’importance des discontinuités, des sauts qualitatifs, dans le fonctionnement de la nature. Le préjugé en faveur de la continuité a longtemps bloqué l’idée d’une particule d’énergie négative qui s’est révélée indispensable à la compréhension du fonctionnement de la matière. Michel Cassé écrit ainsi : « Habituellement, la solution d’énergie négative était écartée comme non physique, aberrante. (...) Ainsi, une particule placée dans une situation normale d’énergie positive devrait opérer une transition discontinue, un saut (...) pour atteindre les états d’énergie sous zéro (...) Mais une transition discontinue de ce type est interdite en mécanique classique. Aussi, dans le cadre de pensée traditionnel, était-il naturel de postuler que si, à un instant donné dans le passé toutes les particules étaient dans un état d’énergie positive, alors elles le resteraient indéfiniment. Les états d’énergie négative étaient par conséquent relégués dans l’absurde, et cela sans appel. En matière quantique, pourtant, la situation est moins simple car les transitions discontinues sont des phénomènes courants et, même, naturels. » Mais la physique quantique ne se contente pas de constater l’existence de matière et d’antimatière, de remarquer le saut entre eux, elle constate également que les contraires, matière et antimatière, se couplent comme la vie et la mort.

En effet, la discontinuité naturelle la plus reconnue est celle de la mort, mais la naissance en est une autre aussi importante. La vie et la mort sont couplées en permanence. Notre vie commence par la naissance et se termine par la mort, deux discontinuités fondamentales, deux transitions de phase, déterminantes de notre existence. Ce ne sont pas des phénomènes individuels mais le résultat de l’action collective de quantité de molécules et d’organes, même si c’est l’individu qui meurt comme un tout. Naissance et vie sont fondés sur des couplages de contraires. Par exemple, la naissance est une rupture de symétrie entre les contraires, l’homme et la femme. La naissance est un phénomène aussi brutal que la mort, même s’il ne se déroule pas en un instant. Les physiologistes parlent du « cataclysme physiologique qui provoque la naissance » [1]. Et pourtant, comme le remarquait Jean-Claude Ameisen dans « Qu’est-ce que mourir », par les rites de la mort, par notre mémoire de leur présence, nous cherchons « à construire jour après jour, une continuité toujours nouvelle, qui les intègre (...) ». Ce besoin de continuité de la psychologie humaine est une constante de notre comportement. Nous ne cessons pas de transformer intellectuellement du discontinu, naturel, en continu, pensé. Notre cerveau nous présente des images apparemment continues, un temps et un espace qui semblent aussi l’être, et nos représentations sont entachées par cet a priori. En réalité, cette croyance dans le continu est le produit de notre éducation et de notre vie sociale.

Lorsque nous représentons une évolution quantitative, nous ne faisons que des mesures ponctuelles, puis nous les relions dans une représentation graphique par des droites, par des courbes, par du continu, comme si cela suffisait pour affirmer que la dynamique est passée par toutes les valeurs intermédiaires. La physique n’a pas cessé de décrire la réalité par des fonctions continues. Cela a un fondement qui est surtout lié à l’outil lui-même : les mathématiques peinent à représenter des phénomènes discontinus [2]. Par contre, elles n’ont pas cessé d’offrir des outils pour des descriptions du continu : trajectoires, fonction continue de variable réelle (continue), dérivée et intégrale de fonction continue. Même la mathématique de la physique quantique, une physique du discontinu, est fondée sur la continuité (l’équation de Schrödinger, par exemple, est continue) alors que la description quantique est fondamentalement discontinue. La théorie de la relativité reste fondée sur un univers espace-temps-matière qui serait continu. Pourtant les particules sont des singularités et le vide est polarisé. C’est que l’outil mathématique décrivant la discontinuité est très loin d’être au point. Le mathématicien René Thom dit ainsi : « Rien ne met plus mal à l’aise le mathématicien qu’une discontinuité » dans « Modèles mathématiques de la morphogenèse ». Le philosophe des sciences Alain Boutot commente cette limite de l’outil mathématique : « D’une façon générale, les modèles physiques se révèlent impuissants à formaliser les discontinuités empiriques et cela pour une raison bien simple : ils font intervenir des fonctions régulières qui sont, par nature, continues. Ce primat du continu se trouve du reste renforcé et légitimé par la nécessité où se trouve le savant, pour pouvoir agir sur le monde, de prédire avec précision l’évolution des phénomènes. (...) La science dispose pour cela d’un outil remarquablement efficace, le calcul différentiel et intégral, inventé au 16ème siècle. Son utilisation a pour conséquence l’élimination du discontinu, qui est soit purement et simplement ignoré, soit considéré comme une sorte de « cas limite » du continu lui-même. » Les miracles du calcul différentiel et intégral n’ont plus besoin d’être loués pour leur efficacité technique, mais il convient de se demander s’ils n’ont pas limité la compréhension des phénomènes de nombreux domaines. L’astrophysicien Laurent Nottale répond ainsi dans « La complexité, vertiges et promesses » : « Le calcul différentiel consiste à prendre la limite d’un petit intervalle de temps, d’espace ou d’autres variables et à les faire tendre vers zéro. Dans le calcul différentiel, on présuppose que cette limite du zéro existe. Or, en physique, rien n’indique que cela soit vrai. Au contraire, à chaque fois que l’on a essayé de voir ce qui se passait à des échelles plus petites, on a toujours trouvé des choses nouvelles ; on n’a jamais découvert un domaine où les choses deviendraient plus simples. Quand on définit une vitesse, une dérivée, on présuppose que cela va se simplifier lorsqu’on se dirigera vers les petites échelles. Or, ce n’est pas le cas. (...) On a longtemps cru que la méthode ordinaire de calcul différentiel devait réaliser en physique l’idée de Descartes. On allait décomposer l’objet à étudier en des parties très petites pour faire en sorte que chacune de ces parties tende vers zéro. L’espoir était de rendre simple l’objet considéré à partir de ses éléments extrêmement simples et où rien ne bougeait ; il n’y avait plus ensuite qu’à intégrer sur tout l’objet de manière à obtenir ses propriétés globales. Dans la réalité, ça ne marche pas ainsi, car, quand on observe les sous-parties de plus en plus petites d’un objet, on voit apparaître des choses constamment nouvelles. On peut très bien avoir des objets plus compliqués vers les petites échelles que vers les grandes, ce qui prouve que l’identification « naïve » de la méthode cartésienne au calcul différentiel ne marche pas. Un objet, comme l’électron, vu classiquement comme un simple point, devient compliqué vers les petites échelles : il émet des photons, les réabsorbe, ces photons deviennent eux-mêmes des paires électrons-positons, etc… A l’intérieur de l’électron, il y a une espèce de foisonnement de particules virtuelles qu’on ne voit pas à grande échelle. (...) Un électron est objet élémentaire qui contient toutes les particules élémentaires existantes. (...) Donc, on ne va pas se contenter d’observer des déplacements dans l’espace et le temps comme dans la physique ordinaire, on va également observer les déplacements dans les changements d’échelle (...). » Or, qui dit changement d’échelle au sein de toute modification et de tout déplacement, dit aussi discontinuité. Et pourtant, le présupposé de la continuité est si fort que Laurent Nottale affirme dans le même texte : « Je garde la continuité spatio-temporelle et je garde la continuité des changements d’échelle. Contrairement, là aussi, à la présentation habituelle des fractales comme un phénomène discontinu produit par un générateur, je fais en sorte d’avoir des changements continus, comme avec un télescope ou un zoom. »

Le mathématicien René Thom, lui aussi, est connu pour avoir affirmé le caractère déterministe des discontinuités (appelées catastrophes [3]) tout en conservant la continuité fondamentale de l’univers : son espace-temps est continu et ses fonctions qui permettent l’apparition des « catastrophes » sont des fonctions continues de paramètres également continus (des nombres réels qui évoluent sans rupture). Toute sa conception consiste à affirmer que les formes (des géométries continues) permettent d’interpréter les discontinuités : « Il (Aristote) avait ainsi réalisé (au moins partiellement) le rêve que j’ai toujours entretenu de développer une mathématique du continu qui prenne le continu comme notion de départ. Aristote a été pendant des siècles (et peut-être pendant des millénaires) le seul penseur du continu ; c’est là à mes yeux son mérite essentiel. » (dans « Esquisse d’une sémiophysique ») Alain Boutot fait ainsi remarquer que « La théorie de Thom est une théorie continuiste des discontinuités. » Et, malgré la découverte de la discontinuité fondamentale du quanta, de nombreux physiciens continuent d’utiliser une mathématique du continu, mais avec une certaine gêne. « Nous avons découvert de nombreuses opérations mathématiques non-calculables, ce qui amène les physiciens à jeter quelques soupçons sur la partie des mathématiques couramment mise à contribution dans la description du monde. (...) Donc, si au niveau le plus fondamental les choses étaient discrètes et discontinues, nous nous engagerions dans les sables mouvants du non-calculable. » dit John Barrow dans « La grande théorie ». « Les mathématiciens n’aiment pas les discontinuité, parce que les seules fonctions connues dans la nature, qu’on peut réellement calculer, sont des fonctions analytiques, qui sont continues. Si vous prétendez que tout est calculable dans la nature, vous êtes pratiquement amenés à nier la discontinuité. » explique le mathématicien René Thom dans « Stabilité structurelle et catastrophe ». Si René Thom affirme qu’il ne peut pas savoir si le monde est continu ou discontinu et même que personne ne pourra jamais le savoir, son a priori est quand même celui du continu. D’un côté, il déclare que « Savoir si le fond de la nature est continu et discontinu, c’est un problème métaphysique, et je ne crois pas quiconque dispose d’une réponse. » D’un autre côté, comme le relève le physicien Jean Perdijan, « René Thom considère que cette discrétisation de l’Univers n’est qu’une hypothèse imposée par la pensée algorithmique et il avoue sa préférence pour une pensée continue de l’Univers. » Comme on le voit, il s’agit bien d’une préférence philosophique choisie alors que l’on affirme par ailleurs qu’on ne pourra jamais trancher ? C’est ce que l’on appelle un a priori.

Notes

[1] Revue « Science et avenir », juin 2005

[2] C’est au point que la mathématique a parfois dicté ses conclusions en imposant ses outils. Par exemple, les lois non-linéaires n’ayant généralement pas de solution on a opté pour une description par des lois linéaires comme l’explique le mathématicien Régis Ferrière dans « Les mathématiques de l’évolution », exposé de l’Université de tous les savoirs en 2000 : « Rapprocher mathématiques et biologie relèverait-il d’une gageure ? (...) Une raison générale s’impose : les relations entre les variables d’un système biologique sont typiquement non-linéaires (...) »

[3] « Pour moi, il y a catastrophe dès qu’il y a discontinuité phénoménologique. » dit René Thom dans « Prédire n’est pas expliquer ». « L’apparence macroscopique, la forme au sens usuel du terme, provient de l’agrégation d’un grand nombre de (catastrophes élémentaires), et la statistique de ces catastrophes locales, les corrélations qui régissent leur apparition au cours d’un processus donné, sont déterminées par la structure topologique de la dynamique interne (...) » explique René Thom « Stabilité structurelle et morphogenèse ». Et il exposait dans « L’évidence biologique » que « La théorie des catastrophes consiste à dire qu’un phénomène discontinu peut émerger en quelque sorte spontanément à partir d’un milieu continu. »

Discontinuité de l’univers et structures hiérarchiques

Passons de l’idéalisation mathématique du continu à son éventuelle réalité physique. La première impossibilité à laquelle se heurte la notion de continuité est celle du saut d’échelle du réel. En effet, le grand n’est une simple somme de quantités petites. Car à petite échelle, il se passe des événements qui sont qualitativement différents de ceux à grande échelle. Par exemple, en termes de temps, une conception continue suppose que ce qui se passe en une minute est la somme de ce qui s’est passé dans chacune des soixante secondes, qui, elles-mêmes, cumulent les actions réalisées en soixante mille millisecondes et ainsi de suite. Or la réalité physique ne procède pas ainsi car il y a des univers différents, à diverses échelles de l’espace-temps. On n’y trouve plus les mêmes structures, ni les mêmes paramètres, ni les mêmes lois. L’astrophysicien Laurent Nottale relève ainsi dans « La relativité dans tous ses états » que « Une structure donnée se caractérise souvent par une échelle ou une gamme d’échelles particulières et, inversement, à une échelle donnée correspond en général un type de structures déterminé. » Le temps long n’est pas une somme d’instants courts. La petite échelle de distance ne totalise pas des intervalles à courte échelle. Pouvoir de résolution, agraindissement, interactions d’échelle, transitions de phase sont les noms de domaines de la physique dans lesquels on observe ces changements d’univers liés au changement de taille de l’observation. Un exemple bien connu est le passage de la microphysique (quantique) à la macrophysique (classique). L’une n’est pas du tout la somme d’un grand nombre fois ce qui se passe à l’échelle de l’autre. Le grand ne découle pas d’une augmentation de taille de ce qui se passe à petite échelle. Du coup, il est impossible de se représenter un segment comme une somme de petits segments, ce qui est pourtant un axiome indispensable du continu. « L’espace et le temps ne sont pas continus » conclue Christophe Schiller dans l’article « Le vide diffère-t-il de la matière ? » de l’ouvrage collectif « Le vide » qui rapporte les réflexions récentes de nombreux auteurs sur la matière et le vide. Le temps continu n’est-il pas une donnée essentielle qui nous est transmise par notre cerveau ? C’est certainement une de nos impressions continues comme l’est celle de notre vision oculaire, mais correspond-elle au monde réel ou est-elle une simple construction ? « La continuité psychique est non pas une donnée mais une œuvre. » répond Gaston Bachelard, s’opposant à « la thèse bergsonienne de la continuité du temps » dans « La dialectique de la durée ». Bien des auteurs constatent la même distorsion entre le réel et l’apparent continu délivré par nos sens comme Stephen Jay Gould dans « Le renard et le hérisson » : « Ce qui constitue l’univers est le plus souvent perçu par nos sens comme un continuum, avec des ralentissements et des accélérations, et des étapes plus ou moins importantes. (...) Les faits sautent littéralement (...). » Le parti pris général en faveur du continu et du progrès graduel a longtemps amené à rejeter toute interprétation en faveur de changements rapides et radicaux. Le terme employé pour une discontinuité est tout un symbole : « solution de continuité ». On aurait plutôt compris l’emploi de l’expression « solution de discontinuité » !

S’il n’y a pas continuité dans l’univers connu, c’est du fait de l’interaction d’échelle. De la matière à la vie et à l’homme, tout est organisé en échelons hiérarchiques, dont les niveaux ne sont pas réductibles au niveau inférieur. La société ne se ramène pas à l’individu, ni le cerveau au neurone, ni la vie à la cellule individuelle. Le point n’est pas une partie de la droite savait déjà Aristote, comme l’instant n’est pas un élément de la durée. Car ils ne se situent pas au même niveau hiérarchique, comme la longueur n’est pas une partie de la surface ni la surface une partie du volume. Il y a interaction mais celle-ci n’est pas linéaire. Le passage d’une échelle à une autre est discontinu. Or, dans la réalité toutes les échelles sont mêlées, coexistent et interagissent. Par conséquent, aucune description du réel ne peut être fondée sur l’apparente continuité. Au sein d’une grande dimension, il n’y a pas seulement des petites dimensions mais également des choses d’échelle inférieure, appartenant à un autre monde. « Il y a un monde dans l’électron » explique le physicien Manfred Mac Gregor. Il y a donc non seulement discontinuité mais non-linéarité et aussi contradiction dans l’interaction d’échelle. Le monde du vide, le virtuel, n’est pas plus petit que le monde matériel. Il y a un infiniment grand au sein de l’infiniment petit. Ce monde n’est pas descriptible par la théorie des ensembles dans laquelle « Le tout est plus grand que la partie », assertion bien connue d’Euclide. La théorie du monde continu est fondée sur la logique formelle (non dialectique) et fondée notamment sur le principe de non-contradiction, comme par exemple la géométrie d’Euclide ou la mathématique de Bourbaki. Le « Dictionnaire d’histoire et de philosophie » dirigé par Dominique Lecourt expose, sous la plume de Jean Dhombres, le projet axiomatique de Bourbaki : « (...) un programme théorique d’envergure fut lancé par le groupe Bourbaki (...) Il s’agissait en l’occurrence (...) d’adopter une base minimale : les deux notions de linéarité et de continuité devaient suffire, réunies par la notion d’espace vectoriel topologique (...) » On a vu les problèmes que pose la continuité, incompatible avec la discontinuité. En particulier, une série infinie de discontinuités de plus en petite n’est pas équivalente à la continuité, car il y aura toujours une infinité de discontinuités quand on passe à la limite. La linéarité supposée par Bourbaki ne pose pas moins de problèmes. Si les phénomènes de grande taille ne sont pas la somme des phénomènes de petite taille, c’est qu’il n’y a pas linéarité entre causes et effets : des petites causes peuvent avoir un effet à grande échelle. En fait les deux problèmes ont la même origine : l’interaction d’échelle, qui caractérise la nature, est non linéaire comme elle est discontinue.

Le monde existe simultanément à toutes les échelles et elles sont interactives, mais on ne peut les observer qu’en interagissant à un certain niveau. Si on se donne les moyens d’observer dans un temps plus court (avec plus d’énergie), on trouve tout un monde de points dont on ignorait l’existence en observant à un autre niveau (appelé niveau d’agraindissement). L’astrophysicien Laurent Nottale montre, dans « La complexité, vertiges et promesses », que cette question est un produit de l’interaction d’échelles : « La nature même de l’espace-temps est changée car elle contient en réalité ces changements d’échelle d’une manière intrinsèque et irréductible à l’espace-temps ordinaire qui est, lui, dans la vision physico-mathématique, un ensemble de points. (...) En réalité, cette vision dans laquelle on représente le monde sous forme de points prétend faire des mesures avec une précision infiniment grande – à chaque petit intervalle spatial correspond un petit intervalle de temps. Or, c’est la mécanique quantique qui nous dit qu’il faudrait une énergie infinie pour pouvoir faire une telle mesure. » On pourrait se dire que ceci n’est une limite que pour l’homme qui observe et mesure, mais cela est faux. Cette limite, notamment l’inégalité d’Heisenberg, est reliée au mécanisme fondamental de la matière et pas seulement à une mesure réalisée par l’homme (ou la machine produite par lui). Cela signifie qu’une précision très petite en espace nécessite un temps très grand et un temps très court nécessite une énergie très grande. Le point, défini avec une précision infinie, nécessite une énergie infinie ! La nature ne peut réaliser ses propres interactions, indépendantes de l’observateur, en dépensant sans cesse une telle énergie infinie. Elle opère nécessairement avec imprécision. C’est le mécanisme le plus économe en énergie. La convergence ne se produit qu’ensuite par émergence d’un ordre global issu du désordre des interactions variables, imprécises et imprédictibles.

Laurent Nottale poursuit ainsi : « Un point, cela n’existe pas ! D’ailleurs, cela se voit tout de suite. Si l’on dit qu’il y a un point sur une table, qu’entend-on par un point ? Quelque chose qui n’a aucune dimension. Il suffit de regarder avec une loupe pour découvrir une structure. On continue de grossir à la loupe puis on passe au microscope : à quel moment pourra-t-on voir enfin le point ? Jamais. Donc, physiquement, le point n’existe pas. (...) L’idée intéressante est que, chaque fois que l’on grossit, on voit quelque chose de nouveau. » Rappelons que, si observait du continu, chaque fois que l’on grossit, on trouverait la même chose. Un zoom sur un point, tel qu’il est conçu par la géométrie euclidienne, donnerait le même point. Un zoom sur une droite continue serait exactement la même droite continue. Jamais, en physique, tous les zooms sur le monde, à toutes les échelles, ne donnent le même monde. La Mécanique, comme l’ensemble de la Physique, a considéré la particule comme un point en déplacement, mais c’est physiquement impossible. Le physicien Léon Léderman l’explique ainsi : « Si l’électron est un point, …. , où se trouve la masse, où se trouve la charge ? » De plus, on ne peut pas connaître exactement un point, ni une succession continue de points, mais un nuage de points. Le point, si on change de résolution (agraindissement), devient non pas un segment mais un nuage de points, c’est-à-dire une série de sauts, comme mode exploratoire d’une zone. Les différents niveaux coexistent. Ils ne sont séparés, indépendants que dans la vision à une échelle, à un niveau de résolution – ou agraindissement. Cette notion ne doit pas être confondue avec celle d’agrandissement. Pour la notion d’agraindissement, une description nécessite de définir le niveau de précision du grain qui est souhaitée, comme s’il s’agissait du grain d’impression de l’imprimeur. C’est cette échelle, bien différente de l’échelle d’agrandissement d’une carte, qui définit ce que l’on va observer. Car l’agraindissement nous dit dans quel monde nous souhaitons observer la réalité. Ce n’est pas une limite de l’observation que l’on met ainsi en évidence, mais le mode de fonctionnement de la réalité. Celle-ci existe à plusieurs niveaux hiérarchiques simultanément et chaque niveau n’est pas une simple réduction des niveaux supérieurs. Il y a un saut qualitatif avec des lois nouvelles. A chaque échelle, la description est fondée sur un nuage de points, les grains. Et ceux-ci ne sont pas immobiles, inchangés, ni indépendants. La description par des objets fixes, imagés par une géométrie ou pas, ne peut correspondre à la réalité.

Il peut sembler que passer de la notion de point à celle de nuage de point ne résout aucunement le problème. En effet, si on ne peut définir le point, comment pourrait-on définir un nuage de points ? Ainsi, toute lumière dans le ciel provient soit d’une étoile soit d’un groupe d’étoiles. Une galaxie, constituée de milliards d’étoiles, nous apparaît comme un point lumineux. Si on cherche à agrandir l’image on trouve des étoiles ou des amas d’étoiles. En agrandissant encore on trouve des molécules puis des atomes, des particules, des quanta virtuels, etc, etc… A chaque saut d’échelle, un point n’était rien d’autre qu’un nuage de points. La différence d’image ne consiste pas seulement dans cette décomposition en échelles successives. Dans un nuage, les objets (les molécules) ne se contentent pas de s’additionner. Ils interagissent dans une dynamique nouvelle. Le nuage n’est pas une somme de molécules d’eau et d’air. C’est une interaction à grande échelle fondée sur des mouvements collectifs, sur des échanges d’énergie, de matière et des changements d’état. Il en va de même de la galaxie, de l’étoile, de la molécule, de l’atome et de la particule. Il ne suffit pas d’additionner des masses de gaz pour constituer une étoile ou une galaxie, ni même un nuage. Le nuage est agité et n’est jamais dans un état fixe. Pour le nuage, la fixité signifierait la disparition de la structure. Toute structure un peu trop durable entraînerait un changement brutal. C’est la chute de neige, en cas de constitution de cristaux. La structure globale ne se conserve que parce que sa dynamique interne est sans cesse agitée. Cette image nouvelle englobe donc la non-linéarité (les éléments ne se contentent pas de s’additionner), l’interaction d’échelle et les discontinuité à toutes les échelles. Avec le changement d’échelle, dans un sens et dans l’autre, le point devient un nuage de points et inversement. En son sein, il y a tout un monde. Du coup, le caractère figé du point d’Euclide disparaît. L’élémentarité, la fixité, la position parfaitement définie disparaissent pour laisser place au monde quantique des charges ponctuelles avec ses interactions contradictoires et ses changements de niveaux. C’est le saut d’échelle et le caractère dynamique qui distingue les deux conceptions (objets géométriques fixes ou non). On visualise les significations des deux manières de voir en effectuant un agrandissement. Quand on zoome sur la ligne continue, on ne voit rien. L’image agrandie est identique avec l’image de départ. Il y a exactement le même trait, le même nombre de points. Si on fait de même avec un trait discontinu, il en va très différemment. D’abord, le nuage de points discontinus devient plus clairsemé puis, d’un seul coup, à un certain seuil, on saute à une autre échelle où on trouve à la place d’un point un nouveau nuage de points. On a quelque chose de plus que l’agrandissement. C’est ce que l’on appelle l’agraindissement en faisant appel à des notions tirées de l’imprimerie ou du grain de caractère ou de l’écran télé. Cela indique aussi le nombre de grains dans un cercle de dimensions données. Toutes ces remarques ont trait à l’interaction d’échelle, phénomène qui ne peut exister au sein du continu. L’autre aspect, on l’a dit, est la dynamique. Le point est fixe, n’a pas de structure, pas d’échanges possibles ni de changement de structure. Ce n’est pas le cas du nuage de points qui serait capable d’être considéré à un certain agraindissement comme se manifestant comme un point unique. L’attribution de valeurs numériques à ce point n’est plus unique puisqu’elle se réfère à une structure interne.

C’est toute la philosophie de la matière qui est modifiée. C’est un résultat qui est loin de ne concerner que les spécialistes et, pourtant, il n’est pas diffusé dans le grand public. Les préjugés fixistes et gradualistes [1] ont été battus en brèche par les progrès des sciences mais cette évolution des idées n’a pas encore touché (ou très peu) notre philosophie sur le monde. La compréhension statique de l’univers devrait céder la place à une interprétation dynamique. Nous savons que les montagnes ne sont ni des constructions éternelles ni des édifices stables, même si personne ne les voit bouger. Nous savons que l’écorce terrestre bouge, même si nous ne la voyons pas bouger. Nous savons que les espèces changent, même si elles semblent figées. Nous savons que toutes les formes de vie ont une même origine, même si aucun d’entre nous n’a vu de ses yeux un être unicellulaire se transformer en pluricellulaire ni vu apparaître une espèce porteuse d’une colonne vertébrale à partir d’animaux qui n’en possédaient pas. Pourtant, il est impossible de concevoir une déformation continue menant d’un être sans un cerveau ou sans pattes à un être qui en possède. Il en va de même de toutes les structures de la matière. La matière est en mouvement et en transformation permanentes, même si ces changements sont invisibles et difficiles à concevoir. Ces révolutions nécessitent d’autant plus d’être pensées que le processus de leur production n’a rien d’évident. La pensée conceptuelle acquiert son importance et que l’expérience ne suffit pas [2]. Le mécanisme du fonctionnement est fondé sur des chocs et non sur un développement régulier.

Cette philosophie de la physique n’est pas discutée en dehors de quelques milieux très spécialisés, et encore. Le fondement de l’a priori du continu n’est pas essentiellement scientifique ou technique, mais social. La base est à chercher dans l’aspiration des hommes à la continuité de leur conscience et de leur vie, à la rationalité linéaire de leurs actions, l’aspiration des régimes sociaux et politiques à la durabilité de leur pouvoir. Mais c’est aussi la croyance de l’homme dans la continuité de sa conscience. Mon cerveau me donne une impression de continuité des images, de continuité du temps, de continuité de monde comme de celle de mes pensées. Cette impression est fausse. Aucune image visuelle n’est continue. La décharge électrique du neurone et celle de la synapse, qui fondent le fonctionnement cérébral, se réalisent par à coups, comme l’activation d’une zone ou d’un réseau de neurones. Une zone est brutalement activée puis désactivée brutalement aussi. A tous les niveaux, l’intermittence est la règle. Le neurone est fondé sur une décharge électrique brutale, à la suite de laquelle il est inactif durant un instant.

Si le physicien Max Planck tient à souligner la nature « explosive » des phénomènes que l’on vient de découvrir au sein d’une matière apparemment calme, c’est parce que le changement est brutal, inattendu, radical. La révolution dans une structure (qu’il s’agisse d’une structure de l’atome, de la galaxie, de la météo terrestre, une structure des interactions matière-matière ou matière-lumière ou d’un autre domaine) suppose un seuil à partir duquel les conditions d’existence de l’ordre précédent sont déstabilisées. A un certain stade une toute petite action entraîne une grande transformation. C’est l’équivalent, en physique, du « rôle de l’individu dans l’histoire », en histoire des sociétés. Cela provient du caractère de la dynamique interne permanente que l’on constate dans la matière à toutes les échelles, même pour les particules durables (électron, proton, …) qu’on croyait élémentaires et stables. Cette agitation de la matière, lorsqu’elle parvient à des seuils, mène à la destruction de la structure. A chaque niveau et pour chaque structure, il y a des effets de seuil. Par exemple, à douze millions de degrés, une masse de matière en contraction enclenche la formation d’une étoile (un soleil), les explosions nucléaires commençant au centre. Atteignant la limite de cent fois la masse solaire, un soleil explose donnant un amas d’étoiles, etc… A un certain seuil du choc énergétique, l’électron disparaît lorsqu’il s’unit à un positon (son anti-matière) pour donner un ou plusieurs photons (grains de lumière). Le désordre interne, s’il atteint un certain niveau, fait exploser la structure. L’action d’éléments extrêmement petits entraîne des évolutions considérables. Ainsi, ce sont les explosions des tout petits noyaux atomiques qui permettent la dynamique de l’étoile dont le maintien de la structure est un équilibre instable et dynamique entre gravitation de masses énormes de matière et rayonnement dû aux explosions nucléaires qui font fusionner des noyaux.

On sait maintenant que l’étoile enclenche son processus d’explosions nucléaires de fusion au sein d’une masse de matière atteignant certains seuils. Par exemple, il faut atteindre la température seuil de 12 millions de degrés dans le noyau pour que commencent les explosions nucléaires dans lesquelles deux noyaux d’hydrogène fusionnent en un noyau d’hélium en libérant de l’énergie. De façon brutale, dans ce qui n’était encore qu’une grosse planète gazeuse d’environ la taille solaire, une nouvelle sorte de fonctionnement se met en route. Un autre seuil aura lieu ensuite si l’étoile atteint huit fois la masse solaire. L’histoire de l’étoile connaîtra des étapes brutales, à certains seuils de sa transformation. Ce qui est vrai de l’étoile l’est de toutes les échelles de la matière. Les molécules, les atomes, les particules sont produites et détruites en atteignant une limite.

L’existence d’un seuil au delà duquel on trouve un autre monde dans lequel nos « objets » et nos lois n’ont plus cours [3] nous étonne toujours. Est-il possible que notre univers soit connecté à des mondes différents à d’autres échelles de la matière (échelles du temps, de la température ou de la pression par exemple) ? On a été surpris lorsqu’on a découvert que les étoiles ne fonctionnaient pas en brûlant un carburant classique comme du gaz mais une matière tellement concentrée qu’elle pouvait, arrivée à un seuil, passer un cap où elle subissait de nouvelles lois dans lesquelles les noyaux atomiques apparemment stables pouvaient fusionner en construisant des noyaux plus lourds et en libérant du rayonnement. Nous avons été également surpris lorsque nous avons constaté, avec la physique quantique, qu’il y avait un monde très différent du nôtre (dit macroscopique) à l’échelle des particules (microscopique). Nous avons encore été surpris lorsque l’on a constaté, avec les diagrammes de Feynman, l’existence d’un monde dit virtuel, à une échelle encore inférieure (en dessous des constantes de Planck). A chaque fois que ce nouveau monde a été découvert, les scientifiques ont été inquiets, réservés et prudents. Ils ont parlé d’artifice de calcul et n’ont pas admis d’emblée la réalité de ce monde nouveau. Planck traitait lui-même ses quanta de technique de calcul comme l’a fait Richard Feynman avec ses particules et photons « virtuels ». A chaque fois que l’on passe d’une échelle à une autre, on saute à nouveau le pas réalisé par cette révolution qui a donné naissance à cette nouvelle échelle de la réalité.

Il n’y a aucune progressivité, aucune continuité [4], aucune linéarité dans l’évolution d’état de la matière, c’est-à-dire de la forme d’organisation des molécules. En changeant de température ou de pression, un gaz devient un liquide puis un solide. Ce n’est pas une évolution progressive de structure mais une révolution. Le nombre de degrés de libertés passe de 3 à 2 puis à 1. Il n’y a pas d’étape intermédiaire possibles. Ce type de modification brutale de structure existe pour toutes les formes de la matière et à toutes les échelles. Par exemple, la structure solide du sucre est détruite par l’eau chaude. Sans cette action destructrice nous n’aurions pas conscience de l’action violente des molécules d’eau chaude. Examinons une autre rupture : la fusion qui donne les différents atomes, des plus légers comme l’hydrogène ou l’hélium aux plus lourds comme les atomes radioactifs. Chaque augmentation d’une unité du nombre de nucléons (protons et neutrons) dans le noyau de l’atome est un saut qualitatif, acquis grâce à un choc énergétique. Chacun de ces noyaux atomiques a été construit par l’histoire des étoiles et des galaxies, par les explosions nucléaires et les explosions d’étoiles. De même, en sens inverse, ce sont des chocs qui peuvent détruire un noyau atomique pour produire des noyaux atomiques plus petits. Cela peut se produire spontanément si les noyaux sont des structures instables. La radioactivité casse la structure lourde en atomes plus légers. Une transformation brutale caractérise toutes les transformations de structure, des plus grandes aux plus petites, de la supernova qui explose à la particule. Il est rapide et son instant est imprédictible. Le simple saut quantique de l’électron ou de l’atome d’un état dans un autre (absorption ou émission d’un photon) est lui aussi brutal et imprédictible. Prenons un autre exemple, à une tout autre échelle : la dynamique du climat de la terre. Le passage d’une phase de réchauffement à une phase de glaciation est très court au regard des périodes stables qui le précédent et qui le suivent. Le changement se révèle à nouveau brutal et imprédictible. Un changement aussi radical que le passage d’un liquide à un gaz : l’ébullition. Le changement de phase est rapide, imperceptible par rapport aux échelles de la dynamique dans laquelle il se produit. Il intervient comme un événement de l’histoire. L’instant de l’ébullition est imprédictible même si on connaît la température moyenne de celle-ci. Toute modification imperceptible de la pression, de la composition du corps modifie la température de fusion ou d’ébullition. Sont aussi imprédictibles l’évolution d’une grippe, d’une pente avalancheuse, d’un nuage porteur de pluie ou de neige, d’un silo à grains, d’une plage attaquée par la mer, d’une falaise de craie agressée par l’érosion, d’une fissure de roche ou d’un mur. L’imprédictibilité n’est pas liée avec l’absence de lois, avec une irrationalité de la nature. Elle provient du caractère des lois de la dynamique qui permettent des changements radicaux, capables de modifier toute la suite des événements. Le « chaos déterministe » parle dans ce cas de « sensibilité aux conditions initiales » qui signifie que de petites actions peuvent avoir un grand effet. L’image de l’avalanche clarifie cette situation : un simple skieur peut entrainer, en rompant la pente avalancheuse, des ravages dans toute la montagne.

La discontinuité est à la base de l’une des découvertes fondamentales de la physique contemporaine : la renormalisation [5]. Cette conception découle d’une convergence étonnante entre physique statistique, physique des phénomènes critiques, physique du vide et physique des particules. On parle là de « classe d’universalité ». Exposons-en sommairement la base. L’étude des interactions – par exemple l’interaction dite coulombienne entre charges électriques – menait à des infinis que l’on ne constate pas dans la réalité [6]. Ainsi, une charge agit sur l’espace qui réagit à nouveau sur la charge. Ces boucles de rétroaction à l’infini doivent donner un résultat final qui est fini car c’est la réalité mesurée or les équations semblaient indiquer le contraire. C’est le physicien Richard Feynman qui en a donné la solution pour l’interaction coulombienne ou électromagnétique. C’est ce que l’on appelle l’électrodynamique quantique. Cette idée a été généralisée aux autres interactions quantiques. Elle consiste à renoncer aux infiniment petits dans les calculs. Cela signifie, plus fondamentalement, refuser de considérer l’espace et le temps comme continus. En effet, elle limite les calculs à une petite distance en supposant qu’au delà les résultats sont non signifiants. La méthode a sa justification dans le fait que l’on ne peut pas supposer que l’on peut descendre de distance autant que l’on veut. Deux charges ne peuvent pas se rapprocher arbitrairement près car l’interaction coulombienne, inversement proportionnelle à la distance, deviendrait infinie. Il est donc impossible qu’il y ait contact entre deux particules chargées. Il est également impossible de regarder l’espace comme un continuum. C’est la description des interactions fondamentales qui l’impose. Ainsi, un photon émis en un point peut être absorbé en un autre sans passer par les positions intermédiaires. C’est ce que l’on appelle le diagramme de Feynman de l’interaction électromagnétique La discontinuité concerne le temps qui est profondément non linéaire puisque l’antiparticule peut être absorbée par la particule avant d’être émise.

Einstein avait tenté de rajouter aux concepts géométriques continus d’Euclide une continuité de l’espace vide : « La mathématique euclidienne ne définissait pas ce concept (d’espace vide) (...). Toutes les relations de position sont exprimées par les relations de position entre les objets. Le point, le plan, la droite, la distance représentent des objets corporels idéalisés. Dans ce système de concepts l’espace en tant que continuum n’est jamais envisagé. (...) Les concepts de point matériel, de distance entre les points matériels (variable avec le temps) ne suffisent pas à la dynamique. » (dans « Comment je vois le monde »). Einstein va rajouter à cette géométrie euclidienne continue et à cet espace vide continu l’idée d’un continuum commun espace-temps et même espace-temps-matière. Mais il ne parviendra jamais à découvrir un champ continu unitaire capable d’expliquer les phénomènes physiques. Einstein ne parvenait pas à imaginer une discontinuité de la causalité. Son principe de réalité restait figé et ne pouvait concevoir une réalité de l’ « objet » qui soit contradictoire, qui existe à la fois à plusieurs échelles et dont le contenu en termes de propriétés ne soit pas unique. Si le niveau d’interaction change, l’objet saute d’un état à un autre. C’est un phénomène étonnant car il est spontané, non-linéaire et discontinu, donc apparemment irrationnel, qui a profondément perturbé Einstein qui y voyait du hasard pur (« dieu ne joue pas aux dés »). C’est dans cette interaction d’échelles (notamment entre matière et vides) que réside la source de nombre d’« étrangetés » de la physique quantique, source d’étonnement qui a fait passer la matière à petite échelle pour un phénomène aléatoire. Le petit n’est pas une simple réduction du grand. Il en résulte l’impossibilité de négliger les phénomènes à petite échelle, se déroulant en un temps court. Ils peuvent jouer un rôle fondamental dans la dynamique. C’est encore la discontinuité de l’univers qui explique les contradictions du mouvement. Les lois de Maxwell par exemple prévoiraient l’impossibilité du mouvement En effet, une particule initialement au repos devra être accélérée. Or, toute particule chargée, qui est accélérée, émet des ondes électromagnétiques qui la freinent. Comment une particule chargée pourrait donc être spontanément mise en mouvement. L’erreur provient du fait que les équations de Maxwell supposent la continuité de l’espace-temps. Si la particule était effectivement dénuée de contradictions, cette situation serait impossible. C’est la contradiction qui cause la discontinuité.

La nature n’a rien de continu ni de graduel. Le courant que l’on dit « continu » est formé de corpuscules, les électrons, qui ne peuvent que passer brutalement, un par un. Le jus, apparemment continu d’un liquide est constitué de molécules, qui ne peuvent que se déplacer une par une. La pluie ne tombe que sous forme de gouttes et jamais d’un jus continu. La lumière qui nous apparaît continue dans l’apparence du rayon ou de la surface lumineuse est constituée de corpuscules lumineux, les photons, même si on a souvent une impression de continuité. Il n’y a pas de valeur intermédiaire puisque les corpuscules sont en nombre entier. A chaque nouveau corpuscule, on a un saut. L’apparente continuité (par exemple celle de l’évolution de la température d’un gaz) n’est qu’une moyenne sur un très grand nombre de molécules en agitation permanente, et pas une description du réel. Non seulement le réel est discontinu mais il est le sujet de chocs qui ne cessent jamais, comme ceux des molécules. Le changement n’est pas plus graduel que le mouvement. Personne ne voit l’enfant pousser et pourtant il a de brusques phases de croissance comme tous les êtres vivants. Tout se passe comme dans un film qui donne l’impression de continuité des images alors que nous savons bien qu’il s’agit de photos se succédant à vitesse suffisamment rapide. Les images sautent sans que l’on en ait conscience. On ne peut pas distinguer ces instants de coupure, trop brefs, durant lesquels le film saute d’un cran. Les phénomènes réels connaissent les mêmes sauts comme la croissance des êtres vivants. C’est également une impression d’optique moyenne qui créé l’apparente continuité. Dans la croissance de l’herbe, par exemple, on se contente de comparer la taille moyenne de l’herbe sur de longues périodes. C’est l’origine de l’illusion de la croissance progressive. Même un auteur « évolutionniste » et gradualiste qui suit la thèse néo-darwinienne d’évolution des espèces par sélection, comme Hervé Le Guyader, conclue une intervention clairement intitulée « la notion d’évolution » à l’Université de tous les savoirs en juillet 2002 : « L’évolution n’est pas si graduelle, elle se fait souvent par crises (...) Des crises se sont produites, extrêmement importantes dans l’histoire géologique de la Terre. L’une des plus belles crises est celle du Permien, au cours de laquelle 80% des espèces auraient disparu. Ces crises d’extinctions auraient été suivies de radiations, où des innovations très importantes se produisent. » D’autres scientifiques ne craignent pas de souligner les sauts de l’évolution comme le paléoanthropologue Ian Tattersall dans « Petit traité de l’évolution » : « Tout a changé avec la découverte sur le rives du lac Turkana du squelette d’un adolescent (...) vieux de 1,6 millions d’années (...). Hormis quelques points de détail, la structure de son corps était entièrement moderne. (...) Comprendre ce nouveau phénomène nous oblige à admettre que, dans le processus de l’évolution, des réorganisations physiques radicales peuvent être parfois le produit de modifications génétiques relativement mineures (...). Tout ce que nous pouvons dire, c’est qu’il y a environ 1,6 millions d’années un saut sans précédent dans la structure du corps a eu lieu chez nos précurseurs. (...) Au bout du compte ce sont ces trois changements, ponctuels mais lourds de conséquences (la station debout occasionnelle, la fabrication d’outils, la locomotion régulière sur deux jambes), qui ont vraiment fait la différence dans l’évolution des hominidés. (...) De toutes les fonctions mentales humaines, la plus étroitement liée au processus de symbolisation est le langage. (...) Reste que la transition entre un mode de vie sans langage et celui qui nous est familier impliquait un saut énorme, cognitif et pratique. »

Cependant, comme les évolutionnistes se plaisent à le rappeler, ils sont majoritairement adversaires du « saltationnisme » et continuent de prêcher pour le gradualisme [7]. Ils ne sont pas les seuls. Dans de multiples disciplines, la thèse de l’évolution graduelle a toujours cours et est même dominante. Nous avons toujours tendance à effacer les phénomènes à rythme trop rapide de la compréhension des phénomènes. Il en va de même dans le domaine social et historique. Chacun aura retenu que le régime des pharaons a eu une très longue durée [8] – trois millénaires ! – mais c’est omettre qu’il a eu les plus importantes interruptions [9]. Des révolutions sociales l’ont plusieurs fois balayé et elles ont marqué son régime durablement. Après le premier interrègne en -2260 avant JC, toute l’organisation sociale et l’idéologie ont été fondés sur l’admiration de l’ « âge d’or » détruit par la révolution sociale et sur les moyens d’éviter à l’avenir une telle catastrophe. La révolution sociale a supprimé pour plusieurs centaines d’années le régime pharaonique lui-même. Quand celui-ci est réapparu, suite au premier interrègne, il a été reconstruit sur des bases nouvelles résultant de cette révolution sociale. Cela n’empêche pas des historiens de s’émerveiller de la « permanence » du régime pharaonique.

Les métamorphoses de la matière comme celles de la vie, de la conscience ou de la société ont le même caractère discontinu et brutal, lorsqu’elles mènent d’un état à un autre. Il s’agit toujours d’un saut de type « quantique ». La conscience procède par unités (images mentales) comme la matière (par quanta) ou la vie (par cellule, par signal, par impulsion électrique ou chimique). Pourtant, nous conservons un a priori de la continuité de l’univers qui nous entoure, comme de celle de notre conscience du fait de la rapidité des sauts, entre les états des particules comme entre les images cérébrales. Nous ne percevons pas les sauts quantiques ni les flash de notre conscience [10]. Nous avons du mal à admettre que notre univers comme notre entendement, fondés sur une série de saccades discontinues survenant de manière aléatoire, parvienne cependant à produire l’ordre que nous connaissons. Notre vision optique a, elle aussi, un caractère brutal et discontinu mais nous ne le sentons pas. Par exemple, nous ne sommes pas conscients de l’apparition d’une image visuelle trop fugace (subliminale [11]) qui est pourtant distinguée par notre cerveau. Nous ne distinguons pas un phénomène brutal, s’il est trop furtif, même s’il a une action réelle. Nous ne percevons pas les photons un par un, mais comme un jus continu de lumière ce qui est une illusion. Nous avons une limite de perception des énergies élevées qui se manifestent dans des temps trop court pour nos capacités de sensation ou de discernement.

Notre parcours passe sans cesse du vivant au non-vivant, de l’humain au non-humain, du naturel au social et inversement, au risque de faire ressentir lecteur un peu de vertige au. Le premier des sauts à étudier est justement celui d’un domaine à autre. Les auteurs ont longtemps voulu étudier séparément ces domaines. L’opposition apparente entre matière et vie est profondément ancrée dans nos conceptions [12]. Cela provient du fait que la matière n’est pas apparue comme dynamique et productrice d’une histoire, contrairement à la vie. Dans nos conceptions et images, le conscient est plus encore opposé au non-conscient par un a priori aussi fort. Cette conception a longtemps prévalu et, sous son égide, la science a connu des développements considérables mais cela n’a pas rendu plus facile de passer ensuite à une compréhension d’ensemble, ce qui est pourtant une nécessité. Il faut en effet concevoir le monde dans son unité et trouver les mécanismes permettent de sauter d’un état à un autre. Ces modes de transformation ne sont pas évolutionnistes mais révolutionnaires. Aucune continuité, aucun gradualisme ne décrira jamais les passages de la matière à la vie, d’une structure vivante à une autre au plan d’organisation radicalement différent, de la vie à l’homme, à la conscience et aux divers régimes sociaux de la société humaine. Quant au système capitaliste, il est celui qui, dans l’histoire, est apparu comme le moins formulable en termes de stabilité et de continuité. Comme l’écrivait Léon Trotsky dans « Le marxisme et notre époque », « L’idée d’un progrès graduel continu semblait établie pour toujours, cependant que l’idée de révolution était considérée comme un pur vestige de la barbarie. (...) La vie du capitalisme de monopole de notre époque n’est qu’une succession de crises. »

Bien que ce ne soit pas l’objet de cette partie, il faut rappeler que la discontinuité reste la question essentielle de l’étude de l’Histoire, de l’économie, du social et de la politique. Nul ne peut décrire l’Histoire sans rapporter ses sauts : d’un type de propriété à un autre, d’un type de relations sociales à un autre, d’un type d’échange à un autre, d’un type de structure familiale ou sociale à un autre, etc… Le changement politique, la crise économique, la crise sociale et la révolution restent les éléments clefs de la société humaine depuis que l’exploitation est apparue. Et tant que l’on sera dans une société de classe, la compréhension de la transition (la discontinuité) entre révolution bourgeoise et révolution ouvrière, entre Etat bourgeois et Etat ouvrier, entre planification socialiste et planification étatiste,… restera la question clef de la compréhension des perspectives historiques. C’est cette idée qui sépare les diverses sortes de militants ouvriers, en révolutionnaires et réformistes. Chercher à masquer cette différence en prétendant au réalisme, en condamnant le dogmatisme, le sectarisme de « prétendus » révolutionnaires, en récusant les points de vue « trop théoriques », toutes ces attitudes, loin de permettre un raccourci de la lutte des classes, ne peuvent que l’entraîner dans des impasses en perdant politiquement les révolutionnaires qui s’y aventureraient. Pour l’avenir, voir de la continuité dans l’évolution de la société est le pire des dangers. Le passage d’une société à une autre ne peut qu’être rapide, radical, brutal, sans concession, allant droit au but sous peine d’aller à l’échec, de laisser à la réaction le temps de se ressaisir.

Notes

[1] « Sur des sujets aussi fondamentaux que la philosophie générale du changement, la science et la société travaillent habituellement la main dans la main. (...) Lorsque les monarchies s’effondrèrent et que le 18e siècle s’acheva dans la révolution, les hommes de science commencèrent à considérer le changement comme un élément normal de l’ordre universel, non comme un élément aberrant ou exceptionnel. (...) Le gradualisme, l’idée que tout changement doit être progressif, lent et régulier, n’est jamais né d’une interprétation des roches. Il représente une opinion préconçue, largement répandue, s’expliquant en partie comme une réaction du libéralisme du 19ème siècle face à un monde en révolution. » disait Stephen Jay Gould dans « Le pouce du panda ». Pour tordre le cou à ce préjugé du gradualisme, selon lequel tout changement interne d’un système serait lent, progressif et les changements brutaux seraient dus à des chocs externes, il raconte comment des géologues ont ainsi été gênés pour interpréter la formation de certains canyons des USA (les scablands) du fait d’un a priori gradualiste selon lequel les canyons ne pouvaient qu’avoir été creusés par des érosions sur de très longues durées. Comme l’écrivait Léon Trotsky dans « Le marxisme et notre époque » : « L’idée d’un progrès graduel continu semblait établie pour toujours, cependant que l’idée de révolution était considérée comme un pur vestige de la barbarie. »

[2] Dans « Le renard et le hérisson », son ouvrage-testament, Stephen Jay Gould expose : « La notion selon laquelle la science, dans sa quête de vérités naturelles, utilise des observations brutes et non biaisées est un des mythes fondateurs et, on va le voir, fort pernicieux, de ma profession. Les scientifiques ne pourraient avoir une telle approche du monde même s’ils le souhaitaient ardemment car, comme a pu l’écrire le fameux philosophe des sciences N.R.Hanson, « le pied fourchu de la théorie » marque nécessairement de son empreinte toute observation. (...) Les chercheurs sérieux ont toujours reconnu la nécessité philosophique et les avantages pratiques des observations faites dans le but de tester une théorie, et non dans celui d’aligner une liste de résultats dénués de sens. (...) Une de mes « grandes citations préférées » est de Charles Darwin, qui écrivait à l’un de ses proches collègues, à propos du mythe de l’observation « objective » : « Comme il est étrange que certains puissent ne pas voir que toute observation doit être faite à l’appui ou à l’encontre d’une idée existante pour être de quelque utilité. »

[3] Sous le temps de Planck et la distance de Planck, même l’univers matériel entier n’a pas assez d’énergie pour agir. Le temps de Planck correspond à l’action de l’énergie totale de l’univers. Temps et énergie sont inversement proportionnels selon la formule temps fois énergie égale constante de Planck h.

[4] Comme l’expose Henri Poincaré dans « L’hypothèse des quanta », l’apparence du continu provient d’une série ou d’une combinaison d’états discontinus d’égale probabilité.

[5] Sur la renormalisation, voir l’encyclopédie Wikipédia : « Un premier électron émet un photon, le photon se propage puis se matérialise en une paire électron-positon qui se propagent puis s’annihilent pour se retransformer en un photon qui se propage et est finalement absorbé par un deuxième électron. Ce processus contient huit diagrammes élémentaires : quatre font intervenir le couplage électron-photon, deux le propagateur du photon et deux le propagateur de l’électron. (...) Trois diagrammes suffisent pour décrire tous les processus de l’électromagnétisme :
 couplage électron-photon (appelé vertex) : un électron peut émettre ou absorber un photon ; ce processus a une probabilité proportionnelle à la charge électrique de l’électron ;
 propagateur du photon : un photon peut être émis à un point donné de l’espace-temps et absorbé à un autre ; la probabilité ne dépend que de la distance dans l’espace-temps entre les deux points ;
 propagateur de l’électron : un électron peut être émis à un point donné de l’espace-temps et absorbé à un autre ; la probabilité est dans ce cas plus compliquée à décrire et elle dépend aussi de la masse de l’électron. Mais le calcul pose des problèmes apparemment insurmontables : il faut additionner les diagrammes de Feynman pris à tous les points de l’espace-temps. Or la somme sur toutes les paires de points de l’espace-temps de la boucle du diagramme représentant la propagation de la paire électron-positon donne un résultat infini. Il existe par ailleurs deux autres diagrammes de Feynman en boucle qui donnent des résultats infinis. (...) Autre exemple du problème des infinis : quelle est la force nécessaire pour mettre en mouvement un électron initialement au repos ? Conformément à la théorie de Maxwell, toute particule chargée accélérée émet des ondes électromagnétiques. Or, ces dernières agissent sur l’électron en le freinant. Le calcul de cette force de freinage selon la théorie de Maxwell donne un résultat infini. Il serait donc impossible de déplacer un électron, ce qui est bien sûr contredit par l’expérience ! Ce n’est qu’en 1949 que Julian Schwinger, Richard Feynman, Sin-Itiro Tomonaga et Freeman Dyson parviennent à résoudre ce problème des quantités infinies des diagrammes en boucle : ils le contournent en inventant une méthode de calcul ingénieuse appelée renormalisation. Elle introduit enfin les concepts quantiques de façon cohérente dans la théorie de Maxwell. Cette nouvelle théorie est appelée électrodynamique quantique. (...) L’électrodynamique quantique est valable jusqu’à une certaine distance minimale qu’on choisit plus ou moins arbitrairement : l’addition des diagrammes de Feynman en boucle sur tous les points de l’espace-temps s’arrête alors à cette distance. On évite ainsi les quantités infinies mais le résultat du calcul de ces diagrammes dépend de cette distance minimale. »

[6] Dans un exposé de 1968 à Trieste intitulé « Les méthodes en physique théorique », Paul Dirac expose ainsi ce problème des infinis en électromagnétisme : « Lorsqu’on écrit les équations dont on attend une description exacte de cette interaction (entre un électron et le champ électromagnétique), et que l’on essaye de les résoudre, on obtient – pour représenter les quantités qui devraient être finie – des intégrales divergentes. (...) Les divergences de l’électrodynamique quantique proviennent des contributions de haute énergie dans l’énergie d’interaction entre les particules et le champ. » Ce sont des interactions qui auraient lieu en un temps infiniment court. On est contraint de les supprimer (méthode de renormalisation), ce qui signifie qu’il n’y a pas de temps infiniment court. Par conséquent, le temps n’est pas continu.

[7] Un exposé pour l’Université de tous les savoirs de l’évolutionniste Guillaume Balavoine en juillet 2002 tente de balayer les arguments saltationnistes liés aux recherches sur les gènes Hox : « Notre propos : l’évolution est-elle saltationniste ou gradualiste ? (...) La plupart des biologistes acceptent l’idée que l’évolution se fait bien de façon graduelle par l’accumulation de petites différences, comme le suggérait Darwin. Une partie de l’intérêt suscité par les gènes homéotiques provenait de l’idée que ces gènes étaient susceptibles d’engendrer une évolution par sauts. » Balavoine rejette cette interprétation et tient surtout à faire remarquer qu’il est suivi en cela par une majorité d’évolutionnistes.

[8] Pierre Miquel écrit dans « L’Egypte éternelle » : « Soumise à des conditions naturelles à peu près immuables, l’Egypte a créé une civilisation absolument originale dont la caractéristique la plus évidente est la permanence. (...) Nous avons entrepris cet ouvrage, que nous avons appelé ‘’l’Egypte éternelle’’, dans l’intention de définir les caractère permanents de sa civilisation (...) » Remarquons que cela ne l’empêche pas de reconnaître dans l’Egypte pharaonique, dès ses origines, des classes sociales en lutte : « Le vocabulaire nous fait connaître trois classes d’êtres humains : les Payït, les Hennyt et les Rekhyt. » L’Egypte pharaonique a connu trois classes sociales, la noblesse, la classe moyenne (prêtre, guerrier, scribe, artisan) et le petit peuple des paysans serfs. Contrairement à ce que l’on pense souvent, les exploités ne sont pas des esclaves mais ils sont soumis à des demandes de main d’œuvre pour des travaux forcés.

[9] Notamment, la révolution sociale en – 2260 avant JC a balayé le régime des pharaons.

[10] En ce qui concerne notre perception cérébrale des odeurs par exemple, Carlos Calle, dans « Supercordes et autres ficelles », expose ainsi « Comment le cerveau sépare-t-il une odeur de toutes les autres. Comment apprend-il à reconnaître les odeurs familières ? Il semble que ce soit rendu possible par le chaos. (...) Les chercheurs en ont déduit que l’acte de perception consiste en un saut brusque d’un ensemble d’oscillations chaotiques à un autre. Ils pensent que le bulbe olfactif et le cortex entretiennent plusieurs ensembles d’oscillations chaotiques simultanées, une pour chaque odeur familière. »

[11] Patrick Philipon explique dans « La Recherche » de janvier 2007 : « Parmi les innombrables stimuli visuels qui nous assaillent à chaque instant, certains sont si discrets que nous ne les percevons pas. Une équipe de l’université de Boston montre que ces messages invisibles sont paradoxalement les plus perturbants (« Science » – 2006). (...) « Il y a vingt ans, les résultats sur les stimuli subliminaux étaient très contestés. Aujourd’hui l’imagerie cérébrale montre qu’ils sont effectivement détectés et traités par le cerveau » constate Axel Cleermans, professeur à l’université libre de Bruxelles. » Patrick Philipon explique l’hypothèse que vérifient ces scientifiques : il s’agirait d’une action des vues subliminales sur le cortex latéral préfrontal. « Cette aire intervient pour inhiber l’activité du cortex visuel : elle filtre le signal non approprié. En revanche, lorsque le signal est subliminal, il serait suffisant pour induire une activité parasite du cortex visuel mais pas assez pour déclencher une inhibition par le latéral préfrontal. » Le phénomène serait donc une inhibition de l’inhibition par la rapidité du phénomène trop grande pour susciter sa propre inhibition !

[12] « Les innombrables livres produits par les spécialistes du « vivant » les biologistes tiennent pour évidente la classification de tous les objets en deux catégories : ceux qui sont inanimés et ceux qui sont vivants. (...) Mais ils se gardent bien de préciser en quoi consiste la frontière entre les deux catégories. » Albert Jacquard dans « La légende de la vie »

La suite

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.