Accueil > 01 - PHILOSOPHIE - PHILOSOPHY > Chapter 05 : Nature’s discontinuites make jumps and gaps - Les (…) > Comment la physique résout la question épineuse des infinis ?

Comment la physique résout la question épineuse des infinis ?

mercredi 14 mai 2014, par Robert Paris

Roger Apéry dans "Penser les mathématiques" (ouvrage collectif) :

« La doctrine de l’infini actuel soutenue par Leibniz et étendue par Cantor l’a été pour des raisons métaphysiques ».

Leibniz écrivait :

« Je suis tellement pour l’infini actuel qu’au lieu d’admettre que la nature l’abhorre, je tiens qu’elle l’affecte partout, pour mieux marquer la perfection de son auteur. Ainsi je crois qu’il n’y a aucune partie de la matière qui ne soit, je ne dis pas divisible, mais actuellement divisée, et par conséquent, la moindre particule doit être considérée comme un monde plein d’une infinité de créature différentes. »

Comment la physique résout la question épineuse des infinis ? Par l’apparition ou la disparition d’un saut qualitatif de niveau hiérarchique de structure.

Il convient tout d’abord de noter que les infinis existent en mathématiques (infiniment petits et infiniment grands des limites des fonctions continues, des suites, de la dérivation et de l’intégration), mais pas en physique bien que cette dernière utilisent les mathématiques du continu en question pour leurs calculs. Mais, redisons-le, en physique il n’y a aucune existence réelle de l’infini, ni grand ni petit. Il n’existe pas de matière aussi massive (ou peu massive) que l’on veut. Il n’existe pas d’énergie aussi grande (ou petite) que l’on veut. Une planète ne peut pas être aussi grande que l’on veut. Une étoile ne peut pas être aussi grande que l’on veut. Comme le dit l’adage populaire, les arbres ne vont pas jusqu’au ciel.

La physique ne connait ni l’infiniment petit ni l’infiniment grand. Il y a partout des seuils, seuils inférieurs et seuils supérieurs, qui arrêtent la progression quantitative pour la transformer en changement qualitatif, c’est-à-dire faire franchir à la matière un saut qui l’amène d’un niveau hiérarchique de structure à un autre, dans lequel ce ne sont pas seulement les mêmes paramètres qui continuent à évoluer car les lois elles-mêmes changent.

Par exemple, à un certain seuil, la matière change d’état, passant par exemple de solide à liquide ou gaz. Les changements d’état de la matière ne sont pas le seul exemple de ces seuils. Ainsi, à un certain niveau de masse, la planète devient un soleil, en démarrant des processus d’explosions thermonucléaires en chaîne dans son noyau. D’autres seuils font passer une étoile à une étoile à neutrons à une supernovae, à un trou noir. A un certain seuil d’énergie de choc entre deux particules, celles-ci se transforment brutalement en lumière. D’autres seuils encore font sauter la matière dans ses états instables ou virtuels d’un état dans un autre.

La physique des quanta est pleine de tels sauts, de tels seuils et de telles preuves de l’impossibilité de descendre vers des infiniment petits ou d’atteindre des infiniment grands. Même le vide n’est nullement le zéro agitation, le zéro énergie. La matière ne peut ni être dans une agitation infiniment grande ni dans une agitation infiniment petite. On ne peut pas descendre en dessous d’un minimum d’agitation. Les constantes de Planck sont des minima d’action, de temps, d’espace, de masse ou d’énergie en dessous desquels on ne peut pas descendre. Les inégalités d’Heisenberg sont une autre manifestation de cette impossiblité. Les paramètres étant couplés de manière que l’accroissement de l’un provoque la diminution de l’autre, les paramètres ne peuvent ni être arbitrairement petits ni arbitrairement grands. Or ces paramètres indiquent la précision des mesures. Cela signifie que l’agitation autour d’une position ne peut ni être aussi grande que l’on veut ni aussi petite. On ne peut ni diminuer arbitrairement l’agitation d’une matière ni l’augmenter arbitrairement. Tout cela provient du fait que le quanta est indivisible, irréductible et indépassable. Du coup, le saut est inévitable en physique quantique. Rien n’existe en dessous du quanta et rien aussi entre un et deux quanta ou rien entre deux et trois quanta, etc… Zénon avait raison : le monde ne correspond pas à une divisibilité à l’infini ni à une possibilité d’additionner à l’infini.

Dans aucun domaine de la physique, et pas seulement en physique quantique, on ne peut progresser quantitativement sans parvenir à un saut qui nous entraine dans une autre physique, un saut qualitatif vers un domaine où d’autres lois ont cours.

Par exemple, si on accroit la vitesse de déplacement d’une matière au point d’approcher de la vitesse de la lumière c, la masse de matière s’accroit considérablement au point d’approcher de l’infini et si on accroit l’énergie malgré tout pour forcer cette vitesse de la matière, cette matière devient de la lumière avec une masse… nulle : un vrai saut qualitatif ! Quant à la vitesse augmentant infiniment, elle n’existe ni pour la matière ni pour la lumière. Dans le vide, on peut se déplacer plus vite mais ce n’est pas un déplacement d’objet qui a lieu à plus grande vitesse : c’est le temps qui ne s’écoule pas toujours vers le futur du fait de la présence d’autant d’antimatière que de matière.

L’existence de paramètres décrivant la physique qui utilisent les méthodes mathématiques du continu, du dérivable et de l’intégrable ne signifie nullement que ces outils correspondent à une description de la réalité mais seulement que le quanta est très petit et que la vitesse de la lumière très grande, que les seuils sont relativement importants par rapport à l’échelle quantitative de la dynamique concernée pour être assimilables, relativement et seulement relativement, à des infinis.

Cela ne signifie pas que la réalité soit continue, dérivable, intégrable, et donne une signification physique aux infiniment grands et petits. C’est que le quanta h est considéré comme infiniment petit devant le nombre de quanta impliqués dans les interactions physiques usuelles dans la matière à notre échelle. Ou encore la masse de Planck par rapport aux masses usuelles, le temps de Planck par rapport aux durées des phénomènes. De même, la vitesse de la lumière c est considérée comme infiniment plus grande que les vitesses classiques de déplacement de la matière à notre échelle.

Dès que les fonctions de la physique deviennent infinies, c’est qu’on entre dans un autre niveau hiérarchique de la matière. Par exemple, lorsqu’on approche d’une particule, les fonctions physiques deviennent infinies. En effet, dans ces fonctions, la distance est au dénominateur (au carré dans l’expression de la force gravitationnelle ou électromagnétique). Que se passe-t-il quand deux particules, chargées ou non, sont à distance quasi nulle ? Leur attraction ou leur répulsion est censée devenir infinie ! En fait, deux particules ne peuvent s’approcher infiniment près du fait des lois de la physique quantique. Si on les forçait à s’approcher tout près en leur fournissant assez d’énergie, elles se transformeraient en deux photons lumineux s’éloignant à la vitesse de la lumière. En fait, quand on réduit les distances, les temps, on passe de la matière/lumière au vide quantique et on change les lois.

Même les montres les plus modernes mesurent des quantités de temps minimes mais pas infiniment petites. Jamais on n’accède dans un phénomène physique à la continuité et aucun de ces phénomènes ne peut donc imager l’écoulement prétendument continu du temps.

Les infinis posent de nombreux problèmes en physique. Les équations les plus simples de la théorie de la matière mènent en effet à des nombres infinis alors qu’aucune quantité physique mesurée jusqu’à présent n’a jamais été infinie. On ne peut concevoir une masse, une force ou une énergie infinie et l’effet qu’elle aurait sur le reste de l’univers. Alors, cela signifie-t-il que ces équations sont totalement fausses ? Non, cela signifie seulement qu’elles décrivent un domaine qui est limité par celui d’une autre loi. Ainsi, la loi de la gravitation suppose une force inversement proportionnelle au carré de la distance entre deux objets matériels. Si ces objets se touchent que se passe-t-il ? La force deviendrait infinie. Mais, lorsque ces objets atteignent une distance subatomique, les forces électromagnétiques l’emportent sur les forces de gravitation. Or, elles sont répulsives pour deux particules chargées d’électricité identique. C’est justement ce qui se produit quand deux masses macroscopiques s’approchent de très près : les électrons périphériques des deux objets se repoussent. On dit que la force électromagnétique l’emporte alors sur la gravitation. Et si les deux objets sont lancés à très grande vitesse, cette répulsion entre charges électriques sera, elle-même, dépassée par une autre force, la force nucléaire faible. Puis, il en va de même avec la force nucléaire forte. Mais, finalement, est-ce que des objets vont véritablement « se toucher » ? C’est impossible parce qu’au niveau subatomique, l’objet matériel, pourvu d’une masse, saute d’une particule sans masse (particule virtuelle). Or une particule sans masse a une durée de vie trop courte pour que cette rencontre ait lieu. Contrairement à la vision mécanique des relations subatomiques qu’avaient autrefois les physiciens, on s’aperçoit qu’il ne s’agit pas simplement de mouvements de particules dans le vide avec des chocs. Il n’y a pas de collision au sens propre dans la matière. Le contact n’est pas possible puisque de nombreuses lois sont inversement proportionnelles à la distance entre les deux objets ou particules ou une puissance de cette distance. Qui plus est, le principe d’incertitude quantique rend impossible que deux particules se trouvent exactement en un même point. A la place des chocs entre particules, on trouve des « sauts » d’état des particules. Les particules qui approchent mettent en commun, par exemple, leurs états puis s’éloignent. Elles n’ont jamais pu se toucher et ce d’autant moins qu’il n’existe pas une seule position d’une particule quantique. Au lieu d’une physique fondée sur des déplacements et des chocs entre objets élémentaires restant identiques à eux-mêmes, on a un phénomène avec des changements brutaux, des transitions, au travers desquelles on change sans cesse de niveau de la matière. Et, à chaque niveau ses lois physiques. Le problème qui reste posé aux physiciens est celui d’unifier ces lois puisqu’il est certain que, s’il y a bien des niveaux de l’univers, ceux-ci coexistent et interagissent en permanence au travers de boucles de rétroaction. C’est la théorie de ces boucles enchevêtrées et contradictoires qui reste à écrire. Mais pourquoi vouloir dépasser les lois actuelles qui fonctionnent si bien si on s’en tient à chaque niveau d’étude ? Parce que conceptuellement, ce n’est pas la même chose de penser l’univers en domaines séparés ou en niveaux emboîtés. Dans le premier cas, on a une physique du continu. Dans le deuxième, une physique du discontinu. Dans le premier cas, on a une physique fondamentalement linéaire sauf quelques cas de non-linéarité. Dans le deuxième, elle est fondamentalement non-linéaire sauf quelques cas qui approchent du linéaire à la limite. D’autre part, les lois actuelles supposent des infinis qui sont inconcevables : énergie infinie d’interaction entre une particule chargée accélérée et elle-même, par exemple. Conceptuellement enfin, les diverses lois n’indiquent pas elles-mêmes les limites de leur propre champ d’action. Aucune forme de la loi de la gravitation ne nous dit : à partir de telle distance, on passe à un autre domaine. Et que se passe-t-il aux limites d’intervention des diverses lois ? Les questions sans réponse sont restées multiples après les développements de la physique relativiste et de la physique quantique. Mais ce qui semble forcer les physiciens à aller au-delà de lois séparées, d’un côté quantique de l’autre relativité, c’est l’astronomie où les deux lois coexistent. La grande échelle des étoiles et galaxies semble donner la prépondérance à la gravité mais la densité importante de matière et les grandes énergies mises en jeu rendent toute son importance aux loi quantiques, nucléaires notamment, et probablement aussi électromagnétiques. Du coup, la nécessité d’un monde unifié réapparaît et nous rappelle que nos lois sont encore insuffisantes à décrire les mécanismes naturels.
Dans « La nature de la physique », le physicien Richard Feynman expose : « Einstein a dû modifier les lois de la gravitation (de Newton), suivant ses principes de relativité. Le premier de ces principes était que rien ne peut advenir instantanément alors que, selon Newton, la force agissait instantanément. Il lui fallut modifier les lois de Newton. Ces modifications n’ont que de très petits effets. L’un d’eux est que toutes les masses tombant, la lumière ayant de l’énergie et l’énergie équivalant à une masse, la lumière tombe donc. (…) Enfin, en relation avec les lois de la physique à petite échelle, nous avons trouvé que les lois de la matière a à petite échelle un comportement très différent de celui qu’elle montre à grande échelle. La question se pose donc, à quoi ressemble donc la gravitation sur une petite échelle ? C’est ce que l’on appelle la théorie quantique de la gravitation. Il n’y a pas à l’heure actuelle de théorie quantique de la gravitation. »
Extrait de « Rien ne va plus en physique » de Lee Smolin : « Dans la nature, on n’a jamais rencontré quelque chose de mesurable qui aurait une valeur infinie. Masi en théorie quantique aussi bien qu’en relativité générale, on trouve des prédictions selon lesquelles certaines quantités physiquement significatives sont infinies. C’est la façon dont la nature punit les théoriciens impudents qui osent briser son unité. La relativité générale a un problème avec les infinis car, à l’intérieur d’un trou noir, la densité de la matière et la force du champ gravitationnel deviennent très rapidement infinis. (…) En un point de densité infinie, les équations de la relativité générale ne tiennent plus. (…) La théorie quantique, elle aussi, génère des infinis. Ceux-ci surgissent lorsqu’on essaye d’utiliser la mécanique quantique pour décrire les champs, comme par exemple le champ électromagnétique. En effet, les champs électrique et magnétique ont des valeurs en chaque point de l’espace. Cela signifie que l’on a affaire à un nombre infini de variables. En théorie quantique, il existe des fluctuations non contrôlables des valeurs de chaque variable quantique. Avec un nombre infini de variables, dont les fluctuations sont non contrôlables, on peut obtenir des équations qui prédisent des valeurs infinies quand on leur pose des questions sur la probabilité que tel événement se produise ou sur la valeur d’une force. (…) La théorie quantique contient en son sein quelques paradoxes conceptuels qui sautent aux yeux et qui restent non résolus même quatre-vingt ans après sa création. Un électron est à la fois une onde et une particule. Même chose pour la lumière. De plus, la théorie ne donne que des prédictions statistiques du comportement subatomique. Notre capacité à faire mieux que cela se trouve limitée par le « principe d’incertitude », qui dit que la position de la particule et son impulsion ne peuvent pas être mesurées au même moment. (…) L’idée que la physique doit être unifiée a probablement motivé plus de travaux en physique que n’importe quelle autre. (…) Toutefois, il reste deux forces fondamentales dans la nature qui échappent à l’unification avec les champs électromagnétique et faible. Ce sont la gravité et les interactions nucléaires fortes (qui maintiennent ensemble les particules appelées quarks et qui sont ainsi responsables de la formation des protons et des neutrons constituant le noyau atomique). (…) Malgré son efficacité, le modèle standard (douze particules et quatre forces pour engendrer le monde) se trouve confronté à un grand problème : il contient une longue liste de constantes à ajuster. Lorsqu’on énonce les lois de la théorie, on doit spécifier les valeurs de ces constantes. (…) Celles-ci spécifient les propriétés des particules. Certaines nous fournissent les masses des quarks et des leptons, tandis que d’autres donnent les intensités des forces. Nous n’avons aucune idée de l’origine de ces nombres. Tout ce que nous avons à faire, c’est de les déterminer au début des expériences et de les insérer ensuite dans la théorie. (…) Il existe environ vingt constantes de ce type et la présence d’autant de paramètres libres dans ce que l’on suppose être la théorie fondamentale cause un grand embarras. (…) Aujourd’hui, alors que nous célébrons l’intégration de tous les phénomènes connus dans le modèle standard plus la relativité générale, nous venons de prendre conscience de la présence de deux nouveaux nuages sombres. Ce sont la matière noire et l’énergie noire. (…) Ces dernières années, les astronomes ont réalisé une expérience très simple, au cours de laquelle ils ont mesuré la distribution des masses dans une galaxie de deux façons différentes et ont comparé les résultats. Premièrement, les astronomes ont mesuré la masse en observant les vitesses orbitales des étoiles ; deuxièmement, ils ont fait une mesure plus directe de la masse en comptant les étoiles, le gaz et la poussière qu’ils voyaient dans la galaxie. L’idée qui motive cette comparaison des deux mesures est que chacune doit fournir à la fois la masse totale de la galaxie et l’information sur sa distribution. Etant donné la bonne connaissance que nous avons de la gravité, et sachant que toutes les formes connues de la matière reflètent la lumière, les deux méthodes devraient s’accorder l’une à l’autre. Or, elles ne sont pas d’accord. Les astronomes ont comparé les deux méthodes de mesure de la masse pour plus de cent galaxies différentes. Dans presque tous les cas, les deux mesures divergent, et la différence entre les valeurs est loin d’être petite, mais plutôt d’un facteur 10. De plus, l’erreur va toujours dans le même sens : on a toujours besoin de plus de masse pour expliquer le mouvement observé des étoiles que ce que l’on calcule par comptage direct de toutes les étoiles, du gaz et de la poussière. (…) S’il existe une matière que nous ne voyons pas, elle doit donc se trouver dans un état et sous une forme nouvelle, qui ni n’émet, ni ne reflète la lumière. Et puisque la divergence des résultats est aussi grande, la majorité de la matière au sein des galaxies doit exister sous cette nouvelle forme. (…) On appelle cette mystérieuse matière manquante « matière noire ». Les astronomes préfèrent cette hypothèse, en grande partie parce que sa seule concurrente – l’hypothèse selon laquelle les lois de Newton sont fausses et par extension la relativité générale – est trop effrayante pour qu’on puisse l’envisager. Puis les choses sont devenues encore plus mystérieuses. Récemment, on a découvert que selon des observations à des échelles encore plus grandes, qui correspondent à des milliards d’années-lumière, les équations de la relativité générale ne sont pas satisfaites même en rajoutant la matière noire. L’expansion de l’univers, démarrée avec le Big Bang il y a quelques 13,7 milliards d’années, s’accélère, tandis que si l’on tient compte de toute la matière observée, en rajoutant la quantité calculée de la matière noire, l’expansion de l’univers devrait au contraire ralentir. Encore une fois, il y a deux explications possibles. Il se peut que la relativité générale soit tout simplement fausse. On l’a testée avec précision seulement à l’intérieur du système solaire et des systèmes voisins de notre galaxie. (…) Une autre possibilité serait l’existence d’encore une nouvelle forme de matière – ou d’énergie (rappelez-vous l’équation d’Einstein E=mc² qui montre l’équivalence entre énergie et la masse). Cette nouvelle forme d’énergie entrerait en jeu seulement à des échelles très grandes, c’est-à-dire qu’elle n’affecterait que l’expansion de l’univers. Pour que cela soit possible, cette énergie nouvelle ne peut pas se rassembler aux alentours des galaxies ou même des amas de galaxies. Cette étrange nouvelle énergie que l’on envisage pour que les chiffres correspondent aux données observées s’appelle « énergie noire ». La majorité des types de matière se trouvent sous pression, mais l’énergie noire exerce une tension (…) parfois dite de « pression négative ». (…) Si la pression est suffisamment négative, en relativité générale, (…) elle cause l’accélération, et non la décélération de l’univers. Les observations récentes nous révèlent un univers qui, en grande partie, est constitué d’inconnu. 70% de la matière est sous forme d’énergie noire, 26% sous forme de matière noire et seulement 4% sous forme de matière ordinaire. En conséquence, moins d’une part sur vingt de la matière est observée expérimentalement et décrite à l’aide du modèle standard de la physique des particules. Des 96% restant, excepté leurs propriétés déjà mentionnées, nous ne savons absolument rien. (…) Aujourd’hui, on en sait beaucoup à propos des caractéristiques fondamentales de l’univers, telles que la densité globale de la matière et le taux d’expansion. On possède maintenant le modèle standard de la cosmologie, de la même façon qu’il existe un modèle standard de la physique des particules. Tout comme son frère, le modèle standard de la cosmologie contient aussi une liste de constantes libres, dans ce cas, il y en a environ quinze. Ces constantes comportent, entre autres, la densité des différents types de matière et d’énergie et leur taux d’expansion. Personne ne sait rien de la raison pour laquelle ces constantes ont les valeurs qu’elles ont. Comme en physique des particules, ces valeurs sont fournies par les observations et ne sont pas encore expliquées par la théorie. (…) Une grande partie de la structure du monde, à la fois social et physique, est une conséquence de la nécessité pour le monde, dans son actualité, de briser les symétries présentes dans l’espace des possibles. Un trait important de cette nécessité est la contradiction entre la symétrie et la stabilité. (…) La symétrie est brisée spontanément. Par cette notion, on entend que la symétrie se brise à un moment, mais que la façon précise dont elle le sera est hautement contingente. (…)L’utilisation de la brisure spontanée de symétrie dans la théorie fondamentale a eu des conséquences essentielles non seulement sur les lois de la nature, mais aussi sur la question plus globale de ce qu’est la nature. Avant cette époque, on croyait que les caractéristiques des particules élémentaires étaient déterminées directement par les lois éternelles et immuables de la nature. Avec la théorie de la brisure spontanée de symétrie, un nouvel élément voit le jour : les caractéristiques des particules élémentaires dépendent en partie de l’histoire et de l’environnement. La symétrie peut être brisée, ceci de diverses façons en fonction de conditions comme la densité et la température. (…) La découverte du quart de siècle qui a eu le plus de conséquences est que les neutrinos ont une masse ; cependant ce résultat peut trouver une place à l’intérieur du modèle standard à condition de l’ajuster un peu (…) Il existe de grosses différences entre les masses des particules. Par exemple, la masse de l’électron représente un 1/800ème de la masse du proton. Et le boson de Higgs, s’il existe, a une masse au moins 140 fois plus grande que celle du proton. La physique des particules semble être plutôt hiérarchisée qu’égalitaire. (…) les différentes masses forment ainsi une hiérarchie. A son sommet, se trouve la masse de Planck, limite à partir de laquelle les effets de la gravité quantique deviennent importants. Peut-être 10.000 fois plus légère que la masse de Planck se trouve l’échelle où la différence entre l’électromagnétisme et les forces nucléaires disparaît. (…) Encore plus bas dans la hiérarchie, dix millions de milliards fois moins que l’échelle de Planck, se trouve le niveau om s’unifient la force électromagnétique avec la force des interactions faibles. (…) C’est dans cette région que nous devrions enregistrer le boson de Higgs (…) La masse du proton correspond à un millième de cette masse et, un millième plus petit encore, on trouve la masse de l’électron, masse dont celle du neutrino un million de fois moins. En bas de cette échelle, se trouve l’énergie du vide qui existe à travers l’espace, même en l’absence de matière. (…) Pourquoi la matière est-elle à ce point hiérarchisée et de cette manière, avec ces rapports de grandeurs ? Mystère. (…) Le problème de la hiérarchie contient deux défis. Le premier est de trouver ce qui détermine les valeurs des constantes et ce qui fait que les rapports entre elles sont si grands. Le second est de comprendre pourquoi ces valeurs restent là où elles sont. »

« D’une certaine façon, Zénon d’Elée avec ses sophismes (Achille et la tortue, la flèche immobile) avait déjà montré que la divisibilité à l’infini du continu abolit le mouvement et qu’un point sans dimension n’a aucune existence. Le caractère discontinu, fini, des phénomènes est une condition de l’existence elle-même ("Il est nécessaire que chaque existant ait une certaine grandeur, une certaine épaisseur, et qu’il y ait une certaine distance de l’un par rapport à l’autre"). L’infini est le signe qu’on a quitté la physique. » écrit Jean Zin, dans « Initiation à la physique quantique ».

L’idée principale de Zénon d’Elée était de démontrer que, si on admettait que le mouvement, le temps et l’espace étaient divisibles à l’infini sur des trajectoires continues, le mouvement serait impossible. Aujourd’hui, au moins deux branches des sciences physiques utilisent ce paradoxe : la physique quantique et la cristallographie. En physique quantique, une loi doit être "renormalisable", c’est-à-dire fondée sur un univers où les infiniment petits sont éliminés comme les infiniment grands. Sans le paradoxe de Zénon de la physique quantique, par exemple, l’électron aurait une énergie infinie d’interaction avec son propre champ dans le vide. Quantifier la matière, les interactions et l’espace-temps, c’est exactement admettre que l’on ne peut pas descendre en dessous d’une certaine quantité : qu’il n’y a pas d’infiniment petit en physique. Quant à la démonstration de Zénon par la dichotomie et le raisonnement "par l’absurde", loin d’être contredite par la connaissance de la notion mathématique d’infiniment petit, elle rappelle les limites de cette notion malgré son efficacité mathématique dans les domaines de fonctions régulières ne connaissant pas de changement brutaux et proches de la linéarité et de la continuité. Hors de ce domaine étroit, en particulier pour toutes les transitions de phase, pour tous les systèmes dynamiques loin de l’équilibre, le calcul dit infinitésimal, qui avait tellement bien réussi à la gravitation de Newton et Leibniz, est pris en défaut.
Zénon affirme : « Si une unité ponctuelle sans dimension était ajoutée à une autre, elle ne l’augmenterait d’aucune unité, car en ajoutant ce qui n’a pas de dimension, on ne peut accroître une dimension d’une unité. (…) Un point ajouté à un point ne produit pas de distance. (…) Si le multiple existe, d’autres s’intercalent entre les existants et dans l’intervalle entre eux il y en a encore d’autres, ainsi de suite entre d’autres intervalles il y en a en nombre indéterminé. (…) Si un point est dimensionné, il occupe un espace et définit une distance. Il y a donc d’autres points en son sein et ainsi de suite. »
" Car, si l’être était divisible, supposons-le sectionné en deux, et ensuite chacune des parties en deux, et que cela se reproduise sans cesse, il est évident que : ou bien il subsisterait certaines grandeurs ultimes qui seraient minimales et insécables, mais infinies en nombre ; ou bien il s’évanouirait et se résoudrait en ce qui n’est plus rien, et serait constitué de ce qui n’est plus rien ; deux conclusions qui précisément sont absurdes. Donc il ne sera pas divisé, mais demeurera un. De plus, en effet, puisqu’il est semblable en tout point, si on lui attribue la divisibilité il sera divisible semblablement en tout point, et non pas ici divisible et là non. Supposons-le donc divisé en tout point : alors il est évident que rien ne subsistera, qu’il s’évanouira, et que s’il est vrai qu’il soit constitué, il sera à nouveau de ce qui n’est rien. Car tant que quelque chose en subsistera, le procès de division en tout point ne sera pas encore achevé. En sorte que il est encore manifeste d’après ce qui précède que l’Etre est indivisible, et sans parties, et un. (…) Mais s’il est, il est nécessaire que chacun ait quelque grandeur, et quelque épaisseur, et que l’une de ses deux parties soit en dehors de l’autre. Même raisonnement pour celle des deux qui précède l’autre. Car celle-là aussi aura grandeur et quelque chose en elle précédera le reste. Assurément dire cela une fois revient au même que de le répéter indéfiniment. Car, de telles parties aucune ne sera l’ultime, ni telle qu’il n’y ait pas de relation d’une de ses parties à l’autre."
Le point de vue de Zénon rapporté par Simplicius dans « Physique »
« D’une certaine façon, Zénon d’Elée avec ses sophismes (Achille et la tortue, la flèche immobile) avait déjà montré que la divisibilité à l’infini du continu abolit le mouvement et qu’un point sans dimension n’a aucune existence. Le caractère discontinu, fini, des phénomènes est une condition de l’existence elle-même ("Il est nécessaire que chaque existant ait une certaine grandeur, une certaine épaisseur, et qu’il y ait une certaine distance de l’un par rapport à l’autre"). L’infini est le signe qu’on a quitté la physique. Une physique entièrement continue est donc bien contradictoire. »
Valerio Scarani dans "Initiation à la physique quantique, la matière et ses phénomènes"
Toute interaction nécessite un temps fini, non nul, le temps d’interaction ajouté au temps de relaxation. Ce temps, lorsqu’il n’est pas négligeable devant le temps caractéristique de transformation des structures mises en cause, signifie qu’il n’est plus possible de considérer des infiniments petits dans les calculs. C’est ce qui explique que les lois doivent être renormalisables. C’est ce qui explique aussi qu’il y ait des mouvements et des changements de structure. Sans quoi le mouvement serait impossible comme le montrait il y a bien longtemps les paradoxes de Zénon. L’équilibre, inversement, n’a lieu que lorsqu’il y a un rapport suffisamment petit entre les deux temps (temps d’interaction-relaxation et temps propre). C’est là que se trouve la source des stabilités structurelles. L’interaction du lent et du rapide est à la base de la formation de structures durables et toutes sortes d’équilibres. L’équilibre, lui-même, change donc de représentation et devient un cas limite du paradoxe de Zénon. La composition de structures cristallines en est un exemple. On a longtemps considéré que ce qui caractérise la fractale est la dimension fractionnaire. La droite et le point montrent qu’il n’en est rien. L’outil mathématique de base doit lui-même être fractal pour représenter un monde fondé sur des résonances et non-intégrable au sens de Poincaré, sauf dans quelques cas limites. Dans une géométrie fractale, il n’y a plus un seul nombre qui représente la distance entre deux points, car cette distance dépend de l’échelle d’observation. Cette dernière est donc un premier élément. Il convient d’y rajouter la distance de deux points permettant de les séparer par observation ou « pouvoir de résolution » et aussi l’ « agraindissement » qui indique quand un point est représenté par une seule position et quand il l’est par un nuage de possibles.

« L’histoire des infinitésimaux (ou infiniment petits) est beaucoup moins simple que celle de leur cousin l’infini, et les considérations du style de celles de Zénon y ont joué un rôle important. Le paradoxe dit de la dichotomie s’attaque à la divisibilité infinie de l’espace. Pour qu’un objet puisse se déplacer d’une certaine distance, il doit d’abord parcourir la moitié de cette distance ; mais avant de parcourir cette moitié, il doit nécessairement en parcourir le quart, et ainsi de suite. Obligé de faire une infinité de chose dans l’ordre inverse, il est dans l’impossibilité de prendre le départ. Le scénario d’Achille et la Tortue est assez analogue. Il s’agit cette fois du bouillant Achille qui ne parvient pas à rattraper la tortue beaucoup plus lente que lui ; mais partie plus tôt ; Chaque fois qu’il atteint un emplacement où se trouvait la tortue, celle-ci a progressé pendant le déplacement d’Achille, et elle conserve ainsi une certaine avance. (...) Les paradoxes de Zénon sont plus subtils qu’il n’y parait, et si on les considère sous l’angle de la nature physique de l’espace-temps plutôt que sous l’angle purement mathématique, ils posent encore aujourd’hui des questions délicates. Les grecs jugèrent ces paradoxes redoutables, ce qui contribuera à les dégoutter encore plus des nombres et à se réfugier dans la géométrie. » écrit Ian Stewart dans « Les mathématiques ».

Zénon combat d’abord et avant tout la possibilité de « diviser à l’infini » un segment d’espace ou de temps en un nombre indéfini de parties ou de points. Ils va même au delà en déniant la validité de l’image discontinue du point et de l’image continue du segment, non seulement en termes d’espace et de temps mais aussi de matière, de mouvement et d’énergie. C’est ce qui fait la modernité des paradoxes de Zénon pour la physique contemporaine.
Cette possibilité de division à l’infini semble pourtant attestée par les notions géométriques et algébriques de milieu et de demi somme de deux nombres. C’est ce que l’on appelle « la dichotomie ». Elle permet d’affirmer qu’il y a toujours un point entre deux points et un nombre entre deux nombres. Et donc, on montre ainsi qu’il y aurait une infinité de points entre deux points ou une infinité de nombres entre deux nombres, en répétant cette dichotomie. Zénon va utiliser cette dichotomie appliquée à l’espace et au temps pour souligner les contradictions que cela entraînerait pour le mouvement.
On pourrait croire que la division à l’infini du segment des nombres, la plus grande précision possible des nombres, correspondrait à une connaissance plus grande de la réalité. L’expérience montre le contraire. Quand on veut gagner trop en précision d’une mesure, on en perd de l’autre côté, comme le montre la physique quantique. Le plus souvent, on change en fait de niveau d’observation de la réalité. On n’observe pas mieux mais autre chose. Cela signifie que le monde réel existe en même temps à plusieurs niveaux, ce qui correspond à plusieurs échelles d’observations et aussi à plusieurs agraindissement. Le grain est le niveau de distinction entre deux éléments.
Il en découle qu’il n’y a pas une seule échelle du temps ni une seule échelle des distances, échelle sur laquelle on pourrait descendre arbitrairement bas en valeur, mais des niveaux différents emboîtés et interactifs. L’espace et le temps sont des quantités fractales et dynamiques, qui sont produites par l’interaction, donc des quantités émergentes.
Toujours pour la physique moderne, le découpage à l’infini ne fonctionne ni pour la matière, ni pour le mouvement, ni pour l’énergie. Zénon mérite donc encore toute notre attention...
Ceux qui veulent en finir rapidement avec les thèses de Zénon ont deux types d’argument :
1) Zénon ne connaissait pas les suites et sommes infinies convergentes
2) Zénon voulait démontrer l’inexistence du mouvement, alors que chacun sait qu’il existe !
En ce qui concerne le premier argument, il est certain que les connaissances mathématiques de Zénon ne pouvaient comporter les calculs des suites, séries, différentielles ou intégrales comportant des infiniment petits. Tout porte à croire qu’il ne se serait pas contenté de la possibilité mathématique de les inventer puisqu’il contestait la possibilité de diviser réellement (physiquement) à l’infini.
Mais Zénon s’oppose seulement à une conception du mouvement qui est liée à une autre conception : celle de la position. Il nie l’existence d’une position définie par un point sans dimension. Comme le rappelle la citation donnée ici au début, Zénon rappelle qu’une série de points sans dimensions ne permettraient pas de construire la dimension d’un segment. Pour qu’il y ait une distance entre deux points, il ne suffit pas d’additionner une série de points sans dimension. Zénon nie donc une conception erronée du mouvement se rapportant à une notion inexacte du temps instantané et de la position purement ponctuelle. Si ces deux dernières existaient réellement, il affirme que le mouvement ne permettrait pas d’en sortir et on serait condamné à l’immobilité. En affirmant que la position ne peut être ponctuelle et que le temps ne peut pas l’être non plus, c’est-à-dire ne peut pas être infiniment précis, il rejoint de manière étonnante la physique quantique.

Etienne Klein explique dans « Le temps, son cours et sa flèche », conférence pour l’Université de tous les savoirs combien la continuité du temps est davantage un préjugé culturel dû à la difficulté de définir un temps discret qu’un résultat de l’expérience :
« Tout au long de son histoire, la physique a considéré que l’espace est un continuum, c’est-à-dire qu’il est possible d’envisager des portions de longueurs aussi petites que l’on veut, sans jamais atteindre de limite. Le point, qui correspondrait à un nombre infini de divisions, reste toutefois hors d’atteinte, mais on peut en principe s’en rapprocher continûment. Le fait qu’il soit possible de considérer des longueurs infimes, et même nulles, fait surgir d’énormes difficultés, par exemple lorsque l’on s’intéresse au champ électrique produit par une charge électrique, disons un électron, à la distance r de celui-ci. Ce champ, variant comme 1 divisé par r au carré, devient infini lorsque la distance r s’annule. De telles divergences ou singularités conduisent à des difficultés mathématiques que les physiciens tentent d’éviter de différentes façons. (…) On peut évoquer la procédure dite de renormalisation. Celle-ci consiste à éliminer toutes les quantités infinies qui apparaissent dans les calculs en retranchant à celles-ci un petit nombre de quantités elles-mêmes infinies, de sorte d’obtenir un résultat fini. Une dernière piste, plus audacieuse, consiste à imaginer que l’espace lui-même pourrait être discret, c’est-à-dire structuré selon un réseau, dont la maille, finie et non nulle, représenterait une distance minimale au-dessous de laquelle il serait impossible de descendre. (…) Celle-ci permet de considérer des structures spatiales qui présentent un caractère discontinu mais qui ne brisent pas les symétries fondamentales. (…) Les propriétés habituelles de l’espace étant restituées aux échelles de la physique habituelle, ce n’est qu’au-dessous d’une certaine échelle que les effets de cette géométrie apparaissent. Cette échelle, qui pourrait être celle dite de Planck (10 puissance moins 35 mètres) représenterait une limite à la divisibilité de l’espace. Mais revenons-en au temps. Les physiciens le supposent constitué d’instants qui se succèdent dans une structure continue. Ces instants jouent pour le temps le même rôle que le point pour l’espace. Ils sont tout aussi inaccessibles à la perception. (…) L’idée d’un temps discontinu, c’est-à-dire d’une atomicité de la durée, est parfois évoquée (…) »

Prenons trois points essentiels de la philosophie de Zénon et examinons si la science physique contemporaine lui donne plutôt raison ou non.

Premier point
Zénon affirme que l’infiniment petit n’existe pas. On ne peut pas diviser à l’infini ni le temps, ni l’espace, ni la matière, ni le mouvement, ni l’énergie, ni rien. Par exemple, pour lui, la dichotomie sans fin (division par deux) n’est pas possible. Cela signifie qu’il y a des quanta : de seuils avec des multiples de ce seuil. Le monde est donc discontinu fondamentalement et la continuité n’est qu’apparente. Il contredit ainsi une image donnée par les mathématiciens de son temps : celle de la l’algèbre et de la géométrie selon lesquelles les nombres seraient un continuum et les segments et droites aussi, continuum constitué d’éléments singuliers en nombre infini sans rupture entre eux. L’existence de quanta suppose qu’il y a nécessairement des ruptures.

Deuxième point
Zénon affirme que le mouvement n’est qu’une apparence. Bien sûr, il voit bien que la matière bouge dans l’espace mais il affirme en même temps que c’est une interprétation de notre part qui est erronée car nous faisons comme s’il s’agissait de deux choses complètement séparées : l’objet et l’espace qui n’interagissaient pas, l’espace servant seulement de toile de fond et la matière restant égale à elle-même tout en se déplaçant….

Troisième point
La contradiction dialectique de l’unité et de la diversité, de la matière et du mouvement, de l’être et du néant, de la matière et du vide est sans cesse contenue dans tous les paradoxes de Zénon…
Vérifions la validité de ces conceptions par rapport à ce que nous apprend la physique contemporaine.

Quelques expériences simples de physique vont illustrer notre propos pour démontrer ces trois points de Zénon. Nous ferons comme lui et nous fonderons sur des processus de dichotomie, des expériences qui illustrent que l’on ne peut pas diviser à l’infini. Ce sont ce que nous pouvons valablement appeler des « effets Zénon » de la physique. On trouve un en Cristallographie, un en Mécanique, un en optique, un en Physique quantique, un en chimie, un en Biologie, en Théorie de l’évolution et on en passe.
Il suffit de trouver une expérience dans laquelle des éléments microscopiques ont deux voies possibles (par exemple fentes de Young ou passage d’un filtre, réflexion/réfraction, …) et d’itérer cette expérience en série. A chaque étape, il devrait y avoir la moitié des éléments qui passent et ensuite la moitié de la moitié, etc. Mais, en pratique, rapidement, aucun élément microscopique n’est plus capté.
Plus simplement, on considère les rebonds d’une balle qui perd à chaque fois la moitié de son énergie et ne rebondit que de la moitié de la hauteur. On pourrait théoriquement croire que la balle ne va pas cesser de rebondir même s’il s’agit de touts petits bonds mais cela est faux. La balle s’arrête.
Dans une série de miroirs qui absorbent à chaque fois la moitié du rayonnement (miroirs dits semi-réfléchissants), on retrouve la même remarque. Rapidement, si on place en série de tels miroirs en grand nombre, la dichotomie laisse croire qu’il devrait passer une fraction infime mais non nulle du rayonnement initial et c’est faux : aucun rayonnement ne passe plus au bout de la série de miroirs. On ne peut pas diviser la réalité à l’infini… Pourquoi ? Parce qu’à force de diviser on atteint un seuil en dessous duquel le phénomène n’existe plus. On dit que le phénomène est quantique pour dire qu’en dessous d’un quanta, le phénomène n’existe plus.
On peut citer ainsi un exposé de recherche de physiciens sur l’effet Zénon quantique même si bien des passages peuvent sembler obscurs au non spécialiste :
« L’effet Zénon quantique a été décrit pour la première fois par Misra et Sudarshan de l’Université du Texas en1977. Ces deux scientifiques montraient comment une série dense de mesures pouvait geler la dynamique d’un système quantique. Tous les mouvements spontanés d’un atome en direction d’un chemin quelconque sont capturés par ces mesures et ramenés à la position initiale. Il s’agit d’une expérience plus facile à réaliser (à partir d’un point initial) que celle consistant à faire parcourir un chemin donné à une particule par une série dense de mesures. L’écrivain scientifique John Gribbin a pu dire qu’une bouilloire quantique soumise à une observation continue ne pourra jamais s’échauffer. Des mesures quantiques répétées peuvent inhiber l’évolution cohérente d’un système. C’est l’effet Zénon quantique, nommé ainsi en souvenir du célèbre paradoxe du philosophe grec qui niait le mouvement. Cette inhibition est provoquée par la projection associée à la mesure quantique. La première mesure projette le système sur un état propre de l’observable mesurée. Quand le temps entre mesures est court à l’échelle du temps d’évolution du système, la seconde mesure donne avec une grande probabilité le même résultat que la première. Le système est projeté à nouveau sur son état initial, annulant toute l’évolution cohérente entre les deux mesures. Après un grand nombre de mesures, le système passera finalement dans un autre état propre, effectuant un saut quantique. Le temps moyen entre ces sauts est beaucoup plus long que le temps caractéristique d’évolution cohérente et tend vers l’infini quand l’intervalle de temps entre mesures successives tend vers zéro. Notons qu’il n’y a pas d’effet Zénon quantique pour des phénomènes incohérents, comme la relaxation. L’effet Zénon quantique a été observé sur des particules matérielles piégées. Par exemple, l’oscillation de Rabi cohérente entre deux niveaux d’un ion piégé, induite par un laser résonnant, est inhibée par des mesures répétées de l’état atomique par fluorescence. Dans l’effet Zénon quantique sur le champ de la cavité, des mesures sans démolition quantique (QND) de l’intensité du champ inhibent la croissance d’un champ sous l’influence d’une source classique résonnante avec la cavité. On parvient à un effet Zénon par des injections cohérentes en phase dans la cavité. En l’absence de mesure, toutes les amplitudes injectées s’ajoutent et l’amplitude finale est proportionnelle au nombre d’injections. Le nombre de photons, lui, croit quadratiquement avec ce nombre. Bien sûr, la relaxation de la cavité entre en jeu et, quand la durée de l’expérience est comparable avec le temps de vie de la cavité, le nombre de photons atteint une asymptote, quand les pertes compensent les injections. »

La continuité ne pourrait exister que s’il était possible que se produisent des infiniment petits dans un domaine ou un autre de la réalité. Elle ne pourrait exister que si des espaces de temps, de longueur, d’énergie ou autre étaient jointifs, collés les uns aux autres. La physique a montré que deux matières ne peuvent se toucher, qu’il y aura toujours un espace vide entre elles. La continuité suppose qu’il n’y ait aucune contradiction entre deux matières, ce qui ne correspond pas à ce que nous observons de la matière. Quand nous approchons de plus en plus une particule d’une autre, on constate qu’il y a successivement attraction puis répulsion, puis à nouveau attraction puis répulsion et ceci sans fin au fur et à mesure que la distance diminue. Mais la répulsion va augmenter sans cesse, finissant pas rendre impossible l’approche à moins que l’énergie de celle-ci soit telle qu’elle fasse exploser en rayonnement le couple des deux particules. Il n’y a jamais eu et il n’y aura jamais contact entre elles. La continuité de la matière est impossible. La physique quantique a renoncé, au niveau fondamental, aux trajectoires continues pour les particules. C’est dire que la continuité du mouvement n’est pas possible.
L’activité ne peut pas être sans fin. Il y a besoin d’un temps de relaxation. Il y a donc rupture avant et après toute activité. C’est dire que la dynamique est celle des discontinuités, des ruptures, des chocs, des mouvements brutaux. L’instantanéité n’existe pas car rien ne peut se produire en un temps nul. La discontinuité ne doit pas être confondue avec une action immédiate. Rien d’immédiat n’existe. Il faut un temps pour entrer en action ; il y a un temps maximum pendant lequel l’action peut durer et il faut toujours un temps de relaxation. Donc le temps des interactions n’est pas fait d’instants sans durée.

Un temps nul dans une interaction nécessiterait une énergie infinie. Les infiniment petits ont dû être chassés de la physique quantique par la renormalisation et elle signifie que l’on doit écarter les zéros pour écarter aussi des infinis qui n’existent pas dans l’observation du réel. On a même pu calculer une limite d’espace de durée qui est le temps de Planck. On a donc tendance à penser que le temps pourrait bien être quantifié. Mais, et c’est essentiel comme on l’a exposé plus avant, aucune expérience ne peut se réaliser en un temps nul ou infiniment petit. Par conséquent, un tel temps nul n’apparaîtrait jamais dans les phénomènes naturels ni dans les expériences…

Il n’y a aucun objet physique derrière cette apparence linéaire et continue. Si le rayon lumineux existait, il contiendrait une énergie infinie et la source devrait émettre une telle quantité d’énergie dans toutes les directions. Les photons arrivent un par un et il n’y a entre eux aucune ligne, qu’elle soit droite ou pas. La continuité du flux de particules est elle-même une illusion. Steven Weinberg expose dans « Les trois première minutes de l’univers » que « L’énergie d’un photon est très petite, et c’est pourquoi les photons semblent se fondre en un flux continu de rayonnement. » Il montre en effet que leur énergie est de l’ordre de l’électron-volt alors que les énergies nucléaires sont de l’ordre d’un million d’électronvolts par noyai atomique.

Le succès de l’emploi des fonctions continues de variables réelles provient non pas du fait qu’elles modélisent bien ou mal le réel mais du fait qu’elles permettent bien plus que les fonctions discrètes de variable discrètes de traduire une transformation par ce que l’on appelle des équations différentielles. Elles se servent pour cela de la dérivation et de l’intégration, des méthodes fondées sur le changement infiniment petit, changement par définition impossible lorsqu’il s’agit de cas discrets puisque dans ce cas on saute d’une valeur à une autre.
Bien sûr, on peut se dire que, si la mathématique du continu ne convenait pas pour décrire le réel, on s’en serait aperçus depuis le temps puisque cette méthode date de Newton et Leibniz ! Mais ce n’est pas aussi simple.
Il est en fait extrêmement difficile de distinguer le discret du continu quand les intervalles entre valeurs sont extrêmement petits au regard des tailles des phénomènes ou des objets.
Par exemple, nous sommes capables de mesurer ou de percevoir des intervalles de temps d’une certaine taille. Si les ruptures sont beaucoup plus petites, le discret peut parfaitement ressembler à du continu…
Cependant, dans le domaine du réel matériel non simplement mathématique, dans le réel physique, il est loin d’apparaître une telle continuité.
En physique, la mesure n’a rien d’un calcul exact. En temps limité, l’interaction est la seule information possible entre matières via les photons. En procédant ainsi on ne peut rien connaître avec une précision infinie. L’apparence réelle de segment n’est qu’une série de points discrets régulièrement alignés. Il n’y a aucune continuité d’un point à un autre. Il y a une infinité de points mais il y a toujours des trous entre eux. Et dans ces trous, si on observe de plus près, on trouve encore des points. Donc pas plus de continuité des trous que de continuité des points.

Le zéro et l’infini

Continuité et discontinuité sont incompatibles

La continuité, une propriété mathématique et pas physique ?

Messages

  • Pourquoi dites-vous que l’infini n’est pas un nombre, pourquoi n’est-ce pas une idée valide et pourquoi n’est-ce pas non plus une réalité matérielle ?

  • Ce n’est pas un nombre parce que, sinon, il serait égal à lui-même additionné, soustrait, multiplié ou divisé par n’importe quel nombre !

    Ce n’est pas une idée valide parce que l’idée d’infinité ne provient que de quantités de plus en plus grandes mais qui ne sont pas infinies.

    Ce n’est pas une réalité matérielle parce que rien ne nous indique que l’Univers matériel entier lui-même soit infini.

    On n’obtient jamais deux quantités qui soient infiniment grandes ou petites relativement l’une à l’autre.

    On ne trouve pas non plus de réalité contenant un nombre infini d’objets. On a seulement un nombre non limité mais pas infini.

    Les seuls domaines qui introduisent les infinis (petit et grand) sont les mathématiques et seulement à titre de limite de suites de nombres illimitées. Une limite n’est pas à proprement parler un nombre. L’infini ne s’atteint jamais, il est seulement un horizon, une perspective, une direction…

    Aucune expérience de science ne peut parvenir à un résultat infini et donc l’infini ne sera jamais expérimental.

    Par contre, il est indiscutable que l’infini est un outil des mathématiques (suites, séries, différentielles, intégrales, etc), mais cela n’en fait pas pour autant une réalité ni quelque chose dont on puisse dire qu’il « existe ».

    Nous pouvons aussi bien fabriquer l’infini dans notre tête que nous pouvons y fabriquer dieu. Cela peut nous servir à quelque chose mais ce n’est pas pour autant réel.

    Comme l’écrit Christian Magnan,

    « L’infini est au départ une notion mathématique abstraite. L’infini de référence est la propriété de l’ensemble des nombres entiers selon laquelle tout nombre est suivi d’autres qui lui sont supérieurs. Ce caractère montre qu’il ne peut exister de nombre plus grand que tous les autres. En effet, si nous trouvions un tel objet « infini », ce ne serait pas un nombre puisqu’il n’admettrait pas de plus grands que lui-même. Par conséquent, dire d’une certaine variable qu’elle a une valeur infinie constitue un abus de langage qui peut prêter à confusion, en faisant croire que l’infini peut être atteint alors qu’il n’en est rien. Par exemple, on sait que l’on ne peut pas diviser un nombre par zéro et on parlera à ce sujet, incorrectement, d’un « résultat infini ». La proposition correcte est que dans une division plus le nombre par lequel on divise est petit (en se rapprochant de 0 mais sans l’atteindre) plus le résultat de la division est grand. Numériquement, on sera limité par la capacité du moyen de calcul dont on dispose. Lorsqu’on essaye de calculer un nombre trop grand sur une calculette ou un ordinateur (par exemple « 10 à la puissance 600 » ou « 1 divisé par 0 ») on obtient un message d’erreur. »

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par les responsables.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.