Qui donc connaît les flux et reflux réciproques
de l'infiniment grand et de l'infiniment petit,
le retentissement des causes dans les précipices de l'être,
et les avalanches de la création ?
(Victor Hugo, Les Misérables)

samedi 6 décembre 2014

La Science et l'Impossible. Billet N° 11

J'ai eu la chance d'assister le 22 novembre dernier, dans le Grand Auditorium de la Bibliothèque Nationale de France, à une suite d'exposés portant sur les rapports entre la Science et l'Impossible. Exposés présentés dans le cadre de la 14 ème Rencontre "Physique et Interrogations fondamentales", organisée par la Société Française de Physique et la BNF. J'avais été informé de cet évènement par l'intermédiaire de l'AEIS.

La Rencontre a traité des rapports entre science et impossible, sous plusieurs angles. Deux volets me paraissent pouvoir structurer cette diversité ; pour reprendre un passage de l'exposé d'Etienne Klein, la distinction entre ces deux volets s'inscrit dans la capacité conjointe des sciences (et des techniques) à 1) fermer des portes considérées à priori comme (des ouvertures) possibles et 2) ouvrir des portes qui paraissaient condamnées. 
  1. fermer des portes, poser des impossibilités. C'est là peut être le rôle spécifique de la science, en tout cas de la physique ; je rangerai dans ce premier volet les exposés du physicien Etienne Klein, du mathématicien Jean Paul Delahaye, de l'astrophysicien (et passionné de Science Fiction) Roland Lehoucq, et, avec quelques hésitations, l'exposé du physicien Gilles Cohen-Tannoudji.
  2. ouvrir des portes, dégager  des possibles, passer du possible au réalisé. C'est aussi le rôle de la science et de son exploitation dans la technique ; je rangerai dans ce second volet les exposés du physicien (et prix Nobel) Serge Haroche, du biochimiste et généticien Philippe Marlière, de l'astrophysicien (et spécialiste de l'exploration du système solaire), Francis Rocard.
Ce billet N° 11 n'a pas pour objectif d'être un résumé exhaustif. J'espère d'ailleurs que les exposés seront un jour intégralement accessibles. J'ai simplement voulu garder quelques traces écrites d'un certain nombre de points, qui m'ont particulièrement accroché. Dans un esprit "mise au propre de mes notes", en reprenant parfois les termes même des conférenciers. Je me limiterai ici aux trois présentations formant le coeur théorique du premier point mentionné ci dessus, savoir dans l'ordre  : celles d'Etienne Klein, de Jean Paul Delahaye et de Gilles Cohen-Tannoudjii.

Aujourd'hui 27 janvier, les vidéos de la conférence sont effectivement accessibles sur le site de Gilles Cohen-Tannoudji.

Etienne Klein, la physique et l'art d'expliquer le réel par l'impossible.

D'emblée, Etienne Klein pose une exigence : affirmer l'impossibilité d'un phénomène impose sa mise en relation avec un principe qui en empêche la survenue. 

La dialectique entre le possible et l'impossible. 

Etienne Klein cite un premier exemple, concernant une  certaine particule, le kaon neutre. Jusqu'en 1970, on considérait que le kaon neutre pouvait se désintégrer en deux autres autres particules, plus précisément en une paire de muons : en effet, dans le cadre du modèle des particules en vigueur, une telle désintégration était considérée comme possible, avec une fréquence de survenue, prédite par le calcul, relativement élevée. Or une telle désintégration n'était en fait jamais observée (ou bien observée avec une fréquence très rare, beaucoup beaucoup plus faible que la fréquence prédite, je n'ai pas à vrai dire bien saisi ce qu'il en était exactement). 

Il fallait, sans bouleverser si possible le cadre théorique général en place, trouver le principe de cette absence ou de cette extrême rareté. En voici le mécanisme : un processus de désintégration, avec un point de départ, ici le kaon neutre, et un point d'arrivée, la paire de muons, peut se réaliser selon plusieurs modalités, ou, selon la terminologie habituellement employée, selon plusieurs chemins. Chacun de ces chemins place la paire de muons produite dans un état quantique particulier. La probabilité de la désintégration se calcule alors à partir de la superposition (la somme complexe) des états quantiques associés à chacun de ces chemins possibles.

Or le calcul effectué en 1961 par Glashow aboutissait à une probabilité relativement importante de désintégration, en  contradiction avec l''observation, comme il a été indiqué. L'évaluation des chemins était donc erronée. C'est là qu'intervient une situation fréquente en physique quantique, évoquant les phénomènes d'interférences en optique, qu'on peut voir comme un rapport paradoxal entre possible et impossible : ce n'est pas en effet en éliminant des chemins que l'on a pu réduire la probabilité à une valeur quasi nulle, mais au contraire en faisant l'hypothèse de l'existence d'un chemin supplémentaire entre point de départ et point d'arrivée, possibilité que l'on avait alors ignorée. Ce chemin supplémentaire compense, dans le calcul, l'effet de tous ceux identifiés auparavant :  la probabilité de la désintégration en une paire de muons devient effectivement nulle. Pour terminer sur ce sujet, notons ici que l'existence de ce chemin additionnel est liée à l'existence, alors avancée, d'un quatrième quark,  le quark c, et son intervention dans le mécanisme GIM (Glashow, Iliopoulos et Maiani, 1970).

Impossible et contradictoire. 

Affirmer l'impossibilité - peut être faudrait-il dire de préférence la fausseté - d'un certain énoncé peut résulter de la constatation par un raisonnement, que la vérité de cet énoncé conduirait à une contradiction. Une telle procédure est mise en oeuvre en physique dans ce qu'on appelle une expérience de pensée : on considère une loi, une hypothèse, dont on veut démontrer la fausseté ; on imagine alors une expérience fictive dont le résultat, déduit par raisonnement à partir de cette hypothèse, entre  en contradiction avec des certitudes bien établies par ailleurs. 

Etienne Klein rappelle ainsi l'expérience de pensée à laquelle procède Filippo Salviati dans les Discours de Galilée. Face à Simplicio qui défend l'idée qu'une grande pierre tombe plus vite qu'une petite, Salviati veut le persuader au contraire que les deux pierres tombent à la même vitesse ; pour ce faire,  il  admet provisoirement l'hypothèse de Simplicio et imagine alors que l'on attache les deux pierres, la petite et la grande ensemble. A partir de là, le raisonnement qu'il suit, toujours hors de toute expérimentation effective, aboutit à deux affirmations qui s'excluent l'une l'autre, à savoir : 
  1. La grande pierre accélère la petite, et la petite freine la grande : la résultante de ces deux actions ne peut être qu'une chute de la réunion des deux pierres à une vitesse intermédiaire, inférieure à celle de la grande pierre isolée
  2. Le corps formé par l'ensemble des deux pierres est plus grand que la grande pierre initiale ; en vertu de l'hypothèse de Simplicio, sa chute s'effectue donc à une vitesse supérieure
Ces deux énoncés antinomiques condamnent la théorie de Simplicio. L'hypothèse  défendue par Salviati - toutes les pierres, grandes ou petites, tombent à la même vitesse - supprime à l'inverse  toute contradiction et s'avère donc  pour lui la seule défendable.

Pour autant, l'expérience de pensée proposée par Salviati n'est pas très rigoureuse, on peut notamment contester la première partie de son raisonnement, la grande pierre accélère la petite et la petite freine la grande. Ainsi, faut-il rappeler la difficulté des expériences de pensée : pour affirmer le caractère "inévitable" d'une conclusion, il faut parfaitement contrôler le raisonnement qui y conduit, avoir identifié et être sûr de tous les présupposés de ce raisonnement, même les plus implicites.  La transformation d'une expérience de pensée en expérience réelle, quand elle est devenue techniquement possible, peut amener  bien des surprises. On sait qu'il en a été ainsi dans l'expérience de pensée proposée par Einstein Podlewski Rosen. - l'expérience EPR - dont la mise en oeuvre effective lui a donné tort. Ce n'était pas bien sûr la rigueur du raisonnement qui était en cause dans cet échec, mais la non-validité de l'hypothèse qu'Einstein espérait qu'elle soit vérifiée. 

L'impossible comme limite du possible. 

Dans la dernière partie de son propos, Etienne Klein revient sur l'interprétation qu'il convient de donner selon lui à la révolution galiléenne, sur le plan de l'histoire des sciences. J'en retiendrai ici certaines formules se rapportant explicitement au titre de la journée. "On peut expliquer le réel par l'impossible". Une démarche constante en science est en effet de substituer au monde réel de l'expérience quotidienne un monde idéalisé, que l'on peut décrire et sur lequel on peut raisonner par les mathématiques. Le conférencier cite l'exemple du mouvement perpétuel, l'idéal d'un mouvement qui ne s'amortit pas, et qui n'est de ce fait jamais observé. Et pourtant  ce mouvement impossible, obtenu par "passage à la limite" à partir des mouvements réels, est l'un des fondements de toute la mécanique.

Pour terminer Etienne Klein revient sur les rapports entre science et philosophie. Dans son introduction, il avait rappelé l'une des motifs de la création de "Physique et Interrogations fondamentales", à savoir réagir à la phrase de Heidegger "La science ne pense pas". Pour notre conférencier, certaines découvertes scientifiques induisent des découvertes philosophiques négatives, pour reprendre l'expression de Maurice Merleau Ponty dans son cours au Collège de France ; négatives, en ce sens que l''on ne peut plus continuer à soutenir des thèses philosophiques, comme si ces découvertes scientifiques n'avaient pas eu lieu. Le lecteur peut consulter une illustration argumentée de cette thèse dans le billet intitulé "de la philosophie du boson de Higgs" qu'Etienne Klein a fait paraître en 2012 dans la revue numérique iPhilo. 

Jean Paul Delahaye, la preuve de l'Impossible en Mathématiques.

Les mathématiques "fourmillent" d'objets, dont on croyait l'existence possible, et qui s'est avérée impossible ; d'assertions que l'on croyait vraies, en vertu d'une intuition qui paraissait solide, et qui se sont avérées fausses, ou encore que l'on pensait pouvoir démontrer et qui se sont révélées indémontrables. Toutes ces formulations ne sont pas nécessairement équivalentes, et Jean Paul Delahaye y reviendra. Il commence par donner des exemples concernant les deux dernières formulations. 

Une assertion fausse,  tout nombre peut être représenté par une fraction, 

c.a.d. par le rapport de deux nombres entiers. Cette croyance pythagoricienne s'est révélée fausse ; on peut ici faire allusion à l'anecdote mentionnée  par Simon Singh dans son livre Le dernier théorème de Fermat : Pythagore aurait tué par dépit un de ses étudiants ! celui-ci avait démontré que le rapport entre la diagonale d'un carré et son côté ne pouvait être le rapport entre deux nombres entiers. Jean Paul Delahaye en rappelle une démonstration par l'absurde   bien connue : à partir de l'hypothèse que la racine carrée de 2 puisse être égale à n/m, avec n et m entiers, on est amené, par déduction, à conclure à la véracité de deux propositions contradictoires, c.a.d. s'excluant l'une l'autre : ces deux propositions ne pouvant être vraies en même temps, la seule issue est de rejeter l'hypothèse de départ.

Une telle découverte peut sembler secondaire, on sait qu'il n'en est rien. Elle a ouvert la voie à une meilleure compréhension de ce que sont les nombres ; elle a été l'une des étapes d'une classification des nombres dans une hiérarchie de complexité croissante, dont Jean Paul Delahaye nous rappelle là aussi brièvement les termes : nombres entiers, rationnels, algébriques (solutions d'équations polynomiales à coefficients entiers), transcendants (par exemple le nombre pi)

Une opération impossible, la quadrature du cercle.

Ce rappel concernant la théorie des nombres, Jean Paul Delahaye l'a ancré dans une impossibilité géométrique, celle de la quadrature du cercle  à savoir l'impossibilité, en utilisant seulement une règle, un compas - et bien sûr un crayon ! -  de construire un carré dont la surface est la même qu'un cercle de rayon donné. Cette opération a longtemps été considérée comme faisable, mais peu à peu le doute s'est installé ; l'Académie des Sciences de Paris, s'étant persuadée que toute tentative de quadrature du cercle était vouée à l'échec, annonçait en 1775 qu'elle refuserait désormais d'examiner toute communication à ce sujet. Le futur devait lui donner raison : la démonstration de l'impossibilité s'est faite en deux phases, à une cinquantaine années de distance
  1. La première (Wantzel 1837) a consisté à démontrer l'équivalence entre les constructions géométriques basées sur des opérations effectuées avec la règle et le compas, et les constructions algébriques de nombres, basées sur les opérations d'addition, de soustraction de multiplication, de division et d'extraction de racine carrée. L'ensemble des nombres pouvant être ainsi construits forment un sous-ensemble des nombres algébriques définis ci avant. 
  2. La seconde (Lindemann 1882) a consisté à démontrer que le nombre pi (surface d'un cercle de rayon unité) n'était pas algébrique.
Prétendre effectuer la quadrature du cercle, c'était prétendre construire le nombre pi à partir des quatre opérations ordinaires et l'extraction d'une racine carrée (l'équivalence établie par Wantzel)Et donc conclure que pi était un nombre algébrique, ce qui est faux (comme démontré par Lindemann) 

Une proposition indémontrable : le cinquième postulat d'Euclide. 

Dans une seconde partie de son exposé, Jean Paul Delahaye prend comme exemples certains postulats posés comme fondements d'une théorie, et dont on a longtemps pensé qu'ils étaient superflus, car ils pouvaient être déduits des autres postulats des mêmes fondements. Deux domaines sont abordés : celui de la géométrie d'Euclide, avec le cinquième postulat, et celui de la théorie des ensembles, avec l'axiome de choix. Je ne m'attarde ici que sur l'exemple géométrique.

Le cinquième postulat d'Euclide, concernant les figures formées de deux droites sécantes à une  troisième, a pour formulation équivalente le postulat des parallèles : en un point extérieur à une droite, ne passe qu'une unique droite qui lui est parallèle. Ce cinquième postulat est-il une conséquence des quatre premiers ? est-il une condition nécessaire de toute géométrie digne de ce nom, et pour le moins cohérente ?  

Le mérite d'avoir apporté une réponse négative simultanément à ces deux questions, revient à divers mathématiciens du XIX ème siècle, dont celui cité par Jean Paul Delahaye, Eugenio Beltrami.  La méthode utilisée pour ce faire consiste à imaginer une géométrie, vérifiant tous les postulats d'Euclide sauf le cinquième (peut être en adaptant légèrement leur formulation) ; et ensuite à  constater qu'elle ne comporte aucune contradiction, ce qui est gage de sa possibilité d'existence dans l'univers des concepts.

Une telle géométrie constitue un modèle du système de postulats d'Euclide, mais sans son cinquième élément, et de tous les théorèmes qui en découlent. Si, dans le cas présent, un tel modèle  peut être construit, c'est bien que le cinquième postulat n'est pas une conséquence des autres, et qu'il n'est pas non plus nécessaire. On peut le choisir ou ne pas le choisir, comme on peut ou non choisir tel matériau pour construire un bâtiment, les édifices résultant de chaque choix  n'étant bien entendu pas le même. 

Ce qu'il y a d'étonnant dans ces modèles "non euclidiens", c'est qu'ils ne sont nullement difficiles à représenter en image, contrairement à ce qu'on pourrait penser à priori. Jean Paul Delahaye a donné de l'un de ces modèles - dont je ne pense pas, si je l'ai bien compris, qu'il appartienne à ceux de  Beltrami - une représentation assez concrète : on part d'une sphère ordinaire, dont on considère les paires de points diamétralement opposés ; ces paires de points forment par définition les points de la nouvelle géométrie : deux points opposés sur la sphère sont vus comme un "point" unique. Les "droites" de cette géométrie s'identifient alors aux grands cercles de la sphère, et les premiers postulats d'Euclide y sont vérifiés dans leur essence - par exemple, par deux "points" passe une "droite" et une seule. Dans une telle géométrie dite "elliptique", l'on se convaincra de l'absence de parallèle, un grand cercle sur une sphère en coupant  nécessairement un autre. 

Vérité et démontrabilité. 

Le cinquième postulat d'Euclide n'est donc pas "démontrable" (à partir des quatre premiers) contrairement à ce que des mathématiciens pouvaient penser. Cependant il peut être "vrai", c'est-à-dire vérifié, dans certaines géométries pouvant légitimement exister - par exemple dans la géométrie euclidienne - et être "faux" dans d'autres géométries, dites elliptiques (pas de parallèles) ou hyperboliques (une multiplicité de parallèles).

Cette distinction entre ce qui peut être démontrable et ce qui peut être vrai (ou faux) n'est pas un fait "bénin". Mais elle n'est cependant pas facile à appréhender ; la démontrabilité se formalise aisément : c'est la possibilité d'aboutir à l'énoncé (c.a.d. une formule dans un langage logique ou mathématique) par l'enchainement "mécanique" d'un nombre fini de règles (de déduction) à partir des axiomes ; la formalisation de  la notion de vérité (en Mathématiques) est par contre est plus délicate. Jean Paul Delahaye rappelle alors les travaux du logicien et mathématicien Kurt Gödel sur l'incomplétude de l'arithmétique, c.a.d l'existence de propositions indécidables "qui ne peuvent être ni infirmées ni confirmées" par déduction à partir des axiomes de la théorie. Et de souligner le caractère "tout à fait général" du phénomène d'indécidabilité. 


Un concentré d'indécidabilité

Pour terminer sur ce sujet de l'indécidabilité (idem est de l'impossibilité de calculer certaines choses) , Jean Paul Delahaye évoque (voir aussi l'un de ses articles sur la toile) les nombres Omega de Chaitin.  La définition d'un tel nombre utilise la possibilité de considérer toute suite finie de bits (valeur 0 ou 1), se terminant par une séquence de fin unique choisie à l'avance (par exemple 00 dans les suites 0100, 01100, etc), comme un programme exécutable sur une certaine machine (donc dotée elle-même du programme apte à effectuer toutes ces exécutions). Le nombre Omega associé à la machine choisie est la probabilité d'arrêt de tels programmes : autrement dit la probabilité que l'exécution de l'un quelconque de ces programmes, pris au hasard, fournisse un résultat au bout d'un temps fini.

Un nombre de Chaitin est donc un objet parfaitement défini. Mais la suite infinie de 0 et de 1 qui le représente en base 2 est aléatoire ; il est impossible de décider, par aucun calcul, si le n-ième bit de cette suite vaut 0 ou bien 1, etc. Selon l'expression utilisée par Jean Paul Delahaye dans l'article web cité, c'est un "concentré pur d'indécidabilité". Et pourtant ces nombres s'avèrent sources de réflexions fécondes en mathématiques et en théorie algorithmique de l'information

Gilles Cohen-Tannoudji, constantes  universelles et limites du possibles en physique 

Les notes que j'ai pu prendre sur l'exposé de Gilles Cohen-Tannoudji sont moins précises. Aussi vais-je me concentrer sur quelques jalons. Je me propose d'y revenir par la suite de façon documentée, car son propos m'intéresse particulièrement. Mon résumé prend donc ici un caractère plus personnel. 

En premier lieu, j'ai noté comme titre secondaire de cet exposé une formulation présentée dans les premières minutes, à savoir "Horizon de la physique et constantes fondamentales".  L'emploi de ce terme d'horizon n'est pas anodin. Il fait référence à des notions relavant de la philosophie des sciences, notamment dans les travaux du philosophe suisse Ferdinand Gonseth, que Gilles Cohen-Tanoudji a commentés dans différents écrits. 

Les constantes fondamentales dont il s'agit ici sont la vitesse de la lumière c, la constante de gravitation G, la constante de Planck h, la constante de Boltzman k. 

Le corps de l'exposé présente, en s'appuyant sur ces quatre constantes, un essai de cartographie de l'état actuel de la Physique : comment ces constantes, prises isolément puis en association les unes avec les autres, éclairent-elles l'articulation entre différentes branches de la Physique, et entre ces dernières et les grandes questions en suspens. Mais auparavant  Gilles Cohen-Tannoudji donne plusieurs références bibliographiques concernant les relations entre la Physique et la dichotomie possible/impossible. Les deux volets de l'exposé ne sont pas bien entendu sans lien, ce dernier étant à rechercher dans les théories de l'information (et autres théories algorithmiques de l'information) qui occupent une place importante dans la réflexion du conférencier.

la Physique et le principe d'impossibilité

Les références que j'ai retenues sont les suivantes :

  1. Le numéro spécial de la revue Dialectica d'août-novembre 1948, consacré à la notion de complémentarité en Physique Quantique, aux discussions sur les fondements de cette dernière et aux relations entre Physique Quantique et Physique classique. Et l'analyse détaillée que Gilles Cohen-Tannoudji a fait de ce numéro dans un document accessible sur la toile, en lien avec les thèses de Ferdinand Gonseth.  Je retranscris ici l'une de mes notes, concernant "l'impossibilité de prendre en compte, par des corrections déterminables, l'influence complète de l'instrument de mesure sur l'objet mesuré". 
  2. Le livre du Prix Nobel de Physique (1966) Alfred Kastler, intitulé "Cette étrange matière" paru chez Stock en 1976. On peut lire dans les pages 156-157 l'énoncé "d'une série d'impossibilités - ou plutôt d'actes de renoncement fondateurs - qui permettent de structurer  la physique". Par exemple (je cite) : "Il est impossible de discerner les corpuscules de même espèce les unes des autres" ; ou encore "Il est impossible d'assigner une trajectoire déterminée à un corpuscule de la microphysique"; ou enfin "Il est impossible à l'observateur humain de connaître le déroulement de la réalité objective. Il ne peut en acquérir qu'une connaissance discontinue, limitée aux processus d'observation. Chaque observation est une intervention qui altère ce déroulement".
  3. L'article - ou plutôt la proposition (2014) d'article - je ne connais pas bien son statut, de David Deutsch et Chiara Marletto, intitulé "Constructor Theory of Information". Le nom de David Deutsch, spécialiste de calcul quantique, ne m'est pas inconnu. J'avais en effet été très intéressé, il y a quelques mois, par le commentaire paru dans la revue numérique "Automates Intelligents" sur le livre de cet auteur, "The Beginning of Infinity", tout en étant un peu méfiant devant le caractère non conventionnel, hors "main stream" de ses publications. Quoi qu'il en soit, un premier survol de "Constructor Theory..." me rappelle certaines des idées qui ont eu cours dans le laboratoire où je travaillais, autour de la "modélisation à base d'agents". D'où mon souhait d'aller y regarder de plus près.
Constantes fondamentales et cartographie de la Physique

Rappelons d'abord que ces constantes fondamentales sont aussi appelées constantes universelles, pour souligner le fait qu'elles sont censées avoir la même valeur en quelque endroit de l'univers, ou plus exactement en quelque point de l'espace-temps, avec bien sûr la question : sont elles vraiment universelles et vraiment constantes ? Par ailleurs elles sont dimensionnées : c en mètres par seconde, G en mètres cube par kilogramme et par seconde carré, h en joules secondes, k en joule par degré Kelvin ; dimensions exprimables donc, in fine, en terme d'unités de longueur, de temps, de masse et de température. Cette référence à des unités de mesure rattachée à l'échelle humaine paraît les fragiliser. Elle en fait (je cite) des "constantes apparentes", les vraies constantes gagneraient à être sans dimension, en étant indépendantes de toute échelle.

Avec cette réflexion sur les dimensions en arrière plan, Gilles Cohen-Tannoudji présente - dans un premier temps - le territoire de la Physique sur trois axes, liés respectivement à la constante de Planck, à la vitesse de la lumière et à la constante de gravitation. Je comprends mieux ces trois axes en les considérant comme trois curseurs d'échelle : 
  1. Le premier curseur, associé à la constante de Planck : la valeur nulle de ce curseur correspond aux échelles des phénomènes ressortant de la Physique Classique, pour laquelle h peut être totalement négligée ; une valeur élevée correspond aux échelles pour lesquelles la prise en compte du Quantique est indispensable.
  2. Le second curseur, associé la vitesse de la lumière, ou plus exactement son inverse : la valeur nulle de ce curseur correspond aux échelles des phénomènes pour lesquels c (la vitesse) peut être vue comme infinie. C'est par exemple le cas de nos mouvements quotidiens : le rapport v/c est quasiment nul. Une valeur importante correspond aux échelles des phénomènes où le caractère fini de la vitesse de la lumière devient incontournable. 
  3. Le troisième curseur, associé la constante de Gravitation : la valeur nulle de ce curseur correspond aux échelles des phénomènes mettant en jeu des masses trop faibles pour que l'action gravitationnelle puisse se faire sentir ; une valeur élevée correspond aux échelles astronomiques et cosmologiques. 
Le conférencier affine alors l'analyse, en appariant ces curseurs ; le plan (h,c) - dans une représentation tridimensionnelle - est le lieu du passage de la Physique Classique à la Physique Quantique Relativiste et à la Théorie Quantique des Champs ; le plan (c,G) est le lieu de la prise en compte de plus en plus précise des équations de la Relativité Générale ; le plan (G,h) serait le lieu du passage à une certaine forme minimale de Gravité Quantique.

Cartographie sur trois quantas 

Dans cette première approche cependant, la constante de Boltzman est absente. Un cartographie de la Physique basée sur le seul triplet (h,c,G) ignore l'échelle du nombre d'objets ; elle ne peut rendre compte du passage d'une dynamique de quelques particules interagissant entre elles, à la dynamique de milliards de particules ou davantage ; bref, elle ne peut intégrer l'apport de la Physique Statistique. Plutôt que d'utiliser une cartographie à quatre dimensions (h,c,G,k), Gilles Cohen-Tannoudji mobilise une grandeur qui dépend à la fois de h, c, et G ; savoir, le carré de la longueur de Planck ou aire de Planck Avalant G(h/2pi)/(c^3) ; donc une aire  d'environ 10^(-66) cm2, très petite s'il en fût ! Il raisonne alors avec le triplet (h,Ap,k) - ou plus précisément (h/2pi,Ap,k) - et avec les curseurs d'échelle respectivement associés à ces trois grandeurs. Il réintègre bien ainsi la constante de Boltzman et l'interprète comme le quantum d'information, c.a.d l'information minimale - je cite l'un de ses textes - le choix binaire entre deux possibilités.

Quantum, rappelons le, désigne la valeur minimale possible d'une certaine grandeur physique. La cartographie de la Physique se déploie alors sur les curseurs d'échelle associés à trois quantas : le quantum d'action (h/2pi), un quantum d'espace (Ap), le quantum d'information (k). Basée sur ces valeurs minimales, la mesure des échelles des phénomènes paraît "naturelle".  Gilles Cohen-Tannoudji termine alors son exposé en positionnant les différentes questions et approches théoriques de la Physique contemporaine - tel le passage du quantique au classique, ou la quantification de la gravité - dans les différents plans (h,Ap), (Ap,k), (k,h) et dans l'espace global tridimensionnel (h,Ap,k).







Aucun commentaire:

Enregistrer un commentaire