Qui donc connaît les flux et reflux réciproques
de l'infiniment grand et de l'infiniment petit,
le retentissement des causes dans les précipices de l'être,
et les avalanches de la création ?
(Victor Hugo, Les Misérables)

mercredi 1 octobre 2014

Interférométrie atomique et mesures de précision. Billet N° 10

Le Lundi 1er Septembre 2014,  lors de sa réunion de rentrée, l'AEIS  recevait Noël Dimarcq, pour l'écouter sur les principes et diverses utilisations de l'interférométrie atomique. Son exposé élargissait le propos de Christophe Salomon, présenté lors de la séance du 2 juin, consacré spécifiquement à la mesure du temps et aux horloges atomiques. Tout en revenant sur ce thème, Noël Dimarcq a traité de l'interférométrie atomique dans d'autres contextes de mesure et rappelé les contextes théoriques et pratiques, auxquels les performances de précision atteintes pouvaient s'appliquer.

Dans tout exposé scientifique, apparaissent toujours une part explicite, la surface pourrait-on dire, constituée des choses dites ou présentées sur les transparents ; et un arrière-plan implicite, un background de connaissances et de références non formulées. Cet arrière-plan est supposé connu des auditeurs ou, sinon, jugé par le conférencier non essentiel à la compréhension du message qu'il veut transmettre. Chaque séquence du discours est en somme comme une porte semi-entrouverte vers une  un espace, un domaine de connaissances dont l'auditeur devine plus ou moins les contours, en fonction de sa propre expérience. La rédaction d'un résumé ou d'un "compte rendu" fournit l'occasion pour son auteur de mener une première exploration de cet espace, afin d'en approcher au moins partiellement le contenu. 

Dans ce résumé, j'ai donc - n'étant en aucune façon familier de ces domaines de recherche - pris cette attitude, en m'attardant sur quelques aspects qui ont retenu mon attention, à partir de références bibliographiques accessibles. Je les citerai dans leur contexte. J'ai, en particulier, voulu mieux m'approprier et essayer de restituer le raisonnement quantique des superpositions d'états dans le contexte des fontaines à atomes froids et des capteurs inertiels. J'ai aussi porté une attention particulière à la discussion qui s'est déroulée en fin de réunion.

Les diapositives de l'exposé du conférencier, ainsi que la présente analyse sont accessibles dans le bulletin mensuel n° 187 de l'AEIS

à 

L'exposé de Noël Dimarcq


Le terme d'interférométrie désigne un ensemble de méthodes consistant à observer, en différents points d'un espace, l'effet de la superposition de trains d'ondes de même nature et même longueur d'onde et d'en déduire en chacun de ces points leur éventuel décalage, c.a.d leur différence de phase ou encore déphasage. Ce, dans le but de mesurer une autre grandeur.

 L'exposé de Noël Demarcq se structure en plusieurs  séquences.

Dans une première séquence introductive, le conférencier rappelle ce qu'est l'interférométrie optique, celle basée sur les ondes lumineuses -  et le principe de son emploi dans la mesure de grandeurs physiques : savoir la mise en oeuvre d'un dispositif convertissant la grandeur à mesurer en un déphasage entre deux ondes ; la fonction, reliant valeurs possibles de la grandeur et valeurs correspondantes du déphasage, prend la forme de franges d'interférences. Il liste quelques unes de ses applications, telles les applications en géophysique, dans l'aide à la navigation, dans les télécommunications, et dans des sciences comme l'astrophysique (détection des ondes gravitationnelles, projet VIRGO) ou la physique fondamentale.

Noël Dimarcq développe ensuite le parallèle entre l'interférométrie optique et l'interférométrie atomique, parallèle que permet la dualité onde-particule de la physique quantique. Il traite enfin de la notion d'atomes froids : aborde ainsi la manière de les obtenir (techniques de refroidissement laser) , évoque les méthodes pour les manipuler, explicite leur intérêt - voire la nécessité d'en disposer - dans l'interférométrie atomique pour les mesures de précision.

Trois autres séquences suivent, consacrées respectivement 1) aux horloges atomiques, où l'aspect interférométrie atomique n'apparait explicitement qu'à la fin de cette partie de l'exposé ; 2) aux capteurs inertiels, où les schémas interférométriques sont d'emblée présentés ; et enfin 3) en parallèle avec ce qui a été dit en introduction à propos de l'interférométrie optique, aux applications en métrologie et physique fondamentale, et à divers techniques imprégnant plus ou moins notre vie quotidienne.

-°-

Les Horloges atomiques 


Le conférencier rappelle le principe de la mesure du temps, par décompte du nombre d'oscillations d'un phénomène périodique  et les progrès accomplis dans ce domaine :  l'utilisation d'oscillateurs de fréquence de plus en plus grande, depuis les fréquences mécaniques des pendules  jusqu'à celles à des oscillateurs à quartz,  pour en venir  aux fréquences électromagnétiques des lasers.

un asservissement de la fréquence délivrée à une référence absolue.

Les horloges atomiques répondent à ce schéma basé sur un phénomène périodique : l'oscillateur (celui de l'horloge proprement dite, remplissant la fonction du pendule) voit sa fréquence réajustée périodiquement sur une fréquence de référence ; cette  dernière fréquence correspond au rayonnement associé à la transition entre deux niveaux d'énergie d'un atome. Un tel mécanisme assure à l'oscillateur de l'horloge une fréquence - la fréquence délivrée - à la fois très élevée (par exemple de l'ordre de 10 milliards d'oscillations par secondes - 10 GHz - dans le cas d'une horloge à Césium, correspondant à un rayonnement micro-onde, centimétrique) et très stable.

La mesure de l'écart entre fréquence délivrée et sa référence

L'oscillateur de l'horloge est un rayonnement électromagnétique cohérent (laser), dont la fréquence doit donc être recalé périodiquement sur un étalon, la fréquence de référence. L'écart entre les deux fréquences est mesurée par un dispositif dit d'interrogation. Le dispositif d'interrogation consiste à "éclairer", par ce rayonnement, un paquet d'atomes du type choisi et préparés au préalable pour occuper le niveau inférieur de la transition d'énergie sélectionnée. Lors de cette interaction entre rayonnement et matière, certains atomes - peut-on dire en simplifiant la réalité quantique - vont passer au niveau d'énergie supérieur ; ils sont d'autant plus nombreux à le faire que l'écart entre fréquence de l'oscillateur et fréquence de référence est faible, le nombre maximum étant en principe atteint lorsque l'écart est nul. Evaluer l'écart se ramène donc à évaluer, à la sortie de l'interrogation, la proportion d'atomes occupant le niveau supérieur d'énergie ; c'est la tâche d'un autre dispositif, dit de détection.

La mise en oeuvre de ces dispositifs s'effectue cependant de plusieurs manières : il existe en effet plusieurs méthodes d'interrogation. L'une de ces méthodes, l'interrogation de Ramsey, fait explicitement appel à l'interférométrie. Noël Dimarcq y reviendra à la fin de la séquence.

L'utilisation des atomes froids

La précision du recalage est d'autant plus grande que la bande de fréquence induisant une réaction mesurable du paquet d'atomes est étroite et qu'elle est bien centrée sur la référence. Parmi les conditions assurant cette "étroitesse", figure la nécessité d'une très faible agitation thermique des atomes au sein du paquet. C'est là un des intérêts de l'utilisation d'atomes froids, avec des paquets refroidis à des températures de l'ordre du millionième de degrés Kelvin, et donc des vitesses d'agitation ne dépassant pas le cm par seconde. Le dispositif de production de paquets d'atomes froids est un constituant majeur des horloges atomiques de haute précision.

Par delà ce schéma général, une grande diversité

Ce schéma général de fonctionnement se décline en plusieurs types de réalisations, répondant à des applications, avec des performances, des tailles, des coûts divers : l'on passe ainsi d'horloges aux objectifs scientifiques, dédiées à la métrologie et à la physique fondamentale, occupant plusieurs m3 et valant plusieurs millions d'euros, à des horloges "commerciales" utilisées dans l'industrie (volumes de l'ordre du dm3) ; dans ce dernier domaine, plusieurs projets visent à concevoir des horloges miniatures, dont la taille serait centimétrique et le prix de l'ordre de la centaine d'euros.

Caractériser la performance

Dans cette seconde séquence, Noël Dimarcq consacre ensuite un assez long développement à la caractérisation des performances d'une horloge atomique, et aux paramètres dont ces performances dépendent. Deux notions sont identifiées :
  • La stabilité, fonction (décroissante) de l'amplitude des variations statistiques de la fréquence délivrée autour de sa valeur moyenne, correspondant au bruit de fréquence
  • L'exactitude, fonction (décroissante) de l'écart relatif - appelé biais de fréquence - existant entre la fréquence de référence idéale (théorique) et la fréquence effectivement considérée comme référence par le dispositif d'asservissement.
Le couplage interrogation/détection mesure en réalité l'écart entre la fréquence délivrée et la fréquence idéale, affectée du biais de fréquence ; dans la littérature, cet écart relatif - rapporté à la référence théorique - est souvent noté y(t), t étant l'instant de la mesure. Le biais de fréquence - rapporté lui aussi à la référence théorique - est quant à lui noté ε

Pour mieux comprendre ces notions, il est utile de rappeler trois durées caractéristiques de ces horloges :
  • La durée d'interaction, ou d'interrogation, T, durée du passage d'un paquet d'atomes dans le dispositif d'interrogation. Dans le schéma simplifié de fonctionnement donné précédemment, cette durée s'identifie en effet à la durée d'interaction entre le paquet d'atomes et le rayonnement de l'oscillateur à asservir. Mais dans les mises en oeuvre concrètes, son contenu exact dépend de la méthode d'interrogation choisie. 
  • La durée d'un cycle d'horloge Tc, savoir le temps s'écoulant entre deux mesures successives, fournissant donc deux valeurs successives des écarts relatifs : y(t) et y(t+Tc). 
  • La durée d'intégration τ, intervalle temporel (un nombre entier de cycles, donc un nombre de mesures effectuées) sur lequel sont moyennées les valeurs des y(t) : pour chaque intervalle d'intégration k, on obtient ainsi une moyenne yk. Ce sont les variations de ces moyennes yk sur les intervalles d'intégration successifs - mesurées simplement par leur écart type σy(τ) en l'absence de dérive temporelle - qui servent de base à l'évaluation de la stabilité. Laquelle est ainsi lissée sur la durée d'intégration par cette procédure.
On peut se reporter pour un schéma de l'articulation de ces durées aux premières pages de la thèse de doctorat de Clément Lacroûte (Syrte et UPMC, 2010) sur le développement d'une horloge atomique à puce. Mais je n'ai pas bien compris si la durée s'écoulant entre deux corrections successives de la fréquence délivrée coïncidait avec le cycle de l'horloge Tc - donc avec un réajustement après chaque mesure y(t), ou bien si elle était supérieure et de combien. Une question du même type a d'ailleurs été posée lors de la discussion.

Les paramètres de la performance
Noël Dimarcq a présenté une formule de la stabilité (mesurée par l'écart type des yk) la reliant à ses déterminants, destinée à nous montrer les directions de travail tendant à son amélioration. Cette formule fait apparaitre plusieurs paramètres importants :
  • la largeur de la bande de résonance, bande de fréquence associée à la réaction des paquets d'atomes dans l'interaction avec le rayonnement à asservir. La stabilité de la fréquence délivrée sera d'autant plus grande que la bande de résonance sera plus étroite, comme déjà dit précédemment. Cette largeur de bande dépend de la durée d'interaction T : la bande sera d'autant plus étroite que cette durée sera importante. Il faut donc chercher à soumettre les atomes à des interactions de plus en plus longues. Ou chercher des subterfuges pour faire "comme si". C'est le propos du recours à l'interférométrie atomique employé dans l'interrogation de Ramsey.
  • la fréquence de référence elle même. Lorsque la largeur de la résonance ne dépend pas de la fréquence, une manière toute simple d'améliorer la stabilité (en valeur relative) est d'utiliser des fréquences de plus en plus grandes. Passer des fréquences micro-ondes à des fréquences optiques est ainsi une voie de travail en cours 
  • le nombre d'atomes dans les paquets. Ce nombre détermine en effet le bruit quantique, élément incompressible du bruit statistique en supposant éliminées toutes ses sources "techniques". Plus ce nombre sera grand, plus le bruit quantique sera faible. D'où l'intérêt de travailler avec des paquets d'atomes de plus en plus importants.
  • la durée du cycle : plus il est court, plus le nombre de mesures sera grand sur une même durée d'intégration, et donc plus l'écart type sera faible, toutes choses étant égales par ailleurs.
Le conférencier, après avoir présenté un tableau récapitulatif des courbes de stabilité σy(τ) en fonction du temps d'intégration pour différents types d'horloge, s'arrête un moment sur les plus récentes - les fontaines à atomes froids, et les projets en cours. Notons qu'il n'a pas - ou très peu - traité des paramètres  affectant l'exactitude. Le lecteur pourra trouver une synthèse sur ce thème dans un autre exposé de Noël Dimarcq, tenu en 2004 dans le cadre d'un colloque du Groupe de Recherche en Géodésie Spatiale, et accessible sur le web.

Fontaines à atomes froids

L'expression de fontaine à atomes froids est bien adaptée au mécanisme en oeuvre dans ces horloges : les paquets d'atomes - refroidis au préalable - sont propulsés verticalement vers le haut, à une vitesse d'ensemble dont l'ordre de grandeur est de quelques m/s. Lors de cette ascension, ils sont soumis une première fois - pendant un temps très court - au signal d'interrogation, poursuivent leur chemin en étant freinés par la pesanteur, redescendent et interagissent une seconde fois avec le même signal. La durée s'écoulant entre les deux interactions élémentaires atteint, par exemple, la valeur d'une demi-seconde.     
                        
Ces deux interactions successives constituent un dispositif d'interférométrie : sa théorie (celle de l'interrogation de Ramsey) montre que c'est ce temps intermédiaire qui doit être pris en compte comme durée d'interaction T dans la formule d'évaluation de la stabilité, et non le temps très court des deux interactions élémentaires à l'aller et au retour. On conçoit la nécessité que les atomes soient bien refroidis : à des vitesses thermiques centimétriques, la dispersion de leurs vitesses verticales est alors négligeable ou très faible par rapport à la vitesse d'ensemble des paquets qui restent ainsi bien regroupés tout au long du processus. L'exactitude obtenue est déjà fantastique, la valeur du biais de fréquence, rapporté à la référence,  étant de l'ordre de 10 puissance -16. Et il en est de même pour la stabilité.

Horloges du futur

Les projets en cours suivent les directions mentionnées à propos des paramètres de la performance : augmenter encore plus la durée d'interaction et opérer à des fréquences de référence encore plus élevées.

Le projet Pharao illustre la première de ces directions. Il sera effectif en 2016 sur la station spatiale internationale (ISS). Pharao utilise toujours les atomes de Césium refroidis et le rayonnement micro-onde. L'idée nouvelle est d'utiliser l'absence de pesanteur  - plus exactement, la situation de micro-pesanteur présente sur l'ISS - pour mieux piéger et contrôler les paquets et leurs mouvements, et être ainsi à même de les interroger sur des durées très longues (5 secondes par exemple). Pharao atteindra ainsi une largeur de la bande de fréquence dix fois plus fine que celle des horloges au sol. 

Plusieurs projets choisissent la seconde direction, en se plaçant dans la lignée des horloges optiques. Ces horloges utilisent toujours des fréquences de référence associées à des transitions entre deux niveaux d'énergie d'un atome, mais ces fréquences sont cette fois-ci dans le domaine des ondes lumineuses - domaine visible - et non plus celui des micro-ondes ; elles sont donc plus élevées. Bien entendu, les éléments atomiques ne sont plus les mêmes. Les premières horloges optiques (années 1990) du tableau présenté par Noël Demarcq utilisaient des atomes comme l'hydrogène ou le calcium dans leur état neutre ; leur exactitude était alors nettement plus faible que celle les horloges atomiques. Dans les années 2000 sont apparues les horloges utilisant des atomes chargés électriquement : ions Mercure, Ytterbium, Aluminium...  La ligne atomes neutres se maintient cependant, avec l'atome de Strontium (cf par exemple le projet strontium du Syrte et l'article de Xavier Baillard annexé au bulletin 186 de l'AEIS). 

Horloges optiques : ions ou atomes neutres ?  

Noël Demarcq s'est arrêté brièvement sur ces deux types d'horloges optiques, leurs techniques de confinement et leurs avantages respectifs. Tous deux se sont heurtés à la difficulté de mesurer les fréquences optiques à la précision nécessaire, difficulté résolue par la mise au point des "peignes laser femtoseconde". Par ailleurs, ces deux types d'horloges n'utilisent pas les mêmes méthodes pour confiner et contrôler les paquets d'atomes. On comprend bien que le confinement de particules chargées puisse être l'oeuvre de champs électriques. Mais la présence des répulsions coulombiennes limite fortement le nombre d'ions utilisables dans un seul paquet. Concernant les atomes neutres, la technique utilisée (dite du piège dipolaire) s'appuie sur le fait qu'en présence d'un champ électromagnétique, l'atome - tout en restant globalement neutre - forme un dipôle électrique. Sous certaines conditions, ce dipôle tombe et reste enfermé dans un puits de potentiel. La mise en oeuvre de cette technique pour confiner un grand nombre d'atomes s'effectue en les enserrant dans un réseau optique  : les puits de potentiel sont les creux d'une onde laser stationnaire, c'est l'image de la "boite à oeufs" utilisée par Noël Demarcq, les oeufs figurant les atomes. Il faut cependant éviter que par l'effet quantique de tunnel, les atomes puissent sortir des puits de potentiel, et passer ainsi d'un logement de la boîte dans un autre. Des calculs de physique quantique et l'expérience montrent l'existence d'une longueur d'onde magique -  c'est-à-dire d'une taille des logements - garantissant un effet tunnel quasi nul. 

 Interrogation de Ramsey et  Interférométrie


Revenons, comme l'a fait Noël Demarcq, sur l'interrogation de Ramsey, pour en souligner l'aspect interférométrique, lequel rappelons le, était au centre du titre de son exposé. 

Noël Demarcq montre d'abord un graphe construit à partir de données expérimentales d'une fontaine à atomes froids, donc dans le cadre d'une interrogation de Ramsey. Ce graphe illustre la fonction reliant la probabilité de transition entre les deux niveaux d'énergie, en fonction de l'écart entre fréquence délivrée et fréquence de référence. Cette fonction se présente sous forme d'oscillations rapides s'inscrivant dans une enveloppe, avec un maximum pour un écart nul et un amortissement progressif de l'amplitude des oscillations de part et d'autre de ce maximum. L'image rappelle de façon frappante celle des franges d'interférences dans l'expérience des fentes (ou trous) d'Young. Et Noël Dimarcq  de poursuivre quantitativement l'analogie en soulignant la correspondance entre :
  • la durée séparant les deux interactions élémentaires de Ramsey et la distance entre les fentes. La première déterminant la période des oscillations de la probabilité de transition entre niveaux d'énergie, la seconde l'interfrange des interférences dans l'expérience des trous d'Young
  • la durée d'une interaction élémentaire de Ramsey et la largeur des fentes. La première déterminant la forme et la largeur de l'enveloppe dans laquelle s'inscrivent les oscillations, la seconde celle des franges d'interférences (enveloppe de diffraction)

Rappel : interprétation quantique de l'expérience de Young


 L'expérience primitive de Young (1801) a été effectuée sur des ondes lumineuses ; leur mise en oeuvre sur des particules - des électrons - et l'observation dans ces expériences de franges d'interférences ont  été - entre autres - à l'origine de la "dualité ondes/particule".  La théorie quantique est amenée à considérer que dans ces expériences, chaque particule interfère avec elle même : après son passage à travers l'écran aux deux fentes,  l'état quantique de la particule devient une  superposition de deux états élémentaires ; le premier est celui d'une particule qui aurait été émise, au moment du passage, par l'une des fentes ; le second est celui d'une particule de même nature, qui aurait été émise au même instant depuis l'autre fente.  

L'emploi du conditionnel (... qui aurait... ) a ici un sens précis : la superposition ne signifie nullement l'existence de deux particules, suivant chacune son trajet propre ; elle ne s'identifie pas non plus à l'énoncé de la possibilité de deux trajets, dont l'un sera effectivement choisi ; elle est la traduction mathématique du comportement d'un objet complexe (étendu spatialement), passant en réalité par les deux fentes, comme le montre très bien la simulation présentée dans la référence Wikipédia déjà mentionnée. 

En l'occurrence, les états quantiques en jeu sont des fonctions - les fonctions d'onde - définies sur l'espace et le temps, à valeur complexe, donc mobilisant des notions de module et de phase. La probabilité de détecter la particule sur une position, au delà des fentes, se calcule à partir de l'expression de l'état superposé (ce sera, rappelons le, le carré de son module en ce point, à cet instant). Elle dépend donc du déphasage existant (toujours en ce point, à cet instant) entre les deux états élémentaires. L'observation des franges d'interférence traduit la variation spatiale de cette probabilité. 

Interprétation quantique des franges de  Ramsey

La ressemblance entre franges de Ramsey et franges de Young n'est pas un hasard. Dans l'interrogation de Ramsey, le schéma est en effet le même : superposition de deux états élémentaires et existence de déphasages. Suivons pour simplifier un seul atome, occupant initialement le niveau d'énergie inférieur de la transition. L'état quantique lors de son passage dans le dispositif de détection - donc après avoir été soumis aux deux interactions - est toujours la superposition de deux états élémentaires : le premier est celui d'un atome qui serait passé au niveau supérieur d'énergie, lors de l'étape ascendante (dans la fontaine), donc dès la première interaction avec le signal d'interrogation ; le second est celui d'un atome qui serait au contraire passé à ce même niveau supérieur d'énergie, lors de l'étape descendante, donc lors de la seconde interaction. La théorie quantique des interactions, entre le rayonnement et l'atome, montre que les deux états élémentaires sont déphasés d'un angle φ  dont la valeur dépend, dans la mise en oeuvre effective du dispositif d'interrogation :
  • de l'écart δ entre fréquence de l'oscillateur ( = celle du signal d'interrogation) et fréquence de référence
  • de la durée T séparant les deux interactions (ascendante et descendante) (le temps de "vol" de l'atome dans la fontaine)
la formule liant ces paramètres au déphasage étant simplement φ = 2πδT. Cette valeur du déphasage détermine la largeur des franges de Ramsey sur l'axe des fréquences. 


Un cas particulier des systèmes à deux niveaux. 

Aller plus avant dans l'exploration du problème, par exemple pour rendre compte de la formule précédente ou encore des  amplitudes des franges et de leur inscription dans l'enveloppe, serait hors de propos dans ce compte rendu. Et la considération d'un seul atome est de toute façon  insuffisante. Disons seulement qu'intervient, dans ces calculs, la théorie des systèmes quantiques à deux niveaux ; ces deux niveaux sont ici les deux niveaux d'énergie de la transition atomique utilisée, mais la structure mathématique, pour représenter toutes les superpositions possibles des deux états qui leur sont associés, reste formellement la même dans bien d'autres contextes. C'est là une différence avec les  fentes d'Young : dans ces dernières, l'état quantique est une fonction définie sur un espace continu, donc un "vecteur" possédant un nombre infini de dimensions. Dans le cas des horloges atomiques, les états quantiques (du moins lorsque l'on raisonne sur un seul atome) sont représentables simplement par un couple de deux nombres complexes, savoir les poids respectifs des deux niveaux dans les superpositions. Et la contrainte de normalisation (le module de l'état égal à 1) fait qu'au bout du compte on retrouve une représentation encore plus simple, un couple de deux angles θ et φ, assimilables respectivement à une co-latitude et une longitude ; l'état quantique peut alors être vu comme un point à la surface d'une sphère, la sphère de Bloch. Dans cette représentation, la co-latitude détermine les poids respectifs - et donc les probabilités respectives des deux niveaux dans l'étape de détection ; la longitude φ a le statut d'une phase.


-°-
                      
Les capteurs inertiels

Ces capteurs ont la fonction de mesurer des accélérations dans des contextes variés. Noël Dimarcq présente ainsi l'utilisation de l'interférométrie atomique pour les gyromètres (accélérations en oeuvre dans des rotations) et les gravimètres (accélération de la pesanteur).

Dans les fontaines atomiques, la trajectoire des atomes, dans l'espace de leurs états quantiques,  est pour ainsi dire mixte : une part s'effectue dans un espace d'états quantiques interne, savoir la transition entre les deux niveaux d'énergie ; une autre part s'effectue dans un espace d'états quantiques externe, savoir le déplacement continu de la fonction d'onde dans l'espace physique, associée au vol libre entre les deux interactions. Comme il a été souligné ultérieurement lors de la discussion, c'est bien la part interne qui est importante ; la part externe introduit les deux modalités de cette trajectoire (interaction à  l'étape ascendante, versus à l'étape descendante)  et leur laisse le temps d'accumuler une différence de phase ; mais on peut créer les conditions techniques pour que les deux modalités puissent exister et que l'accumulation puisse se faire sans déplacement global du paquet d'atomes ...

Dans les capteurs inertiels atomiques présentés par Noël Dimarcq, cette mixité existe, bien qu'il n'en ai pas explicitement parlé. Mais l'attention se porte sur la fonction d'onde, c.a.d. la part externe de la trajectoire, ce qui s'y passe, et le déphasage qui en résulte. Il demeure cependant une part interne, une transition entre deux niveaux d'énergie. La probabilité de cette transition est couplée au déphasage ; son évaluation dans le dispositif de détection permet alors de calculer la valeur du déphasage, difficile à mesurer directement. Cette méthode de mesure indirecte mobilisant une transition d'énergie, il n'est pas étonnant que les types d'atomes utilisés dans les capteurs inertiels puissent être les mêmes que ceux des horloges atomiques, par exemple Césium ou Rubidium.

capteurs inertiels : l'analogie optique

Dans les schémas présentés par Noël Dimarcq, les dispositifs d'interférométrie mis en oeuvre ont une structure rappelant formellement celle des interféromètres de Mach-Zehnder. Ces interféromètres optiques font intervenir : d'une part, une première lame semi-réfléchissante, appelée séparatrice, dont la fonction est de diviser le train d'ondes (lumineuses) en deux trains d'ondes séparés, qui suivront des trajets distincts, dans deux directions différentes ; d'autre part, deux miroirs, dont le but est de rabattre ces deux trains d'ondes vers une seconde lame semi-réfléchissante pour les faire se rejoindre et interférer. D'autres types d'interféromètres (Michelson, Sagnac, ... ) présentent une structure un peu différente, mais le principe est toujours le même : séparation spatiale, puis recombinaison pour mesurer l'éventuel déphasage.

 capteurs inertiels  : la transposition atomique  

Dans la version atomique des interféromètres de Mach-Zehnder,  les trains d'ondes sont ceux associés aux atomes, avec une longueur d'onde "de Broglie", fonction de leur impulsion. Le rôle des séparatrices et des miroirs est tenu par des faisceaux lasers. Désirant nous parler davantage des progrès accomplis en performances, Noël Dimarcq ne s'est pas attardé sur la physique sous-jacente. Aussi ai- je eu envie d'en explorer un peu plus certains aspects.

L'action d'un faisceau laser,  jouant le rôle de séparatrice ou de miroir, repose dans son principe sur la conservation de la quantité de mouvement, dans l'interaction entre l'atome et un photon. L'absorption d'un photon par un atome provoque, non seulement le passage sur un niveau d'énergie plus élevé, mais agit également sur sa vitesse, soit, en termes quantiques, sur son impulsion ; c'est par la modification de cette vitesse que le train d'ondes - représentant quantiquement l'atome ayant interagi avec un photon - se sépare spatialement de ceux qui n'ont subi  aucune interaction.

Cet effet de recul sur l'atome, où la quantité de mouvement du photon est transféré à l'atome l'ayant absorbé, constitue le mécanisme majeur de l'étape préalable de refroidissement, comme Noël Dimarcq nous l'a rappelé, dans une partie antérieure de son exposé ; l'effet de recul est également présent lors des interactions d'interrogation dans les horloges atomiques et constitue un des paramètres dont il faut tenir compte dans l'évaluation de l'exactitude.

L'emploi de l'effet de recul, pour faire jouer à des faisceaux lasers les rôles de séparatrices et de miroirs, dans leurs interactions avec les atomes, a été mis en oeuvre dans plusieurs dispositifs. L'un d'eux, celui présenté par Noël Dimarcq, fait l'objet d'une abondante littérature. Il mobilise la physique des transitions Raman stimulées. Il a l'avantage de rendre possible un très bon contrôle de la correspondance entre les transitions des niveaux d'énergie (changements des états internes) et les  modifications des impulsions (changements des états externes). La mesure des déphasages, à partir de celle des probabilités de transition,  s'en trouve ainsi fiabilisée.

gravimètres  : un aperçu du dispositif Raman.

Je prendrai le cas des gravimètres, pour lequel la séparation, puis la recombinaison des trains d'ondes, se font sur la seule dimension d'un axe vertical. Les atomes tombent le long de cet axe, sous l'effet de la pesanteur. Les références bibliographiques dont je me suis servi sont un exposé d'Arnaud Landragin tenu en 2010, ainsi que son rapport d'habilitation (Syrte, 2009), et enfin la thèse de Julien Le Gouët (Syrte, Paris 11, 2008).

Dans un gravimètre Raman, le paquet d'atomes en chute libre est éclairé, brièvement, à trois reprises successives par le même couple de faisceaux lasers verticaux "contra-propageants", provoquant trois interactions avec les atomes ; à chaque fois,  l'un des faisceaux propage des photons d'une certaine fréquence vers le haut, à la rencontre des atomes ; l'autre propage des photons d'une autre fréquence vers le bas, pour ainsi dire à la poursuite de ces mêmes atomes. Ces deux fréquences sont choisies pour que leur différence corresponde à la différence entre les deux niveaux d'énergie de la transition sélectionnée.

Ces trois interactions se succèdent donc dans le temps ; la seconde est séparée de la première, et la troisième de la seconde, par une même durée T.  Elles sont de même nature physique, seule leur  durée propre (pendant laquelle elles sont actives) distingue leur action : la première et la dernière,  d'une durée τ, jouent le rôle de séparatrice et la seconde, d'une durée double, celle de miroir ; cette unique interaction miroir  joue simultanément pour les deux trains d'ondes  lesquels, après le passage  dans la première séparatrice de l'atome concerné, sont alors effectivement séparés spatialement sur l'axe vertical de leur  chute.

Dans ce dispositif, l'étape de détection récupère une superposition d'états, liée aux deux modalités possibles du résultat de l'interaction lors du passage dans la première séparatrice, 1) pas de changement de niveau d'énergie, ni de modification de l'impulsion  ;  2) transition effective au niveau supérieur et modification corrélative de l'impulsion.

gravimètres  : de la mesure des transitions à celle de la pesanteur 

Au delà de la formule présentée par Noël Dimarcq, et au delà de la compréhension intuitive qu'il nous en a donné, j'ai voulu approcher le principe des calculs quantiques à la base de cette formule, donc du passage entre la mesure de la probabilité de transition et celle de l'accélération de la pesanteur g.  

Tout d'abord, l'évolution de l'état quantique d'un atome, tout au long de sa chute libre et de ses trois interactions successives avec les faisceaux laser, se ramène à celle, déjà mentionnée, d'un système à deux niveaux. Cette évolution peut être vue en conséquence comme une trajectoire sur la sphère de Bloch, de la même manière que pour les fontaines atomiques. Chaque point de cette sphère est représentable comme une combinaison linéaire de deux états de base, intervenant dans cette combinaison avec des poids respectifs notés habituellement Cf  et Ce ; ces états de base sont  : 1) le couple F, Pf  associant le niveau d'énergie inférieur (F) et l'impulsion initiale (P)  ;  2) le couple E, Pe associant le niveau d'énergie supérieur (E) et l'impulsion qui résulte du passage à ce niveau dans la transition Raman (Pe). 

La démarche suivie consiste à écrire les équations contrôlant les poids respectifs des deux états de base dans leur superposition, à calculer quelles valeurs ils ont à l'issue du processus, lors de la détection, et à connaître la relation entre ces dernières valeurs et la pesanteur g. 

Ces poids sont des coefficients complexes. Le passage du couple [Cf , Ce] initial - un vecteur complexe donc - au couple [Cf , Ce] final est assuré par une multiplication de matrices. Celles-ci sont au nombre de cinq : une première matrice représente l'action de la première séparatrice, une seconde fournit le résultat de la première évolution libre, une troisième associée à l'action miroir, une quatrième fournissant le résultat de la seconde évolution libre et enfin une cinquième,  représentant l'action de la dernière séparatrice. 

Les expressions de ces matrices sont plus ou moins compliquées, selon les conditions techniques de mise en oeuvre et les simplifications que l'on s'autorise à effectuer. Retenons en ici quelques paramètres déterminants : 
  • les durées des interactions  : celle commune aux actions des deux séparatrices, la durée notée τ, est fixée de manière à ce qu'à l'issue de la première séparatrice, les modules des coefficients Cf  et Ce soient égaux (assurant donc à cet instant l'équi-probabilité des deux états de base) ; rappelons qu'une durée double (2τ) garantit alors à l'interaction centrale de remplir pour les deux états de base sa fonction miroir. 
  • la durée T commune aux deux évolutions libres, toujours grande devant τ
  • les valeurs φ du déphasage entre les deux faisceaux lasers, au lieu ( savoir sur l'axe vertical) et à l'instant de chaque interaction. Pour être précis, puisque les trains d'ondes sont éventuellement spatialement séparés, il faut entendre leur centre de gravité à l'instant où ils subissent l'action des lasers. Interviendront donc dans la formule trois valeurs de ce déphasage, valeurs φ1, φ2 et φ3 associées aux trois interactions.
Ce sont ces valeurs du déphasage qui sont sensibles à l'accélération de la pesanteur : en effet, les lieux (sur l'axe vertical de chute) des trois interactions varient selon l'intensité de cette accélération, qui amène l'atome plus ou moins loin vers le bas dans le même temps imparti. 

En définitive, la formule reliant en première approximation, l'accélération de la pesanteur g à ces valeurs de déphasage est :



le coefficient devant g étant lié à la différence de fréquence entre les deux faisceaux laser contra-propageants. Celle reliant le déphasage total à la probabilité de transition (de f vers e) constatée à la fin du processus s'écrit :


-°- 

Applications de l'interférométrie atomique

Noël Dimarcq consacre la dernière partie de son exposé à quelques applications des performances actuelles ou espérées de l'interférométrie atomique aux mesures de précision.  Noël Dimarcq mentionne en premier lieu la métrologie fondamentale, discipline scientifique consacrée à la définition (ou la redéfinition) des unités - telles l'unité de temps, de masse, etc... - à la conception et à la mise au point d'étalons. On est revenu sur ce thème lors de la discussion.

Le conférencier parle ensuite assez longuement des applications relatives à certains tests de physique fondamentale. L'idée à la base de ces applications est la suivante : certains principes ou lois physiques, considérés comme valides,  doivent cette validité au fait que la précision des mesures effectuées pour les vérifier a été jusqu'à présent insuffisante pour constater leur violation.  Avec l'espérance que cette violation pourra être mise en évidence avec une précision plus importante.

tests portant sur la Relativité Générale 

Il en est ainsi des principes à la base de la Relativité Générale, et des lois qui en sont la conséquence. Nombre de physiciens travaillent aujourd'hui à partir de l'hypothèse que la réalité physique peut être décrite par une "Grande Théorie Unifiée",  réunissant la théorie de la gravitation d'une part, et la théorie (quantique) des autres interactions d'autre part ; la théorie actuelle de la gravitation, savoir la Relativité Générale, n'étant pas quantique,  ces physiciens sont amenés à penser que les énoncés de cette théorie de la gravitation seront tôt ou tard violés, dès lors qu'une certaine précision des mesures sera atteinte.

Le problème est que les tentatives vers une telle théorie unifiée ne sont actuellement pas (ou très peu) en mesure de proposer le niveau de précision qu'il faudrait atteindre pour faire apparaître de telles violations. Ce qui n'empêche pas cependant les expérimentateurs de pousser les vérifications par des mesures toujours plus précises.

Noël Dimarcq dresse ainsi un tableau des niveaux de précision atteints actuellement dans la vérification des différentes version du Principe d'Equivalence. Rappelons en  quelques exemples donnés par le conférencier.

  • "dans un champ gravitationnel, tous les corps tombent avec la même accélération" (ex, un marteau et une plume, lâchées d'une même hauteur, arriveront au sol en même temps). En 1900, dans les expériences menées par Lorand Eötvös, l'écart relatif entre les deux valeurs de l'accélération était dans le rapport de 1 sur 100 millions. Cette précision, déjà très importante, s'est depuis accrue d'un facteur d'au moins 10.000, et l'on espère pouvoir prochainement atteindre un rapport de 1 sur 1000.000 milliards dans le projet STE-QUEST
  • la mesure de la vitesse de la lumière fournit toujours la même valeur,  indépendante de la vitesse de la source, de celle de l'observateur et de leurs directions respectives (principe introductif à la Relativité Restreinte). La précision relative atteint actuellement un rapport de l'ordre de 1 sur 10 milliards.
  • les constantes fondamentales sont-elles vraiment constantes, dans l'espace et le temps ? La définition de l'unité de temps, donnée par les horloges atomiques étalons, étant reliées à la valeur de ces constantes, la dérive de ces dernières au cours de l'histoire de l'univers, signifierait une dérive de l'unité de temps. Or, selon le conférencier, certains signes d'une possible dérive des constantes pourraient (peut être) apparaître dans quelques temps
  • la formule issue de la Relativité Générale, donnant le décalage en fréquence d'horloges identiques placées en différents points d'un champ gravitationnel, est-elle universelle? Un test de cette universalité va pouvoir être mené dans le cadre du projet Pharao déjà cité, avec une précision encore jamais atteinte.
De la géophysique à Galileo, de la distribution d'énergie aux transactions bancaires 

Noël Dimarcq, à plusieurs reprises, a insisté sur un point. Les recherches en matière de mesures de précision servent aussi bien les besoins de science fondamentale que les besoins des techniques employées couramment dans notre monde moderne. Des exigences d'évaluations de durée (de transmission de signaux), de synchronisation, de positionnement précis se font jour en effet dans nombre de domaines, et le conférencier en cite rapidement quelques exemples.

Il conclut enfin en rappelant les grandes étapes récentes et les grands noms des avancées scientifiques en arrière plan de son exposé, depuis la théorie du pompage optique par A. Kastler (Prix Nobel 1966), jusqu'aux travaux de Serge Haroche sur la manipulation des états quantiques individuels (Prix Nobel 2012, partagé avec D. Wineland)

---------------------

La discussion

Après l'exposé de Noël Dimarcq, plusieurs questions ont pu être posées et il s'en est suivi une riche discussion. Certaines de ces questions réclamaient quelques précisions techniques, d'autres concernaient des problèmes de fond. je vais les présenter dans l'ordre des interventions.

Qualité des miroirs dans Virgo 

La question posée concernait le projet VIRGO de détection des ondes gravitationnelles - par interférométrie optique - et l'impact de la qualité des miroirs. Le conférencier a répondu qu'un éventuel biais du à l'état de surface des miroirs n'était pas nécessairement gênant, dans la mesure où il pouvait être connu et corrigé. Le vrai problème est l'existence de vibrations, de bruits thermiques présents dans ces miroirs qui fonctionnent à la température ambiante (celle du nord de l'Italie, en l'occurrence). Les modifications de distance dues aux éventuelles ondes gravitationnelles étant très faible, ces vibrations sont une réelle limitation. Pour s'en sortir, deux directions évoquées : mener un travail sur des architectures de miroirs adaptées pour atténuer ces fluctuations ; concevoir et construire des interféromètres encore plus grands (référence faite à des projets spatiaux, avec  des bras d'interféromètres de plus d'un million de km)

indépendance des mesures du temps et des mesures de distances

La question s'est d'abord focalisée sur l'impact de la connaissance de la vitesse de la lumière, et de son éventuelle inconstance, sur la mesure du temps dans les horloges atomiques. En re-précisant la question, l'intervenant s'interroge à propos des horloges atomiques sur les conséquences, sur la mesure du temps, du  fait que dans une fontaine atomique, les atomes se déplacent pendant leur vol libre d'où la re-formulation : la mesure du temps est-elle, dans les horloges atomiques, complètement indépendante de la mesure des distances ?

Le conférencier répond que oui, en principe, et même en pratique, en citant les horloges à ions où ces derniers sont piégés dans les creux d'un potentiel électromagnétique et ne bougent pas. Et Noël Dimarcq, de citer également ses propres travaux visant mettre en oeuvre les interactions du signal d'interrogation au même endroit sur des atomes macroscopiquement immobiles. L'interféromètre est alors un interféromètre dans le temps, et non dans l'espace. Le déplacement des atomes peut même entrainer des biais d'exactitude, dont il faut tenir compte (effets relativistes, ...)

Par contre, ce qui est vrai pour les horloges atomiques, est faux pour les capteurs inertiels, Car c'est dans le mouvement des atomes dans l'espace physique que l'on décèle l'influence des grandeurs à mesurer (les accélérations).

métrologie du temps, des longueurs, des masses

Suite à la constatation, par un intervenant, de l'extrême précision atteinte dans la mesure du temps, et de la possibilité, selon ses dires, de définir les unités de longueur et de masse à partir de l'unité de temps, la discussion s'oriente vers les questions fondamentales de définition formelle et d'étalonnage des unités physiques. Certes, l'unité de longueur est définie à partir de l'unité de temps et de la vitesse de la lumière. Mais le conférencier remarque d'abord que les incertitudes sur cette dernière n'ont pas d'impact sur les mesures de longueurs, au niveau de la précision relative exigée dans les applications. Cela l'amène à rappeler la différence entre la définition formelle - théorique - d'une grandeur et son étalonnage pour les besoins d'un grand nombre d'applications. Pour les définitions théoriques, la tendance est en effet de s'appuyer sur des phénomènes quantiques, où les grandeurs concernées se relient à des fréquences - donc au temps - à la constante de Planck, et éventuellement à la vitesse de la lumière. Mais cela n'empêchera pas dans la pratique d'utiliser des étalons basés sur d'autres phénomènes 

Le conférencier reprend alors le cas des unités électriques (Ampère, Volt), en lien avec le problème de la définition de l'unité de masse, le kilogramme ; et des pistes ouvertes sur ce dernier thème, à savoir une définition à partir de phénomènes quantiques ou à partir d'un nombre fixé d'atomes d'un certain type.

Sur le temps : existe t-il une limite au degré de précision atteignable ? 

Le conférencier pense effectivement que l'on risque d'atteindre un certain palier. La raison en est que l'extrême précision actuelle se rapproche de l'ordre de grandeur des variations de fréquence, dues à la variation des conditions environnementales présentes dans les expériences : on ne peut plus du tout considérer alors seulement l'horloge, mais le système constitué de l'horloge et de son environnement. Pour prendre un exemple concret, tant que la précision est suffisamment faible pour que les variations de la fréquence d'une horloge soient indécelables sur l'ensemble des bâtiments d'un certain laboratoire, on peut parler de l'horloge de ce laboratoire ; mais lorsque la précision atteinte permet de distinguer une variation de fréquence, lorsque l'on déplace l'horloge d'un centimètre, de quelle horloge va t-on parler ? 

Sur les transitions utilisées dans les étapes de refroidissement, d'interrogation, de détection. 

Sachant que ces trois étapes utilisent (ou peuvent utiliser pour la dernière) des transitions entre niveaux d'énergie sous l'effet d'interactions entre atomes et photons, une certaine confusion peut apparaître : ces transitions sont-elles les mêmes ? La réponse est clairement négative : les propriétés requises pour les transitions par ces différentes étapes sont différentes : ainsi, dans l'étape de refroidissement l'atome, une fois placé au niveau supérieur, doit très vite redescendre à son niveau initial, pour pouvoir être freiné à nouveau lors d'une seconde absorption. Et il doit le faire par émission spontanée et non émission induite, car alors le bilan de freinage serait nul. De plus, on a évidemment intérêt à utiliser des transitions de haute fréquence, pour que l'impulsion des photons soit élevée et donc le freinage important. Au contraire, dans l'interrogation, l'atome, ayant atteint le niveau supérieur, doit y rester le plus longtemps possible, pour qu'au niveau de la détection la probabilité de transition soit correctement estimée.

La question sous-tendait celle des méthodes de détection, où il s'agit de mesurer la proportion d'atomes occupant le niveau supérieur d'énergie ; une des méthodes les plus efficaces consiste à éclairer le paquet d'atomes par un rayonnement laser d'un troisième type, amenant les atomes à un niveau encore supérieur, mais dont ils vont décrocher spontanément et revenir à un niveau fondamental, en émettant un rayonnement de fluorescence.

L'intervalle de temps séparant deux corrections successives 

La question porte sur la cadence de correction, dans l'asservissement de l'oscillateur à la fréquence théorique. Cette question rejoint celle du rapport entre cette cadence de correction et le temps d'intégration utilisé dans le calcul de la stabilité, mais cette dernière question n'a pas été explicitement posée. La réponse du conférencier est que cela dépend du type d'horloge : dans les fontaines à atomes froids, l'intervalle entre deux corrections comprend plusieurs cycles, et atteint par exemple la dizaine de secondes ;  dans les horloges embarquées ce même intervalle se réduira, par exemple, à une dizaine de milli-secondes. 

Sur une technique potentiellement utilisable dans les horloges à ions

Un intervenant imagine que l'on refroidisse  suffisamment les ions de façon à pouvoir les piéger dans un "solide coulombien" et demande si cet effet a pu être utilisé dans les horloges à ions. le conférencier répond que cet effet n'a pas été utilisé. la question l'amène à revenir sur les horloges à ions et leurs contraintes  : utilisation d'un petit nombre, voire d'un seul ion avec les avantages et les inconvénients qui en résultent, recherches en direction de chaines linéaires d'ions. Il souligne enfin la complémentarité entre les deux approches (atomes neutre et ions) et l'intérêt de disposer de filières différentes, qui peuvent ainsi se contrôler les unes avec les autres. 

Statuts comparés de la vitesse de la lumière et de la constante de Planck.

L'intervenant rappelle les rôles respectifs joués par la vitesse de la lumière et la constante de Planck, dans la théorie de la gravitation et dans le modèle standard de la physique des particules. Et de s'interroger sur la différence de leur statut dans la définition d'autres unités, comme l'unité de masse. Il s'interroge sur la dissymétrie entre les deux constantes et pose la question : que se passerait-il si l'on prenait comme constante fondamentale la constante de Planck ?

La discussion avec le conférencier permet à l'intervenant de préciser sa question. La vitesse de la lumière a le statut d'une constante "pure" ; elle est par définition connue avec une précision infinie puisque, en énonçant "elle vaut 299.... mètres par secondes", on ne fait que donner la définition du mètre. Toutes les unités spatiales (distances, etc) y sont accrochées. Qu'est ce qui empêche de faire la même chose avec la constante de Planck, de considérer cette dernière comme une constante "pure" et d'y accrocher d'autres unités, telle l'unité de masse ? 

S'ensuit un échange sur la possibilité et l'intérêt d'une telle démarche, et le statut que pourraient avoir d'autres constantes dans cette perspective, comme la constante de structure fine ou la constante de Rydberg.

Le caractère conceptuellement continu du temps

Une intervenante s'appuie sur son expérience des fractales  : La longueur d'un objet fractal dépend de la résolution avec laquelle on le mesure ; pourrait-il en être de même du temps ?  le temps est il vraiment "une ligne droite", se déroule t-il de façon continue ? 

A cette question, le conférencier répond qu'on est encore loin, dans les résolutions temporelles atteintes (liées au fréquences), du temps de Planck, c'est-à-dire du temps où les phénomènes quantiques rejoindraient les phénomènes gravitationnels et où le caractère continu du temps, comme de l'espace, pourrait être remis en cause.  La réponse est donc sans ambiguité : pour le moment oui, on ne sort pas du concept de temps continu, du temps vu comme une ligne droite.

 Les raisons du choix des atomes,  : pourquoi le césium, le rubidium, etc ? 

Cette question conduit le conférencier à revenir brièvement sur les critères de choix des atomes, au delà des raisons historiques qui ont conduit à tel ou tel choix, compte tenu des méthodes utilisées à l'époque : nécessité d'avoir des atomes stables, facilement sélectionnables sous une forme pure, présentant des écarts de niveaux d'énergie associés à des fréquences facilement accessibles et présentant la variété des qualités requises aux différentes étapes, et peu sensibles aux champs magnétiques. 

De l'optique à l'électronique.

Un intervenant souligne un des aspects des relations entre l'optique et l'électronique qui le frappe, et le conférencier le rejoint sur cette constatation ; à la fin du 19 sème siècle, avec la reconnaissance de l'identité de nature entre les ondes électromagnétiques et celles de l'optique, c'est l'optique, les notions et techniques que cette discipline avait introduits qui jouent le premier rôle : la notion de longueur d'onde, et les techniques pour la mesurer. Depuis, une bascule s'est faite vers la notion de fréquence ; les méthodes pour mesurer directement les fréquences et les contrôler se sont considérablement améliorées ;  dans ce basculement, c'est l'électronique qui joue cette fois un rôle majeur. 


De la possibilité d'utiliser  les condensa de Bose-Einstein


Un dernier intervenant évoque la possibilité d'utiliser, en lieu et place de paquets d'atomes froids, des condensats de Bose-Einstein, assemblées d'atomes dotées de propriétés collectives spécifiques, assurant en particulier la cohérence de leurs ondes atomiques respectives.  Cette cohérence pourrait séduire en effet ; Noël Dimarcq souligne cependant l'inconvénient majeur des fortes interactions entre atomes, présentes dans ces collectivités, interactions qui ont pour effet de déplacer les fréquences des niveaux d'énergie et donc d'affecter l'exactitude. S'introduisent alors des biais qu'il faut savoir analyser et compenser ; des travaux sont en cours, mais rien ne permet actuellement de penser que les condensats puissent surpasser les atomes froids dans les horloges atomiques ;

Aucun commentaire:

Enregistrer un commentaire