par Sylvain Bouley | Avr 10, 2021 | Zoom Sur
Chaque galaxie possède un trou noir supermassif en son centre, de masse proportionnelle à la masse de son bulbe. Ce sont les galaxies elliptiques, presque toutes en bulbe, qui possèdent les trous noirs les plus massifs, jusqu’à 10 milliards de masses solaires. Par contre, les spirales, aux bulbes plus petits, comme la Voie lactée, abritent des trous noirs plus modestes de 4 millions de masses solaires. Lorsque le trou noir central avale de la matière, provenant du gaz environnant, le noyau de la galaxie devient un noyau actif ou AGN.

Fig. 1. La galaxie spirale barrée NGC 1433 est une galaxie de Seyfert de type 2. Elle est vue ici sur une image HST dans les longueurs d’onde visibles, montrant le centre de la barre (plus jaune) avec les traînées de poussière sombres entourant l’anneau de résonance de Lindblad, où le gaz forme des étoiles jeunes, qui donnent la couleur bleue à l’anneau. La région centrale est agrandie en haut à droite, et l’image HST est en bleu, avec l’image du gaz moléculaire avec ALMA en orange. Le gaz moléculaire révèle un deuxième anneau résonnant à l’intérieur du premier. (D’après Combes et al, 2013)
Les manifestations de cette activité représentent parfois une énorme énergie, lorsque le trou noir central est massif et bien nourri : c’est le phénomène de quasar, où le noyau quasi ponctuel (quasi-star) peut rayonner mille fois plus que la totalité des 200 milliards d’étoiles que contient sa galaxie. Mais le phénomène de quasar est rare, et les AGN qui nous entourent sont en général moins massifs et moins nourris. Ce sont essentiellement des galaxies de Seyfert, dont l’activité du noyau n’empêche pas de voir les étoiles : sa luminosité est comparable ou inférieure à celle de sa galaxie hôte.
Pour une masse de trou noir donnée, il existe une luminosité maximum que ne peut dépasser le noyau actif, quelle que soit la nourriture disponible dans son environnement immédiat : la luminosité d’Eddington. Lorsque le trou noir essaie d’avaler trop de matière, le rayonnement résultant est si intense que la pression de radiation compense et dépasse la gravité, et le gaz est éjecté au lieu d’alimenter le trou noir (voir l’éclairage du numéro 139 de juin 2020). Dès que la luminosité du noyau actif dépasse un centième de cette limite, un vent de matière est éjecté, c’est le phénomène de rétroaction du noyau actif ; le gaz qui aurait dû alimenter le noyau reflue violemment vers l’extérieur,entraînant du gaz moléculaire du disque de la galaxie et empêchant une partie de la formation d’étoiles.
Pour mieux appréhender ces phénomènes, et comprendre comment le trou noir est alimenté, nous avons observé, ces dernières années, une dizaine de galaxies de Seyfert proches avec l’interféromètre ALMA (Atacama Large Millimeter Array). Le réseau comprend 54 antennes de 12 m de diamètre, et la distance maximale entre les antennes atteint 16 km, ce qui permet une résolution spatiale remarquable, jusqu’à 0,010 seconde d’arc (10 mas), soit dix fois mieux que le télescope spatial Hubble (HST) en lumière visible. Dans les longueurs d’onde millimétriques, et même submillimétriques, nous observons les raies de rotation de la molécule CO, la plus abondante après l’hydrogène moléculaire H2 (qui, elle, ne rayonne pas dans ce domaine).
C’est la première fois que l’on peut observer le gaz moléculaire si près du trou noir des noyaux actifs, avec une résolution de quelques années-lumière, qui permet d’entrer dans la sphère d’influence gravitationnelle du trou noir, dont le rayon est typiquement de 10 pc (soit 30 années-lumière). Nous avons pu enfin étudier la dynamique du gaz dans ces régions très proches du centre, et tenter d’élucider la question principale de l’alimentation des trous noirs : comment le gaz qui, en arrivant tout près du noyau, est animé d’une grande rotation peut-il perdre son moment cinétique de rotation et tomber si vite sur le trou noir ?
Une des premières galaxies de Seyfert observées fut la galaxie spirale barrée NGC 1433 (fig. 1). La barre est une perturbation dans le disque de la galaxie qui crée des couples de torsion et permet d’apporter le gaz vers le centre. Mais souvent, il s’arrête à la résonance de Lindblad, pour former un anneau. Le gaz accumulé forme beaucoup d’étoiles, et l’anneau est très brillant, comme le montre l’image HST. La distribution de gaz moléculaire fut une surprise :iln’estpasseulementcondensé dans l’anneau résonnant, mais il s’accumule dans un deuxième anneau plus interne au premier et ne se dirige pas vers le centre. Nos calculs ont pu montrer qu’il existait une deuxième résonance de Lindblad plus près du centre, qui retenait le gaz et l’empêchait de tomber vers le trou noir. L’alimentation du trou noir est intermittente et doit attendre que les couples de torsion aient le bon signe pour faire tomber le gaz. Le changement de signe intervient lorsque la distribution de matière est assez concentrée, et le flot de gaz vers l’anneau contribue à cette concentration.
Dans la galaxie barrée NGC 1566 (fig. 2), cette concentration s’est déjà produite, et nous avons eu la surprise de voir que le gaz moléculaire se distribuait dans une structure spirale nucléaire, avec le même sens d’enroulement que la spirale externe. Cette structure spirale nucléaire n’avait pas été soupçonnée auparavant par manque de résolution spatiale.

Fig. 2 : La galaxie spirale barrée NGC 1566 est une galaxie de Seyfert de type 1. L’image optique à gauche montre le champ de vue d’ALMA (carré rouge) de 18 secondes d’arc de côté (à la longueur d’inde de 0,86mm de la raie CO(3-2)). L’agrandissement à gauche révèle la carte du gaz moléculaire en CO(3-2), et la spirale nucléaire, qui s’enroule dans le même sens que la spirale du disque à grande-échelle. D’après Combes et al (2014).
Sans l’influence du trou noir, les modèles dynamiques prévoient une spirale en sens inverse, ce qui change le signe des couples de torsion dus à la barre. Mais grâce à la concentration de matière, le gaz se condense dans la zone sous influence gravitationnelle du trou noir. La fréquence de rotation du gaz en est considérablement augmentée, car le trou noir impose un potentiel de Kepler. En quelque sorte, dès que le gaz entre dans la sphère d’influence du trou noir, il perd rapidement son moment cinétique de rotation, sous l’influence combinée de la barre et de la spirale nucléaires. Une fois calculé le couple de torsion à partir des observations, nous avons pu quantifier que le gaz allait tomber au centre en deux rotations, soit en 6 millions d’années.
Cette configuration se retrouve dans environ le tiers des galaxies observées, avec des échelles un peu différentes. La figure 3 montre le cas de NGC 1808, une galaxie spirale barrée à flambée de formation stellaire, au centre de laquelle se trouve un anneau formant beaucoup d’étoiles. Là encore, le gaz moléculaire révèle une spirale nucléaire à deux bras, de taille un peu supérieure, sur laquelle la barre va exercer des couples de torsion
qui vont amener le gaz au centre en 60 millions d’années. Le gaz moléculaire est assez dense dans ces régions (au moins 10 millions de particules par cm3) pour que l’émission de la raie de rotation J=4–3 des traceurs de densité HCN et HCO+ puisse être détectée (fig. 3).

Fig. 3 : La galaxie spirale barrée NGC 1808 est une galaxie à flambée de formation d’étoiles. L’image optique à droite montre un centre très brillant, qui abrite aussi un noyau actif. A l’intérieur de l’anneau résonnant de Lindblad, se trouve une spirale nucléaire très contrastée, à la fois dans la raie de CO(3-2), mais aussi HCN(4-3) et HCO+(4-3). Cette configuration permet de calculer à quelle vitesse le gaz va tomber sur le trou noir. D’après Audibert et al (2020).
Les galaxies de Seyfert et plus généralement tous les AGN nous apparaissent sous deux grandes catégories, appelées type 1 et 2. Les AGN de type 1 possèdent des raies très larges, typiquement 20000 km/s, émises par le gaz dans le disque d’accrétion en rotation autour du trou noir. Dans les AGN de type 2, ces raies très larges sont absentes, et n’apparaissent que des raies plus étroites, provenant du gaz plus éloigné du trou noir. Ces deux catégories sont soupçonnées de provenir des mêmes types de noyaux actifs, qui nous apparaissent différemment uniquement par des effets de projection. L’absence de raies larges ne serait pas intrinsèque, mais due à l’obscuration du disque d’accrétion par de la poussière. Dans ce modèle d’unification des AGN, proposé il y a plus de 25 ans, il existe un tore de poussière, assez épais pour absorber la lumière du disque d’accrétion, pour un grand nombre de lignes de visée. Il s’agit d’un tore (comme un donut ou beignet), car au centre, près du trou noir, la poussière est sublimée par les hautes températures. Ce n’est que très récemment que l’on a pu commencer à tester l’existence du tore de poussière. Grâce à la haute résolution spatiale obtenue en infrarouge moyen avec l’interféromètre du VLT (Very Large Telescope de l’ESO), on s’est aperçu que, très fréquemment, la poussière n’était pas alignée comme un tore autour du disque d’accrétion, mais au contraire était disposée de façon perpendiculaire, et semblait emportée avec le reflux de gaz, éjecté par la rétroaction de l’AGN. Ce résultat semble ébranler le paradigme du tore de poussière, mais qu’en est-il du gaz moléculaire au voisinage du trou noir ?
Nos observations ALMA ont permis d’apporter des réponses à cette question. Dans près de 90 % des cas, nous avons découvert au voisinage du trou noir, dans un rayon de l’ordre de 30 années-lumière, un disque de gaz moléculaire, découplé du reste du disque de la galaxie. Nous appelons ce disque circum-nucléaire le tore moléculaire. C’est un disque mince, mais qui doit lui aussi comporter une déficience de molécules au centre, étant donné le rayonnement intense de l’AGN qui doit photodissocier les molécules. Le tore moléculaire est découplé du reste du disque, n’ayant pas la même orientation ni la même cinématique. Lorsqu’il existe une spirale nucléaire, le tore moléculaire se situe à l’intérieur de la spirale. Un exemple est donné sur la figure 4, pour la galaxie spirale barrée NGC 613.

Fig. 4 : La galaxie spirale barrée NGC 613, dont l’image en bas est obtenue avec le VLT de l’ESO, est une galaxie de Seyfert. Le centre a été cartographié en CO(3-2) avec ALMA et l’image en haut à gauche montre les 10 secondes d’arc centrales. Le gaz moléculaire s’accumule dans l’anneau résonnant de Lindblad, puis à l’intérieur se trouve une spirale nucléaire. Le panneau du milieu montre la carte des vitesses du gaz, à la même échelle (rouge vitesses de récession positives, bleu vitesses d’approche). Le panneau de droite est un agrandissement d’un facteur 10 (champ d’une seconde d’arc). Les contours montrent la spirale de gaz moléculaire, et au centre les couleurs représentent l’intensité du continuum (poussière et noyau actif). La figure en haut à droite révèle le gaz dense en HCO+(4-3) : il est disposé en un tore moléculaire, de même taille que le continuum, à l’intérieur de la spirale nucléaire. Le cadre du haut montre le champ de vitesses correspondant : l’orientation du gradient de vitesse est différente de celle du gradient de vitesse à plus grande échelle. Le tore moléculaire est découplé du reste du disque. D’après Combes et al (2019).
Finalement, le tore moléculaire peut en partie rendre compte de l’obscuration nécessaire au modèle d’unification des AGN. Mais une grande partie aussi n’est pas due à un tore de poussière, comme imaginé précédemment, mais à un cône creux de grande étendue, puisque dans une direction polaire, perpendiculaire au disque d’accrétion et au tore moléculaire. Le besoin d’obscuration pour une grande fraction des lignes de visée est ainsi satisfait. La figure 5 donne schématiquement les grandes lignes de la nouvelle vision que nous avons aujourd’hui de l’environnement des trous noirs. Même si les AGN de type 1 et 2 ne sont pas tout à fait identiques, le paradigme d’unification basé sur les effets de projection et d’obscuration rencontre des succès.

Fig. 5 : Vue schématique des régions circum-nucléaires autour d’un trou noir super massif. Au centre en bleu, est représenté le disque d’accrétion, en rotation autour du trou noir. Sa taille est inférieure typiquement à une année-lumière. En rose est représenté le rayon de sublimation de la poussière ; c’est là que commence l’écoulement polaire à la fois de la poussière et du gaz, formant un cône creux, autour du vent produit par la pression de radiation de l’AGN. À l’échelle de 30 années-lumière, le tore moléculaire, découplé et non-aligné avec le disque de la galaxie à l’échelle de plusieurs milliers d’al. On y trouve parfois des masers de la molécule d’eau. D’après Hönig (2019).
La grande majorité des galaxies de Seyfert observée par ALMA possède un tore moléculaire découplé du disque hôte, avec une orientation aléatoire. Le tore est en rotation dans une structure en disque très mince. Il est naturel de trouver ces orientations aléatoires, pour du gaz qui provient de régions où le disque galactique est bien plus épais, et où la formation d’étoiles et les épisodes de supernovae peuvent éjecter du gaz au-dessus du plan. Les durées de vie des tores sont de l’ordre de la dizaine ou centaine de milliers d’années, leur gaz alimentant le trou noir de manière intermittente. L’orientation du moment cinétique du gaz, étant aléatoire, l’accrétion de gaz ne pourra faire croître le spin du trou noir que d’une manière lente. Il a été possible dans certaines conditions de mesurer le spin du trou noir ; certaines valeurs sont assez élevées et pourraient provenir de la fusion de galaxies, conduisant à la fusion de leurs trous noirs centraux
Françoise Combes, Collège de France, Observatoire de Paris
Références :
Audibert, A., Combes, F., Garcia-Burillo, S. et al. : 2020, A&A sub
Combes, F., García-Burillo, S., Casasola, V. et al. : 2013, A&A 558, A124
Combes, F., García-Burillo, S., Casasola, V. et al. : 2014, A&A 565, A97
Combes, F., García-Burillo, S., Audibert, A. et al. : 2019, A&A 623, A79
Hönig, S. : 2019, ApJ 884, 171
par Sylvain Bouley | Avr 10, 2021 | Zoom Sur
Nous allons voir ici comment un trou noir supermassif se dévoile aux observateurs, et quelles sont ses répercussions sur la galaxie qui l’abrite, pourtant mille fois plus massive et un milliard de fois plus grande. Par ailleurs, ayant participé moi-même pendant cinquante ans à l’étude de ces trous noirs, je me suis permis à plusieurs reprises de prendre un ton personnel pour raconter cette histoire.
Introduction
L’annonce le 11 avril 2019 de l’observation d’un trou noir (« la photo » comme on l’a dit souvent) a déclenché une vague de commentaires superlatifs des médias. Il faut dire qu’il s’agissait effectivement à la fois d’une prouesse technologique et d’une victoire de la science (l’Astronomie, numéro 128, Juin 2019).

Figure 1 – L’image du trou noir au centre de la galaxie m87, dévoilé le 11 février 2019 par l’observation en interférométrie dans le domaine radio. Le cercle en bas à droite représente la taille du lobe. on distingue le « disque d’accrétion », plus intense dans la direction du mouvement. (Collaboration EHT)
En effet, lorsque le physicien allemand Karl Schwarzshild propose en 1916, quelques semaines avant de mourir d’une pneumonie sur le front russe, une solution des équations de la relativité générale qu’Einstein avait publiées l’année précédente, pour une masse sphérique sans rotation, peu de gens y prêtent attention, et Einstein moins que quiconque ; car il ne croira jamais à cette solution, qui prendra en 1967 le nom de « trou noir ».
Nul n’ignore maintenant ce que sont les « trous noirs », ces astres dont rien ne peut s’échapper, ni la lumière, ni la matière, dès qu’elles se trouvent à l’intérieur d’une région de l’espace-temps limitée par une frontière immatérielle nommée : « Event Horizon » (horizon des évènements). Il en est d’ailleurs question presque chaque mois dans les actualités. On connaît actuellement des trous noirs de masses très différentes, depuis quelques masses solaires jusqu’aux trous noirs « supermassifs » de cent mille à des milliards de masses solaires. C’est de ceux-ci que nous allons parler dans cet article. Celui dont on vient de découvrir l’image au centre de la galaxie M87 (Virgo A, Fig. 1) en fait partie : sa masse est égale à 6 milliards de fois celle du Soleil.
Petit historique, des quasars aux trous noirs : 1943, 1952, 1963, trois dates fondatrices dans l’observation et l’identification des trous noirs.
En 1943, un jeune chercheur américain travaillant à l’observatoire McDonald au Texas, Carl Seyfert, publie un article dans lequel il étudie six galaxies possédant un noyau ponctuel brillant dont le spectre présente des raies en émission intenses superposées à un continu bleu. Ce sont les mêmes raies que celles des nébuleuses planétaires, mais beaucoup plus « larges ». Seyfert attribue cette largeur à des vitesses de plusieurs centaines à plusieurs milliers de km/s (c’est une conséquence de l’effet Doppler). La figure 2 montre l’image de l’une de ces galaxies (qu’on appelle simplement « Seyfert »).

Figure 2 – La galaxie de seyfert NGC 5548 obtenue avec le télescope spatial Hubble. on distingue la croix de diffraction prouvant que le noyau n’est pas résolu. La galaxie est vue presque de face. (Nasa)
La deuxième date importante est 1952. À la fin des années quarante, on avait commencé à observer le ciel dans le domaine des ondes radio, entre autre en France avec des radars abandonnés par les allemands après la seconde guerre mondiale. Les américains Baade et Minkowski découvrent alors que deux sources émettant un rayonnement radio intense sont des galaxies : M87 (celle de l’image du trou noir !) et Cygnus A (Figs. 3 et 4). M 87 possède un jet sortant du cœur de la galaxie (on comprendra plus tard son importance). Cygnus A est une galaxie lointaine qui semble constituée de deux galaxies en collision (là aussi on verra plus loin l’importance de cette observation). Ces « radiogalaxies », ainsi que celles qui sont découvertes par la suite, sont beaucoup plus puissantes dans le domaine radio que les autres galaxies, typiquement par un facteur 10 000.

Figure 3 – À gauCHE, la galaxie Cygnus A en lumière visible. À drOiTE, image radio en fausses couleurs de la galaxie (petit point au centre) obtenue dans les années 1980, montrant de grands lobes radio très brillants à leurs extrémités, et un filament joignant la galaxie au lobe de droite. La distance projetée sur le ciel entre les extrémités des deux lobes est de 300 000 années-lumière. (Nra0 pour l’image radio)
Quelle est l’explication de ce rayonnement ? Elle ne se fait pas attendre car, par un concours de circonstances dont la science est coutumière – observation et théorie s’épaulant mutuellement – on découvre qu’il correspond à un processus qui se produit dans les nouveaux accélérateurs nommés « synchrotrons ». Il s’agit du rayonnement de particules chargées plongées dans un champ magnétique, se déplaçant à une vitesse très proche de celle de la lumière (on dit qu’elles sont « relativistes »). On l’appelle naturellement « rayonnement synchrotron ». Le britannique Goeffrey Burbidge – il faut préciser son prénom car son épouse, Margaret, joua un rôle considérable dans l’étude des quasars et des galaxies actives – montre immédiatement que l’énergie totale stockée dans un tel système correspond à la transformation en énergie de 100 millions de masses solaires !

Figure 4 – La galaxie m87 prise au télescope Hubble. on distingue le jet provenant du noyau. (Nasa)
Le troisième événement fondateur se produit en 1963. Le 3ème catalogue de radio-sources de l’observatoire de Cambridge (en Angleterre) vient d’être publié, et la source numéro 273 (appelée 3C 273 donc) a la bonne idée de passer deux fois dernière la Lune en 1962 ; ce qui permet à un radioastronome australien nommé Hazard (ça ne s’invente pas !) de déterminer sa position avec exactitude. Pile à cette position se trouve une étoile bleue de 13ème magnitude. C’est faible, mais ce n’est pas un problème pour un jeune astronome néerlandais, Marteen Schmidt, qui travaille au Caltech (Pasadena, Californie) et peut utiliser le télescope Hale de 5 mètres du Mont Palomar. Il en prend le spectre et découvre un continu bleu sur lequel se superposent des raies inconnues brillantes et larges. Il comprend qu’il s’agit des raies de la série de Balmer de l’hydrogène, mais toutes décalées de 16% vers le rouge par rapport à leurs longueurs d’onde habituelles. D’autres radiosources sont rapidement identifiées, présentant également un décalage spectral vers le rouge (on utilise le terme anglais plus court de « redshift », ou la lettre z = (lobslémis)/ lémis, où lobset lémis sont les longueurs d’onde observée et émise). On les appelle bientôt « quasars », terme contracté de « quasi stellar objects », indiquant qu’ils ressemblent à de simples étoiles sur les photographies [1] (voir sur la figure 5 la page de garde du Time consacré à M. Schmidt). Presque immédiatement, en 1965, l’américain Allan Sandage découvre une population bien plus importante de quasars ne rayonnant pas dans le domaine radio.

Figure 5 – L’annonce de la découverte des quasars par marteen schmidt fait la une du Time Magazine, vol. 87, no 10, 11 mars 1966.
Il est rapidement admis que les redshifts sont dus à l’expansion de l’Univers, et que ces objets se trouvent par conséquent à des distances de plusieurs milliards d’années-lumière. Certains sont également variables en quelques jours (c’est le cas de 3C 273 qui figure depuis cent ans dans le catalogue d’étoiles variables de Harvard), ce qui signifie qu’ils sont petits, puisqu’on les confond avec des étoiles. Et on en arrive à la conclusion inévitable : les quasars ont une puissance de 100 à 1000 galaxies dans un rayon de l’ordre du Système solaire ! [2]
Dès 1964, deux astrophysiciens, le Russe Zeldovich et l’Américain Salpeter, émettent l’hypothèse qu’il s’agit de trous noirs. À l’époque, ceux-ci ont la cote chez les physiciens. J’ai moi-même assisté en 1966 à des cours de relativité générale donnée par le jeune Kip Thorne (qui a reçu en 2019 le prix Nobel pour les ondes gravitationnelles), et ceux qui y étaient avec moi avaient du mal à retenir leur rire lorsque Thorne nous expliquait qu’un homme franchissant l’horizon d’un trou noir pouvait devenir infiniment long ou infiniment plat, et que le temps s’arrêtait pour un observateur extérieur (Fig. 6). Nous avions du mal admettre que ces choses pouvaient avoir le moindre rapport avec les quasars ! Les astronomes et les physiciens n’étaient pas encore prêts à se parler comme ils le feront vingt ans plus tard…

Figure 6. Dessin de PEZ.
Par analogie avec les radiogalaxies qui contiennent également une énorme quantité d’énergie, on attribue à cette époque tout le rayonnement des quasars à du synchrotron, depuis le domaine radio jusqu’au domaine X – car on a commencé à observer dans ces bandes dès 1960 à l’aide de satellites artificiels, et on a découvert qu’ils sont de puissants émetteurs infrarouges, ultraviolets et même X. Et pendant quelque temps, on pense que les quasars sont le lieu d’énormes explosions générant des particules relativistes. Puisque les étoiles à neutrons, très compactes, existent, alors les trous noirs, qui correspondent à un état à peine plus petit et massif, pourraient exister aussi. D’autant que l’on découvre dans un couple stellaire une étoile compacte qui semble bien être un trou noir, Cygnus X1. Et du coup, puisqu’on se convainc que des trous noirs de la masse d’une étoile existent, et puisque leur masse n’a pas grande importance dans la controverse, on admet la possibilité de trous noirs bien plus massifs.
En 1973, deux astronomes soviétiques proposent dans un article devenu « viral » que les trous noirs stellaires sont alimentés par un « disque d’accrétion » (Fig. 7). Pourquoi un disque ? Parce que la matière qui s’approche d’un trou noir a une probabilité très faible d’y tomber directement, mais va tourner autour comme un satellite artificiel autour de la Terre. Grâce à une viscosité provoquée par la turbulence, elle spirale en perdant une grande partie de son énergie de mouvement sous forme de lumière et en se rapprochant lentement du trou noir. Lorsqu’elle atteint enfin son horizon, sa vitesse de rotation est pratiquement égale à celle de la lumière, et elle a perdu jusqu’à la moitié de son énergie de masse (E=Mc2).

Figure 7 – Vue d’artiste d’un disque d’accrétion, avec un jet au centre. Wikipedia
On avait d’autre part dès 1964 fait le parallèle entre les galaxies de Seyfert et les quasars : petite taille, couleur bleue, mêmes raies spectrales (une fois pris en compte le redshift des quasars). On avait réalisé dès lors que les quasars sont simplement des noyaux de galaxies ayant subi dans le passé une phase très « active » ; et c’est à ce moment qu’on avait créé le terme « Noyaux Actifs de Galaxies », AGN en anglais, qui désigne à la fois les quasars et les noyaux des galaxies de Seyfert, puis plus tard également les radiogalaxies comme M 87. Les galaxies de Seyfert sont moins lumineuses que les quasars, mais comme elles sont plus proches, elles sont plus brillantes et accessibles à de plus petits télescopes. C’est à cette époque que j’ai décidé de travailler sur ce sujet et de les observer.
Et finalement en 1977, le britannique Martin Rees montre qu’inévitablement un noyau de galaxie qui contient un amas dense d’étoiles doit évoluer vers la formation d’un trou noir supermassif. En 1978, un jeune chercheur américain, Greg Schields, remarque que le rayonnement de 3C273 n’est pas synchrotron, mais bel et bien dû à ce disque d’accrétion qui va devenir désormais une composante fondamentale des AGN (Fig. 8). Et c’est à partir de ce moment seulement que le paradigme de l’accrétion sur un trou noir supermassif est accepté pour les AGN. Il n’a jamais été remis en cause depuis.

Figure 8 – Distribution de l’énergie du quasar 3C 273, avec deux représentations. Celle de gauche montre pourquoi on a pu confondre ce spectre avec du synchrotron en ν–1 (lire l’actualité p. 8, l’Astronomie n° 124). Crédit S. Collin-Zahn
Les trous noirs « dormants »
Comme le montrent leurs grands redshifts, les quasars sont des objets lointains, situés à des milliards d’années-lumière. Nous les voyons donc tels qu’ils étaient il y des milliards d’années. Que sont-ils devenus maintenant ? Le Britannique Lynden-Bell avait dès 1969 émis l’idée qu’ils se retrouvaient sous forme de quasars « morts » dans les noyaux des galaxies proches de nous, et même dans la nôtre, mais son idée avait fait long feu. Treize ans plus tard, le Polonais Soltan eut l’idée de déterminer la luminosité totale de tous les quasars observés, et il en déduisit, en supposant que l’efficacité de transformation de la masse en énergie était en moyenne de 10% – ce qui est le cas pour les quasars – la masse totale accumulée sous forme de trous noirs. Cette masse étant très supérieure à celle des AGN proches, la conclusion inévitable était qu’elle devait se trouver dans les noyaux des galaxies ordinaires. Curieusement, les calculs qu’il avait effectués avec des hypothèses simplistes se sont avérés justes lorsque l’on a pu déterminer les masses des trous noirs supermassifs situés dans les noyaux des galaxies proches de nous ! On sait donc maintenant que les galaxies ordinaires contiennent un trou noir supermassif éteint, triste résidu d’un quasar qui brilla intensément pendant des dizaines de millions d’années.
Ne croyons cependant pas ce trou noir complètement mort. Quand les quasars s’éteignent, leurs trous noirs deviennent « dormants », mais ils sont susceptibles de se réactiver dès que de la matière s’en approche un peu trop près. Et c’est bien ce qui s’est produit pour le trou noir de notre Galaxie dont nous reparlerons plus loin : bien qu’extrêmement faible en ce moment, il a subi il y a quelques centaines d’années une augmentation de son rayonnement dans le domaine gamma, dont les nuages moléculaires environnants ont gardé la preuve. Il est probable que ce phénomène s’est produit et se reproduira à de nombreuses reprises. L’ogre est toujours là, tapi au centre de la galaxie, et il attend son heure…
Pourquoi les AGN différent-ils tant les uns des autres ?
Avant d’aborder ce problème, il faut préciser qu’un trou noir est un objet extrêmement simple, en fait le plus simple qui existe dans l’Univers : il ne dépend que de deux paramètres, sa masse et sa rotation [3]. Or ce qui avait frappé les découvreurs des quasars et des radiogalaxies, c’est que des objets très différents (on pourrait mentionner les Blac ou lacertides, les blazars, les radiogalaxies, les objets violemment variables ou OVV…) présentent tous la propriété d’émettre une quantité de rayonnement non stellaire très supérieure à celle d’une galaxie « ordinaire ». Il est clair qu’ils tirent tous leur énergie d’un trou noir central. Donc, outre la masse et la rotation du trou noir, il existe des causes extérieures de différentiation.
Influence de l’inclinaison.
Le plus évident, et c’est bien ce qui a été découvert d’abord, c’est que, puisque que le trou noir est nourri par l’intermédiaire d’un disque, l’inclinaison du disque sur la ligne de visée doit jouer un rôle majeur dans l’apparence des objets.
Prenons les noyaux des galaxies de Seyfert. Il en existe deux sortes : les Seyfert 2, dont les raies, relativement étroites, correspondent à quelques centaines de km/s de largeur, et les Seyfert 1, dont les raies, larges, correspondent à plusieurs milliers de km/s. Comme il est naturel, les raies larges proviennent d’une région située à quelques années-lumière du trou noir, tandis que les raies étroites proviennent d’une région située plus loin, à quelques centaines d’années-lumière [4]. En 1985, une étude polarimétrique de la Seyfert 2 NGC 1068 montre que c’est en fait une Seyfert 1 vue en quelque sorte « par la tranche », c’est-à-dire dans une direction proche du plan du disque d’accrétion qui cache la région des raies larges. On en déduit que au moins certaines Seyfert 2 sont des Seyfert 1.
Cette découverte a été la première dans la direction d’une unification des AGN. Elle a abouti quelques années plus tard au schéma suivant, toujours d’actualité (Fig. 9). On reconnait les régions de production des raies larges des Sefert 1, et des raies étroites des Seyfert 2, plus distantes du noyau. On voit que le disque d’accrétion est prolongé par ce que l’on nomme « le tore moléculaire », ou « tore absorbant » sur la figure 9, sorte de disque épais fait de poussières et de molécules. Il constitue la partie externe du disque d’accrétion et cache la partie centrale de l’objet. On ignore d’ailleurs le mécanisme par lequel la matière transite depuis les régions plus extérieures du tore vers le disque lui-même. Sur ce schéma, nous voyons aussi que des objets comme les BLacs et les Blazars sont vus dans la direction d’un jet. On en comprendra plus tard la raison. On commence alors à représenter systématiquement les AGN avec un disque et un jet.

Figure 9 – Schéma unifié des AGN proposé en 1995 par Urry et Padovani
Influence de la masse et du taux d’accrétion
L’une des raisons évidentes de différentiation des trous noirs supermassifs, c’est qu’ils n’ont pas nécessairement la même masse ni la même luminosité. Précisons que désormais je dirai qu’un trou noir « rayonne » une certaine quantité d’énergie, alors qu’il est bien évident que ce n’est pas le trou noir qui rayonne, mais son environnement proche.
Parlons d’abord de la masse. Le principe de la détermination de la masse d’un objet massif quelconque consiste toujours à étudier le mouvement de la matière qui se trouve à proximité, sur laquelle il exerce une influence gravitationnelle dominante. S’il s’agit d’étoiles en orbite, on peut mesurer sa masse en appliquant les lois de Kepler-Newton (c’est ce qui a été fait pour le trou noir central de la Voie lactée). Dans le cas d’un ensemble d’étoiles animées de vitesses aléatoires autour du trou noir, sa masse est à peu près égale à la distance moyenne des étoiles divisée par le carré de la vitesse moyenne [5].
On ne mesure pas la masse d’un trou noir de la même façon s’il est actif ou dormant, ni s’il est proche ou lointain. Ainsi, pour une cinquantaine d’AGN relativement proches, les variations des raies spectrales larges [6] suivies pendant de nombreuses années ont fourni des masses assez précises (disons à un facteur deux près), qui, extrapolées aux autres AGN, ont donné les masses – moins précises – pour des milliers d’autres AGN. Pour les trous noirs dormants, on se sert de la dispersion de vitesse au centre du bulbe [7], là où la masse du trou noir est encore dominante. Naturellement, cette méthode ne peut être utilisée que pour des galaxies assez proches. Enfin, il faut mentionner deux objets exceptionnels où la masse du trou noir est mesurée avec une grande précision. Dans NGC 4258 (M106), on a pu observer les mouvements képlériens de sources à la surface du disque d’accrétion, et on en a déduit la masse du trou noir avec une grande précision (38 millions de masses solaires). Quant au centre de la Voie lactée, une campagne d’observation de vingt ans combinant les mesures de mouvements propres et de vitesses radiales a permis de déterminer la masse d’un objet invisible situé à la position d’une faible radio source, Sagittarius A* (Sgr A*). Il s’agit d’un trou noir de 4,15 millions de masses solaires, une bien petite masse au regard de ceux d’autres galaxies (Fig.10) [8]. Ce trou noir est entouré d’étoiles parcourant des orbites képlériennes. Certaines s’en approchent avec des vitesses de plusieurs milliers de kilomètre par seconde. On a découvert récemment qu’il possède un minuscule disque d’accrétion de moins de 1000 UA de rayon, et qu’il subit de violents sursauts d’activité qui se produisent probablement tout près de son horizon (voir l’Astronomie 130 et / ou, 131, 133, 135).
.

Figure 10 – orbites de quelques étoiles autour de sgr A*. Le trou noir est le point noir. (LESIA – Obs. de Paris)
La découverte la plus inattendue concernant les trous noirs supermassifs, qu’ils soient actifs ou dormants, est la relation qu’ils entretiennent avec le bulbe de la galaxie au centre de laquelle ils se cachent : le trou noir a une masse voisine du millième de celle du bulbe (Fig. 11). Un trou noir, dont le rayon est de l’ordre du millième d’année-lumière, est donc relié fortement au bulbe, dont la dimension est dix à cent millions de fois plus grande ! En fait, aussi étrange que cela paraisse, c’est le trou noir qui a une influence déterminante sur son hôte, par l’intermédiaire des vents et des jets puissants qu’il génère et qui ont pour effet de chauffer et de chasser le gaz, interdisant toute croissance ultérieure de la galaxie. On a l’habitude d’appeler cette rétroaction le « feedback ». Mais il y a une autre cause possible à la relation trou noir/bulbe. En effet, les trous noirs grossissent lors des fusions de galaxies, et les simulations numériques montrent que les fusions ont pour effet de créer des galaxies elliptiques, ou de façon générale des galaxies à gros bulbe. Bref, comme toujours en astrophysique, il est probable que les choses soient complexes et que les deux phénomènes jouent un rôle tour à tour.

FIgure 11 – La relation entre la masse du trou noir et la masse du bulbe. (S. Collin-Zahn)
Pourtant, ce n’est pas la masse, mais la luminosité du trou noir qui détermine les propriétés des AGN. Intuitivement, on penserait que la luminosité est tout simplement proportionnelle à la quantité de gaz avalée par le trou noir par unité de temps – le taux d’accrétion. Et c’est effectivement ce qui se passe tant que ce taux n’est ni trop grand ni trop petit. La région centrale du disque d’accrétion est alors portée à une température de quelques dizaines de milliers de degrés et il rayonne avec une grande efficacité dans le domaine ultraviolet. C’est le cas des quasars et des galaxies de Seyfert. Mais lorsque le taux d’accrétion est très grand, le disque est si épais que la lumière ne peut pas s’en échapper comme piégée dans cette matière, et qu’elle est engloutie avec elle dans le trou noir. Ces cas sont rares et ne se produisent que lorsque le trou noir est encore peu massif et enrobé d’une épaisse gaine de gaz. À l’inverse, lorsque le taux d’accrétion est trop petit, le disque devient presque transparent, il chauffe et gonfle, les vitesses deviennent aléatoires au point que les particules tombent radialement dans le trou noir sans avoir le temps de rayonner. C’est le cas le plus fréquent des trous noirs dormants, dont fait partie Sagittarius A*.
En fait, ce n’est pas réellement le taux d’accrétion qui est trop grand ou trop petit, mais ce taux ramené à la masse du trou noir. Car pour une masse donnée, un trou noir ne peut rayonner au delà d’une limite appelée « limite d’Eddington [9], qui est proportionnelle à sa masse. Et la quantité qui paraît finalement la plus importante pour façonner les AGN, c’est la luminosité rapportée à la limite d’Eddington.
Les jets
Nous avons mentionné à plusieurs reprises le « jet ». Il est omniprésent dans les radiogalaxies où il domine souvent sur le rayonnement provenant du disque d’accrétion. Par contre, il est quasiment inexistant dans les galaxies de Seyfert et les quasars non radio. Constitué de particules se déplaçant aléatoirement avec des vitesses relativistes, il se déplace également dans son ensemble avec des vitesses proches de celle de la lumière, et il peut se propager très loin du trou noir qui lui a donné naissance.
Or il existe un phénomène que l’on nomme l’aberration relativiste qui se traduit par le fait que la lumière provenant d’une source lumineuse se déplaçant très rapidement est concentrée dans la direction du déplacement. Cet effet est comparable (mais plus accentué) à ce que nous ressentons lorsque nous nous déplaçons en vélo ou en voiture dans une pluie verticale qui nous paraît venir de l’avant. La conséquence est que la lumière est amplifiée pour un observateur regardant la source dans une direction proche du jet (tout comme à vélo sous la pluie, nous sommes plus mouillés devant que dans le dos). C’est ce qui explique que dans certains AGN radio, le rayonnement du jet domine totalement le spectre de l’ensemble de la galaxie. Ce sont les blazars et les Blac, qui sont supposés être vus dans une direction proche du jet (voir le schéma unifié, Fig. 9). L’effet est parfois tellement important qu’on ne voit le jet que dans une seule direction, comme c’est le cas pour M87 et pour Cygnus A montrés sur les figures 3 et 4).
Une conséquence extrême de cet effet est que la lumière produite par le disque d’accrétion est tellement déviée qu’elle finit par parvenir depuis l’arrière du trou noir. Cet effet a été mis en évidence pour la première fois par deux Français travaillant à l’observatoire de Paris-Meudon, Jean-Pierre Luminet en 1983 pour un trou noir sans rotation, et Jean-Alain Marck en 1991 pour un trou noir en rotation (voir Fig. 12). On constate la similitude avec l’image du trou noir de M87 (Fig. 1).

Figure 12 – Simulation de disques d’accrétion : à gauche, pour un trou noir sans rotation, par Jean-Pierre Luminet, en 1983 ; à droite, pour un trou noir en rotation maximum, Jean-Alain Marck, 1991. (Observatoire de Paris-PSL)
Bien qu’ils fascinent depuis qu’on les observe en détail, les jets posent encore aux astrophysiciens bien des questions non résolues : comment expliquer qu’ils restent « collimatés » (c’est à dire très fins) en se propageant jusqu’à des millions d’années-lumière de leur galaxie ? Comment expliquer qu’ils émettent des photons dépassant les mille Giga électrons-volt ? Et surtout, dernière énigme, comment expliquer que les radiogalaxies qui émettent ces jets soient systématiquement des galaxies elliptiques ? La réponse à cette question pourrait bien venir d’un autre paramètre que nous avons négligé, la rotation du trou noir, ou son « spin ».
Le spin
Jusqu’à maintenant, parmi les deux paramètres intrinsèques des trous noirs, nous n’avons mentionné que l’influence de la masse. Nous avons vu qu’elle n’est pas fondamentale : des petits trous noirs (stellaires, même) peuvent avoir presque les mêmes propriétés que les trous noirs les plus massifs. Le deuxième paramètre intrinsèque est la rotation, ou « spin ». Il joue un rôle important à plusieurs titres.
Un trou noir est caractérisé par ce que l’on nomme la dernière orbite circulaire stable, (ISCO en anglais pour « Innermost stable circular orbit ») : c’est l’orbite en deçà de laquelle la matière finit inéluctablement par tomber radialement sur le trou noir sans avoir le temps de perdre de l’énergie. Le rayon de l’ISCO est plus petit pour un trou noir avec rotation (jusqu’à 1,2 rayon gravitationnel [10] pour une rotation maximale) que pour un trou noir sans rotation (6 rayons gravitationnels). Pour en donner une explication simpliste, disons que la matière autour d’un trou noir avec rotation est entrainée dans sa rotation, et peut ainsi se rapprocher du trou noir en continuant à tourner. Ce qui explique que jusqu’à 40% de l’énergie de masse peut être rayonnée pour un trou noir en rotation, contre seulement 6% pour un trou noir sans rotation. C’est une première conséquence du spin.
Par ailleurs, le gaz pouvant se rapprocher au plus près du trou noir s’il est en rotation va émettre des raies spectrales qui subissent le rougissement gravitationnel. Ainsi dans certains AGN, les raies du Fer dans le domaine des rayons X qui sont émises tout près du trou noir sont fortement déformées : elles présentent une aile rouge très étendue (Fig. 13). Cet effet permet d’affirmer que certains trous noirs sont en forte rotation.

Figure 13 – enregistrement d’une raie du fer dans le domaine X. L’extension de l’aile rouge montre que le gaz émissif est très proche du trou noir et signifie que celui-ci est en rotation rapide. (SMM-Newton, ESA)
La question qu’on se pose alors est : pourquoi certains trous noirs ont-ils un spin, et d’autres n’en ont-ils pas ?
Il existe un processus, appelé Blandford–Znajek du nom de ses deux inventeurs en 1977, disant qu’il est possible d’extraire l’énergie d’un trou noir en rotation par l’intermédiaire du champ magnétique du disque. Des jets puissants pourraient être générés par ce mécanisme près de l’axe du disque d’accrétion. Or cette question rejoint celle de la prédominance de galaxies elliptiques parmi les radiogalaxies. Nous avons mentionné en effet que lorsque deux galaxies spirales se rencontrent et fusionnent, le produit est une galaxie elliptique. Les trous noirs des galaxies se rapprochent alors l’un de l’autre, et forment des trous noirs binaires (Fig. 14). Il est fort probable qu’après avoir tourné pendant quelque temps (disons dix millions d’années) l’un autour de l’autre, ils finissent par fusionner à leur tour, en donnant un trou noir supermassif ayant une forte rotation, comme c’est le cas pour les fusions de trous binaires de masses stellaires observées grâce à leurs ondes gravitationnelles [11]. Au cours du temps, la rotation se ralentira, et le jet disparaitra. Nous retrouvons ici la radiogalaxie Cygnus A mentionnée au début de cet article, dont nous avons vu qu’elle est constituée de deux galaxies en train de fusionner. De même la radiogalaxie M87 au centre de l’amas Virgo, a certainement « cannibalisé » plusieurs autres galaxies de l’amas, devenant elle aussi une galaxie elliptique possédant un jet très énergétique.

FIgure 14 – nGC 6240, deux galaxies en train de fusionner, observées en rayons X par le télescope Chandra. on distingue les deux noyaux actifs, distants de 800 parsecs. (Nasa)
L’environnement
On a vu l’influence de la direction d’observation par rapport à l’axe du disque d’accrétion. Celui-ci peut changer fréquemment de direction en fonction de la matière qui parvient au centre d’une galaxie. C’est donc bien un effet environnemental. Un autre se manifeste dans la forme des sources dans les AGN radio. Elles sont constitués de deux jets symétriques naissant dans le noyau (on ne voit parfois que l’un d’entre eux à cause de l’aberration relativiste), qui s’étendent loin dans l’espace intergalactique. En 1974, Fanaroff et Riley les avaient séparés en deux catégories : les radiogalaxies FRII et les radiogalaxies FRI (voir la figure 3 montrant Cygnus A comme exemple de FRII, et la figure 15 comme exemple de FRI). Les FRII se terminent par des bords brillants – appelés « taches chaudes » ou « hot spots » – tandis que dans les FRI, la luminosité diminue lorsque la distance au centre augmente. La différence entre les deux types est probablement due à la quantité de gaz interstellaire présent dans la galaxie et dans le milieu intergalactique entourant la galaxie.

Figure 15 – Carte radio de la radiogalaxie 3C 449 de type Fr i.
Perspective
Il y aurait évidemment encore beaucoup à dire sur les trous noirs supermassifs. Un paradoxe sur lequel il a été peu insisté doit cependant être souligné : les trous noirs jouent le rôle d’absorbeurs de matière autant que d’éjecteurs par leurs jets ou par leurs vents. De ces derniers il a été peu question, car ils se produisent relativement loin du trou noir. Ils ont diverses causes, comme la pression du rayonnement ou l’évaporation due à la température élevée qu’atteint le gaz en se rapprochant du trou noir. Ils empêchent une partie importante de la matière de parvenir jusqu’au trou noir. Ils peuvent être dévastateurs pour l’environnement galactique et jouer un rôle important dans la relation entre les trous noirs et les galaxies. L’avenir nous en dira certainement beaucoup sur ce sujet encore assez nouveau.
Suzy COLLIN-ZAHN | Observatoire de Paris
Notes
[1] Une autre de ces radiosources, 3C48, avait été identifiée dès 1960 à une faible étoile bleue, mais on n’avait pas réussi à interpréter les raies de son spectre, et pour cause : elles étaient décalées de 37% par rapport à leurs longueurs d’onde habituelles.
[2] Je passe sous silence une discussion qu’on a appelée « la controverse du redshift » avec les partisans d’un redshift dû à une loi physique inconnue. Elle a débuté en 1965 et ne s’est apaisée – pas complètement – qu’en 1978 après une confrontation violente dans un congrès – à laquelle j’ai assisté.
[3] En fait , il dépend également d’un troisième paramètre, la charge, mais on il est admis que celle-ci est nulle, car la matière qui pénètre dans un trou noir n’est pas chargée.
[4] J’ai contribué moi-même dans ma thèse en 1968 à établir ce modèle.
[5] Cette relation suppose que l’ensemble des étoiles a atteint un état d’équilibre.
[6] J’ai annoncé la première en 1968 que les raies spectrales larges devaient varier en quelques années. Mais c’est en 1982 seulement que la méthode de détermination des masses a été formalisée et que des observations intensives ont commencé.
[7] Le bulbe est cette région brillante centrale sphéroïdale, importante dans les galaxies spirales des premiers types, et à laquelle se réduisent complètement les galaxies elliptiques
[8] Notons que des chercheurs français ont participé activement à la mise au point de l’optique adaptative nécessaire aux observations.
[9] Cette limite, découverte par le célèbre astronome britannique Arthur Eddington, correspond à l’égalité entre la force du rayonnement qui repousse la matière et la force gravitationnelle du trou noir qui l’attire.
[10] Le rayon gravitationnel est égal à GM/c2, où G est la constante de la gravitation et c la vitesse de la lumière. Il est de 1,5 km pour un astre ayant la masse du Soleil. On voit qu’il est proportionnel à la masse, ce qui explique que la densité moyenne des trous noirs supermassifs soit relativement faible, contrairement à ce que l’on pense souvent.
[11] Ces fusions pourront être observées par l’instrument spatial LISA lorsqu’il sera mis en service… dans une vingtaine d’années!
Glossaire
Quasar : galaxie rendue extrêmement lumineuse à cause de la présence en son centre d’un trou noir supermassif très actif, car disposant de beaucoup de gaz à avaler.
Seyfert (galaxies de) : Galaxies découvertes par Carl Seyfert, ayant un noyau bleu très brillant d’aspect stellaire dont le spectre présente des raies en émission intenses et larges.
AGN : « Active Galactic Nuclei » en anglais, expression utilisée pour désigner les galaxies dont le trou noir central est alimenté par de la matière y tombant en quantités importantes. Les quasars, les galaxies de Seyfert et les radio galaxies sont des AGN.
BLac (ou lacertides) : radiogalaxies dont la direction d’observation est proche du jet, ce qui a pour effet d’amplifier le rayonnement qu’il émet.
Blazar : quasars radio (plus lumineux que les radiogalaxies) dont la direction d’observation est proche du jet, ce qui a pour effet d’amplifier le rayonnement qu’il émet.
radiogalaxies : galaxies dont le rayonnement radio est beaucoup plus intense que le rayonnement visible.
OVV : objets présentant des variations optiques violents et rapides.
par Sylvain Bouley | Avr 10, 2021 | Zoom Sur
L’équipe internationale en charge de l’instrument GRAVITY a annoncé récemment la détection de la précession de Schwarzschild sur l’orbite de l’étoile S2, la plus proche du trou noir supermassif au centre de la Voie Lactée.

Pour comprendre ce que cette détection signifie, il est utile de faire un pas en arrière et de considérer l’évolution des idées sur la notion d’orbite des corps célestes, avant de se lancer dans le cœur du sujet des détails de cette détection. Nous allons voir que la mesure de GRAVITY constitue une dernière étape sur une route jalonnée depuis deux millénaires et demi par Eudoxe de Cnide, Kepler et Einstein.
Orbites des corps célestes pour les anciens Grecs : Eudoxe de Cnide
Tout commence par Pythagore (autour de 550 avant notre ère). Son école fort ésotérique apporte deux avancées considérables. Tout d’abord, les Pythagoriciens tiennent pour principe premier des choses le nombre. Ce début de mathématisation du monde est promis à un brillant et long avenir. Ensuite, les Pythagoriciens proposent une vision toute nouvelle sur la géométrie. Le fameux théorème de Pythagore (le carré de l’hypoténuse de tout triangle rectangle …) était déjà connu en pratique des Égyptiens, qui avaient noté cette particularité dans tel ou tel triangle particulier. L’apport crucial de Pythagore, c’est de poser que ceci est valable pour tout triangle rectangle, début de systématisation de la géométrie, début d’une vision scientifique moderne, se dégageant d’un savoir purement pratique (tel que l’était, par exemple, celui des Égyptiens antiques).
Platon (autour de 400 avant notre ère) propose un modèle du cosmos basé sur des sphères imbriquées (on reconnaît là l’influence de la mathématisation du monde proposée par les Pythagoriciens). La Terre est au centre, entourée des sphères de l’eau, de l’air et du feu. Les astres se meuvent au-delà, à des distances croissantes (vient d’abord la Lune, puis les autres planètes connues et le Soleil, et enfin la sphère des étoiles lointaines fixes). Ce modèle est développé par Eudoxe de Cnide (contemporain de Platon) qui postule que les astres se déplacent le long des sphères imbriquées de Platon en suivant des orbites circulaires et uniformes. Nous voici devant le premier modèle explicite d’orbite d’un corps céleste : Eudoxe peut être ainsi considéré comme le premier astronome au sens moderne du terme. Nous allons voir que l’observation récente de GRAVITY est une héritière très lointaine de ce pionnier.

Figure 1 – Les systèmes du monde Copernic (gauche) et d’Eudoxe (à droite) et de. source : Histoire générale des sciences, dir. r. taton, tome ii.
Orbites des corps célestes de la renaissance à l’époque classique : Kepler
Malgré les développements considérables apportés par Ptolémée (au Ier siècle de notre ère) au modèle d’Eudoxe, on peut considérer que les éléments de base de la compréhension du cosmos n’ont pas évolué de façon radicale avant le XVIe siècle. Cette gigantesque plage de temps illustre bien le caractère véritablement stupéfiant des avancées des VIe et Ve siècles de la Grèce antique. Il revient à trois scientifiques des XVIe et XVIIe siècles de proposer le cadre conceptuel suivant : Nicolas Copernic (~1530), Tycho Brahé (~1580) et Johannes Kepler (~1610). La révolution copernicienne consiste à placer non plus la Terre, mais le Soleil au centre du cosmos. Les astres sont toujours considérés en orbite circulaire et uniforme autour du Soleil (voir la Figure 1 qui compare le système du monde hérité d’Eudoxe à celui de Copernic). Tycho Brahé réalise des observations d’une superbe précision, et sur une très grande quantité de sources, qui seront la base de la systématisation suivante, entreprise par Kepler au tournant du XVIIe siècle.
Kepler est le véritable point de référence auquel doit se comparer le résultat de l’équipe GRAVITY. Faisant la synthèse des apports de Copernic et de Tycho, il aboutit aux fameuses lois de Kepler, qui apportent deux éléments nouveaux fondamentaux. Tout d’abord, il a la première intuition du rôle de moteur joué par le Soleil dans le mouvement des astres, alors que les descriptions précédentes se contentaient d’entériner le fait que les astres tournent, soit autour de la Terre, soit autour du Soleil, sans voir de lien de cause à effet entre la présence du corps central et le mouvement des astres autour de celui-ci. Ensuite, Kepler est amené, grâce aux superbes observations de Tycho, à battre en brèche la théorie du mouvement circulaire et uniforme des astres (datant d’Eudoxe, donc de 2000 ans en arrière) et à le remplacer par un mouvement elliptique. Avec Newton (~1680), sa loi du mouvement et sa loi de gravitation universelle, les avancées de Kepler sont confirmées et incluses dans un système d’explication beaucoup plus vaste, qui forme l’une des pierres angulaires de l’astronomie jusqu’à Einstein.
Orbites des corps célestes de la relativité générale : Einstein
Einstein est l’héritier direct de Newton. C’est lui qui reformule les lois de la gravitation en 1915, aboutissant aux lois de la relativité générale, qui englobent et dépassent considérablement la théorie newtonienne. Ce n’est pas le lieu ici d’expliquer son cheminement. Il convient par contre de discuter l’une des conséquences de la relativité générale sur les orbites des corps célestes. Einstein aboutit à la prédiction que les orbites des planètes autour du Soleil ne doivent pas suivre des ellipses kepleriennes. Elles vont peu à peu se décaler pour former une rosace, dans un mouvement de précession du périhélie, le point de l’orbite le plus rapproché du Soleil (Figure 2). Einstein se souvient alors que l’astronome français Le Verrier avait mis en évidence en 1859 à l’Observatoire de Paris le fait que la planète Mercure (la plus proche du Soleil, et donc la plus fortement soumise à sa gravitation) exhibait un mouvement inexpliqué, en désaccord avec les lois de Kepler et de Newton. Einstein se jette sur ce problème et détermine ce que prédit sa propre théorie. Celle-ci explique exactement l’incohérence rapportée par Le Verrier. Einstein, d’après ce qu’il a lui-même rapporté, « est resté sans voix pendant plusieurs jours à cause de [s]on excitation » suite à cette toute première vérification expérimentale de sa nouvelle théorie, qui valide son travail acharné réalisé pendant la décennie qui précède. La mesure récente de l’équipe GRAVITY est la dernière vérification expérimentale de ce même effet, dans un contexte très différent.

Figure 2 – orbite d’une planète autour du soleil d’après la relativité générale. L’ellipse suivie par la planète se décale peu à peu, entraînant le périhélie dans un lent mouvement de précession indiqué par la succession des cercles bleus (très exagéré bien entendu sur ce schéma). (source : modifié à partir de Wikipedia – article apsidal precession).
Détecter la précession de Schwarzschild sur l’orbite de l’étoile S2 : GRAVITY
L’instrument GRAVITY du Very Large Telescope (VLT) de l’ESO a déjà été présenté dans l’Astronomie Magazine par deux articles de Guy Perrin (avril 2011, octobre 2016). Rappelons seulement ici qu’il s’agit de recombiner la lumière issue des quatre télescopes géants de 8 mètres de diamètre du VLT, afin de réaliser un interféromètre en longueur d’onde infrarouge. Cet instrument, qui a vu sa première lumière en 2016, permet ainsi d’atteindre une précision de 30 microsecondes d’angle dans la mesure du déplacement d’un objet sur le ciel. Il faut s’attarder un instant sur ce chiffre. Il s’agit de la taille angulaire d’un cheveu situé à Barcelone et vu depuis Paris… Cette stupéfiante précision a été cruciale dans la détection dont nous allons parler maintenant.
GRAVITY observe en particulier les abords du trou noir de 4 millions de fois la masse du Soleil qui se trouve au centre de notre Galaxie, Sagittarius A* (Sgr A* dans la suite). Cet objet compact est entouré d’un amas d’étoiles dont la plus proche, appelée S2, parvient à son péricentre à 120 unités astronomiques seulement du trou noir (la taille du système solaire environ, voir la Figure 3). A cette distance, des effets de relativité générale sur l’orbite sont attendus, et en particulier l’effet de précession du péricentre, le même que celui qui affecte Mercure autour du Soleil.
L’objectif de la collaboration GRAVITY était de mettre en évidence la précession du péricentre de l’étoile S2 autour de Sgr A*. On parle de précession de Schwarzschild pour préciser qu’on s’intéresse à l’effet obtenu près d’un trou noir considéré comme sans rotation, appelé trou noir de Schwarzschild. Cette dénomination fait référence au découvreur de cet objet, Karl Schwarzschild, qui publia la première solution de trou noir (sans savoir alors qu’il s’agissait de ce type d’objet exotique) en janvier 1916 (soit 2 mois seulement après qu’Einstein ait publié son propre article sur les équations de la relativité générale en novembre 1915).
Il convient d’insister sur le fait que, si l’effet observé par GRAVITY est le même que celui étudié par Einstein dès 1915, le contexte est entièrement différent. La détection de l’effet de précession du péricentre dans l’environnement proche d’un trou noir supermassif est une validation beaucoup plus puissante de la théorie que cette même validation dans l’environnement solaire.

Figure 3 – L’amas d’étoiles situé autour du trou noir supermassif sgr A* au centre de la Galaxie. L’étoile s2 observée par Gravity, la plus proche du trou noir, est entourée en rouge. (Gillessen et al. ,2009)
En quoi consiste la détection par GRAVITY
La détection d’un mouvement de précession du péricentre nécessite à la fois un suivi sur le très long terme de l’étoile S2 (qui a une période orbitale de 15 ans), et une précision de mesure extrême au moment du passage au péricentre. La très longue base temporelle a été rendue possible par les observations continues de S2 effectuées depuis 2002 par la caméra infrarouge NACO du VLT. Les données GRAVITY ont quant à elles permis de suivre avec une précision fantastique le passage de S2 à son péricentre en mai 2018. C’est vraiment la combinaison de ces deux jeux de données (avec l’ajout des données spectroscopiques obtenues par l’instrument SINFONI du VLT) qui a permis une détection claire cette année.
Une fois les données orbitales enregistrées par NACO et GRAVITY, il a fallu ajuster un modèle théorique d’orbite à la trajectoire de S2. L’équipe GRAVITY a utilisé une approximation de la relativité générale, le formalisme post-Newtonien, qui permet de simplifier le problème tout en conservant une précision suffisante pour le cas traité ici. La Figure 4 montre le résultat crucial de l’article récent de la collaboration GRAVITY. Le modèle post-Newtonien ajuste parfaitement les données, alors qu’un modèle n’incluant pas la précession de Schwarzschild est exclu. Une étude statistique précise a permis de démontrer que la détection de la précession de Schwarzschild peut être considérée comme décisive.

Figure 4 – Détection par Gravity de la précession de schwarzschild sur l’orbite de l’étoile s2. Les points de données en couleur cyan sont parfaitement ajustés par le modèle post- newtonien (approximation de la relativité générale complète, en rouge), alors qu’un modèle n’incluant pas la précession de schwarzschild (en bleu) est exclu. (Gravity collaboration, 2020)
De 1915 à 2020
Comme l’avait fait Einstein en 1915 pour Mercure, l’équipe GRAVITY a pu monter le parfait accord entre la prédiction de la relativité générale et la mesure de la précession de Schwarzschild de l’orbite de l’étoile S2. La Figure 5 compare une lettre d’Einstein portant sur son test de 1915 sur Mercure avec la formule de la précession de Schwarzschild utilisée dans l’article récent de la collaboration GRAVITY. C’est bien le même phénomène qui est étudié !

FIgure 5 – Texte d’einstein de 1915 relatif à la détection du mouvement de précession relativiste de mercure autour du soleil validant sa théorie. (en Médaillon) extrait de l’article de la collaboration Gravity mettant en évidence le même effet sur l’étoile s2 autour du trou noir supermassif au centre de notre Galaxie. Nous laissons à nos lecteurs les plus assidus le soin de montrer l’équivalence des deux formules.
Frédéric VINCENT | CNRS – Observatoire de Paris
par Sylvain Bouley | Jan 12, 2021 | Zoom Sur
La surface de la Terre se réchauffe. Et ce réchauffement est causé par l’accumulation depuis plus d’un siècle de gaz à effet de serre, tel que le CO2, émis par les activités humaines. Voilà près de 30 ans maintenant que ce résultat scientifique fait consensus dans la communauté des physiciens de l’atmosphère et du climat.

Bien sûr, ce résultat questionne aujourd’hui notre mode de vie et le fonctionnement même de notre société [1]. Car sans baisse radicale de nos émissions de gaz à effet de serre, et donc sans changement radical de nos modes de transport et consommation, la surface de la Terre pourrait se réchauffer de 3 à 5°C d’ici à la fin du siècle [2]. Les conséquences de ce réchauffement seraient dramatiques partout sur Terre. Montée des eaux, acidification des océans, modification des zones de précipitation conduisant à l’aridification de nombreuses terres, amplification des événements météorologiques extrêmes, etc.. Un sacré programme …
Modèle climatique du système « Terre »
La démonstration scientifique de ce réchauffement climatique a pour la première fois été proposée dans les années 1960 par le scientifique nippo-américain Syukuro Manabe à l’aide d’un modèle numérique de climat simplifié [3]. L’idée sur le papier est assez simple. À l’aide d’un programme informatique, on simule une Terre « virtuelle » sur un ordinateur en résolvant numériquement les équations physiques principales qui régissent le comportement de l’atmosphère de la Terre : les équations de la convection, de la thermodynamique, du transfert radiatif, etc. On réalise alors une première expérience numérique dans laquelle la quantité de CO2 est choisie égale à celle de la période pré-industrielle (autour de 300 ppm ou partie par million de CO2, c’est-à-dire 0,03% de CO2 dans l’atmosphère) ; puis une seconde dans laquelle la quantité est artificiellement augmentée (par exemple à 600 ppm pour un doublement de la concentration atmosphérique en CO2). Pour référence, la concentration moyenne de CO2 en 2019 est d’environ 410 ppm soit 0,041% [4]. On quantifie alors l’effet du CO2 sur la température moyenne à la surface de la Terre en comparant ces différentes expériences. Dès 1967, Manabe montrait avec son modèle numérique de climat très simplifié (fig. 1) qu’un doublement de la concentration en CO2 dans l’atmosphère de la Terre – par rapport à la période pré-industrielle – pouvait conduire à un réchauffement de la température moyenne de sa surface de l’ordre de 2,5°C.

À gauche se trouve un profil vertical de température tel que calculé dans le modèle de Manabe et Wetherald en 1967 [3], pour trois concentrations distinctes en CO2 (150, 300 et 600 ppm ; pour référence, la concentration moyenne de CO2 était d’environ 300ppm à l’aire pré-industrielle, et elle est d’environ 410 ppm en 2019). À droite se trouve un zoom de ce profil vertical de température entre 0 et 2 km. C’est la figure historique montrant pour la première fois, à l’aide d’un modèle d’atmosphère basé sur les composantes physiques majeures du système climatique terrestre (incluant à la fois le transfert radiatif, la convection et une description réaliste des rétroactions de la vapeur d’eau), que l’augmentation de la concentration de CO2 atmosphérique conduit à un réchauffement de la température de surface de la Terre.
Nous sommes maintenant en 2020, soit plus de 50 ans après l’expérience numérique originale de Syukuro Manabe. Si le résultat de cette expérience – c’est à dire que l’augmentation de la quantité de CO2 dans l’atmosphère conduit à un réchauffement important de la température de surface de la Terre – n’a dans le fond pas changé [2], les modèles numériques de climat – eux – ont considérablement évolué. Ces modèles, que l’on appelle maintenant GCM pour Modèle Global de Climat, simulent l’atmosphère de la Terre en trois dimensions et intègrent simultanément tout un ensemble de processus physiques et chimiques très complexes tels que : la mécanique des fluides, le transfert radiatif, la microphysique des nuages, la circulation océanique, l’écoulement des fleuves et rivières, la végétation, etc. Le but ultime de ces modèles est littéralement de prendre en compte simultanément l’effet de tous les processus qui pourraient avoir un impact – même très mineur – sur la surface et l’atmosphère de la Terre. En d’autres termes, le but est de reproduire sur ordinateur une Terre virtuelle qui se comporte de façon aussi proche que possible de notre vraie Terre dans la réalité. Cet effort est nécessaire pour comprendre au mieux l’impact climatique des émissions de CO2 liées à l’utilisation d’énergies fossiles, et ainsi informer les politiques et populations sur les mesures à prendre pour lutter et se préparer contre les conséquences de ce réchauffement climatique.
Les Modèles de Climat Global (GCM) font appel à l’expertise de dizaines de milliers de scientifiques partout dans le monde. Au Laboratoire de Météorologie Dynamique et à l’Institut Pierre et Simon Laplace (LMD/IPSL) où j’ai réalisé ma thèse de doctorat, plusieurs centaines de chercheurs travaillent main dans la main pour développer un tel GCM (fig.2). Pour vous faire une idée, le programme informatique de ce GCM compte près de 150 000 lignes de code, et plus de 40 ans d’expertise accumulée ! Une sacrée usine à gaz dont on doit pourtant comprendre et maîtriser tous les rouages.
Du système « Terre » aux autres planètes
Le GCM du LMD/IPSL a une spécificité quasi unique au monde. Des années 90 à aujourd’hui, il a été progressivement adapté pour étudier le climat de la planète Mars, puis des autres planètes du Système solaire, et enfin des planètes extrasolaires, c’est à dire des planètes qui tournent autour d’autres étoiles que notre Soleil. L’idée géniale ici est d’avoir su tirer avantage du fait que les lois et processus physiques et chimiques qui régissent le fonctionnement de l’atmosphère de la Terre sont basés sur des équations mathématiques universelles, qui sont les mêmes que l’on se trouve sur Terre, sur Mars ou bien sur une exoplanète. Tenez par exemple, les vents atmosphériques peuvent être tout aussi bien décrits par les équations de Navier Stokes de l’hydrodynamique que l’on soit sur Terre ou … sur l’exoplanète « Jupiter chaud » 51 Pegasi b2 ! Idem pour les équations de Clausius-Clapeyron de la thermodynamique, ou encore pour les équations du transfert radiatif.
Les équations de « Navier Stokes » de la mécanique des fluides permettent de décrire le mouvement des masses d’air de l’atmosphère. Elles permettent par exemple d’estimer l’intensité et la direction des grands courants atmosphériques tels que les alizées ou les vents d’Ouest.
Les équations de « Clausius-Clapeyron » de la thermodynamique permettent de décrire l’évolution de la pression de changement d’état d’un gaz en fonction de sa température. Elles permettent par exemple d’estimer les conditions pour lesquelles la vapeur d’eau présente dans l’atmosphère va se condenser, produisant ainsi des nuages et des précipitations.
Les équations du transfert radiatif permettent de décrire comment les gaz et nuages de l’atmosphère interagissent avec la lumière. Les gaz et nuages peuvent absorber la lumière, la réfléchir ou encore en émettre. Les équations du transfert radiatif permettent par exemple de comprendre comment un gaz comme le CO2 interagit avec la lumière, produisant ainsi un effet de serre.

Figure 2: Schéma simplifié illustrant les processus physiques et chimiques principaux qui sont modélisés dans le modèle de climat global (GCM) du LMD/IPSL pour simuler l’atmosphère de la Terre, des planètes du Système solaire et des exoplanètes. Les processus « sous-maille » (en 3) font référence à tous les processus qui ont lieu à des échelles spatiales trop petites pour être directement résolues par le modèle. Crédit : M. Turbet/N. Chaniaud.
Dans la pratique, l’idée a consisté à « hacker » c’est-à-dire adapter le programme informatique simulant la Terre, d’abord en y modifiant tous les paramètres qui lui sont propres (gravité, rayon, relief, niveau d’insolation, composition chimique de l’atmosphère, etc.) et ensuite en y adaptant la formulation de certains processus. Prenons l’exemple de Titan, une lune de Saturne, pour y voir plus clair. Si vous voulez simuler l’atmosphère de Titan, il faut d’abord adapter le GCM à la gravité de Titan (14% de la gravité terrestre), son rayon (40% du rayon terrestre), son niveau d’insolation (1% de l’insolation sur Terre), l’épaisseur et la composition chimique de son atmosphère (1,47 fois la pression de l’atmosphère terrestre ; atmosphère composée essentiellement d’azote N2, de quelques % de méthane CH4, et d’hydrocarbures plus lourds en quantité minoritaire), etc. Dans un second temps, il faut également adapter certains des processus. Titan possède en effet une atmosphère épaisse d’azote et de méthane qui est si froide que le méthane, l’éthane et d’autres hydrocarbures plus lourds peuvent s’y condenser. Oui, il pleut littéralement du pétrole sur Titan. Pour simuler le cycle hydrologique sur Titan (non pas de l’eau comme sur Terre, mais du méthane CH4, de l’éthane C2H6, et des hydrocarbures plus lourds), il convient donc d’adapter les processus thermodynamiques de condensation et précipitation de l’eau vers ceux du méthane, de l’éthane et des hydrocarbures plus lourds.
D’abord, les planètes du Système solaire
Ces Modèles de Climat Global (GCM) donnent aujourd’hui des résultats très satisfaisants. D’abord ils permettent de reproduire fidèlement le comportement de la plupart des atmosphères des planètes du Système solaire, notamment des planètes telluriques (Terre, Mars, Vénus), planètes naines (Pluton) et lunes (Titan, Triton) qui ont une atmosphère. Pour la petite histoire, le GCM du LMD/IPSL de la planète Mars est même utilisé par les grandes agences spatiales (Nasa, Esa, Agence Spatiale Chinoise, etc.) pour préparer les missions d’insertion en orbite et d’atterrissage sur la planète Mars3. Ces mêmes modèles de climat global peuvent également servir à faire de belles découvertes scientifiques, parmi lesquelles : la démonstration de l’origine du « cœur » de glace d’azote de Pluton [5] ; ou encore la démonstration que les périodes passées de forte obliquité sur Mars ont conduit à des cycles de climat glaciaires qui permettent d’expliquer pourquoi les régions proches de l’équateur de Mars sont couvertes de traces d’érosion glaciaire relativement récentes [6].
Pour les planètes géantes du Système solaire (Jupiter, Saturne, Uranus, Neptune), la tâche est un peu plus difficile. Notamment parce que pour simuler correctement la circulation atmosphérique de grandes planètes en rotation rapide4, il est nécessaire d’augmenter significativement la résolution spatiale des simulations numériques5 ce qui augmente considérablement la puissance de calcul nécessaire pour réaliser des simulations numériques 3-D. Toutefois, des résultats récents montrent qu’avec une puissance de calcul importante à disposition, il est possible de reproduire fidèlement les structures atmosphériques des planètes géantes du Système solaire [7].

Cette image illustre comment l’apparence et les couleurs de la face illuminée (face jour uniquement ; la face nuit n’est pas montrée) d’une exoplanète « Jupiter chaud » varient en fonction de sa température et de la composition de ses nuages, aussi exotiques soient-ils. Cette illustration a été réalisée à partir de simulations numériques 3-D [10] utilisant le SPARC/MIT GCM. Crédit : NASA/JPL-Caltech/University of Arizona/V. Parmentier.
Ensuite, les planètes extrasolaires
L’utilisation de modèles de climat global (GCM) a permis également de faire des avancées scientifiques majeures dans le domaine des exoplanètes. Appliqués aux plus grosses et chaudes planètes que nous connaissons – les « Jupiters chauds » –, ils ont permis de comprendre le fonctionnement de régimes de circulation atmosphérique exotiques (Figure 3). D’expliquer notamment comment la redistribution de chaleur s’opère au sein de l’atmosphère en fonction de l’insolation reçue par les planètes [8,9,10], et d’élucider par exemple pourquoi le point le plus chaud de certaines de ces exoplanètes est parfois largement décalé par rapport au point le plus irradié [8,9]. Appliqués aux exoplanètes de taille intermédiaire « super-Terre » ou « mini-Neptune », ces GCMs ont permis d’élucider pourquoi nombre de ces planètes semblent être couvertes d’une épaisse couche de nuages qui empêche nos télescopes de sonder en détail ce qu’il s’y cache [11]. Enfin, appliqués aux petites planètes tempérées – celles qui sont pour l’instant trop petites et trop froides pour être directement accessibles aux techniques de caractérisation d’atmosphère que nous avons à disposition – ces GCMs permettent d’identifier la gamme de toutes les compositions atmosphériques possibles. Cela permet d’être en mesure de reconnaître les différents types d’atmosphères des petites planètes tempérées lorsque ces observations seront un jour possibles [12].

Cartes de températures moyennes annuelles simulées sur Terre pour différentes insolations hypothétiques (1´, 1,09´ et 1,11´ le flux solaire actuel sur Terre) en utilisant le LMD/IPSL GCM [13]. Les insolations simulées correspondent respectivement à l’insolation actuelle, et celles estimées dans 850 et 1150 millions d’années. Crédit : J. Leconte.
Utiliser les exoplanètes pour mieux comprendre la Terre
Si toutes ces avancées scientifiques majeures dans la modélisation numérique des atmosphères des exoplanètes peuvent aujourd’hui voir le jour, c’est grâce à tout le travail réalisé depuis des décennies par les physiciens de l’atmosphère et du climat de la Terre et sur lequel elles s’appuient. Mon grand espoir, c’est celui de pouvoir un jour directement utiliser ce que l’on aura appris des exoplanètes pour aider en retour à mieux comprendre le fonctionnement et l’évolution du climat de la Terre.
Un peu comme on étudie les animaux pour en apprendre plus sur la médecine et le corps humain, étudier les exoplanètes permettrait de replacer la Terre dans un contexte plus large afin de mieux comprendre comment elle s’est formée, a évolué, et va évoluer. Avec l’avènement de nouvelles générations de télescopes et d’instruments ainsi qu’avec l’aide de techniques observationnelles toujours plus innovantes, cette idée pour l’instant un peu théorique – presque philosophique – va commencer à avoir des applications concrètes. Je vais essayer dans les lignes suivantes de vous le démontrer via un exemple sur lequel j’ai personnellement travaillé.
Pour cela, commençons par faire une expérience de pensée très simple. Imaginez que l’on prenne la Terre et la rapproche de quelques pourcents seulement du Soleil. L’augmentation du flux lumineux qu’elle reçoit va chauffer sa surface et donc augmenter sa température. Les océans et mers de la Terre, réchauffés, vont évaporer plus d’eau. La vapeur d’eau étant un puissant gaz à effet de serre, la température de surface de la Terre va continuer d’augmenter. Si le flux solaire reçu par la planète est alors suffisamment grand (autour de 10% de plus que le flux solaire actuel sur Terre [13]), il a été montré indépendamment par plusieurs équipes internationales que l’évaporation des océans devrait s’emballer jusqu’à leur assèchement complet [13,14,15]. Cela provient du fait que l’atmosphère très riche en vapeur d’eau est très opaque au rayonnement infrarouge thermique. La température de la surface doit alors augmenter jusqu’à plus de 1600°C pour pouvoir rayonner dans le visible où la vapeur d’eau laisse passer le rayonnement infrarouge, ce qui est nécessaire pour générer une source de refroidissement. On appelle ce mécanisme d’emballement le « runaway greenhouse » ou « effet de serre galopant ». Ce mécanisme est illustré par des simulations numériques sur la figure 4.
Dans 1 milliard d’années environ, la Terre recevra approximativement 10% de plus que le flux solaire actuel6, ce qui est en théorie suffisant pour que le mécanisme d’effet de serre galopant se mette en place … En fait, certaines études ont montré qu’une augmentation importante de la concentration de CO2 dans l’atmosphère de la Terre pourrait jouer le même rôle qu’une augmentation du flux solaire, et ainsi conduire également à un emballement de l’effet de serre de la vapeur d’eau [14]. Les quantités de CO2 nécessaires pour démarrer cet emballement sont certes en théorie bien supérieures aux prévisions d’émissions anthropiques de CO2 dans l’atmosphère de la Terre. Mais que faire pour en avoir le cœur net ?

Cartes de températures moyennes annuelles simulées sur Terre pour différentes insolations hypothétiques (1´, 1,09´ et 1,11´ le flux solaire actuel sur Terre) en utilisant le LMD/IPSL GCM [13]. Les insolations simulées correspondent respectivement à l’insolation actuelle, et celles estimées dans 850 et 1150 millions d’années. Crédit : J. Leconte.
À l’aide de modèles numériques de climat, j’ai montré très récemment avec mes collègues [15] que cette transition de l’« effet de serre galopant » peut conduire à une augmentation de la taille des planètes pouvant atteindre plusieurs centaines voire milliers de km (jusqu’à plusieurs dizaines de % du rayon de la planète) suite à l’expansion de leur atmosphère très chaude et riche en vapeur d’eau (fig. 5). Pour une planète similaire à la Terre, cette augmentation pourrait atteindre 500 km7. Cela provient d’abord du fait que l’atmosphère riche en vapeur d’eau serait alors beaucoup plus épaisse (d’un facteur 270 par rapport à l’atmosphère terrestre actuelle) ; et ensuite du fait que l’atmosphère serait beaucoup plus chaude donc beaucoup plus dilatée et étendue.
À mesure que l’on découvre un nombre significatif d’exoplanètes similaires à la Terre (en masse et taille), on va pouvoir commencer à tester l’existence et l’impact de l’« effet de serre galopant » sur ces exoplanètes. En particulier, comme l’illustre la figure 6, une augmentation statistiquement significative du rayon des exoplanètes de masse terrestre – à mesure que l’on augmente l’insolation qu’elles reçoivent au-delà de la limite théorique de l’effet de serre galopant ou « runaway greenhouse » – validerait non seulement l’existence du processus d’augmentation de rayon. Mais surtout, elle permettrait de mesurer l’insolation exacte à laquelle a lieu cet emballement. Cette mesure astronomique pourrait permettre – grâce aux exoplanètes – d’évaluer empiriquement à quel point la Terre est proche ou non de cette limite de l’effet de serre galopant. Afin d’avoir le cœur net sur ce qui attend notre Terre dans le futur.

Principe de la mesure statistique de l’effet de serre galopant. On place sur ce diagramme la position (insolation et rayon de la planète) connue de planètes de masse similaire à la Terre (par exemple de 0,5 à 2 masses terrestres. Ces planètes sont indiquées pour l’exemple par des croix noires (barres d’erreur fictives). Si une fraction significative des planètes de l’échantillon est riche en eau, et si le mécanisme d’augmentation de rayon par l’effet de serre galopant ou ‘runaway greenhouse’ de la vapeur d’eau est bien réel, on devrait observer une augmentation statistique (indiquée par la ligne rouge) du rayon des planètes plus irradiées que la limite de l’effet de serre galopant (indiquée par une ligne noire pointillée verticale), par rapport à celles qui le sont moins. Cette mesure astronomique pourrait permettre d’évaluer à quel point la Terre est proche ou non de la limite de l’effet de serre galopant.
Martin Turbet, Observatoire de Genève
Notes (en exposant dans le texte)
[1] Les curieux auront noté que la partie supérieure de l’atmosphère, quant à elle, décroit en température avec l’augmentation de la concentration du CO2. Dans cette partie de l’atmosphère, moins dense, les échanges d’énergie sont dominés par les échanges radiatifs. Le CO2 qui absorbe fortement dans l’infrarouge est également – d’après la loi du rayonnement de Kirchhoff – un très bon émetteur dans l’infrarouge. Dans la partie radiative/haute de l’atmosphère, l’ajout de CO2 va donc augmenter l’émission thermique de l’atmosphère, ce qui conduit à son refroidissement.
[2] 51 Pegasi b est la première planète extrasolaire à avoir été découverte (en 1995). Ce qui a valu entre autre aux astronomes suisses Michel Mayor et Didier Queloz le prix Nobel de physique 2019.
[3] Vous pouvez vous aussi l’utiliser en vous connectant sur http://www-mars.lmd.jussieu.fr/mcd_python/ (en anglais).
[4] La vitesse de rotation à l’équateur est environ 22 fois plus grande sur Saturne (et 27 fois sur Jupiter) que sur Terre.
[5] Il existe une échelle caractéristique – que l’on appelle « rayon de déformation de Rossby » – pour laquelle les effets de la rotation planétaire sont aussi importants que ceux de la gravité ou des forces de pression. Pour représenter correctement l’effet de la rotation planétaire (à l’origine des jets de Jupiter, par exemple ; ou encore de la circulation de Hadley sur Terre), il est nécessaire que la résolution spatiale d’une simulation numérique 3-D soit plus fine que le rayon de déformation de Rossby. La résolution spatiale (en km) doit donc être d’autant plus fine que la planète simulée est grande et tourne rapidement sur elle-même. D’où la difficulté à simuler correctement la circulation atmosphérique sur une planète comme Jupiter.
[6] Le mécanisme moteur qui permet au Soleil d’alimenter la Terre en énergie lumineuse est la fusion nucléaire. À mesure que les atomes d’hydrogène fusionnent, des éléments plus lourds comme de l’Hélium se forment. Au cours du temps, la proportion d’Hélium dans le cœur du Soleil augmente. Le noyau du Soleil devient de plus en plus dense et de plus en plus chaud. Les réactions nucléaires s’y font alors plus intenses. Résultat : La luminosité du Soleil augmente avec le temps et sera environ 10% plus grande d’ici environ 1 milliard d’années.
[7] Pour la comparaison, l’épaisseur typique de l’atmosphère terrestre est de ~10km, en fonction de la longueur d’onde/couleur à laquelle on l’observe.
Bibliographie
[1] Premier rapport d’évaluation du GIEC, 1990.
[2] Cinquième rapport d’évaluation du GIEC, 2014.
[3] S. Manabe & R.T. Wetherald, « Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity », Journal of Atmospheric Sciences Volume 24 (1967).
[4] Concentration de CO2 mesurée à l’Observatoire du Mauna Loa, à Hawaii (Etats-Unis), Scripps CO2 Program.
[5] T. Bertrand & F. Forget, « Observed glacier and volatile distribution on Pluto from atmosphere- topography processes », Nature Volume 540 (2016).
[6] F. Forget, R. M. Haberle, F. Montmessin, B. Levrard, & J. W. Head, « Formation of Glaciers on Mars by Atmospheric Precipitation at High Obliquity », Science Volume 311 (2006).
[7], A. Spiga et al., « Global climate modeling of Saturn’s atmosphere. Part II: Multi-annual high-resolution dynamical simulations », Icarus Volume 335 (2020).
[8] T.D. Komacek, A.P. Showman & X. Tan, « Atmospheric Circulation of Hot Jupiters: Dayside-Nightside Temperature Differences. II. Comparison with Observations », The Astrophysical Journal Volume 835 (2017).
[9] V. Parmentier & I.J. Crossfield, « Exoplanet Phase Curves: Observations and Theory », Handbook of Exoplanets, Springer International Publishing AG (2018).
[10] V. Parmentier et al., « Transitions in the Cloud Composition of Hot Jupiters », The Astrophysical Journal, Volume 828 (2016).
[11] B. Charnay, V. Meadows, A. Misra, J. Leconte & G. Arney, « 3D Modeling of GJ1214b’s atmosphere: Formation of inhomogeneous high clouds and observational implications », The Astrophysical Journal Letters Volume 813 (2015).
[12] M. Turbet et al., « The habitability of Proxima Centauri b. II. Possible climates and observability », Astronomy & Astrophysics Volume 596 (2016).
[13] J. Leconte, F. Forget, B. Charnay, R. Wordsworth & A. Pottier, « Increased insolation threshold for runaway greenhouse processes on Earth-like planets », Nature Volume 504 (2013).
[14] C. Goldblatt, T.D. Robinson, K.J. Zahnle & D. Crisp, « Low simulated radiation limit for runaway greenhouse climates », Nature Geoscience Volume 6 (2013).
[15] M. Turbet, D. Ehrenreich, C. Lovis, E. Bolmont & T. Fauchez, « The runaway greenhouse radius inflation effect. An observational diagnostic to probe water on Earth-sized planets and test the habitable zone concept », Astronomy & Astrophysics Volume 628 (2019).
par Sylvain Bouley | Jan 4, 2021 | Zoom Sur
25 Août 2016, 13h, journal télévisé de France 2 : « Notre planète a peut-être trouvé sa sœur jumelle » (découverte de Proxima b). Même son de cloche le 23 Juillet 2015, le 18 Avril 2014 (journal télévisé de TF1 : « Elle serait la cousine voire la sœur de la Terre » lors de la découverte de Kepler 186 f), le 6 Décembre 2011, et même dès le 25 Avril 2007. À chaque fois, de jolies illustrations, « vues d’artiste » même si ce n’est que rarement explicité. Que de nouvelles Terres donc !

Et pourtant, il faut bien reconnaître que si on y regarde de plus près, nous ne savons finalement que peu de choses sur les quelque 3500 exoplanètes découvertes à présent. Certes, en moins d’un quart de siècle, c’est réellement un tout autre univers que nous découvrons, peuplé de planètes en orbite autour d’une multitude d’étoiles, et peut être même toutes si nos instruments étaient assez performants même autour de l’étoile la plus proche de notre système, Proxima du Centaure.
Les deux méthodes principalement utilisées pour la détection d’exoplanètes (détection photométrique de transit et mesure de vitesse radiale par spectroscopie) ont donné des résultats excellents mais surprenants. Ces méthodes, complémentaires, ne peuvent être utilisées dans les mêmes conditions : la spectroscopie de précision permettant la mesure de vitesses radiales des étoiles requiert une instrumentation lourde et encombrante ; incompatible avec une exploitation facile dans l’espace, elle passe par l’utilisation de grands télescopes au sol. À l’inverse, la photométrie ultra précise, utilisée pour la détection de transit se prête facilement à la « spatialisation » : les détecteurs utilisés sont simples, assez robustes et leur mise en œuvre sur une sonde spatiale est donc une tâche maintenant assez routinière. C’est cette technique que va utiliser la mission PLATO de l’ESA, dont le lancement est prévu en 2026. D’autres missions spatiales, franco-européenne comme CoRoT (pionnière en matière de recherche d’exoplanètes grâce à la photométrie spatiale), ou américaines comme Kepler et TESS (lancée en Avril dernier), se fondent aussi sur cette technique. Mais alors, qu’apporte PLATO donc en plus de ces missions passées et présentes ? Puisque la technique choisie est utilisée depuis plus de 10 ans, on pourrait penser que cette mission n’est qu’une petite avancée et non un véritable pas en avant. En fait, l’importance de cette nouvelle mission réside dans ses objectifs qui ne sont pas seulement de détecter des exoplanètes, mais d’en connaître précisément les caractéristiques (rayon, masse, âge…) et ce pour un très grand nombre d’entre elles. De nombreuses détections, accompagnées de détails sur les exoplanètes découvertes ont été annoncées, mais les certitudes liées à la détection sont souvent mélangées uniquement à des spéculations sur l’allure de ces planètes. Plus précisément, on peut trouver l’estimation de la masse d’une de ces planètes, mais difficile de trouver l’incertitude qui affecte, par exemple, la valeur de cette masse. Et elle est parfois… astronomique. Sans parler de l’âge du système observé, dont on ne parle souvent pas faute de pouvoir en donner une valeur avec moins de 50% d’incertitude. PLATO s’est fixé comme objectif de précisément déterminer masse, rayon (donc masse volumique) et âge des planètes détectées. Il deviendra alors possible de dire, avec certitude et sans exagération ou spéculation, s’il existe des planètes comparables à la Terre, combien, et autour de quelles étoiles. Et par là même, de caractériser bien sûr les autres planètes, plus grosses, plus proches ou plus lointaines de leur étoile hôte, pour comprendre la diversité des systèmes observés.
Les missions antérieures
On peut donc se demander comment PLATO va procéder et pourquoi les missions précédentes n’ont pas fait de même. Il faut d’abord se replacer dans le contexte de ces missions passées. Dans les années 1990, les caméras capables d’observer des centaines de milliers d’étoiles avec une ultra haute précision photométrique deviennent facilement spatialisables. Elles ouvrent d’immenses possibilités dont celles de la mesure de la micro-variabilité des étoiles. On l’oublie souvent, c’est une petite mission canadienne nommée MOST qui a ouvert la voie. Tellement petite que son initiateur, Jaymie Matthews de l’université de Vancouver, la surnommait le Humble Space Telescope. Lancée en 2003 avec le soutien de la Canadian Space Agency, avec pour objectif des observations de photométrie stellaire (sans pour autant viser initialement à la détection d’exoplanètes), elle était équipée d’une instrumentation forcément moins performante que les missions qui suivront, mais c’était un début. Et la possibilité de détecter des transits planétaires devint un objectif qui n’était plus hors d’atteinte. Les premières véritables détections d’exoplanètes par la photométrie spatiale furent celles de la mission CoRoT, lancée en 2006. CoRoT était un projet international regroupant des pays européens ainsi que le Brésil, et mené par l’agence spatiale française, le CNES, avec l’appui scientifique de nombreux laboratoires de recherche en France et ailleurs. La NASA emboîta le pas de CoRoT avec la mission Kepler, avec les moyens que cette agence peut engager : elle fit une riche moisson d’exoplanètes (plus de 2000) entre son lancement en 2009 et son arrêt en octobre 2018. Toutes ces missions, qu’on pourrait appeler de première génération, avaient pour but principal la simple détection d’exoplanètes, ce qui représentait déjà un objectif ambitieux à l’époque. Elles n’ont pas été conçues dès l’origine pour les caractériser en masse, rayon et âge, paramètres indispensables pour maintenant comprendre la physique des systèmes observés. CoRoT et Kepler visaient à observer un très grand nombre d’étoiles (plus de 150 000) pour maximiser les chances de détection de planètes. Que ce soit avec un télescope de relativement petit diamètre comme CoRoT (moins de 30cm) ou plus grand comme Kepler (presque 1m), cela impose d’observer des étoiles peu brillantes dans un champ de vue restreint. C’est la faible luminosité de ces étoiles qui a limité la connaissance des planètes orbitant autour d’elles. Un transit planétaire permet de connaître le rayon de la planète selon la profondeur de ce transit. Celui-ci est proportionnel au carré du rapport du rayon de la planète sur le rayon de l’étoile. Et ce dernier est difficilement mesurable si l’étoile est peu lumineuse. D’où l’impossibilité de pouvoir toujours connaître précisément le rayon des planètes détectées par CoRoT et Kepler. Pour déterminer la masse de la planète, même limitation : elle est déterminée par des observations spectroscopiques depuis des observatoires au sol. Quand CoRoT et Kepler détectaient un transit, des programmes de suivi au sol (dit « follow-up ») commençaient, visant les étoiles hôtes. Mais si cette étoile est faiblement lumineuse, les observations spectroscopiques du sol seront difficiles. Il faudra recourir à des télescopes de grand diamètre (plusieurs mètres) : ceux-ci ne sont pas légion et sont déjà bien occupés à la poursuite d’autres objectifs astrophysiques.

Récapitulatif des différentes missions capables de détecter des exoplanètes, depuis les premières découvertes en 1990. De nouvelles découvertes et innovations continuent de nos jours.
Le concept de PLATO
PLATO a dès le départ intégré la contrainte de la caractérisation précise des étoiles hôtes pour pouvoir ensuite appliquer cette précision aux planètes, tout en étant ambitieux en termes de nombres de planètes détectées et donc caractérisées. Pour cela, le concept instrumental de PLATO est particulier : plutôt qu’un seul télescope de grand diamètre comme Kepler, PLATO s’appuie sur 24 télescopes de petit diamètre. Cela présente l’avantage de concilier une grande surface collectrice (24 fois celle d’un télescope unitaire) tout en conservant un large champ de vue sur le ciel du fait de la courte focale. Cette solution simple en apparence ne va pas sans quelques difficultés : il faudra recombiner les 24 images pour profiter pleinement de ce dispositif optique. Mais ce surcroît de complexité est largement compensé par la possibilité d’observer avec une bonne précision photométrique (car grande surface collectrice) un très grand champ qui va donc compter beaucoup d’étoiles, dont beaucoup d’étoiles brillantes. Le suivi au sol de ces étoiles sera donc facilité. Et PLATO, s’appuyant sur l’expérience des missions précédentes, intègre dès avant le lancement la stratégie d’observations au sol pour maximiser l’exploitation des données obtenues dans l’espace.

Illustration du design du satellite. Chaque petit télescope possède un même grand champ de vue et la surface collectrice est multipliée par l’addition des images collectées. (OHB System AG)
Un autre atout de PLATO repose aussi sur la luminosité plus grande des étoiles observées. Ce point apparemment assez anodin est en fait primordial. D’abord, cet aspect est à la base même de la conception de PLATO : l’architecture décrite précédemment permet une grande sensibilité photométrique grâce à la grande surface collectrice ainsi que l’observation d’une partie du ciel assez grande pour contenir beaucoup d’étoiles brillantes. En effet, celles-ci sont forcément moins nombreuses que les étoiles plus faibles, car plus proches. C’était le dilemme des missions précédentes : il fallait observer beaucoup d’étoiles pour maximiser les chances de détection de planète, mais cela impliquait de viser des étoiles plus faiblement lumineuses car beaucoup plus nombreuses dans un champ de vue donné. PLATO contourne donc cette difficulté avec son architecture particulière. Comme mentionné précédemment, les observations complémentaires depuis les télescopes au sol sont donc beaucoup plus aisées, mais cela présente aussi un autre avantage déterminant : la photométrie spatiale, en plus de détecter les transits planétaires va aussi pouvoir mesurer les variations de luminosité de l’étoile causées par ses oscillations internes, qui sont la base de la sismologie stellaire : elles sont dues à des ondes, par exemple acoustiques, qui se propagent dans toute l’étoile, du cœur à la surface où elles se manifestent par des variations de luminosité. Étant passées par tout l’intérieur de l’étoile, elles apportent une information sur les couches qu’elles ont traversées. Ainsi température, masse volumique et autres caractéristiques physiques internes (vitesse de rotation par exemple) deviennent accessibles car ces ondes y sont sensibles. Toute cette information peut être comparée à des modèles théoriques et numériques de l’étoile. Ces modèles dépendent en particulier de la masse de l’étoile ainsi que de son âge. Ainsi, la sismologie, en plus de sonder l’intérieur de l’étoile (c’est ainsi que l’on sait que la température au cœur du Soleil atteint les 15 millions de degrés), nous permet d’estimer l’âge d’une étoile, et par là celui des planètes qui se sont formées autour d’elle, à sa naissance ou peu après (à l’échelle de la vie d’une étoile). CoRoT et Kepler ont certes utilisé cette technique, mais étaient beaucoup plus limitées par la plus faible luminosité de leurs cibles. PLATO fera donc mieux, mais ne sera lancé qu’en 2026. Entre temps, d’autres missions aideront à paver le chemin, comme les missions CHEOPS (lancement prévu automne 2019, Cosmic Vision de l’ESA) ou TESS, qui vient juste d’être lancée en avril 2018 (mission Nasa, voir l’Astronomie ???).
Mais en quoi la mission PLATO va-t-elle faire mieux, ou autre chose, que les autres missions ? CHEOPS a pour but de se concentrer sur quelques étoiles cibles seulement, connues pour abriter une ou plusieurs planètes ; la mission complétera les connaissances sur ces exoplanètes dans le but d’avoir une connaissance approfondie de ces quelques systèmes. TESS au contraire vise à observer tout le ciel, en se concentrant sur des étoiles très brillantes. Cela implique d’autres choix : cela implique de ne consacrer que de courtes périodes d’observation (de l’ordre du mois) à une région donnée. En découle une forte limitation : l’impossibilité de détecter avec certitude des planètes dont la période dépasse le mois, et une limitation de la précision de la sismologie. Donc impossible de découvrir une jumelle de la Terre. PLATO va concilier précision sismique et durée d’observation suffisantes pour caractériser finement les systèmes observés, et ce dans tout le ciel. Car voilà où nous en sommes : des milliers d’exoplanètes autour de milliers d’étoiles, parfois dans des systèmes multiples… mais pas un qui ressemble au nôtre ! Et pas vraiment d’autre petite planète bleue comme notre bonne vieille Terre.
Que sait-on vraiment des exoplanètes ?
Comme toujours, l’être humain se situant au centre de l’Univers, au sens propre ou au figuré, les autres systèmes devaient ressembler au nôtre. Huit planètes, bien « rangées », 4 rocheuses près de l’étoile et 4 géantes gazeuses au loin, toutes sur des orbites à peu près circulaire (excentricité maximum : 0,21). On présente souvent le Soleil comme une étoile banale, mais il ne l’est pas tant qu’il n’y parait : il n’y a que 5% des étoiles de la Galaxie qui ont une masse comparable à la sienne. La vaste majorité des étoiles sont en réalité beaucoup moins massives, avec environ 85% des étoiles de la Voie lactée qui ont une masse inférieure à la moitié de celle du Soleil. D’autre part, les observations ont établi que les deux tiers des étoiles de masse similaire au Soleil sont des étoiles binaires : pour chaque point lumineux dans le ciel, on peut déterminer que, dans la moitié des cas, la source est une étoile isolée, ou bien, dans l’autre moitié des cas, la source est en fait un groupe de deux étoiles ou plus, liées par la force de gravité qu’elles exercent l’une sur l’autre.
Faute de connaître d’autres systèmes planétaires, on a longtemps pensé que ces propriétés n’avaient rien d’exceptionnel, et qu’elles devaient naturellement résulter des mécanismes responsables de la formation planétaire. Patatras ! dès la première exoplanète découverte, 51 Peg b, il est montré que c’est un « Jupiter chaud », planète géante en orbite proche de son étoile hôte. Et cela continue avec les détections suivantes : des milliers d’autres planètes avec une diversité de propriétés insoupçonnée.
Tout d’abord, sur les quelques 3500 exoplanètes recensées à ce jour, il est important de rappeler que seulement 750 environ ont une masse mesurée. Pour la vaste majorité d’entre elles donc, dont seul le transit périodique devant l’étoile a pu être observé, la nature planétaire est pour l’instant considérée vraisemblable, mais elle n’a pas pu être confirmée par des mesures indépendantes. On peut avoir une vue d’ensemble des planètes détectées grâce à la Fig.1 : elles se répartissent pour la plupart dans la partie supérieure gauche de la figure. Cela n’a certainement rien de réel mais est plutôt la conséquence des biais de détection. Il est beaucoup plus facile de détecter des planètes massives (partie supérieure de la figure) proches de leur étoile (partie gauche). Les planètes du Système solaire apparaissent, elles, plutôt dans la partie inférieure droite. S’il n’y a pas d’exoplanètes connues dans cette partie du diagramme, c’est toujours à cause de ces biais observationnels : détecter une Terre, peu massive, ou une planète loin de son étoile comme le sont Jupiter et Saturne n’est pas chose aisée.

Masses des planètes connues au mois d’avril 2018, en fonction de la distance à leur étoile. Pour certains systèmes, on n’a détecté qu’une seule planète en orbite autour de l’étoile, elles sont représentées en noir. Pour d’autres, on a pu détecter un cortège de plusieurs planètes, ces planètes sont représentées en violet sur la figure. Les planètes du Système solaire sont représentées en orange. (Cilia Damiani)
Les exoplanètes connues ne semblent cependant pas être uniformément réparties. On peut distinguer trois groupes, en fonction de leur masse (en unité de masse terrestre notée Mo) et de leur distance à l’étoile : les planètes de masses supérieure à environ 50 Mo à une distance inférieure à 0,1 UA de leur étoile (les Jupiters chauds) ; les planètes de masses supérieure à environ 50 Mo à une distance supérieure à 1UA de leur étoile (Jupiters froids); et les planètes de masses inférieures à environ 30 Mo, qui se trouvent sur un large intervalle de distances à l’étoile (dites super-Terres). Reste donc à PLATO à découvrir de véritables Terres, moins massives que ces super-Terres. Et répondre à bien d’autres questions à propos des systèmes exoplanétaires observés.
Tout d’abord, pourquoi observe-t-on de nombreuses planètes proches de leur étoile (en particulier des Jupiters chauds) mais pourquoi n’y en a-t-il pas dans notre propre Système solaire ? En principe rien ne s’oppose à ce que des planètes soient sur des orbites plus proches que celle de Mercure. La plus petite distance possible entre une planète et une étoile est la limite de Roche qui est déterminée par la force gravitationnelle de l’étoile. Cette force est d’autant plus grande que la distance entre la planète et l’étoile est courte. Plus précisément, l’intensité de cette force n’est pas la même en tous points du volume de la planète. Ce différentiel de force gravitationnelle ressentie par la planète en tous ses points induit des forces de marée. Les planètes, même telluriques, ne sont jamais parfaitement rigides, et le travail de la force de marée peut les déformer. Quand la planète est trop proche de son étoile, la force de marée devient si intense que la planète ne peut plus maintenir sa propre cohésion, la déformation est si grande que la planète se délite. Cette distance minimale en dessous de laquelle la planète ne peut maintenir sa cohésion est la limite de Roche. On peut estimer que cette distance est inférieure à 0,01 UA pour une planète de la masse de Jupiter (elle correspond à une période orbitale d’environ 12h). Or en examinant attentivement la figure 1, on s’aperçoit que les Jupiters chauds ne semblent pas exister à des distances inférieures, non pas à la limite de Roche, mais à deux fois cette valeur ! De plus, l’absence de planètes massives détectée sur des distances orbitales comprises entre 0,1 et 1 UA ne peut pas être expliquée par la destruction de ces planètes par la force de marée.
Quel mécanisme est donc responsable de cette occurrence singulière de planètes dans un intervalle très précis de distance orbitale ? Est-il possible que certaines conditions favorisent la formation de planètes massives tout près de leur étoile ? En l’état actuel des connaissances, il semble que ce ne soit pas le cas et même tout à fait l’inverse : les Jupiters chauds ne devraient pas pouvoir se former à la distance à l’étoile où ils sont observés ! Pour le comprendre il faut considérer le système dans ses tout premiers moments. L’étoile est alors encore entourée d’un important disque de poussière et de gaz, résidus de l’environnement dans lequel se trouvait la proto-étoile avant l’effondrement gravitationnel qui lui a donné naissance. Les planètes se forment à leur tour dans le disque à partir du gaz et de la poussière qu’il contient. Pour former une planète aussi massive que Jupiter, il faut qu’une quantité très importante de gaz puisse s’effondrer sur elle-même et se désolidariser du reste du disque. Or à la distance orbitale où on observe les Jupiters chauds, le gaz du disque est chauffé par l’énergie rayonnée par l’étoile, toute proche. Cette chaleur agite les molécules du gaz, ce qui rend leur accrétion dans un volume restreint plus difficile, voire impossible. On pense donc que les planètes géantes doivent se former loin de leur étoile, à une distance où le gaz est suffisamment froid. On peut estimer cette distance à quelques unités astronomiques, là où observe par ailleurs de nombreux Jupiters froids, comme le Jupiter de notre Système solaire. Mais alors s’ils se forment à plusieurs unités astronomiques, pourquoi observe-t-on des Jupiters si près de leur étoile ? Sauf à remettre en question radicalement ce qu’on sait des disques proto-planétaires, on doit envisager une phase de migration : il doit exister un mécanisme qui divise par dix, voire par cent, la distance entre la planète nouvellement formée et l’étoile. Cependant, ce mécanisme ne doit pas être efficace pour toutes les planètes géantes, puisqu’on observe tout de même beaucoup de Jupiters froids. Pour les super-Terres, le nombre de détection est encore trop faible pour tirer des conclusions fortes, mais la situation semble moins claire. Non seulement leur faible masse n’est pas incompatible avec une formation in situ, mais leur répartition uniforme sur un large intervalle de distances à l’étoile indique que le mécanisme de migration, s’il opère aussi dans ce domaine de masse, ne doit pas aboutir de la même façon… Devant tant de questions, une seule solution : essayer de collecter le maximum d’informations possible sur les propriétés de ces systèmes afin d’y voir plus clair !
D’autre part, des orbites excentriques et inclinées sont aussi possibles, qui pourraient expliquer les propriétés rencontrées des systèmes planétaires. En effet, quand on peut mesurer la masse et la distance à l’étoile des planètes, on obtient aussi d’autres propriétés des orbites. En particulier, on sait par la loi de la gravitation de Newton que les planètes possèdent des orbites elliptiques, qui peuvent, en toute généralité, avoir une excentricité e quelconque entre 0 (l’orbite est alors circulaire) et 1 (cas extrême d’une orbite parabolique). Si on observe bien un certain nombre de systèmes où les planètes semblent avoir des orbites circulaires, comme c’est le cas dans le Système solaire, on en observe aussi qui ont des orbites très excentriques (le record est pour l’instant détenu par HD80606b, dont l’excentricité vaut e = 0,93). Il semble toutefois que, dans les systèmes où on trouve plusieurs planètes, les valeurs de l’excentricité ne sont jamais aussi extrêmes. On suppose que cela résulte d’un effet de « sélection naturelle » : dans un système de plusieurs planètes, si les orbites des différentes planètes ne sont pas suffisamment espacées, les interactions gravitationnelles intenses les déstabilisent rapidement. De faibles excentricités assurent la stabilité dynamique du système, et ce sont ces systèmes qu’on peut observer. Néanmoins, on observe bien de fortes excentricités dans les systèmes ne comportant qu’une planète, sur une orbite proche, ce qui n’est pas attendu dans les théories classiques de formation planétaire, basées sur l’exemple du Système solaire. Ce pourrait donc être un marqueur du mécanisme de migration qui a amené la planète près de l’étoile. Un autre indice se trouve dans les inclinaisons planétaires, en fait l’angle formé par l’axe de rotation de l’étoile et la normale au plan orbital de la planète. Encore une fois, dans le Système solaire ces inclinaisons sont très faibles, mais on observe des dizaines de planètes sur des orbites très inclinées. Et encore bien d’autres propriétés étonnantes sont observées dans le ciel, comme des exoplanètes en orbite autour d’étoiles binaires. À la formation, les perturbations gravitationnelles provoquées par un compagnon stellaire devraient agiter le disque, ce qui complexifie le processus de construction planétaire par accrétion. Pourtant on connaît maintenant neuf planètes en orbite autour d’une binaire. Comme en science-fiction, certains mondes possèdent des couchers de soleil doubles.
Tout ceci bien sûr, remet en cause notre façon de concevoir les conditions de formation des systèmes planétaires, et donc des possibilités d’émergence de la vie. La quête d’une planète jumelle de la Terre n’a pas encore été fructueuse. On connaît bien des planètes dont la température de surface est compatible avec la présence d’eau liquide, ce qu’on appelle des planètes habitables, mais elles possèdent toutes des masses et des rayons bien supérieurs à celui de la Terre, et sont en orbite autour d’étoiles très différentes du Soleil. La Terre est-elle vraiment une planète sans semblable ? Une chose est certaine, les systèmes exoplanétaires présentent une remarquable diversité. Mais comme on l’a vu, ce sont surtout nos limitations instrumentales qui rendent cette jumelle si élusive.
Un avenir prometteur
Il s’agit donc maintenant de trouver des planètes jumelles de la nôtre et surtout d’expliquer le nombre que nous allons observer : sont-elles nombreuses, ou au contraire rarissimes ? Pour cela, c’est l’ensemble des systèmes qu’il faut comprendre, même les plus exotiques. Comment se sont-ils formés, comment ont-ils évolué, le nôtre est-il une exception ou juste banal ? Répondre à ces questions sera l’objectif de PLATO. La précision extrême des mesures fournie par PLATO ouvrira la voie vers l’étape suivante de la caractérisation planétaire : la détermination de la composition de la planète et de son atmosphère. Pour cela l’Agence Spatiale Européenne prépare déjà l’avenir avec la sélection récente de la mission qui succèdera à PLATO : ARIEL pour Atmospheric Remote-sensing Exoplanet Large-survey. Pour la première fois, celle-ci sera équipée d’instruments qui permettront de mesurer l’empreinte chimique des gaz présents dans les atmosphères des exoplanètes. ARIEL, de façon complémentaire à PLATO, nous permettra de comprendre comment les systèmes planétaires se forment et évoluent. Il sera alors possible de mettre notre système en contexte, et de le comparer aux autres systèmes connus, nos voisins dans la Galaxie. Que des planètes comme la Terre soient fréquentes ou non, ces voisins restent malgré tout très éloignés de la Terre. L’étoile la plus proche de la Terre possède une planète géante, mais en moyenne, les étoiles sont très éloignées les unes des autres et on détecte des exoplanètes jusqu’à des distances de centaines d’années lumières du Soleil. Les premières ondes radio diffusées par l’homme ne les ont probablement pas encore atteintes. Si on voulait envoyer une sonde pour les explorer, il faudrait atteindre un siècle entre une commande et le signal retour du satellite. Sans parler du temps qu’il faudrait à la sonde, qui voyage à des vitesses bien moindres que celle de la lumière, pour y parvenir ! Dans ces conditions, difficile d’imaginer la possibilité de visiter ou de s’installer sur ces mondes éloignés, au moins dans un futur proche. Comme l’écrivait Carl Sagan, « la Terre est une toute petite scène dans une vaste arène cosmique […] Pour moi, cela souligne notre responsabilité de cohabiter plus fraternellement les uns avec les autres, et de préserver et chérir le point bleu pâle, la seule maison que nous ayons jamais connue. »
Frédéric Baudin (IAS, Orsay) & C. Damiani (MPS, Göttingen)
par Sylvain Bouley | Jan 4, 2021 | Zoom Sur
Après la découverte d’environ 4 000 planètes extrasolaires, dont 656 systèmes planétaires multiples, nous sommes aujourd’hui forcés de conclure que notre Système solaire n’est pas du tout le système planétaire typique. Au contraire, notre système semble être assez particulier.

La plupart des planètes extrasolaires peuvent être classées en trois groupes. Il y a les Jupiters chauds, planètes de masse comparable à celle de Jupiter, mais très proches de leur étoile centrale. Leur période orbitale est de quelques jours seulement, et leur rayon orbital est de moins d’un dixième d’unité astronomique (UA – la distance moyenne Terre-Soleil). La température de leur atmosphère est donc extrêmement élevée, d’où le nom donné à ces planètes. Les Jupiters chauds sont relativement faciles à détecter. Il n’est donc pas étonnant qu’on les ait découverts en grand nombre. Mais en réalité, ils sont assez rares. On estime que seulement 1 % des étoiles de type solaire ont un Jupiter chaud autour d’elles. Le gros de la population des planètes géantes rentre dans le deuxième groupe, celui des Jupiters tièdes. Comme leur nom l’indique, ces planètes sont plus éloignées de l’étoile centrale que les Jupiters chauds. Le rayon de leur orbite est de l’ordre de 1-3 UA. Environ 10 % des étoiles de type solaire ont des Jupiters tièdes. Mais ces planètes sont néanmoins assez différentes de Jupiter. Tout d’abord, elles sont plus près de l’étoile. Elles se trouvent plutôt à la place des planètes telluriques ou de la ceinture des astéroïdes que de celle de notre Jupiter dans le Système solaire. Le nombre de planètes géantes semble décroître avec la distance au-delà de 2-3 UA, même après la prise en compte des biais observationnels, alors que l’orbite de Jupiter est à 5,2 UA et celle de Saturne à 9,7 UA. De plus, la plupart des orbites des Jupiters tièdes sont fortement excentriques, alors que les orbites de nos planètes géantes sont presque circulaires. Tout au plus 10 % des Jupiters tièdes auraient des orbites comparables à celle de Jupiter, quant à leur distance et à leur excentricité. Le troisième groupe de planètes extrasolaires est celui des super-Terres. Celles-ci sont des planètes de masse intermédiaire entre celle de la Terre et celle d’Uranus ou Neptune. Des planètes subterrestres ont aussi été trouvées, mais en général autour d’étoiles plus petites que le Soleil : elles sont donc « super-Terres » quant à leur masse relative. Les super-Terres ont aussi des orbites très petites, typiquement plus petites que l’orbite de Vénus, voire de Mercure, et souvent comparables à celles des Jupiters chauds. À la différence des Jupiters tièdes, les orbites des super-Terres sont relativement circulaires. De plus, alors que les planètes géantes extrasolaires tendent à être seules (des systèmes avec deux ou plusieurs planètes géantes existent, mais ils sont rares), les super-Terres appartiennent souvent à des systèmes multi-planétaires (fig. 2). On estime qu’environ 50 % des étoiles possèdent des super-Terres.

La distribution des planètes extrasolaires, avec les groupes des Jupiters chauds, Jupiters tièdes et super-Terres mis en évidence. Les planètes de notre Système solaire sont indiquées en rouge, pour comparaison.
Nous n’avons pas encore découvert un système analogue à notre Système solaire. En revanche, si l’on place nos planètes dans un diagramme distance-masse comme celui de la figure 1, nos planètes tombent dans une région dépourvue de planètes extrasolaires. Cette constatation ne doit pas tromper : il est très difficile de découvrir autour d’autres étoiles des planètes comme les nôtres, si petites et relativement lointaines de l’astre central. L’absence d’exoplanètes avec des caractéristiques semblables à celles de nos planètes est donc le résultat d’un biais observationnel. Cependant, il est vrai que la plupart des étoiles ont des planètes avec des caractéristiques qui n’ont pas d’analogues ici : super-Terres, Jupiters chauds, Jupiters sur orbites excentriques, etc. Ces systèmes sont donc clairement différents du Système solaire. Cet argument peut être quantifié. La seule planète du Système solaire qui aurait pu être découverte par un observateur extrasolaire ayant une technologie comparable à la nôtre est Jupiter. Si l’on veut comprendre la place du Système solaire dans la Galaxie, on doit donc pour le moment se borner à se demander quelle est la fréquence statistique du couple Soleil-Jupiter. Seules 10 % des étoiles sont de type solaire. Parmi celles-ci, seules 10 % ont un Jupiter tiède. Mais parmi ces Jupiters tièdes, seulement 10 % ont une orbite comparable à celle de Jupiter, comme nous l’avons vu ci-dessus. En faisant le produit, on trouve que la probabilité d’occurrence du couple Soleil-Jupiter n’est que de 0,1 % ; cela ne fait pas beaucoup. Et le Système solaire est bien plus complexe que le simple couple Soleil-Jupiter. Par exemple, seulement 50 % des étoiles n’ont pas de super-Terres, à l’instar du Soleil, ce qui réduit la probabilité encore de moitié. Selon des études récentes, seules 10 % des étoiles n’auraient pas de planètes à l’intérieur de l’orbite de Mercure, ce qui réduit la probabilité d’existence du Système solaire à moins de 0,01 %.
Pourquoi le Système solaire a-t-il acquis une structure si atypique ? Comment est-il possible que, à partir des mêmes processus physiques, il y ait in fine une telle diversité de systèmes planétaires ? Ces questions sont au cœur de la planétologie moderne.

Un schéma du système de super-Terres Kepler-62, avec les tailles des orbites et les rayons planétaires à l’échelle par rapport au Système solaire interne
La première chance
Selon nos études et les modèles que nous avons développés, la clef de voûte du Système solaire est Jupiter. La formation précoce de Jupiter a structuré l’ensemble de notre système. On pense en effet que les planètes commencent à se former dans un endroit spécifique du disque protoplanétaire appelé la « ligne des glaces », là où la température – qui décroît avec la distance – passe en dessous des ~170 K et où l’eau se condense sous forme de glace. La présence de glace augmente la quantité de matière solide disponible et permet l’agrégation de poussières assez grosses, de quelques centimètres de diamètre, bien plus faciles à accréter par les planètes en formation que les poussières submillimétriques typiques du disque chaud interne. La ligne des glaces est donc la fabrique des grosses planètes. Mais les planètes interagissent gravitationnellement avec le disque, ce qui induit leur migration vers l’étoile : leur orbite ne se referme plus comme une ellipse parfaite, mais spirale vers l’étoile centrale (voir l’encadré en bas de page). Les planètes formées sur la ligne des glaces migrent donc vers le bord interne du disque dès qu’elles atteignent quelques masses terrestres. C’est sans doute le mode d’origine d’une bonne partie des super-Terres, celles riches en glaces. La première chance du Système solaire a été que la première planète produite sur la ligne des glaces fût suffisamment massive pour accréter une grande quantité de gaz du disque protoplanétaire et devenir ainsi une planète géante : Jupiter.

La présence simultanée de Jupiter et Saturne perturbe fortement le disque de gaz. La couleur rouge vif montre la zone à haute densité du gaz et la couleur bleue la zone partiellement appauvrie. À cause de cette distribution de densité, dominée par un disque interne massif, la migration vers l’étoile de Jupiter et Saturne s’arrête ou s’inverse.
La deuxième chance
Une planète comme Jupiter migre beaucoup plus lentement que les super-Terres. Sauf exceptions, elle migre de la ligne des glaces natale vers environ 1-2 UA (la distance typique des Jupiters tièdes) pendant la durée de vie du disque protoplanétaire. La présence d’une telle planète géante a un double effet. Tout d’abord, elle intercepte le flux des poussières se dirigeant vers le disque interne, ce qui limite la matière disponible pour la croissance des planètes à l’intérieur de son orbite. Ainsi, dans le Système solaire, les protoplanètes à l’intérieur de l’orbite de Jupiter ont acquis une masse comparable à la masse de Mars pendant la vie du disque. À cause de leur petite masse, ces protoplanètes n’ont pas migré significativement. Lors de la disparition du disque, par une série d’impacts mutuels, elles ont donné naissance aux planètes telluriques que nous connaissons. Si Jupiter n’avait pas été là, le flux de poussières aurait continué pendant toute la vie du disque. Les protoplanètes du système interne auraient grandi davantage et, par conséquent, auraient commencé à migrer vers le bord interne du disque. Le résultat de ce processus aurait été la formation d’un système de super-Terres rocheuses, aussi observées autour de nombreuses étoiles. Le deuxième effet de la formation de Jupiter est que cette planète retient au-delà de son orbite les planètes qui se forment après elle sur la ligne des glaces. Comme un camion sur une route de montagne, difficile à doubler même par une voiture sportive, Jupiter peut difficilement être « doublé » par les autres planètes. Celles-ci sont devenues Saturne, Uranus et Neptune. Sans Jupiter, ces planètes – moins massives et donc en migration plus rapide – auraient sans doute atteint le bord interne du disque en balayant au passage la région des planètes telluriques. Jupiter, cependant, n’a pas atteint par migration une orbite à ~1 UA, à l’instar de beaucoup d’autres Jupiters tièdes. Cela aurait été dramatique pour notre futur ! On le doit à la deuxième chance du Système solaire : la formation de Saturne. Le rapport des masses entre Jupiter et Saturne est idéal pour ralentir la migration vers l’étoile de ces deux planètes, par l’effet d’un jeu d’interactions mutuelles (fig. 3). Sous certaines conditions, ces planètes peuvent même inverser leur sens de migration, en repartant vers l’extérieur. On pense que c’est à cause de cet effet que Jupiter est si loin du Soleil, par rapport aux Jupiters tièdes. Autant de bonheur pour la Terre, qui a donc pu continuer lentement sa croissance sans être dérangée par ce grand frère si encombrant.

Les orbites des quatre planètes géantes (Jupiter en rouge, Saturne en blanc, Uranus en bleu et Neptune en magenta) à la fin de la phase de migration dans le disque protoplanétaire, selon les simulations de ce processus. Les flèches indiquent le déplacement orbital nécessaire pour atteindre les orbites actuelles. Selon le modèle de Nice, ce changement orbital se produit lors d’une phase d’instabilité dynamique.
La troisième chance
La troisième chance du Système solaire est d’avoir préservé les orbites presque circulaires de ses planètes. Les planètes sont toutes supposées se former sur des orbites circulaires, mais nous avons vu que la plupart des planètes géantes extrasolaires ont une orbite fortement excentrique. On pense que l’acquisition de l’excentricité est due à une phase d’instabilité dynamique après la disparition du disque protoplanétaire, pendant laquelle les planètes d’un même système présentent des rencontres proches mutuelles : par conséquent, elles se dispersent, certaines planètes sont éjectées dans l’espace interstellaire, d’autres se percutent. La (ou les) planète(s) survivante(s) se retrouve(nt) ainsi sur une (des) orbite(s) excentrique(s). Nous pensons que les planètes géantes de notre Système solaire ont eu aussi leur phase d’instabilité. En effet, leur mouvement de migration aurait dû les placer sur des orbites très rapprochées et résonantes, c’est-à-dire avec des périodes orbitales en rapport de nombres entiers. Par exemple, Jupiter aurait accompli 9 tours autour du Soleil pendant que Saturne en faisait 6, Uranus 4 et Neptune 3. Cette configuration orbitale est bien différente de celle actuelle (voir la fig. 4). Les orbites actuelles sont bien plus espacées, et il n’y a aucune relation de résonance entre les périodes orbitales des planètes. Ce changement de structure orbitale est bien expliqué par une phase d’instabilité du système, comme montré par le modèle dit de Nice (car développé à l’observatoire de la Côte d’Azur). Le modèle de Nice explique non seulement les orbites actuelles des planètes, mais aussi toute la distribution des petits corps du Système solaire (astéroïdes, comètes, objets transneptuniens, Troyens et satellites). Il laisse donc peu de doutes qu’une telle instabilité ait eu lieu. Mais pourquoi, alors, les orbites de nos planètes sont-elles si circulaires si elles ont été instables ? Selon les simulations, cela est dû au fait que, par pure chance, lors de l’instabilité, Jupiter et Saturne n’ont pas eu de rencontres proches mutuelles. Ces planètes ont eu des rencontres avec Uranus ou Neptune, qui les ont faiblement perturbées à cause de leur moindre masse, mais pas entre elles. Si des rencontres entre Jupiter et Saturne avaient eu lieu, le système planétaire aurait été complètement dispersé, laissant Jupiter sur une orbite d’excentricité comparable à celle de la plupart des Jupiters tièdes (fig. 5). L’excentricité de Jupiter aurait eu une énorme répercussion sur l’excentricité des planètes telluriques. L’orbite de la Terre serait également devenue très excentrique, avec des conséquences vraisemblablement néfastes sur son habitabilité.

L’orbite de Jupiter (point bleu) à la fin de la phase d’instabilité des planètes géantes dans deux simulations du modèle de Nice, l’une exhibant des rencontres proches entre Jupiter et Saturne et l’autre pas. Dans le premier cas, l’excentricité finale de l’orbite de Jupiter est comparable à celles des Jupiters tièdes, illustrés par des points rouges, dont la taille est proportionnelle à leur masse. Dans le cas sans rencontres avec Saturne, l’excentricité finale de Jupiter est comparable à son excentricité actuelle, mais elle est anormalement faible par rapport à celles des planètes géantes extrasolaires.
Pour conclure, il semble que le Système solaire doive sa structure actuelle, qui a permis l’émergence d’une Terre habitable, à au moins trois événements chanceux : la formation précoce de Jupiter, la formation de Saturne et l’absence de rencontres proches entre ces deux planètes lors de leur évolution dynamique. Il est difficile d’estimer la probabilité de chacun de ces événements, mais elle n’est sans doute pas grande. Et la probabilité que les trois événements se produisent en série est le produit des probabilités de chaque événement individuel. Nulle surprise donc que le Système solaire représente tout au plus 0,01 % des systèmes planétaires de la Galaxie. Nulle surprise aussi que nous habitions dans un système si particulier, dont la structure est essentielle pour abriter une planète réellement habitable. Mais si tout cela est vrai, l’implication est stupéfiante : la vie est rare dans la Galaxie.
La recherche de la vie extrasolaire va certainement se développer avec des moyens de plus en plus puissants et il est juste qu’il en soit ainsi : ce ne serait ni la première ni la dernière fois que les prévisions des théoriciens seraient fausses. Mais ne nous attendons pas à des résultats positifs à court terme.
Alessandro Morbidelli | Observatoire de la Côte d’Azur
La migration planétaire
Une planète immergée dans un disque de gaz perturbe le fluide par sa propre gravité. La distribution du gaz s’en trouve affectée. Plus particulièrement, une onde de surdensité en forme de spirale est lancée depuis la position de la planète, comme illustré sur la figure ci-contre.
La distribution du gaz dans le disque, qui désormais n’a plus une symétrie axiale, exerce maintenant une force de gravité non nulle sur la planète. Cette force freine la planète sur son orbite, qui perd donc de l’énergie et du moment cinétique et s’approche de l’étoile centrale. Puisque la perturbation exercée par la planète sur le disque est proportionnelle à la masse de celle-ci, la décélération subie par la planète à cause de l’onde spirale est aussi proportionnelle à sa masse. La vitesse de migration augmente donc linéairement avec la masse de la planète. Dans un disque protoplanétaire « typique », la vitesse de migration d’une planète de masse terrestre à 1 UA est de 5 UA par million d’années.
Quand la planète atteint une grande masse, typiquement une trentaine de masses terrestres, elle commence à ouvrir un sillon dans le disque le long de son orbite. Ce sillon est de plus en plus profond pour des masses planétaires croissantes. La figure ci-contre est obtenue pour une planète de la masse de Jupiter.
La planète doit alors se déplacer avec son sillon. Donc, sa vitesse de migration ne peut pas excéder la vitesse de déplacement radial du gaz. Celle-ci est typiquement plus lente que la vitesse de migration d’une planète qui commence à ouvrir un sillon. Par conséquent, la vitesse de migration décroît avec la masse de la planète pour plafonner, pour des planètes très massives, à la vitesse du déplacement radial du gaz. Les planètes qui ont la vitesse de migration maximale sont celles de 20-30 masses terrestres, semblables à Uranus ou Neptune.
