par Sylvain Bouley | Avr 10, 2021 | Zoom Sur
L’équipe internationale en charge de l’instrument GRAVITY a annoncé récemment la détection de la précession de Schwarzschild sur l’orbite de l’étoile S2, la plus proche du trou noir supermassif au centre de la Voie Lactée.
Pour comprendre ce que cette détection signifie, il est utile de faire un pas en arrière et de considérer l’évolution des idées sur la notion d’orbite des corps célestes, avant de se lancer dans le cœur du sujet des détails de cette détection. Nous allons voir que la mesure de GRAVITY constitue une dernière étape sur une route jalonnée depuis deux millénaires et demi par Eudoxe de Cnide, Kepler et Einstein.
Orbites des corps célestes pour les anciens Grecs : Eudoxe de Cnide
Tout commence par Pythagore (autour de 550 avant notre ère). Son école fort ésotérique apporte deux avancées considérables. Tout d’abord, les Pythagoriciens tiennent pour principe premier des choses le nombre. Ce début de mathématisation du monde est promis à un brillant et long avenir. Ensuite, les Pythagoriciens proposent une vision toute nouvelle sur la géométrie. Le fameux théorème de Pythagore (le carré de l’hypoténuse de tout triangle rectangle …) était déjà connu en pratique des Égyptiens, qui avaient noté cette particularité dans tel ou tel triangle particulier. L’apport crucial de Pythagore, c’est de poser que ceci est valable pour tout triangle rectangle, début de systématisation de la géométrie, début d’une vision scientifique moderne, se dégageant d’un savoir purement pratique (tel que l’était, par exemple, celui des Égyptiens antiques).
Platon (autour de 400 avant notre ère) propose un modèle du cosmos basé sur des sphères imbriquées (on reconnaît là l’influence de la mathématisation du monde proposée par les Pythagoriciens). La Terre est au centre, entourée des sphères de l’eau, de l’air et du feu. Les astres se meuvent au-delà, à des distances croissantes (vient d’abord la Lune, puis les autres planètes connues et le Soleil, et enfin la sphère des étoiles lointaines fixes). Ce modèle est développé par Eudoxe de Cnide (contemporain de Platon) qui postule que les astres se déplacent le long des sphères imbriquées de Platon en suivant des orbites circulaires et uniformes. Nous voici devant le premier modèle explicite d’orbite d’un corps céleste : Eudoxe peut être ainsi considéré comme le premier astronome au sens moderne du terme. Nous allons voir que l’observation récente de GRAVITY est une héritière très lointaine de ce pionnier.
Figure 1 – Les systèmes du monde Copernic (gauche) et d’Eudoxe (à droite) et de. source : Histoire générale des sciences, dir. r. taton, tome ii.
Orbites des corps célestes de la renaissance à l’époque classique : Kepler
Malgré les développements considérables apportés par Ptolémée (au Ier siècle de notre ère) au modèle d’Eudoxe, on peut considérer que les éléments de base de la compréhension du cosmos n’ont pas évolué de façon radicale avant le XVIe siècle. Cette gigantesque plage de temps illustre bien le caractère véritablement stupéfiant des avancées des VIe et Ve siècles de la Grèce antique. Il revient à trois scientifiques des XVIe et XVIIe siècles de proposer le cadre conceptuel suivant : Nicolas Copernic (~1530), Tycho Brahé (~1580) et Johannes Kepler (~1610). La révolution copernicienne consiste à placer non plus la Terre, mais le Soleil au centre du cosmos. Les astres sont toujours considérés en orbite circulaire et uniforme autour du Soleil (voir la Figure 1 qui compare le système du monde hérité d’Eudoxe à celui de Copernic). Tycho Brahé réalise des observations d’une superbe précision, et sur une très grande quantité de sources, qui seront la base de la systématisation suivante, entreprise par Kepler au tournant du XVIIe siècle.
Kepler est le véritable point de référence auquel doit se comparer le résultat de l’équipe GRAVITY. Faisant la synthèse des apports de Copernic et de Tycho, il aboutit aux fameuses lois de Kepler, qui apportent deux éléments nouveaux fondamentaux. Tout d’abord, il a la première intuition du rôle de moteur joué par le Soleil dans le mouvement des astres, alors que les descriptions précédentes se contentaient d’entériner le fait que les astres tournent, soit autour de la Terre, soit autour du Soleil, sans voir de lien de cause à effet entre la présence du corps central et le mouvement des astres autour de celui-ci. Ensuite, Kepler est amené, grâce aux superbes observations de Tycho, à battre en brèche la théorie du mouvement circulaire et uniforme des astres (datant d’Eudoxe, donc de 2000 ans en arrière) et à le remplacer par un mouvement elliptique. Avec Newton (~1680), sa loi du mouvement et sa loi de gravitation universelle, les avancées de Kepler sont confirmées et incluses dans un système d’explication beaucoup plus vaste, qui forme l’une des pierres angulaires de l’astronomie jusqu’à Einstein.
Orbites des corps célestes de la relativité générale : Einstein
Einstein est l’héritier direct de Newton. C’est lui qui reformule les lois de la gravitation en 1915, aboutissant aux lois de la relativité générale, qui englobent et dépassent considérablement la théorie newtonienne. Ce n’est pas le lieu ici d’expliquer son cheminement. Il convient par contre de discuter l’une des conséquences de la relativité générale sur les orbites des corps célestes. Einstein aboutit à la prédiction que les orbites des planètes autour du Soleil ne doivent pas suivre des ellipses kepleriennes. Elles vont peu à peu se décaler pour former une rosace, dans un mouvement de précession du périhélie, le point de l’orbite le plus rapproché du Soleil (Figure 2). Einstein se souvient alors que l’astronome français Le Verrier avait mis en évidence en 1859 à l’Observatoire de Paris le fait que la planète Mercure (la plus proche du Soleil, et donc la plus fortement soumise à sa gravitation) exhibait un mouvement inexpliqué, en désaccord avec les lois de Kepler et de Newton. Einstein se jette sur ce problème et détermine ce que prédit sa propre théorie. Celle-ci explique exactement l’incohérence rapportée par Le Verrier. Einstein, d’après ce qu’il a lui-même rapporté, « est resté sans voix pendant plusieurs jours à cause de [s]on excitation » suite à cette toute première vérification expérimentale de sa nouvelle théorie, qui valide son travail acharné réalisé pendant la décennie qui précède. La mesure récente de l’équipe GRAVITY est la dernière vérification expérimentale de ce même effet, dans un contexte très différent.
Figure 2 – orbite d’une planète autour du soleil d’après la relativité générale. L’ellipse suivie par la planète se décale peu à peu, entraînant le périhélie dans un lent mouvement de précession indiqué par la succession des cercles bleus (très exagéré bien entendu sur ce schéma). (source : modifié à partir de Wikipedia – article apsidal precession).
Détecter la précession de Schwarzschild sur l’orbite de l’étoile S2 : GRAVITY
L’instrument GRAVITY du Very Large Telescope (VLT) de l’ESO a déjà été présenté dans l’Astronomie Magazine par deux articles de Guy Perrin (avril 2011, octobre 2016). Rappelons seulement ici qu’il s’agit de recombiner la lumière issue des quatre télescopes géants de 8 mètres de diamètre du VLT, afin de réaliser un interféromètre en longueur d’onde infrarouge. Cet instrument, qui a vu sa première lumière en 2016, permet ainsi d’atteindre une précision de 30 microsecondes d’angle dans la mesure du déplacement d’un objet sur le ciel. Il faut s’attarder un instant sur ce chiffre. Il s’agit de la taille angulaire d’un cheveu situé à Barcelone et vu depuis Paris… Cette stupéfiante précision a été cruciale dans la détection dont nous allons parler maintenant.
GRAVITY observe en particulier les abords du trou noir de 4 millions de fois la masse du Soleil qui se trouve au centre de notre Galaxie, Sagittarius A* (Sgr A* dans la suite). Cet objet compact est entouré d’un amas d’étoiles dont la plus proche, appelée S2, parvient à son péricentre à 120 unités astronomiques seulement du trou noir (la taille du système solaire environ, voir la Figure 3). A cette distance, des effets de relativité générale sur l’orbite sont attendus, et en particulier l’effet de précession du péricentre, le même que celui qui affecte Mercure autour du Soleil.
L’objectif de la collaboration GRAVITY était de mettre en évidence la précession du péricentre de l’étoile S2 autour de Sgr A*. On parle de précession de Schwarzschild pour préciser qu’on s’intéresse à l’effet obtenu près d’un trou noir considéré comme sans rotation, appelé trou noir de Schwarzschild. Cette dénomination fait référence au découvreur de cet objet, Karl Schwarzschild, qui publia la première solution de trou noir (sans savoir alors qu’il s’agissait de ce type d’objet exotique) en janvier 1916 (soit 2 mois seulement après qu’Einstein ait publié son propre article sur les équations de la relativité générale en novembre 1915).
Il convient d’insister sur le fait que, si l’effet observé par GRAVITY est le même que celui étudié par Einstein dès 1915, le contexte est entièrement différent. La détection de l’effet de précession du péricentre dans l’environnement proche d’un trou noir supermassif est une validation beaucoup plus puissante de la théorie que cette même validation dans l’environnement solaire.
Figure 3 – L’amas d’étoiles situé autour du trou noir supermassif sgr A* au centre de la Galaxie. L’étoile s2 observée par Gravity, la plus proche du trou noir, est entourée en rouge. (Gillessen et al. ,2009)
En quoi consiste la détection par GRAVITY
La détection d’un mouvement de précession du péricentre nécessite à la fois un suivi sur le très long terme de l’étoile S2 (qui a une période orbitale de 15 ans), et une précision de mesure extrême au moment du passage au péricentre. La très longue base temporelle a été rendue possible par les observations continues de S2 effectuées depuis 2002 par la caméra infrarouge NACO du VLT. Les données GRAVITY ont quant à elles permis de suivre avec une précision fantastique le passage de S2 à son péricentre en mai 2018. C’est vraiment la combinaison de ces deux jeux de données (avec l’ajout des données spectroscopiques obtenues par l’instrument SINFONI du VLT) qui a permis une détection claire cette année.
Une fois les données orbitales enregistrées par NACO et GRAVITY, il a fallu ajuster un modèle théorique d’orbite à la trajectoire de S2. L’équipe GRAVITY a utilisé une approximation de la relativité générale, le formalisme post-Newtonien, qui permet de simplifier le problème tout en conservant une précision suffisante pour le cas traité ici. La Figure 4 montre le résultat crucial de l’article récent de la collaboration GRAVITY. Le modèle post-Newtonien ajuste parfaitement les données, alors qu’un modèle n’incluant pas la précession de Schwarzschild est exclu. Une étude statistique précise a permis de démontrer que la détection de la précession de Schwarzschild peut être considérée comme décisive.
Figure 4 – Détection par Gravity de la précession de schwarzschild sur l’orbite de l’étoile s2. Les points de données en couleur cyan sont parfaitement ajustés par le modèle post- newtonien (approximation de la relativité générale complète, en rouge), alors qu’un modèle n’incluant pas la précession de schwarzschild (en bleu) est exclu. (Gravity collaboration, 2020)
De 1915 à 2020
Comme l’avait fait Einstein en 1915 pour Mercure, l’équipe GRAVITY a pu monter le parfait accord entre la prédiction de la relativité générale et la mesure de la précession de Schwarzschild de l’orbite de l’étoile S2. La Figure 5 compare une lettre d’Einstein portant sur son test de 1915 sur Mercure avec la formule de la précession de Schwarzschild utilisée dans l’article récent de la collaboration GRAVITY. C’est bien le même phénomène qui est étudié !
FIgure 5 – Texte d’einstein de 1915 relatif à la détection du mouvement de précession relativiste de mercure autour du soleil validant sa théorie. (en Médaillon) extrait de l’article de la collaboration Gravity mettant en évidence le même effet sur l’étoile s2 autour du trou noir supermassif au centre de notre Galaxie. Nous laissons à nos lecteurs les plus assidus le soin de montrer l’équivalence des deux formules.
Frédéric VINCENT | CNRS – Observatoire de Paris
par Sylvain Bouley | Jan 12, 2021 | Zoom Sur
La surface de la Terre se réchauffe. Et ce réchauffement est causé par l’accumulation depuis plus d’un siècle de gaz à effet de serre, tel que le CO2, émis par les activités humaines. Voilà près de 30 ans maintenant que ce résultat scientifique fait consensus dans la communauté des physiciens de l’atmosphère et du climat.
Bien sûr, ce résultat questionne aujourd’hui notre mode de vie et le fonctionnement même de notre société [1]. Car sans baisse radicale de nos émissions de gaz à effet de serre, et donc sans changement radical de nos modes de transport et consommation, la surface de la Terre pourrait se réchauffer de 3 à 5°C d’ici à la fin du siècle [2]. Les conséquences de ce réchauffement seraient dramatiques partout sur Terre. Montée des eaux, acidification des océans, modification des zones de précipitation conduisant à l’aridification de nombreuses terres, amplification des événements météorologiques extrêmes, etc.. Un sacré programme …
Modèle climatique du système « Terre »
La démonstration scientifique de ce réchauffement climatique a pour la première fois été proposée dans les années 1960 par le scientifique nippo-américain Syukuro Manabe à l’aide d’un modèle numérique de climat simplifié [3]. L’idée sur le papier est assez simple. À l’aide d’un programme informatique, on simule une Terre « virtuelle » sur un ordinateur en résolvant numériquement les équations physiques principales qui régissent le comportement de l’atmosphère de la Terre : les équations de la convection, de la thermodynamique, du transfert radiatif, etc. On réalise alors une première expérience numérique dans laquelle la quantité de CO2 est choisie égale à celle de la période pré-industrielle (autour de 300 ppm ou partie par million de CO2, c’est-à-dire 0,03% de CO2 dans l’atmosphère) ; puis une seconde dans laquelle la quantité est artificiellement augmentée (par exemple à 600 ppm pour un doublement de la concentration atmosphérique en CO2). Pour référence, la concentration moyenne de CO2 en 2019 est d’environ 410 ppm soit 0,041% [4]. On quantifie alors l’effet du CO2 sur la température moyenne à la surface de la Terre en comparant ces différentes expériences. Dès 1967, Manabe montrait avec son modèle numérique de climat très simplifié (fig. 1) qu’un doublement de la concentration en CO2 dans l’atmosphère de la Terre – par rapport à la période pré-industrielle – pouvait conduire à un réchauffement de la température moyenne de sa surface de l’ordre de 2,5°C.
À gauche se trouve un profil vertical de température tel que calculé dans le modèle de Manabe et Wetherald en 1967 [3], pour trois concentrations distinctes en CO2 (150, 300 et 600 ppm ; pour référence, la concentration moyenne de CO2 était d’environ 300ppm à l’aire pré-industrielle, et elle est d’environ 410 ppm en 2019). À droite se trouve un zoom de ce profil vertical de température entre 0 et 2 km. C’est la figure historique montrant pour la première fois, à l’aide d’un modèle d’atmosphère basé sur les composantes physiques majeures du système climatique terrestre (incluant à la fois le transfert radiatif, la convection et une description réaliste des rétroactions de la vapeur d’eau), que l’augmentation de la concentration de CO2 atmosphérique conduit à un réchauffement de la température de surface de la Terre.
Nous sommes maintenant en 2020, soit plus de 50 ans après l’expérience numérique originale de Syukuro Manabe. Si le résultat de cette expérience – c’est à dire que l’augmentation de la quantité de CO2 dans l’atmosphère conduit à un réchauffement important de la température de surface de la Terre – n’a dans le fond pas changé [2], les modèles numériques de climat – eux – ont considérablement évolué. Ces modèles, que l’on appelle maintenant GCM pour Modèle Global de Climat, simulent l’atmosphère de la Terre en trois dimensions et intègrent simultanément tout un ensemble de processus physiques et chimiques très complexes tels que : la mécanique des fluides, le transfert radiatif, la microphysique des nuages, la circulation océanique, l’écoulement des fleuves et rivières, la végétation, etc. Le but ultime de ces modèles est littéralement de prendre en compte simultanément l’effet de tous les processus qui pourraient avoir un impact – même très mineur – sur la surface et l’atmosphère de la Terre. En d’autres termes, le but est de reproduire sur ordinateur une Terre virtuelle qui se comporte de façon aussi proche que possible de notre vraie Terre dans la réalité. Cet effort est nécessaire pour comprendre au mieux l’impact climatique des émissions de CO2 liées à l’utilisation d’énergies fossiles, et ainsi informer les politiques et populations sur les mesures à prendre pour lutter et se préparer contre les conséquences de ce réchauffement climatique.
Les Modèles de Climat Global (GCM) font appel à l’expertise de dizaines de milliers de scientifiques partout dans le monde. Au Laboratoire de Météorologie Dynamique et à l’Institut Pierre et Simon Laplace (LMD/IPSL) où j’ai réalisé ma thèse de doctorat, plusieurs centaines de chercheurs travaillent main dans la main pour développer un tel GCM (fig.2). Pour vous faire une idée, le programme informatique de ce GCM compte près de 150 000 lignes de code, et plus de 40 ans d’expertise accumulée ! Une sacrée usine à gaz dont on doit pourtant comprendre et maîtriser tous les rouages.
Du système « Terre » aux autres planètes
Le GCM du LMD/IPSL a une spécificité quasi unique au monde. Des années 90 à aujourd’hui, il a été progressivement adapté pour étudier le climat de la planète Mars, puis des autres planètes du Système solaire, et enfin des planètes extrasolaires, c’est à dire des planètes qui tournent autour d’autres étoiles que notre Soleil. L’idée géniale ici est d’avoir su tirer avantage du fait que les lois et processus physiques et chimiques qui régissent le fonctionnement de l’atmosphère de la Terre sont basés sur des équations mathématiques universelles, qui sont les mêmes que l’on se trouve sur Terre, sur Mars ou bien sur une exoplanète. Tenez par exemple, les vents atmosphériques peuvent être tout aussi bien décrits par les équations de Navier Stokes de l’hydrodynamique que l’on soit sur Terre ou … sur l’exoplanète « Jupiter chaud » 51 Pegasi b2 ! Idem pour les équations de Clausius-Clapeyron de la thermodynamique, ou encore pour les équations du transfert radiatif.
Les équations de « Navier Stokes » de la mécanique des fluides permettent de décrire le mouvement des masses d’air de l’atmosphère. Elles permettent par exemple d’estimer l’intensité et la direction des grands courants atmosphériques tels que les alizées ou les vents d’Ouest.
Les équations de « Clausius-Clapeyron » de la thermodynamique permettent de décrire l’évolution de la pression de changement d’état d’un gaz en fonction de sa température. Elles permettent par exemple d’estimer les conditions pour lesquelles la vapeur d’eau présente dans l’atmosphère va se condenser, produisant ainsi des nuages et des précipitations.
Les équations du transfert radiatif permettent de décrire comment les gaz et nuages de l’atmosphère interagissent avec la lumière. Les gaz et nuages peuvent absorber la lumière, la réfléchir ou encore en émettre. Les équations du transfert radiatif permettent par exemple de comprendre comment un gaz comme le CO2 interagit avec la lumière, produisant ainsi un effet de serre.
Figure 2: Schéma simplifié illustrant les processus physiques et chimiques principaux qui sont modélisés dans le modèle de climat global (GCM) du LMD/IPSL pour simuler l’atmosphère de la Terre, des planètes du Système solaire et des exoplanètes. Les processus « sous-maille » (en 3) font référence à tous les processus qui ont lieu à des échelles spatiales trop petites pour être directement résolues par le modèle. Crédit : M. Turbet/N. Chaniaud.
Dans la pratique, l’idée a consisté à « hacker » c’est-à-dire adapter le programme informatique simulant la Terre, d’abord en y modifiant tous les paramètres qui lui sont propres (gravité, rayon, relief, niveau d’insolation, composition chimique de l’atmosphère, etc.) et ensuite en y adaptant la formulation de certains processus. Prenons l’exemple de Titan, une lune de Saturne, pour y voir plus clair. Si vous voulez simuler l’atmosphère de Titan, il faut d’abord adapter le GCM à la gravité de Titan (14% de la gravité terrestre), son rayon (40% du rayon terrestre), son niveau d’insolation (1% de l’insolation sur Terre), l’épaisseur et la composition chimique de son atmosphère (1,47 fois la pression de l’atmosphère terrestre ; atmosphère composée essentiellement d’azote N2, de quelques % de méthane CH4, et d’hydrocarbures plus lourds en quantité minoritaire), etc. Dans un second temps, il faut également adapter certains des processus. Titan possède en effet une atmosphère épaisse d’azote et de méthane qui est si froide que le méthane, l’éthane et d’autres hydrocarbures plus lourds peuvent s’y condenser. Oui, il pleut littéralement du pétrole sur Titan. Pour simuler le cycle hydrologique sur Titan (non pas de l’eau comme sur Terre, mais du méthane CH4, de l’éthane C2H6, et des hydrocarbures plus lourds), il convient donc d’adapter les processus thermodynamiques de condensation et précipitation de l’eau vers ceux du méthane, de l’éthane et des hydrocarbures plus lourds.
D’abord, les planètes du Système solaire
Ces Modèles de Climat Global (GCM) donnent aujourd’hui des résultats très satisfaisants. D’abord ils permettent de reproduire fidèlement le comportement de la plupart des atmosphères des planètes du Système solaire, notamment des planètes telluriques (Terre, Mars, Vénus), planètes naines (Pluton) et lunes (Titan, Triton) qui ont une atmosphère. Pour la petite histoire, le GCM du LMD/IPSL de la planète Mars est même utilisé par les grandes agences spatiales (Nasa, Esa, Agence Spatiale Chinoise, etc.) pour préparer les missions d’insertion en orbite et d’atterrissage sur la planète Mars3. Ces mêmes modèles de climat global peuvent également servir à faire de belles découvertes scientifiques, parmi lesquelles : la démonstration de l’origine du « cœur » de glace d’azote de Pluton [5] ; ou encore la démonstration que les périodes passées de forte obliquité sur Mars ont conduit à des cycles de climat glaciaires qui permettent d’expliquer pourquoi les régions proches de l’équateur de Mars sont couvertes de traces d’érosion glaciaire relativement récentes [6].
Pour les planètes géantes du Système solaire (Jupiter, Saturne, Uranus, Neptune), la tâche est un peu plus difficile. Notamment parce que pour simuler correctement la circulation atmosphérique de grandes planètes en rotation rapide4, il est nécessaire d’augmenter significativement la résolution spatiale des simulations numériques5 ce qui augmente considérablement la puissance de calcul nécessaire pour réaliser des simulations numériques 3-D. Toutefois, des résultats récents montrent qu’avec une puissance de calcul importante à disposition, il est possible de reproduire fidèlement les structures atmosphériques des planètes géantes du Système solaire [7].
Cette image illustre comment l’apparence et les couleurs de la face illuminée (face jour uniquement ; la face nuit n’est pas montrée) d’une exoplanète « Jupiter chaud » varient en fonction de sa température et de la composition de ses nuages, aussi exotiques soient-ils. Cette illustration a été réalisée à partir de simulations numériques 3-D [10] utilisant le SPARC/MIT GCM. Crédit : NASA/JPL-Caltech/University of Arizona/V. Parmentier.
Ensuite, les planètes extrasolaires
L’utilisation de modèles de climat global (GCM) a permis également de faire des avancées scientifiques majeures dans le domaine des exoplanètes. Appliqués aux plus grosses et chaudes planètes que nous connaissons – les « Jupiters chauds » –, ils ont permis de comprendre le fonctionnement de régimes de circulation atmosphérique exotiques (Figure 3). D’expliquer notamment comment la redistribution de chaleur s’opère au sein de l’atmosphère en fonction de l’insolation reçue par les planètes [8,9,10], et d’élucider par exemple pourquoi le point le plus chaud de certaines de ces exoplanètes est parfois largement décalé par rapport au point le plus irradié [8,9]. Appliqués aux exoplanètes de taille intermédiaire « super-Terre » ou « mini-Neptune », ces GCMs ont permis d’élucider pourquoi nombre de ces planètes semblent être couvertes d’une épaisse couche de nuages qui empêche nos télescopes de sonder en détail ce qu’il s’y cache [11]. Enfin, appliqués aux petites planètes tempérées – celles qui sont pour l’instant trop petites et trop froides pour être directement accessibles aux techniques de caractérisation d’atmosphère que nous avons à disposition – ces GCMs permettent d’identifier la gamme de toutes les compositions atmosphériques possibles. Cela permet d’être en mesure de reconnaître les différents types d’atmosphères des petites planètes tempérées lorsque ces observations seront un jour possibles [12].
Cartes de températures moyennes annuelles simulées sur Terre pour différentes insolations hypothétiques (1´, 1,09´ et 1,11´ le flux solaire actuel sur Terre) en utilisant le LMD/IPSL GCM [13]. Les insolations simulées correspondent respectivement à l’insolation actuelle, et celles estimées dans 850 et 1150 millions d’années. Crédit : J. Leconte.
Utiliser les exoplanètes pour mieux comprendre la Terre
Si toutes ces avancées scientifiques majeures dans la modélisation numérique des atmosphères des exoplanètes peuvent aujourd’hui voir le jour, c’est grâce à tout le travail réalisé depuis des décennies par les physiciens de l’atmosphère et du climat de la Terre et sur lequel elles s’appuient. Mon grand espoir, c’est celui de pouvoir un jour directement utiliser ce que l’on aura appris des exoplanètes pour aider en retour à mieux comprendre le fonctionnement et l’évolution du climat de la Terre.
Un peu comme on étudie les animaux pour en apprendre plus sur la médecine et le corps humain, étudier les exoplanètes permettrait de replacer la Terre dans un contexte plus large afin de mieux comprendre comment elle s’est formée, a évolué, et va évoluer. Avec l’avènement de nouvelles générations de télescopes et d’instruments ainsi qu’avec l’aide de techniques observationnelles toujours plus innovantes, cette idée pour l’instant un peu théorique – presque philosophique – va commencer à avoir des applications concrètes. Je vais essayer dans les lignes suivantes de vous le démontrer via un exemple sur lequel j’ai personnellement travaillé.
Pour cela, commençons par faire une expérience de pensée très simple. Imaginez que l’on prenne la Terre et la rapproche de quelques pourcents seulement du Soleil. L’augmentation du flux lumineux qu’elle reçoit va chauffer sa surface et donc augmenter sa température. Les océans et mers de la Terre, réchauffés, vont évaporer plus d’eau. La vapeur d’eau étant un puissant gaz à effet de serre, la température de surface de la Terre va continuer d’augmenter. Si le flux solaire reçu par la planète est alors suffisamment grand (autour de 10% de plus que le flux solaire actuel sur Terre [13]), il a été montré indépendamment par plusieurs équipes internationales que l’évaporation des océans devrait s’emballer jusqu’à leur assèchement complet [13,14,15]. Cela provient du fait que l’atmosphère très riche en vapeur d’eau est très opaque au rayonnement infrarouge thermique. La température de la surface doit alors augmenter jusqu’à plus de 1600°C pour pouvoir rayonner dans le visible où la vapeur d’eau laisse passer le rayonnement infrarouge, ce qui est nécessaire pour générer une source de refroidissement. On appelle ce mécanisme d’emballement le « runaway greenhouse » ou « effet de serre galopant ». Ce mécanisme est illustré par des simulations numériques sur la figure 4.
Dans 1 milliard d’années environ, la Terre recevra approximativement 10% de plus que le flux solaire actuel6, ce qui est en théorie suffisant pour que le mécanisme d’effet de serre galopant se mette en place … En fait, certaines études ont montré qu’une augmentation importante de la concentration de CO2 dans l’atmosphère de la Terre pourrait jouer le même rôle qu’une augmentation du flux solaire, et ainsi conduire également à un emballement de l’effet de serre de la vapeur d’eau [14]. Les quantités de CO2 nécessaires pour démarrer cet emballement sont certes en théorie bien supérieures aux prévisions d’émissions anthropiques de CO2 dans l’atmosphère de la Terre. Mais que faire pour en avoir le cœur net ?
Cartes de températures moyennes annuelles simulées sur Terre pour différentes insolations hypothétiques (1´, 1,09´ et 1,11´ le flux solaire actuel sur Terre) en utilisant le LMD/IPSL GCM [13]. Les insolations simulées correspondent respectivement à l’insolation actuelle, et celles estimées dans 850 et 1150 millions d’années. Crédit : J. Leconte.
À l’aide de modèles numériques de climat, j’ai montré très récemment avec mes collègues [15] que cette transition de l’« effet de serre galopant » peut conduire à une augmentation de la taille des planètes pouvant atteindre plusieurs centaines voire milliers de km (jusqu’à plusieurs dizaines de % du rayon de la planète) suite à l’expansion de leur atmosphère très chaude et riche en vapeur d’eau (fig. 5). Pour une planète similaire à la Terre, cette augmentation pourrait atteindre 500 km7. Cela provient d’abord du fait que l’atmosphère riche en vapeur d’eau serait alors beaucoup plus épaisse (d’un facteur 270 par rapport à l’atmosphère terrestre actuelle) ; et ensuite du fait que l’atmosphère serait beaucoup plus chaude donc beaucoup plus dilatée et étendue.
À mesure que l’on découvre un nombre significatif d’exoplanètes similaires à la Terre (en masse et taille), on va pouvoir commencer à tester l’existence et l’impact de l’« effet de serre galopant » sur ces exoplanètes. En particulier, comme l’illustre la figure 6, une augmentation statistiquement significative du rayon des exoplanètes de masse terrestre – à mesure que l’on augmente l’insolation qu’elles reçoivent au-delà de la limite théorique de l’effet de serre galopant ou « runaway greenhouse » – validerait non seulement l’existence du processus d’augmentation de rayon. Mais surtout, elle permettrait de mesurer l’insolation exacte à laquelle a lieu cet emballement. Cette mesure astronomique pourrait permettre – grâce aux exoplanètes – d’évaluer empiriquement à quel point la Terre est proche ou non de cette limite de l’effet de serre galopant. Afin d’avoir le cœur net sur ce qui attend notre Terre dans le futur.
Principe de la mesure statistique de l’effet de serre galopant. On place sur ce diagramme la position (insolation et rayon de la planète) connue de planètes de masse similaire à la Terre (par exemple de 0,5 à 2 masses terrestres. Ces planètes sont indiquées pour l’exemple par des croix noires (barres d’erreur fictives). Si une fraction significative des planètes de l’échantillon est riche en eau, et si le mécanisme d’augmentation de rayon par l’effet de serre galopant ou ‘runaway greenhouse’ de la vapeur d’eau est bien réel, on devrait observer une augmentation statistique (indiquée par la ligne rouge) du rayon des planètes plus irradiées que la limite de l’effet de serre galopant (indiquée par une ligne noire pointillée verticale), par rapport à celles qui le sont moins. Cette mesure astronomique pourrait permettre d’évaluer à quel point la Terre est proche ou non de la limite de l’effet de serre galopant.
Martin Turbet, Observatoire de Genève
Notes (en exposant dans le texte)
[1] Les curieux auront noté que la partie supérieure de l’atmosphère, quant à elle, décroit en température avec l’augmentation de la concentration du CO2. Dans cette partie de l’atmosphère, moins dense, les échanges d’énergie sont dominés par les échanges radiatifs. Le CO2 qui absorbe fortement dans l’infrarouge est également – d’après la loi du rayonnement de Kirchhoff – un très bon émetteur dans l’infrarouge. Dans la partie radiative/haute de l’atmosphère, l’ajout de CO2 va donc augmenter l’émission thermique de l’atmosphère, ce qui conduit à son refroidissement.
[2] 51 Pegasi b est la première planète extrasolaire à avoir été découverte (en 1995). Ce qui a valu entre autre aux astronomes suisses Michel Mayor et Didier Queloz le prix Nobel de physique 2019.
[3] Vous pouvez vous aussi l’utiliser en vous connectant sur http://www-mars.lmd.jussieu.fr/mcd_python/ (en anglais).
[4] La vitesse de rotation à l’équateur est environ 22 fois plus grande sur Saturne (et 27 fois sur Jupiter) que sur Terre.
[5] Il existe une échelle caractéristique – que l’on appelle « rayon de déformation de Rossby » – pour laquelle les effets de la rotation planétaire sont aussi importants que ceux de la gravité ou des forces de pression. Pour représenter correctement l’effet de la rotation planétaire (à l’origine des jets de Jupiter, par exemple ; ou encore de la circulation de Hadley sur Terre), il est nécessaire que la résolution spatiale d’une simulation numérique 3-D soit plus fine que le rayon de déformation de Rossby. La résolution spatiale (en km) doit donc être d’autant plus fine que la planète simulée est grande et tourne rapidement sur elle-même. D’où la difficulté à simuler correctement la circulation atmosphérique sur une planète comme Jupiter.
[6] Le mécanisme moteur qui permet au Soleil d’alimenter la Terre en énergie lumineuse est la fusion nucléaire. À mesure que les atomes d’hydrogène fusionnent, des éléments plus lourds comme de l’Hélium se forment. Au cours du temps, la proportion d’Hélium dans le cœur du Soleil augmente. Le noyau du Soleil devient de plus en plus dense et de plus en plus chaud. Les réactions nucléaires s’y font alors plus intenses. Résultat : La luminosité du Soleil augmente avec le temps et sera environ 10% plus grande d’ici environ 1 milliard d’années.
[7] Pour la comparaison, l’épaisseur typique de l’atmosphère terrestre est de ~10km, en fonction de la longueur d’onde/couleur à laquelle on l’observe.
Bibliographie
[1] Premier rapport d’évaluation du GIEC, 1990.
[2] Cinquième rapport d’évaluation du GIEC, 2014.
[3] S. Manabe & R.T. Wetherald, « Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity », Journal of Atmospheric Sciences Volume 24 (1967).
[4] Concentration de CO2 mesurée à l’Observatoire du Mauna Loa, à Hawaii (Etats-Unis), Scripps CO2 Program.
[5] T. Bertrand & F. Forget, « Observed glacier and volatile distribution on Pluto from atmosphere- topography processes », Nature Volume 540 (2016).
[6] F. Forget, R. M. Haberle, F. Montmessin, B. Levrard, & J. W. Head, « Formation of Glaciers on Mars by Atmospheric Precipitation at High Obliquity », Science Volume 311 (2006).
[7], A. Spiga et al., « Global climate modeling of Saturn’s atmosphere. Part II: Multi-annual high-resolution dynamical simulations », Icarus Volume 335 (2020).
[8] T.D. Komacek, A.P. Showman & X. Tan, « Atmospheric Circulation of Hot Jupiters: Dayside-Nightside Temperature Differences. II. Comparison with Observations », The Astrophysical Journal Volume 835 (2017).
[9] V. Parmentier & I.J. Crossfield, « Exoplanet Phase Curves: Observations and Theory », Handbook of Exoplanets, Springer International Publishing AG (2018).
[10] V. Parmentier et al., « Transitions in the Cloud Composition of Hot Jupiters », The Astrophysical Journal, Volume 828 (2016).
[11] B. Charnay, V. Meadows, A. Misra, J. Leconte & G. Arney, « 3D Modeling of GJ1214b’s atmosphere: Formation of inhomogeneous high clouds and observational implications », The Astrophysical Journal Letters Volume 813 (2015).
[12] M. Turbet et al., « The habitability of Proxima Centauri b. II. Possible climates and observability », Astronomy & Astrophysics Volume 596 (2016).
[13] J. Leconte, F. Forget, B. Charnay, R. Wordsworth & A. Pottier, « Increased insolation threshold for runaway greenhouse processes on Earth-like planets », Nature Volume 504 (2013).
[14] C. Goldblatt, T.D. Robinson, K.J. Zahnle & D. Crisp, « Low simulated radiation limit for runaway greenhouse climates », Nature Geoscience Volume 6 (2013).
[15] M. Turbet, D. Ehrenreich, C. Lovis, E. Bolmont & T. Fauchez, « The runaway greenhouse radius inflation effect. An observational diagnostic to probe water on Earth-sized planets and test the habitable zone concept », Astronomy & Astrophysics Volume 628 (2019).
par Sylvain Bouley | Jan 4, 2021 | Zoom Sur
25 Août 2016, 13h, journal télévisé de France 2 : « Notre planète a peut-être trouvé sa sœur jumelle » (découverte de Proxima b). Même son de cloche le 23 Juillet 2015, le 18 Avril 2014 (journal télévisé de TF1 : « Elle serait la cousine voire la sœur de la Terre » lors de la découverte de Kepler 186 f), le 6 Décembre 2011, et même dès le 25 Avril 2007. À chaque fois, de jolies illustrations, « vues d’artiste » même si ce n’est que rarement explicité. Que de nouvelles Terres donc !
Et pourtant, il faut bien reconnaître que si on y regarde de plus près, nous ne savons finalement que peu de choses sur les quelque 3500 exoplanètes découvertes à présent. Certes, en moins d’un quart de siècle, c’est réellement un tout autre univers que nous découvrons, peuplé de planètes en orbite autour d’une multitude d’étoiles, et peut être même toutes si nos instruments étaient assez performants même autour de l’étoile la plus proche de notre système, Proxima du Centaure.
Les deux méthodes principalement utilisées pour la détection d’exoplanètes (détection photométrique de transit et mesure de vitesse radiale par spectroscopie) ont donné des résultats excellents mais surprenants. Ces méthodes, complémentaires, ne peuvent être utilisées dans les mêmes conditions : la spectroscopie de précision permettant la mesure de vitesses radiales des étoiles requiert une instrumentation lourde et encombrante ; incompatible avec une exploitation facile dans l’espace, elle passe par l’utilisation de grands télescopes au sol. À l’inverse, la photométrie ultra précise, utilisée pour la détection de transit se prête facilement à la « spatialisation » : les détecteurs utilisés sont simples, assez robustes et leur mise en œuvre sur une sonde spatiale est donc une tâche maintenant assez routinière. C’est cette technique que va utiliser la mission PLATO de l’ESA, dont le lancement est prévu en 2026. D’autres missions spatiales, franco-européenne comme CoRoT (pionnière en matière de recherche d’exoplanètes grâce à la photométrie spatiale), ou américaines comme Kepler et TESS (lancée en Avril dernier), se fondent aussi sur cette technique. Mais alors, qu’apporte PLATO donc en plus de ces missions passées et présentes ? Puisque la technique choisie est utilisée depuis plus de 10 ans, on pourrait penser que cette mission n’est qu’une petite avancée et non un véritable pas en avant. En fait, l’importance de cette nouvelle mission réside dans ses objectifs qui ne sont pas seulement de détecter des exoplanètes, mais d’en connaître précisément les caractéristiques (rayon, masse, âge…) et ce pour un très grand nombre d’entre elles. De nombreuses détections, accompagnées de détails sur les exoplanètes découvertes ont été annoncées, mais les certitudes liées à la détection sont souvent mélangées uniquement à des spéculations sur l’allure de ces planètes. Plus précisément, on peut trouver l’estimation de la masse d’une de ces planètes, mais difficile de trouver l’incertitude qui affecte, par exemple, la valeur de cette masse. Et elle est parfois… astronomique. Sans parler de l’âge du système observé, dont on ne parle souvent pas faute de pouvoir en donner une valeur avec moins de 50% d’incertitude. PLATO s’est fixé comme objectif de précisément déterminer masse, rayon (donc masse volumique) et âge des planètes détectées. Il deviendra alors possible de dire, avec certitude et sans exagération ou spéculation, s’il existe des planètes comparables à la Terre, combien, et autour de quelles étoiles. Et par là même, de caractériser bien sûr les autres planètes, plus grosses, plus proches ou plus lointaines de leur étoile hôte, pour comprendre la diversité des systèmes observés.
Les missions antérieures
On peut donc se demander comment PLATO va procéder et pourquoi les missions précédentes n’ont pas fait de même. Il faut d’abord se replacer dans le contexte de ces missions passées. Dans les années 1990, les caméras capables d’observer des centaines de milliers d’étoiles avec une ultra haute précision photométrique deviennent facilement spatialisables. Elles ouvrent d’immenses possibilités dont celles de la mesure de la micro-variabilité des étoiles. On l’oublie souvent, c’est une petite mission canadienne nommée MOST qui a ouvert la voie. Tellement petite que son initiateur, Jaymie Matthews de l’université de Vancouver, la surnommait le Humble Space Telescope. Lancée en 2003 avec le soutien de la Canadian Space Agency, avec pour objectif des observations de photométrie stellaire (sans pour autant viser initialement à la détection d’exoplanètes), elle était équipée d’une instrumentation forcément moins performante que les missions qui suivront, mais c’était un début. Et la possibilité de détecter des transits planétaires devint un objectif qui n’était plus hors d’atteinte. Les premières véritables détections d’exoplanètes par la photométrie spatiale furent celles de la mission CoRoT, lancée en 2006. CoRoT était un projet international regroupant des pays européens ainsi que le Brésil, et mené par l’agence spatiale française, le CNES, avec l’appui scientifique de nombreux laboratoires de recherche en France et ailleurs. La NASA emboîta le pas de CoRoT avec la mission Kepler, avec les moyens que cette agence peut engager : elle fit une riche moisson d’exoplanètes (plus de 2000) entre son lancement en 2009 et son arrêt en octobre 2018. Toutes ces missions, qu’on pourrait appeler de première génération, avaient pour but principal la simple détection d’exoplanètes, ce qui représentait déjà un objectif ambitieux à l’époque. Elles n’ont pas été conçues dès l’origine pour les caractériser en masse, rayon et âge, paramètres indispensables pour maintenant comprendre la physique des systèmes observés. CoRoT et Kepler visaient à observer un très grand nombre d’étoiles (plus de 150 000) pour maximiser les chances de détection de planètes. Que ce soit avec un télescope de relativement petit diamètre comme CoRoT (moins de 30cm) ou plus grand comme Kepler (presque 1m), cela impose d’observer des étoiles peu brillantes dans un champ de vue restreint. C’est la faible luminosité de ces étoiles qui a limité la connaissance des planètes orbitant autour d’elles. Un transit planétaire permet de connaître le rayon de la planète selon la profondeur de ce transit. Celui-ci est proportionnel au carré du rapport du rayon de la planète sur le rayon de l’étoile. Et ce dernier est difficilement mesurable si l’étoile est peu lumineuse. D’où l’impossibilité de pouvoir toujours connaître précisément le rayon des planètes détectées par CoRoT et Kepler. Pour déterminer la masse de la planète, même limitation : elle est déterminée par des observations spectroscopiques depuis des observatoires au sol. Quand CoRoT et Kepler détectaient un transit, des programmes de suivi au sol (dit « follow-up ») commençaient, visant les étoiles hôtes. Mais si cette étoile est faiblement lumineuse, les observations spectroscopiques du sol seront difficiles. Il faudra recourir à des télescopes de grand diamètre (plusieurs mètres) : ceux-ci ne sont pas légion et sont déjà bien occupés à la poursuite d’autres objectifs astrophysiques.
Récapitulatif des différentes missions capables de détecter des exoplanètes, depuis les premières découvertes en 1990. De nouvelles découvertes et innovations continuent de nos jours.
Le concept de PLATO
PLATO a dès le départ intégré la contrainte de la caractérisation précise des étoiles hôtes pour pouvoir ensuite appliquer cette précision aux planètes, tout en étant ambitieux en termes de nombres de planètes détectées et donc caractérisées. Pour cela, le concept instrumental de PLATO est particulier : plutôt qu’un seul télescope de grand diamètre comme Kepler, PLATO s’appuie sur 24 télescopes de petit diamètre. Cela présente l’avantage de concilier une grande surface collectrice (24 fois celle d’un télescope unitaire) tout en conservant un large champ de vue sur le ciel du fait de la courte focale. Cette solution simple en apparence ne va pas sans quelques difficultés : il faudra recombiner les 24 images pour profiter pleinement de ce dispositif optique. Mais ce surcroît de complexité est largement compensé par la possibilité d’observer avec une bonne précision photométrique (car grande surface collectrice) un très grand champ qui va donc compter beaucoup d’étoiles, dont beaucoup d’étoiles brillantes. Le suivi au sol de ces étoiles sera donc facilité. Et PLATO, s’appuyant sur l’expérience des missions précédentes, intègre dès avant le lancement la stratégie d’observations au sol pour maximiser l’exploitation des données obtenues dans l’espace.
Illustration du design du satellite. Chaque petit télescope possède un même grand champ de vue et la surface collectrice est multipliée par l’addition des images collectées. (OHB System AG)
Un autre atout de PLATO repose aussi sur la luminosité plus grande des étoiles observées. Ce point apparemment assez anodin est en fait primordial. D’abord, cet aspect est à la base même de la conception de PLATO : l’architecture décrite précédemment permet une grande sensibilité photométrique grâce à la grande surface collectrice ainsi que l’observation d’une partie du ciel assez grande pour contenir beaucoup d’étoiles brillantes. En effet, celles-ci sont forcément moins nombreuses que les étoiles plus faibles, car plus proches. C’était le dilemme des missions précédentes : il fallait observer beaucoup d’étoiles pour maximiser les chances de détection de planète, mais cela impliquait de viser des étoiles plus faiblement lumineuses car beaucoup plus nombreuses dans un champ de vue donné. PLATO contourne donc cette difficulté avec son architecture particulière. Comme mentionné précédemment, les observations complémentaires depuis les télescopes au sol sont donc beaucoup plus aisées, mais cela présente aussi un autre avantage déterminant : la photométrie spatiale, en plus de détecter les transits planétaires va aussi pouvoir mesurer les variations de luminosité de l’étoile causées par ses oscillations internes, qui sont la base de la sismologie stellaire : elles sont dues à des ondes, par exemple acoustiques, qui se propagent dans toute l’étoile, du cœur à la surface où elles se manifestent par des variations de luminosité. Étant passées par tout l’intérieur de l’étoile, elles apportent une information sur les couches qu’elles ont traversées. Ainsi température, masse volumique et autres caractéristiques physiques internes (vitesse de rotation par exemple) deviennent accessibles car ces ondes y sont sensibles. Toute cette information peut être comparée à des modèles théoriques et numériques de l’étoile. Ces modèles dépendent en particulier de la masse de l’étoile ainsi que de son âge. Ainsi, la sismologie, en plus de sonder l’intérieur de l’étoile (c’est ainsi que l’on sait que la température au cœur du Soleil atteint les 15 millions de degrés), nous permet d’estimer l’âge d’une étoile, et par là celui des planètes qui se sont formées autour d’elle, à sa naissance ou peu après (à l’échelle de la vie d’une étoile). CoRoT et Kepler ont certes utilisé cette technique, mais étaient beaucoup plus limitées par la plus faible luminosité de leurs cibles. PLATO fera donc mieux, mais ne sera lancé qu’en 2026. Entre temps, d’autres missions aideront à paver le chemin, comme les missions CHEOPS (lancement prévu automne 2019, Cosmic Vision de l’ESA) ou TESS, qui vient juste d’être lancée en avril 2018 (mission Nasa, voir l’Astronomie ???).
Mais en quoi la mission PLATO va-t-elle faire mieux, ou autre chose, que les autres missions ? CHEOPS a pour but de se concentrer sur quelques étoiles cibles seulement, connues pour abriter une ou plusieurs planètes ; la mission complétera les connaissances sur ces exoplanètes dans le but d’avoir une connaissance approfondie de ces quelques systèmes. TESS au contraire vise à observer tout le ciel, en se concentrant sur des étoiles très brillantes. Cela implique d’autres choix : cela implique de ne consacrer que de courtes périodes d’observation (de l’ordre du mois) à une région donnée. En découle une forte limitation : l’impossibilité de détecter avec certitude des planètes dont la période dépasse le mois, et une limitation de la précision de la sismologie. Donc impossible de découvrir une jumelle de la Terre. PLATO va concilier précision sismique et durée d’observation suffisantes pour caractériser finement les systèmes observés, et ce dans tout le ciel. Car voilà où nous en sommes : des milliers d’exoplanètes autour de milliers d’étoiles, parfois dans des systèmes multiples… mais pas un qui ressemble au nôtre ! Et pas vraiment d’autre petite planète bleue comme notre bonne vieille Terre.
Que sait-on vraiment des exoplanètes ?
Comme toujours, l’être humain se situant au centre de l’Univers, au sens propre ou au figuré, les autres systèmes devaient ressembler au nôtre. Huit planètes, bien « rangées », 4 rocheuses près de l’étoile et 4 géantes gazeuses au loin, toutes sur des orbites à peu près circulaire (excentricité maximum : 0,21). On présente souvent le Soleil comme une étoile banale, mais il ne l’est pas tant qu’il n’y parait : il n’y a que 5% des étoiles de la Galaxie qui ont une masse comparable à la sienne. La vaste majorité des étoiles sont en réalité beaucoup moins massives, avec environ 85% des étoiles de la Voie lactée qui ont une masse inférieure à la moitié de celle du Soleil. D’autre part, les observations ont établi que les deux tiers des étoiles de masse similaire au Soleil sont des étoiles binaires : pour chaque point lumineux dans le ciel, on peut déterminer que, dans la moitié des cas, la source est une étoile isolée, ou bien, dans l’autre moitié des cas, la source est en fait un groupe de deux étoiles ou plus, liées par la force de gravité qu’elles exercent l’une sur l’autre.
Faute de connaître d’autres systèmes planétaires, on a longtemps pensé que ces propriétés n’avaient rien d’exceptionnel, et qu’elles devaient naturellement résulter des mécanismes responsables de la formation planétaire. Patatras ! dès la première exoplanète découverte, 51 Peg b, il est montré que c’est un « Jupiter chaud », planète géante en orbite proche de son étoile hôte. Et cela continue avec les détections suivantes : des milliers d’autres planètes avec une diversité de propriétés insoupçonnée.
Tout d’abord, sur les quelques 3500 exoplanètes recensées à ce jour, il est important de rappeler que seulement 750 environ ont une masse mesurée. Pour la vaste majorité d’entre elles donc, dont seul le transit périodique devant l’étoile a pu être observé, la nature planétaire est pour l’instant considérée vraisemblable, mais elle n’a pas pu être confirmée par des mesures indépendantes. On peut avoir une vue d’ensemble des planètes détectées grâce à la Fig.1 : elles se répartissent pour la plupart dans la partie supérieure gauche de la figure. Cela n’a certainement rien de réel mais est plutôt la conséquence des biais de détection. Il est beaucoup plus facile de détecter des planètes massives (partie supérieure de la figure) proches de leur étoile (partie gauche). Les planètes du Système solaire apparaissent, elles, plutôt dans la partie inférieure droite. S’il n’y a pas d’exoplanètes connues dans cette partie du diagramme, c’est toujours à cause de ces biais observationnels : détecter une Terre, peu massive, ou une planète loin de son étoile comme le sont Jupiter et Saturne n’est pas chose aisée.
Masses des planètes connues au mois d’avril 2018, en fonction de la distance à leur étoile. Pour certains systèmes, on n’a détecté qu’une seule planète en orbite autour de l’étoile, elles sont représentées en noir. Pour d’autres, on a pu détecter un cortège de plusieurs planètes, ces planètes sont représentées en violet sur la figure. Les planètes du Système solaire sont représentées en orange. (Cilia Damiani)
Les exoplanètes connues ne semblent cependant pas être uniformément réparties. On peut distinguer trois groupes, en fonction de leur masse (en unité de masse terrestre notée Mo) et de leur distance à l’étoile : les planètes de masses supérieure à environ 50 Mo à une distance inférieure à 0,1 UA de leur étoile (les Jupiters chauds) ; les planètes de masses supérieure à environ 50 Mo à une distance supérieure à 1UA de leur étoile (Jupiters froids); et les planètes de masses inférieures à environ 30 Mo, qui se trouvent sur un large intervalle de distances à l’étoile (dites super-Terres). Reste donc à PLATO à découvrir de véritables Terres, moins massives que ces super-Terres. Et répondre à bien d’autres questions à propos des systèmes exoplanétaires observés.
Tout d’abord, pourquoi observe-t-on de nombreuses planètes proches de leur étoile (en particulier des Jupiters chauds) mais pourquoi n’y en a-t-il pas dans notre propre Système solaire ? En principe rien ne s’oppose à ce que des planètes soient sur des orbites plus proches que celle de Mercure. La plus petite distance possible entre une planète et une étoile est la limite de Roche qui est déterminée par la force gravitationnelle de l’étoile. Cette force est d’autant plus grande que la distance entre la planète et l’étoile est courte. Plus précisément, l’intensité de cette force n’est pas la même en tous points du volume de la planète. Ce différentiel de force gravitationnelle ressentie par la planète en tous ses points induit des forces de marée. Les planètes, même telluriques, ne sont jamais parfaitement rigides, et le travail de la force de marée peut les déformer. Quand la planète est trop proche de son étoile, la force de marée devient si intense que la planète ne peut plus maintenir sa propre cohésion, la déformation est si grande que la planète se délite. Cette distance minimale en dessous de laquelle la planète ne peut maintenir sa cohésion est la limite de Roche. On peut estimer que cette distance est inférieure à 0,01 UA pour une planète de la masse de Jupiter (elle correspond à une période orbitale d’environ 12h). Or en examinant attentivement la figure 1, on s’aperçoit que les Jupiters chauds ne semblent pas exister à des distances inférieures, non pas à la limite de Roche, mais à deux fois cette valeur ! De plus, l’absence de planètes massives détectée sur des distances orbitales comprises entre 0,1 et 1 UA ne peut pas être expliquée par la destruction de ces planètes par la force de marée.
Quel mécanisme est donc responsable de cette occurrence singulière de planètes dans un intervalle très précis de distance orbitale ? Est-il possible que certaines conditions favorisent la formation de planètes massives tout près de leur étoile ? En l’état actuel des connaissances, il semble que ce ne soit pas le cas et même tout à fait l’inverse : les Jupiters chauds ne devraient pas pouvoir se former à la distance à l’étoile où ils sont observés ! Pour le comprendre il faut considérer le système dans ses tout premiers moments. L’étoile est alors encore entourée d’un important disque de poussière et de gaz, résidus de l’environnement dans lequel se trouvait la proto-étoile avant l’effondrement gravitationnel qui lui a donné naissance. Les planètes se forment à leur tour dans le disque à partir du gaz et de la poussière qu’il contient. Pour former une planète aussi massive que Jupiter, il faut qu’une quantité très importante de gaz puisse s’effondrer sur elle-même et se désolidariser du reste du disque. Or à la distance orbitale où on observe les Jupiters chauds, le gaz du disque est chauffé par l’énergie rayonnée par l’étoile, toute proche. Cette chaleur agite les molécules du gaz, ce qui rend leur accrétion dans un volume restreint plus difficile, voire impossible. On pense donc que les planètes géantes doivent se former loin de leur étoile, à une distance où le gaz est suffisamment froid. On peut estimer cette distance à quelques unités astronomiques, là où observe par ailleurs de nombreux Jupiters froids, comme le Jupiter de notre Système solaire. Mais alors s’ils se forment à plusieurs unités astronomiques, pourquoi observe-t-on des Jupiters si près de leur étoile ? Sauf à remettre en question radicalement ce qu’on sait des disques proto-planétaires, on doit envisager une phase de migration : il doit exister un mécanisme qui divise par dix, voire par cent, la distance entre la planète nouvellement formée et l’étoile. Cependant, ce mécanisme ne doit pas être efficace pour toutes les planètes géantes, puisqu’on observe tout de même beaucoup de Jupiters froids. Pour les super-Terres, le nombre de détection est encore trop faible pour tirer des conclusions fortes, mais la situation semble moins claire. Non seulement leur faible masse n’est pas incompatible avec une formation in situ, mais leur répartition uniforme sur un large intervalle de distances à l’étoile indique que le mécanisme de migration, s’il opère aussi dans ce domaine de masse, ne doit pas aboutir de la même façon… Devant tant de questions, une seule solution : essayer de collecter le maximum d’informations possible sur les propriétés de ces systèmes afin d’y voir plus clair !
D’autre part, des orbites excentriques et inclinées sont aussi possibles, qui pourraient expliquer les propriétés rencontrées des systèmes planétaires. En effet, quand on peut mesurer la masse et la distance à l’étoile des planètes, on obtient aussi d’autres propriétés des orbites. En particulier, on sait par la loi de la gravitation de Newton que les planètes possèdent des orbites elliptiques, qui peuvent, en toute généralité, avoir une excentricité e quelconque entre 0 (l’orbite est alors circulaire) et 1 (cas extrême d’une orbite parabolique). Si on observe bien un certain nombre de systèmes où les planètes semblent avoir des orbites circulaires, comme c’est le cas dans le Système solaire, on en observe aussi qui ont des orbites très excentriques (le record est pour l’instant détenu par HD80606b, dont l’excentricité vaut e = 0,93). Il semble toutefois que, dans les systèmes où on trouve plusieurs planètes, les valeurs de l’excentricité ne sont jamais aussi extrêmes. On suppose que cela résulte d’un effet de « sélection naturelle » : dans un système de plusieurs planètes, si les orbites des différentes planètes ne sont pas suffisamment espacées, les interactions gravitationnelles intenses les déstabilisent rapidement. De faibles excentricités assurent la stabilité dynamique du système, et ce sont ces systèmes qu’on peut observer. Néanmoins, on observe bien de fortes excentricités dans les systèmes ne comportant qu’une planète, sur une orbite proche, ce qui n’est pas attendu dans les théories classiques de formation planétaire, basées sur l’exemple du Système solaire. Ce pourrait donc être un marqueur du mécanisme de migration qui a amené la planète près de l’étoile. Un autre indice se trouve dans les inclinaisons planétaires, en fait l’angle formé par l’axe de rotation de l’étoile et la normale au plan orbital de la planète. Encore une fois, dans le Système solaire ces inclinaisons sont très faibles, mais on observe des dizaines de planètes sur des orbites très inclinées. Et encore bien d’autres propriétés étonnantes sont observées dans le ciel, comme des exoplanètes en orbite autour d’étoiles binaires. À la formation, les perturbations gravitationnelles provoquées par un compagnon stellaire devraient agiter le disque, ce qui complexifie le processus de construction planétaire par accrétion. Pourtant on connaît maintenant neuf planètes en orbite autour d’une binaire. Comme en science-fiction, certains mondes possèdent des couchers de soleil doubles.
Tout ceci bien sûr, remet en cause notre façon de concevoir les conditions de formation des systèmes planétaires, et donc des possibilités d’émergence de la vie. La quête d’une planète jumelle de la Terre n’a pas encore été fructueuse. On connaît bien des planètes dont la température de surface est compatible avec la présence d’eau liquide, ce qu’on appelle des planètes habitables, mais elles possèdent toutes des masses et des rayons bien supérieurs à celui de la Terre, et sont en orbite autour d’étoiles très différentes du Soleil. La Terre est-elle vraiment une planète sans semblable ? Une chose est certaine, les systèmes exoplanétaires présentent une remarquable diversité. Mais comme on l’a vu, ce sont surtout nos limitations instrumentales qui rendent cette jumelle si élusive.
Un avenir prometteur
Il s’agit donc maintenant de trouver des planètes jumelles de la nôtre et surtout d’expliquer le nombre que nous allons observer : sont-elles nombreuses, ou au contraire rarissimes ? Pour cela, c’est l’ensemble des systèmes qu’il faut comprendre, même les plus exotiques. Comment se sont-ils formés, comment ont-ils évolué, le nôtre est-il une exception ou juste banal ? Répondre à ces questions sera l’objectif de PLATO. La précision extrême des mesures fournie par PLATO ouvrira la voie vers l’étape suivante de la caractérisation planétaire : la détermination de la composition de la planète et de son atmosphère. Pour cela l’Agence Spatiale Européenne prépare déjà l’avenir avec la sélection récente de la mission qui succèdera à PLATO : ARIEL pour Atmospheric Remote-sensing Exoplanet Large-survey. Pour la première fois, celle-ci sera équipée d’instruments qui permettront de mesurer l’empreinte chimique des gaz présents dans les atmosphères des exoplanètes. ARIEL, de façon complémentaire à PLATO, nous permettra de comprendre comment les systèmes planétaires se forment et évoluent. Il sera alors possible de mettre notre système en contexte, et de le comparer aux autres systèmes connus, nos voisins dans la Galaxie. Que des planètes comme la Terre soient fréquentes ou non, ces voisins restent malgré tout très éloignés de la Terre. L’étoile la plus proche de la Terre possède une planète géante, mais en moyenne, les étoiles sont très éloignées les unes des autres et on détecte des exoplanètes jusqu’à des distances de centaines d’années lumières du Soleil. Les premières ondes radio diffusées par l’homme ne les ont probablement pas encore atteintes. Si on voulait envoyer une sonde pour les explorer, il faudrait atteindre un siècle entre une commande et le signal retour du satellite. Sans parler du temps qu’il faudrait à la sonde, qui voyage à des vitesses bien moindres que celle de la lumière, pour y parvenir ! Dans ces conditions, difficile d’imaginer la possibilité de visiter ou de s’installer sur ces mondes éloignés, au moins dans un futur proche. Comme l’écrivait Carl Sagan, « la Terre est une toute petite scène dans une vaste arène cosmique […] Pour moi, cela souligne notre responsabilité de cohabiter plus fraternellement les uns avec les autres, et de préserver et chérir le point bleu pâle, la seule maison que nous ayons jamais connue. »
Frédéric Baudin (IAS, Orsay) & C. Damiani (MPS, Göttingen)
par Sylvain Bouley | Jan 4, 2021 | Zoom Sur
Après la découverte d’environ 4 000 planètes extrasolaires, dont 656 systèmes planétaires multiples, nous sommes aujourd’hui forcés de conclure que notre Système solaire n’est pas du tout le système planétaire typique. Au contraire, notre système semble être assez particulier.
La plupart des planètes extrasolaires peuvent être classées en trois groupes. Il y a les Jupiters chauds, planètes de masse comparable à celle de Jupiter, mais très proches de leur étoile centrale. Leur période orbitale est de quelques jours seulement, et leur rayon orbital est de moins d’un dixième d’unité astronomique (UA – la distance moyenne Terre-Soleil). La température de leur atmosphère est donc extrêmement élevée, d’où le nom donné à ces planètes. Les Jupiters chauds sont relativement faciles à détecter. Il n’est donc pas étonnant qu’on les ait découverts en grand nombre. Mais en réalité, ils sont assez rares. On estime que seulement 1 % des étoiles de type solaire ont un Jupiter chaud autour d’elles. Le gros de la population des planètes géantes rentre dans le deuxième groupe, celui des Jupiters tièdes. Comme leur nom l’indique, ces planètes sont plus éloignées de l’étoile centrale que les Jupiters chauds. Le rayon de leur orbite est de l’ordre de 1-3 UA. Environ 10 % des étoiles de type solaire ont des Jupiters tièdes. Mais ces planètes sont néanmoins assez différentes de Jupiter. Tout d’abord, elles sont plus près de l’étoile. Elles se trouvent plutôt à la place des planètes telluriques ou de la ceinture des astéroïdes que de celle de notre Jupiter dans le Système solaire. Le nombre de planètes géantes semble décroître avec la distance au-delà de 2-3 UA, même après la prise en compte des biais observationnels, alors que l’orbite de Jupiter est à 5,2 UA et celle de Saturne à 9,7 UA. De plus, la plupart des orbites des Jupiters tièdes sont fortement excentriques, alors que les orbites de nos planètes géantes sont presque circulaires. Tout au plus 10 % des Jupiters tièdes auraient des orbites comparables à celle de Jupiter, quant à leur distance et à leur excentricité. Le troisième groupe de planètes extrasolaires est celui des super-Terres. Celles-ci sont des planètes de masse intermédiaire entre celle de la Terre et celle d’Uranus ou Neptune. Des planètes subterrestres ont aussi été trouvées, mais en général autour d’étoiles plus petites que le Soleil : elles sont donc « super-Terres » quant à leur masse relative. Les super-Terres ont aussi des orbites très petites, typiquement plus petites que l’orbite de Vénus, voire de Mercure, et souvent comparables à celles des Jupiters chauds. À la différence des Jupiters tièdes, les orbites des super-Terres sont relativement circulaires. De plus, alors que les planètes géantes extrasolaires tendent à être seules (des systèmes avec deux ou plusieurs planètes géantes existent, mais ils sont rares), les super-Terres appartiennent souvent à des systèmes multi-planétaires (fig. 2). On estime qu’environ 50 % des étoiles possèdent des super-Terres.
La distribution des planètes extrasolaires, avec les groupes des Jupiters chauds, Jupiters tièdes et super-Terres mis en évidence. Les planètes de notre Système solaire sont indiquées en rouge, pour comparaison.
Nous n’avons pas encore découvert un système analogue à notre Système solaire. En revanche, si l’on place nos planètes dans un diagramme distance-masse comme celui de la figure 1, nos planètes tombent dans une région dépourvue de planètes extrasolaires. Cette constatation ne doit pas tromper : il est très difficile de découvrir autour d’autres étoiles des planètes comme les nôtres, si petites et relativement lointaines de l’astre central. L’absence d’exoplanètes avec des caractéristiques semblables à celles de nos planètes est donc le résultat d’un biais observationnel. Cependant, il est vrai que la plupart des étoiles ont des planètes avec des caractéristiques qui n’ont pas d’analogues ici : super-Terres, Jupiters chauds, Jupiters sur orbites excentriques, etc. Ces systèmes sont donc clairement différents du Système solaire. Cet argument peut être quantifié. La seule planète du Système solaire qui aurait pu être découverte par un observateur extrasolaire ayant une technologie comparable à la nôtre est Jupiter. Si l’on veut comprendre la place du Système solaire dans la Galaxie, on doit donc pour le moment se borner à se demander quelle est la fréquence statistique du couple Soleil-Jupiter. Seules 10 % des étoiles sont de type solaire. Parmi celles-ci, seules 10 % ont un Jupiter tiède. Mais parmi ces Jupiters tièdes, seulement 10 % ont une orbite comparable à celle de Jupiter, comme nous l’avons vu ci-dessus. En faisant le produit, on trouve que la probabilité d’occurrence du couple Soleil-Jupiter n’est que de 0,1 % ; cela ne fait pas beaucoup. Et le Système solaire est bien plus complexe que le simple couple Soleil-Jupiter. Par exemple, seulement 50 % des étoiles n’ont pas de super-Terres, à l’instar du Soleil, ce qui réduit la probabilité encore de moitié. Selon des études récentes, seules 10 % des étoiles n’auraient pas de planètes à l’intérieur de l’orbite de Mercure, ce qui réduit la probabilité d’existence du Système solaire à moins de 0,01 %.
Pourquoi le Système solaire a-t-il acquis une structure si atypique ? Comment est-il possible que, à partir des mêmes processus physiques, il y ait in fine une telle diversité de systèmes planétaires ? Ces questions sont au cœur de la planétologie moderne.
Un schéma du système de super-Terres Kepler-62, avec les tailles des orbites et les rayons planétaires à l’échelle par rapport au Système solaire interne
La première chance
Selon nos études et les modèles que nous avons développés, la clef de voûte du Système solaire est Jupiter. La formation précoce de Jupiter a structuré l’ensemble de notre système. On pense en effet que les planètes commencent à se former dans un endroit spécifique du disque protoplanétaire appelé la « ligne des glaces », là où la température – qui décroît avec la distance – passe en dessous des ~170 K et où l’eau se condense sous forme de glace. La présence de glace augmente la quantité de matière solide disponible et permet l’agrégation de poussières assez grosses, de quelques centimètres de diamètre, bien plus faciles à accréter par les planètes en formation que les poussières submillimétriques typiques du disque chaud interne. La ligne des glaces est donc la fabrique des grosses planètes. Mais les planètes interagissent gravitationnellement avec le disque, ce qui induit leur migration vers l’étoile : leur orbite ne se referme plus comme une ellipse parfaite, mais spirale vers l’étoile centrale (voir l’encadré en bas de page). Les planètes formées sur la ligne des glaces migrent donc vers le bord interne du disque dès qu’elles atteignent quelques masses terrestres. C’est sans doute le mode d’origine d’une bonne partie des super-Terres, celles riches en glaces. La première chance du Système solaire a été que la première planète produite sur la ligne des glaces fût suffisamment massive pour accréter une grande quantité de gaz du disque protoplanétaire et devenir ainsi une planète géante : Jupiter.
La présence simultanée de Jupiter et Saturne perturbe fortement le disque de gaz. La couleur rouge vif montre la zone à haute densité du gaz et la couleur bleue la zone partiellement appauvrie. À cause de cette distribution de densité, dominée par un disque interne massif, la migration vers l’étoile de Jupiter et Saturne s’arrête ou s’inverse.
La deuxième chance
Une planète comme Jupiter migre beaucoup plus lentement que les super-Terres. Sauf exceptions, elle migre de la ligne des glaces natale vers environ 1-2 UA (la distance typique des Jupiters tièdes) pendant la durée de vie du disque protoplanétaire. La présence d’une telle planète géante a un double effet. Tout d’abord, elle intercepte le flux des poussières se dirigeant vers le disque interne, ce qui limite la matière disponible pour la croissance des planètes à l’intérieur de son orbite. Ainsi, dans le Système solaire, les protoplanètes à l’intérieur de l’orbite de Jupiter ont acquis une masse comparable à la masse de Mars pendant la vie du disque. À cause de leur petite masse, ces protoplanètes n’ont pas migré significativement. Lors de la disparition du disque, par une série d’impacts mutuels, elles ont donné naissance aux planètes telluriques que nous connaissons. Si Jupiter n’avait pas été là, le flux de poussières aurait continué pendant toute la vie du disque. Les protoplanètes du système interne auraient grandi davantage et, par conséquent, auraient commencé à migrer vers le bord interne du disque. Le résultat de ce processus aurait été la formation d’un système de super-Terres rocheuses, aussi observées autour de nombreuses étoiles. Le deuxième effet de la formation de Jupiter est que cette planète retient au-delà de son orbite les planètes qui se forment après elle sur la ligne des glaces. Comme un camion sur une route de montagne, difficile à doubler même par une voiture sportive, Jupiter peut difficilement être « doublé » par les autres planètes. Celles-ci sont devenues Saturne, Uranus et Neptune. Sans Jupiter, ces planètes – moins massives et donc en migration plus rapide – auraient sans doute atteint le bord interne du disque en balayant au passage la région des planètes telluriques. Jupiter, cependant, n’a pas atteint par migration une orbite à ~1 UA, à l’instar de beaucoup d’autres Jupiters tièdes. Cela aurait été dramatique pour notre futur ! On le doit à la deuxième chance du Système solaire : la formation de Saturne. Le rapport des masses entre Jupiter et Saturne est idéal pour ralentir la migration vers l’étoile de ces deux planètes, par l’effet d’un jeu d’interactions mutuelles (fig. 3). Sous certaines conditions, ces planètes peuvent même inverser leur sens de migration, en repartant vers l’extérieur. On pense que c’est à cause de cet effet que Jupiter est si loin du Soleil, par rapport aux Jupiters tièdes. Autant de bonheur pour la Terre, qui a donc pu continuer lentement sa croissance sans être dérangée par ce grand frère si encombrant.
Les orbites des quatre planètes géantes (Jupiter en rouge, Saturne en blanc, Uranus en bleu et Neptune en magenta) à la fin de la phase de migration dans le disque protoplanétaire, selon les simulations de ce processus. Les flèches indiquent le déplacement orbital nécessaire pour atteindre les orbites actuelles. Selon le modèle de Nice, ce changement orbital se produit lors d’une phase d’instabilité dynamique.
La troisième chance
La troisième chance du Système solaire est d’avoir préservé les orbites presque circulaires de ses planètes. Les planètes sont toutes supposées se former sur des orbites circulaires, mais nous avons vu que la plupart des planètes géantes extrasolaires ont une orbite fortement excentrique. On pense que l’acquisition de l’excentricité est due à une phase d’instabilité dynamique après la disparition du disque protoplanétaire, pendant laquelle les planètes d’un même système présentent des rencontres proches mutuelles : par conséquent, elles se dispersent, certaines planètes sont éjectées dans l’espace interstellaire, d’autres se percutent. La (ou les) planète(s) survivante(s) se retrouve(nt) ainsi sur une (des) orbite(s) excentrique(s). Nous pensons que les planètes géantes de notre Système solaire ont eu aussi leur phase d’instabilité. En effet, leur mouvement de migration aurait dû les placer sur des orbites très rapprochées et résonantes, c’est-à-dire avec des périodes orbitales en rapport de nombres entiers. Par exemple, Jupiter aurait accompli 9 tours autour du Soleil pendant que Saturne en faisait 6, Uranus 4 et Neptune 3. Cette configuration orbitale est bien différente de celle actuelle (voir la fig. 4). Les orbites actuelles sont bien plus espacées, et il n’y a aucune relation de résonance entre les périodes orbitales des planètes. Ce changement de structure orbitale est bien expliqué par une phase d’instabilité du système, comme montré par le modèle dit de Nice (car développé à l’observatoire de la Côte d’Azur). Le modèle de Nice explique non seulement les orbites actuelles des planètes, mais aussi toute la distribution des petits corps du Système solaire (astéroïdes, comètes, objets transneptuniens, Troyens et satellites). Il laisse donc peu de doutes qu’une telle instabilité ait eu lieu. Mais pourquoi, alors, les orbites de nos planètes sont-elles si circulaires si elles ont été instables ? Selon les simulations, cela est dû au fait que, par pure chance, lors de l’instabilité, Jupiter et Saturne n’ont pas eu de rencontres proches mutuelles. Ces planètes ont eu des rencontres avec Uranus ou Neptune, qui les ont faiblement perturbées à cause de leur moindre masse, mais pas entre elles. Si des rencontres entre Jupiter et Saturne avaient eu lieu, le système planétaire aurait été complètement dispersé, laissant Jupiter sur une orbite d’excentricité comparable à celle de la plupart des Jupiters tièdes (fig. 5). L’excentricité de Jupiter aurait eu une énorme répercussion sur l’excentricité des planètes telluriques. L’orbite de la Terre serait également devenue très excentrique, avec des conséquences vraisemblablement néfastes sur son habitabilité.
L’orbite de Jupiter (point bleu) à la fin de la phase d’instabilité des planètes géantes dans deux simulations du modèle de Nice, l’une exhibant des rencontres proches entre Jupiter et Saturne et l’autre pas. Dans le premier cas, l’excentricité finale de l’orbite de Jupiter est comparable à celles des Jupiters tièdes, illustrés par des points rouges, dont la taille est proportionnelle à leur masse. Dans le cas sans rencontres avec Saturne, l’excentricité finale de Jupiter est comparable à son excentricité actuelle, mais elle est anormalement faible par rapport à celles des planètes géantes extrasolaires.
Pour conclure, il semble que le Système solaire doive sa structure actuelle, qui a permis l’émergence d’une Terre habitable, à au moins trois événements chanceux : la formation précoce de Jupiter, la formation de Saturne et l’absence de rencontres proches entre ces deux planètes lors de leur évolution dynamique. Il est difficile d’estimer la probabilité de chacun de ces événements, mais elle n’est sans doute pas grande. Et la probabilité que les trois événements se produisent en série est le produit des probabilités de chaque événement individuel. Nulle surprise donc que le Système solaire représente tout au plus 0,01 % des systèmes planétaires de la Galaxie. Nulle surprise aussi que nous habitions dans un système si particulier, dont la structure est essentielle pour abriter une planète réellement habitable. Mais si tout cela est vrai, l’implication est stupéfiante : la vie est rare dans la Galaxie.
La recherche de la vie extrasolaire va certainement se développer avec des moyens de plus en plus puissants et il est juste qu’il en soit ainsi : ce ne serait ni la première ni la dernière fois que les prévisions des théoriciens seraient fausses. Mais ne nous attendons pas à des résultats positifs à court terme.
Alessandro Morbidelli | Observatoire de la Côte d’Azur
La migration planétaire
Une planète immergée dans un disque de gaz perturbe le fluide par sa propre gravité. La distribution du gaz s’en trouve affectée. Plus particulièrement, une onde de surdensité en forme de spirale est lancée depuis la position de la planète, comme illustré sur la figure ci-contre.
La distribution du gaz dans le disque, qui désormais n’a plus une symétrie axiale, exerce maintenant une force de gravité non nulle sur la planète. Cette force freine la planète sur son orbite, qui perd donc de l’énergie et du moment cinétique et s’approche de l’étoile centrale. Puisque la perturbation exercée par la planète sur le disque est proportionnelle à la masse de celle-ci, la décélération subie par la planète à cause de l’onde spirale est aussi proportionnelle à sa masse. La vitesse de migration augmente donc linéairement avec la masse de la planète. Dans un disque protoplanétaire « typique », la vitesse de migration d’une planète de masse terrestre à 1 UA est de 5 UA par million d’années.
Quand la planète atteint une grande masse, typiquement une trentaine de masses terrestres, elle commence à ouvrir un sillon dans le disque le long de son orbite. Ce sillon est de plus en plus profond pour des masses planétaires croissantes. La figure ci-contre est obtenue pour une planète de la masse de Jupiter.
La planète doit alors se déplacer avec son sillon. Donc, sa vitesse de migration ne peut pas excéder la vitesse de déplacement radial du gaz. Celle-ci est typiquement plus lente que la vitesse de migration d’une planète qui commence à ouvrir un sillon. Par conséquent, la vitesse de migration décroît avec la masse de la planète pour plafonner, pour des planètes très massives, à la vitesse du déplacement radial du gaz. Les planètes qui ont la vitesse de migration maximale sont celles de 20-30 masses terrestres, semblables à Uranus ou Neptune.
par Thierno Ousmane BA | Oct 4, 2020 | Zoom Sur
Camille Flammarion, né en 1842 et décédé le 3 juin 1925, aura été un vulgarisateur hors pair. Astronome passionné et passionnant, boulimique de savoir et doué d’un véritable talent littéraire, il mettra pour la première fois la lecture d’ouvrages d’astronomie à la portée du grand public, avec l’aide de son frère, le non moins célèbre éditeur Ernest Flammarion. C’est encore maintenant un vrai bonheur de se replonger dans la lecture des ouvrages majeurs comme l’Astronomie populaire ou bien Les Terres du ciel, ou encore dans les articles des premiers numéros de la revue L’Astronomie créée justement à l’initiative de Camille Flammarion. Lire l’Astronomie populaire, c’est redécouvrir l’étendue déjà incroyable des connaissances de l’époque, mais aussi mesurer l’immense bond en avant que l’Homme a accompli en à peine plus d’un siècle dans la connaissance des mondes qui nous entourent.
Figure 1 – Les canaux de Mars
Dans Les Terres du ciel, un ouvrage de 800 pages paru pour la première fois en 1877 puis réédité en 1884, Camille Flammarion dresse un bilan exhaustif des connaissances de l’époque sur les planètes du Système solaire et de leurs conditions d’habitabilité. Il est en effet convaincu que la vie foisonne dans l’Univers.
Si certaines hypothèses peuvent maintenant nous paraître complètement obsolètes, comme la présence possible d’une vie intelligente sur Mars à l’origine d’un immense système de canaux d’irrigation (figure 1), il est frappant de voir la pertinence de certaines de ces gravures anciennes, qui résonnent comme un lointain écho aux fabuleuses images que nous rapportent nos missions spatiales actuelles.
La planète Mars revêt une importance toute particulière dans la vie et dans l’œuvre de Flammarion. Il lui consacrera 210 pages des Terres du ciel, puis les deux volumineux tomes La Planète Mars et ses conditions d’habitabilité, parus en 1892 et 1909. Quelle ne serait pas son excitation s’il pouvait participer avec nous à l’extraordinaire aventure des sondes en orbite et des rovers tels que Curiosity arpentant la surface de Mars ! Comme dans le cas de la Lune, Flammarion imagine : « Quel est l’aspect de l’Univers, vu de cette station voisine ? Les habitants de Mars n’habitent pas plus le ciel que nous, et nous l’habitons comme eux, ni plus ni moins. Comment voient-ils la Terre ? […] Les astronomes de cette planète peuvent observer la Terre parmi les constellations, comme nous observons Vénus. Ainsi, par exemple, les revues astronomiques de Mars ayant à annoncer à leurs lecteurs le mouvement de la planète Terre dans le ciel pendant l’année 1884, auront publié la figure précédente (fig. 2), que nous avons pu du reste calculer nous-même sans aller sur Mars. »
L’image de la Terre sur cette figure (fig. 2), qui montre la précision des prédictions astronomiques effectuées par Flammarion, la sonde américaine Mars Reconnaissance Orbiter l’a réalisée ! Belle confirmation de la prédiction…
Figure 2 – À gauche : aspect de la Terre vue de Mars (juin 1884). À droite, la Terre photographié depuis l’orbite martienne par l’instrument HiRISE de la sonde Mars Reconnaissance Orbiter.
Si la Terre apparaît au télescope comme un croissant dans le ciel, « vue de Mars, dès le coucher du Soleil, la Terre brille dans le ciel comme une étoile… ». Là encore, nos sondes spatiales actuelles, Spirit, Opportunity, puis Curiosity, vont immortaliser cette magnifique vue de la Terre dans le ciel de Mars. Curiosity parviendra même à distinguer la Lune, dans son cliché pris par la caméra Mastcam le 31 janvier 2014, alors que la Terre est située à 160 millions de kilomètres de Mars (fig. 6). La gravure de Flammarion représente une rivière au premier plan. Curiosity lui, ne verra qu’un désert aride, mais un désert qui a gardé les traces géologiques indiquant la présence dans un lointain passé de lacs alimentés par des rivières.
Figure 3- A gauche: Gravure des Terres du ciel : « Vue de Mars, dès le coucher du Soleil, la Terre brille dans le ciel comme une étoile… » A droite : La Terre, photographiée par le rover Curiosity dans le ciel de Mars, apparaît comme un point double…
Quels sont les phénomènes astronomiques que les astronomes de Mars peuvent observer ? Suite à la découverte des satellites de Mars Phobos et Deimos en 1877 par l’astronome Asaph Hall, Camille Flammarion imagine dans ses Terres du ciel à quoi peut ressembler une éclipse de Soleil sur Mars. Les calculs des tailles respectives (~6000 km pour Deimos et ~2000 km pour Phobos) et des distances à la planète sont remarquablement proches des vraies valeurs. Il nous dit : « Quelquefois on peut voir ces deux lunes, arrivant des deux parties opposées du ciel, s’avancer l’une vers l’autre, se rencontrer et s’éclipser partiellement ou totalement. D’où il résulte qu’indépendamment des éclipses de lune produites par le passage des satellites dans l’ombre de la planète, éclipses analogues à celles qui se présentent sur notre monde, il y a sur Mars des éclipses inconnues à la Terre : celles d’un satellite par l’autre, celles du second satellite par le premier. […] Ainsi Phobos peut éclipser totalement Deimos, et cela très facilement. Mais il ne peut jamais éclipser totalement le Soleil de Mars, dont le diamètre moyen est de 21 minutes. Lorsque la combinaison des mouvements célestes l’amène devant l’astre du jour, il peut se produire une éclipse annulaire du genre de celle qui est représentée ici (figure 4) , à laquelle peut s’ajouter le passage du second satellite devant le Soleil, sous la forme d’un petit disque noir. »
Figure 4 – Ci-dessus : Une éclipse de Soleil par les deux lunes de Mars imaginée par Flammarion. En dessous : Une éclipse de Soleil par Phobos, observée par le rover Spirit le 10 février 2005. (NASA/JPL/Cornell)
Camille Flammarion aborde régulièrement les questions de société dans ses ouvrages, et n’hésite pas à s’enflammer : « Lorsque l’on songe aux progrès réalisés dans notre seul xixe siècle, chemin de fer, télégraphes, applications de l’électricité, photographie, téléphone, etc., on se demande quel serait notre éblouissement si nous pouvions voir d’ici les progrès matériels et sociaux que le vingtième, le vingt et unième siècle et leurs successeurs réservent à l’humanité de l’avenir. L’esprit le moins optimiste prévoit le jour où la navigation aérienne sera le mode ordinaire de circulation ; où les prétendues frontières des peuples seront effacées pour toujours ; où l’hydre infâme de la guerre et l’inqualifiable folie des armées permanentes seront anéanties devant l’essor glorieux de l’humanité pensante dans la lumière et dans la liberté ! » Eh bien, il nous reste encore un peu de chemin pour y parvenir… Puisse-t-il avoir un jour raison !
Stéphane Le Mouélic, Lab. de planétologie et géodynamique de Nantes
par Thierno Ousmane BA | Oct 4, 2020 | Zoom Sur
La mission InSight du programme Discovery de la NASA est la première mission planétaire à faire d’un sismomètre (SEIS, instrument français) son instrument principal. InSight doit explorer la structure et l’activité de l’intérieur de Mars, dans l’espoir de reconstituer l’histoire de sa formation et de découvrir son activité sismique actuelle. En apparence, étudier la météorologie de Mars n’est pas le but premier de la mission InSight.
Figure 1 – Vue d’artiste de la station InSight dans un environnement typique d’une matinée sur Mars, avec un dust devil passant à proximité. Reproduction d’un dessin original de l’artiste Manchu, utilisé avec permission sous le copyright IPGP/Manchu/Bureau 21.
A la fin des années 70, les atterrisseurs Viking se sont posés à la surface de Mars et ont permis, grâce à leurs instruments météorologiques, de découvrir depuis la surface l’activité de l’atmosphère de Mars en deux endroits distincts de la planète. Le but principal des missions Viking était d’explorer l’environnement martien et son habitabilité. En complément, à titre purement expérimental, les sondes Viking embarquaient un sismomètre. L’analyse s’est révélée difficile : les sismomètres Viking ont surtout enregistré une forte contribution atmosphérique au signal sismique.
Atmosphère et bruit sismique capturé par InSight
Les capteurs météorologiques sont en fait une composante essentielle au succès de la mission InSight. Pourquoi ? L’échec relatif des mesures Viking nous renseigne par l’exemple. A moins d’enterrer complètement un sismomètre dans le sous-sol martien, ce qui requerrait une instrumentation d’une masse bien supérieure à ce que l’on peut acheminer sur Mars à l’heure actuelle, toute expérience géophysique sur Mars doit composer avec le signal sismique indésirable excité par l’atmosphère. Les variations de température atmosphérique augmentent le niveau de bruit du sismomètre, le vent qui souffle fait vibrer la sonde InSight sur la surface de Mars, causant des ondes sismiques capturées par le sismomètre, et les variations de pression atmosphérique exercent une force qui déforme la surface, donc provoque également des perturbations sismiques. Les variations causées par la turbulence atmosphérique, qui se développent sur des échelles de temps inférieures à la minute, sont les plus à même de causer du bruit sismique atmosphérique.
La première stratégie d’InSight pour limiter ces perturbations indésirables de l’atmosphère est de recouvrir le sismomètre d’une cape rigide protectrice. La seconde stratégie est de déterminer de la manière la plus précise et complète possible les variations de l’atmosphère afin d’évaluer le bruit sismique qu’elles causent et de nettoyer, autant que faire se peut, le signal sismique mesuré à la surface de Mars de l’indésirable signal atmosphérique. Cette technique porte le nom de décorrélation de pression et nécessite des mesures de la pression atmosphérique de fine précision et haute fréquence (20 mesures par seconde). Le capteur de pression embarqué sur InSight possède donc des caractéristiques inédites par rapport aux capteurs de pression précédemment envoyés sur Mars. Il est de plus associé à deux capteurs de température et de vents (nommés TWINS) qui vont sonder l’activité atmosphérique en continu pour évaluer les périodes (au cours de la journée, au cours de l’année) pendant lesquelles il est opportun de réaliser les meilleures mesures sismiques.
InSight est donc autant une station géophysique qu’une station météorologique. Pour faire des mesures sismiques révélant la structure et l’activité interne de Mars, il faut d’abord nettoyer ces mesures du bruit atmosphérique, comme l’on nettoierait une frise de cathédrale couverte de boue pour en apprécier tous les détails. Est-ce là la seule utilité des capteurs météorologiques d’InSight ? Evidemment non. On peut prendre la boue et en faire de l’or, comme disait Charles Baudelaire.
Explorer l’atmosphère de Mars avec InSight
Plusieurs capteurs météorologiques, mesurant pression, vents, température, ont été embarqués sur des robots à la surface de Mars (Viking, Pathfinder, Phoenix, Curiosity) répartis dans plusieurs régions caractéristiques de la planète rouge. Ces mesures météorologiques passées ont été d’une importance capitale pour comprendre à la fois le climat de Mars et son cycle des poussières, de l’eau et du dioxyde de carbone. L’analyse de la météorologie depuis la surface est parfaitement complémentaire des observations spatiales depuis l’orbite de Mars. Une station météorologique à la surface de Mars est une excellente méthode pour obtenir des séries temporelles complètes de pression, température, vents, ce dont les orbiteurs sont incapables. En contrepartie, les orbiteurs donnent un contexte global et régional aux mesures d’un atterrisseur ne donnant accès qu’à une seule région très localisée de la planète.
La nécessité, pour interpréter les mesures sismiques, d’observer en continu l’atmosphère est un des grands atouts d’InSight par rapport aux précédentes mesures météorologiques à la surface de Mars, qui avaient toutes des trous dans la couverture temporelle pour des raisons diverses et variées. En pratique, InSight va donc permettre de manière inédite de suivre au cours des saisons les variations de vent, température et pression causées par les circulations à grande échelle dans l’atmosphère de Mars : cellules de Hadley (courants lents faisant circuler chaleur et espèces chimiques d’un hémisphère à l’autre), ondes atmosphériques planétaires, cycle de condensation / sublimation du CO2 atmosphérique en des calottes saisonnières. A tout moment pendant la mission, si survient un phénomène d’ampleur, telle une tempête de poussière très étendue, InSight pourra enregistrer tous les soubresauts atmosphérique associés à ce phénomène. Equipées de caméras couleur, l’atterrisseur InSight permettra également un suivi de l’activité dans l’atmosphère dans la région de son site d’atterrissage : charge en poussière dans l’atmosphère, présence de nuages de glace d’eau, brouillard matinal, évolution des dépôts de poussière à la surface sous l’effet de l’érosion éolienne.
Figure 2 – Des nuages détectés sur Mars par la sonde Opportunity
InSight sera en fait un complément très intéressant à la mission Curiosity qui embarque des capteurs de vents et de température similaires à ceux d’InSight. Le rover Curiosity est situé à seulement 400 km au sud du site d’atterrissage d’InSight, donc le contexte météorologique de grande échelle est similaire entre les deux missions. En revanche, Curiosity fait des acquisitions météorologiques à l’intérieur du cratère Gale, où l’influence régionale de la topographie sur les vents est considérable. Comparer les mesures des deux missions permettra donc, via InSight, de mieux évaluer le contexte atmosphérique global dans lequel elles se trouvent toutes les deux ; et, en négatif, expliquer les nombreux phénomènes météorologiques associés à la topographie dans les mesures de Curiosity.
Une autre caractéristique intéressante des mesures météorologiques d’InSight est l’acquisition haute fréquence. Le capteur de pression est de ce point de vue particulièrement performant, mais il en est également de même dans une moindre mesure pour les capteurs de vent et température. InSight sera donc particulièrement bien équipé pour évaluer la variabilité rapide, turbulente de l’atmosphère proche de la surface de Mars. InSight pourra enregistrer avec précision les nombreux tourbillons et cellules convectives qui passent au cours de la journée, lorsque le sol chauffé par le soleil provoque des instabilités convectives à proximité de la surface. La vitesse du vent peut y varier très vite, causant un soulèvement des fines particules de poussière de la surface vers l’atmosphère. Lorsque ces poussières sont entrainées dans un tourbillon convectif, cela donne naissance aux dust devils, fines colonnes de poussière caractéristiques observées dans les déserts terrestres et sur Mars. InSight sera même équipé, contrairement aux campagnes précédentes, de capteurs d’une fréquence si haute qu’il sera potentiellement possible de décrire en détail comment l’énergie turbulente de l’atmosphère se dissipe en de minuscules tourbillons. Ce phénomène universel existe sur Terre comme sur Mars, mais ses échelles caractéristiques diffèrent dans l’atmosphère très ténue de Mars.
Un point de vue original sur l’atmosphère de Mars
La combinaison de mesures sismiques et de mesures météorologiques est un avantage indéniable d’InSight, qui rend sa façon d’étudier l’atmosphère de Mars particulièrement originale. Premier exemple, les dust devils précités (et, en fait, tous les tourbillons convectifs, qu’ils transportent de la poussière ou non) seront détectés par les capteurs météorologiques, mais également par le sismomètre car la chute abrupte de pression qu’ils impliquent déforme la surface. Autrement dit, les tourbillons convectifs atmosphériques causent des micro-séismes. InSight sentira ainsi passer de tels phénomènes depuis beaucoup plus loin que s’il avait été simplement une station météorologique. L’instrumentation d’InSight peut donc permettre d’étudier une surface plus grande autour de l’atterrisseur que les missions précédentes.
Deuxième exemple, toute perturbation un peu soudaine dans l’atmosphère (par exemple, un impact de météorite ou, moins rarement, un vent soufflant sur une montagne ou un cratère), jour ou nuit, cause l’émission d’ondes de gravité dans l’atmosphère, analogues des ondes causées en jetant un caillou dans un étang calme. Ces ondes qui révèlent la variation de température et de vent suivant la verticale ont une signature à la fois météorologique et sismique. InSight pourra donc les détécter depuis la surface pour la première fois. Les impacts de météorite devraient d’ailleurs être plus directement repérés par l’émission d’infrasons que le capteur de pression d’InSight sera capable de détecter.
Au final, s’il n’est pas certain qu’InSight révolutionne la science atmosphérique martienne, la mission va permettre une vision nouvelle et originale des phénomènes atmosphériques martiens, avec une possibilité de découvertes inattendues, permises par des capteurs à la couverture temporelle et la précision inégalées à la surface de Mars. InSight est donc un jalon important pour connaître l’environnement dans lequel évolueront les futures missions martiennes, robotiques ou humaines. La mission InSight préfigure d’ailleurs, très probablement, des campagnes de mesure avec des réseaux de multiples stations météorologiques / géophysiques à la surface de Mars.
Aymeric SPIGA, Chercheur LMD/IPSL
COAUTEURS: ■ DON BANFIELD, Senior Scientist à Cornell University, USA ■ JOSÉ-ANTONIO RODRIGUEZ-MANFREDI, chercheur au Centro de AstroBiologia (CAB), INTA, Espagne ■ FRANÇOIS FORGET, directeur de recherche CNRS au Laboratoire de météorologie dynamique (LMD) / Institut Pierre-Simon-Laplace (IPSL) à Paris ■ PHILIPPE LOGNONNÉ, directeur de recherche à l’Institut de physique du globe de Paris (IPGP).