LE MAGAZINE DES SCIENCES DE L’UNIVERS EN AFRIQUE
La physique des étoiles à neutrons révélée par les pulsars

La physique des étoiles à neutrons révélée par les pulsars

Samedi 25 mars, Jocelyn Bell Burnell a reçu à Paris le prix Jules-Janssen 2022 de la Société astronomique de France. En 1967, Jocelyn Bell préparait une thèse en radioastronomie sous la direction d’Antony Hewish. Sans l’avoir cherché, elle découvrit un signal d’un genre encore jamais observé, et qu’elle analysa. C’était le premier pulsar ; il fut baptisé CP 1919. Sa découverte allait prouver l’existence des étoiles à neutrons, objets de spéculations rigoureuses remontant aux années 1930, mais à l’observation desquelles tous les astronomes avaient renoncé. Nous allons montrer ici le lien entre les étoiles à neutrons et les pulsars.

 

 

Dans les livres d’initiation à l’astronomie, il est très courant de décrire les étapes de l’existence d’une étoile comme celles d’une vie : elles commenceraient par naître, subir une sorte d’enfance, puis une vie d’adulte plus routinière mais active, et finissant par mourir. Dans les cours d’astronomie, les auteurs emploient plutôt les mots formation, évolution, catastrophes, et phase de dégénérescence. Mais parfois, dans le résumé d’un chapitre, le parallèle biologique peut revenir soudain avec une phrase comme : « Les étoiles de grande masse initiale finissent leur vie en supernovas [1]. » Pourquoi pas ? Mais de quoi parle-t-on en évoquant la mort ? Pour un animal, un humain, c’est une cessation totale d’activité, suivie, sauf dans de rares cas, d’un recyclage complet de la matière l’ayant composé, au bénéfice d’autres êtres vivants. D’un mort il ne reste rien sur Terre, sinon des souvenirs, et éventuellement une descendance.

Alors, si l’on fait ce parallèle, quand une étoile meurt-elle ?

 

Représentation de l’évolution d’une étoile en la comparant à celle d’un être vivant avec les phases de naissance (birth), vieillesse (old age) et mort (death). Selon cette terminologie, pour les étoiles de masse initiale supérieure à 8 masses solaires (massive stars), les étoiles à neutrons sont les restes (remnant) d’une étoile morte. Pourtant, ces restes présentent une activité observable parfois plus longtemps que celle de l’étoile lorsqu’elle était dans la séquence principale. (R.N. Bailey – CC BY 4.0, Wikimedia)

 

La mort nucléaire d’une étoile

Les étoiles dont la masse dépasse huit fois celle du Soleil brillent à peine plus de 20 ou 30 millions d’années. C’est peu en comparaison des dix milliards d’années attendues pour une étoile comme le Soleil. En effet, plus les étoiles sont massives, plus leur matière est comprimée sous leur propre poids, et moins leurs épaisses couches de matière empêchent le cœur de refroidir. Leurs régions internes sont donc très denses et chaudes, et cela favorise l’accomplissement rapide d’une succession de réactions nucléaires.

Les premières réactions qui font passer l’étoile de l’obscurité à la lumière transforment l’hydrogène en hélium. Ce faisant, elles libèrent de l’énergie sous forme de rayonnement gamma. Comme l’étoile est opaque, cette lumière de très haute énergie s’échappe difficilement des régions internes, ce qui fait monter la température. D’autres réactions nucléaires deviennent alors possibles. L’hélium se transforme en carbone, en azote, en oxygène. Ces réactions exigent des températures plus élevées, mais elles produisent aussi plus d’énergie par nouvel atome produit. à chaque fois, l’énergie libérée chauffe de plus en plus l’étoile. La pression est de plus en plus forte et pousse la matière vers l’extérieur. Si l’étoile a une masse de plus de huit fois celle du Soleil, le poids de l’étoile suffit à équilibrer les forces de pression. Bien que l’étoile passe par des phases de gigantisme où la pression l’emporte un peu sur la gravité, le cœur continue de chauffer, toujours écrasé sous la même masse de matière. Alors, l’hélium se transforme par fusion nucléaire en carbone, lui-même transformé en oxygène ; enfin, d’autres réactions nucléaires plus exigeantes en énergie permettent la fabrication d’éléments plus lourds, comme du silicium, de l’aluminium, et d’autres métaux.

La dernière étape est la formation de noyaux d’atomes de fer qui est un élément thermonucléairement inerte. Aucune libération d’énergie ne va plus dès lors s’opposer au processus de contraction du noyau. Les réactions nucléaires qui pourraient permettre de produire des atomes plus massifs que le fer libèrent moins d’énergie qu’elles n’en demandent. Alors, sous leur effet, la matière refroidit. En conséquence, les conditions de température exigées pour la poursuite des réactions nucléaires ne sont plus remplies et les réactions nucléaires cessent. Il n’y a donc plus de production de chaleur, ce qui diminue la pression. Sous l’effet de son propre poids qui n’est plus compensé par une pression suffisante, l’étoile commence à s’effondrer.

Il s’ensuit une explosion que l’on nomme « supernova ». Et comme cette explosion commence par l’effondrement de l’étoile sous son poids, ce sont les forces de gravitation qui initient le processus. On désigne donc cet événement comme une « supernova gravitationnelle ».

C’est à ce stade que le noyau de l’étoile massive se transforme en étoile à neutrons.

C’est aussi là que dans la métaphore avec le vivant, on fait mourir l’étoile. Pourtant, comme nous le verrons, ce qui reste après une supernova gravitationnelle n’est pas seulement la fin d’une histoire, ni un simple souvenir.

Mais pour comprendre d’où vient cette idée d’étoile à neutrons, faisons un saut de cent ans en arrière.

 

La découverte du neutron

James Chadwick (1891-1974), physicien atomiste anglais, travaillait à Cambridge sous la direction d’Ernest Rutherford. Rutherford avait découvert le proton en 1919, dont la masse était correctement estimée à environ 1 836 fois celle de l’électron.

On savait aussi qu’un atome est composé d’un noyau contenant des protons, entouré, bien plus loin, d’un cortège d’électrons ; or, la masse du noyau excède de beaucoup celle de ses protons. Par exemple, un noyau d’hélium a une masse proche de 4 (en masses de protons) mais seulement 2 protons. Il manque en masse l’équivalent de deux protons.

Fallait-il renoncer à la conservation de la charge, en considérant un noyau d’hélium formé de 4 protons, soit 2 protons « normaux » et 2 protons en plus annihilant leur charge ? Une autre solution moins révolutionnaire, proposée entre autres par Rutherford, supposait la présence de particules neutres dans le noyau. Chadwick les appela les neutrons. Il restait à les découvrir, et à les caractériser. Chadwick reprit une expérience menée par d’autres physiciens quelques années auparavant, et réalisa ce programme. Il publia en 1932 un article sobrement intitulé : « Possible Existence of Neutron ». En 1935, cette découverte lui valut le prix Nobel (lire l’encadré 1).

Mais bien avant 1935, seulement quelques mois après la publication de l’article de Chadwick, des astronomes se demandèrent si l’existence d’une étoile entièrement constituée de neutrons serait possible.

La découverte du neutron

Chadwick s’intéressa à une expérience initialement menée en 1930 par Walter Bothe* et Herbert Becker, où du béryllium est bombardé par des noyaux d’hélium issus du rayonnement cosmique. On avait constaté que les rayons cosmiques arrivant sur des éléments légers émettent des rayonnements « ultra-pénétrants », c’est-à-dire dont les effets se font sentir même à travers plusieurs centimètres de matière solide. Chadwick allait caractériser ces rayonnements. Ces derniers activent des réactions nucléaires. Quelle était leur nature ? Irène et Frédéric Joliot-Curie (1931)** développèrent une théorie supposant des rayons gamma de 50 MeV. En 1932, Chadwick reprit l’expérience. Avec l’hélium et le béryllium, les collisions produisent un noyau de carbone, et ce fameux rayonnement inconnu. Chadwick conclut de son étude que ces « rayonnements » étaient en fait des particules neutres (les neutrons), et la réaction observée était la suivante : 4He + 9Be → 12C + 1 neutron. Cette formule a le mérite de conserver le nombre de protons, le nombre de neutrons, de conserver la charge électrique. Son bilan énergétique permit à Chadwick de conclure que la masse des neutrons est 1,001 masse du proton, donc à peine supérieure à celle du proton. Il montra aussi que le neutron n’est pas la réunion d’un proton et d’un électron (comme le serait une sorte d’atome d’hydrogène ultra-compact), mais bien une particule en soi***.

* Lauréat du prix Nobel de physique en 1954. – ** Tous deux lauréats du prix Nobel de chimie en 1935. – *** Si un proton était la somme d’un électron et d’un proton, sa masse serait inférieure à la somme des deux masses – une partie de celle-ci étant prise par l’interaction entre les deux particules. Mais en fait, la masse du neutron est supérieure à celle des deux particules isolées. Après l’expérience de Chadwick, on a découvert que la fusion d’un proton et d’un électron produit un neutron plus un neutrino. Le neutrino de cette réaction est une autre manière de se convaincre que le neutron n’est pas la simple somme d’un proton et d’un électron.

 

Le cœur dégénéré des étoiles froides

Les années où l’on découvrit l’existence du neutron furent aussi celles où l’on posa les fondements de la physique quantique. La physique quantique permit de mettre en évidence deux grandes familles de particules, les bosons dont font partie les photons, et les fermions dont font partie les électrons, les protons et les neutrons ainsi que les neutrinos. Or, les fermions sont des particules qui doivent toutes être dans un état différent ; autrement dit, il n’y a pas deux neutrinos dans tout l’Univers qui soient dans le même état. Un état étant caractérisé par leur énergie, leur position et leur spin, il est impossible d’empiler un nombre quelconque de fermions (d’énergie finie) dans un petit espace (lire l’encadré 2).

Notons une propriété plutôt contre-intuitive : les fermions les plus légers sont ceux qui réclament le plus d’espace. Ainsi, l’espace qui permettra d’empiler N électrons devra être plus grand que l’espace permettant d’empiler N neutrons. Dans une étoile, lorsqu’elle refroidit quand il n’y a pas de réactions nucléaires pour la chauffer, cela prend une grande importance. En effet l’étoile ne s’effondre pas totalement puisque les fermions qui la constituent s’opposent à ce que toute la matière soit rassemblée dans un minuscule volume.

En raison de cette impossibilité, les assemblées de fermions (solides, liquides ou gazeuses) réagissent comme si elles étaient soumises à une force de pression pouvant devenir très forte quand on atteint de hautes densités. Cet effet est une pression, mais elle n’est plus contrôlée par la température. Elle dépend principalement de la densité des fermions les plus légers. On l’appelle la pression de Fermi, et la matière contrôlée par la pression de Fermi est dite « dégénérée ».

Considérons par exemple une étoile de masse semblable au Soleil, qui aurait cessé son activité nucléaire. La matière tombe vers le centre, augmentant sa densité, jusqu’à ce que la pression de Fermi devienne importante. Ce sont les électrons, les plus exigeants en espace, qui contrôlent cette pression. Donc, pour une étoile dégénérée comme le deviendra le Soleil, on atteint sous l’effet de la pression de Fermi des électrons une densité d’environ une tonne par centimètre cube. Les étoiles régies par la pression de Fermi des électrons sont bien connues des astronomes : ce sont les naines blanches, que les astronomes ont découvertes dans les années 1910. L’explication de leur extrême densité et du rôle de la pression de Fermi des électrons fut donnée par l’astronome britannique Ralph Fowler en 1927.

Mais voilà qu’au début des années 1930, un étudiant indien de Fowler, Subrahmanyan Chandrasekhar, décida d’appliquer les lois de la relativité restreinte aux naines blanches. Il découvrit qu’au-delà de 1,4 masse solaire, la pression de Fermi ne peut contrer les forces de gravité. Le physicien soviétique Lev Landau [2] découvrait indépendamment la même limite en 1932. Au-delà de cette masse, l’étoile doit s’effondrer. Mais en quoi ?

L’astronome (génial) qui régnait alors sur l’astronomie britannique, Sir Arthur Eddington, n’était pas convaincu de l’effondrement des naines blanches au-delà de 1,4 masse solaire. Il fit cette remarque demeurée célèbre, lors d’un congrès en 1935 : « Je pense qu’il doit exister une loi de la nature qui empêche une étoile de se comporter de façon aussi absurde. »

Cependant, d’autres physiciens s’étaient convaincus, suite à la découverte de Chadwick, qu’en éliminant les électrons, la nature pourrait former des gaz comportant uniquement des neutrons. Ce serait un gaz neutre, donc dépourvu de forces électriques, mais contrôlé par la pression de Fermi. Et comme celle-ci permet de mettre plus de neutrons dans un même volume, un gaz de neutrons serait beaucoup plus dense. Ainsi, l’on pourrait former des étoiles extrêmement denses composées uniquement, ou presque, de neutrons.

En 1932, Lev Landau s’était demandé si le cœur des étoiles, même les plus normales, pourrait être constitué d’un tel gaz de neutrons. La découverte quelques années plus tard des réactions nucléaires opérant au sein des étoiles lui donna tort. Mais si les bonnes idées meurent quelque part, elles renaissent souvent ailleurs. En 1934, deux astronomes travaillant aux États-Unis, Walter Baade et Fritz Zwicky, écrivirent un article très court, sans démonstration, où ils proposaient qu’il existerait des étoiles uniquement composées de neutrons, qu’elles seraient la phase ultime de l’évolution stellaire, que les supernovas seraient la transition entre les étoiles normales et les étoiles à neutrons, et (cerise sur le gâteau) que les supernovas seraient à l’origine des rayons cosmiques. Géniale intuition : bien que rien ne fût prouvé dans cet article, l’histoire allait montrer que les auteurs « avaient tout bon ».

Les particules qui se laissent empiler, et celles qui résistent

Les fondations de la mécanique quantique ont mis en évidence deux familles de particules, les bosons et les fermions. Elles se distinguent en pratique par leur capacité à « se laisser empiler ». Plus précisément, on considère les caractéristiques possibles des particules : leur vitesse ou leur énergie, leur position, et une grandeur qui ne se manifeste qu’en mécanique quantique : l’orientation de leur spin. Le spin, c’est comme si les particules étaient de minuscules toupies, et l’orientation du spin caractériserait leur axe de rotation. Par ailleurs, le spin de chaque particule a une valeur bien déterminée. Par exemple, 0 pour les photons, et 1/2 pour les électrons, les protons… et les neutrons. Cette valeur de spin est très importante, et les physiciens ont donné le nom de « bosons » aux particules ayant un spin entier, comme le photon, et le nom de « fermion » aux particules à spin demi-entier. La théorie de la mécanique quantique et les expériences montrent qu’il peut exister plusieurs bosons ayant exactement les mêmes caractéristiques. Donc, on peut en mettre beaucoup, avec la même énergie au même endroit. Par exemple, on peut (avec des lasers) avoir de grandes concentrations de photons ayant à peu près tous la même énergie. En revanche, il ne peut y avoir deux fermions ayant exactement les mêmes caractéristiques. C’est la propriété importante qui les distingue des bosons. On nomme souvent cette propriété « le principe d’exclusion de Pauli ». Il ne peut y avoir deux fermions au même endroit avec la même énergie, avec la même orientation de spin. Comme l’orientation de spin peut prendre deux valeurs, en considérant des neutrons de faible énergie, on ne peut pas en empiler un nombre infini dans un petit espace.

 

Comment une étoile peut-elle être formée majoritairement de neutrons ?

Une étoile normale est formée d’atomes. Ceux-ci contiennent des protons, des neutrons et des électrons. Comment cela peut-il donner à la fin une étoile formée seulement de neutrons ?

Sous l’effet des pressions formidables que subissent les étoiles dont le cœur dépasse la masse fatidique de Chandrasekhar de 1,4 masse solaire, il se produit une réaction au cours de laquelle un proton et un électron fusionnent, pour produire un neutron et un neutrino. Le neutrino est une particule extrêmement légère, électriquement neutre, soumise seulement à l’interaction faible.

Les supernovas gravitationnelles, comme mentionné au début du présent article, caractérisent le moment où ces réactions ont lieu. La majorité des neutrons soumis à l’effet de leur masse, à l’écrasement par la matière de l’étoile qui continue à leur tomber dessus et à des interactions de type nucléaire avec d’autres neutrons, restent dans l’étoile. En revanche, les neutrinos s’échappent. Il reste donc à la fin une étoile majoritairement formée de neutrons. On l’appelle donc simplement « une étoile à neutrons ».

Bien entendu, une étoile massive et dense comme une étoile à neutrons est soumise à des effets de gravitation extrêmement forts. Or, depuis 1916, on savait que dans le régime de gravitation forte, il faut renoncer à la théorie classique de Newton, mais appliquer la relativité générale d’Einstein. Alors, trois physiciens, Richard Tolmann, Robert Oppenheimer (le futur directeur du programme de la bombe atomique américaine) et George Volkoff, posaient les équations de l’équilibre d’une étoile sphérique uniquement composée de neutrons, dans le régime de la relativité générale. Ils les publièrent en 1939, ainsi que les solutions qu’ils obtenaient. On les considère toujours comme valides, et on les nomme les équations TOV, initiales des noms des trois auteurs. Les solutions qu’ils trouvaient donnaient une densité en effet assez proche de la densité du noyau atomique. D’un point de vue astronomique, c’était cependant assez décevant : une étoile à neutrons ne pouvait excéder 0,7 masse solaire (limite révisée depuis), et une telle étoile tiendrait dans une sphère d’une dizaine de kilomètres de rayon. Or, la luminosité d’une étoile, si elle dépend de la puissance 4 de sa température, est aussi proportionnelle à sa surface. Une si petite étoile a une surface minuscule. Même chauffées à quelques millions de degrés, les étoiles à neutrons s’avéraient inobservables avec les télescopes de l’époque.

Les étoiles à neutrons entrèrent donc dans le placard des idées théoriques un peu folles et invérifiables expérimentalement. On les plaçait même, vu leurs propriétés incroyables et excessives, sur l’étagère des monstres. Puis la Seconde Guerre mondiale donna aux physiciens des occupations plus urgentes (et monstrueuses également). Quelques années plus tard, même avec la fin de cette guerre, les étoiles à neutrons demeuraient hors du champ des préoccupations des astronomes « normaux[3] ».

Le sujet survivait cependant, avec des chercheurs comme John Archibald Wheeler, Fritz Zwicky qui ne renonçait pas à son idée, et Andrew Cameron.

Ils s’intéressaient par exemple au problème de la masse limite de 0,7 masse solaire. Si une supernova causait l’effondrement d’un cœur plus massif, qu’adviendrait-il des neutrons correspondant à la masse excédentaire ? Seraient-ils expulsés lors de l’explosion ? évaporés ? ou bien l’étoile continuerait-elle de s’effondrer… en trou noir ? un concept encore plus spéculatif à cette époque.

Ces auteurs comprirent que si l’étoile à neutrons atteint la densité du noyau atomique, alors les effets de l’interaction nucléaire devaient s’ajouter à la pression de Fermi des neutrons. Le problème était la relative ignorance que l’on avait (et que l’on a encore en partie) de l’interaction forte. Cependant, on fit des calculs en se fondant sur ce qu’on avait appris dans les accélérateurs de particules avec des interactions à trois neutrons… en les extrapolant avec astuce à un très grand nombre de neutrons. La masse limite des étoiles à neutrons fut repoussée à 2 ou 3 masses solaires. Cela ne les rendait toujours pas observables, mais au moins cela leur donnait une plus grande étendue de masses possibles, donc de plus grandes chances d’exister.

De nos jours, plusieurs modèles possibles d’intérieurs d’étoiles à neutrons ont été développés. Des observations ont déjà permis d’en éliminer certains, mais il en reste un très grand nombre, et tous ne supposent pas que le cœur d’une étoile à neutrons soit uniquement formé de neutrons. Il pourrait y avoir d’autres particules, considérées comme instables dans des conditions de pression moindres. Parmi tous ces modèles, il est possible que plus d’un soit correct, et qu’il existe en fait plusieurs types d’étoiles à neutrons. Notons que les neutrons sont formés de l’association de trois particules élémentaires, appelées des quarks up et down. Sous des densités encore plus élevées que dans les étoiles à neutrons, les neutrons se seraient eux-mêmes effondrés, laissant place à leurs composants élémentaires et formant un vaste mélange de quarks, que l’on appellerait une étoile à quarks, qui aurait une masse proche de celle des étoiles à neutrons et un rayon légèrement plus petit.

 

Plusieurs modèles existent sur la composition interne d’une étoile à neutrons.
Coupe d’une étoile à neutrons, du centre vers la surface, pour plusieurs modèles d’étoiles à neutrons, dont le nom associé aux particules « exotiques » qu’on y trouve est signalé en rouge : étoile à nucléons, avec condensat de pions, modèle « traditionnel », avec un noyau de quarks, avec des hypérons, et étoile étrange presque entièrement composée de quarks. Selon les connaissances actuelles sur les interactions régissant les particules de la famille des neutrons (les hadrons), encore incomplètes, plusieurs modèles font intervenir d’autres particules que les neutrons. Ces particules sont très instables dans des milieux de plus faible densité, et on ne les observe que brièvement dans les collisionneurs dédiés à l’étude de la physique des particules élémentaires. Il se pourrait même que les neutrons s’effondrent eux-mêmes en des particules plus élémentaires, les quarks, et forment un mélange de quarks, contenant notamment des quarks dits « étranges » (une des 6 catégories de quarks connues), qui donneraient leur nom d’étoiles à quarks ou étoiles étranges à ces astres assez semblables (du dehors) à des étoiles à neutrons.

 

La surface des étoiles à neutrons

Notons que si les neutrons constituent la composante essentielle de ces étoiles, c’est seulement dans les parties internes, où les électrons sont maintenus sous l’effet énorme de leur poids. Mais dans les parties externes, on s’attendait à un mélange d’atomes de fer (noyaux très enrichis en neutrons), mêlés à des protons et à des électrons circulant librement, et peut-être à d’autres noyaux atomiques. Puis il fut établi que sous l’effet d’écrasement du fer par la gravité extrême de l’étoile, malgré des températures élevées (estimées aujourd’hui à des centaines de milliers de degrés), le fer serait sous forme solide, cristalline. Donc, cette étoile serait recouverte d’une croûte métallique extrêmement dense et chaude.

 

La découverte des pulsars et le questionnement sur leur nature

Andrew Cameron émit l’idée, vers 1966, que la petite étoile atypique découverte au cœur de la nébuleuse du Crabe, vestige d’une explosion de supernova, pouvait effectivement être une étoile à neutrons. Mais il ne proposa pas d’en chercher les émissions radio.

Dans les années 1930 et 1940, du temps des premières théories des étoiles à neutrons, la radioastronomie était une science balbutiante, et l’on ne se doutait pas que c’est grâce aux ondes radio que l’on prouverait leur existence. De plus, jusqu’au milieu des années 1960, les spécialistes des étoiles à neutrons s’intéressaient surtout à ce qu’il y avait dedans. Or, la cause de leur rayonnement puissant est liée à ce qu’il y a autour.

En 1967, une étudiante en thèse sous la direction d’Antony Hewish, Jocelyn Bell, découvrait, en cherchant tout autre chose, un signal radio se répétant périodiquement, avec une période de 1,33 seconde. Intriguée, elle fit les tests habituels : cette source, si elle était cosmique, devait réapparaître au même endroit apparent du ciel avec une périodicité d’un jour sidéral, 23 h 56 min, comme les étoiles. Ce fut le cas. Cette source fut nommée CP 1919, car elle se trouvait à une ascension droite de 19 heures et 19 minutes.

Pendant quelques mois, l’équipe ne publia pas cette découverte. Il fallait d’abord proposer des explications.

Un peu par dérision, on appela ce signal « petits hommes verts », comme si c’était les manifestations d’une civilisation extraterrestre. Mais on envisagea plus sérieusement la possibilité de rayonnement associé à une étoile variable pulsante à très courte période (1,33 seconde) : une « pulsating star ». Seul succès de ce modèle, le mot composé « pulsating star » est resté, mais agrégé en un seul mot : « pulsar ». Pour qu’une étoile oscille aussi rapidement, elle devait probablement être très petite.

Il y avait d’autres idées : on pensa (à raison) que ces impulsions pouvaient provenir d’une étoile en rotation rapide qui émettrait continûment des ondes radio dans un faisceau de directions assez restreint, à la manière d’un phare. À chaque tour, lorsque nous passerions dans le faisceau, nous capterions ces ondes radio, et cela donnerait une impulsion. Pour qu’une étoile tourne sur elle-même en 1,33 seconde sans être détruite par les forces centripètes, il fallait qu’elle soit petite. Ce pouvait être une naine blanche… ou une de ces fameuses étoiles à neutrons.

L’article fut publié avec l’énonciation de ces hypothèses [4].

Ce fut un véritable succès. Très rapidement, des astronomes pointèrent leurs radiotélescopes à la recherche d’autres sources. Et bien entendu, ils voulurent vérifier l’hypothèse de Cameron à propos de la nébuleuse du Crabe. Et dans cette région, ils découvrirent une émission pulsée avec une période de seulement 33 millisecondes. En admettant qu’il s’agissait d’un objet tournant, il ne pouvait avoir les dimensions d’une naine blanche (quelques milliers de kilomètres) trop grande pour résister à l’effet centrifuge. Ce devait être un astre plus petit : une étoile à neutrons.

Les radioastronomes, dans la foulée de CP 1919 et du Crabe, détectèrent un pulsar associé à la nébuleuse des Voiles (Vela), qui est également un reste de supernova. Et l’on en découvrit une dizaine d’autres. Aujourd’hui, on en connaît plus de 2 000, et on estime leur nombre dans notre Galaxie à plus de 100 000.

Le Crabe a une période de 33 millisecondes, ce qui correspond à une fréquence d’environ 30 Hz. Vela a une période de 89 ms, soit une fréquence de 11 Hz, et CP 1919 a une période de 1,33 s, soit une fréquence de 0,75 Hz. Il y eut encore des travaux sur des émissions pulsées non liées à la rotation d’une étoile, de plus en plus souvent pour en contester la validité. La grande régularité des pulsations était facilement explicable pour un objet tournant et très massif, mais moins pour des oscillations, dont le spectre de fréquences n’a quasiment jamais une seule fréquence, comme c’était observé, ni la même stabilité.

Le profil d’émission radio du pulsar PSR 1919+21, pour une bande de fréquences centrée sur 196 MHz, résulte de la moyenne d’observations sur un ensemble de 1 300 périodes du pulsar. Faire des moyennes de ce type est généralement le seul moyen pour mettre en évidence le profil d’émission d’un pulsar. Cela suppose de connaître à l’avance sa période. C’est pour cela que la découverte de nouveaux pulsars (donc de période inconnue) ne va pas de soi, surtout s’ils nous envoient un signal de faible intensité. Cela demande l’application de méthodes spécifiques d’analyse du signal et des traitements numériques significatifs. (L. J. Cordes, The Astrophysical Journal 195:193-202, 1975)

Observation du pulsar PSR 1919+21, découvert par Jocelyn Bell. Le temps est en abscisses, et l’intensité du signal est en ordonnées. Dans cette séquence, les observations à 20 instants différents sont présentées, toutes recalées sur la périodicité de 1,33 seconde du pulsar. Ces observations ont été centrées sur la fréquence de 111,5 MHz. Il est difficile de remarquer la périodicité du signal au premier coup d’œil, d’abord parce que le pulsar, s’il a la régularité d’une horloge, n’émet pas forcément avec la même intensité à chaque période, et d’autre part à cause d’effets de propagation du signal à travers le milieu interstellaire, notamment des effets de scintillation. C’est donc en effectuant une moyenne sur plusieurs périodes que l’on peut faire clairement apparaître la forme du signal d’un pulsar (cf. la figure suivante). (L. J. Cordes, The Astrophysical Journal 195:193-202, 1975)

Profil radio moyen du pulsar B1737+13, à différentes fréquences du domaine radio. L’axe horizontal indique le temps divisé par la période du pulsar, et centré au maximum de l’émission. La période est de 0,803 seconde. Seulement 50 % de la période est montrée, car il n’y a pas de signal le reste du temps. L’axe vertical indique l’intensité du rayonnement radio, dans une bande de fréquence centrée sur la valeur indiquée. Ces observations ont été faites avec trois radiotélescopes (chacun d’entre eux ne couvrant pas toutes les fréquences), en Europe, en Australie et en Chine. Ce pulsar est un des rares dont le profil d’émission possède pas moins de 5 maxima d’émission.
(Q. J. Zhi et al., The Astrophysical Journal 926:73, 2022)

 

Les étoiles à neutrons sortent de l’oubli incrédule

Les radioastronomes étaient frappés par le caractère extrêmement régulier des pulsations. Alors, afin d’en éprouver les limites, ils en firent un chronométrage sur le long terme à l’aide d’horloges atomiques. Et l’on découvrit une variation continue de la période qui consistait en un accroissement  très lent et régulier. Par exemple, chaque seconde, la période du pulsar du Crabe s’accroît de 10-12 seconde. L’accroissement est analogue pour le pulsar Vela. Mais pour la plupart des autres pulsars alors découverts, dont la période était de l’ordre d’une seconde, la dérive est comprise entre 10-14 et 10-16 seconde par seconde. C’est très peu, mais en quelques mois d’observation avec de bonnes horloges, c’était mesurable.

Le physicien italien Pacini, alors aux États-Unis, s’intéressait beaucoup à l’hypothèse des étoiles à neutrons pour expliquer les pulsars. Il remarqua en 1968 que si une étoile géante avec un champ magnétique en surface typique de ce genre d’étoiles s’effondre, alors le champ magnétique est entraîné avec la matière [5]. Plus précisément, le flux magnétique est conservé, c’est-à-dire que le champ magnétique multiplié par la surface de l’étoile est constant. Comme la surface de l’étoile devenait minuscule, le champ magnétique devait être énorme. Pour une étoile à neutrons, il estima un champ de l’ordre de 10-8 teslas [6]. Quelques mois plus tard, il publiait un autre article reprenant les travaux conduits vers 1950 par un autre astronome, Armin Deutsch, où il était expliqué (calculs à l’appui) qu’une étoile en rotation avec un champ magnétique non aligné (c’est-à-dire que l’axe de symétrie du champ magnétique ne coïncide pas avec l’axe de rotation) se comporte comme une antenne électrique rayonnant à la fréquence correspondant à la rotation de l’étoile. Avec les pulsars, Pacini montrait qu’on avait donc des antennes avec un champ très puissant émettant des ondes à des fréquences de l’ordre de 1 à 100 Hz (par exemple 30 Hz pour le pulsar du Crabe). Il calcula une puissance émise par ces antennes, et il montra qu’elle était compatible avec la puissance perdue avec le ralentissement de la rotation des étoiles, pourvu qu’elles aient les caractéristiques d’une étoile à neutrons. Autrement dit, le rayonnement électromagnétique associé à la rotation des étoiles à neutrons expliquait leur ralentissement progressif.

A ce stade, il était quasiment prouvé que les pulsars observés en ondes radio étaient une manifestation des étoiles à neutrons.

La même année, deux astronomes américains, Peter Goldreich et William Julian, publiaient un article où l’hypothèse de Pacini d’une étoile à neutrons entourée de vide était contestée, sans revenir pour autant sur la validité de ses conclusions. Lorsque de la matière conductrice comme la surface d’une étoile à neutrons ou son éventuelle atmosphère tourne dans un champ magnétique, des champs électriques se développent. C’est un résultat bien connu des spécialistes d’électromagnétisme. Goldreich et Julian calculaient pour les pulsars des champs électriques si forts, que forcément des particules électriquement chargées (comme des électrons ou des ions) doivent être arrachées de l’étoile, formant ainsi un plasma. Ils prouvaient même qu’en l’absence d’atmosphère, les forces électriques auraient été un million de fois plus fortes que la gravitation énorme de l’étoile. Donc, il devait y avoir une atmosphère, et vu la température de l’étoile, elle ne pouvait contenir que de la matière ionisée : électrons, ions et autres particules électriquement chargées. Un gaz composé de matière ionisée est appelé un « plasma ». Ainsi, l’étoile à neutrons était dotée d’un champ magnétique très intense, dans lequel circule un plasma. Un tel environnement a un nom : c’est une « magnétosphère ». Des magnétosphères existent au voisinage de nombreuses planètes, dont la Terre, et d’étoiles [7]. Cependant, la magnétosphère des pulsars a une importante différence avec celle des planètes et des étoiles standard : le plasma qui la constitue n’est pas neutre. Autrement dit, dans un petit volume autour d’une étoile à neutrons, le nombre de charges électriques négatives et le nombre de charges électriques positives sont inégaux. Un calcul simple montrait même quelle devait être la densité de charges électriques résultante près de l’étoile au voisinage des pôles : on atteignait l’équivalent de 1012 fois la charge d’un électron par centimètre cube. Cela était en cohérence avec l’existence des champs électriques très forts.

Ces travaux et des centaines d’autres qui allaient suivre durant les décennies à venir montraient que l’environnement des étoiles à neutrons est un milieu extrêmement énergétique où des particules, en particulier des électrons, arrachées de l’étoile sont accélérées par des champs électriques de l’ordre de 1014 volts par mètre, atteignant en quelques centimètres des vitesses comparables à la vitesse de la lumière. On étudia les processus de rayonnement de ces particules, et l’on définit un nouveau concept : le « rayonnement de synchro-courbure » que l’on ne rencontre que là (et peut-être au voisinage de trous noirs). Ce rayonnement est causé par des particules de très haute énergie se propageant le long des lignes de champ magnétique. Ce rayonnement est essentiellement dans la gamme d’énergie des rayons gamma. On chercha donc à détecter les pulsars avec des télescopes gamma. Mais avant même les observations en rayonnement gamma (qui viendront dans les années 2000), l’astrophysicien anglais Peter Sturrock montra en 1971 que chaque photon gamma émis par ces particules, en interagissant avec le champ magnétique très puissant de l’étoile, ou avec d’autres photons, devait se transformer en un électron et un anti-électron, aussi appelé « positon ». La conclusion décevante de son article était donc que les rayonnements gamma des étoiles à neutrons seraient en grande partie absorbés par ces créations de paires d’électrons et de positons, donc pas si faciles à observer. Mais la chose formidable était de constater que quelques électrons arrachés très brutalement à l’étoile par des champs électriques extrêmes émettent des rayonnements gamma qui ensuite se transforment en matière (des électrons et des positons). Ces nouveaux électrons et positons sont à leur tour accélérés, ils rayonnent d’autres rayons gamma, ce qui produit encore d’autres paires d’électrons et de positons.

 

Une étoile à neutrons est un émetteur d’ondes radio. Ces ondes sont émises principalement au voisinage des pôles magnétiques de l’étoile, et dans des directions formant des faisceaux assez étroits. Quand l’étoile tourne, ces faisceaux balayent l’espace, comme le ferait le faisceau d’un phare. Quand nous passons dans le faisceau, nous voyons le signal du pulsar apparaître, et s’éteindre autrement, et cela cause l’aspect pulsé des émissions. Les émissions à d’autres longueurs d’onde (visible, X, gamma) sont également émises dans des faisceaux plus ou moins étroits, et ils montrent également un aspect pulsé périodique.

 

Des astres morts ?

On estime aujourd’hui qu’un électron (dit « primaire ») arraché à la surface de l’étoile à neutrons produit ainsi environ 100 000 autres électrons et positons (dits « secondaires »).

Normalement, lorsqu’un électron et un positon se rencontrent, ils peuvent s’annihiler et se transformer à nouveau en rayon gamma. C’est ce qu’on appelle la recombinaison. Mais pour que celle-ci ait lieu, il faut que les particules aient le temps d’interagir, car cette opération n’est pas instantanée. Or, dans la magnétosphère des pulsars, les champs électriques très forts accélèrent les électrons et les positons à des vitesses opposées très grandes : tout d’abord, deux particules d’une même paire s’écartent, donc elles ne se recombinent pas. Et d’une manière générale, les positons croisant des électrons allant à des vitesses très différentes, ils se « voient » très brièvement, ils n’ont pas le temps d’interagir, ils ne se recombinent pas.

Ainsi, la magnétosphère d’un pulsar est une véritable source de matière. Une partie retombe sur l’étoile à neutrons (et là, la recombinaison peut se produire), mais une autre partie du plasma est envoyée dans l’espace, constituant un vent formé d’électrons et de positons. Ce vent se propage quasiment à la vitesse de la lumière [8].

De plus, si les rayons gamma produits près de l’étoile sont effectivement absorbés par ce processus, comme prévu par Sturrock, d’autres rayons gamma et X sont produits plus loin, notamment dans ce vent ultra-rapide… Et aujourd’hui, on peut les observer, notamment avec des instruments comme le télescope X Nicer à bord de la Station spatiale internationale, le télescope gamma du satellite Fermi, et les télescopes à effet Tcherenkov.

Si un astre est « vivant » tant qu’il rayonne, il est clair que la « vie » d’une étoile très massive ne cesse pas au moment de la supernova. S’il reste une étoile à neutrons, la « vie » continue. Mais combien de temps ?

Pour répondre à cette question, il faut faire un bilan des puissances rayonnées. Le rayonnement vient principalement de la magnétosphère, et pas de l’étoile. La magnétosphère fonctionne grâce à un champ magnétique très fort et à une rotation rapide de l’étoile. Mais dans l’étoile à neutrons, le champ magnétique n’est pas produit dynamiquement, comme avec une dynamo. C’est un champ magnétique rémanent, comme celui d’un aimant en acier, même si les processus de rémanence, liés à des phénomènes de supraconductivité, sont différents. Donc, petit à petit, ce champ magnétique diminue.

En outre, comme nous l’avons vu, la magnétosphère, en tournant, se comporte comme une antenne émettant une onde à très basse fréquence qui rayonne, c’est-à-dire qu’elle envoie de l’énergie vers l’extérieur, et cela cause le ralentissement progressif de la rotation. Toute la dynamique de la magnétosphère (le rayonnement X et gamma, la création de matière et l’accélération du vent de pulsar) est alimentée en énergie par la rotation de l’étoile.

Ainsi, en quelques millions d’années, le pulsar s’épuise. La champ magnétique devenant trop faible (104 à 106 T), la rotation devenant trop lente (une période de quelques secondes), la machinerie s’éteint. L’étoile à neutrons existe toujours, mais elle n’alimente plus une magnétosphère assez dynamique pour produire un pulsar. Alors, les spécialistes des étoiles à neutrons reprennent à leur compte la notion de « vie d’une étoile » et déclarent la « mort » du pulsar. Pour désigner le domaine de paramètres caractérisant les étoiles à neutrons trop lentes et trop peu magnétisées pour former un pulsar, les astronomes parlent même de « cimetière ».

Cependant, il arrive que cette mort ne soit pas définitive… ce qui est tout de même atypique ! Pourvu qu’un pulsar fasse partie d’un système d’étoiles doubles, il se peut que la compagne, en perdant de la matière qui tombe sur l’étoile à neutrons, ravive l’activité de ce pulsar qu’on croyait mort. On parle alors de pulsars recyclés. On les distingue des pulsars standard, car ils ont un champ magnétique faible (de l’ordre de 104 à 106 T tout de même), mais ils tournent très vite, avec une période typique de 10 millisecondes. Ceux-là peuvent alors être actifs durant des centaines de millions d’années, excédant largement la durée durant laquelle leur étoile progénitrice a brillé dans sa phase d’étoile de la séquence principale puis de géante.

 

Simulation numérique de l’environnement d’une étoile à neutrons. L’étoile, d’un rayon de l’ordre de 12 km, est représentée par la sphère bleutée. Son environnement comprend un grand nombre d’électrons et de positons qui ont été créés lors d’interactions entre le rayonnement gamma émis par les particules préexistantes de haute énergie et le champ magnétique, ou entre le rayonnement des particules de haute énergie et le rayonnement thermique de l’étoile (rayonnement de corps noir, ici principalement des rayons X). Sur l’image, un pôle magnétique est représenté en bleu vif sur la sphère. Les lignes représentent des trajectoires d’électrons de faible énergie (en bleu) et de positons de faible énergie (en rouge) ainsi que des électrons et positons de haute énergie (en blanc). Ce sont les particules de haute énergie qui émettent des rayons gamma, eux-mêmes capables de créer de nouvelles paires électron-positon. (Gabrielle Brambilla, université de Milan, Italie, et NASA’s Scientific Visualization Studio)

 

50 ans de physique des pulsars

Voilà plus de cinquante ans, avec la découverte des pulsars à l’aide de radiotélescopes, s’ouvrait un nouveau chapitre de l’astrophysique. Les pulsars sont des objets fantastiques à étudier. Les étoiles à neutrons sont les astres les plus compacts qu’il soit possible d’observer directement. Au-delà, ce sont des trous noirs, dont les observations (ondes gravitationnelles mises à part) sont indirectes. Les conditions physiques régnant dans les pulsars sont extrêmes. En ce sens, ce sont de passionnants laboratoires de physique que l’on ne pourra jamais recréer sur Terre. Mais, en plus d’être intéressants en eux-mêmes, les pulsars sont d’excellents outils pour d’autres études en physique et en cosmologie. En contraignant la relation entre leur masse et leur rayon, on peut en apprendre beaucoup sur les propriétés de la matière subatomique et sur l’interaction forte. De par la régularité des impulsions qu’ils nous envoient, les pulsars sont de merveilleuses horloges disséminées dans notre Galaxie et dans les galaxies voisines. Ce sont ainsi des instruments de mesure extrêmement précieux, dont on peut se servir pour vérifier (ou remettre en cause) les théories de la relativité, pour laquelle la mesure du temps est essentielle, ou pour révéler des systèmes d’astres multiples dont certains sont invisibles, ou encore pour la mesure d’ondes gravitationnelles de très basses fréquences, liées par exemple à la fusion de trous noirs centraux de galaxies.

 

Bien que leur luminosité dans le domaine des ondes visibles soit faible, une poignée d’étoiles à neutrons sont observables avec des télescopes optiques. C’est le cas du pulsar du Crabe, formé par la récente explosion de son étoile génitrice en 1054, et dont le reste est l’étoile à neutrons située au centre des images à droite. Une série de courtes poses (moins de 1 milliseconde) avec le Kitt Peak Photon Counting Array (KPCA) à l’observatoire de Kitt Peak, accumulées pendant deux heures et mises en phase avec une période de 33,367 ms montrent que l’émission optique (à travers un filtre pour la bande B) de l’étoile à neutrons de la nébuleuse du Crabe varie avec la même période que ses émissions radio, ainsi qu’avec ses émissions en rayons X et gamma.

 

par Fabrice MOTTEZ | CNRS / Observatoire de Paris-PSL

Publié dans le magazine L’Astronomie Mai 2023

 

 

 

 

 

 

 

Notes :

  1. Cours d’Agnès Acker, Éd. Masson.
  2. Prix Nobel de physique 1922.
  3. En admettant qu’il existe des astronomes normaux !
  4. Cet article valut à Antony Hewish l’obtention du prix Nobel de physique 1974. Malheureusement, sa jeune étudiante, qui avait su saisir l’opportunité de cette découverte inattendue, allant bien au-delà des ambitions de son sujet de thèse initial, et qui avait mené une analyse pertinente de ses observations, n’obtint pas l’honneur de partager cette prestigieuse récompense. La non-attribution du prix à Jocelyn Bell a fréquemment été reprochée au comité Nobel, à juste titre.
  5. Sous réserve que sa matière soit un très bon conducteur électrique, ce qui est le cas.
  6. C’est 10^12 fois celui de la Terre !
  7.  La Terre, Jupiter, Saturne, Uranus, Neptune. Pour les étoiles, on utilise plutôt le terme de couronne.
  8. 8. Le facteur de Lorentz, qui est le rapport entre l’énergie totale de la particule et son énergie de masse mc2, atteint ici des sommets de l’ordre de 10^6. C’est énorme.

 

 

« L’œil du JWST »

« L’œil du JWST »

On trouvera dans cette suite d’actualités plusieurs découvertes récentes effectuées avec le télescope spatial James Webb (JWST) opérationnel depuis l’été 2022, et publiées dans des articles soumis à des journaux scientifiques, mais qui n’ont pas encore tous reçu l’aval de leurs pairs. Ils s’exposent donc à être soit refusés, soit acceptés moyennant des modifications plus ou moins importantes. Nous avons pris cependant le risque de les présenter, pour montrer l’extraordinaire quantité d’informations que va apporter le JWST à la science et, dans le cas présent, à la cosmologie et à notre connaissance de l’Univers lointain. Le choix des articles présentés ici possède une part d’arbitraire car, dans chaque cas, il aurait été possible d’en citer plusieurs autres, soumis à publication la même semaine ou le même jour ! Il s’agit d’articles qui ont paru au mois d’août 2022, mais il est probable qu’un nombre encore plus grand paraisse en septembre et dans les mois suivants.

Un premier point qu’il faut préciser ici est la notion de « lentille gravitationnelle ». Ce phénomène prédit par la relativité générale d’Einstein est produit par la présence d’un objet très massif se situant entre un observateur et une source lointaine (figure ci-dessous). Le champ gravitationnel de la lentille a comme effet de dévier et d’amplifier les rayons lumineux qui passent près d’elle, déformant ainsi les images que reçoit un observateur placé sur la ligne de visée et les rendant plus facilement visibles. Il faut noter que lorsqu’on « regarde loin », on voit nécessairement les objets à travers des lentilles gravitationnelles.

Schéma d’une lentille gravitationnelle.

 

Un autre point concerne une donnée cosmologique importante, le redshift [1]. C’est la façon habituelle pour les astronomes de mesurer l’éloignement d’une galaxie. Le redshift z est le « décalage spectral vers le rouge » subi par les raies spectrales et le rayonnement continu d’un objet, conformément à la loi de Hubble d’expansion de l’Univers. On appelle ce décalage « vers le rouge », car il s’agissait dans les premiers temps d’un décalage relativement faible de la lumière visible. On a 1 + z = lobs/lo, lobs étant la longueur d’onde observée, et lo la longueur d’onde à l’émission. Il s’agit d’un effet analogue au Doppler-Fizeau, sauf qu’il n’est pas dû au mouvement des sources, mais à celui de l’Univers dans son ensemble et que son expression diffère de l’effet Doppler pour les grands redshifts. Pour des objets assez proches, le redshift est inférieur à 0,1, et la vitesse d’éloignement est proportionnelle à la distance. On peut en déduire directement le temps que la lumière a mis à nous parvenir, et l’on parle alors de distance par rapport à nous en années-lumière. Mais les choses deviennent plus compliquées pour des objets dont le redshift est plus grand. Actuellement, on observe des objets dont le redshift est égal à 16, comme vous le verrez. Il est alors possible moyennant un modèle d’Univers donné [2] de calculer le temps qui s’est écoulé entre le moment où on observe l’objet et le Big Bang. À titre indicatif, voici les résultats pour quelques redshifts.

 

par Suzy Collin-Zahn | Observatoire de Paris-PSL

Publié dans le magazine L’Astronomie Novembre 2022

 

 

 

 

 

 

 

Notes

  1. Redshift est un mot anglais entré de fait dans le vocabulaire des cosmologistes du monde entier. Une traduction française possible, mais longue à dire, donc peu usitée (7 syllabes contre 2 en anglais) est : « décalage cosmologique ».
  2. On utilise en général le modèle standard, appelé LambdaCDM.

 

JWST : des liens entre les galaxies proches et lointaines

JWST : des liens entre les galaxies proches et lointaines

Une observation du JWST permet d’expliquer la réionisation de l’Univers grâce à une découverte réalisée quinze ans plus tôt par des astronomes amateurs.

1. À gauche, une galaxie « green pea » locale, comparée à une galaxie très distante observée par le JWST à droite. La galaxie lointaine est observée dans l’infrarouge à cause du décalage vers les grandes longueurs d’onde lié à l’expansion de l’Univers. (Shannon Hall, Nature 613, p.425, 2023)

 

Les galaxies « green peas » (GP) ou « petits pois verts » ont été découvertes en 2007 par des « citoyens volontaires » participant au projet en ligne d’astronomie Galaxy Zoo, qui faisait partie du portail Web Zoonivers. Ces galaxies sont ainsi nommées à cause de leur petite taille et de leur couleur verte sur les images obtenues par le SDSS (Sloan Digital Sky Survey). Les GP que l’on connaissait jusqu’à maintenant ont vécu lorsque l’Univers était âgé d’environ trois quarts de son âge actuel. Quoique peu nombreuses (on en connaît seulement quelques centaines), elles ont fasciné les astronomes et ont soulevé de nombreuses questions, en particulier concernant leur influence sur le milieu intergalactique. Elles éclairent maintenant une découverte faite par le JWST.

Les galaxies « petits pois », que nous appellerons désormais GP, ont une taille égale à environ 5 % de celle de la Voie lactée, pour environ 1 % de sa masse. Les étoiles s’y forment à un rythme incroyable, environ cent fois plus important que ce que l’on attendrait étant donné leur masse. Elles contiennent très peu d’éléments lourds (comme le carbone et l’oxygène, ou plus lourds). Elles semblent en cela conformes à ce que l’on attendrait de galaxies primordiales qui n’auraient pas grandi, et c’est pourquoi un astronome les a même surnommées des galaxies « Peter Pan ». Bien qu’elles soient très pauvres en oxygène, leur couleur verte provient des très intenses raies de l’oxygène deux fois ionisé à 495,9 nm et 500,7 nm, en plein dans le domaine vert du spectre.

 

2. Comparaison des spectres optiques de deux galaxies « green peas » dans l’Univers local en haut, avec celui des trois galaxies primordiales. Les longueurs d’onde des galaxies lointaines ont été corrigées du facteur 1 + z pour tenir compte de l’expansion de l’Univers. On constate que les spectres sont très semblables. (James E. Rhoads et al., The Astrophysical Journal Letters, 942, L14, 2023)

 

Une équipe nord-américaine conduite par James E. Roads, du Goddard Space Flight Center à Greenbelt, vient de publier un article concernant trois galaxies primordiales observées par le JWST. Cette observation jette une lumière nouvelle sur les GP et a d’importantes conséquences sur l’évolution de l’Univers [1]. Les auteurs ont choisi trois galaxies qui leur paraissaient particulièrement lointaines, situées derrière l’amas SMACS 0723 dont il a été question dans les actualités du numéro de novembre 2022 de l’Astronomie. Ils ont découvert qu’elles avaient toutes les trois l’apparence de GP, mais dans l’infrarouge (fig. 1). Ils ont décidé d’en faire une étude spectroscopique, ce qui leur a permis de découvrir qu’elles sont bien plus distantes que les précédentes connues, puisque leur décalage vers le rouge ou redshift z dû à l’expansion de l’Univers (la loi de Hubble) est égal à 8, ce qui signifie qu’elles ont vécu très tôt dans la vie de l’Univers, à peu près 650 millions d’années après le Big Bang, lorsqu’il avait 5 % de son âge actuel.

L’étude spectroscopique qu’ils ont réalisée est fondée en partie sur des simulations numériques discutées avec soin. Comme les GP, les trois galaxies présentent des raies d’émission très fortes de l’oxygène deux fois ionisé, en même temps qu’une très faible abondance de cet élément par rapport à l’hydrogène, de l’ordre de 1/10 000 à 1/100 000 de celle du Soleil en masse. Naturellement, ces raies, initialement dans le vert, se sont décalées vers les grandes longueurs d’onde de la quantité 1+ z, ce qui explique qu’elles sont observées dans l’infrarouge. La température du milieu est assez élevée, ce qui a poussé les auteurs de l’étude à se demander si la densité y est anormalement élevée. Finalement, ils ont conclu que seule une énorme formation stellaire peut l’expliquer. Tout cela les conduit à considérer qu’il s’agit de GP, mais « vivant » à une époque bien plus ancienne (fig. 2). Une autre caractéristique des GP « locales » (rappelons qu’elles ont vécu lorsque l’Univers avait environ trois quarts de son âge actuel) est que certaines d’entre elles, étudiées en ultraviolet par le télescope Hubble, présentent une raie Lyman alpha intense, prouvant l’existence de rayonnement Lyman continu capable d’ioniser [2] le milieu intergalactique. S’il en est de même des GP primordiales, on en déduit qu’elles ont pu également ioniser le milieu intergalactique existant à leur époque.

 

3. Rayon des galaxies mesuré en H alpha, en fonction de la luminosité absolue dans l’ultraviolet. Les étoiles bleues représentent les galaxies observées par le JWST au redshift de 8 (correspondant à une époque de 650 millions d’années après le Big Bang) comparées à leurs analogues locales indiquées par des symboles gris. Les symboles en bleu-vert montrent les GP qui libèrent des photons Lyman dans le milieu intergalactique. La ligne noire solide est ajustée pour les GP locales. Les lignes orange hachurées indiquent les taux de formation d’étoiles constants. On voit que les galaxies GP distantes sont tout à fait identiques aux GP locales qui libèrent des photons ionisants. (James E. Rhoads et al., The Astrophysical Journal Letters, 942, L14, 2023)

 

Or, il existe depuis des décennies un problème fondamental non résolu concernant la « réionisation » de l’Univers. De quoi s’agit-il ? Juste après le Big Bang, l’Univers était très brillant et trop chaud pour que les électrons et les protons puissent se rejoindre pour former des atomes d’hydrogène. C’était un gaz bouillonnant constitué de particules chargées capables seulement de diffuser la lumière comme une ampoule fluorescente. Mais comme l’Univers se refroidissait à mesure qu’il s’épandait, un moment est venu, 380 000 ans après le Big Bang, où les protons et les électrons ont pu se recombiner [2]. Cela a eu deux conséquences. D’abord, quelques-uns de ces atomes dans un milieu devenu assez froid ont pu se rassembler et former des étoiles et des galaxies. D’autre part, les atomes d’hydrogène ne pouvaient plus absorber le rayonnement et l’Univers est devenu transparent. Ce furent les « âges sombres ». Ils se terminèrent lorsque les premières étoiles ou bien les trous noirs qui se formaient aussi commencèrent à « réioniser » l’Univers. C’était un mystère jusqu’à maintenant, car l’énergie nécessaire à cette réionisation est gigantesque, et aucun des deux acteurs ne paraissait capable de la fournir.

Or, ce qu’on a découvert avec les GP locales, c’est qu’elles sont capables de créer des canaux dans le milieu intergalactique par lesquels des photons ionisants peuvent s’échapper et ioniser le milieu intergalactique (fig. 3). Cela peut signifier que le trio de « GP » très distantes peut en faire autant dans l’Univers primordial, et que ce sont elles qui assurent sa réionisation. Les auteurs de l’article annoncent qu’ils vont très prochainement étudier trois autres galaxies très anciennes pour voir si le phénomène était général à cette époque, mais il est probable que le problème de la réionisation est désormais résolu.

 

par Suzy Collin-Zahn – Observatoire de Paris-PSL

Publié dans le magazine L’Astronomie Avril 2023

 

 

 

 

 

 

 

notes 1. James E. Rhoads et al., « Finding Peas in the Early Universe with JWST », The Astrophysical Journal Letters, 942, L14, 2023. 2. L’ionisation d’un atome consiste à lui enlever un ou plusieurs électrons. Ainsi, l’atome d’oxygène possède 8 électrons externes, et l’oxygène deux fois ionisé n’en a plus que 6. Des collisions avec d’autres atomes ou avec des électrons peuvent faire le travail, et créer ce qu’on appelle des « ions », ainsi que du rayonnement ultraviolet ou des rayons X. Les ions sont chargés positivement, car les électrons perdus avaient une charge négative. Ce sont les électrons restés liés aux ions qui lui permettent d’absorber ou d’émettre des raies spectrales en occupant des états d’énergie quantifiés. L’hydrogène est constitué d’un proton et d’un électron qu’il peut perdre en étant ionisé et en devenant un proton portant une charge positive. Il n’a alors plus la possibilité d’émettre des raies spectrales, il doit se « recombiner » avec un électron pour être capable d’absorber ou d’émettre du rayonnement.

La diversité des galaxies primordiales révélée par le JWST

La diversité des galaxies primordiales révélée par le JWST

Nous avons vu dans les numéros précédents de l’Astronomie que le JWST montre l’existence de quelques galaxies primordiales aux propriétés très différentes de celles que détecte le télescope Hubble. Une équipe internationale de chercheurs a utilisé des données recueillies à la fois par le JWST et par Hubble sur 850 galaxies et a effectué la comparaison entre les deux résultats obtenus. Ils ont montré que les galaxies observées par le JWST sont bien plus diversifiées et matures que prévu !

1. Observations avec la camera NIRCam du JWST montrant pour différents redshifts une sélection de galaxies dans 7 groupes morphologiques. Chaque carré a 2’’ de côté. (Jeyhan S. Kartaltepe et al., arXiv:2210.14713v2, 2023.)

 

Les relevés extragalactiques profonds obtenus avec le télescope spatial Hubble (HST) ont profondément révolutionné notre compréhension de l’évolution des galaxies entre l’époque où elles se sont assemblées il y a dix milliards d’années et maintenant. Mais en même temps ils ont ouvert de nouveaux questionnements concernant les trois premiers milliards d’années de l’Univers. Quand sont apparus les premiers disques dans les galaxies ? À quel moment les premiers bulbes se sont-ils formés ? Les processus physiques responsables de la formation des étoiles ont-ils varié pendant cette période ? Etc.

Pour répondre à ces questions, une équipe conduite par un chercheur de l’Institut de technologie de Rochester aux États-Unis et constituée d’environ 80 astronomes de différents laboratoires se sont regroupés dans le CEERS (Cosmic Evolution Early Release Science Survey) [1]. Ils ont analysé 850 galaxies détectées à la fois par le HST (champ ultra-profond du relevé CANDELS) et par la caméra infrarouge NIRcam  du JWST. Les deux relevés opèrent à longueurs d’ondes analogues, mais avec son miroir de 6,5 mètres de diamètre, le JWST est beaucoup plus sensible que le HST et peut observer des parties plus faiblement brillantes de ces galaxies. Les 850 galaxies étudiées ont des  « redshifts » compris entre 3 et 9. Ce paramètre noté « z » représente le décalage spectral vers les grandes longueurs d’onde (« vers le rouge ») dû à l’expansion de l’Univers (loi dite de Hubble). Adoptant pour calculer cette expansion le modèle standard de la cosmologie – LambdaCDM – on en déduit l’époque où le rayonnement a été émis. Ainsi un redshift de 3 correspond à 2,2 milliards d’années après le Big Bang, tandis que 9 correspond à seulement 0,55 milliard d’années après le Big Bang. Nous rappelons que le rayonnement, en ultraviolet proche, vers 0,4 microns, observé actuellement d’une galaxie de redshift z est transporté dans l’infrarouge proche d’une quantité (1+z), ce qui signifie que le spectre optique d’une galaxie de redshift 3 va être déporté dans l’infrarouge vers des longueurs d’ondes voisines de 1,5 microns, et celui d’une galaxie de redshift 9, aussi dans l’infrarouge, mais vers 4 microns.

L’équipe a réparti chaque galaxie observée selon différents critères, comme la morphologie de la galaxie – disque, sphéroïde, forme particulière, source ponctuelle ou inclassable – la classe d’interaction, et l’abondance des éléments « lourds » (c’est-à-dire plus lourds que le lithium). L’hydrogène et l’hélium sont seuls présents au départ, et les éléments lourds sont synthétisés par fusion nucléaire dans les premiers milliards d’années après le Big Bang à l’intérieur d’étoiles massives puis dispersés dans le milieu interstellaire lors de l’explosion des étoiles en supernovae. En principe, l’abondance des éléments lourds doit donc croître au cours des premiers milliards d’années tandis que le taux de formation d’étoiles de l’Univers  augmente jusqu’à atteindre un pic aux époques caractérisées par z ∼ 2 − 3, puis commence à décliner vers les niveaux bas actuels.

L’équipe a effectué sur les galaxies observées par le JWST un ensemble de classifications visuelles au cours duquel chaque galaxie a été classée trois fois. Les chercheurs ont ainsi montré qu’il existait une grande diversité de morphologies (fig. 1). Les galaxies possédant des disques constituent à peu près 60 % des galaxies à z=3 et cette fraction tombe à 30 % pour z compris entre 6 et 9 tandis qu’il existe 20 % de galaxies sphéroïdales. La fraction de galaxies irrégulières est grosso modo constante à tous les redshifts, étant de l’ordre de 40 à 50 %, et celles qui sont purement irrégulières croissent de 12 % à 20 % pour z > 4,5. De façon générale ces tendances suggèrent que les galaxies avec des disques ou des sphéroïdes existent sur tout l’espace des redshifts. Il est difficile pour le moment de quantifier exactement le moment de leur formation.

La comparaison avec les mesures morphologiques basées sur le HST permet de tirer les conclusions suivantes. Les mêmes galaxies présentent des différences significatives. Avec seulement le HST, une plus petite fraction de galaxies montrent des disques ou des sphéroïdes, ou bien une morphologie irrégulière, en particulier pour z supérieur à 4,5, ces structures peu brillantes n’apparaissant que grâce à la sensibilité accrue du JWST. Les galaxies observées par le JWST se révèlent aussi plus asymétriques qu’avec les seules observations du HST. D’une manière plus générale, les différences de classification sont largement dues à la trop faible brillance de surface des disques pour le HST. L’étude montre donc une différence entre les galaxies vues par Hubble et les mêmes observées par le JWST : « sur les 850 galaxies utilisées dans l’étude et précédemment identifiées par le HST, 488 ont été reclassées avec différentes morphologies après avoir été montrées plus en détail avec le JWST », disent les auteurs de l’étude (fig. 2).

Ces résultats seront bientôt étayés par de nouvelles observations, dont le programme a déjà cumulé 60 heures supplémentaires. Ce sont donc potentiellement des milliers d’autres galaxies qui se dévoileront. De plus, le programme COSMOS-Web sélectionné pour les débuts du JWST fournira un échantillon encore plus grand avec plus de 200 heures d’observation dans l’infrarouge proche et moyen. Cette nouvelle étude vise à identifier les toutes premières galaxies formées, donc à comprendre comment elles se sont formées lorsque l’Univers n’était encore constitué que d’hydrogène, d’hélium et de matière noire.

 

2. Exemples de galaxies présentant différentes morphologies avec le HST et le JWST. Les images dans les filtres F150W, F277W, et F356W du JWST sont montrés en même temps que leur combinaison (RGB). Chaque carré a 2’’ de côté. (Jeyhan S. Kartaltepe et al., arXiv:2210.14713v2, 2023.)

 

par  Suzy Collin-Zahn  – Obervatoire de Paris-PSL

Publié dans le magazine L’Astronomie Juin 2023

 

 

 

 

 

 

Note

1. CEERS Key Paper III: The Diversity of Galaxy Structure and Morphology at z = 3 – 9 with JWST”, Jeyhan S. Kartaltepe et al., arXiv:2210.14713v2, 2023.

InSight dévoile les  profondeurs de Mars

InSight dévoile les  profondeurs de Mars

L’analyse des données sismiques enregistrées par l’atterrisseur InSight fournit un nouvel éclairage sur la structure interne de Mars, notamment l’épaisseur de sa croûte et la taille de son noyau. Elle révèle aussi une lithosphère très épaisse, de l’ordre de 500 km.

 

Les planètes rocheuses, comme la Terre, Vénus et Mars, sont différenciées, c’est-à-dire qu’elles se divisent en plusieurs enveloppes (principalement trois) de compositions différente (fig. 1). Du centre vers la surface, on traverse ainsi le noyau, composé de métaux (essentiellement du fer et du nickel), le manteau, composé de roches silicatées, et la croûte, également rocheuse, mais beaucoup plus fine et enrichie en éléments légers. Le noyau se divise parfois, comme dans le cas de la Terre, en une partie centrale solide, la graine, entourée d’une enveloppe liquide, le noyau externe. Deux processus, tous deux contrôlés par la gravité, jouent un rôle essentiel pour expliquer la structure différenciée des planètes rocheuses. La formation du noyau, qui intervient très tôt, résulte de la migration des éléments les plus lourds (les métaux) vers le centre de la planète. Les métaux entraînent parfois avec eux des éléments plus légers (soufre, silicium, oxygène, carbone) mais ayant des affinités chimiques avec le fer. La croûte est quant à elle issue de l’extraction, par volcanisme, des éléments les plus légers contenus dans le manteau. Les roches formées par la cristallisation des magmas sont, comme les roches du manteau, silicatées (c’est-à-dire basées sur l’oxyde de silicium SiO2), mais elles sont enrichies en éléments tels que l’aluminium, le sodium et le calcium.

 

1. Les structures internes de Mars et de la Terre. Notre planète (6 371 km de rayon) possède un noyau de fer et de nickel de 3 480 km de rayon, qui se divise en une graine solide (1221 km de rayon) et un noyau externe liquide. En surface, la croûte est épaisse de 5 à 10 km sous les océans, et de 30 à 40 km sous les continents. Mars (3 390 km de rayon) possède également un noyau de fer dont le rayon, d’environ 1 840 km, vient d’être estimé par les données du sismomètre SEIS embarqué sur InSight. Les données de SEIS ont également permis d’estimer localement l’épaisseur de la croûte, et d’en déduire que son épaisseur moyenne se situe entre 24 et 72km. (NASA/JPL adaptation Thierry Lombry)

 

La taille et la masse volumique moyenne de chaque enveloppe apportent des informations clés sur la composition globale d’une planète et sur son évolution. Ces propriétés peuvent être déduites de l’analyse des ondes sismiques qui se propagent à l’intérieur des planètes. Dans le cas de la Terre, les données sismiques ont ainsi permis de mesurer très précisément les tailles et les masses volumiques de la graine et du noyau externe, de cartographier l’épaisseur de la croûte et de mettre en évidence plusieurs changements de phase solide dans le manteau. En l’absence de données sismiques, il est impossible d’accéder à ce niveau de détails. C’est pourquoi planétologues et géophysiciens attachent une importance particulière au déploiement de sismomètres à la surface des planètes. Cette opération est délicate pour au moins deux raisons. D’abord, un sismomètre est essentiellement composé d’une masse. C’est donc un instrument relativement lourd, qu’il est coûteux d’envoyer dans l’espace. Ensuite, c’est un instrument fragile qui peut se dérégler facilement. Il est donc essentiel qu’il ne soit pas endommagé lors du transport, et notamment pendant l’atterrissage. Jusqu’à très récemment, cela n’a pu être réalisé que pour la Lune[1]. Les données collectées par les sismomètres déployés lors des missions Apollo ont alors permis de montrer que notre satellite possède un petit noyau d’environ 350 km de rayon, pour un rayon total de 1 740 km.

 

InSight ausculte l’intérieur de Mars

Le sismomètre SEIS, embarqué sur InSight et développé conjointement par l’Institut de physique du globe de Paris (IPGP) et l’Institut de géophysique de l’École polytechnique fédérale de Zurich (ETHZ), avait pour mission de déterminer la structure interne de Mars. Le défi était d’importance, d’autant plus que sa réussite reposait sur un pari audacieux. Rien n’indiquait que l’activité sismique de la croûte martienne permettrait de le relever. En effet, sur Terre, les séismes sont essentiellement liés à la tectonique des plaques, qui est absente sur Mars. On pensait donc que les séismes martiens, s’ils existent, devaient être liés au refroidissement et à la contraction de la croûte, les contraintes accumulées au cours du temps provoquant localement de petites ruptures, donc des séismes. Le premier résultat important de SEIS a donc été la détection de trois petits séismes en avril 2019, apportant la confirmation que la croûte martienne est bien sismiquement active (voir l’Astronomie 128, juin 2019). Depuis, au cours des deux années écoulées, SEIS a enregistré plus de 1 000 séismes. Ces événements restent modestes en comparaison des séismes terrestres, mais plusieurs d’entre eux, avec des magnitudes comprises entre 3 et 4, ont pu être mis à profit pour déterminer la structure interne de Mars (encart). Trois articles parus cet été dans la revue Science présentent ces résultats[2]. L’un de ces articles revient sur la détermination de la taille du noyau martien. Avec un rayon compris entre 1 810 et 1 860 km, ce noyau est légèrement plus gros que ce que l’on pensait jusqu’à présent. Il est aussi globalement moins dense que le noyau terrestre, ce qui suggère qu’il est sans doute enrichi en éléments légers, tels que le soufre, l’oxygène ou le carbone. Les données d’InSight ont également montré qu’il était essentiellement liquide. Les deux autres articles auscultent la croûte de Mars et son manteau jusqu’à une profondeur de 800 km.

 

L’épaisseur de la croûte martienne

Les planétologues disposaient déjà d’une estimation de l’épaisseur moyenne de la croûte martienne, environ 60 km avec une incertitude de 25 km, déduite de données gravimétriques (qui mesurent les variations géographiques de l’accélération de la gravité) et topographiques, supposant une masse volumique comprise entre 2 700 et 3 100 kg/m3. D’autres estimations, basées sur l’hypothèse d’une croûte très dense (3 300 kg/m3) prédisaient une épaisseur nettement plus importante, autour de 110 km. En comparaison, la croûte terrestre est épaisse d’environ 30-40 km sous les continents et de 5-10 km sous les océans.

Pour déterminer l’épaisseur de la croûte sous le site d’InSight, Brigitte Knapmeyer-Endrun est ses collègues ont cherché dans les données recueillies par SEIS des signaux issus de la réflexion des ondes sismiques sur d’éventuelles interfaces situées en profondeur (encadré). Cette analyse a mis en évidence deux discontinuités très nettes, vers 9 et 20 km de profondeur, ainsi qu’une troisième discontinuité moins marquée vers 39 km (fig. 2). Si cette discontinuité est bien réelle, elle pourrait marquer la base de la croûte sous le site d’InSight, et cette croûte se diviserait en trois couches. Dans le cas inverse, la croûte serait moins épaisse, environ 20 km, et elle se diviserait en deux couches. Cette estimation n’est évidemment valable que pour le site d’InSight et les plaines environnantes. On s’attend à ce que la croûte soit plus épaisse dans les highlands et sous le dôme volcanique de Tharsis. Pour avoir une idée de l’épaisseur de la croûte martienne dans ces régions, les planétologues se sont de nouveau tournés vers les données gravimétriques et topographiques, en intégrant dans ces données la mesure effectuée par InSight. D’après ces calculs, l’épaisseur moyenne de la croûte martienne serait comprise soit entre 24 et 38 km soit entre 39 et 72 km, selon que son épaisseur sur le site d’InSight est de 20 ou 39 km.

2. Profils de vitesses sismiques des ondes S dans la croûte martienne sous le site d’InSight. (A) Modèle à 2 couches, avec une limite croûte-manteau (Moho) autour de 20 km. (B) Modèle à 3 couches, avec un Moho autour de 39 km. C’est ce dernier modèle qui est, pour le moment, privilégié sur la base d’arguments géodynamiques et géochimiques. Dans les deux cas, deux méthodes d’inversion différentes de données ont été utilisées, mais conduisent à des résultats similaires.

 

L’épaisseur de la croûte entrouvre à son tour une fenêtre sur l’évolution de Mars. Dans le cas d’une croûte relativement fine (24-38 km), les modèles de dynamique interne prévoient que cette croûte doit être très enrichie en éléments radiogéniques, tels que l’uranium et le thorium (fig. 3). Bien que lourds, ces éléments ont en effet tendance à être incorporés dans la croûte lorsque celle-ci se forme. Les concentrations prédites par les modèles dynamiques impliquent que ces éléments ont été incorporés massivement lors d’un épisode d’océan magmatique. Dans le cas d’une croûte plus épaisse (39-72 km), les modèles prévoient également un enrichissement en éléments radiogéniques, mais plus modeste et en meilleur accord avec les mesures réalisées par le spectromètre gamma de la mission Mars Odyssey. Dans ce cas, ils pourraient avoir été incorporés dans la croûte plus progressivement au fil du temps. Au total, bien que les données sismiques seules ne permettent pas de départager l’hypothèse d’une croûte fine (20 km) de celle d’une croûte épaisse (39 km), les modèles géodynamiques et géochimiques privilégient plutôt cette seconde hypothèse.

3. Interprétation géodynamique et géochimique pour une croûte mince (thin crust, A) et épaisse (thick crust, B). Dans les deux cas, la croûte est enrichie en éléments radiogéniques (HPE) par rapport au manteau (mantle), mais cet enrichissement est beaucoup plus important dans le cas d’une croûte mince. Les estimations de profondeur de la croûte sous d’autres régions (par exemple le dôme de Tharsis) reposent sur la combinaison de l’estimation faite par InSight sur le site de son atterrissage et de données gravimétriques et topographiques. (© 2021 Knapmeyer-Endrun et al.)

 

Structure interne et propagation des ondes sismiques

Pour explorer l’intérieur de la Terre et, lorsque cela est possible, l’intérieur des autres planètes rocheuses, les géophysiciens utilisent les ondes sismiques générées par les séismes. Rappelons tout d’abord qu’une onde sismique est une onde élastique qui déforme temporairement la matière se trouvant sur son passage, et que l’on distingue deux principaux types d’ondes sismiques : les ondes de compression (ou ondes P), qui correspondent à une déformation longitudinale (parallèle à la direction de propagation) selon un cycle compression/dilatation ; et les ondes de cisaillement (ou ondes S), qui sont liées à une déformation transversale (perpendiculaire à la direction de propagation). Dans les planètes rocheuses, les limites entre la croûte et le manteau (aussi appelé Moho) et entre le manteau et le noyau (LNM pour limite noyau-manteau) marquent des changements de composition qui se traduisent par une discontinuité sismique, c’est-à-dire que les vitesses des ondes P et S augmentent (au Moho) ou diminuent (à la LNM) brutalement de part et d’autre de ces interfaces. La croûte elle-même n’est pas homogène. Sa composition change avec la profondeur, chaque changement se traduisant, lui aussi, par une discontinuité sismique. Dans le manteau, des transitions de phase solide-solide peuvent, si la pression le permet, également se produire, provoquant là encore une discontinuité sismique. Toutes ces discontinuités affectent la propagation des ondes sismiques, en particulier leurs temps de parcours entre la source (le séisme) et le détecteur (la station sismique). D’autre part, au passage d’une discontinuité, les ondes sismiques sont partiellement réfléchies, ce qui génère des phases sismiques particulières, identifiables sur les sismogrammes. À cela s’ajoutent les effets réguliers de la pression et de la température : les vitesses des ondes sismiques augmentent progressivement avec la pression, mais diminuent avec la température. L’analyse simultanée de plusieurs sismogrammes, liés à différents séismes et donc à différents trajets empruntés par les ondes sismiques, permet en principe de construire des profils sismiques, c’est-à-dire des courbes représentant les vitesses sismiques en fonction de la profondeur, et d’y détecter d’éventuelles discontinuités. En pratique, cela nécessite des traitements de données et l’utilisation de méthodes d’inversion sophistiquées. Les sismologues s’intéressent à différentes phases sismiques selon la région qu’ils souhaitent étudier. Pour déterminer la structure de la croûte, y compris sa profondeur, ils utilisent souvent des fonctions récepteurs. Ces signaux correspondent à des ondes remontant vers la surface et qui sont d’abord réfractées au passage d’une interface (par exemple, le Moho), puis se réfléchissent successivement une ou plusieurs fois sous la surface et sur l’interface en changeant éventuellement de type (S vers P ou P vers S) lors de chaque réflexion (fig. 6A).

6A. Fonctions récepteurs. Ces phases sismiques correspondent à une onde incidente traversant une discontinuité (par exemple, la limite croûte-manteau, appelée Moho) de l’intérieur vers la surface, et se réfléchissant successivement une ou plusieurs fois sous la surface et sur la face interne de la discontinuité, un peu comme une onde guidée. Chaque réflexion s’accompagne éventuellement d’un changement de type d’ondes (P vers S ou S vers P). Ces phases sont utilisées pour étudier la structure des enveloppes superficielles, et tout particulièrement de la croûte. (© Frédéric Deschamps.)

 

C’est ce type de signaux qui a été utilisé pour déterminer la structure et l’epaisseur de la croûte martienne. Pour explorer des régions plus profondes, les sismologues utilisent d’autres phases sismiques, en particulier des ondes P ou S s’étant réfléchies une ou plusieurs fois sous la surface avant de parvenir à une station sismique (fig. 6B). Une onde PP, par exemple, commence par s’enfoncer vers l’intérieur du manteau, atteint une profondeur maximum, remonte vers la surface où elle est réfléchie, redescend, atteint de nouveau une profondeur maximum, puis remonte vers la surface. Une onde SSS suit un parcours similaire, mais se réfléchit deux fois sous la surface. Cela permet d’échantillonner des profondeurs intermédiaires entre la base de la croûte et le manteau profond. Les sismologues ont mis à profit ce type d’ondes pour sonder le manteau martien jusque vers 800 km de profondeur. La LNM est beaucoup plus profonde (2890 km dans le cas de la Terre et autour de 1 560 km pour Mars), et son étude (ainsi que l’étude du noyau) nécessite encore d’autres phases sismiques, notamment les ondes ScS, qui sont des ondes S se réfléchissant à la surface du noyau avant de remonter vers la surface (fig. 6B). C’est ce type d’onde qui a permis de déterminer la profondeur de la LNM de Mars, et donc la taille du noyau de cette planète. Les ondes PKP, qui sont des ondes de compression voyageant dans le manteau, puis dans le noyau et de nouveau le manteau, sont également souvent utilisées pour étudier le noyau, mais dans le cas de Mars, elles n’ont pas encore été détectées par SEIS.

6B. Trajets de quelques phases sismiques à l’intérieur d’une planète rocheuse (ici dans le cas de Mars). Les trajets directs sont notés P et S pour les ondes de compression et de cisaillement, respectivement. Les ondes P et S peuvent se réfléchir sous la surface une ou plusieurs fois, produisant des phases PP, PPP, SS, SSS, etc. , qui sont utilisées pour étudier la partie supérieur du manteau. Les ondes qui se réfléchissent à la surface du noyau, comme les ondes ScS et PcP (non représentée) apportent des informations sur la limite noyau-manteau (LNM) et sa région. Les ondes PKP et SKS (non représentée), qui voyagent dans le noyau, apportent aussi des informations sur cette région (ainsi que sur le noyau), mais n’ont pas été détectées dans le cas de Mars. (© Frédéric Deschamps.)

Une lithosphère particulièrement épaisse…

Les scientifiques de la mission InSight ont également sondé l’intérieur de Mars à de plus grandes profondeurs, échantillonnant la partie supérieure du manteau. Contrairement à l’étude de la croûte, le but principal de cet exercice n’est pas de détecter d’éventuelles discontinuités, mais de déterminer les changements réguliers (ou continus) de vitesse sismique en fonction de la profondeur (encadré), ce qui fournit des informations sur la structure thermique (le profil radial de température) de Mars. En utilisant des ondes se réfléchissant une ou plusieurs fois sous la surface (phases PP, SS, PPP, et SSS ; encadré et fig. 4), une équipe internationale dirigée par Amir Khan, chercheur à l’ETHZ, a pu sonder cet intérieur jusque vers 800 km. Cette plage de profondeur est particulièrement intéressante, car elle englobe la lithosphère, c’est-à-dire l’enveloppe rigide externe d’une planète rocheuse constituée de la croûte et du sommet du manteau [3]. Dans le cas de la Terre, cette enveloppe s’étend jusqu’à 50 à 200 km de profondeur, selon les endroits.

4. Un exemple de séisme martien enregistré par SEIS. Le volet (A) représente les trois composantes (verticale, nord/sud et est/ouest) du sismogramme, c’est-à-dire le mouvement du sol selon chacune de ces trois directions. (B) Détails des sismogrammes pointant les ondes réfléchies (PP, PPP, SS et SSS) utilisées pour sonder le manteau. (© 2021 Khan et al.)

 

Les analyses effectuées par Amir Khan et ses collègues (fig. 5A) mettent d’abord en évidence une discontinuité vers 30-50 km de profondeur, interprétée comme la base de la croûte et qui semble confirmer l’hypothèse d’une croûte épaisse. Puis, à de plus grandes profondeurs, ces analyses révèlent une légère diminution de la vitesse des ondes S jusque vers 400 à 600  km, tandis que la vitesse des ondes P reste constante. Au-delà, et jusqu’à 800 km, les vitesses des ondes P et S augmentent de nouveau avec la profondeur. Cette observation est intéressante car, en principe, les vitesses des ondes P et S augmentent régulièrement avec la pression (donc la profondeur). La diminution des vitesses entre 100 et 400-600 km pourrait ainsi être la signature d’une lithosphère thermique, c’est-à-dire une région dans laquelle la température augmente rapidement avec la profondeur [4], comme le suggèrent les profils de température déduits des profils de vitesse sismique (fig. 5B). Dans cette région, l’augmentation des vitesses sismiques liée à la pression serait ainsi compensée par une diminution de ces mêmes vitesses en réponse à un accroissement de la température. La lithosphère terrestre est également marquée par une légère diminution de la vitesse des ondes S. Mais ce qui est remarquable dans le cas de Mars, c’est l’épaisseur, 400 km au minimum, de cette lithosphère.

 

5. (A) Profils de vitesses sismiques des ondes P (à droite) et S (à gauche) déduits des données de SEIS. Deux analyses (inversion de données) ont été réalisées suivant différentes méthodes (les profils gris utilisent une paramétrisation simple, tandis que les profils bleus et rouges utilisent une paramétrisation basée sur la minéralogie supposée du manteau martien). Dans tous les cas, la largeur des profils représente la barre d’erreur. (B) Profils de température déduits des profils de vitesses sismiques. La base de la lithosphère est fixée soit entre 400 et 500 km (courbes bleues), soit entre 500 et 600 km (courbes rouges). (© 2021 Khan et al.)

… et pas de manteau inférieur

Sur Terre, les géophysiciens ont identifié une discontinuité sismique autour de 660 km de profondeur, donc à l’intérieur du manteau. Celle-ci est associée à une transition de phase, ou plus précisément à la séparation de la ringwoodite (une phase haute pression de l’olivine, (Mg,Fe)SiO4, le minéral le plus abondant du manteau) en deux minéraux, la bridgmanite (Mg,Fe)SiO3 et le ferropériclase, (Mg,Fe)O. Cette frontière sépare le manteau supérieur du manteau inférieur, et elle joue un rôle important dans la dynamique globale du manteau. Une question clé, dans le cas de Mars, était de savoir si le manteau de cette planète se divisait aussi en un manteau supérieur (dominé par l’olivine) et un manteau inférieur (dominé par la bridgmanite). Compte tenu de la gravité plus faible de Mars, qui implique que la pression à une profondeur donnée est plus faible que dans la Terre, cette frontière devrait se trouver autour de 1 740 km de profondeur. La mesure du rayon du noyau martien, entre 1 810 et 1 860 km, répond indirectement à cette question. Le rayon total de Mars étant de 3 390 km, la base du manteau se trouve entre 1 530 et 1 580 km de profondeur. Mars ne possède donc pas de manteau inférieur, ce qui d’une certaine manière simplifie sa dynamique interne.

Initialement prévue pour durer jusqu’en décembre 2020, la mission InSight a été prolongée de deux années supplémentaires, que les scientifiques souhaitent mettre à profit pour collecter de nouvelles données. Lors du dernier hiver martien, les conditions météorologiques, notamment le vent, qui est à l’origine d’un bruit sismique important, ont empêché la détection de séismes martiens (seuls trois événements ont été observés pendant cette période). Depuis février 2021, les conditions sont de nouveau propices à l’enregistrement de séismes. Les sismologues espèrent y détecter des ondes ayant traversé le noyau (phases PKP et SKS), ce qui ouvrirait une fenêtre sur le noyau martien et constituerait un très beau résultat pour conclure la mission InSight.

 

Par Frédéric Deschamps, IESAS, Taipei, Taïwan

 

 

Article publié dans l’Astronomie, Octobre 2021

 

 

Notes

  1. Au milieu des années 1970, les sondes Viking, qui se sont posées sur Mars, étaient bien équipées de sismomètres, mais ceux-ci n’ont pas fonctionné correctement.
  2. KHAN A. et al. (2021), Upper mantle structure of Mars from InSight seismic data, Science, 373, 434-438 ; KNAPMEYER-ENDRUN B. et al. (2021), Thickness and structure of the martian crust from InSight data, Science, 373, 438-443 ; STÄHLER S. C. et al. (2021), Seismic detection of the martian core, Science, 373, 443-448.
  3. La lithosphère a donc une définition mécanique, par opposition à la croûte qui est la couche la plus externe d’une planète mais se définit par sa composition.
  4. Dans les planètes rocheuses, la température augmente en fait naturellement avec la pression, de l’ordre de 0,3 à 0,4 degré par kilomètre, ce que les géophysiciens désignent par le terme de « gradient adiabatique ». L’augmentation de température déduite des profils sismiques du manteau supérieur martien est nettement plus élevée, de l’ordre de 1,6 à 2,5 degrés par kilomètre. Elle n’est donc pas liée au seul accroissement de la pression.

 

 

 

L’histoire des méga-tsunamis sur Mars

L’histoire des méga-tsunamis sur Mars

Mars aurait connu des méga-tsunamis produits par des impacts de météorites dans un océan. En effet, la découverte de dépôts de tsunamis* le long d’anciens rivages de l’hémisphère Nord de Mars relance le débat de l’existence d’un océan dans le passé et donc de la stabilité de l’eau liquide sur cette planète.

Les mots suivis d’un * sont définis dans le lexique en fin d’article. 

L’hémisphère Nord de la planète Mars forme une vaste dépression nommée Vastitas Borealis atteignant une altitude de -5 km et occupant 70 % de la superficie de l’hémisphère Nord (fig. 1). Cette dépression régionale est le lieu de convergence de vallées d’une forme similaire à celle des vallées de débâcle* terrestres. Elles se caractérisent par des cours d’eau pouvant atteindre des débits extrêmement élevés. Cette convergence des principales vallées de débâcle dans Vastitas Borealis laisse supposer que ces plaines furent occupées temporairement par un océan constitué soit d’eau liquide, soit de boue, durant l’Hespérien (environ 3,5 Ga). Par la suite, l’eau s’est vraisemblablement évaporée ou infiltrée dans le sous-sol, où elle gela ensuite pour former un vaste pergélisol*, du fait du refroidissement global de la surface de la planète.

L’hypothèse selon laquelle les plaines de l’hémisphère Nord de la planète Mars auraient été recouvertes par un océan a été avancée à plusieurs reprises ; elle expliquerait certaines particularités, comme celles de la présence de certains reliefs impliquant l’existence d’eau sous forme liquide ou sous forme de glace (structures polygonales*, affaissement de terrains, cratères d’impact entourés d’éjectas lobés*, rides arquées subparallèles*). Curieusement, on peut suivre certains de ces reliefs tout le long d’une zone étroite située entre le haut plateau cratérisé de l’hémisphère Sud et les basses plaines de l’hémisphère Nord de Mars et selon une altitude constante de –3 760 m d’altitude ± 560 m (c’est la ligne blanche de la figure 1). Selon H. P. Jöns (1986), T. Parker et coll. (1996), il existerait un paléo-rivage, c’est-à-dire des traits de côte d’un ancien océan martien (fig. 1). Celui-ci fut nommé « Contact 2 » (le Contact 1 se situe un peu plus dans les terres et désigne un plateau à une altitude de –1 680 m ± 1 700 m sans lien apparent avec cet océan). De plus, les comptages de cratères dans les plaines de Mars (unité Vastitas Borealis) indiquent un âge de l’océan d’environ 3,5 milliards d’années (âge Hespérien de la chronologie martienne).

Cependant, l’hypothèse d’un ancien océan sur Mars fait toujours débat au sein de la communauté scientifique, car on ne retrouve ni minéraux hydratés, ni carbonates, ni gypses à grande échelle. La recherche d’indices prouvant ou non la présence de cet océan dans l’hémisphère Nord de Mars est donc de nos jours un véritable défi.

Les publications récentes de notre équipe (en 2017 et en 2019), et celles de nos collègues américains (Rodriguez et al., 2016) relancent le débat sur la présence d’un océan sur Mars. En effet, en utilisant les données topographiques et celles des images de la caméra HRSC de la sonde Mars Express de l’Esa, l’équipe de géomorphologues dont je fais partie [1] a pu retrouver à la fois les indices d’anciens méga-tsunamis et le cratère qui serait à l’origine de ces tsunamis ayant recouvert les paléo-rivages de la région d’Arabia Terra sur Mars (fig. 1). Voici donc l’histoire de cette découverte pour le moins surprenante.

1. Carte topographique MOLA de Mars. La ligne blanche délimite la ligne du paléo-rivage (Contact 2 à –3 760 m d’altitude), séparant le paléo-océan supposé de l’hémisphère Nord du plateau de l’hémisphère Sud. Le cercle rouge est le cratère Lomonosov supposé à l’origine des tsunamis. Les flèches noires correspondent au sens d’écoulement des vallées de débâcle qui se jettent dans l’océan de Vastitas Borealis. Le cadre noir correspond au secteur de la figure 2 dans la région d’Arabia Terra.

 

Les premiers indices

Tout a commencé en 1988, quand j’étais doctorant au Laboratoire de géographie physique à Meudon [2]. Ma thèse concernait l’étude du pergélisol martien et, à cette occasion, j’ai été invité à passer quelques semaines à l’US Geological Survey à Flagstaff, haut lieu de la planétologie martienne. Là-bas, j’ai pu étudier et interpréter certaines images de Mars. L’une d’elles, située dans la région d’Arabia Terra (fig. 1), m’intrigua particulièrement, car je n’arrivais pas à interpréter d’étranges structures lobées (unité nommée Thumbprint Terrain*). Je repartis en France avec cette image sous le coude. Ce ne fut qu’en 2016 que je la ressortis pour la proposer à une étudiante en stage de master. L’étude de cette région se fit cette fois à l’aide d’images à bien plus haute résolution provenant de la caméra HRSC de la mission européenne MarsExpress et de données altitudinales à haute résolution du laser altimètre MOLA de la sonde Mars Global Surveyor.

À ma grande surprise, je découvris des formations lobées, larges de 10 km et épaisses de 10 m, qui remontent les pentes systématiquement sur de grandes distances (fig. 2). Du jamais vu sur Mars. Ma conclusion fut celle de dépôts de coulées sédimentaires liées aux passages de vagues successives survenues lors d’un ou de plusieurs épisodes de tsunamis provenant de l’hémisphère Nord de la planète. J’allais voir mon collègue Franck Lavigne, spécialiste des tsunamis sur Terre, qui, en voyant ces images, confirma l’hypothèse du tsunami.

2. Fronts lobés de coulées (46° 30’ N, 14° 30’ E) mises en place lors d’un tsunami dans la région d’Arabia Terra à l’altitude du contact 2 (–3 760 m). En bas de figure, le profil topographique entre les points A et B indique que les vagues du tsunami ont remonté les pentes sur plusieurs dizaines de mètres d’altitude et sur une distance de plusieurs kilomètres. Les flèches noires indiquent le sens de l’écoulement. Les points rouges et jaunes sont des points de calage du profil topographique sur l’image. Localisation de l’image sur la figure 1 (rectangle noir).

 

Cartographie des dépôts de tsunamis

L’étude suivante fut plus longue et fastidieuse, car il s’agissait de cartographier méticuleusement ces formations particulières à l’aide d’un logiciel de cartographie. Avec Antoine Séjourné (GEOPS) et notre stagiaire I. Di Pietro (université de Pescara, Italie), nous avons identifié et cartographié systématiquement ces dépôts lobés caractérisés par une limite de forme arrondie (fig. 2), le long d’un supposé paléo-rivage préalablement repéré par T. Parker en 1993. Les coulées aux fronts lobés* s’étendent sur plus de 150 km à l’intérieur des terres (fig. 2), dépassant même les limites des paléo-rivages cartographiées par Parker (1993) à –3 760 m d’altitude (Contact 2), puis remontent les pentes sur plusieurs dizaines de mètres d’altitude. Cette remontée nécessite une certaine énergie qui pourrait être celle fournie par un tsunami.

Les directions principales de ces coulées qui ont quelque 10 kilomètres de large attestent d’une zone source située plus au nord, au beau milieu d’une plaine qui aurait donc été occupée par un vaste océan dans la région de Vastitas Borealis (fig. 1).

La datation de ces dépôts de tsunamis par comptage de cratères réalisée par Sylvain Bouley (GEOPS) indiqua la présence d’un océan sur Mars il y a ~ 3 milliards d’années (c’est-à-dire à la transition Hespérien-Amazonien). Sur le moment, ce résultat nous a vraiment surpris, car l’océan de l’hémisphère Nord de Mars apparaissait plus récent que les estimations faites par nos collègues géochimistes et climatologues. En effet, ces derniers n’envisageaient pas la présence d’un océan après 3,7 milliards d’années, en raison de la disparition progressive de l’atmosphère de Mars et du refroidissement qui s’ensuivit.

 

Modélisations numériques des tsunamis sur Mars

Sachant que sur Terre la quasi-totalité des tsunamis est déclenchée par des séismes, comment est-il possible d’avoir des tsunamis dans un océan sur Mars, alors que cette planète est du type mono-plaque, c’est-à-dire sans tectonique des plaques et, par conséquent, peu de séismes forts ? La seule alternative possible sur Mars serait que la propagation des ondes du tsunami se fasse lors d’un impact dans un océan…

De nombreux travaux montrent que lors d’un impact d’astéroïde dans un océan terrestre, deux vagues successives se forment : la première produite lors de l’expulsion de l’océan au moment de l’impact et la deuxième produite par le remplissage soudain de l’océan dans la profonde cavité transitoire formée par le cratère. Pour tester cette hypothèse appliquée au cas martien, nous avons utilisé le modèle numérique développé par Karim Kelfoun, permettant de reconstituer précisément les propagations des vagues d’un tsunami depuis un impact dans un océan. Nous avons testé plusieurs cratères d’impact localisés dans l’hémisphère Nord de Mars et plusieurs niveaux marins. D’après ces simulations, seul le cratère Lomonosov (64,9° N- 9,2° O) arrive à déclencher un tsunami suffisamment puissant pour atteindre les rives d’Arabia Terra (fig. 1). Cet impact dans l’océan aurait provoqué une onde de choc qui se serait déplacée à la vitesse de 220 km/h, créant sur le rivage des vagues de 150 m (fig. 3). D’après les simulations, ces vagues atteignent les côtes là où nous observons précisément les fronts lobés des coulées observées sur les images. Ces derniers seraient donc les témoins du passage de ces vagues successives de tsunamis sur les rivages d’un paléo-océan sur Mars.

3. Modélisation de la propagation des vagues (amplitude des vagues en jaune et rouge) déclenchées par un impact (cercle noir) dans un océan (bleu) sur Mars. a : impact dans l’océan, b et c : propagation du train d’ondes produit lors de l’expulsion de l’océan au moment de l’impact. e : deuxième série d’ondes produites par le soudain remplissage de l’océan dans la profonde cavité formée par le cratère d’impact. Sur les figures d et f, on notera que les vagues arrivent sur les côtes (couleur grise) là où justement s’observent les fronts lobés des coulées. (Costard et al., 2017 JGR Planets, AGU publications)

Etude des cratères marins terrestres et martiens

D’après les simulations numériques, le cratère Lomonosov serait donc le favori pour déclencher un tsunami. Mais ce cratère a-t-il les caractéristiques d’un impact dans un océan ? Il se trouve que sur Terre, d’anciens cratères d’impact ont été récemment identifiés dans les fonds océaniques. Ils intéressent tout particulièrement les astronomes qui détectent et suivent les géocroiseurs, ces astéroïdes susceptibles de croiser l’orbite terrestre. Sur Terre, ces cratères marins sont à l’origine d’anciens méga-tsunamis, comme le cratère Chicxulub qui a déclenché de vastes tsunamis il y a 66 millions d’années et dont on trouve encore aujourd’hui la trace grâce aux dépôts de tsunamis clairement identifiés le long des paléo-côtes du golfe du Mexique.

Divers travaux avaient étudié ces dernières années la possibilité qu’un tel événement puisse se produire sur Mars, mais aucune équipe n’avait pu identifier le ou les cratères à l’origine de ces tsunamis. Ce travail fut mené avec notre ancien doctorant Anthony Lagain, et en étroite concertation avec J. A. P. Rodriguez (Tucson), auteur d’un article sur les tsunamis martiens en 2016, et Jens Ormö, un spécialiste des cratères marins terrestres.

4. Le cratère Lomonosov (64,9° N-9,2° O) qui serait à l’origine des méga-tsunamis dans l’océan de l’hémisphère Nord de Mars. On reconnaît à la périphérie du cratère une zone anormalement large et des remparts affaissés. Localisation du cratère sur la figure 1 (cercle rouge). Diamètre du cratère : 120 km. Exagération verticale de 3×. (Données MOLA/HRS, traitement A. Lagain)

 

C’est à partir d’une approche géomorphologique couplant les images de la caméra HRSC de la sonde Mars Express de l’Esa et les données topographiques qu’il a été possible de mettre en évidence le cratère qui serait à l’origine de ces tsunamis. Précisons que ce travail a été mené indépendamment de la modélisation numérique précédemment décrite. Sur une dizaine de cratères préalablement identifiés dans l’hémisphère Nord de Mars, seul le cratère Lomonosov (120 km de diamètre) se différencie de ces homologues par une topographie bien particulière. Celui-ci présente un aplatissement et de nombreux effondrements de son large rempart (fig. 4), ainsi qu’un déficit en volume de son rempart. Autant d’indices qui ne peuvent s’expliquer que par un impact dans un océan peu profond avec un affaissement caractéristique du rempart et un remplissage de la cavité du cratère par la mer (fig. 5).

Il se trouve aussi que l’âge de ce cratère (par la technique du comptage de cratères) correspond à l’âge des dépôts de tsunamis précédemment identifiés dans la région d’Arabia Terra  (environ 3 milliards d‘années), ce qui laisse supposer que les dépôts de tsunamis seraient bien liés à ce cratère.

On savait que Mars contenait un océan primitif ; ainsi, la détection récente de ce cratère d’impact suggère qu’un océan était présent bien plus récemment que supposé jusqu’alors, puisque ce cratère s’est formé dans cet océan il y a environ 3 milliards d’années. Cette conclusion de l’étude relance le débat de l’existence de cet hypothétique océan et a de fortes implications sur les conditions climatiques qui devaient régner à cette époque.

5. Schéma résumant les différentes phases de la formation d’un cratère marin sur Mars. A : impact dans l’océan puis effondrement de la cavité transitoire, B : dépôt des éjectas, C : affaissement du rempart et remplissage de la cavité du cratère par la mer, D : aspect actuel après retrait de l’océan.

La question de la stabilité d’un océan martien il y a environ 3 Ga

La formation de dépôts lobés créés par un impact implique en tout cas qu’il y avait un océan tardif dans l’hémisphère Nord de Mars. La découverte de ces tsunamis sur les paléo-rivages de l’hémisphère Nord de Mars relance ainsi le débat de l’existence d’un océan et donc de la stabilité de l’eau liquide sur cette planète il y a environ 3 milliards d’années. Nous poursuivons l’analyse de ces dépôts de tsunamis dans d’autres régions des plaines de l’hémisphère Nord de Mars. Nous avons établi une collaboration avec le laboratoire du Nasa/Goddard Institute for Space Studies qui a développé un modèle climatique perfectionné prenant en compte un océan dynamique (avec des courants marins). L’article de Frédéric Schmidt (p.  20) décrit comment un tel modèle permet de déterminer le climat à cette époque et, ainsi, de comprendre l’histoire de l’eau et de l’habitabilité sur Mars, il y a 3 milliards d’années.

 

Par François Costard  | GEOPS , Université Paris-Saclay

 

Article publié dans l’Astronomie, Juillet-Août 2022

 

 

Cratère à éjectats lobés : éjectas mis en place par la fonte d’éléments volatils au moment de l’impact.

Front lobé : partie arrondie d’un dépôt. Paléo-rivage : anciens traits de côte d’un océan.

Pergélisol (ou permafrost) : sol gelé en permanence. Replat : pente plus faible entre deux pentes plus fortes.

Structure polygonale : polygone de contraction thermique formé en présence d’un sol gelé riche en glace.

Thumbprint Terrain : unité géologique présentant des rides subparallèles et arquées.

Tsunami : Un tsunami est une série d’ondes de très grande période se propageant à travers un milieu aquatique, issues du brusque mouvement (séisme, glissement de terrain, impact) d’un grand volume d’eau et pouvant se transformer, en atteignant les côtes, en destructrices déferlantes de très grande hauteur.

Vallée de débâcle : écoulement à fort débit.

 

Références:

  1. Avec Antoine Séjourné, Anthony Lagain et Sylvain Bouley (laboratoire Géosciences Paris-Saclay ; GEOPS, CNRS/université Paris-Saclay), Karim Kelfoun (VolcFlow, Lab. Magmas et Volcans, université Clermont-Auvergne), I. Di Pietro (université de Pescara, Italie) et Franck Lavigne (Laboratoire de géographie physique à Meudon).
  2. Le laboratoire de géographie physique est installé sur le site du CNRS Bellevue, un centre de recherches scientifiques sans rapport direct avec l’observatoire de Paris-Meudon.

Ouvrages généraux :

-Numéro spécial planète Mars, l’Astronomie, mars 1988, vol.102.

-Bouley et al. (2017). Impacts: des météores aux cratères. Éd Belin-Pour la Science. Contributions à 4 chapitres.

-Forget F., F. Costard et Ph. Lognonné (2007). La planète Mars, Éd. Belin-Pour la Science, 144 p.

Articles spécialisés :

-Costard F., A. Séjourné, K. Kelfoun , S. Clifford, F. Lavigne, I. Di Pietro, et S. Bouley (2017). Modeling tsunami propagation and the emplacement of thumbprint terrain in an early Mars ocean. JGR Planets, vol. 122, Issue 3,  p. 633-649, DOI: 10.1002/2016JE005230.

-Costard F., A. Séjourné, A. Lagain, J. Ormö, J. A. P. Rodriguez, S. Clifford, S. Bouley, K. Kelfoun, F. Lavigne (2019). The Lomonosov crater impact event: a possible mega-tsunami source on Mars. JGR Planets, vol. 124, p. 1840-1851, doi.org/10.1029/2019JE006008.

-Jöns H. P. (1986). Arcuate Ground Undulations, Gelifluxion-Like Features, In Lunar and Planetary Science Conference, 17, 404-405.

-Parker T. J., D. S. Gorsline, R. S. Saunders, D. C. Pieri, et D. M Schneeberger (1993), Coastal geomorphology of the martian northern plains, J. Geophys. Res., 98, 11061–11078, DOI: 10.1029/93JE00618.

-Rodrı́guez J. A. P., Fairén A.G., Tanaka K. L., Zarroca M., Linares R., Platz T., Komatsu G., Miyamoto H., Kargel J., Yan J., Gulick V., Higuchi K. Baker V. R., et N. Glines (2016), Tsunami waves extensively resurfaced the shorelines of a receding, early Martian ocean, Nature Scientific Reports, 6: 25106, DOI: 10:1038/srep25106.

-Schmidt,F., M. Way, F. Costard, S. Bouley, A. Séjourné et I. Aleinov (2022). Circumpolar ocean stability on Mars 3 Gy ago. PNAS, vol. 19, n° 4, doi.org/10.1073/pnas.2112930118.

 

 

Instagram
YouTube
YouTube
Follow by Email