Rappel de votre demande:


Format de téléchargement: : Texte

Vues 1 à 124 sur 124

Nombre de pages: 124

Notice complète:

Titre : La Vie des sciences

Auteur : Académie des sciences (France). Auteur du texte

Éditeur : Gauthier-Villars (Paris)

Éditeur : Diffusion centrale des revues (Montrouge)

Date d'édition : 1986-07-01

Notice du catalogue : http://catalogue.bnf.fr/ark:/12148/cb343924404

Notice du catalogue : https://gallica.bnf.fr/ark:/12148/cb343924404/date

Type : texte

Type : publication en série imprimée

Langue : français

Format : Nombre total de vues : 6638

Description : 01 juillet 1986

Description : 1986/07/01 (T3,N4)-1986/08/31.

Droits : Consultable en ligne

Droits : Public domain

Identifiant : ark:/12148/bpt6k54708101

Source : Bibliothèque nationale de France, département Collections numérisées, 2008-99652

Conservation numérique : Bibliothèque nationale de France

Date de mise en ligne : 30/12/2008

Le texte affiché peut comporter un certain nombre d'erreurs. En effet, le mode texte de ce document a été généré de façon automatique par un programme de reconnaissance optique de caractères (OCR). Le taux de reconnaissance estimé pour ce document est de 98%.


ISSN 0762-0969

Tome 3, n° 4, Juillet-Août 1986

COMPTES RENDUS

DE L'ACADÉMIE DES SCIENCES

SÉRIE GÉNÉRALE

gaulhier-villais


LA VIE DES SCIENCES

La Série générale des Comptes rendus intitulée La Vie des Sciences assure la diffusion des travaux et des études de l'Académie d'intérêt général. Elle constitue de fait une publication de haute culture scientifique, résolument pluridisciplinaire dans son objet comme dans son style. Elle fait l'objet d'un fascicule imprimé avec les mêmes exigences de qualité que les trois séries scientifiques des Comptes rendus et offre un ensemble de textes et de documents présentés sous les trois rubriques principales :

• Actualité scientifique : Notes originales et exposés de synthèse et de mise au point;

• Politique scientifique : prises de position de l'Académie sur la politique scientifique et technique nationale et internationale entendue dans son sens le plus large;

• Sciences, Culture et Société : histoire des Sciences, philosophie des Sciences, relations entre Sciences, Techniques et Sociétés.

Directeur de la Publication :

M. PAUL GERMAIN Secrétaire Perpétuel

Comité de Rédaction :

MM. MARCEL BESSIS Biologie humaine.

■ PAUL CARO Chimie.

YVES COPPENS Paléontologie.

PIERRE COSTÀBEL Histoire des Sciences.

JEAN DORST Biologie animale et végétale

PIERRE DOUZOU Biologie cellulaire et moléculaire.

PIERRE-GILLES DE GENNES Physique.

ANDRÉ LICHNEROWICZ Mathématique-Mécanique.

GEORGES MILLOT Géologie.

JEAN-CLAUDE PECKER Astrophysique.

Rédacteur scientifique :

M. THIERRY MONTMERLE.

Responsable administratif :

M. JACK BLACHÈRE.

Académie des Sciences, 23, quai de Conti, 75006 Paris


LA VIE DES SCIENCES



- LA VIE DES SCIENCES -

Présentation de Notes aux Comptes rendus

Structures magnétiques et convection dans le Soleil

Elizabeth RIBES

UA CNRS 326, Observatoire de Paris,

Section d'astrophysique de Meudon,

5, place J.-Janssen, 92195 Meudon Principal Cedex

Dans l'histoire de l'astronomie, le Soleil a toujours occupé une place d'honneur. Dès la fondation de l'Observatoire de Paris (1667), et plus particulièrement au début du XXe siècle, une surveillance régulière s'instaure, permettant de constituer une collection unique au monde d'observations de l'atmosphère solaire. Celles-ci révèlent la présence de structures magnétiques (taches, filaments, etc.) ancrées dans la zone convective, dont on sait qu'elle joue un rôle fondamental dans la plupart des phénomènes solaires. Ces structures offrent ainsi l'avantage de sonder une région dont les couches profondes sont inaccessibles à l'observation directe.

Avec des moyens modernes de traitement, on a pu montrer l'existence d'une circulation d'ensemble (dessinée par les jeunes taches) qui est sans doute la signature de la convection à grande échelle recherchée depuis longtemps. Même si les propriétés de cette grande échelle convective remettent en cause nos idées sur la génération du champ magnétique et sa périodicité, le « cycle solaire », on montrera qu'elle joue un rôle déterminant en modifiant le profil de la rotation du Soleil et en modulant le transport du flux magnétique (cycle de taches) et le transport d'énergie (luminosité).

Cet article replace dans un cadre plus général la Note aux Comptes rendus d'Elizabeth Ribes, intitulée « Etude de la dynamique dans la zone convective solaire et ses conséquences sur le cycle d'activité » (C.R. Acad. Se, Paris, t. 302, série II, n° 14, 1986), présentée par Gérard Wlérick, le 24 février 1986.

La Vie des Sciences, Comptes rendus, série générale, tome 3, n° 4, p. 305-326


E. Ribes

Une tradition séculaire

L'application de la lunette à l'astronomie par Galilée suscita l'enthousiasme dans l'Europe du xvne siècle. En France, J. Picard fut l'un des pionniers en matière d'astronomie de précision. Ce sont les découvertes françaises sur la constitution du Soleil qui suscitent la création de l'Observatoire d'astronomie physique de Meudon en 1875. Son premier directeur, J. Janssen, énonce le principe du spectrohéliogramme et organise un programme d'observations de la surface solaire. Puis H. Deslandres met au point le spectrohéliogramme, instrument permettant d'obtenir une vue du Soleil à différents niveaux de l'atmosphère de cet astre. Son successeur, L. d'Azambuja, a l'idée d'une observation systématique, seule méthode permettant l'étude à long terme des phénomènes solaires. Parallèlement, B. Lyot, inventeur du coronographe, développe aussi le filtre monochromatique polarisant et l'applique avec succès à la physique solaire.

Au sein du département d'Astrophysique solaire et planétaire de Meudon (DASOP), le groupe dit « groupe optique » de l'Observatoire de Paris, à Meudon, est l'héritier du Service solaire qui, depuis Janssen, a été à l'origine des découvertes importantes concernant le Soleil. Les recherches de ce groupe sont désormais orientées en priorité sur les observations à haute résolution, dans l'espace et au sol. Il prépare un grand instrument, le Télescope THEMIS (Télescope Héliographique pour l'Etude du Magnétisme et des instabilités Solaires), qui sera installé à l'Observatoire astrophysique des îles Canaries, dans le cadre d'une collaboration européenne, cependant que le groupe optique maintient la tradition en assurant la continuité d'une surveillance du Soleil. Ainsi, l'Observatoire dispose aujourd'hui d'observations s'étendant sur plusieurs décennies. Traitées avec des moyens plus modernes, ces observations ont permis de franchir une étape importante dans la compréhension des zones externes du Soleil.

Du coeur à la surface, les différentes couches du Soleil

Ce sont les régions centrales qui sont le siège des réactions nucléaires qui maintiennent notre étoile en vie. Alors que la température centrale y atteint 15 millions de degrés, les couches de surface ne dépassent pas 6 000 degrés. L'énergie (dont la luminosité de l'étoile fournit une mesure) s'achemine vers l'extérieur par différents processus. Au départ, l'énergie est transportée par le rayonnement au gré des collisions des électrons avec les atomes. Cette forme de transport, qui prend des centaines de milliers d'années, est dominante sur une distance de l'ordre de 500000 km. Puis les collisions atomiques deviennent moins efficaces, et la matière se met en mouvement dans son ensemble : c'est le transport par convection qui prend le relais jusqu'à la surface située à 700000 km du centre ( fig. 1). Au-delà de la zone convective, dans la basse atmosphère, le transport de l'énergie se fait de nouveau par rayonnement. Puis lorsque le milieu est suffisamment ténu et chaud (chromosphère et couronne), la conduction et surtout la dissipation d'ondes magnétohydrodynamiques commandent l'équilibre thermique des régions concernées.

Quelles sont les manifestations visibles de la convection ? Il existe une hiérarchie d'échelles dans les structures convectives : la « granulation » (1500 km de diamètre), la « mésogranulation » (5000 km), la «supergranulation » (30 à 50000 km). Celle qui nous intéresse ici au premier chef concerne toute l'épaisseur de la zone convective, soit une échelle d'environ 200000 km. Elle n'avait jamais été détectée directement jusqu'à présent.

306


Structures magnétiques et convection dans le Soleil

Fig. 1. — Les différentes couches du Soleil, représentées ici schématiquement. Le coeur, où se produisent les réactions nucléaires, la « zone radiative » où l'énergie produite dans le coeur est transportée par rayonnement, la « zone convective » où la matière se déplace dans son ensemble, et l'enveloppe solaire. A gauche, la température du Soleil est représentée en fonction de la distance au centre du Soleil. C'est dans la zone convective qu'opère le mécanisme de génération du champ magnétique. C'est là que sont ancrées les structures magnétiques observées dans l'atmosphère solaire : les taches (photosphère), les facules et les filaments (chromosphère). Dans la couronne qui émet dans le domaine visible, radio et X, le champ magnétique s'étend sur des distances considérables, atteignant le diamètre du Soleil, et contrôle largement la dynamique de cette zone peu dense.

307


E. Ribes

Fig. 2. — Nombre annuel des taches, de 1700 à 1970, reconstitué par Waldmeier (The Sunspot activity in the years 1910-1970), (Schulthess, Zurich, 1961).

Par ailleurs, la variation extrême des propriétés physiques (densité, viscosité, etc.) entre le sommet et la base de cette zone convective rend difficile la comparaison avec les expériences de laboratoire. En particulier, la forme de convection régulière observée en laboratoire (type cellule de Bénard) suppose que les mouvements du fluide sont faibles. Or, dans le cas du Soleil, les mouvements du gaz sont instables et la turbulence s'établit. C'est donc in situ que l'on cherche à étudier, autant que possible, les propriétés de la convection, soit directement pour les couches les plus externes, soit indirectement, pour les couches les plus profondes.

Le cycle solaire

L'existence d'un cycle solaire a été reconnue au XIXe siècle, à partir des taches, structures magnétiques observées à l'oeil nu, dès l'Antiquité, en Orient. C'est surtout après l'utilisation en astronomie de la lunette en 1611 par Galilée que des observations scientifiques et régulières des taches ont été faites. Deux siècles plus tard, un astronome amateur, H. Schwabe, remarqua une périodicité de 11 ans dans leur apparition. Peu après s'ensuivit une surveillance systématique au niveau européen. En calculant des moyennes mensuelles du nombre de taches, Wolf retrouva le cycle undécennal ( fig. 2), communément appelé « cycle solaire ».

308


I

in

S Ci

s

n

x

W 3 (t'

S' e n>

©

S -«!

«

5' s

o.

Si

a en

«T

m o_

S!

Fig. 3. — Diagramme de Maunder illustrant le déplacement en latitude de l'activité au cours du cycle. Les deux courbes représentent successivement la variation temporelle de l'aire des taches et de l'activité géomagnétique, autre signature de l'activité solaire.

o


E. Ribes

Le début du cycle est défini par l'apparition des taches aux moyennes latitudes (+40°). Au fur et à mesure que le cycle progresse, le lieu d'apparition se déplace en moyenne vers des latitudes plus proches de l'équateur, donnant naissance au diagramme « papillon » de Maunder ( fig. 3). Le démarrage du cycle est décalé d'un an ou plus entre lés deux hémisphères, et le niveau d'activité y est différent. Sur le disque, au sein d'un groupe de taches, la polarité magnétique des taches de tête, ainsi nommées car elles précèdent les autres dans le sens de la rotation, change d'un hémisphère à l'autre et se renverse d'un cycle à l'autre. La polarité magnétique des taches de queue est opposée à celle des taches de tête ( fig. 4). Le champ magnétique aux pôles du Soleil change de signe au moment du maximum d'activité. La période du champ magnétique est donc de 22 ans.

C'est en mesurant le déplacement des taches que R. Carrington détermina la période de rotation du Soleil (27 jours à l'équateur) et montra que le Soleil ne tournait pas comme un corps solide : la rotation est plus lente aux pôles qu'à l'équateur (de près de 40 %).

Fig. 4. — Champs magnétiques dans la photosphère solaire (23 juin 1980). Sur cette photo, le nord est en haut, et la rotation du Soleil s'effectue de gauche à droite. Dans l'hémisphère nord, la polarité magnétique de tête des régions actives est positive (blanche) et la polarité magnétique de queue est négative (noire). Les polarités magnétiques se renversent dans l'hémisphère sud. (National Solar Observatory, Kitt Peak, E.U.).

310


Structures magnétiques et convection dans le Soleil

Fig. 5. — Schéma de la déformation du champ poloïdal par l'accélération équatoriale (a) et de la restauration du champ poloïdal (flèche) sous l'action conjuguée de la convection et de la rotation (fc).

Le Soleil, une dynamo périodique

Les champs magnétiques sont présents partout dans l'univers et sont liés aux mouvements des charges électriques. Dans les étoiles, ces charges électriques sont réparties dans un vaste volume ionisé. Pour une étoile à rotation lente, le champ magnétique général a la forme d'un dipôle dont l'axe est sensiblement aligné avec l'axe de rotation. Les lignes de force qui vont d'un pôle à l'autre sont dites « poloïdales ». Comment, à partir d'un dipôle, peut-on engendrer un champ magnétique périodique ?

Le mécanisme le plus étudié repose sur l'interaction du champ avec la rotation non uniforme du Soleil et la convection. Les lignes de force du dipôle vont être déformées par l'accélération équatoriale. Il se forme une composante dans la direction est-ouest (champ toroïdal) ( fig. 5 a). Sous l'action d'instabilités telles que la poussée d'Archimède (la région magnétique en forme de tube est moins dense que le milieu environnant et « flotte »), le tube est expulsé et apparaît à la surface du Soleil. Les taches représentent les concentrations de champs magnétiques azimutaux. Une région active résulte de l'émergence d'un ensemble de tubes bipolaires et présente donc les deux polarités (celle

311


E. Ribes

des taches de tête et celle des taches de queue). Puisque les taches disparaissent quasiment au moment du minimum du cycle, il faut invoquer un mécanisme pour restituer le dipôle. Et c'est là qu'intervient la convection dont le rôle sera de réengendrer, à partir du champ toroïdal, un champ poloïdal (nord-sud) de signe opposé au précédent ( fig. 5 b).

Les mouvements solaires, en déformant les lignes de force, engendrent des courants électriques, comme les machines électriques appelées communément « dynamos » qui débitent de l'énergie électrique lorsqu'on leur fournit de l'énergie mécanique. Dans ce modèle dynamopériodique, le cycle résulte de l'interaction entre le champ poloïdal et le champ toroïdal. Les deux ingrédients essentiels sont la rotation non uniforme du Soleil d'une part et la présence de cellules convectives d'autre part. Si la source dynamo était localisée superficiellement dans la zone convective (qui occupe près d'un tiers du rayon solaire), la flottabilité magnétique libérerait les tubes en un temps très court, et cela ne permettrait pas au champ d'être amplifié et d'atteindre son intensité de surface ( > 1000 G). En conséquence, la source dynamo doit opérer à la base de la zone convective. La modélisation se complique, car, si l'on connaît assez bien les propriétés du plasma de surface, on ignore tout de la dynamique de la zone convective. En particulier, le profil de la vitesse angulaire du Soleil (en fonction de la profondeur et de la latitude) est inconnu, de même que le sont les propriétés de la convection à grande échelle. Il existe de nombreuses solutions à l'équation d'induction du champ magnétique, calculées à partir de champs de vitesse « imaginés». Leur succès relatif provient du nombre de paramètres libres qui excède le nombre d'équations. Si l'on tient compte de la réaction du champ magnétique sur les vitesses, on ne retrouve plus les propriétés globales du cycle. Une autre approche, toute récente, consiste à faire des simulations numériques de la convection sur de très gros ordinateurs. Mais, si les résultats obtenus sont encourageants, on est encore loin d'avoir mis sur pied un modèle satisfaisant. Devant cette situation, avant d'imputer l'échec des modèles classiques au mécanisme dynamo, il convient de remettre aussi en cause le modèle de convection.

Comment sonder la zone convective ?

La méthode la plus puissante est certainement fournie par la sismologie (Fossat et al., 1984). Le Soleil est une sphère qui vibre. Elle émet des sons qui se propagent à l'intérieur et à la surface, et qu'on peut détecter. Chaque couche va émettre un son différent, et

Fig. 6. — (a) Vue du coelostat de l'Observatoire de Meudon, système de deux miroirs qui, avec l'objectif d'entrée, forment une image réelle du Soleil à l'entrée du spectrohéliographe. Le miroir primaire a un diamètre de 50 cm; le miroir secondaire a un diamètre de 40 cm. On aperçoit la tour solaire qui permet l'observation à haute résolution des champs de vitesse dans l'atmosphère du Soleil. (Photo J. O. Durand.) (b) Principe du spectrohéliographe. Le coelostat (6 a) envoie un faisceau de lumière parallèle sur l'objectif d'entrée. Une translation uniforme de l'objectif permet de déplacer l'image du Soleil sur la fente d'entrée du spectrographe, la plaque photographique étant translatée simultanément derrière la fente de sortie. L'image du Soleil est reconstituée dans la longueur d'onde définie par l'ensemble fente d'entrée-système dispersif (réseau ou prisme) fente de sortie. Le diamètre de l'image à la sortie est 85 mm, et la résolution spatiale est 2", soit 1500 km sur la surface solaire.

312


Structures magnétiques et convection dans le Soleil

(<fl

313


E. Ribes

l'analyse précise de ces vibrations permettra de remonter à la situation physique (densité, température, pression) de la couche émettrice. Cette technique est récente, mais extrêmement prometteuse car c'est la seule façon de connaître la structure interne du Soleil et des étoiles.

Une autre méthode consiste à étudier les mouvements des structures magnétiques, qui sont des « traceurs » profondément ancrés dans la zone convective. Le plasma est suffisamment ionisé pour que les lignes de force lui soient liées. Ainsi, les mouvements du champ représenteront les mouvements du fluide. Pendant plusieurs décennies, et plus particulièrement ces dernières années, des études, systématiques de taches sur plusieurs cycles ont été faites pour détecter des dérives qui seraient la signature d'une convection à grande échelle (Gilman et ai, 1984; Balthasar et Wohl, 1983).

L'originalité de l'approche adoptée à Meudon réside dans le choix des traceurs. En sélectionnant de préférence les taches juste au moment de leur émergence, on peut espérer regarder « profondément » dans la zone convective. En effet, au bout de quelques jours, les tubes magnétiques émergents se stabilisent et sont alors fortement influencés par le plasma de surface. La position des traceurs doit être aussi précise que possible. La numérisation des clichés et un traitement d'image qui tienne compte des déformations instrumentales constituent un atout supplémentaire permettant la détection de champ de vitesses de l'ordre du m. s- 1, valeur très inférieure à celle qu'on obtient « visuellement ». C'est ainsi qu'on a pu mettre en évidence pour la première fois des mouvements à grande échelle, probablement liés à la zone convective dans son ensemble.

Jeunes taches et filaments Ha, traceurs de la circulation à grande échelle

H. Deslandres (1910) fut le premier en France à mettre au point le spectrohéliographe. Le principe de l'instrument installé à l'Observatoire de Meudon est le suivant ( fig. 6b) : un coelostat ( fig. 6 a et 7) (composé de deux miroirs de 50 et 40 cm de diamètre) envoie un faisceau de lumière sur un objectif de 25 cm de diamètre qui forme une image du Soleil à l'entrée du système dispersif. Celui-ci comprend deux spectrographes : un spectrographe à prismes (dispersion de 2,1 Â/mm) pour la raie du calcium ionisé (3 933 Â), et un réseau (3,22 Â/mm) pour la raie de l'hydrogène H a (6 563 Â). L'objectif d'entrée et les porte-plaques à la sortie sont entraînés par un mouvement synchrone de façon à enregistrer par balayage l'image de l'astre. L'instrument a été amélioré au fil des ans. Des détecteurs modernes seront mis en place l'an prochain, conjointement avec les plaques photographiques. La technique du spectrohéliographe utilisée depuis 1919 fournit une collection d'images monochromatiques nous permettant d'observer les structures existant à différents niveaux de l'atmosphère de notre étoile. Il existe trois autres collections (Greenwich, G.B.; Mount Wilson, U.S.A.; Kodaikanal, Inde), mais il s'agit d'images en lumière intégrée, nous donnant seulement une vue sommaire de la surface solaire. La collection de Meudon est donc unique au monde. Le choix des raies spectrales résulte de ce que, en observant le centre de la raie de l'hydrogène Ha et le centre de la raie du calcium ionisé, on a une vision de la chromosphère solaire. L'aile de la raie à 3 933 Â du calcium ionisé est formée plus profondément, dans la photosphère. Divers traceurs magnétiques sont donc identifiables sur la collection de spectrohéliogrammes de Meudon.

Les taches, comme on l'a vu précédemment, sont la manifestation du champ toroïdal ( fig. 8c). Les filaments Ha structures coronales denses et froides, dont l'ancrage est situé

314


Structures magnétiques et convection dans le Soleil

Fig. 7. — Le coelostat de Meudon fournit des observations quotidiennes, indispensables pour l'étude du cycle solaire. Au fond, la grande coupole de l'Observatoire de Paris à Meudon abritant le grand réfracteur double. Cette lunette, de par ses dimensions (83 cm de diamètre et 16 m de focale), est la troisième au monde. (Photo G. Servajean.)

dans la zone convective, représentent les frontières des grandes structures magnétiques de polarité opposée ( fig. 8 a). Au cours de leur vie, ces grands filaments s'orientent sensiblement dans la direction est-ouest sous l'action de la rotation différentielle. On a pu suivre rotation après rotation leur trajectoire, et déterminer ainsi la structure magnétique à grande échelle ( fig. 9). Par ailleurs, on a mesuré la dérive nord-sud des jeunes taches et montré qu'elles dessinaient une circulation méridienne complexe, en plusieurs bandes de latitude (Ribes et Mein, 1984). A l'intérieur de chaque bande de latitude, le sens du déplacement est déterminé, soit vers les pôles, soit vers l'équateur. Ce déplacement alterne d'une bande à l'autre ( fig. 10). A une latitude donnée, la circulation méridienne peut changer de sens au cours du cycle. Par exemple, en 1969, les taches apparaissant à 15° de latitude se déplacent vers l'équateur, alors que, trois ans plus tard, elles se déplacent vers les pôles. Cette particularité serait difficile à expliquer sans connaître la structure magnétique à grande échelle. Grâce aux observations faites dans la raie Ha de l'hydrogène, on peut déterminer cette structure magnétique dessinée par les filaments H a dont on sait qu'ils représentent les frontières de régions magnétiques unipolaires ( fig. 10). La coïncidence entre les latitudes critiques où s'inverse la circulation méridienne H a suggère qu'on est en présence de rouleaux magnétiques dont la direction de rotation est liée à la polarité magnétique (Ribes et al, 1985). La durée de vie des rouleaux est de plusieurs

315


E. Ribes

années. Les rouleaux localisés vers + 50°, en début de cycle, vont migrer lentement vers les pôles et renverser la polarité du champ général peu après le maximum des taches ( fig. 10). C'est la migration des rouleaux et l'apparition de nouveaux systèmes qui expliquent le changement de sens dans la circulation méridienne des taches observé entre 1969 et 1972.

La circulation à grande échelle ainsi trouvée est azimutale puisque les rouleaux sont parallèles à l'équateur. Elle a une durée de vie de plusieurs années. La vitesse de rotation associée à ces rouleaux peut atteindre 100 m. s- 1 avec une valeur moyenne de 20 m. s- 1. Des dislocations ont lieu au cours du cycle, et de nouveaux rouleaux apparaissent favorisant l'émergence du flux magnétique. Il faut noter, en effet, que les régions actives se forment à la frontière des rouleaux et sont particulièrement nombreuses et complexes lors de l'apparition de nouveaux rouleaux.

La circulation observée est-elle convective ?

De par ses dimensions, la circulation observée affecte probablement l'ensemble de la zone convective. L'amplitude des mouvements, qui peut atteindre 100 m. s- 1, est de l'ordre des vitesses théoriques de la convection, ce qui tendrait à montrer que la circulation dessinée par les jeunes taches est bien d'origine convective. Certes, ni la structure azimutale des rouleaux ni leur durée de vie ne correspondent à des cellules prédites par la théorie. On imaginait en effet que, dans le cas du Soleil, la rotation forcerait les mouvements convectifs à s'orienter parallèlement à son axe. De plus, on pensait que ces cellules hypothétiques devaient avoir une durée de vie de quelques mois, la rotation différentielle « brouillant » rapidement une convection à grande échelle. Les prédictions (Gilman, 1981) ont été faites dans un contexte où la rotation est le facteur essentiel qui contrôle la convection. Or il est clair que le champ magnétique joue aussi un rôle : une convection azimutale peut se développer dans un fluide magnétique en rotation lente (Geiger, 1982).

Pourquoi les rouleaux échappent-ils au lissage de la rotation différentielle ? Probablement parce que leur profondeur d'origine est à la base de la zone convective, là où il y a peu de mouvements, comme en témoignent la rotation plutôt rigide des jeunes taches (Ribes, 1986) ou des tubes magnétiques émergents (Escaut et al, 1984). Si le déplacement des structures magnétiques reflète les mouvements du plasma, ce qui est le cas dans un

Fig. 8. — Images monochromatiques du Soleil où apparaissent les traceurs magnétiques, taches, facules et filaments (appelés protubérances lorsqu'ils sont vus au bord du disque), (a) Centre de la raie de l'hydrogène : on voit des structures émissives (plus chaudes) associées aux facules, et la trace des filaments, (b) Aile violette de la raie du calcium ionisé : les structures magnétiques visibles sont les taches (plus froides) et les facules (plus chaudes) que le milieu environnant, (c) et (d) Centre de la raie du calcium ionisé : les deux clichés sont obtenus à 76 ans d'intervalle (soit près de 7 cycles), autour du minimum d'activité. Les images obtenues dans l'aile de la raie du calcium ionisé donnent une vue du Soleil en surface, alors que les autres images (c) et (d) montrent les phénomènes à plus haute altitude.

316


Structures magnétiques et convection dans le Soleil

317


E. Ribes

Fig. 9. — Diagramme de l'activité des filaments, de 5° en 5° de latitude héliographique en ordonnée, pour les cycles 16 à 21 (1919 à 1983) en abscisse. Chaque trait vertical correspond à une rotation solaire. Pour une latitude donnée, l'épaisseur du trait est proportionnelle à la durée et à la longueur du filament (méthode

318


Structures magnétiques et convection dans le Soleil

mise au point par L. d'Azambuja). On remarque l'existence d'une famille de filaments se déplaçant vers les pôles et renversant leur polarité magnétique au moment du maximum d'activité des taches.

319


E. Ribes

Fig. 10. — Les rouleaux azimutaux observés au cours du cycle solaire n° 20 (de 1964 à 1975) dans un diagramme où le temps est indiqué en abscisse et la latitude en ordonnée. Minimum et maximum se rapportent au minimum et au maximum d'activité du cycle des taches. La structure magnétique à grande échelle (trait plein) est dessinée par la trajectoire des filaments Ha. La polarité magnétique des régions unipolaires est indiquée par les signes + et —. La circulation méridienne zonale est dessinée par les jeunes taches (flèches). La coïncidence remarquable entre les latitudes critiques où la circulation méridienne s'inverse et les frontières magnétiques que tracent les filaments H a, montre qu'il s'agit de rouleaux magnétiques dont la direction de rotation est liée à la polarité magnétique.

milieu où la matière et le champ magnétique sont liés, la circulation méridienne observée est bien la convection à grande échelle recherchée depuis longtemps.

La convection a d'autres implications. Elle interagit avec la rotation pour donner naissance à la rotation différentielle de surface, et échange l'énergie des couches internes avec l'enveloppe solaire. Nous allons voir qu'à cet égard les propriétés des rouleaux azimutaux confirment leur origine convective.

Les rouleaux azimutaux, responsables de la rotation différentielle ?

Un des points à élucider concerne l'origine de la rotation différentielle. Puisque le fluide transporte du moment angulaire (défini comme le produit de la vitesse angulaire et du carré de la distance à l'axe de rotation), tout écoulement ayant une composante radiale ou horizontale va modifier le profil de la rotation dans un plan méridien, engendrant une rotation non uniforme. En supposant la vitesse angulaire du fluide à peu près constante grâce à la diffusion qui relie les couches successives les unes aux autres,

320


Structures magnétiques et convection dans le Soleil

Fig. 11. — Exemple d'une circulation méridienne capable d'accélérer les mouvements à Véquateur.

Equateur

une circulation axisymétrique schématisée en figure 11 peut produire une accélération équatoriale; en effet, le fluide se déplaçant vers l'équateur, près de la surface solaire, contient davantage de moment angulaire (la distance à l'axe de rotation étant plus grande) que lorsqu'il s'approche des pôles.

Il apparaît immédiatement que la circulation méridienne zonale dessinée par les jeunes taches peut créer une rotation non uniforme, mais beaucoup plus complexe que ne le prévoyait la théorie. Les rouleaux vont accélérer ou décélérer certains domaines de latitude, selon leur direction de rotation. Il n'est pas facile de faire un bilan net du transport de moment angulaire associé au système convectif que l'on vient de détecter. D'autres types de circulation à plus petite échelle peuvent aussi engendrer une rotation différentielle. Toutefois, les rouleaux semblent être responsables des variations de la rotation différentielle observées au cours du cycle (Snodgrass, 1984). Autour du maximum d'activité, la rotation différentielle est moins marquée dans le domaine de latitude où l'on a détecté la convection. Ce lissage résulte de la présence de plusieurs rouleaux tournant en sens inverse.

Rouleaux, transport d'énergie et phénomènes cycliques

L'énergie est transportée des couches profondes à la surface par le biais de la convection. Lors de la montée du cycle, l'apparition de champs magnétiques intenses peut altérer le transport convectif, localement (Spiegel et al, 1980). Des changements thermiques vont en résulter et peuvent s'accompagner d'une variation de la luminosité et du diamètre solaire. Grâce à l'expérience ACRIM sur le satellite Solar Maximum Mission, une décroissance annuelle de 0,018 % de l'irradiance (énergie rayonnée à toutes les longueurs d'onde, par mètre carré) entre le maximum et le minimum du cycle a été détectée (Kerr,

321


E. Ribes

1986). Par ailleurs, les mesures du diamètre effectuées à l'Observatoire du CERGA (Grasse) ont montré que le Soleil actif était plus petit (de 150 km) que le Soleil calme (Delache et al, 1985). La granulation, phénomène de petite échelle convective observée à la surface solaire, réagit de façon concomitante (Macris et al, 1984).

Quelle est la contribution des rouleaux azimutaux à cette modulation de la luminosité et du rayon solaire ? Si l'irradiance dépend de la latitude, ce sera la preuve irréfutable que la circulation à grande échelle dessinée par les traceurs magnétiques est bien le processus convectif majeur. Les variations globales de l'irradiance à l'échelle du cycle étant faibles, il est probable qu'un effet local sera difficile à détecter. Quoiqu'il en soit, les rouleaux jouent certainement un rôle important dans le transport de l'énergie. Dans ce contexte, l'absence de traceurs au minimum du cycle reflète-t-elle une modification substantielle de la convection ? On ne peut s'empêcher d'évoquer les périodes où le Soleil était anormalement peu actif avec un effet climatologique certain. Citons pour mémoire le minimum prolongé de Maunder (1645-1715) associé à un refroidissement ressenti dans toute l'Europe (Leroy-Ladurie, 1983). Si la convection est altérée, elle réduit la luminosité et donc l'énergie captée par l'atmosphère terrestre. Une variation de luminosité de 1 % sur quelques décennies aurait certainement un retentissement sur le climat de notre planète, et pourrait expliquer le refroidissement observé au xvne siècle. Or une analyse récente de documents historiques relatifs à la mesure du diamètre solaire et à sa rotation (par le biais des taches) révèle qu'à cette époque le Soleil était plus grand (32'9") qu'il n'est actuellement (32'2"), soit 5 000 km de différence, et tournait un peu moins rapidement (Ribes et al, 1986). Ces résultats suggèrent que le Soleil se dilate et se contracte, cette oscillation de structure présentant différentes périodes (11 ans, 314 ans...) et différentes amplitudes, la variation à long terme étant plus accentuée que sur les périodes courtes. La dilatation du Soleil observée au xvne siècle peut entraîner une variation de la luminosité de l'ordre de 1 % ou plus, en accord avec les prédictions climatiques à une échelle de quelques siècles.

D'autres signatures d'une activité solaire cyclique nous permettent de voir au-delà de notre millénaire. Le taux annuel de croissance des arbres lié à la production du 14C, elle-même modulée par l'activité solaire, indique l'existence d'un cycle sur une période de 10 000 ans. Un saut beaucoup plus important est réalisé grâce à la découverte de dépôts d'alluvions, au sud de l'Australie. Dans une région périglaciaire, à l'époque précambrienne (de l'ordre de 680 millions d'années), des alluvions se sont déposés sur une période de 20000 ans. On observe une alternance de couches sombres et claires (« varves ») ( fig. 12). L'explication proposée par G. E. Williams (1981), le géologue responsable de la misé à jour de ces échantillons fossiles, s'énonce en termes de variations climatiques saisonnières. En effet, lorsque la température augmente, le sol se réchauffe, la glace fond et se mélange au schiste argileux, formant un dépôt clair qui contraste avec le dépôt sombre associé à l'hiver. L'épaisseur des varves claires dépend du climat puisqu'une saison longue et chaude provoquera davantage de mélange. L'analyse des varves permet de recueillir des informations climatiques. Par ailleurs, on a retrouvé dans l'épaisseur des varves la périodicité de 10 à 12 ans, et même des modulations à plus long terme présentes dans le nombre des taches. En particulier, on retrouve de longs minima d'activité, qui pourraient être associés aux cycles peu actifs du xvnc siècle, avec une périodicité de 314 ans. La réponse du climat à l'activité solaire était nette donc à l'époque précambrienne. Actuellement, si la variabilité solaire existe, sa relation avec le climat est moins évidente. Les varves déposées dans un lac glaciaire au sud de l'Alaska ne révèlent pas une signature

322 -


Structures magnétiques et convection dans le Soleil

Fig. 12. — Dépôts d'alluvions dans une région périglaciaire (Pichi Richi) au sud de l'Australie à l'époque précambrienne. (Photo transmise aimablement par G. E. Williams.)

323


E. Ribes

solaire aussi prononcée (Sonett et al, 1985). La composition de l'atmosphère précambrienne était certainement différente de l'atmosphère terrestre actuelle. Une autre explication possible pourrait être que la variabilité solaire a fortement décru.

De l'histoire des observations solaires à la prévision du climat ?

Grâce à une tradition séculaire assurant la continuité et la richesse des observations solaires, les pièces du puzzle s'assemblent : il existe probablement deux phénomènes périodiques intimement liés : un cycle magnétique des taches et un cycle de structure (dilatation et compression du Soleil) qui présentent la même périodicité de 11 ans. Us varient en phase, et l'amplitude de leurs variations pourrait être modulée sur une période beaucoup plus grande (314 ans ?). Rappelons qu'au moment du minimum de Maunder le cycle des taches était à peine visible, et à la même époque, le Soleil était plus grand avec une rotation plus faible. Sur cette longue période de trois siècles, les variations observées sont beaucoup plus accusées que sur le cycle de 11 ans. En effet, la variation du diamètre solaire (5 000 km) est 50 fois supérieure à celle détectée sur la période de 11 ans.

On imagine assez bien le processus d'interaction entre les deux cycles : la présence de champs magnétiques intenses modifie le transport convectif avec, comme conséquences, les changements dans la rotation, le diamètre et la luminosité. Le couplage non linéaire entre le cycle magnétique et le cycle de structure s'effectue dans une zone de transition, entre le coeur radiatif du Soleil et son enveloppe. Cette zone clé pour l'explication des phénomènes solaires est la zone convective. A partir d'un échantillon réduit (1 cycle), nous avons détecté pour la première fois la structure convective à grande échelle qui remet en cause, par ses propriétés inattendues, nos idées sur la génération du champ magnétique. L'étude de l'évolution temporelle de cette structure géante au cours des six cycles solaires dont nous disposons permettra de mieux comprendre le mécanisme de génération du champ magnétique, et peut-être même de prévoir l'évolution du climat qui intéresse chacun d'entre nous.

RÉFÉRENCES

Balthazar H., Wohl H., 1983, Solar Phys., 88, 71.

Delache P., Laclare F., Sadsaoud H., 1985, Nature, 317, 416.

Deslandres H., 1910, Annales de ^Observation de Meudon, t. 4, 1" partie.

Escaut L, Martres M.-J., Mouradian Z., 1984, C.R. Acad. Se. (Paris), série 1, 545.

Fossat E., Grec G., Gelly B., Decanini Y., 1984, C.R. Acad. Se. (Paris), série 2, 229, 17.

Geiger G., 1982, Physics ofthe Earth and Planetary Interiors, 28, 185.

Gilman P. A., 1981, in The Sun as a Star (éd. S. Jordan), 231-252 (CNRS, France and NASA, Washington DC).

Gilman P. A., Howard R., 1984, Astrophys. J., 283, 385.

Kerr R. A., 1986, Science, 231, 339.

Leroy-Ladurie E., 1983, Histoire du climat depuis l'an 1000, Flammarion, Paris.

Macris C. J., Muller R., Rosch J., Roddier T., 1984, Small-scale Dynamical processes in Quiet Stellar Atmosphères, éd. S. L. Keil (Sacramento Peak : Sunspot), 265.

Ribes E., Mein P., 1984, Proceedings (8e colloque UA1 régional d'astronomie), Ed. R. Muller, 282.

Ribes E., Mein P., Mangeney A., 1985, Nature, 318, 170.

324


Structures magnétiques et convection dans le Soleil

Ribes E., 1986, C.R. Acad. Se. (Paris), série 2, 302, 871. Ribes E., Ribes J. C, Barthalot R., 1986, soumis. Snodgrass H. B., Howard R., 1984, Solar Phys., 95, 221. Sonett C. P., Williams G. E., 1985, J. Geophys. Res., 80, 8, 112. Spiegel E. A., Weiss N. O., 1980, Nature, 287, 616. Williams G. E., 1981, Nature, 291, 624.

325



LA VIE DES SCIENCES

Les profondeurs de la Terre : en guise de préface

Jean COULOMB

Membre de l'Académie

L'Académie des Sciences a entendu en octobre et novembre 1985 quatre exposés sur les profondeurs de la Terre : entendez par là les régions sur lesquelles nous n'avons plus de témoignages directs, tels que ceux que fournissent des magmas plus ou moins altérés ou des enclaves dans les cheminées diamantifères. Extrapoler les conditions superficielles conduirait vite à des absurdités, et les méthodes géophysiques s'écartent nécessairement de celles de la géologie. Cependant les profondeurs à envisager n'avaient pas été précisées afin de laisser les conférenciers plus libres, car les phénomènes qu'ils devaient décrire n'avaient pas tous la même extension verticale. L'essentiel était de pénétrer le plus avant possible dans le siège traditionnel des divinités infernales !

Les résultats géophysiques ont guidé de grands efforts récents pour modéliser la structure des autres planètes et pour tester certaines hypothèses sur la formation du système solaire. Inversement la constitution des météorites (recueillies d'abord çà et là, puis méthodiquement dans l'Antarctique) a fourni des renseignements détaillés sur la minéralogie des corps dont elles proviennent, et, par analogie, sur la constitution de notre globe. Mais les temps impartis étaient trop courts pour aborder ce sujet dans la présente série d'exposés, comme d'ailleurs les importantes contributions de la géochimie.

Historiquement, sans remonter jusqu'au xvne siècle et au Munàus subterraneus d'Athanasius Kircher, on peut dire que l'homme s'est fait une image fantaisiste de la Terre jusqu'au moment où les ébranlements produits par les séismes ont pu être observés après leurs longs voyages à travers le globe. La sismologie a ainsi apporté en moins d'un siècle un ensemble de données sûres, qui ont servi de base à tous les modèles quantitatifs utilisés par les sciences de la Terre. D'autre part, en réfléchissant sur cette modélisation, les sismologues ont dégagé des principes féconds, d'application plus générale. Ce sont là les sujets dont nous a parlé le 28 octobre Georges Jobert, Professeur à l'Université Pierre-et-Marie-Curie. Il a notamment rappelé l'existence, sous la croûte, d'un « manteau », qui apparaît fort complexe à la lumière des travaux récents, puis d'un « noyau » liquide dans sa partie externe, le centre étant une « graine » solide.

Une telle description résume quantité de détails, instantanés à l'échelle géologique, obtenus par l'enregistrement des flashs sismiques. Mais nous savons tous, depuis l'avènement de la théorie des plaques, que les structures profondes évoluent lentement. C'est

La Vie des Sciences, Comptes rendus, série générale, tome 3, n'' 4. p. 327-328


J. Coulomb —

d'ailleurs cette déformation qui engendre, dans des régions plus ou moins superficielles, les ruptures, sources des tremblements de terre. La sismologie délimite les régions affectées mais ne nous informe guère sur les transferts généraux de matière et de chaleur ni sur les hétérogénéités qui les meuvent. Les circonstances (incomplètement élucidées) et les théories (qui hésitent encore entre une convection unique, qui affecterait l'ensemble du manteau, et deux systèmes séparés pour les manteaux inférieur et supérieur) ont été présentées conjointement le 4 novembre par Claude Jaupart, Professeur à l'Université Paris-VII et Henri-Claude Nataf, chargé de recherches au CNRS.

Après les deux exposés d'ensemble dont nous venons de parler, Xavier Le Pichon, Professeur à l'École Normale Supérieure, nous a fait part le 18 novembre de ses vues sur le lien entre les phénomènes profonds et certaines grandes évolutions de la surface terrestre; la plus connue, celle qu'il a pu interpréter avec le plus de détails, est la rupture de la Pangée permienne, telle que Wegener l'avait imaginée, et la dispersion consécutive des grands continents.

Tout ce qui précède concernait surtout les régions accessibles à des raisonnements relevant de la mécanique ou de la thermodynamique. Cependant Elsasser a proposé, il y a une trentaine d'années, d'attribuer le champ magnétique terrestre à des courants électriques dans le liquide conducteur du noyau, maintenus par un processus analogue à celui d'une dynamo auto-excitée. Les géophysiciens avaient aussitôt conçu l'espoir d'obtenir ainsi des informations sur les parties centrales de la Terre. Hélas, les théories hydromagnétiques du champ terrestre ont garni des bibliothèques sans aboutir à des conclusions fermes sur les phénomènes en jeu. Le 25 novembre, dans le dernier exposé, Jean-Louis Le Mouël, Physicien-titulaire à l'Institut de Physique du Globe de Paris, a montré comment la découverte d'un nouveau phénomène, jointe à des hypothèses simplificatrices bientôt reconnues fécondes, a permis d'interpréter des aspects importants du magnétisme terrestre, en commençant par sa variation séculaire.

328


LA VIE DES SCIENCES -

L'intérieur de la Terre d'après la sismologie

Georges JOBERT

Correspondant de l'Académie

Si, grâce à la sismologie, la structure de la Terre est connue dans ses grandes lignes depuis la fin des années 1950, l'amélioration, pendant ces vingt dernières années, des techniques instrumentales et des outils théoriques a permis de préciser les modèles globaux de l'intérieur de notre planète et d'en obtenir les premières cartes tridimensionnelles.

Cet article s'inscrit dans le cadre de la série d'exposés organisés par Jean Coulomb sur le thème de « Les profondeurs de la Terre » et présentés devant l'Académie des Sciences (cf. La Vie des Sciences, 3, ?i° 4, 1986, p. 327).

La Terre, milieu élastique

Toute science où l'on s'intéresse aux propriétés d'un milieu inaccessible à l'observation directe — qu'il s'agisse de l'intérieur d'une étoile, d'une planète, d'une molécule, d'un atome ou d'un noyau — s'impose une démarche : à partir d'un modèle plausible de ce milieu et d'une théorie, déterminer la valeur de certaines grandeurs, observables de l'extérieur. C'est ce que l'on appelle résoudre un problème direct. On compare ensuite les valeurs calculées aux valeurs fournies par l'expérience. On s'est longtemps borné à ajuster le modèle jusqu'à obtenir un accord satisfaisant dans les limites de l'imprécision des mesures. C'est la première approche du problème dit inverse où l'on cherche toute l'information sur le milieu que peuvent fournir les données.

Pour construire leurs modèles mécaniques de la Terre, les géophysiciens tirent parti des ondes émises par les séismes et traversant les régions internes. Dans un milieu élastique isotrope se propagent deux types d'ondes : les ondes longitudinales ou ondes P — qui sont les ondes sonores dans les fluides —, pour lesquelles le mouvement de la

La Vie des Sciences, Comptes rendus, série générale, tome 3, n° 4, p. 329-346


G. Jobert

matière se fait dans la direction de propagation, et les ondes transversales ou ondes S, pour lesquelles le mouvement est perpendiculaire à la direction de propagation. Ces deux ondes, dites de volume, sont les seules qui existent dans un milieu indéfini. A l'intérieur de la Terre, leurs vitesses de propagation VP, Vs varient respectivement de 5 et 3 km/s en surface à 11 et 3 km/s au centre. En présence de la frontière libre constituée par la surface de la Terre se propagent aussi des ondes guidées, dites ondes de surface. Elles sont dispersées, c'est-à-dire que la vitesse d'une composante élémentaire dépend de sa période.

Pour plusieurs milliers de séismes par an, les ondes émises peuvent être détectées et enregistrées en tout point de la surface. La figure 1 montre des exemples de tels enregistrements ou sismogrammes. On y voit l'arrivée de « phases » correspondant au passage de fronts d'onde qui ont suivi des chemins différents à partir du point, ou foyer, où a débuté la rupture. La suite du sismogramme, après chaque début de phase, dépend de l'évolution de la source après le début, par exemple de la façon dont la rupture s'est ensuite propagée le long d'une faille. La « période » de ces signaux est de l'ordre de la seconde, ce qui correspond à des longueurs d'onde de l'ordre de quelques kilomètres. La figure 2 montre les « rais sismiques » (trajectoires orthogonales des fronts), qui sont courbes comme les rayons lumineux dans les mirages, du fait de leur réfraction continue dans les différents milieux traversés.

Pour une source superficielle connue, les durées de propagation des débuts des ondes de volume à une station donnée et la distance à celle-ci, mesurée le long de la surface, sont liées à quelques millièmes près, ce qui montre qu'à la même approximation l'intérieur de la Terre a une symétrie sphérique.

Les étapes de la connaissance sismologique

Les trois « problèmes inverses » fondamentaux de la sismologie consistent à déterminer à partir des enregistrements :

— la structure de la Terre, c'est-à-dire ses propriétés mécaniques en fonction de la profondeur, d'où l'on tire une information sur les conditions physiques correspondantes;

330


L'intérieur de la Terre

— les coordonnées spatio-temporelles de la source;

— les propriétés de la source (plan de faille ou explosion, déplacement sur la faille en fonction du temps...).

Les deux premiers problèmes ont été résolus dès le début de la sismologie moyennant des hypothèses assez fortes, le premier par Herglotz (1907) et Wiechert (1910) (en

Fig. 1. — Exemples de sismogrammes : (a) à 3 270 km de la source. La partie haute correspond à l'enregistrement sur la composante verticale, les autres sur les composantes horizontales. On y voit les ondes de volume longitudinales P et transversales S et les ondes de surface de Rayleigh LR. On voit aussi des ondes PP réfléchies une fois à la surface de la Terre. Les marques de temps correspondent à une minute; (b) pour des séismes lointains, observés à ses distances épicentrales voisines de 154°. On y voit les ondes PKP qui ont traversé le noyau suivant différents trajets (voir jig. 2) et l'onde PKiKP qui a traversé la graine.

331


G. Jobert

Fig. 2. — Rais sismiques dans un modèle de Terre. Les ondes PcP et PKiKP sont réfléchies respectivement sur la surface du noyau et sur celle de la graine. Les ondes PP, PPP sont réfléchies une, deux fois à la surface de la Terre. On note K la partie de l'onde passant dans le noyau. Les ondes PKP2 traversent les parties superficielles de celui-ci et sortent entre A' et B' à la surface. Les ondes PKPi passent plus près de la graine et sortent entre B' et C. L'onde PKKP est réfléchie une fois sur la surface interne du noyau.

supposant que le rapport V(R)/R de la vitesse de propagation au rayon R décroît de façon monotone en fonction de R), le second par Geiger (1910) (en supposant le milieu homogène). En 1925, Wadati a reconnu l'existence de séismes plus profonds que ceux, dits normaux, de la croûte; leur profondeur peut atteindre 700 km. La localisation de ces foyers permet de dessiner la forme des langues plongeantes de la lithosphère dans les régions de « subduction » (zones de Benioff) qui entourent la majeure partie du Pacifique et sont présentes dans quelques autres régions (Antilles, arcs volcaniques de la Méditerranée).

Dès 1914, Gutenberg démontre l'existence à une profondeur de 2900 km d'un « noyau » où la vitesse des ondes P devient brusquement plus faible que celle dans le manteau qui l'entoure. Jeffreys conclut en 1926 à la fluidité du noyau. En 1936, Mlle Lehmann y montre la présence d'une stratification et distingue le noyau externe et

332


L'intérieur de la Terre

le noyau interne ou graine commençant vers 1500 km du centre (fig. 2). En 1957, Gutenberg estime que la graine est solide.

Après de nombreuses discussions, l'étude des ondes de surface à partir des années 1950 donne raison à Gutenberg qui proposait l'existence dans le manteau supérieur d'une couche débutant vers 200 km de profondeur, dans laquelle la vitesse des ondes (surtout celle des ondes S) passerait par un minimum (couche dite à faible vitesse). Au-dessous, vers 400 km de profondeur, se situe une zone à fort gradient de vitesse.

Le paramètre le plus recherché (depuis le xvme siècle) est la densité du milieu. On sait que la connaissance de la gravité à l'extérieur d'un corps ne fournit que de faibles contraintes sur la répartition de la densité interne. Les résultats précédents de la sismologie ont permis, moyennant quelques hypothèses supplémentaires, d'en proposer des modèles. Si l'on suppose le milieu chimiquement homogène, en équilibre hydrostatique et en équilibre adiabatique (une particule qui se déplace verticalement sans échanger de chaleur avec le milieu prend alors la température de la couche où elle arrive), on peut mettre en relation la variation de la pression p avec le rayon R, la densité p, et la gravité g d'une part, la compressibilité |3 et les variations de pression et de densité de l'autre. On peut écrire respectivement :

où p est la densité moyenne dans la sphère de rayon R et G la constante de Newton. A partir de la répartition des vitesses des ondes sismiques, on déduit celle du produit pp.

En combinant ces informations, on peut, comme l'a fait Bullen dès 1936, déterminer la densité en fonction du rayon.

Fig. 3. — Enregistrement — comprimé dans le temps — de la composante verticale du mouvement du sol à la suite du séisme du Pérou (3.10.1974), obtenu à la station (IPGP) à longue période de Moulis (Ariège), montrant les ondes de Rayleigh qui ont atteint la station par le petit arc de grand cercle (Rj), ou par le grand arc (R2), et celle qui a parcouru le petit arc et une fois le tour de la Terre (R3).

333


p

et

■n

Fig. 4. — Spectre des vibrations propres de la Terre obtenu par transformation de Fourier à partir de l'enregistrement précédent. Les raies prévues par la théorie sont indiquées en haut de la figure pour les modes sphéroïdaux S et toroïdaux T pour les différents ordres 1. La modulation de l'amplitude des raies est due pour partie à la distance de la source à la station (à une distance épicentrale de 90°, une raie sur deux disparaît), pour partie au mécanisme au foyer du séisme.


L'intérieur de la Terre

La structure générale de la Terre était ainsi devenue assez claire depuis le début des années 1960. Les progrès faits depuis une vingtaine d'années sont d'abord la conséquence de l'amélioration des techniques instrumentales :

— la bande passante des appareils a été étendue vers les grandes périodes (jusqu'à une heure), permettant la mise en évidence de vibrations propres de la Terre excitées par les forts séismes (fig. 3 et 4);

— de grands réseaux de sismographes ont été installés, le plus souvent à des fins de détection d'explosions nucléaires, soit sous forme de nappes (LASA...), soit avec une répartition globale (WWSSN, IDA, Géoscope) (x).

Frontières intraterrestres

On a obtenu grâce à des réseaux locaux des résultats concernant les principales discontinuités susceptibles d'exister à l'intérieur de la Terre, à savoir :

— des discontinuités ou variations rapides au sein du manteau, discontinuités dont la connaissance précise permettrait peut-être de choisir entre les modèles de convection à deux couches ou à une seule; un dilemme dont il sera question dans l'article de Claude Jaupart et Henri-Claude Nataf (La Vie des Sciences, 3, n° 4, p. 347);

— la frontière entre manteau et noyau, avec ou sans couplage éventuel par des reliefs entre ces deux milieux;

— la frontière entre noyau externe et graine.

Les discontinuités du manteau

Dès la fin des années 1960, l'utilisation de réseaux pouvant comporter des centaines de sismographes répartis sur des milliers de kilomètres carrés a permis de déterminer avec plus de précision la pente des courbes de propagation des ondes et d'effectuer de meilleures inversions des temps d'arrivée. C'est ainsi qu'ont été reconnues deux couches : l'une vers 400 km de profondeur, l'autre vers 650-670 km (voir plus loin, fig. 7) à fort gradient de vitesse ou à vraie discontinuité (c'est-à-dire se produisant sur une épaisseur inférieure à quelques kilomètres, ordre de grandeur de la longueur d'onde des ondes sismiques utilisées). La coïncidence approchée entre la profondeur maximale des foyers sismiques et celle de la seconde couche peut s'expliquer soit par l'existence d'une barrière que ne peut franchir la lithosphère lors de la subduction, soit par un changement de propriétés physiques de la lithosphère à ce niveau. Creager et Jordan (1985) pensent mettre en évidence, sous les îles Mariannes et d'autres régions du Pacifique nord-est, à sismicité profonde, des anomalies de vitesse qui seraient dues à la descente « silencieuse » de la lithosphère plusieurs centaines de kilomètres au-dessous de cette zone.

On observe sur le réseau australien des ondes S issues de séismes profonds (îles Tonga ou mer de Banda) transformées en ondes P à la réfraction vers 650 km de profondeur, ce qui impliquerait une discontinuité véritable des propriétés mécaniques. Mais dans le travail le plus récent (1985) Leven conclut que la structure vers 650 km pourrait s'étendre sur une épaisseur de 35 km. Par contre, la vitesse des ondes P subirait vers 406 km un

335


G. Jobert

accroissement brutal de 5,8 %. Ces résultats s'accordent assez bien avec ceux obtenus avec le réseau Norsar où King et Calcagnile (1976) trouvaient des discontinuités à 420 et 690 km sous l'Eurasie à partir d'explosions nucléaires soviétiques. Des variations régionales de profondeurs et peut-être de structure de ces zones de transition sont possibles. Leur relation éventuelle avec le caractère géodynamique des régions superficielles (dorsales océaniques, zones de subduction, de collision...) devra être précisée.

La frontière manteau-noyau

En 1912 Gutenberg (âgé de 23 ans) annonçait 3471 km pour le rayon moyen de cette frontière. A de nombreuses reprises, des valeurs plus fortes ont été proposées. Le plus souvent, l'argument porte sur le temps de propagation d'ondes réfléchies sur le noyau (ondes PcP), comparé à celui d'ondes directes dans le manteau. Les valeurs proposées depuis 1972 varient entre 3 475 et 3 488,5 km. On peut estimer aujourd'hui que le rayon moyen du noyau est 3 482 km à + 2 km près.

La question de son ellipticité est importante pour l'étude des mouvements de la Terre dans l'espace (variations de la rotation, en grandeur et direction) et sa réponse aux forces de marée, compte tenu des mouvements du fluide dans le noyau. En général, on évalue l'aplatissement des surfaces d'égale densité dans l'hypothèse d'un fluide en équilibre tournant à faible vitesse, suivant une théorie dont l'origine remonte à Clairaut (1743). L'aplatissement de la frontière serait inférieur d'un quart environ à l'aplatissement superficiel. Mais on n'a aucune preuve sismologique que la frontière est bien une surface d'égale densité dans chaque milieu.

Cette frontière est-elle lisse ou rugueuse ? Le point est important pour l'interprétation des irrégularités du champ magnétique qui pourraient être associées à des irrégularités topographiques de la frontière. Qu'apporte la sismologie? Deux types d'observations peuvent être utilisées :

— les ondes diffractées autour du noyau, en particulier la décroissance de leur amplitude dans la zone d'ombre due à la forte réfraction que subissent les rais sismiques en traversant le noyau (voir fig. 2);

— des ondes à courte période qui seraient diffusées par la frontière et arriveraient comme précurseurs de certaines phases.

Doornbos (1978) a montré que la plupart des amplitudes observées pour les précurseurs des PKP seraient bien expliquées si la frontière avait des ondulations de quelques centaines de mètres d'amplitude. Une topographie plus importante serait nécessaire pour expliquer des anomalies observées en 1978 et 1981 par Chang et Cleary sur le réseau LASA.

Que des ondulations de quelques centaines de mètres suffisent pour causer une diffusion observable des ondes sismiques s'explique par les grands contrastes de rigidité et de densité à la frontière manteau-noyau.

Une limite à l'amplitude de ces irrégularités est fournie par l'observation d'ondes PcP très nettes et de haute fréquence; Boit et Phinney (1972) estiment cette observation incompatible avec des bosses de courte longueur d'onde ayant plus de 2 km d'amplitude. L'observation d'ondes P7KP (et même P9KP), ayant une période de moins d'une

336


L'intérieur de la Terre

Fig. 5. — (a) Trajets suivis par l'onde PIKP qui se réfléchit six fois sur la face concave du noyau. Le tracé des rais est dû à C. Chapman et correspond au modèle moyen de Terre CAL 3; (b) la flèche A (à gauche) montre l'arrivée de la phase P4KP enregistrée à Jamestown à la suite d'une explosion nucléaire à Novaya Zemla (1970); la flèche B (à droite) montre l'arrivée, bien moins intense, de l'onde P7KP. L'existence de ces phases est la preuve que la frontière noyau-manteau doit être assez lisse. (D'après B. Boit, 1973, extrait de © Scientific American et Pour la Science.)

337


G. Jobert

Fig. 6. — Schéma montrant (en haut à gauche) pour un problème réduit à un paramètre (en abscisse) et une donnée d (en ordonnée) les lois de probabilité correspondant à un problème inverse où Fon recherche le paramètre à partir de la donnée. L'information a priori sur p (mal défini) et celle d'origine expérimentale sur d (supposée connue avec précision) conduisent, pour le paramètre global (p, d), à la loi de probabilité représentée par les ellipses de la figure en haut à droite (si M est la valeur maximale de la probabilité au centre, les ellipses correspondent à M/2, M/4, M/8). La relation théorique (ici d=p) qui lie paramètre et donnée est elle-même éventuellement connue de façon imprécise, ce qui est indiqué par les droites parallèles à la bissectrice (correspondant à des probabilités réduites par un facteur 1/2 et 1/10 respectivement par rapport à la probabilité maximale sur la bissectrice). En combinant la loi théorique et la loi a priori, on obtient la loi de probabilité a posteriori (ellipses obliques en bas à gauche), d'où l'on déduit les lois marginales montrées sur le quatrième volet (en bas à droite). On voit l'amélioration fournie sur la connaissance du paramètre par la mesure de d. La solution du problème inverse est ainsi obtenue de façon unique. Le cas d'un problème direct s'obtient en échangeant les axes d et p.

338


L'intérieur de la Terre

seconde, réfléchies six fois dans la concavité de la frontière (fig. 5), conduit à la même conclusion.

Depuis longtemps, on a été amené à admettre que, si la frontière est une véritable discontinuité, elle est entourée d'une couche de 100 à 200 km d'épaisseur (« couche D" » de Bullen) où la variation verticale de vitesse est nulle ou même négative. Boit (1972) pense que la densité moyenne y augmente de 6 %, ce qui serait dû à une augmentation de la concentration en fer de l'ordre de 10 %. Le modèle global PREM, dont nous reparlerons, admet une discontinuité du second ordre au sommet de cette couche, dont on estime l'épaisseur à 150 km. L'inversion y trouve un gradient nul. Disons que la couche, à gradient faible ou nul, est encore mal définie.

Des indices d'hétérogénéités latérales (c'est-à-dire dépendant des coordonnées géographiques) ont été relevés à ce niveau. Par exemple Haddon et al. (1977) pensent que les précurseurs souvent intenses qui arrivent trente secondes avant les ondes « PKPPKP » (revenant à la surface après avoir traversé et retraversé le noyau) pourraient être dus en partie à une diffusion sur les hétérogénéités dans la couche D". Nous y reviendrons.

Frontière noyau externe-graine

Cette frontière apparaît nette et bien définie pour les ondes P (Hage, 1983). L'analyse des formes d'onde tenant compte des mécanismes au foyer des séismes (Choy et Cormier, 1983) permet de montrer qu'elle n'est pas entourée d'une couche à gradient faible ou nul, comme celle du manteau et du noyau, ou à fort défaut d'élasticité. Pour les ondes S qui auraient traversé la graine et qui sont encore mal observées, il semble que les propriétés dépendent de la fréquence et que leur vitesse serait faible au sommet de la graine. Des mesures complémentaires seraient nécessaires pour préciser ces points.

Modèles globaux

Parlons maintenant des progrès de la théorie : ils ont d'abord permis le calcul des vibrations propres en milieu hétérogène, en tenant compte de l'ellipticité, de la rotation et des hétérogénéités latérales; la modélisation dynamique des sources; le calcul des sismogrammes théoriques correspondant à des structures et des sources complexes. On a assisté d'autre part à une véritable révolution dans les concepts relatifs aux « problèmes inverses ». Le problème sismologique inverse résolu par Herglotz et Wiechert était idéaliste en ce sens qu'il supposait disponible une quantité d'information infinie : il fallait connaître pour toute distance la dérivée p(A) = d7jdA de la durée de propagation en fonction de la distance. Plus précisément, la profondeur R1 atteinte par le rai de « paramètre » px est donnée par :

et a est le rayon de la Terre, et la vitesse de l'onde en Rj est : l/pv Or le calcul de la dérivée d'une fonction connue expérimentalement est un problème mal posé, c'est-à-dire qu'il n'en existe pas de solution unique et stable par rapport à de petites perturbations

339


G. Jobert

Fig. 7. — Modèle de référence de la Terre (PREM) de Dziewonski et Anderson (1981), montrant les lois de variation avec la profondeur des vitesses des ondes sismiques P et S en km/s et de la densité en g/cm 3. Le coefficient r| caractérise le degré d'isotropie (T| = 1 pour un milieu isotrope comme le noyau). (© Elsevier Se. Pub. Co)

des conditions. D'autre part, le problème de Wiechert n'a de solution unique que si V(R)/R, où V est la vitesse et R la distance au centre, est une fonction constamment décroissante de R. En 1967, Gerver et Markushevitch ont montré qu'en présence d'une couche à faible vitesse il y a une infinité de solutions différentes.

Heureusement, à la même époque Backus et Gilbert ont présenté une analyse approfondie de la théorie des problèmes inverses qui allait avoir un grand retentissement. Je dirai seulement qu'à la recherche du modèle unique explicatif des résultats expérimentaux ils ont substitué celle des modèles acceptables appartenant à une classe choisie de modèles. La non-unicité reflète la finitude de l'information disponible.

Parmi les progrès récents dans ce domaine, je dois citer d'une part ceux dus à Sabatier et à son équipe (Université des Sciences et Techniques de Montpellier) dans l'analyse des problèmes inverses où les paramètres sont contraints par des inégalités; d'autre part l'approche probabiliste de Tarantola et Valette (Institut de Physique du Globe de Paris) : si l'on dispose de trois ensembles de lois de probabilité correspondant à la connaissance des données expérimentales, à la validité de la théorie, enfin à la connaissance a priori des paramètres du modèle, la combinaison de ces trois ensembles fournit la probabilité a

340


- L'intérieur de la Terre

posteriori pour les données et pour les paramètres. Problèmes directs et problèmes inverses apparaissent alors comme des cas particuliers : dans le premier cas, la loi de probabilité a priori est précise pour les paramètres, plate pour les données; dans le second, c'est le contraire (fig. 6).

Une conclusion s'impose : il faut considérer les trois problèmes inverses de la sismologie simultanément et tirer parti pour les résoudre de l'ensemble de l'information disponible dans les enregistrements. C'est la démarche suivie par Gilbert et Dziewonski (1975) qui établissent des modèles satisfaisants avec ou sans discontinuité dans le manteau.

Le modèle global le plus complet à ce jour est le PREM (2), modèle paramétrique de référence, établi par Dziewonski et Anderson en 1980. Aux spectres des vibrations propres comprenant plus de 1000 raies identifiées et aux courbes de dispersion des ondes de surface, ces auteurs ajoutent des temps de propagation d'onde de volume, environ 2 millions pour les ondes P, 250 000 pour les S. Les nouveautés principales sont (fig. 7) :

— la prise en compte d'un faible défaut d'élasticité, supposé indépendant de la fréquence; les relations de causalité pour une onde progressive entraînent alors une faible variation des paramètres élastiques avec la fréquence, ce qui permet de combiner correctement les données à haute fréquence (ondes de volume autour d'une seconde) et à basse fréquence (ondes de surface de période supérieure à vingt secondes);

— l'anisotropie dans les deux cents premiers kilomètres du manteau (qui se traduit par une différence d'au plus 4 % entre les vitesses dans la direction verticale et dans une direction horizontale) permet de réconcilier les dispersions observées pour les deux types d'ondes de surface : ondes de Rayleigh (polarisées dans le plan vertical de propagation) et ondes de Love (polarisées perpendiculairement à ce plan).

Les changements les plus importants concernent le manteau supérieur et consistent en une réduction du contraste entre le toit du manteau et la couche à faible vitesse. Les temps de propagation et les périodes propres calculées avec ce modèle sont en excellent accord avec les données.

Une fois établis des modèles moyens, il est possible de s'attaquer au problème plus complexe de la détermination des hétérogénéités latérales.

Cartes tridimensionnelles du manteau

Les modèles à symétrie sphérique rendent compte de la majeure partie des observations mais n'incluent naturellement pas les variations latérales évidentes en surface, que l'on avait tendance à supposer négligeables en profondeur.

Les résultats les plus importants à ce jour sont les modèles globaux tridimensionnels obtenus en 1984 par Dziewonski pour le manteau inférieur et Woodhouse et Dziewonski pour le manteau supérieur.

Dans le premier travail, Dziewonski recherche, par inversion itérative, la variation de la vitesse dans la Terre par rapport au modèle sphérique PREM, sous la forme d'un développement en une somme de fonctions harmoniques sphériques jusqu'à l'ordre de 6.

La figure 8 montre les anomalies de vitesse à différentes profondeurs. Le point le plus frappant est leur haut niveau au sommet et à la base du modèle. A 670 km, la perturbation

341


G. Jobert

Fig. 8. — Cartes des anomalies de vitesse des ondes longitudinales à six profondeurs différentes dans le manteau inférieur, obtenues par Dziewonski (1984). CMB désigne la frontière entre le manteau et le noyau. L'échelle des couleurs donne la perturbation relative de vitesse; l'amplitude totale ± 1 % est utilisée pour les profondeurs 670 et 2891 km; elle est réduite à +0,5 % pour les autres. Les anomalies plus intenses sont ramenées aux valeurs extrêmes de l'échelle. ( © American Geophysical Union.)

342


L'intérieur de la Terre

Fig. 9. — Cartes des anomalies de vitesse des ondes longitudinales à six profondeurs différentes dans le manteau supérieur, obtenues par Woodhouse et Dziewonski (1934). L'échelle des couleurs donne la perturbation relative de vitesse; l'amplitude totale ±4 % est utilisée pour les profondeurs 50 et 150 m; elle est réduite à ±2 % pour les autres. Les anomalies plus intenses sont ramenées aux valeurs extrêmes de l'échelle. (© American Geophysical Union.)

343


G. Jobert

Fig. 10. — Cartes donnant les anomalies de la vitesse des ondes S, déduites par J. P. Montagner (1986) de l'étude d'ondes de surface traversant l'océan Indien, à 90, 120, 190 et 300 km de profondeur et coupes est-ouest sur le parallèle —20°S et le méridien 60°E. L'échelle des grisés va de —4 % à +4 %.

atteint 1,5 % de la vitesse moyenne. Elle diminue jusque vers 2000 km de profondeur, puis croît jusqu'à la frontière manteau-noyau. On remarque la permanence, de 1000 km jusqu'à ce niveau, d'une zone à forte vitesse entourant le Pacifique et les fortes anomalies dans la couche D".

Pour le manteau supérieur, l'inversion des formes d'onde pour quelque 2000 sismogrammes obtenus par les réseaux longue période IDA et GDSN( 1) nécessite la détermination itérative des mécanismes au foyer et un modèle des vitesses dans les 670 premiers kilomètres. Le calcul est fait jusqu'à l'ordre 8.

On voit sur la figure 9 (où l'échelle est de 4 % de 50 à 150 km, de 2 % ailleurs) que les dorsales du Sud Pacifique et les boucliers les plus grands restent reconnaissables

344


L'intérieur de la Terre

jusque vers 350 km de profondeur. Entre 450 et 670 km, les cartes sont dominées par les régions à forte vitesse centrées sur l'Atlantique central et le Pacifique ouest, et celles à faible vitesse sous le Pacifique central et est et sous le golfe d'Aden. Le contraste atteint ±2,5 % à 450 km et décroît à 1 % à 650 km.

Des études régionales comme celles de l'équipe de N. Jobert peuvent être menées à partir de la dispersion d'ondes de surface ayant leurs trajets limités à la région étudiée. Dans l'océan Indien, Montagner (1985), utilisant les nouvelles stations du réseau digital français Géoscope à la Réunion et à Kerguelen, a ainsi pu déterminer la dispersion des vitesses de groupe d'ondes de Rayleigh et l'anisotropie azimutale et en déduire par inversion, avec la méthode de Tarantola et Valette, la structure tridimensionnelle de la vitesse des ondes S jusque vers 300 km de profondeur (fig. 10). Pour aller plus bas, il faudra utiliser, en plus du mode fondamental, les modes supérieurs (modes où le déplacement a des noeuds en profondeur) qui décroissent moins vite.

On obtient un meilleur pouvoir séparateur en étudiant, comme Lay (1983), les temps de propagation des ondes S réfléchies sur le noyau et des ondes directes. Pour une douzaine de séismes profonds d'Amérique du Sud, enregistrés en Amérique du Nord, il a ainsi pu définir approximativement plusieurs régions anormales grâce aux intersections des rais correspondants : une région où la vitesse serait plus grande de 2 % se trouverait à une profondeur comprise entre 1000 et 1900 km au-dessous de la mer des Caraïbes, confirmant ainsi un résultat antérieur de Jordan et Lynn; une autre région, plus profonde, entre 1 700 et 2 700 km de profondeur, se trouverait au-dessous du Venezuela et du nord du Brésil. Le contraste de vitesse, négatif cette fois mais aussi de 2 %, expliquerait une augmentation notable des amplitudes par focalisation des ondes. L'extension latérale de ces zones serait de 1000 à 2 000 km.

Les résultats ainsi accumulés, joints à d'autres considérations, seront exploités dans le second article de la même série (La Vie des Sciences, 3, n° 4, p. 347) pour se faire une idée des déplacements lents de matière qui sont à l'origine même des ruptures engendrant les séismes.

NOTES

C) LASA : Large Aperture Seismographic Array; WWSSN : World-wide Standard Seismographic Network; IDA : International Deployment of Accelerographs; GDSN : Global Digital Seismological Network. ( 2) PREM : Parametric référence Earth model.

RÉFÉRENCES

On s'est limité aux principaux articles récents, renvoyant par exemple à l'ouvrage La Terre, les eaux, r atmosphère de l'Encyclopédie scientifique de l'Univers du Bureau des Longitudes ( Gauthier-Villars, 1984) pour les aspects généraux ou au Traire de géophysique interne de J. Coulomb et G. Jobert (Masson, 1973, 1976) pour un exposé plus complet.

Doornbos D. J., 1980, Phys. Earth Planet. Mer., 21, 351.

Dziewonski A. M., 1984, J. Geophys. Res., 89, 5929.

345


G. Jobert

Dziewonski A. M. et Anderson D. L-, 1981, Phys. Earth. Planet. Mer., 25, 297.

Hage H., 1983, Phys. Earth Planet. Mer., 31, 171.

Lay T., 1983, Geophys. J. Roy. Astr. Soc., 72, 483.

Leven J. H., 1985; Phys. Earth Planet. Mer., 38, 9.

Montagner J. P., 1986, Geophys. Res. Lett., 13, 315.

Tarantola A. et Valette B., 1982, J. Geophys., 50, 159.

Woodhouse J. H. et Dziewonski A. M., 1984, J. Geophys. Res., 89, 5953.

346


LA VIE DES SCIENCES

La convection thermique dans les profondeurs de la Terre

Henri-Claude NATAF

Laboratoire de Géophysique et Géodynamique interne, Université de Paris-Sud, 91405 Orsay Cedex

Claude JAUPART

Institut de Physique du Globe, Université Paris-VII 4, place Jussieu 75230 Paris Cedex 05

Les phénomènes de convection thermique à l'intérieur de notre planète sont à l'origine du champ magnétique et de la plupart des bouleversements géologiques : formation des chaînes de montagne, éruptions volcaniques et séismes près des fosses et des dorsales océaniques. Le cadre de la tectonique des plaques, dont l'origine remonte à 1967, permet une vision globale des mouvements de la surface terrestre et la mesure de leurs caractéristiques principales (vitesses, énergies mises en jeu, etc.). Ce sont ces caractéristiques que l'on cherche à expliquer par la convection thermique.

Cet article privilégie trois grands axes dans le bouillonnement des recherches actuelles : la caractérisation des effets physiques qui font la spécificité du système terrestre, F étude théorique et expérimentale de ces effets, enfin la mesure directe des mouvements et des températures à grande profondeur. La convection thermique des profondeurs de la Terre a des manifestations complexes, comme le prouve l'extrême diversité des phénomènes géologiques. Aussi avons-nous renoncé à faire un résumé complet de nos connaissances et de nos interrogations. Nous nous attachons au seul manteau terrestre et nous nous limitons à quelques aspects fondamentaux qui le distinguent d'autres systèmes convectifs naturels tels que l'atmosphère ou les océans.

Cet article s'inscrit dans le cadre de la série d'exposés organisés par Jean Coulomb sur le thème « Les profondeurs de la Terre » et présentés devant P Académie des Sciences, (cf. La vie des Sciences, 3, n° 4, p. 327)

La Vie des Sciences, Comptes rendus, série générale, tome 3, n° 4, p. 347-361


H.-Cl. Nataf et Cl. Jaupart

La partie visible de l'iceberg

Quelques ordres de grandeur

Le manteau terrestre occupe plus de la moitié du volume de notre planète et est fait essentiellement de péridotite (silicate de fer et de magnésium). Cette roche solide se comporte comme un fluide visqueux à l'échelle des temps géologiques, c'est-à-dire du million d'années.

On sait que les vitesses de surface sont de quelques centimètres par an et que la déformation affecte plusieurs centaines de kilomètres d'épaisseur. Le taux de déformation (l'inverse du temps qu'il faut pour qu'un échantillon subisse une déformation de 100%) est donc extrêmement faible, de l'ordre de 10~ 16 s- 1, ce qui rend difficile l'étude du fluage mantellique en laboratoire. Heureusement, la nature fait bien les choses et fournit une expérience naturelle de déformation à grande échelle : la formation d'énormes calottes glaciaires. De telles calottes représentent une charge à la surface du manteau qui se déforme et qui reprend sa forme originelle lorsqu'elles fondent. Ce phénomène de « rebond post-glaciaire », bien étudié en Scandinavie et au Canada, se produit avec des constantes de temps de plusieurs milliers d'années. On a pu en déduire que la viscosité moyenne du manteau est de 1022 Po, soit une valeur bien plus élevée que celles de la plupart des matériaux terrestres, y compris de la glace (1014 Po).

La diffusivité thermique des roches mantelliques est mesurée en laboratoire et a une valeur de l'ordre de 10~ 6 m2/s. Cette valeur implique que les transferts de chaleur conductifs sont lents, même à l'échelle des temps géologiques : pour fixer les idées, le refroidissement d'une plaque de 100 km d'épaisseur s'accomplit en plus de 200 millions d'années. Si les transferts de chaleur sont très lents, les transferts de quantité de mouvement sont, eux, pratiquement instantanés. Cela s'exprime en calculant le « nombre de Prandtl », soit V/K, OÙ V est la viscosité cinématique et K la diffusivité thermique. Sa valeur est de 1023 à peu près, ce qui est considérable et montre que les forces d'inertie sont négligeables dans l'étude de la convection thermique. Le mouvement des plaques est déterminé uniquement par l'équilibre des forces de pesanteur et de frottement visqueux. Une modification quelconque de l'équilibre de ces forces se répercute aussitôt.

Les plaques : toute une gamme de tailles et de vitesses

Les mouvements du manteau s'organisent en onze grandes cellules auxquelles correspondent les plaques (fig. 1). Ces mouvements de surface s'accompagnent de montée au droit des dorsales médio-océaniques, et de descente — les géologues disent subduction — dans les fosses océaniques (fig. 2). La première constatation qui s'impose est l'extrême diversité des tailles de plaques : depuis la plaque Pacifique qui s'étend sur plus de 10000 km, jusqu'à la plaque Cocos qui est trente fois plus petite. Si l'on se tourne vers les vitesses des plaques, on fait la même constatation : on observe une gamme étendue des valeurs, depuis 1,2 cm/an pour la plaque Antarctique jusqu'à 9,5 cm/an pour la plaque Cocos. Pour le physicien, ces faits distinguent la convection mantellique des cas classiques de convection tels que celui de Bénard.

348


La convection thermique dans les profondeurs de la Terre

Fig. 1. — Le système des plaques, avec les vecteurs vitesse (l'unité de vitesse est le cm/an) dans un repère absolu arbitraire (2.2 sur la figure).

Le flux de chaleur : une grande asymétrie

Depuis la fin des années 1950, le flux de chaleur est mesuré systématiquement dans les fonds marins et à la surface des continents, ce qui permet de savoir comment notre planète dissipe sa chaleur interne. Nous connaissons son flux de chaleur total, et celui de chaque plaque (Sclater et al, 1980). Les résultats montrent que la plaque Pacifique dissipe à elle seule environ la moitié du total. Les cellules convectives du manteau diffèrent donc aussi par la quantité d'énergie thermique qu'elles dissipent.

Les points chauds : encore de la convection

A la circulation de grande échelle marquée par les plaques, se superposent des effets ponctuels appelés « points chauds » (Morgan, 1983) (fig. 3). Les points chauds sont des volcans isolés apparaissant souvent au beau milieu des plaques, sans relation apparente avec leur structure thermique : le plus bel exemple est celui d'Hawaii qui se trouve à

349


H.-C1. Nataf et Cl. Jaupart

l'extrémité d'un chapelet d'îles volcaniques. Les points chauds sont associés à une trace allongée qui est le reflet du mouvement de la plaque au-dessus de leur source apparemment fixe. Il s'agit donc d'une deuxième forme de convection, dont l'origine est l'objet de nombreuses controverses. Certains l'attribuent à un deuxième système convectif qui aurait son siège dans le manteau inférieur.

Fig. 2. — Coupe schématique à travers le manteau supérieur de 670 km d'épaisseur. La lithosphère océanique plonge dans le manteau dans les zones de subduction. La lithosphère continentale est insubmersible, d'où les phénomènes de collision qui créent les chaînes de montagne.

Pourquoi ces caractéristiques ?

Nous venons de passer en revue quelques caractéristiques de la convection mantellique qui montrent la variété des phénomènes. Reproduire la Terre en laboratoire est impossible, et le problème auquel doivent faire face géologues et géophysiciens est de définir les effets physiques qui sont responsables de ce qu'ils constatent.

Une Terre en régime transitoire

L'énergie qui alimente la convection provient de deux sources. D'une part, l'énergie initiale emmagasinée lors de la formation de la planète (par collisions de petits corps) il y a 4,5 milliards d'années. Depuis cette époque, la Terre s'est refroidie et s'est différenciée, établissant la stratification observée à l'heure actuelle : noyau de fer, manteau, et croûte légère à la surface. A l'aide de calculs théoriques, on estime que cette énergie représente 10% du total actuel. L'autre source d'énergie est la radioactivité naturelle. Les roches mantelliques contiennent de l'uranium, du thorium et du potassium à l'état de traces (quelques grammes par tonne de roche). Leurs isotopes radioactifs se désintègrent en libérant une quantité de chaleur considérable à travers tout le manteau: 2xl013 W (Jochum et al, 1983). La chaleur ainsi produite décroît avec le temps selon la loi de

350


La convection thermique dans les profondeurs de la Terre

Fig. 3. — Carte des points chauds et de leurs traces à la surface terrestre (d'après Vink, Morgan et Vogt, 1985). Les points chauds actuels sont des volcans connus repérés par des gros points. En remontant le temps et en tenant compte du déplacement des continents, on s'aperçoit que les points chauds laissent une traînée visible : volcans éteints, plutons, bombements de la lithosphère. On en déduit que les plaques se déplacent au-dessus des points chauds qui sont pratiquement fixes les uns par rapport aux autres.

désintégration radioactive. La période dominante est celle de l'uranium-238, soit 4 milliards d'années. Le fait important est que la quantité de chaleur qui s'échappe de la Terre est de 4xl013 W, soit deux fois plus que la chaleur produite au même moment à l'intérieur (Sclater et al, 1980). Notre planète perd donc deux fois plus d'énergie qu'elle n'en produit. L'explication est simplement que ses mécanismes de transfert de chaleur ne

351


H.-Cl. Nataf et Cl. Jaupart

sont pas efficaces. La perte est en retard par rapport à la production de chaleur, et le retard s'accumule au fur et à mesure que la désintégration épuise le stock d'éléments radioactifs. La Terre perd donc aujourd'hui de la chaleur qu'elle a produite dans le passé.

Une manière d'apprécier le déséquilibre est d'écrire les équations de perte de chaleur et d'en déduire la constante de temps de la convection dans le manteau. Les équations doivent être simplifiées et ne rendent probablement pas compte de toute la complexité des phénomènes, mais il est toujours possible de se donner une gamme extrême pour les paramètres et d'en déduire une valeur minimale pour la constante de temps du manteau. Elle est de 500 millions d'années au moins (McKenzie et Richter, 1981), ce qui traduit la lenteur d'un système de gros volume et de forte viscosité. Cette constante de temps n'est pas négligeable par rapport à la période de désintégration radioactive, d'où le déséquilibre.

On peut enfin utiliser les observations : prenant par exemple la plaque Pacifique, on calcule facilement le temps que met un point matériel pour faire un tour de cellule. Étant donné que la vitesse observée est de 9 cm/an, que la largeur de la plaque est de 12 000 km environ et l'épaisseur d'au moins 700 km, un tour de cellule se fait en 300 millions d'années.

La Terre est donc en déséquilibre thermique et la convection est en régime transitoire, c'est-à-dire sensible aux conditions passées. Certaines des caractéristiques de la convection sont imputables à des phénomènes anciens dont nous n'avons plus de traces.

Une viscosité très variable

La convection mantellique se développe dans un système de grande dimension où les conditions physiques (pression, température) varient énormément. Par exemple, la température augmente régulièrement de 0°C à la surface à plus de 1000°C à 100 km de profondeur. Les propriétés physiques du manteau sont donc extrêmement variables, surtout la viscosité qui dépend fortement de la température. La figure 4 montre un profil probable de la viscosité à travers le manteau supérieur. On y a tenu compte de deux effets : la diminution avec la température (selon une loi en énergie d'activation avec E^500 kJ/mole) et l'augmentation avec la pression (le volume d'activation est d'environ 11 cm3/mole). On notera la présence d'une couche de faible viscosité à des profondeurs voisines de 100 km et l'augmentation régulière au-dessous.

Cette grande variation de viscosité a des conséquences importantes sur le fonctionnement de la machine thermique terrestre. Son comportement mécanique dépend fortement de la température et on ne peut plus se référer à des expériences classiques de laboratoire où la viscosité est uniforme. Pour cette raison notamment, l'étude de la convection libre dans les fluides à fortes variations de viscosité se développe. L'un des résultats marquants est que les régions situées près de la surface, qui sont très visqueuses car la température y est faible, forment un couvercle rigide (Richter et al, 1983; Jaupart et Parsons, 1985). La condition que l'on doit imposer aux modèles théoriques à la limite supérieure du manteau n'est pas une température fixée (ou peu variable) mais se rapproche plutôt d'un flux fixé. On peut montrer dans ce cas que le système convectif favorise des cellules très allongées horizontalement. L'analogie avec la plaque Pacifique est évidente.

352


La convection thermique dans les profondeurs de la Terre

Fig. 4. — Profil probable de viscosité à travers le manteau supérieur. On remarquera les valeurs extrêmement élevées près de la surface : c'est la couche rigide, ou lithosphère. On remarquera aussi une zone de faible viscosité à la profondeur de 100 km. (D'après Fleitout et Yuen, 1984.)

La présence des continents

Une dernière circonstance fondamentale est l'hétérogénéité de la surface terrestre, qui comprend des continents et des océans (fig. 2). Les continents sont en général très anciens et s'enracinent profondément. Ils sont plus froids que les océans et gênent le mouvement des plaques. Les zones de subduction sont aussi des zones froides. Le système est donc tel que des limites latérales sont imposées aux mouvements et que des gradients de température horizontaux sont maintenus. La condition la plus importante est que les continents ne peuvent être « subductés », contrairement aux océans.

La nature précise de ces effets est difficile à soumettre au calcul, car on ne peut pas traiter les continents indépendamment des océans. On sait tout de même que la présence de zones froides a pour effet de produire des cellules allongées (Nataf et al, 1981), ce que l'on observe effectivement.

La partie cachée de l'iceberg

Afin de mieux comprendre la convection thermique, les scientifiques disposent d'outils d'exploration nombreux et divers, ce qui rend les sciences de la Terre pluridisciplinaires. Nous nous contenterons d'en évoquer quelques-uns.

353


H.-C1. Nataf et Cl. Jaupart

Le géoïde : le mystère des grandes longueurs d'onde

La Terre a la forme d'une poire : c'est ce que l'on apprend à l'école... Bien entendu, il ne s'agit pas de topographie. Le géoïde, c'est-à-dire la forme de la Terre, est défini comme la surface équipotentielle du champ de gravité qui coïncide avec le niveau moyen des mers. Si la Terre ne possédait pas d'hétérogénéités latérales — en d'autres termes, pas d'écarts à la symétrie sphérique — et si elle était en équilibre hydrostatique, elle devrait avoir la forme d'un ellipsoïde de révolution. C'est bien ce qu'elle est dans une excellente approximation (Kovalevsky, 1973). Mais il existe des anomalies, que l'on définit comme les écarts du géoïde observé par rapport au géoïde hydrostatique. Ces anomalies nous renseignent sur les hétérogénéités de densité à l'intérieur de la Terre. Nous disposons maintenant de données très fines grâce aux satellites altimétriques qui mesurent directement la hauteur de la surface de la mer (Reigber et al, 1985).

Connues depuis les années 1960, les anomalies à grande longueur d'onde sont celles dont l'amplitude est la plus grande (fig. 5). Ainsi le géoïde présente-t-il un « creux » de plus de 100 m de profondeur centré sur le pôle Sud (un trou de géoïde correspond à une pesanteur plus faible). On remarque aussi d'autres anomalies : une bosse sur tout l'Ouest Pacifique, une autre sur l'Afrique, un trou sous l'Inde. Quelles sont les hétérogénéités

Fig. 5. — Anomalies du géoïde, en m. La surface équipotentielle de notre planète est complexe, avec des bombements importants (le « creux » de l'Inde a 60 m d'amplitude).

354


La convection thermique dans les profondeurs de la Terre

responsables de ces anomalies ? A quelles profondeurs se trouvent-elles ? Il est impossible de répondre à partir du champ de pesanteur seul. Mais sans doute devons-nous y voir les effets de quelque circulation convective. Le manque apparent de corrélation de ces anomalies avec ce que l'on connaît à la surface — les plaques tectoniques, leurs frontières, les continents, les océans — donne à penser qu'elles reflètent un système convectif simple et organisé à grande profondeur dans le manteau. Les longueurs d'onde intermédiaires (4500 à 10000 km) semblent quant à elles liées aux courants descendants que sont les plaques lithosphériques plongeant dans le manteau supérieur (Chase, 1979).

Un outil d'exploration : la tomographie sismique

Apparue récemment, la tomographie sismique est l'outil le plus prometteur pour déterminer comment la convection s'organise. Comme on l'a vu dans le premier article de cette série (La Vie des Sciences, 3, n° 4, p. 329) elle permet de dresser la carte des variations de vitesses sismiques dans le manteau. Celles-ci sont dues à des variations de température et de densité, que l'on peut donc connaître (Woodhouse et Dziewonski, 1984). Par l'étude de l'anisotropie sismique, on a même bon espoir de pouvoir cartographier les directions d'écoulement dans le manteau (Nataf et al, 1984). Autant d'informations précieuses sur la structure et la dynamique convectives. Pour l'instant, on n'a accès qu'aux hétérogénéités de grandes longueurs d'onde. Nul doute que de ce fait des éléments essentiels nous échappent encore. Ainsi ne détecte-t-on qu'avec peine les zones de subduction à cause de leur faible largeur, alors que l'on sait le rôle primordial qu'elles jouent dans la dynamique des plaques. Néanmoins, les résultats d'ores et déjà acquis sont suffisamment spectaculaires pour qu'on s'y arrête quelques instants.

A 100 km de profondeur, les cartes des variations latérales de température sont une magnifique démonstration de l'expansion des fonds océaniques (voir la figure 9 de l'article de Georges Jobert, 1986, La vie des Sciences, 3, n° 4, p. 329). Les dorsales océaniques, où se crée la croûte océanique, apparaissent comme chaudes. Au fur et à mesure que l'on s'éloigne de la dorsale, on peut voir la lithosphère s'épaissir, se refroidir. De manière aussi frappante, les continents apparaissent comme des zones froides : le manteau sous les « boucliers », c'est-à-dire les régions continentales les plus vieilles, semble systématiquement plus froid qu'ailleurs. On retrouve ainsi, clairement exposée, l'asymétrie océancontinent. Ces cartes révèlent aussi quelques surprises, comme la présence d'un manteau plutôt froid sous la Polynésie, ou d'une large anomalie chaude sous l'Arabie (Woodhouse et Dziewonski, 1984).

A 500 km de profondeur, on quitte le domaine du connu et de l'attendu (voir la figure 8 de l'article de Georges Jobert, 1986, La Vie des Sciences, 3, n° 4, p. 329). On peut voir des anomalies très étendues, et en particulier une zone froide, sous l'Atlantique Sud, et une autre sous l'Ouest Pacifique (Woodhouse et Dziewonski, 1984). On peut penser qu'il s'agit des restes froids de lithosphère océanique qui se sont accumulés depuis les cent derniers millions d'années. Dans le manteau inférieur, le trait marquant est la présence d'hétérogénéités importantes à la frontière noyau-manteau. Il est tentant d'y voir l'effet d'une couche limite thermique, qui indiquerait qu'une partie non négligeable du flux de chaleur de la Terre provient du noyau. Des panaches montants s'élevant de cette couche limite pourraient être à l'origine des points chauds. Il est malheureusement impossible, avec la résolution actuelle, de distinguer de tels panaches dans les cartes

: 355


H.-C1. Nataf et Cl. Jaupart

tomographiques. Par contre, on voit clairement se dessiner plusieurs zones anormales étendues.

Des théories développées récemment permettent de relier les hétérogénéités de densité aux anomalies du géoïde dans une terre visqueuse stratifiée (Ricard et al, 1984; Richards et Hager, 1984). On peut montrer que les hétérogénéités détectées par la sismologie dans le manteau inférieur rendent bien compte des anomalies du géoïde de grandes longueurs d'onde (Hager et al, 1985). Doit-on pour autant en conclure que le mystère des grandes longueurs d'onde est résolu? Pas vraiment, car ces hétérogénéités profondes sont ellesmêmes assez mystérieuses. Sont-elles la trace d'une circulation convective de grande échelle dans le manteau inférieur ? Ou bien résultent-elles de la concentration de nombreux panaches chauds de faibles dimensions ?

Les traceurs géochimiques

Les deux outils précédents ne nous donnent pas accès à un facteur clé : le temps. La tomographie sismique et le champ de pesanteur ne nous donnent qu'une photographie instantanée de l'état du manteau. C'est la géochimie qui permet de remonter dans le temps. Les isotopes provenant de la désintégration d'éléments radioactifs à très longue demi-vie (Uranium, Thorium, Samarium, Rubidium...) se souviennent d'événements qui remontent à la formation de notre planète.

Le décodage de l'information qu'ils portent n'est cependant pas aisé. Quels sont les faits marquants? Tout d'abord, une certaine homogénéité isotopique des basaltes qui sont émis le long des dorsales océaniques (Cohen et al, 1980; Allègre, 1982). Leur composition semble indiquer que le manteau qui nourrit les dorsales a déjà plusieurs fois nourri d'autres dorsales depuis longtemps disparues. D'où l'idée qu'une partie seulement du manteau est impliquée dans la circulation convective associée aux plaques. A l'opposé, les basaltes des « points chauds » ont une signature isotopique de manteau non transformé, c'est-à-dire primitif (Allègre, 1982). Ils proviennent peut-être du manteau inférieur qui aurait sa propre circulation convective au-dessous du manteau supérieur. Récemment, à l'intérieur de la relative homogénéité isotopique des basaltes des dorsales, des chercheurs français ont pu mettre en évidence des variations significatives à grande longueur d'onde (Dupré et Allègre, 1983; Hamelin et al, 1985) (fig. 6). La cartographie de ces anomalies fait apparaître en particulier des grandes régions de compositions différentes. Si les isotopes sont utilisés comme des traceurs — comme pour les rivières souterraines dont on souhaite suivre le parcours —, on a là un argument supplémentaire en faveur d'une circulation à grande échelle relativement simple et bien organisée dans le manteau inférieur.

Manteau{x), noyau en convection : quels couplages possibles?

Un manteau en deux couches ?

Il existe un débat animé sur la structure convective du manteau qui sous-tend tout ce que nous venons de discuter. Les uns pensent que la circulation associée aux plaques affecte tout le manteau (convection à une couche). Les autres prétendent que la convection

356


La convection thermique dans les profondeurs de la Terre

Fig. 6. — Carte des anomalies isotopiques du manteau. Les caractéristiques des roches en provenance du manteau sont définies par les valeurs des rapports isotopiques de strontium et de plomb. On remarquera l'existence de domaines de grandes dimensions où la composition isotopique est uniforme. (D'après Hamelin et al, 1985.)

357


H.-C1. Nataf et Cl. Jaupart

se produit séparément dans deux couches superposées : le manteau supérieur et le manteau inférieur (convection à deux étages).

Suggérée par la répartition des contraintes mécaniques dans les plaques plongeantes, l'hypothèse de la convection à deux étages s'est trouvée renforcée par les données géochimiques. Par contre, plusieurs arguments d'ordre géophysique militent en faveur de la convection dans tout le manteau : par exemple, l'absence apparente de couche limite thermique à l'intérieur du manteau.

Les données géochimiques elles-mêmes ne sont pas sans ambiguïté : si l'on accepte que l'origine des points chauds se trouve bien dans le manteau inférieur, le fait que l'on observe leur traînée à la surface ne démontre-t-il pas qu'il y a échange de matière entre les deux couches convectives supposées séparées? La tomographie sismique n'a pas non plus permis de clore le débat, car elle n'est pas suffisamment précise dans la zone de transition entre manteaux supérieur et inférieur, qui est la clé du problème. En fait, quelles différences s'attend-on à observer entre les deux modèles ? Pour vraiment le savoir, il faudrait connaître la dynamique d'un système convectif à deux couches superposées. Les efforts se développent dans ce sens. Une fois de plus, on utilise les méthodes de la physique : expériences en laboratoire, modélisation numérique, théorie.

La première question est celle du couplage à l'interface entre les deux couches. Avec deux cas limites : d'une part, le couplage « mécanique », tel qu'un courant ascendant de la couche inférieure induit un courant descendant dans la couche supérieure par entraînement visqueux; d'autre part le couplage « thermique », pour lequel le même courant ascendant déclenche un courant ascendant au-dessus (fig. 7). On imagine bien que, selon le type de couplage, la dynamique et la disposition des hétérogénéités pourraient être très différentes dans le manteau. Dans le premier cas, une couche limite thermique marquée; dans le second, une continuité des structures. Les calculs numériques indiquent que le couplage « mécanique » est préféré quand les deux couches ont des viscosités voisines (Cserepes et Rabinowicz, 1985). Pourtant, certains résultats expérimentaux exhibent au contraire le couplage « thermique » dans ces conditions. L'interface est le siège d'événements intéressants : on peut y mettre en évidence un mécanisme d'entraînement par lequel de fins filaments de matériau de la couche inférieure sont introduits dans la couche supérieure (et vice versa) (fig. 8). Encore mal compris, ce mécanisme pourrait aider à concilier l'existence de « fuites » à la surface du matériau profond (les points chauds) et la stratification du manteau en deux couches bien individualisées. Il semble aussi que ces échanges de matière jouent un rôle non négligeable dans l'équilibre dynamique qui décide du type de couplage et des déformations de l'interface. Plutôt que de répondre à la question posée, les travaux sur la convection à deux étages posent de nouvelles questions et ouvrent de nouvelles perspectives sur ce qu'est vraiment la convection dans le manteau terrestre.

Couplage noyau-manteau ou manteau-noyau ?

Aux deux couches convectives séparées qui peuvent exister dans le manteau, il faut ajouter le noyau. On sait que c'est en son sein que fonctionne la dynamo terrestre qui entretient le champ magnétique interne. Or cette dynamo consomme de l'énergie qui est finalement dissipée sous forme de chaleur. Le noyau « chauffe » donc le manteau par en

358


La convection thermique dans les profondeurs de la Terre

Fig. 7. — Les deux formes de couplage entre systèmes convectifs superposés (d'après Cserepes et Rabinowicz, 1985). Les dessins montrent les isothermes dans les deux systèmes. Le couplage « mécanique » se fait par entraînement visqueux à l'interface. Dans ce cas, le courant froid dans la couche du dessous est associé à un courant chaud dans la couche du dessus. Dans le cas du couplage « thermique », au contraire, un courant froid induit un courant froid.

359


H.-C1. Nataf et Cl. Jaupart

Fig. 8. — Photographie d'une expérience de laboratoire montrant deux systèmes convectifs superposés (visualisation par le procédé d'interférométrie différentielle qui donne une cartographie fine des gradients de température). On distingue bien les courants montants et descendants dans la couche inférieure. Dans la couche supérieure, on remarque la présence de fins filaments. Il s'agit de fluide de la couche inférieure qui est entraîné dans la couche supérieure par les mouvements convectifs qui l'agitent.

dessous et on doit s'attendre à des effets convectifs induits. Cette question est l'une des plus vieilles de la géophysique. Disons simplement que des progrès récents dus à une équipe française, et exposés dans le quatrième article de cette série La vie des Sciences, 3, n° 5, 1986, montrent une certaine corrélation entre mouvements du noyau et anomalies de pesanteur. Ainsi, le « creux » de l'Inde est associé à un jet montant du noyau, tandis que la « bosse » du Pérou est associée à un jet descendant. Le problème de la poule et de l'oeuf se pose ici car on ne peut savoir si c'est le manteau qui impose ces mouvements dans le noyau ou bien le contraire. On peut tout de même penser que la solution est en vue car les mouvements du noyau sont mieux connus que ceux du manteau profond. Les effets du noyau étant démontrés, certains leur attribuent tous les phénomènes mal compris du manteau : points chauds, polarisation des mouvements continentaux le long de parallèles. Dans ce domaine aussi, des perspectives passionnantes se dessinent.

La Terre : un laboratoire de physique fondamentale

L'étude des phénomènes de convection thermique permet de traiter notre planète de manière globale, c'est-à-dire de relier ses hétérogénéités profondes aux mouvements de sa surface. Une première conclusion est évidente : la convection thermique des profondeurs de la Terre n'a pas révélé tous ses secrets. C'est une branche des sciences de la

360


La convection thermique dans les profondeurs de la Terre

Terre qui se développe vite, posant de nombreux problèmes de physique fondamentale et permettant une vision globale des bouleversements géologiques de notre planète. Deuxième conclusion : comme dans tout système naturel, de nombreux effets convectifs ne sont que le reflet des caractéristiques du manteau. Aussi est-il nécessaire de les considérer, à toutes profondeurs. L'étude de la convection terrestre nécessite donc des moyens d'investigation très divers. Le côté pluridisciplinaire des sciences de la Terre nous promet des découvertes passionnantes, peut-être parce qu'en fait la Terre est jeune : son « âge » ne dépasse pas dix constantes de temps convectives.

RÉFÉRENCES

Allègre C. J., 1982, Tectonophysics, 81, 109. Chase C. G., 1979, Nature, 282, 464.

Cohen R. S., Evensen N. M., Hamilton P. J., O'Nions R. K., 1980, Nature, 283, 149. Cserepes L., Rabinowicz M., 1985, Earth Planet. Sci. Lett., 76, 193. Dupré B., Allègre C. J., 1983, Nature, 303, 142. Dziewonski A. M., 1984, J. Geophys. Res., 89, 5929. Fleitout L., Yuen D. A., 1984, Phys. Earth Planet. Mer., 36, 181.

Hager B. H., Clayton R. W., Richards M. A., Corner R. P., Dziewonski A. M., 1985, Nature, 313, 541. Hamelin B., Dupré B., Allègre C. J., 1985, Earth Planet. Sci. Lett., 76, 288. Jaupart C, Parsons B., 1985, Phys. Earth Planet. Int., 39, 14.

Jochum K. P., Hofmann A. W., Ito E., Seufert H. M., White W. M., 1983, Nature, 306, 431. Kovalevsky J., 1973, in Traité de géophysique interne, sous la direction de J. Coulomb et G. Jobert, Masson, Paris, p. 421-471. McKenzie D. P., Richter F. M., 1981, J. Geophys. Res., 86, 11667. Morgan J. W., 1983, Tectonophysics, 94, 123.

Nataf H. C, Froidevaux C, Levrat J. L., Rabinowicz M., 1981, J. Geophys. Res., 86, 6143. Nataf H. C, Nakanishi L, Anderson D. L., 1984, Geophys. Res. Lett., 11, 109. Reigber C, Balmino G., Muller H., Bosch W., Moynot B., 1985, J. Geophys. Res., 90, 9285. Ricard Y., Fleitout L., Froidevaux C, 1984, Annales Geophysicae, 2, 267. Richards M. A., Hager B. H., 1984, J. Geophys. Res., 89, 5987. Richter F. M., Nataf H. C, Daly S. F., 1983, J. Fluid Mech., 129, 171. Sclater J. G., Jaupart C, Galson D., 1980, Rev. Geophys. Space Phys., 18, 269. Vink G., Morgan J. W., Vogt P., 1985, Pour la Science, juin, 80. Woodhouse J. H., Dziewonski A. M., 1984, J Geophys. Res., 89, 5933.

-361



LA VIE DES SCIENCES -

Quelques interventions récentes

de l'Académie des Sciences

concernant le système éducatif

L'intérêt de l'Académie pour les problèmes de l'enseignement

Les lecteurs de La Vie des Sciences sont régulièrement tenus au courant des études conduites par l'Académie et des rapports auxquels elles donnent lieu (x). Mais ces documents, publiés dès qu'ils sont approuvés par l'Académie, ne constituent pas les seules prises de position de notre Compagnie. Cette dernière peut exercer la mission d'expertise et de vigilance de diverses façons selon le temps dont elle dispose pour réagir et préparer son intervention et aussi selon la nature de l'avis qui lui est demandé ou de l'intervention qu'elle juge nécessaire.

Les textes présentés ci-dessous portent tous sur des projets du Gouvernement de Monsieur Laurent Fabius concernant des formations d'enseignement. En général, ils furent préparés à la suite de quelques réunions d'une commission ou d'une consultation par écrit de membres ou de correspondants particulièrement informés de la question abordée, mais rédigés par le Bureau et sous sa responsabilité, éventuellement par le Président seul ou par un Secrétaire perpétuel.

Le sort réservé à ces interventions varie d'un cas à l'autre. Il est certain que l'opinion exprimée par l'Académie ou en son nom est toujours écoutée avec intérêt. Mais comme le disait sous la Coupole notre Président Pierre Jacquinot en présence de Monsieur Alain Savary, Ministre de l'Éducation nationale, elle n'est pas toujours suivie. L'Académie parle; elle essaie de faire valoir le bien-fondé et l'opportunité de ses propositions. Mais elle n'est pas un « groupe de pression ». Le Gouvernement est informé et averti; il garde la responsabilité de sa décision.

Des contacts approfondis entre le Cabinet du Premier Ministre et le Bureau de l'Académie ont fait suite à la lettre du Président Jean Bernard concernant les Écoles normales supérieures et des décisions jdu Gouvernement ont tenu compte des remarques qui lui ont été présentées. Par contre, la Note du Bureau de l'Académie au Premier Ministre en date du 11 janvier 1985 sur l'augmentation des effectifs des écoles d'ingénieurs

La Vie des Sciences, Comptes rendus, série générale, tome 3, n° 4, p. 363-383


Académie des Sciences

est restée, apparemment du moins, sans effet direct. L'intuition principale qui présidait à l'envoi de cette Note a été ultérieurement confirmée par le rapport du Comité des Applications de l'Académie des Sciences (CADAS), approuvé par l'Académie le 10 mars dernier, qui a été publié dans le précédent numéro de La Vie des Sciences, 3, n° 3, 1986, p. 245.

Le Mémorandum du 29 avril 1985 confirmait la position de l'Académie, maintes fois exprimée, sur la formation des maîtres de l'enseignement technique. Tout en ménageant les périodes transitoires nécessaires, il convient d'affirmer l'objectif à long terme qui est de donner aux formations techniques un statut culturel et social comparable à celui des formations classiques; objectif qui ne sera atteint que lorsqu'on sera parvenu à donner aux enseignants du technique une formation universitaire solide, comparable à celle exigée pour les enseignants du classique.

Les motivations qui président à la réforme des lycées adoptée à la fin de 1985 sont dans l'ensemble bien fondées. L'Académie depuis longtemps déplore les errements qui conduisent à utiliser la série C comme critère de qualité pour les bons élèves, errements dont les effets sont particulièrement nocifs. Dans ce cas encore, le redressement ne peut être que le résultat d'une action de longue haleine poursuivie pendant de nombreuses années.

Enfin la Déclaration du 10 mars 1986 représentait une tentative de convaincre le Gouvernement de ne pas publier un texte sur les « PEGC » ( 2) de nature à pérenniser un corps destiné à l'origine à faire face à une situation difficile due à des contraintes démographiques. L'Académie estime que, là encore, une période transitoire plus ou moins longue est peut-être nécessaire, mais que l'objectif visant à exiger des enseignants du secondaire une bonne formation universitaire doit être clairement et résolument exprimé.

Le décret du 14 mars 1986 a été publié. Il semble bien que le Ministre de l'Éducation nationale soit décidé aujourd'hui à reprendre la question.

Ces différentes interventions illustrent l'attention vigilante que porte l'Académie des Sciences à tout ce qui affecte notre système éducatif. Les Gouvernements en général voient bien les problèmes. Mais ils sont portés souvent à arrêter très rapidement des mesures qui ne prennent pas toujours suffisamment en compte les objectifs à long terme ou les durées nécessaires lorsqu'il convient d'infléchir des comportements ou de modifier des habitudes. L'Académie, douée par nature d'une certaine stabilité, est bien placée pour juger et apprécier les évolutions sur des durées plus longues. C'est pourquoi elle peut apporter dans l'ensemble des réflexions sur notre système éducatif, un point de vue et des avis qui méritent d'être pris en considération. C'est, tout au moins, l'une des missions importantes qu'elle se donne au service de la communauté nationale.

Paul GERMAIN

NOTES

(') Antérieurement au 1er janvier 1984, certains de ces rapports ont été publiés dans La Vie Académique, qui fut remplacée à cette date par La Vie des Sciences (Série générale des Comptes rendus). ( 2) Professeurs de l'Enseignement général des Collèges.

364


L'Académie des Sciences et le système éducatif

Sur les Écoles normales supérieures (6 décembre 1984)

Lettre du Président de F Académie, Jean Bernard, à Monsieur le Premier Ministre Monsieur le Premier Ministre,

Le Bureau de l'Académie a appris récemment par diverses personnalités, et en particulier par certains de nos Confrères, qu'un texte portant sur les Écoles normales supérieures était en préparation.

Depuis cinq ans, l'Académie a eu plusieurs fois l'occasion de manifester l'intérêt tout particulier qu'elle porte aux formations offertes aux jeunes Français et elle ne peut qu'approuver la volonté gouvernementale de chercher à améliorer le fonctionnement de ces formations et surtout leur capacité de répondre aux exigences d'une situation scientifique, économique, sociale et culturelle en rapide évolution. Aussi l'élaboration dans cette perspective d'un texte sur les Écoles normales supérieures ne peut que retenir l'attention de l'Académie et susciter ses voeux. Ce sont ces derniers que je voudrais ici formuler, sans entrer dans l'analyse des dispositions qui feront l'objet du futur décret, en m'appuyant simplement sur les réflexions conduites au sein de notre Compagnie ces dernières années, et sur les avis des Confrères que j'ai pu récemment consulter.

En préparant cette lettre, Monsieur le Premier Ministre, je ne pouvais m'empêcher de penser à notre Confrère Alfred Kastler. Il aurait été au premier rang de ceux de mes confrères qui me poussent aujourd'hui à vous écrire. Il aurait lui-même saisi les plus hautes autorités de l'État et du Gouvernement avec cette simplicité et ces accents inimitables que nous lui avons connus et qui entraînaient la conviction. L'École normale supérieure fut en effet pour lui le lieu où, dans un climat de liberté et de tolérance, à la fin de la Première Guerre, il fit, à travers ses camarades et ses professeurs, l'expérience unique d'une rencontre directe avec la culture française qui devait animer toute sa vie, tout en lui permettant de garder intactes certaines valeurs de sa formation première. Nul lieu; je suis tenté de le croire, n'aurait été aussi favorable à une telle expérience. Et l'École normale supérieure fut aussi pour lui le lieu où il put mener pleinement sa vie d'homme de science durant ces trente années qu'il passa dans ses laboratoires; il y fit ses plus belles découvertes qui sont, n'est-il pas vrai, l'honneur de notre pays, et il y trouva le cadre idéal pour l'expression de sa riche personnalité, entretenant les dialogues les plus stimulants avec ses collaborateurs directs, suscitant et encourageant la vocation de générations d'élèves qui n'oublieront jamais sa personne et son exemple, attirant dans cette École, pour le plus grand bénéfice de tous, les savants les plus prestigieux du monde entier. C'est cette capacité d'épanouissement des personnalités les plus riches qui fait le prix de nos Écoles normales supérieures et qu'il convient de préserver et même de développer.

Les Écoles normales supérieures ont dans leur ensemble une vocation unanimement reconnue. Elles doivent former des personnalités fortes, ayant acquis non seulement de très solides connaissances mais surtout une grande capacité d'autonomie intellectuelle, d'initiative et de communication. Leurs élèves sont appelés à oeuvrer dans tous les secteurs de la culture, de la science et de la technologie, sans exclure bien sûr, le service de l'Administration et des entreprises. Mais leur destination privilégiée est la formation

365


Académie des Sciences

d'enseignants du second degré, d'enseignants-chercheurs de nos Universités, de chercheurs dans nos grands organismes de recherche, et tous au plus haut niveau. Dans ces secteurs de l'activité nationale, les Écoles normales supérieures et leurs anciens élèves doivent jouer un rôle majeur de stimulation et d'entraînement pour une compétence toujours plus grande, pour une exigence de qualité toujours plus élevée.

Cette mission globale des Écoles normales supérieures peut être inscrite dans un décret fixant le cadre administratif dans lequel ces Écoles vont développer leurs orientations et leurs actions. Mais il convient de ne faire figurer dans ce texte que les grandes lignes des dispositions envisagées. Car chacune de ces Écoles est appelée à prendre un visage, une personnalité, un style en fonction de sa vocation intellectuelle particulière, de son recrutement et de ses objectifs. Par exemple, l'École qui, poursuivant une tradition ancienne et combien féconde aujourd'hui, rassemblera des littéraires et des scientifiques orientés vers les disciplines les plus fondamentales, ne se trouve pas dans les mêmes conditions que l'École qui aura principalement en charge la formation des enseignants et des chercheurs dans les disciplines techniques. Il ne faudrait pas que le souci, si fréquent dans notre pays, de réglementation et d'uniformisation soit à l'origine de contraintes et de rigidités qui viendraient brider la capacité d'initiative et d'innovation de chacune de ces Écoles, car chacune, pour atteindre le niveau d'excellence que l'on attend d'elle, doit avoir la liberté et la faculté de mettre en oeuvre et d'améliorer sans cesse les formules pédagogiques les mieux adaptées à sa finalité propre.

Le destin des Écoles normales supérieures sera lié à la qualité des recrutements. Celle-ci est fonction de l'attrait exercé sur les jeunes, lequel dépend des perspectives offertes par les études et les emplois auxquels elles conduisent. Or on observe ces dernières années dans le recrutement une certaine dérive qui, si elle devait se prolonger serait très inquiétante pour l'avenir de nos universités, de notre recherche et, finalement, de notre système éducatif tout entier.

L'espoir qui habite le futur normalien, le seul privilège qui peut motiver son choix, c'est de trouver à l'École les meilleures conditions pour exercer et faire jouer toute sa capacité de travail, d'imagination et d'initiative dans le but d'approfondir ses connaissances, de participer à l'aventure de la recherche, d'acquérir une intelligence personnelle des disciplines qu'il aura choisies, de faire l'apprentissage de la communication du savoir et de la formation des esprits neufs. Il sait qu'il aura à faire ses preuves en passant des examens, des concours, en soutenant une thèse, sans que son titre d'ancien élève ne lui donne un quelconque privilège car, à la différence de ce que l'on observe dans certaines écoles prestigieuses, aucun poste n'est automatiquement réservé aux élèves sortant d'une École normale supérieure. Et ceci est une très bonne chose.

Encore faut-il d'abord que l'École offre à ses élèves qui s'en montrent dignes et capables, de réelles possibilités de donner toute leur mesure, car l'espoir et la confiance des jeunes normaliens ne doivent pas être déçus. Par exemple, au moment où la thèse devient un grade plus largement ouvert et accessible à des étudiants jeunes s'ils sont vraiment doués et travailleurs, les élèves des Écoles normales qui justifient pleinement les espoirs que le jury d'entrée avait mis en eux devraient pouvoir préparer leur thèse dans de bonnes conditions. Ne serait-il pas paradoxal et navrant en effet de constater dans quelques années que des polytechniciens ou des élèves d'une école d'ingénieurs puissent en règle générale avoir plus de facilités pour préparer une thèse que les meilleurs des normaliens ?

366


L'Académie des Sciences et le système éducatif

Il faut ensuite que les jeunes particulièrement brillants, qui entrent dans une période de maturation et de grande production scientifiques, trouvent des emplois qui permettent et favorisent leur épanouissement. Il nous semble à cet égard que des dispositions devraient être prises pour qu'un certain pourcentage de postes de l'Université et des organismes de recherche publics puisse être réservé à de jeunes scientifiques donnant tous les signes d'une grande réussite imminente, qu'ils soient normaliens ou non. Or les organes de recrutement ont souvent mis en avant ces dernières années des critères qui, trop généralement, favorisent le candidat honorable d'un certain âge ayant plusieurs publications, de préférence à un candidat plus jeune et beaucoup plus prometteur. Ces critères ont leur logique, mais leurs incidences doivent être cependant limitées par des mesures allant dans le sens qui vient d'être précisé.

Il faut enfin que les enseignants et les chercheurs de talent qui constituent le moteur de notre développement scientifique et technique comme la transmission des savoirs et des aspirations culturelles les plus nobles, aient au cours de leur carrière la possibilité de faire rayonner pleinement, comme ils le doivent, au bénéfice de tous et en particulier de nos jeunes, leur acquis de connaissances, de perspicacité, de compétence. L'Académie a eu plusieurs fois l'occasion de faire part au Ministre de l'Éducation nationale des inquiétudes que lui donnent certaines dispositions assez récentes : textes législatifs, décrets définissant des statuts, pratiques faisant appel trop unilatéralement à l'informatique. Appliquées sans contre-parties prenant en compte les évaluations de qualité et sans préserver les autonomies et les libertés justifiées, elles risquent d'engendrer une évolution vers un état d'une moyenne peut-être convenable mais où les talents seront nivelés, voire exclus, état peu compatible avec les ambitions légitimes de notre peuple. Fort heureusement, vos déclarations et celles de vos ministres qui mettent en valeur aujourd'hui le rôle majeur et irremplaçable de nos élites, dans notre tradition, nous rassurent un peu à cet égard.

Voici, Monsieur le Premier Ministre, quelques suggestions qui peuvent paraître simples et évidentes. En fait, notre Compagnie sait que pour les mettre en oeuvre il faut faire preuve d'imagination, de résolution et de vigilance. Il faut sans doute en effet inventer des modalités administratives, décider des financements nécessaires car l'enthousiasme et les espoirs des jeunes doivent être soutenus et justifiés par des mesures concrètes, s'opposer s'il le faut à tout ce qui, d'une manière ou d'une autre, tendrait à mettre en cause la vocation d'excellence de nos Écoles normales supérieures.

Votre Gouvernement, Monsieur le Premier Ministre, ne peut être indifférent à l'appel que je vous adresse au nom de mes confrères. J'en suis convaincu.

Persuadé que notre attente ne sera pas déçue, je vous prie d'accepter, Monsieur le Premier Ministre, l'expression de ma très haute considération.

Sur l'augmentation des effectifs des Écoles d'ingénieurs : Interrogations, rappel de propositions antérieures et suggestions

Note du Bureau de l'Académie des Sciences au Premier Ministre et aux Ministres de tutelle des Ecoles d'ingénieurs (11 janvier 1985)

Le pays à diverses reprises a été informé de la volonté du gouvernement d'accroître très prochainement et très sensiblement —les chiffres de 10 et 15% ont été avancés — les effectifs de nos Écoles d'ingénieurs.

-367


Académie des Sciences

Cette décision est rattachée à la nécessité pour la France de renforcer ses capacités technologiques pour affronter dans de bonnes conditions les défis d'un monde en pleine mutation.

L'Académie, ces dernières années, a saisi toutes les occasions de proclamer que l'accroissement de nos compétences en matière scientifique et technique était un objectif prioritaire dont dépendraient immédiatement le potentiel de compétitivité de notre industrie et de notre économie et à plus long terme certes, mais inexorablement, le niveau du développement social et culturel de notre peuple. Elle a toujours également souligné que, parmi tous les facteurs concourant à cet objectif, la qualité de la formation des hommes était à placer parmi les plus décisifs, et aussi parmi les plus délicats à maîtriser convenablement.

C'est dire que l'Académie ne peut qu'approuver et encourager les Pouvoirs publics lorsqu'ils proposent d'accroître le potentiel technique du pays en augmentant le nombre des acteurs du développement technologique et industriel de demain et en améliorant leur formation.

Or, l'industrie a besoin de techniciens, de gestionnaires, d'ingénieurs, de scientifiques, d'administrateurs.

Sur quelle catégorie professionnelle faut-il surtout faire porter l'effort ?

Le gouvernement a décidé une action immédiate sur les ingénieurs. Prenant acte de ce choix, et compte tenu de la brièveté des délais, le Bureau de l'Académie après avoir consulté quelques confrères (Membres, Correspondants et Membres du Comité des Applications de la Science) a préparé cette Note en s'appuyant sur des réflexions et des propositions déjà présentées dans les études antérieures de l'Académie (1).

Notre Compagnie, informée des grandes lignes de ce texte, a autorisé son envoi au gouvernement.

Le Ministre de la Défense a demandé à l'École polytechnique de porter ses effectifs de 300 à 400 élèves, les élèves étrangers venant s'ajouter à ces chiffres. La mesure est mise en application dès la Promotion 1985 et prendra son plein effet avec la Promotion 1987.

L'École polytechnique est certainement l'École d'ingénieurs la plus prestigieuse de notre pays. Sa vocation n'est pas de former elle-même des ingénieurs, mais d'offrir pendant deux ans à de futurs ingénieurs, les plus aptes de chaque génération, une formation scientifique totalement pluridisciplinaire.

Aucune institution au monde n'offre un type de formation comparable. Les universités étrangères les plus fameuses doivent essentiellement leur réputation à l'excellence de leurs formations doctorales et spécialisées. L'École polytechnique, elle, oeuvre au stade immédiatement antérieur — celui de la formation scientifique de base — mais avec quelle ambition quant à l'ampleur et au niveau d'approfondissement des enseignements ! Il est clair que, telle qu'elle nous vient du passé, telle qu'elle est actuellement, l'École polytechnique est une pièce maîtresse du système français de formation des ingénieurs et qu'elle a vocation à le rester demain.

L'Académie comprend et approuve l'intérêt que portent les Pouvoirs publics à l'École polytechnique. Elle n'est nullement opposée a priori à l'augmentation décidée. Toutefois, on ne tirera de cette mesure tout le bénéfice que l'on est en droit d'escompter pour notre développement industriel que si certaines conditions sont remplies :

368


L'Académie des Sciences et le système éducatif

— Les premières tiennent aux difficultés rencontrées aujourd'hui à délivrer à une Promotion entière un enseignement couvrant l'ensemble des disciplines, tradition qui caractérise l'École, fit sa force et qui peut encore faire sa force aujourd'hui, mais à condition que les méthodes pédagogiques soient bien adaptées aux objectifs et aux contraintes. Une augmentation sensible de l'effectif réclame un réexamen de ces méthodes.

— Les secondes tiennent à l'emploi des Polytechniciens. Le Ministre de la Défense formulait très justement l'objectif minimum à atteindre dans la lettre de mission qu'il adressait récemment à Messieurs Friedel et Lecomte ( 2) : « amener la majorité des anciens élèves à consacrer les premières années de leur activité professionnelle à la recherche scientifique et au développement technologique ». A cet égard la situation de l'emploi des Polytechniciens, que ce soit dans les institutions publiques ou les entreprises privées, est loin d'être pleinement satisfaisante aujourd'hui. Une réflexion conduisant à de nouvelles décisions est plus que jamais nécessaire car, à quoi servirait d'accroître le nombre des Polytechniciens si ceux-ci n'étaient pas conduits à s'engager dans les carrières auxquelles leur formation les destine logiquement ?

— Plus généralement, l'accroissement des effectifs demande un nouvel effort et une résolution plus soutenue pour combattre le malentendu fondamental entre, d'une part, la vocation de l'École affirmée par les textes, confirmée par la qualité des professeurs et des laboratoires et, d'autre part, l'image que s'en font beaucoup de familles, de professeurs de lycées, d'anciens élèves et d'élèves, celle d'un tremplin vers de belles carrières, belles au sens matériel, belles quant au pouvoir et au statut social qu'elles procurent. C'est en raison de ce malentendu que tous les élèves ne travaillent pas avec l'ardeur et la volonté dont ils sont capables et que la nation ne retire pas la totalité des bénéfices de l'excellente formation qu'elle leur a offerte.

En conclusion, le Bureau de l'Académie recommande au gouvernement de confier à une Commission la mission de reprendre les réflexions et les recommandations de l'excellent Rapport Friedel-Lecomte, compte tenu de l'hypothèse nouvelle que constitue le très sensible accroissement des effectifs et dans une perspective plus large, ouverte par cet accroissement et les mobiles qui ont présidé à sa décision.

Les élèves de l'École polytechnique dans leur quasi-totalité sont issus des classes de nos lycées qui accueillent les meilleurs élèves ayant acquis dans de bonnes conditions un Baccalauréat C pour les préparer aux concours d'entrée dans les Écoles d'ingénieurs.

Actuellement, tout élève admis dans ces classes préparatoires entre pratiquement dans une École d'ingénieurs après deux ou trois ans d'études. Les concours d'entrée n'ont ainsi pas d'autre effet que d'assurer la répartition des élèves entre les Écoles, cette répartition s'effectuant, non d'après les goûts et les vocations, mais selon une hiérarchie des réputations qui n'est pas toujours objectivement très fondée.

L'École polytechnique, nous venons de le voir, est invitée à augmenter ses effectifs de 30%, les autres Écoles de 10 à 15%. Les élèves qui se trouvent immédiatement au-dessous de la barre des admissions à l'École polytechnique dans les conditions présentes et qui rentrent dans d'autres Écoles seront, dans les dispositions nouvelles, incorporés dans les effectifs de l'École polytechnique. S'ensuivra un décalage dans les recrutements des diverses Écoles à partir de l'ensemble des classes préparatoires, et inévitablement un défaut de recrutement si les dispositions adéquates ne sont pas mises en oeuvre.

369


Académie des Sciences

La solution de facilité serait d'augmenter d'autant le nombre des élèves des classes préparatoires. Cette augmentation à son tour se répercuterait immédiatement sur le recrutement des autres filières scientifiques et techniques offertes aux titulaires d'un Baccalauréat C, Instituts de Technologie et Premiers cycles des études scientifiques universitaires notamment. Les effets, on peut le craindre, risquent d'ébranler les équilibres de notre système de formations scientifiques et techniques et d'avoir de graves conséquences.

— C'est pourquoi, le Bureau de l'Académie recommande en premier lieu de procéder très progressivement aux augmentations d'effectifs actuellement envisagés.

— Il faut observer ensuite que l'accroissement recherché du nombre des ingénieurs de qualité peut en partie être obtenu en augmentant le flux de ceux qui sont formés dans les troisièmes cycles universitaires. Le nombre de jeunes docteurs est en augmentation très sensible (30% entre 1981 et 1983), ainsi que, corrélativement, le nombre de ceux qui vont occuper à la suite de leur thèse un poste d'ingénieur. On dispose donc ainsi d'une modalité de recrutement très souple, qui normalement doit se développer dans les années qui viennent en raison des nouvelles dispositions prises pour le doctorat.

La deuxième recommandation est donc de favoriser le développement de cette très intéressante source de recrutement de haut niveau pour notre industrie.

— Notre Compagnie a toujours souhaité voir se développer les équilibres nécessaires et les bonnes relations entre Écoles d'ingénieurs et Universités qui constituent deux voies complémentaires de formation de notre personnel scientifique et technique. Les textes reproduits en annexe soulignent cette préoccupation constante de notre Académie. Le Bureau croit opportun de reprendre ici, dans l'hypothèse d'une augmentation progressive des effectifs des Écoles d'ingénieurs, l'une des recommandations qui y sont formulées.

Il est recommandé de ne pas augmenter sensiblement les effectifs des classes préparatoires des lycées et d'engager les Écoles à développer progressivement et avec prudence leur recrutement sélectif opéré parmi les titulaires d'une maîtrise de sciences ou de technologie acquise dans de bonnes conditions ou encore parmi les titulaires d'un diplôme de premier cycle acquis dans des conditions particulièrement brillantes.

Cette proposition évite tout bouleversement brutal dans les répartitions entre les deux filières signalées plus haut. Augmenter très sensiblement les effectifs des classes préparatoires serait, dans l'état actuel des choses, diminuer le nombre des étudiants des universités et par conséquent compromettre le flux des ingénieurs formés par la recherche dans les troisièmes cycles universitaires. En effet, en 1983 par exemple, sur 3 600 docteurs (troisième cycle et docteurs ingénieurs), 3 000 proviennent des maîtrises universitaires. De plus, cette proposition est de nature à stimuler la qualité du recrutement et du travail dans les universités; elle doit accélérer l'amélioration des relations entre Universités et Écoles d'ingénieurs que l'on observe heureusement ces dernières années; elle assure un brassage entre étudiants formés pendant un temps selon des voies différentes, brassage qui ne peut être que favorable aux uns et aux autres comme aux entreprises qui les accueilleront plus tard. Elle assure enfin, et ceci n'est pas sans intérêt, à de bons étudiants en sciences des universités des débouchés attrayants et offrant les meilleures garanties de sécurité.

370


L'Académie des Sciences et le système éducatif

Dans les documents cités, et en l'absence de toute perspective d'accroissement des effectifs, l'Académie préconisait de favoriser une évolution du recrutement des élèves des Écoles d'ingénieurs, de manière à aboutir progressivement à un équilibre dans lequel les élèves ingénieurs recevraient une formation initiale assurée, pour la moitié d'entre eux, par les années de préparation des lycées et la première année des Écoles d'ingénieurs, et pour l'autre moitié, par les années d'études universitaires scientifiques ou techniques conduisant à une maîtrise es Sciences.

Le Bureau de l'Académie recommande donc de saisir aujourd'hui la perspective d'une progression des effectifs pour effectuer un premier pas dans la direction préconisée ces dernières années par notre Compagnie.

En conclusion de cette Note, il convient de revenir sur l'objectif premier et indiscutable que représente la formation de personnels plus nombreux et plus compétents dans les domaines scientifiques, techniques et industriels.

La mesure envisagée par le gouvernement d'accroître les effectifs des Écoles d'ingénieurs s'inscrit dans cette perspective. L'Académie aurait tendance à penser que notre pays a besoin de renforcer la qualité scientifique et technique de ses cadres supérieurs — plus que leur nombre — et d'augmenter le nombre, et aussi la qualité de formation, de nos cadres moyens. Quoi qu'il en soit, deux situations préoccupantes peuvent compromettre gravement, et à moyen et long terme, l'avenir de notre développement scientifique et technique.

— La première est celle du nombre et de la qualité des bacheliers de l'enseignement secondaire bien préparés pour des carrières scientifiques et techniques de bon et de haut niveau. Le problème principal est celui du nombre des bacheliers C; il est vraisemblablement insuffisant d'autant plus que la tradition éminemment critiquable des enseignants du second degré de sélectionner les élèves selon leurs aptitudes en mathématiques conduit des élèves brillants, mais qui ne se destinent nullement à une carrière scientifique ou technique, à s'inscrire dans cette section.

Le Ministre de l'Éducation nationale, et nous ne pouvons que nous en féliciter, donne une impulsion vigoureuse pour remettre en honneur dans notre enseignement primaire et secondaire, l'acquisition de connaissances sûres et de techniques de base éprouvées. Il serait peut-être bon parallèlement de sensibiliser les élèves du second degré à leur orientation future, de leur faire découvrir leur vocation et de favoriser leur répartition dans les filières en tenant compte au mieux et de leurs goûts personnels et des besoins professionnels de la nation. Il est bien certain que notre potentiel en chercheurs et en ingénieurs peut être gravement compromis si les filières scientifiques et techniques du second degré ont chaque année des effectifs insuffisants. En toute logique, des mesures propres à favoriser l'orientation des lycéens dans les filières appropriées et à augmenter le nombre des bacheliers aptes à s'engager dans des activités scientifiques et techniques devraient précéder celles visant l'augmentation des effectifs des Écoles d'ingénieurs.

— La seconde situation à prendre en considération, pour améliorer la compétence de nos industries et leur aptitude à faire face au niveau de compétitivité que nous imposent les pays industriels les plus avancés, est celle de notre enseignement technique et très spécialement de la qualité de ses maîtres dans les collèges, les lycées, dans les universités. Elle conditionne en effet la qualité des élèves et des étudiants qui suivent cet enseignement. C'est un problème considérable. Mettre en oeuvre des dispositions qui permettront dans

371


Académie des Sciences

un certain avenir de former des enseignants du technique avec le même soin et les mêmes exigences de qualité que celles qui président aux recrutements des enseignants des disciplines classiques est une entreprise difficile et de longue haleine.

L'Académie dans les documents cités a cherché, sans réussir pour l'instant, à attirer l'attention sur ce problème d'une importance majeure. Ce n'est pas le lieu ici d'y revenir puisque cette Note concerne seulement le cas des ingénieurs. Mais le gouvernement qui décidera de s'attaquer à ce problème peut être assuré, non seulement d'oeuvrer utilement pour le développement des capacités industrielles de notre pays, mais encore d'offrir au peuple français les meilleures chances de maîtriser les conséquences des mutations technologiques. Les contrecoups sociaux du redéploiement industriel en cours devraient inciter notre pays à s'atteler à une tâche dont les dimensions humaines et culturelles sont au moins aussi importantes que ses dimensions technologiques.

NOTES

i 1) Le Comité des Applications de la Science (CADAS) a mis en chantier une étude d'ensemble sur la formation des ingénieurs, étude à laquelle l'Académie a l'intention de s'associer. Le Bureau a estimé préférable de ne pas attendre l'achèvement de ce travail pour attirer l'attention du gouvernement sur le seul point de l'augmentation des effectifs des Écoles d'ingénieurs.

( 2) Ceux-ci ont animé les travaux de la dernière Commission chargée de présenter des recommandations au Ministre sur l'ensemble des questions posées par le cursus des Polytechniciens.

Annexe 1

Les sciences mécaniques et l'avenir industriel de la France. Rapport au Président de la République, septembre 1980

Les hommes : formations et carrières, extrait (page 154)

La dernière recommandation vise les débouchés des maîtrises à dominante mécanique. Il est vraisemblablement difficile d'escompter que les universités soient en mesure d'assurer par elles-mêmes et sur une échelle importante, la formation d'ingénieurs. Aussi, convient-il d'utiliser complètement les possibilités offertes par certaines écoles d'ingénieurs qui recrutent sur titres, au niveau de la deuxième année, des titulaires d'une maîtrise es sciences, et même, éventuellement, de les augmenter dans l'avenir, si l'expérience confirme l'intérêt de cette formule complémentaire de recrutement. Par exemple, l'École Nationale des Ponts et Chaussées (ENPC) examine les dossiers de maîtres es sciences ayant acquis, lors de leurs études, une bonne formation de base en mécanique des milieux continus (maîtrise de mécanique, maîtrise de mathématiques-applications fondamentales, option mécanique). L'École Nationale Supérieure des Techniques Avancées recrute également, au niveau de la maîtrise, un nombre important d'élèves allant jusqu'à trente-trois, chiffre atteint lors d'une dernière promotion. L'ENSTA note que les maîtrises retenues par l'ENPC et les maîtrises de sciences et techniques sont bien adaptées aux trois des cinq options de cette école à dominante mécanique.

372


L'Académie des Sciences et le système éducatif

Les statistiques des résultats scolaires montrent que les élèves recrutés sur titres se situent, en définitive, à un niveau moyen comparable ou supérieur à celui de l'élève moyen de la population recrutée par concours. Cette constatation faite par les écoles qui viennent d'être citées, atteste le bon niveau de la formation scientifique reçue à l'université.

Les avantages de la formule ici envisagée sont multiples. Outre ceux qu'y trouvent les étudiants pour assurer avec plus de sécurité leur avenir, on peut noter qu'elle offre une occasion de développer les liens entre les universités et les écoles et qu'elle introduit, en diversifiant les origines, une amicale compétition entre les élèves ingénieurs issus de différentes filières.

Les objections parfois formulées à rencontre de cette pratique ne paraissent pas décisives. Les professeurs d'universités éprouvent parfois le regret de voir partir certains de leurs meilleurs étudiants au détriment des recrutements de leur troisième cycle. Mais, en la matière, l'intérêt des étudiants est premier et, par ailleurs, les pertes des effectifs immédiatement constatées pour le troisième cycle en mécanique, peuvent être compensées si les bonnes relations écoles-universités ont pour effet d'augmenter dans les troisièmes cycles le nombre des inscriptions d'ingénieurs à la sortie de l'école. On note parfois aussi que les étudiants ayant suivi cette voie n'acquièrent leur titre d'ingénieur que six ans après le baccalauréat. C'est exact, mais c'est aussi le cas des élèves des classes préparatoires ayant mis trois ans pour rentrer dans une école. Enfin, on trouve parfois dénoncée la faveur qui serait ainsi faite à ceux qui peuvent recevoir leur titre d'ingénieur sans avoir été sélectionnés par le concours d'entrée et sans avoir subi l'entraînement des classes préparatoires. C'est oublier d'abord que le bon étudiant qui obtient sa maîtrise en quatre années a, lui aussi, subi avec succès les épreuves de sélections successives et souvent sévères, lors des différents examens au terme de chacune des années d'études, et ensuite qu'il est beaucoup plus juste de juger les élèves sur leurs performances au terme de leurs années d'études, quand ils obtiennent leur diplôme d'ingénieur, que sur celles dont ils ont fait la preuve lors de leur recrutement par l'école.

Aussi, dans les circonstances actuelles, il apparaît que les dispositions déjà existantes sont très heureuses et qu'elles devraient être mieux connues et mieux exploitées grâce à une action conjointe des universités et des écoles qui ne peuvent y trouver qu'avantage, les unes et les autres, pour l'essor de leurs institutions.

Pour une politique d'ensemble de la Mécanique en France, extrait {page 494)

Instituer la complémentarité écoles-universités pour la formation des ingénieurs

Si le diplôme d'ingénieur doit normalement être décerné par une École ou une institution ayant autonomie et vocation pour le faire, le recrutement de ces établissements devrait s'effectuer selon deux voies principales : la voie traditionnelle par concours dans les classes préparatoires des lycées; la voie, déjà existante mais à encourager, ouvrant l'entrée en deuxième année, dans des conditions à préciser, aux titulaires d'une maîtrise es sciences appropriée, et notamment d'une maîtrise de sciences pour l'ingénieur.

L'université, qui abandonnerait ainsi les prétentions qu'elle a pu avoir un moment de délivrer elle-même des diplômes d'ingénieurs, devrait voir par contre confirmée sa

373


Académie des Sciences —-—-—

participation à la délivrance des titres de docteur-ingénieur. Ceci implique que, normalement, un professeur d'université au moins devrait faire partie de l'équipe des enseignants responsables d'une formation habilitée à délivrer ce titre, même si celle-ci opère au sein d'une École d'ingénieurs et que, naturellement, en sciences de l'ingénieur il faudrait privilégier la mise en place de formations de troisième cycle relevant de la responsabilité conjointe d'une université et d'une École d'ingénieur.

Annexe 2

Sur la loi d'orientation des enseignements supérieurs

Adresse de l'Académie des Sciences à Monsieur le Ministre de l'Éducation nationale Les Universités et les Écoles d'ingénieurs, extraits (p. 33-35)

La préparation de décisions législatives sur les enseignements supérieurs appelle une réflexion d'ensemble sur la situation française. Or, les Écoles d'ingénieurs en France jouent un rôle trop important dans notre enseignement supérieur scientifique, pour que, même si les plus prestigieuses de ces Écoles sont statutairement extérieures à toute instance universitaire, l'occasion offerte d'un examen des relations entre universités et Écoles d'ingénieurs ne soit pas saisie et mise à profit.

L'Académie des Sciences a récemment exprimé ses appréciations et ses recommandations (*) sur l'enseignement et la recherche au sein des Écoles d'ingénieurs. Sans revenir ici sur cette étude d'ensemble, il peut être utile de préciser comment s'exerce ou devrait s'exercer la complémentarité de vocation et d'action entre l'enseignement supérieur et les Écoles d'ingénieurs.

Recrutement des élèves des Écoles d'ingénieurs

Ce recrutement s'opère principalement de deux manières, par un concours d'entrée ou par un recrutement sur titres en cours d'études.

La préparation des concours : Ce sont des classes préparatoires des lycées qui donnent aux élèves la formation leur permettant de se présenter aux concours dans de bonnes conditions. Ces classes se sont acquis, à juste titre, une bonne réputation. Elles exigent des élèves un travail soutenu; elles éduquent leur rapidité de réaction et leur capacité d'expression. Par l'entraînement auquel sont soumis les élèves, ceux-ci acquièrent de précieuses techniques de calcul et d'étude et, plus généralement, une solide formation de base dans les disciplines scientifiques fondamentales.

A l'heure où ces vertus d'une bonne formation scientifique se font plus rares, il serait insensé de « casser » un système qui a fait ses preuves. On peut toutefois l'améliorer de diverses façons, notamment en resserrant les liaisons entre les enseignants de ces classes préparatoires et ceux des Universités. Les Universités devraient offrir aux professeurs des classes préparatoires des possibilités de stage, de participation à des séminaires, de participation à des enseignements de premier cycle. C'est dans cette intention que nous

374


L'Académie des Sciences et le système éducatif

avons préconisé plus haut, que pour être habilité à enseigner dans une classe préparatoire, un professeur du second degré devrait être titulaire, non seulement d'une agrégation, mais aussi d'un doctorat.

Il peut être néanmoins utile de diversifier les lieux et les styles de préparations aux concours d'entrée des Écoles. A cet égard, il serait très souhaitable que quelques Universités saisissent la capacité d'initiative que leur donne leur autonomie, pour tenter l'aventure d'organiser elles-mêmes, au niveau du premier cycle, une préparation à ces concours.

Le recrutement, sur titres : Les Écoles ont mis en oeuvre des modes divers de recrutement sur titres; c'est une excellente initiative qui apporte quelque souplesse dans le système éducatif français souvent très rigide. Nous voudrions évoquer ici, pour en préconiser l'extension prudente et contrôlée, le recrutement de maîtres es sciences en deuxième année d'une École d'ingénieurs. Nous souhaitons que soit mieux connue cette faculté qu'ont les Universités et qui pourrait être l'une des missions reconnues de leurs deuxièmes cycles : fournir aux Écoles d'ingénieurs des élèves ayant acquis dans de bonnes conditions une solide formation scientifique.

Une extension des possibilités actuelles n'est concevable que si, comme c'est actuellement le cas, les élèves ainsi recrutés ont des résultats, dans l'ensemble, aussi satisfaisants que ceux reçus au concours traditionnel. On pourrait alors envisager que, dans un certain avenir, le nombre des élèves ingénieurs de seconde année ayant reçu, soit une formation scientifique courte de deux années au lycée complétée par une année d'École, soit une formation scientifique longue de quatre années acquise à l'Université, soit à peu près le même.

Les formations de préparation au doctorat

Il est souhaitable que les Écoles aient des laboratoires de recherche, capables d'effectuer un travail de qualité et tout spécialement dans les disciplines relevant des sciences pour l'ingénieur. Des progrès à cet égard ont été réalisés ces dernières années et doivent encore se poursuivre. Il est donc logique d'habiliter les formations de recherche compétentes de ces Écoles à organiser un cycle de préparation au doctorat et à délivrer un titre de docteur.

L'Académie propose que l'équipe responsable habilitée à décerner un titre de doctorat dans les sciences de l'ingénieur, et par la suite à organiser un DEA, quel que soit l'établissement d'enseignement dont elle dépend, comprenne nécessairement des professeurs et chercheurs des Écoles et des professeurs et chercheurs d'une Université.

Elle demande que l'on encourage les formations constituées avec le concours de deux (ou éventuellement plusieurs) institutions, une École et un département d'Université. La formation pour la recherche, la préparation des thèses dans le domaine des sciences pour l'ingénieur, représentent un terrain de choix pour la coopération entre Universités et Écoles d'ingénieurs.

Recommandations

L'Académie se réjouit de l'amélioration très sensible du climat entre Université et Écoles d'ingénieurs qui, trop longtemps a été marqué par la méfiance, l'incompréhension, parfois l'opposition. Face aux défis que posent l'évolution scientifique et technique et la

375


Académie des Sciences

nécessité de maintenir une meilleure continuité entre l'activité de recherche et la production industrielle, il importe que les liaisons et la coopération soient encore sensiblement renforcées. Sans toucher aux tutelles et aux vocations des divers types d'établissements, il est possible, par des mesures appropriées, de resserrer les liens déjà existants sur deux points essentiels des élèves ingénieurs et la formation par la recherche dans le domaine des sciences de l'ingénieur.

NOTE

(') Les Sciences Mécaniques et TAvenir Industriel de la France, deuxième partie, chapitres 1 et 3.

Sur la formation des maîtres de l'enseignement technique

Mémorandum du Bureau de l'Académie des Sciences ( 1) (29 avril 1985)

Le Ministre a exposé au Président et au Secrétaire Perpétuel de l'Académie des Sciences les grandes lignes de l'action vigoureuse que le gouvernement se propose de concrétiser dans les mois qui viennent par des textes dont certains seront soumis au Parlement.

Le Bureau de l'Académie prend acte avec la plus vive satisfaction de la volonté gouvernementale de développer et de renforcer les capacités techniques et technologiques de notre pays, condition impérative de la modernisation nécessaire.

Deux points d'application retiennent particulièrement l'attention du Gouvernement et doivent faire l'objet de décisions ou même de mises en oeuvre prochaines; d'une part, l'accroissement en nombre — sans diminution de qualité — des principaux agents du progrès technique, ingénieurs diplômés et titulaires d'un Diplôme Universitaire de Technologie ou d'un Brevet de Technicien Supérieur; d'autre part, l'élévation générale de la culture technique des Français par des mesures affectant tous les niveaux et tous les ordres d'enseignement.

L'augmentation des effectifs des Écoles d'ingénieurs a fait l'objet d'une Note récente du Bureau de l'Académie (11 janvier 1985) adressée au Premier Ministre et aux Ministres de tutelle des Écoles d'ingénieurs. L'Académie reconnaît que cette augmentation serait certainement un facteur de progrès, tout en estimant que c'est plutôt sur la qualité scientifique et technique des cadres supérieurs et sur leur emploi effectif dans les entreprises que l'effort devrait être porté. L'augmentation du nombre de techniciens diplômés, mesure envisagée favorablement dans la Note du 11 janvier, serait particulièrement souhaitable, surtout si elle s'appliquait en priorité dans des secteurs où s'exerce la plus grande demande en matière d'emplois techniques qualifiés.

376


L'Académie des Sciences et le système éducatif

Toutefois, en prenant connaissance des chiffres d'augmentation donnés par le Ministre

— ceux déjà décidés pour la rentrée 1985 comme ceux envisagés pour les années à venir — le Bureau de l'Académie ne peut cacher une crainte qu'il a déjà formulée. Un accroissement aussi important opéré aussi rapidement, avant qu'il n'ait été porté remède à la situation du baccalauréat C, risque de produire un grave déséquilibre dans la répartition des candidats aptes, par leur formation secondaire, à aborder dans des conditions favorables des études scientifiques et techniques, si bien que les bénéfices escomptés de mesures certainement onéreuses pour les budgets du pays, peuvent s'en trouver sérieusement compromis ou même annulés.

Or rééquilibrer les effectifs des différents baccalauréats en fonction des aptitudes des élèves et des besoins de la nation, en retirant en particulier au baccalauréat C le privilège

— si nocif pour le pays — d'être autant un instrument de sélection qu'une filière effective de formation scientifique, demande une action persévérante et nécessairement longue, puisqu'elle doit opérer une modification des comportements. Il est urgent de l'entreprendre. En attendant les premiers résultats qui doivent conduire à une augmentation du nombre des étudiants bien préparés pour une formation scientifique et technique et décidés à l'aborder, il conviendrait, selon le Bureau de l'Académie, d'envisager des accroissements d'effectifs avec une certaine prudence et de les réaliser selon des modalités qui préservent les équilibres indispensables et donnent aux mesures prises leur pleine efficacité.

Élever la culture technique des Français, les amener à reconnaître les, valeurs techniques comme des éléments essentiels de la Culture constituent un objectif dont l'Académie à maintes fois souligné l'urgence et l'importance. Et, pour l'Académie, la réalisation de cet objectif ambitieux mais nécessaire, suppose une action vigoureuse et continue en faveur de la formation des maîtres du technique. Saisissant l'occasion que lui donne ce Mémorandum, le Bureau croit utile de préciser quelques points qui lui paraissent essentiels.

On ne fera cesser le discrédit de fait, bien que non justifié, dans lequel la société française tient actuellement les disciplines techniques et l'enseignement technique que le jour où les maîtres du technique, par les études qu'ils auront faites, par l'ouverture intellectuelle acquise au cours de leur formation, seront perçus comme porteurs et dispensateurs de valeurs culturelles, au même titre et au même niveau que les enseignants des disciplines classiques. On facilitera grandement les relations nécessaires entre les maîtres du technique et les ingénieurs et techniciens appelés à dialoguer et même à coopérer avec eux si les formations reçues par les uns et les autres présentent de nombreux points communs. Ces deux raisons définissent clairement le but à atteindre : mettre en oeuvre pour les maîtres des disciplines techniques des modalités de formation aussi comparable que possible avec celles des maîtres des disciplines classiques.

Autrement dit, la formation des maîtres des collèges et des lycées, devrait reposer sur une maîtrise es sciences acquise au sein des universités, normalement quatre ans après le baccalauréat, et complétée par une année de formation professionnelle et pédagogique conduisant à des concours de recrutement analogues à ceux qui existent pour les disciplines classiques : CAPES et agrégations.

L'Académie sait bien que ce but ne peut être atteint qu'au terme d'une action de longue haleine conjuguant les volontés et les moyens des directions du Ministère ayant en charge les enseignements techniques et les enseignements supérieurs. L'Académie comprend que durant cette période conduisant au régime définitif, des dispositions

377


Académie des Sciences

provisoires soient mises en oeuvre. Mais le Bureau estime qu'il est important que l'objectif final de l'action entreprise soit très clairement défini et annoncé.

Or les décisions en préparation, si le Président et le Secrétaire Perpétuel ont bien compris, ont pour but de définir et de mettre en place assez rapidement un système cohérent de formations des maîtres du technique, ayant un caractère définitif et non provisoire. La pièce maîtresse est constituée par les CFPT, institution étrangère aux universités. Certes il pourra être fait appel à des départements universitaires pour assurer sur contrats des éléments de la formation. Mais les universitaires et les professeurs de l'Université n'auront pratiquement aucune responsabilité dans l'animation, l'inspiration, l'orientation des programmes pas plus que dans le recrutement des élèves et dans les jurys des concours.

L'ambiance culturelle dans laquelle l'étudiant d'une université reçoit sa formation est marquée par la présence constante d'enseignants qui sont pratiquement tous en contact avec la Recherche. Ces relations permanentes entre étudiants et enseignants-chercheurs constituent une composante essentielle de la formation universitaire qui, prenant appui sur les connaissances qui doivent être acquises, ouvre l'esprit et l'intelligence sur le mouvement de la Science, de la Technique et sur leurs interactions et prépare l'étudiant à être réceptif et accueillant aux évolutions à venir. Une telle ouverture paraît encore plus nécessaire à un futur enseignant qui, destiné de par sa fonction enseignante à suivre les progrès technologiques et à s'y adapter pendant près de quarante ans, doit pouvoir trouver en lui les ressources de faire face aux mutations qui lui seront imposées.

C'est pourquoi le Bureau de l'Académie aurait souhaité que parmi les mesures retenues pour mettre en action la rénovation si nécessaire des formations des maîtres, une partie d'entre elles ait eu pour objet d'adapter et de développer les instruments de formation des universités déjà en place — maîtrises de technologie, maîtrises de type sciences et techniques, préparation aux agrégations techniques — et d'engager, sans précipitation, la création, au sein d'universités affirmant leur volonté d'inscrire cet objectif au premier rang de leurs vocations, de nouveaux départements de formation. Ce sont les universités qui peuvent trouver localement le concours des Écoles d'ingénieurs et d'Instituts Universitaires de Technologie qui devraient en priorité être incitées à entreprendre ou à développer cette action. Ce serait un bon moyen pour les universités d'acquérir une expérience et une compétence techniques. Ce serait un bon moyen pour l'enseignement technique de constituer le premier noyau d'enseignants formés prioritairement par l'Université, comme le sont les maîtres des disciplines classiques.

Le Secrétaire Perpétuel s'est fait l'écho des inquiétudes — voire du découragement — de certains de ses collègues qui ont beaucoup oeuvré pour le développement des disciplines techniques et pour la formation des futurs maîtres du technique. Sans doute, ces inquiétudes sont-elles pour une part l'effet de certains malentendus qu'il serait utile de dissiper. Il n'en reste pas moins que les projets ambitieux actuellement envisagés semblent « enfermer » l'enseignement technique dans un système à part et méconnaître l'oeuvre déjà accomplie et qui pourtant s'avérait très heureuse et très prometteuse.

NOTE

(*) Suite à l'audience accordée par Roland Carraz le jeudi 16 avril 1985. 378


L'Académie des Sciences et le système éducatif

Sur le projet de réforme des lycées (4 novembre 1985)

Lettre du Secrétaire Perpétuel, Paul Germain, à Monsieur le Ministre de l'Éducation nationale

Monsieur le Ministre,

Monsieur Philippe Barret, il y a une quinzaine de jours, a fait savoir à notre Compagnie que vous aviez l'intention de présenter au début du mois de novembre les grandes lignes d'une réforme des lycées. En nous remettant un Document de travail décrivant les principales mesures envisagées, il nous a fait part de votre désir de connaître l'opinion de l'Académie des Sciences sur les dispositions que vous avez retenues.

Notre Compagnie a toujours porté un intérêt tout particulier aux questions de formation comme le montrent les nombreuses initiatives qu'elle a prises ces dernières années pour porter à la connaissance du Gouvernement, et en premier lieu de votre Département ministériel, les résultats de ses réflexions et, éventuellement, ses suggestions. Vous comprendrez toutefois, Monsieur le Ministre, que, saisi très récemment d'un projet d'une grande ampleur et d'une grande portée, il ne nous a pas été possible de conduire comme nous l'aurions souhaité l'étude nécessaire. Pour néanmoins répondre à votre désir, le Bureau m'a chargé de vous adresser cette lettre en m'appuyant d'une part, sur nos prises de position dans un passé récent et d'autre part, sur les résultats d'un échange de vues fort intéressant auquel ont participé la semaine dernière une vingtaine de mes confrères particulièrement attentifs aux problèmes de l'enseignement secondaire et qui avaient pu prendre connaissance, trop rapidement il est vrai, du Document de travail qui nous avait été remis.

Doubler en quinze ans le pourcentage d'une classe d'âge atteignant le niveau du baccalauréat et augmenter ce faisant la proportion des bacheliers scientifiques et techniques sans que cet accroissement quantitatif massif et rapide entraîne une baisse trop sensible du niveau culturel et des qualifications, représente un objectif ambitieux et certainement séduisant. Pour réussir une telle mutation, il est nécessaire que soient prises, non seulement au départ, mais aussi tout au cours du processus, les décisions appropriées — sans exclure celles de nature à lever les rigidités structurelles de notre système éducatif traditionnel qui, au terme de l'expérience, se trouvera profondément bouleversé — et que puissent être consacrés à cette grande oeuvre nationale les moyens considérables de toute nature qu'elle exige pour aboutir dans des conditions convenables. L'Académie prend acte de l'objectif visé et je crois pouvoir dire qu'elle l'approuve si les autorités compétentes ont la volonté et l'assurance raisonnable de pouvoir parvenir au but annoncé.

Mais un tel projet présente d'autant plus de risques de dérapage qu'il est ambitieux et sans doute conviendrait-il d'allonger quelque peu les délais ou de diminuer les exigences s'il s'avérait que ces risques étaient trop grands.

Nous vous approuvons pleinement, Monsieur le Ministre, de vouloir diversifier les filières disciplinaires des lycées, en préconisant l'institution de séries présentant des dominantes bien précisées. Il faut mettre un terme aux errements actuels selon lesquels les élèves sont répartis entre les séries plus selon leur niveau que suivant leurs aptitudes, leur goût et leur vocation. La préférence trop exclusive manifestée par les élèves de qualité pour la série C a des effets néfastes, bien reconnus aujourd'hui, sur lesquels

379


Académie des Sciences

l'Académie a souvent attiré l'attention. Nous approuvons en particulier pleinement la création d'une série bien orientée vers les sciences physiques, chimiques et biologiques. Nous serions même enclins à préconiser une diversification complémentaire au sein de chacune des séries C et D en y prévoyant la possibilité d'options.

Mais l'expérience a montré qu'il ne suffit pas d'instituer des séries et d'exprimer un voeu. Il faut réaliser toutes les conditions assurant une bonne et judicieuse répartition des élèves dans ces séries. J'en signalerai notamment trois.

La première est bien notée dans le Document de travail. Elle implique l'adhésion et le concours des instances responsables des filières organisées après le baccalauréat : universités, écoles d'ingénieurs, écoles de commerce et de gestion, centres hospitalo-universitaires, etc. Il est préconisé qu'une personnalité de renom incontesté soit chargée par le Premier Ministre de faire un rapport d'ici la fin de l'année. N'est-ce pas un peu court pour une tâche aussi délicate? Je serais plus enclin à solliciter les réflexions d'un groupe de personnalités représentatives, nommées par le Premier Ministre, qui, tout en formulant leurs suggestions au Gouvernement, prépareraient déjà les esprits aux changements souhaitables par des contacts et des échanges de vues.

La deuxième condition, me semble-t-il, est de convaincre les enseignants des collèges et des lycées que tous ont dans leurs missions essentielles celle d'aider leurs élèves à s'orienter. C'est un point sur lequel l'Académie avait longuement insisté dans « l'Adresse » ( 1) qu'elle avait envoyée à votre prédécesseur (pages 9-11). La doctrine actuelle semble être, contrairement à ce que préconisait l'Académie, de procéder à l'orientation des élèves au début d'un cycle (Premier cycle dans les universités, classe de seconde dans les lycées). Les résultats ne nous paraissent pas bons. Il faut rendre à tous ces professeurs cette responsabilité majeure qui est la leur. Leur rôle ne doit pas se réduire à noter et à classer les bons éléments en C par exemple même s'ils ont une vocation littéraire ou médicale. Ici encore, c'est tout un comportement qu'il faut changer. Cela peut demander du temps, mais les enseignants découvriront ainsi l'étendue de leurs responsabilités dans la vie de la nation, qui ne se réduisent pas à distribuer des connaissances et à vérifier leur acquisition. Ils doivent aussi aider les jeunes à envisager leur avenir et à faire les choix qui favoriseront leur épanouissement.

La troisième condition, importante à mes yeux, n'est pas évoquée, me semble-t-il, dans le Document de travail. Si l'on doit accueillir un jour dans des lycées 80% d'une classe d'âge, il faudra rapidement prévoir, outre une diversification des séries de disciplines, une diversification de niveaux dans chaque série.

Il serait illusoire d'imaginer que, même si l'institution d'études dirigées mentionnée dans le Document de travail — et qui répond certainement à un besoin — fonctionne convenablement, tous ces élèves deviendront de futurs grands savants. Cela ne serait pas souhaitable au surplus car l'oeuvre scientifique et technique nationale réclame un spectre continu de compétences et d'aptitudes. Si des dispositions adéquates ne sont pas prises, ou bien les exigences de chaque série devront être réduites et l'on ne formera plus les esprits brillants et compétents dont le pays a besoin ou bien la sélection des niveaux s'effectuera par un classement sélectif des séries et on retombera dans les errements actuels que précisément votre réforme veut éviter. Cette condition est plus facile à énoncer qu'à réaliser, mais elle me semble impérative pour assurer le succès de la mutation que vous voulez engager. Il serait sans doute très souhaitable de commencer sans tarder à y réfléchir sérieusement.

380


L'Académie des Sciences et le système éducatif

Cette ouverture de nos lycées à la quasi-totalité de nos jeunes si elle appelle une diversification très large des filières de disciplines ne doit pas néanmoins compromettre la mission essentielle de nos lycées : assurer une formation de base comportant une bonne compréhension des notions fondamentales, le degré de leur maîtrise et leur approfondissement comptant plus que le nombre des questions inscrites dans les programmes. Il ne s'agit pas tant du désir de conserver une tradition culturelle, qui a fait le juste renom de notre enseignement secondaire, que d'une exigence imposée par les contraintes mêmes des évolutions scientifiques, techniques et culturelles dont le temps caractéristique est aujourd'hui beaucoup plus court que la durée d'une vie professionnelle. Les facultés d'adaptation constituent et constitueront de plus en plus pour nos jeunes leur meilleur atout au cours de leur existence. Or l'éducation de ces facultés tient plus à la qualité des maîtres qu'au libellé des matières à enseigner. Nous ne pouvons donc qu'approuver pleinement la volonté d'améliorer leur formation exprimée dans le Document de travail.

La formation des professeurs de lycée opérant dans les disciplines classiques, fondée sur un cursus universitaire de qualité, nous paraît pour l'essentiel satisfaisante. Ces professeurs ont un niveau de culture et de compétence qui se compare très favorablement à ceux de leurs homologues étrangers. Le « Mémorandum du Document de travail des Sciences » que nous avons remis au début du mois de mai à Monsieur Jean Tardiveau à votre attention, exprime par contre nos réserves et nos inquiétudes sur des dispositions qui semblent envisagées pour assurer la formation des maîtres des disciplines techniques. Il nous paraît indispensable de viser à ce que ces maîtres aient, comme les maîtres de l'enseignement classique, une formation de base unitaire, acquise dans les universités et contrôlée par des universitaires. Si on renonçait à cette ambition, on prolongerait dangereusement la discrimination dont est actuellement l'objet notre enseignement technique et, de ce fait, la sélection par niveaux s'opérerait encore par un choix sélectif des filières, ce qui doit être évité.

Ces maîtres des lycées, même s'ils ont les qualités et les compétences requises, ne pourront remplir convenablement leur mission que si les élèves qui leur sont confiés ont fait de bonnes études durant les années passées au collège. Si certains échos qui nous sont parvenus étaient fondés, la formation spécifique donnée aux futurs professeurs d'enseignement général des collèges (PEGC) ne satisferait pas aux mêmes exigences que celles requises pour les professeurs de collège ayant un CAPES. Il y aurait là une anomalie qu'il conviendrait de faire cesser à terme sous peine de compromettre le succès de la réforme que vous voulez mettre en route dans les lycées.

Telles sont, Monsieur le Ministre, les premières remarques que je veux vous présenter à la suite de l'examen auquel nous avons dû nous livrer trop rapidement. Mais les questions évoquées dans cette lettre ne sont pas, bien sûr, les seules que pose votre projet. Bien d'autres demanderaient une longue réflexion pour préparer des évolutions difficiles mais nécessaires.

Vous constaterez que nous n'avons pas voulu prendre parti dans la querelle des horaires, par exemple sur la suppression de l'enseignement des sciences physiques et des sciences naturelles dans les classes à dominante littéraire. Nous approuvons nos collègues lorsqu'ils déclarent par exemple qu'un bachelier ne peut aujourd'hui ignorer tout de la biologie. La question de fond — et qui se pose aujourd'hui de façon radicalement nouvelle — est de savoir comment il convient de donner un minimum de culture scientifique à des jeunes qui n'ont pas de dispositions pour les sciences et qui n'ont pas l'intention

—381


Académie dés Sciences

de les mettre en oeuvre dans leur vie professionnelle. La réponse n'est certainement pas immédiate et faute d'en avoir une qui soit satisfaisante, la décision du maintien ou de la suppression de ces heures reste quelque peu arbitraire.

Toutefois, les aménagements auxquels vous procéderez ne devraient en aucun cas entraîner globalement des suppressions de postes dans des disciplines scientifiques. Vous savez, Monsieur le Ministre, que certaines informations sur les projets en préparation ont soulevé des inquiétudes qui, celles-ci, me paraissent légitimes. La réforme peut sans doute conduire pour une discipline à des rééquilibrages d'horaires selon les séries, mais non a des diminutions globales; non seulement parce que dans aucune discipline l'effort global de formation ne saurait être diminué, mais aussi parce que rien n'est plus nocif que d'iïitroduire des discontinuités dans les nombres de postes ouverts aux recrutements.

Nous comprenons l'intérêt de promouvoir une « évaluation objective et constructive des lycées ». Mais nous ne sommes pas actuellement en mesure de vous présenter des suggestions. L'opération est sans aucun doute très délicate et difficile. Vous semblez envisager des « Commissions nationales ». Ne vaudrait-il pas mieux des « Commissions régionales »? C'est toute la question importante de l'orientation et du contrôle des enseignants et des établissements qui est visée.

Une mutation comme celle qui est envisagée implique nécessairement une transformation profonde de notre système éducatif. Il faudra, comme notre rapport ( 2) de 1980 le préconisait déjà, « entreprendre un effort de décloisonnement, de fluidité et d'ouverture ». Il faudra « assouplir » les rigidités existantes. A titre d'exemple, ne serait-il pas bon que des chercheurs, des enseignants du supérieur participent à certains types d'enseignements ? Les expériences faites dans certains pays étrangers — en Union Soviétique et aux ÉtatsUnis notamment — semblent très prometteuses et devraient en tout cas être source de réflexions. Les statuts actuels des personnels imposent des cloisonnements qu'il convient de dépasser.

En regrettant encore une fois de n'avoir pas pu être en mesure de vous exprimer des avis plus précis, plus complets et mieux fondés, je vous prie d'accepter, Monsieur le Ministre, avec ma haute considération, l'expression de mes sentiments déférents et dévoués.

NOTES

(') « Adresse de l'Académie des Sciences à Monsieur le Ministre de l'Éducation nationale sur la loi d'orientation des enseignements supérieurs », C.R. Acad. Se, Paris, 295, 4 octobre 1982, p. 53-98.

( 2) Les Sciences Mécaniques et l'avenir industriel de la France, Rapport au Président de la République, La Documentation Française.

Sur la formation des professeurs d'enseignement général des collèges

Déclaration de l'Académie des Sciences C 1) (10 mars 1986)

L'Académie des Sciences vient d'avoir connaissance des décisions sur la formation des maîtres de nos Collèges d'Enseignement Secondaire que le Gouvernement est sur le point

382 -


L'Académie des Sciences et le système éducatif

d'arrêter. Si elle avait été tenue au courant des projets en préparation, elle aurait pu analyser et mettre en valeur les raisons pour lesquelles elle ne pouvait que désapprouver fermement les dispositions envisagées. Aujourd'hui, confirmant ce que le Secrétaire Perpétuel Paul Germain écrivait déjà au Ministre de l'Éducation nationale le 4 novembre dernier, elle ne peut que manifester sa vive inquiétude devant des textes qui, s'ils doivent être mis en application, sont de nature à ruiner tous les espoirs à long terme engendrés par la volonté de rénovation de notre système éducatif dont a fait preuve le gouvernement ces dernières années.

NOTE

(x) Déclaration adoptée par 49 bulletins oui et un bulletin marqué d'une croix (50 votants) et adressée par le Président de l'Académie à Monsieur Laurent Fabius et à Monsieur Jean-Pierre Chevènement.

383



LA VIE DES SCIENCES -

La naissance de la théorie des capacités : réflexion sur une expérience personnelle

Gustave CHOQUET

Membre de l'Académie

Gustave Choquet est un grand mathématicien. Il est un maître de l'analyse et, si sa culture est grande, sa démarche se caractérise par une remarquable économie de moyens; son oeuvre, étalée sur plus de trente ans, a ouvert à la pensée mathématique des chemins nouveaux.

Les mathématiciens s'étaient, depuis longtemps, intéressés à la théorie du potentiel, venue de l'électrostatique et de la gravitation universelle, un potentiel bien concret si j'ose dire, défini dans l'espace euclidien ordinaire par le potentiel élémentaire en \jr. Cependant, ils s'intéressaient aux problèmes du potentiel correspondant non aux corps de la physique (avec le flou qui entoure cette notion), mais à des ensembles aussi généraux que possible. Comment pouvait apparaître, dans ce cadre, la notion de capacité électrostatique, fonction non additive d'ensembles au comportement un peu paradoxal ? A la fin des années 1940, une telle notion paraît poser aux mathématiciens les plus notables du domaine comme Henri Cartan des problèmes ouverts. Pour quels ensembles pouvait-on raisonnablement parler de capacité ?

Si le nom de Gustave Choquet est déjà gravé dans l'histoire des mathématiques, il le doit en particulier à sa célèbre théorie des capacités généralisées. Celle-ci a certes résolu le problème particulier posé par les capacités électrostatiques, mais elle a été l'un des moteurs fondamentaux conduisant, en sortant de Vespace ordinaire, à considérer des théories de potentiels généralisés, à relier théories du potentiel et probabilités, à envisager enfin des problèmes de représentations intégrales sous un nouveau jour qui en fasse un instrument puissant. On sait que ce rapprochement, cette interaction, entre théories du potentiel et probabilités est, de nos jours, sources de nombreux et importants travaux. L'un des initiateurs de ces travaux systématiques fut le mathématicien américain Doob; notre confrère Paul Malliavin a apporté plus récemment à ce domaine des contributions de première importance.

La théorie des capacités s'est donc révélée non comme une perfection mathématique fermée sur elle-même, mais comme un carrefour mathématique et comme une source de pensées et de techniques nouvelles, abordable par beaucoup, à un niveau de plus ou moins grande sophistication.

La Vie des Sciences, Comptes rendus, série générale, tome 3, n° 4, p. 385-397


G. Choquet

Les témoignages concernant les chemins de la découverte et émanant de grands mathématiciens sont rares et précieux. Ils le sont non seulement pour les mathématiciens eux-mêmes, mais pour tous ceux qui réfléchissent sur les chemins tortueux conduisant effectivement à la conquête d'une vérité, chemins comportant tous des impasses, mais illustrant aussi une certaine manière, à force d'imagination, de contourner les obstacles réels ou apparents. De tels témoignages, on connaît par exemple ceux célèbres d'Henri Poincaré ou de Jacques Hadamard. Il nous à paru intéressant de leur ajouter ici, sur un thème de première importance, celui d'un Gustave Choquet.

André Lichnerowicz

L'êpistémologie contemporaine a consacré beaucoup d'attention aux processus mentaux de la découverte. Des historiens des sciences ont analysé le passé avec l'espoir d'y trouver la pierre philosophale des grandes découvertes; c'est par elles en effet que progresse la science.

Le témoignage direct des découvreurs, même s'il ne constitue pas cette pierre philosophale, est toujours fascinant, bien qu'il repose souvent sur des souvenirs anciens, et qu'il soit bien difficile d'être à la fois observateur et acteur; avoir été soi-même acteur crée pourtant le devoir d'essayer, avec la conscience de la difficulté.

Il s'agira ici de mathématiques; bien que la découverte dans les sciences expérimentales, dans l'art, la poésie, la philosophie, présente d'étonnantes ressemblances avec la découverte en mathématiques, celle-ci a des aspects spécifiques, et c'est d'ailleurs la seule que je connaisse un peu, à la fois par l'observation déjeunes chercheurs et par mon expérience personnelle.

Quand un étudiant commence la recherche, c'est son premier résultat personnel qui lui apporte la révélation éblouissante de ce qu'est découvrir du neuf, et comment le faire. Ce premier pas est décisif; certains ne le franchissent jamais.

Il n'existe pas en effet de méthode infaillible pour apprendre à découvrir; chacun doit en trouver seul le secret. Mais, au moins en mathématiques, certaines conditions minimales doivent être satisfaites pour commencer la recherche dans un certain domaine : bien connaître d'abord les êtres qui l'habitent, en avoir rencontré une grande variété, au point de prévoir leurs réactions, de pénétrer leur vie intime. On commence alors à se poser des questions : dans telle circonstance, comment se comportent ces êtres? Autrement dit, on en arrive à se poser un problème personnel, qu'on l'ait formulé seul, ou que d'autres, du présent ou du passé, l'aient déjà posé.

C'est alors que le tempérament personnel du chercheur va intervenir. Il se trouve dans une situation analogue à celle de l'alpiniste qui, de la base de la montagne, veut en atteindre le sommet : certains alpinistes vont s'adapter à la montagne, en chercher les voies les plus faciles, ou les plus élégantes; d'autres au contraire vont, sans hésiter, utiliser la méthode bulldozer; créer une large rampe d'accès de faible pente qui pourra sans danger être réutilisée par tous ceux qui viendront ensuite : c'est, disait Dieudonné, la méthode préférée de Grothendieck, méthode qui l'a effectivement conduit à créer la géométrie algébrique moderne. Il n'existe donc pas une méthode unique pour résoudre un problème, ou commencer une recherche.

386


La naissance de la théorie des capacités

Personnellement, je donne la préférence à la méthode suivante : le premier pas est une « amplification du cadre ». On énonce le problème dans le cadre le plus général dans lequel ses termes conservent un sens précis; puis on étudie des cas particuliers bien choisis dans ce cas général; si on peut les résoudre par une méthode qui ait un sens dans le cas général, il reste à adapter cette méthode au problème initial. C'est une méthode analogue qui a été étudiée par certains algébristes pour attaquer la conjecture de Riemann sur la

co

localisation des zéros complexes de la fonction analytique Ç(z)=£ 1/n 1 : on introduit des

i

fonctions Ç sur des corps de nombres algébriques qui remplacent le corps classique C des

nombres complexes; on donne un sens au problème et on essaie de le résoudre en

profitant des particularités du nouveau cadre.

Quand un problème réputé difficile est résolu et que sa démonstration est clarifiée, on s'étonne souvent que l'on n'ait pas plus tôt trouvé sa solution. C'est que l'esprit humain est faible; il ne plane pas comme un aigle; au contraire, il a constamment besoin de béquilles, souvent constituées par l'étude approfondie de cas particuliers bien choisis.

Le comportement du chercheur, que ce soit en mathématiques ou en sciences expérimentales, et souvent analogue à celui d'un prospecteur en forêt à la recherche d'une source ou d'une espèce rare d'insectes : il marche sur une piste étroite, l'esprit en éveil, ouvert aux suggestions; il va explorer les sentiers latéraux, inlassablement. Et parfois le miracle a lieu : il partait à la recherche d'un papillon et il découvre un ruisseau qui roule des pépites d'or.

Le départ est donc modeste; la marche est progressive; une trop grande hâte, une ambition mal mesurée risquent de faire échouer l'entreprise.

J'ai connu un excellent mathématicien qui, un jour, a décidé de changer d'orientation et se consacrer à la recherche d'une grande idée en physique mathématique : malheureusement, les grandes idées fécondes sont rares; ce mathématicien s'est fermé aux suggestions journalières qu'une démarche modeste mais obstinée lui aurait apportées; finalement, il ne trouva ni grande ni petite idée dans son nouveau domaine de recherches.

* * *

Mais je veux maintenant apporter mon témoignage personnel en contant la naissance d'une théorie que j'ai créée vers 1950, la théorie des capacités.

Les circonstances entourant cette création favorisèrent mon observation dans ses diverses étapes; elle se fit en effet au cours d'une période de plusieurs mois de travail soutenu, pendant lesquels je ne cessai d'être conscient de mes motivations, des méthodes que j'utilisais, de l'évolution de la théorie. Je crois donc que cet exemple peut intéresser à la fois les philosophes mathématiciens et les mathématiciens philosophes.

Le problème initial concernait la capacité électrostatique; mais, comme je l'expliquerai bientôt, je fus rapidement conduit à l'étude d'une vaste classe de fonctions d'ensemble non additives que je continuai d'appeler capacités. Or en 1950, à l'époque de ce travail, s'il existait bien de nombreux livres et travaux consacrés aux fonctions d'ensemble non additives, je ne pus rien en tirer car la préoccupation de leurs auteurs était de tirer d'une situation non additive tout ce qu'il y avait dedans d'additif; par exemple, partant de la

387


G. Choquet ; *—

fonction obtenue en associant à toute partie de l'espace euclidien E3 son diamètre, ils définissaient les fonctions additives usuelles : longueur, aire, volume.

Or, dans le cas qui m'intéressait, surtout celui de la capacité électrostatique, la seule fonction additive qu'on pouvait lui associer par ces méthodes était une fonction à valeurs 0 ou +00, c'est-à-dire absolument sans intérêt. Il s'agissait donc de briser un cadre devenu trop étroit.

Voici d'ailleurs un exemple élémentaire, assez analogue à celui de la capacité électrostatique et qui, lui aussi, est très loin de l'additivité : dans le plan R 2, notons p (X) la projection de l'ensemble X sur l'axe horizontal; p(X) a, pour la mesure de Lebesgues dans cet axe, une mesure extérieure m*(p(X)) que je noterai/(X). Cette fonction est loin d'être additive puisque, si Xl5 X2 sont deux segments horizontaux dans IR 2, de projections p(Xx), p(X2) identiques, on a /(Xi UX2)=/(X1)=/(X2) et non pas /(X1UX2=/(X1)+/(X2).

Notons que dans ce cadre simple se posent déjà des problèmes difficiles, qui préfigurent ceux posés par la capacité électrostatique. Pour en donner un exemple, convenons d'abord de dire qu'une partie de A de U2 ou IR" est un compact si A est l'intersection d'une suite d'ensembles élémentaires (c'est-à-dire réunions finies de pavés fermés), et que A est borélien si A s'obtient à partir d'ensembles élémentaires par des suites de réunions ou d'intersections dénombrables; les compacts sont, après les ensembles élémentaires, les plus simples des ensembles boréliens.

Voici alors un de ces problèmes difficiles : si X est borélien et borné dans IR 2, existe-t-il, pour tout 8>0, un compact KeX tel que |/(X)—/(K)| <e?

Si dans notre espace usuel, celui des expérimentateurs, on réunit un conducteur K (par exemple une sphère métallique) à une machine électrostatique, ce conducteur se charge d'une certaine quantité Q d'électricité, et atteint un potentiel V; on vérifie expérimentalement que Q est proportionnel à V:Q=/cV; et on appelle cette constante k la capacité électrostatique de K.

C'est une définition de physicien; pour le mathématicien, il y a là trop de termes mal définis : espace usuel, conducteur, potentiel, et même électricité. Je vais donc donner la définition mathématique de la capacité électrostatique, non plus d'ailleurs seulement d'une sphère ou d'un conducteur, mais d'un compact quelconque de l'espace euclidien E3 de dimension 3, qui constitue le modèle mathématique de notre espace usuel (après choix d'un point d'origine et d'une base ortho-normale, on identifie E3 à l'espace R3 des triplets de nombres réels, muni du produit scalaire (x1y1+x2y2+^3y3) et de ^a distance associée).

Rappelons d'abord que, dans cet espace, de nombreuses lois physiques sont des lois attractives en 1/r 2 : forces électriques, magnétiques, gravitationnelles. La chose à retenir est qu'une telle force dérive d'un potentiel; autrement dit, le champ de force créé par un centre attractif n'est autre que le gradient de 1/r, où r désigne la distance au centre attractif : ce fait fondamental permet de remplacer l'étude de ces champs de force par l'étude d'une fonction numérique appelée potentiel.

De façon plus précise, si l'on désigne par une mesure, c'est-à-dire une distribution de masse positive sur un compact K de l'espace, on appelle potentiel de u la somme PM des potentiels élémentaires créés par les éléments de u; plus précisément, la valeur de la

388


La naissance de la théorie des capacités

fonction PH au point x est PM(x) = [l/r(x, y)] jd\i(j>), où r(x, y) est la distance de x au point variable y de K.

PM est une fonction à valeurs dans (0, + oo); je n'insiste pas sur ses propriétés.

Si le compact K n'est pas trop mince, par exemple si K est une boule, il existe des u non nulles sur K telles que P^l partout; appelons pour un instant « bonne mesure » sur K toute n sur K telle que P(1(x)^ 1 pour tout x, et notons || u|| la masse totale de p.

On appellera capacité électrostatique de K la borne supérieure des masses de toutes les bonnes mesures sur K :

cap (K) = sup { || p || : u est bonne et portée par K}.

On démontre qu'il existe une bonne mesure p. sur K dont le potentiel est, pour l'essentiel, partout égal à 1 sur K; cette mesure est d'ailleurs unique et portée par la frontière extérieure de K; on l'appelle la mesure d'équilibre de K(x). Il est donc assez clair que lorsque K est un conducteur usuel, par exemple une boule pleine ou une sphère creuse, cette mesure n,0 coïncide avec la distribution d'équilibre électrostatique des physiciens sur ce conducteur porté au potentiel électrique 1 (pour un potentiel électrique c, ce serait la mesure cp.0). *;;

Revenons pour un instant à la comparaison de cap K avec la mesure de Lebesgue m (K). Les deux fonctions d'ensemble m et cap sont extrêmement différentes : si Kls K2 sont deux compacts disjoints, on a m(Kt \JK2)=m(K1) + m(K2); c'est presque l'opposé qui se produit pour la capacité : par exemple, si K1} K2 sont deux sphères creuses concentriques distinctes, donc disjointes (où K2 est la plus grande), on a : capÇK.! U K2)=cap K2.

Plus précisément, la capacité a l'étonnante propriété de dichotomie, c'est-à-dire que tout ensemble X assez régulier (par exemple tout borélien) peut être partagé en deux ensembles réguliers qui ont même capacité que X. Cette propriété est exactement à l'opposé de l'additivitè; il est donc exclu d'étudier cette capacité par les méthodes traditionnelles en théorie de la mesure.

On va cependant reprendre l'idée qu'Eudoxe utilisait voici plus de deux mille ans pour mesurer l'aire d'un domaine plan A : si pour tout e>0 (Eudoxe ne disait pas cela, mais le pensait certainement) on peut trouver deux aires polygonales, l'une contenant A, l'autre contenue dans A, dont la différence des aires soit < e, on dit que A est quarrable, et son aire est par définition la borne inférieure des aires des polygones contenant A, qui est aussi égale à la borne supérieure des aires des polygones contenus dans A.

Ce procédé s'appelle encore « procédé d'exhaustion d'Eudoxe ». Les bonnes idées sont les plus résistantes et les plus utiles, même après plusieurs millénaires; et dans la théorie de la mesure de Lebesgue le procédé d'Eudoxe a été popularisé par Denjoy qui définissait la mesure intérieure m*(X) comme borne supérieure des mesures des compacts K contenus dans X, et la mesure extérieure m*(X) comme borne inférieure des mesures des ouverts e> contenant X, la mesurabîjité d'un X étant définie par l'égalité de ces deux nombres.

Sur ce modèle d'Eudoxe-Denjoy, on associe à tout Xc=E3 sa capacité intérieure et sa capacité extérieure :

cap* X = sup {cap K : K compact cX},

cap*(X)=inf{cap©:oe ouvert^X}.

389


G. Choquet

Dans cette dernière formule, cap co est mis pour cap* co. Le processus est donc clair : on part de la capacité des compacts; on passe aux ouverts; puis, à partir des compacts et des ouverts, on définit cap* et cap*; autrement dit, on prolonge une fonction définie sur l'ensemble des compacts par deux fonctions définies sur l'ensemble de tous les sousensembles de E3.

Il est clair que cap* cap*; il devient alors naturel de dire :

DÉFINITION :

Un ensemble X est dit capacitable si cap*(X) = cap*(X). La valeur commune de ces deux nombres sera notée cap X.

Cette définition est satisfaisante car le calcul de la capacité électrostatique d'un ensemble capacitable X de E3 peut se faire sans introduire de « bonnes mesures » associées à X; par un jeu d'approximations, celles associées aux compacts suffisent.

Mais elle pose la question de savoir si, en dehors des compacts et des ouverts qui de façon presque évidente sont capacitables, il existe d'autres ensembles capacitables.

Ce problème est intéressant même pour les ensembles de capacité intérieure nulle : on sait le rôle que jouent en théorie de l'intégration de Lebesgue les ensembles de mesure nulle, et la notion de presque-partout qui leur est associée. En théorie du potentiel, la notion de base n'est pas celle de mesure, mais celle de capacité. Le presque-partout est remplacé par le quasi-partout : on dit qu'une propriété a lieu quasi-partout si elle a lieu partout, sauf aux points d'un ensemble X de capacité nulle.

Mais ici se pose une question : s'agit-il dans cette définition de la capacité intérieure ou de la capacité extérieure? Certes, la question ne se pose pas pour les compacts, puisque tout compact est capacitable. Malheureusement, les ensembles X qui se présentent naturellement ne sont pas en général compacts. Deux attitudes sont alors possibles : ou bien on démontre (assez facilement) que cap*(X)=0, d'où un théorème que j'appellerai faible; ou bien on travaille beaucoup plus pour montrer que cap*(X)=0, d'où un théorème plus fort. Vaut-il mieux démontrer facilement un théorème faible que difficilement un théorème fort? Ce dilemme ne se poserait pas si X était capacitable; car on aurait alors des démonstrations faciles de théorèmes forts.

De façon précise, voici un problème concret posé par la notion de quasi-partout : si un ensemble X de type usuel (disons borélien) vérifie cap*(X)=0, a-t-on aussi

ca/?*(X)=0?

Plus généralement se pose la question de savoir si tout ensemble borélien de E3 est capacitable.

Voilà le problème que Marcel Brelot et Henri Cartan signalaient vers 1950 comme un problème difficile (et important) et pour lequel je finis par me passionner en me persuadant que sa réponse devait être positive (pourquoi cette passion? C'est là le mystère des atomes crochus).

Or je ne connaissais alors pratiquement rien de la théorie du potentiel; à la réflexion, je pense maintenant que ce fut cette raison qui me permit de résoudre un problème qui

390


La naissance de la théorie des capacités

arrêtait les spécialistes. C'est là un point intéressant pour les philosophes; aussi vais-je y insister un peu.

Mon ignorance m'évitait en effet des préjugés : elle m'écartait d'outils potentialistes trop sophistiqués, et m'obligeait à oublier les aspects contingents du problème. Voici quel était alors l'état de mes connaissances.

Je connaissais bien la construction de la mesure de Lebesgue préconisée par Denjoy, basée sur l'idée d'Eudoxe, telle que je l'ai exposée voici un instant.

Je ne voyais pas du tout comment faire intervenir le fait que l'espace de base.était E3, pas plus que la définition, déjà un peu trop technique à mon goût, de la capacité associée au noyau newtonien 1/r.

J'ai donc choisi le cadre le plus général possible dans lequel les notions indispensables aient un sens. Certes, un cadre trop vaste peut présenter le danger qu'on n'y dispose d'aucun outil et qu'on n'aboutisse donc qu'à des trivialités; mais je me sentais libre de restreindre la généralité au fur et à mesure des nécessités.

Je remplaçai donc E3 par un espace topologique séparé ( 2) E quelconque (séparé pour permettre une manipulation commode des compacts) et je remplaçai la capacité électrostatique cap(X) par une application croissante f de Jf(E) dans R+ (où jf(E) désigne l'ensemble des compacts de E).

Dans ce cadre fort primitif, les notions de base et le problème posé pouvaient cependant s'exprimer :

Pour tout XcE, on pose f* (X) = sup { / (K) : K compact c X } et f* (X)=inf {/* (co) : ta ouvert contenant X}; et on dit que X est f-capacitable si f*(X)=f*(X).

Il est tentant de noter /(X) la valeur commune /* (X) =/* (X) pour tout X capacitable. Or cela est bien le cas pour tout X ouvert, mais ce n'est vrai pour X compact que si / est « continue à droite » au sens suivant : V K compact, V e > 0, 3 co ouvert contenant K tel que /* (co) ^/(K) + e (autrement dit, si on agrandit un peu un compact, sa capacité

augmente un peu).

Cette propriété est classique pour la mesure de Lebesgue et pour toute mesure de Radon; et les potentialistes la connaissaient pour la capacité newtonienne, sans d'ailleurs l'avoir jusque-là nettement formulée.

Je décidai donc de supposer désormais / croissante et continue à droite et d'appeler une telle / une capacité.

Dans ce cadre très général, de nombreux exemples montraient que E pouvait contenir des boréliens non capacitables. Il y avait à cela au moins une première bonne raison : les fonctions /* et f* sont définies à partir des compacts, alors que les boréliens de E et même ses fermés peuvent ne contenir que de très petits compacts; en particulier, alors qu'un compact de E est un excellent ensemble, son complémentaire peut contenir d'horribles fermés.

Il fallait donc restreindre le problème de capacitabilité aux boréliens de E construits à partir des compacts par les opérations dénombrables simples usuelles, à Vexclusion du passage au complémentaire.

Plus précisément, j'introduisis l'ensemble â$K des K-boréliens de E, c'est-à-dire le plus petit ensemble de parties de E contenant X et stable par réunion dénombrable et par

391


G. Choquet —:

intersection dénombrable; il contient donc les compacts K, les K,, (union dénombrable de compacts), les Ko5 (intersection dénombrable d'ensemble K), les Ka5<J, etc., transfiniment.

Cette restriction du problème est d'autant plus raisonnable que dans R3 tout borélien est aussi K-borélien parce que tout ouvert est ici un K0; or cette restriction sur la régularité de X n'exige, bien sûr, aucune restriction sur E ou f; ce n'est qu'ensuite que des restrictions, du moins sur / pourront être nécessaires.

En fait, cette nécessité est rapidement apparue, car je pouvais construire sans difficulté, même pour E = R2 et pour des capacités / sous-additives (i. e. /(Kj U K2) ^/(Kj) +/(K2)), des boréliens fort simples de R2 (donc aussi K-boréliens) qui n'étaient pas /-capacitables.

Je me suis alors très consciemment demandé : quel type de restriction dois-je imposer à fl Elle doit être telle qu'elle rende facile la preuve de la capacitabilité des ensembles K-boréliens les plus simples après les compacts, c'est-à-dire des Ka.

Soit donc X = U„K„, où (K„) est une suite croissante de compacts. Je dois montrer que, pour VE>0, il existe un ouvert co contenant X et tel que /(CO)</(X)+E. Il est naturel de construire cet co comme réunion d'ouverts co„ où co„ contient K„, et tels que, pour chaque n, /(co„) soit très voisin de/(K„), par exemple/(con) </(Kn) + e„; l'idéal serait, bien sûr, que e^^eB; et, comme cet idéal est réalisé lorsque/est une mesure de Radon, cette idée n'est pas déraisonnable.

Pour y voir clair, commençons par étudier une suite de deux compacts Kx, K2 au lieu d'une suite infinie (K„) : on cherche à exprimer que si l'on a K^Wj et K2cco2, ou plus généralement ÛJCAJ et a2cA2, alors

est petit dès que :

le sont, par exemple que

Un passage à la limite fort simple montre d'ailleurs que, si cette inégalité est vraie pour des compacts, elle est toujours vraie.

Mais, avant d'aller plus loin, il s'agissait de savoir si cette inégalité très précise (et vraie pour les mesures de Radon, à savoir les capacités telles que/(A UB)=/(A)+/(B) dès que les compacts A, B sont disjoints) est aussi vérifiée par la capacité électrostatique.

Je réussis, après avoir noirci, par maladresse, de nombreuses pages dé calcul, à la mettre sous plusieurs formes équivalentes, et en particulier sous la suivante :

C'était une inégalité élégante, et d'autant plus souhaitable que, lorsque /est une mesure de Radon, elle devient une égalité.

D'autre part, comme /2;0, elle est plus restrictive que la sous-additivité ordinaire; je lui donnai le nom de sous-additivité forte.

392 =


La naissance de la théorie des capacités

Mes collègues potentialistes me dirent qu'ils ignoraient si la capacité électrostatique vérifiait cette propriété. Je dus donc apprendre un peu de théorie du potentiel, et je finis par montrer, ô miracle ! que la capacité newtonienne / était fortement sous-additive.

Un petit effort me montra que la sous-additivité forte entraînait l'inégalité plus générale :

pour toute famille finie de couples (a,-; A;) tels que a,-c: A,. L'inégalité idéale que j'avais en vue était donc vraie; il ne s'agissait plus que de l'appliquer à l'objectif initial, la capacitabilité des Ka.

Mais ici une agréable surprise m'attendait. La généralité de l'inégalité (3) me fournit l'énoncé simple et général suivant :

THÉORÈME :

Soif / une capacité fortement sous-additive. Alors, pour toute suite croissante (X„) d'ensembles quelconques, on a :

Cet énoncé était bien connu (et utilisé) en théorie de la mesure, où on l'établit en utilisant Y additivité de la mesure; j'avais donc démontré que la sous-additivité forte suffit pour sa validité.

Un corollaire important en résultait aussitôt.

COROLLAIRE :

La réunion de toute suite d'ensembles capacitables est aussi capacitable.

En particulier tout KCT est capacitable.

Mais mon travail était loin d'être achevé, car après les Ka viennent les KoS, puis les KnSn, etc., et toute la kyrielle des K-borêliens.

Pour les Ka5, intersection d'une suite décroissante (X„) d'ensembles Ka, le théorème précédent ne s'appliquait pas directement, et une observation simple montre même qu'il n'y a pas de théorème de même type pour les suites décroissantes (X„) et leurs intersections. En effet, toute partie X bornée de E3, aussi mauvaise soit-elle, est intersection d'une suite décroissante d'ensembles /-capacitables pour la capacité électrostatique / (si (C„) est une suite décroissante de couronnes ouvertes sphériques concentriques de rayons k, k + l/n et entourant X, la suite des (C„ \J X) fournit un tel exemple).

Heureusement, une démonstration technique, un peu cachée, mais courte, me fournit cependant, en utilisant le théorème 3, la réponse attendue pour les Ka6; la réponse pour les Kngo s'ensuivait aussitôt, d'après le corollaire 4.

Inutile de dire que ce premier succès m'encourageait fortement à prouver la validité du théorème général.

Or le stade suivant concernait les Ko5a5; la méthode suivie pour les Kn5 ne s'applique plus à ces ensembles qui sont déjà beaucoup plus complexes que les compacts. Je me suis alors fait très consciemment le raisonnement suivant : puisque j'ai pu démontrer la

393


G. Choquet

capacitabilité des KCT6 en utilisant l'inégalité de sous-additivité forte, peut-être pourrais-je démontrer celle des Ka5a5 à partir d'inégalités du même type, mais plus fortes. Dans quelle direction les chercher ?

Je dus noircir beaucoup de papier avant de les trouver; et elles se manifestèrent par une écriture un peu modifiée de l'inégalité (1), la faisant apparaître comme le second terme d'une suite infinie d'inégalités construites à partir de / par le procédé classique des différences successives, utilisé autrefois dans le « calcul des différences », et parfois dans l'étude des dérivées des fonctions d'une variable. Expliquons-nous.

Soit / une fonction d'ensemble X -»/(X) à valeurs réelles; si l'on donne à X un « accroissement » Als /prend un accroissement qu'on notera

Par exemple, dire que /est une fonction croissante se traduit par A^ ^0. On définit ensuite :

Et, de façon générale, la suite (AM) se définit par récurrence en utilisant des accroissements successifs Al5 A2, . . ., A„ par la relation

Avec ces notations, le fait que/est croissante et fortement sous-additive se traduit ( 3) par :

Cette formulation m'incitait à chercher si, peut-être, les différences successives associées à la capacité électrostatique ne seraient pas alternativement positives et négatives, autrement dit si l'on a toujours ( —1)"A„^0. Et voici qu'un nouveau miracle se produisit : une démonstration analogue à celle qui m'avait donné la sous-additivité forte me montra que, pour la capacité électrostatique/ on a bien pour tout entier n : ( — l)"An^0.

La capacité électrostatique ressemblait donc à ces fonctions / d'une variable réelle dont les dérivées successives sont alternativement positives et négatives, qu'on appelle complètement monotones, et qui sont en fait identiques aux fonctions de Bernstein, de la forme $(l—e~,x)d\i(t) où u est une mesure de Radon positive sur R^ =]0, oo[.

Pappelai ces fonctions d'ensemble les fonctions alternées d'ordre infini. Leur ressemblance avec les fonctions de Bernstein me conduisit à penser qu'elles possédaient également une représentation intégrale exprimable au moyen de fonctions g(X) analogues à des exponentielles, c'est-à-dire vérifiant la relation g(X\JY) =g (X) g (Y), obtenue en remplaçant l'addition sur les nombres réels par l'opération de réunion d'ensembles.

Ce rapprochement valait un détour et, abandonnant pour quelque temps la capacitabilité, j'étudiai de plus près la formule de Bernstein. L'unicité bien connue de la mesure LI qui y figure entraînait évidemment que, pour tout/fixe, la fonction (1 —e_,x) est un élément minimal — ou encore extrémal — du cône convexe des fonctions complètement monotones. Il devenait extrêmement tentant de mettre en évidence des phénomènes

394


La naissance de la théorie des capacités

analogues pour le cône des capacités alternées d'ordre infini. Tout cela se révéla parfaitement exact, et même relativement facile à établir; en particulier, les capacités « exponentielles décroissantes » g se caractérisaient aisément puisque, de la relation g(X U Y) =g(X)g(Y), résulte, en faisant X = Y, que g ne prend que des valeurs 0 ou 1.

J'en déduisis, par une application facile de la théorie de la convexité, une représentation simple de toute capacité / alternée d'ordre infini. De façon précise, supposons, pour simplifier, que E soit compact avec/(E) = 1; alors il existe sur l'ensemble jf (E), lui-même compact des sous-compacts de E, une mesure de probabilité u telle que, pour tout compact K ou E, /(K) soit égale à la u-probabilité de rencontre de K avec un sous-compact variable de E. En particulier, lorsque/est la capacité électrostatique dans E = E3, on a un énoncé analogue avec une mesure u portée par l'ensemble des trajectoires browniennes; et cela établit un lien étroit entre théorie du potentiel et théorie des probabilités, lien qui n'a pas cessé de se confirmer.

Mais surtout ce détour me mit en contact pour la première fois avec les problèmes de représentation intégrale dans les convexes compacts et dans les cônes convexes.

Et, de fait, mes recherches ultérieures sur la représentation intégrale eurent pour motivations initiales à la fois cette étude des capacités et le théorème — dû à R. S. Martin — de représentation des fonctions harmoniques positives dans un domaine de R", sans oublier le désir de répondre au besoin plus général, bien formulé par R. Godement dans un travail sur la représentation des opérateurs positifs sur un Hilbert, d'un énoncé qui économise une fois pour toutes des monceaux de papier.

Mais ceci est une autre histoire; revenons donc au problème initial de capacitabilité. C'est pour démontrer la capacitabilité des KCT8CT5, etc., que j'étais parti à la recherche d'inégalités supplémentaires. J'avais effectivement trouvé que A3^0, A4^0, etc. On pouvait donc espérer que A3^0 fournirait le résultat pour les Ka5a5, que A4^0 le fournirait pour les K<I8CT5CT6, etc. Je me mis au travail, mais me heurtai à un mur; était-ce manque d'imagination et de technique, ou bien était-ce dans la nature des choses ? Je me dis très consciemment ceci : imaginons qu'à force de travail j'arrive à montrer, grâce à A32:0, que les Ko8a8 sont capacitables, et ainsi de suite avec A4:gO, etc.; mon travail ne serait pas fini pour cela, car après ces boréliens en viennent d'autres plus complexes : les Kro par exemple qui sont des intersections dénombrables de boréliens de classe finie, puis les KmtJ, K(ûo5, etc.

Il me faudrait pour les aborder de nouvelles inégalités; y en avait-il? Un nouveau problème était ainsi posé : y a-t-il, en dehors des inégalités ( — 1)"A„:S0, d'autres inégalités vérifiées par la capacité électrostatique? Je parvins à démontrer qu'il n'y en avait pas, en ce sens que toute relation entre les capacités d'une famille finie arbitraire d'ensembles est une conséquence des relations déjà trouvées ( — 1)" A„ ^ 0.

C'était intéressant, mais j'étais dans une impasse. C'est alors que mon subconscient, déjà inquiet sans doute depuis quelque temps, monta au niveau de ma conscience; et je me souvins que, du moins dans le cadre des ensembles boréliens de l'espace euclidien, il y a d'autres façons de construire les boréliens que de procéder par petits pas indéfiniment répétés, consistant à appliquer à des boréliens déjà construits des intersections ou des réunions dénombrables : les mathématiciens polonais avaient depuis longtemps en effet montré que tout ensemble borélien de R" est l'image, par une application continue, d'un G5 de R, c'est-à-dire une intersection dénombrable d'ouverts de R, et même une image continue du G8 constitué par les nombres irrationnels de R.

; _ 395


G. Choquet —<

Ce n'était pas une façon très raffinée de construire les boréliens — sans compter que ce même procédé s'appliquait aussi à des ensembles plus généraux que les boréliens, à savoir les analytiques —, mais cela valait la peine d'essayer.

Je démontrai d'abord que tout K-borélien est une image continue d'un KaS et j'appelai plus généralement K-analytique toute image continue d'un Ko8. Je tenais donc là une relation solide entre les KnS et les K-boréliens quelconques, et même les K-analytiques.

Restait à trouver comment passer de la capacitabilité des Ko8, déjà bien établie, à celle de leurs images continues.

Soit donc X un Kq5 d'un espace E, et <p une application continue de X dans un espace F sur lequel est. définie une capacité / fortement sous-additive; on veut montrer que Y = <p(X) est/-capacitable. J'essayai de définir sur E une capacité auxiliaire e associée à / en posant e (A) =/ [tp(Â)] pour tout compact A de E, et d'utiliser la e-capacitabilité de X dans E; mais assez vite je compris que, pour faire marcher cette idée, il fallait remplacer le couple (E, X) par le couple (E x F, F), où F est le graphe de l'application cp, et utiliser ensuite, au lieu de (p, l'application projection de ExF dans F, donc poser 8 (Q =/ (prFC) pour tout compact C de E x F.

Si l'on remarque alors que g est une bonne capacité, que F est comme X un KCT8 et que, pour tout ensemble g-capacitable de ExF, sa projection dans F est /-capacitable, avec même capacité, la preuve est terminée puisque Y est la projection de F.

Le chemin pour obtenir cette preuve avait été bien long, et après coup la preuve pouvait être exposée en quelques pages. Mais c'est là un fait général : quand un tableau est terminé, on efface les esquisses successives, on encadre le tableau et personne ne peut plus voir le long chemin qui a conduit à sa réalisation. J'ai voulu ici reconstituer dans la mesure du possible, rendre à la vie pour un instant, les longs détours que j'ai dû parcourir.

Et ces détours, après coup, n'ont pas été inutiles puisque au cours de mon cheminement j'avais trouvé de nouvelles vérités, parfois mutiles pour le but fixé initialement, mais intéressantes pour elles-mêmes ou par leurs prolongements : la suite infinie des inégalités ( — 1)" A„^0; la classe des ensembles K-boréliens et K-analytiques; une première incursion dans le domaine des représentations intégrales; grâce à la représentation intégrale des capacités alternées d'ordre infini, un lien solide entre ces fonctions et la théorie des probabilités; et une technique d'utilisation de produit d'espaces.

NOTES

f 1) L'identité des potentiels électriques et gravitationnels impose d'évoquer ici Newton et son calcul de la pesanteur à l'intérieur et à l'extérieur de la Terre (supposée homogène pour simplifier). Les énoncés qu'on vient de rappeler entraînent assez facilement qu'en tout point à la distance r du centre de la Terre la pesanteur coïncide avec l'attraction newtonienne d'une masse concentrée au centre et égale à la masse de la portion de Terre contenue dans la boule concentrique de rayon r. Par exemple, à l'extérieur de la Terre, l'intensité de la pesanteur est proportionnelle à 1/r 2, tandis qu'à l'intérieur elle est proportionnelle à r3/r 2, donc à r. Certains historiens ont soutenu que, si Newton avait attendu vingt ans avant de publier ses Principia, c'est qu'il n'avait pas de bonne démonstration de ces propriétés, aujourd'hui considérées comme élémentaires.

396


La naissance de la théorie des capacités

( 2) Le lecteur non mathématicien, qui ignore ce qu'est un espace topologique séparé, un compact ou a fortiori un borélien de cet espace, ne perd qu'une partie de ce qui suit en restant dans un espace euclidien. Il doit savoir cependant que le remplacement de E3 par un espace beaucoup plus général a été un facteur décisif pour le cheminement de ma pensée dans le labyrinthe où nul fil d'Ariane ne me guidait vers la sortie.

( 3) Pour ne pas trop rester dans le vague, montrons que, si / est croissante et fortement sous-additive, ses A2 sont négatifs. En effet A2gO s'écrit /(XUA1UA2)+/(X)g/(XUA,)+/(XUA,); or, si on pose Yj = X U A1; Y, = X U A2, la sous-additivité forte donne, compte tenu que Yj \J Y2=XUA, U A2 : /(XUA1UA2)+/(Y1nY2)g/(XUA1)+/(XUA2), d'où A2g0 puisque XcY,nY, et que /est croissante.

397



LA VIE DES SCIENCES -

1<T Colloque national

de l'Académie des Sciences,

Paris. 29-31 janvier 1986.

La figure de la Terre à l'ère spatiale

Jean KOVALEVSKY

Correspondant de l'Académie

Le 4 octobre 1957, le premier Spoutnik faisait ses premières rondes autour de la Terre, émettant le fameux «bip... bip», premier balbutiement d'une technique qui allait bouleverser presque toutes les branches de la science et transformer même la vie quotidienne grâce aux applications en météorologie, en télécommunications, en études de la Terre, en navigation, etc. Ainsi, actuellement, la navigation en haute mer se fait presque toujours à Taide de satellites et c'est aussi grâce au système ARGOS, système français embarqué sur satellites, que l'on connaît la position des concurrents dans certaines courses transatlantiques. Mais naviguer sigtiifie avant tout repérer sa position sur le globe terrestre : c'est, par définition même, faire de la géodésie, si ce n'est qu'au lieu de repérer des points fixes on repère la position d'un point en mouvement.

Tout comme la navigation, la géodésie a été une grande bénéficiaire des techniques spatiales et, qui plus est, une des premières sciences à avoir effectivement produit des résultats nouveaux à l'aide de satellites. Dans ce qui suit, nous allons voir comment on procède pour faire de la géodésie par satellites, appelée plus couramment « géodésie spatiale ».

Les principes de la géodésie spatiale

Géodésie géométrique

•■ La méthode fondamentale de la mesure de la Terre était toujours, en 1957, celle qu'ont utilisée les expéditions en Laponie et en Amérique du Sud : viser des mires visibles de plusieurs endroits simultanément et construire des triangles successifs dont la résolution permet d'en déterminer tous les angles. L'échelle est donnée par la mesure d'une ou plusieurs bases et ainsi, petit à petit, on constitue un réseau de triangles dont tous les sommets ont des positions bien établies.

La limitation de cette méthode est qu'on ne dispose pas de mires fixes sur les océans et que des réseaux géodésiques établis sur certains continents ne pouvaient pas être reliés

La Vie des Sciences, Comptes rendus, série générale, tome 3, n° 4, p. 399-420


J. Kovalevsky

entre eux. On ne possédait que des morceaux disjoints d'un puzzle dont l'assemblage aurait constitué la figure de la Terre.

Dès que les satellites sont apparus, les géodésiens ont compris qu'on pouvait les considérer comme des mires situées à plusieurs centaines de kilomètres d'altitude. Certes, elles sont mobiles, mais, si on peut les photographier au même instant, en repérant leur direction sur fond d'étoiles dont les astronomes donnent les positions exactes, on obtient dans l'espace des faisceaux de directions convergentes. Ces directions déterminent des triangles qui servent dès lors à rattacher des stations éloignées. C'est le principe de la géodésie spatiale géométrique.

Il y a toutefois deux difficultés. La première réside dans le fait que les observations doivent être strictement simultanées, et l'expérience prouve qu'il y a toujours des incidents ou des imprévus qui empêchent d'ouvrir l'obturateur au bon moment. C'est pourquoi on a utilisé la méthode des observations fictives illustrée dans la figure 1. Chaque station prend une série de photographies permettant de reconstituer la trajectoire apparente du satellite, puis on interpole la position à des instants donnés, les mêmes dans toutes les stations.

La seconde difficulté est que toute triangulation implique la mesure de bases. Il fallait donc s'appuyer sur des distances entre des stations qui ne pouvaient alors être déterminées que par la géodésie classique terrestre. En quelque sorte, le satellite ne servait qu'à étendre les résultats de géodésie classique. Mais c'était déjà beaucoup, et c'est ainsi que, dans les années 1960-1970, un réseau géodésique mondial était établi par le Coast and Geodetic Survey américain. Il était construit à l'aide de cinq grandes bases continentales et une quarantaine de stations observant le satellite ballon PAGEOS et avait une précision de l'ordre de 20 à 40 m.

C'est fin 1964 que fut introduite une nouvelle technique qui devait révolutionner la géodésie spatiale. Presque simultanément, Américains et Français réussirent à construire des stations d'observation par laser. Un signal lumineux est émis à l'aide d'un laser vers un satellite et le temps d'émission est enregistré (fig. 2). Si le satellite est muni de rétro-réflecteurs (cataphotes constitués de prismes trirectangles à réflexion totale), la lumière qui les atteint est renvoyée dans la direction d'où elle vient. Une certaine partie de la lumière ainsi réfléchie par le satellite revient exactement à la station et la mesure de l'instant de retour du signal permet, connaissant la vitesse de la lumière, d'avoir la distance du satellite. Ainsi, si un télémètre laser est couplé avec une caméra pour satellites, on mesure un des côtés d'un triangle s'appuyant sur une station et le satellite. Comme la précision de la télémétrie laser était dès les premiers tirs supérieure à la précision de mesure des bases géodésiques terrestres, la géodésie spatiale pouvait désormais se passer des méthodes au sol et déterminer la position de points sur la Terre de façon totalement indépendante.

Géodésie dynamique

La méthode que nous avons décrite ne fait aucune hypothèse sur la nature de la trajectoire du satellite. Si on visait un avion naviguant au gré des caprices du pilote ou encore un ballon poussé par le vent, la méthode serait la même. Elle avait d'ailleurs été appliquée pour des ballons, notamment en Finlande.

400


- La figure de la Terre à l'ère spatiale

Fig. 1. — La géodésie spatiale géométrique. Les observations effectuées aux temps f,, r2 et t3 par la station O sont interpolées pour l'instant T(Ox). De même celles qui ont été effectuées par O' aux temps t\, f2, r3 et t'A le sont pour le même instantT(0', x'). On crée ainsi des observations fictives synchrones.

Or la trajectoire d'un satellite n'est pas quelconque : elle est la conséquence des forces de gravitation et, en premier lieu, des forces d'attraction terrestre, celles-là mêmes qui sur Terre nous attirent vers le bas et qui constituent l'essentiel de la pesanteur. En première approximation, les satellites tournent autour de la Terre sur des ellipses dont un des foyers est au centre de la Terre, tout comme la Lune ou encore comme les planètes autour du Soleil. En fait, le mouvement est, dans le détail, plus compliqué. Il ne serait aussi simple que si la Terre était sphérique, la matière étant distribuée en couches sphériques homogènes, ce qui n'est pas le cas. Les expéditions du xvme siècle avaient déjà montré que la Terre était aplatie et on sait maintenant qu'elle a de nombreuses autres irrégularités, tant dans sa forme que dans sa structure.

Supposons que l'on connaisse exactement le champ de gravité de la Terre, c'est-à-dire que l'on connaisse en chaque point de l'espace environnant la force avec laquelle le satellite est attiré vers la Terre. On peut alors, en s'aidant des observations de position du satellite, calculer sa trajectoire, tout comme les astronomes déterminent le mouvement de la Lune ou des planètes. Mais on peut aussi faire l'opération inverse. Si on recueille

401


J. Kovalevsky -

Fig. 2. - Télémètre laser du CERGA. (Photo T. Lavergé.)

de très nombreuses observations d'un satellite permettant de rétablir sa trajectoire, on peut essayer de calculer les forces qui l'ont produite et déterminer ainsi le champ de gravité de la Terre. En fait, un seul satellite ne suffit pas, mais avec une vingtaine d'orbites différentes (inclinaisons, excentricités et périodes variées), c'est parfaitement possible.

On conçoit aisément que la connaissance du champ de gravité terrestre soit importante pour les agences spatiales et autres usagers des satellites, mais en quoi cela concerne-t-il la géodésie ? La figure 3 illustre cette relation en réalité très étroite.

En effet, ces forces de gravité agissent également à la surface de la Terre. Ajoutées à la force centrifuge due à la rotation de la Terre, elles constituent la pesanteur, cette accélération qui agit le long de la verticale. En d'autres termes, elle est toujours perpendiculaire à l'horizontale et, en particulier, en très bonne première approximation, à la surface des océans. Or qu'est-ce que la figure de la Terre sinon la figure formée en moyenne par les océans qui couvrent les trois quarts de sa surface? D'où l'idée fondamentale suivante : la connaissance des forces agissant sur un satellite nous permet, ainsi que le schématise la figure 3, de déterminer exactement les forces de pesanteur partout sur le globe terrestre et d'en déduire la forme de la Terre, cette surface qu'on appelle géoïde et qui coïncide avec la surface moyenne des mers, mais qu'on étend en-dessous des continents comme surface d'altitude zéro. Ce géoïde est par définition la figure de la Terre.

402


La figure de la Terre à l'ère spatiale

Fig. 3. — La géodésie spatiale dynamique. La Terre produit un champ d'accélération de gravité dans tout l'espace environnant. Il est symbolisé ici par des flèches. C'est ce champ qui constitue l'élément principal de la pesanteur qui définit le géoïde (flèches s'appuyant sur le géoïde). C'est aussi lui qui agit sur le satellite et donne ainsi sa forme à la trajectoire du satellite (flèches en tiretés). Si, par l'observation, on rétablit cette trajectoire, on peut trouver le champ d'accélérations sur l'orbite et l'étendre dans tout l'espace, notamment à la surface de la Terre, ce qui donne la forme du géoïde (ou figure de la Terre).

Seulement, pour déterminer avec précision la trajectoire des satellites, il faut les avoir observés à partir de stations dont on connaît la position sur la Terre. Il faut donc avoir déjà réalisé des campagnes de géodésie par la méthode géométrique décrite ci-dessus, méthode qui elle-même nécessite d'observer des satellites. Mais en fait on peut ne pas séparer ces deux phases et il est nécessaire d'interpréter simultanément les résultats d'observation en fonction des deux catégories d'inconnues :

— les positions géocentriques des stations d'observation;

— les paramètres décrivant les forces de gravité agissant sur les satellites.

Il faut y ajouter une troisième catégorie de quantités à calculer : les paramètres initiaux des orbites qui déterminent le mouvement ultérieur des satellites utilisés.

Cette méthode s'appelle géodésie dynamique, ainsi nommée parce qu'elle utilise les équations du mouvement des satellites. Le résultat d'un travail complet de géodésie dynamique, utilisant plusieurs mois d'observations de dix à trente satellites effectuées par

_ 403


J. Kovalevsky

au moins une cinquantaine de stations, s'appelle un « système géodésique », caractérisé par une description détaillée du géoïde et la position des stations. Le premier système géodésique a été construit en 1966 par le Smithsonian Astrophysical Observa tory et de nombreux autres ont vu le jour depuis, notamment en France, en collaboration avec des chercheurs allemands.

L'altimétrie

C'est en 1974 qu'une nouvelle méthode de géodésie spatiale a vu le jour avec le lancement du satellite américain GEOS 3. C'est l'altimétrie, dont nous allons donner le principe.

La surface des océans est, nous venons de le voir, une matérialisation du géoïde, définie par l'ensemble des paramètres décrivant le champ de gravité terrestre. Donc toute observation effectuée par rapport aux océans peut être interprétée en termes de ces paramètres. En particulier, si le satellite est muni d'un radar vertical, il peut mesurer le temps minimal mis par une onde émise pour revenir. Le trajet le plus court entre un point et une surface étant la perpendiculaire à la surface, on mesure ainsi, en multipliant le temps par la vitesse des ondes électromagnétiques, l'altitude du satellite au-dessus des mers.

Un radar pouvant émettre à une cadence très élevée (plusieurs fois par seconde), on recueille ainsi des milliers de distances de l'orbite à l'océan (fig. 4). Chacune de ces distances est une fonction des paramètres définissant l'orbite du satellite et la forme de l'océan. Dans les deux cas, ce sont les mêmes paramètres qui entrent en jeu : ceux qui décrivent le champ de gravité de la Terre. Ce sont donc des relations supplémentaires qui peuvent s'ajouter à celles qui sont utilisées en géodésie dynamique.

Ce complément de données est particulièrement précieux car il a une densité bien supérieure à la densité des observations terrestres, et parce qu'il se rapporte à des arcs de trajectoire au-dessus des océans, à des endroits difficilement accessibles aux observations depuis la terre ferme.

La radio-interférométrie à longue base

L'interférométrie est une technique utilisée en radio-astronomie pour localiser dans le ciel les sources d'émission radio. Deux radiotélescopes pouvant être éloignés de plusieurs milliers de kilomètres observent simultanément une source radio suffisamment intense et quasiment ponctuelle. Les quasars sont pour cela les objets idéaux. En analysant la lumière émise et en en comparant les phases, on peut déterminer la direction de la source par rapport à la base formée par les deux télescopes. Inversement, connaissant la position relative des sources, on peut déterminer la direction et la longueur de la base.

Pour faire de l'interférométrie, il faut disposer de gros radiotélescopes et de moyens de calcul très puissants. Aussi seulement une dizaine de bases sont-elles régulièrement observées, mais celles-ci fournissent des données de très grande précision (de l'ordre de quelques centimètres) à l'échelle continentale et intercontinentale.

404


La figure de la Terre à l'ère spatiale

Fig. 4. — La surface des océans déterminée par altimétrie. Les stations Oj et 02 observent le satellite (mesures OxAi, C^Aj, OiA3; 02 B1.. . 02B4), ce qui permet de déterminer sa trajectoire. Puis les mesures de distance du satellite à la surface des mers (hu h2...) permettent de placer les points H1; H,... dans le système de référence des stations et de l'orbite du satellite. Ainsi, point par point, on reconstruit la surface des océans.

Méthodes de positionnement modernes

A l'heure actuelle, on a tout à fait abandonné les méthodes de géodésie spatiale géométrique. Les méthodes essentiellement utilisées dérivent plus ou moins de la géodésie dynamique et se distinguent surtout par le choix que l'on fait des paramètres inconnus ou à déterminer. En dehors des grands programmes globaux destinés à construire un système géodésique, on utilise très souvent les méthodes dynamiques pour déterminer la position de stations en supposant connu le champ de gravité terrestre et souvent — comme dans les systèmes de navigation par satellite — les éléments orbitaux, ces derniers étant transmis à l'utilisateur par le satellite lui-même.

Citons encore une application qui a une grande importance pour l'étude de la Terre. On suppose connues aussi les positions des stations et on ne recherche que leur déplacement global. C'est ainsi que la géodésie spatiale permet de déterminer les paramètres caractérisant la rotation de la Terre : la position du pôle et les irrégularités du mouvement de rotation. La radio-interférométrie à longue base est aussi une méthode très efficace pour ce type de mesure puisqu'elle permet de suivre le mouvement dans l'espace d'un segment de plusieurs milliers de kilomètres entraîné par le rotation de la Terre.

405


J. Kovalevsky

Géodésie terrestre

Bien que cet exposé soit essentiellement axé sur les méthodes spatiales qui ont supplanté des techniques terrestres pour tous les travaux à grande échelle, il serait tout à fait incomplet si nous passions sous silence les progrès accomplis en parallèle par les méthodes de géodésie terrestre.

En fait, la lourdeur des techniques spatiales les destine aux travaux nécessitant peu d'instruments séparés par des grandes distances. Pour tous les travaux de géodésie de détail, qu'il s'agisse de triangulation, de gravimétrie et de nivellement, les méthodes classiques restent les seules utilisées, sinon même les seules possibles. C'est le cas des réseaux géodésiques à l'intérieur d'un pays. Ainsi, pour la France, le réseau géodésique comprend près de 65 000 points. La maintenance et l'amélioration de ce réseau restent le domaine des méthodes terrestres. Seuls quelques dizaines de ces points ont été observés par les méthodes spatiales radio-électriques et un seul possède un laser de télémétrie.

Le progrès principal réalisé depuis trente ans a été l'introduction des mesures de distances à l'aide d'ondes radio ou de la lumière. Le « telluromètre » utilise un émetteur à très haute fréquence (3 GHz ou plus) de façon à obtenir un faisceau très directif et, dès la réception d'un signal, un répondeur en envoie un autre, ce qui permet, après calibration des appareils, de mesurer le temps de trajet aller et retour, donc la distance entre l'émetteur et le répondeur. Le « géodirhètre » consiste essentiellement en une source lumineuse modulée, le répondeur étant un rétro-réflecteur. Plus récemment, enfin, on a introduit en géodésie terrestre des lasers à la place de la source lumineuse modulée. Des précisions de l'ordre de quelques centimètres peuvent ainsi être obtenues sur des distances de plusieurs dizaines de kilomètres. La limitation principale de ces mesures réside dans la difficulté de corriger avec précision l'effet de la réfraction.

Lasers, localisation radibélectrique, etc. : les instruments de la géodésie spatiale

Les divers aspects méthodologiques de la géodésie spatiale que nous venons de présenter rie sont pas liés à tel ou tel type d'instrument, sauf peut-être dans le cas de l'altimétrie qui utilise obligatoirement la surface des océans soit comme repère, soit comme surface à étudier. En fait, il y a maintenant de très nombreux types d'instruments permettant de travailler en géodésie spatiale.

Nous avons déjà cité la photographie des satellites sur fond d'étoiles. Cette technique, ne permettant guère des précisions meilleures que 10 m sur la position du satellite, est désormais abandonnée. Les télémètres laser, en revanche, se sont considérablement améliorés depuis vingt ans et les mesures de distances sur des satellites munis de réflecteurs, qui se faisaient au début à 2 ou 5 m près, ont maintenant des précisions comprises entre 2 et 5 cm. Il y a dans le monde une dizaine d'instruments de cette qualité dont un en France, au Centre d'études et de recherches géodynamiques et astronomiques, près de Grasse. Une trentaine d'autres, de précision comprise entre 20 cm et 1 m, sont toujours en fonctionnement. Deux satellites, Starlette, lancé par la France en 1975 (fig. 5), et Lageos, lancé en 1976 par les États-Unis, sont les cibles idéales car ce sont des sphères très denses recouvertes sur toute leur surface de petits cubes de verre rétro-réfléchissants.

406


La figure de la Terre à l'ère spatiale

Fig. 5. — Starlette, satellite cible pour télémètre laser lancé par le CNES en 1975. Son altitude est d'environ 800 km. Sa forme sphérique et les réflecteurs disposés sur sa surface permettent de réfléchir le signal vers l'émetteur, quelle que soit son orientation. Sa très grande densité (il est fait avec de l'uranium) lui confère une longévité importante et permet de continuer à l'utiliser. (Document CNES.)

Quels que soient les mouvements de ces satellites, ils présentent toujours la même surface réfléchissante vers le télémètre.

Cependant, un télémètre laser est un instrument très cher dont on peut évaluer le coût à plus de 15 millions de francs. Ce ne peut donc être qu'un instrument utilisé pour des tâches spécifiques exigeant une très grande précision. Pour les besoins courants de la géodésie, notamment pour la construction de réseaux géodésiques denses ne nécessitant pas toujours la précision permise par les télémètres laser, on utilise des moyens d'observation radio-électriques beaucoup moins onéreux et qui ont, de plus, l'avantage d'être utilisables par tous les temps.

Le principe de ces instruments est le suivant : un satellite émet de façon continue des ondes radio-électriques de longueur d'onde fixe. Soit un récepteur situé sur la Terre qui enregistre cette émission. S'il est fixe par rapport à l'émetteur, ce qu'il va effectivement recevoir aura cette même longueur d'onde. Si la distance entre lui et l'émetteur diminue, il recevra en une seconde plus d'ondes : celles qu'il aurait reçues étant immobile plus celles qui remplissent l'espace parcouru par le récepteur et l'émetteur. Il aura ainsi mesuré une fréquence plus grande. Inversement, si la distance augmente, la fréquence diminue. C'est l'effet Doppler-Fizeau bien connu, qui est ainsi utilisé pour déterminer à chaque instant la vitesse radiale relative du satellite et de l'instrument au sol. Or la vitesse du satellite, tout comme sa position, dépend des forces qu'il subit, c'est-à-dire encore du

407


J. Kovalevsky

champ de gravité terrestre. On conçoit donc que les équations qui interviennent dans la vitesse radiale mettent en jeu les mêmes paramètres que ceux qui ont été décrits ci-dessus, et que ces mesures peuvent être, tout comme les observations laser, traitées par les méthodes de géodésie dynamique.

Ce système a été mis en oeuvre pour la première fois en 1962. Les premières expériences spatiales françaises, le satellite Diapason (D1A), puis les deux satellites Diadème (D1C et D1D) (fig. 6), étaient des satellites géodésiques utilisant cette technique, les deux derniers possédant en outre des réflecteurs laser. Aujourd'hui encore, le réseau américain de navigation et de positionnement Transit fonctionne sur ce principe. Il utilise en parallèle deux fréquences distinctes, ce qui permet d'éliminer l'essentiel des perturbations produites par l'atmosphère et l'ionosphère. Quelques séances d'observation permettent des localisations avec la précision de 50 cm à 1 m par rapport au système de stations de base du réseau.

Un nouveau système de positionnement et de navigation radio-électrique, beaucoup plus puissant et plus performant, est actuellement mis en place par les États-Unis : le « Global positioning System », qui comprendra une vingtaine de satellites circulant à 20000 km d'altitude. Une horloge atomique à bord et des fréquences d'émission plus élevées font partie des caractéristiques qui donneront à ce système une précision plus grande. Par ailleurs, ce sont des impulsions et non seulement des ondes qui sont émises, et cela contribue aussi à donner à ce nouveau système des possibilités beaucoup plus grandes que celles du système Transit et permet notamment des mesures relatives de position entre deux stations utilisant le principe de l'interférométrie.

La France n'est pas absente de cette course à l'amélioration des systèmes de localisation radio-électriques. Le système Doris, mis au point par le CNES, va permettre, grâce en particulier à l'utilisation de fréquences très élevées, d'atteindre des précisions très supérieures au système Transit, tant pour la localisation que pour la trajectographie. C'est en particulier indispensable pour les futurs projets de satellites océanographiques, satellites dont l'un des buts est d'étudier les variations de hauteur de la surface des océans à la suite des vents, des différences de salinité, etc.

D'autres pays ont également des projets nouveaux. Citons le système allemand Prare qui va permettre de mesurer des distances à 10 cm près par des méthodes radio-électriques.

Le géoïde aujourd'hui

Plus de vingt-cinq années de géodésie spatiale ont permis d'obtenir une quantité énorme de données d'observation et de résultats qu'il n'est guère possible de résumer en quelques paragraphes. Au fur et à mesure des progrès instrumentaux et de l'amélioration des moyens de calcul, les résultats obtenus se sont affinés et les précisions améliorées. Où en sommes-nous maintenant ?

La construction d'un système géodésique est actuellement une entreprise considérable qui nécessite le traitement sur ordinateur de plusieurs millions d'observations afin de déterminer près de mille cinq cents paramètres. Aux observations laser, radio-électriques et altimétriques, on ajoute aussi des observations au sol, notamment les mesures de gravité qui remplacent les mesures altimétriques inexistantes sur les continents.

408


La figure de la Terre à l'ère spatiale

Fig. 6. — Le satellite Diadème (D1D), lancé par le CNES en 1967, était un satellite géodésique muni d'un réflecteur laser et disposant d'un émetteur de radiolocalisation par effet DopplerFizeau selon le système Transit. (Document CNES.)

La forme du géoïde nécessite à elle seule plus de mille paramètres pour être décrite en détail. Nous sommes loin du seul coefficient d'aplatissement trouvé par les expéditions d'il y a deux cent cinquante ans !

La figure 7 montre ainsi la forme du géoïde telle qu'elle a été obtenue par un groupe de chercheurs français et allemands. Les lignes de niveau représentent des distances à un ellipsoïde aplati qui correspond à une figure moyenne de la Terre. Le rayon équatorial de cet ellipsoïde dépasse le rayon polaire de 21,4 km. Son aplatissement est de 1/298,25.

On voit donc qu'à 100 m près la Terre est bien ellipsoïdale, mais dans le détail il y a de nombreux creux et bosses. La précision avec laquelle on connaît cette forme est de quelques décimètres sur les océans, grâce aux observations altimétriques. Elle est de quelques mètres sur les continents au-dessus desquels il n'y a pas de technique de

409


J. Kovalevsky

Fig. 7. — Le géoïde GRIM 3. Cette carte représente les hauteurs du géoïde par rapport à une surface de référence simple, en l'occurrence un ellipsoïde de révolution représentant l'aplatissement de la Terre. L'espacement des lignes de niveau est de 5 m. Elle a été établie en coopération par le Groupe de recherches de géodésie spatiale (Toulouse) et l'Institut de géodésie de Munich, sous la responsabilité de G. Balmino et Ch. Reigber. (Rayon moyen = 6378,140 km; aplatissement = 1/298,257; GM = 398600,6 km 3. S 2, où G est la constante de la gravitation et M la masse de la Terre).

détermination du géoïde aussi précise. Ces précisions se rapportent à une hauteur moyennée sur environ 500 km qui représente le pouvoir séparateur actuel de la géodésie à l'échelle du globe. La position correspondante des stations de base est déterminée à environ 10 à 20 cm près.

Mais des précisions plus grandes sont obtenues lorsqu'on désire étudier localement la position relative de plusieurs stations ou encore lorsqu'une même base est observée systématiquement à l'aide de télémètres laser ou de radio-interféromètres. Dans ce cas, des précisions de 1 à 3cm sont possibles. Par ailleurs, un traitement complet de toutes les observations altimétriques dans une région maritime donnée permet d'affiner considérablement la connaissance locale du géoïde. La figure 8 en donne un exemple. L'ensemble des données altimétriques recueillies au-dessus de la Méditerranée occidentale a permis de tracer les courbes d'égale hauteur au-dessus de l'ellipsoïde de référence de 20 cm en 20 cm avec une précision de 10 cm. Ce type de détail a été obtenu sur de nombreuses autres mers ou parties d'océan. Plus localement encore, sur des distances de 20 à 50km, la précision peut atteindre 5 cm.

Telle est donc la précision actuellement atteinte par la géodésie spatiale moderne et telle est l'exactitude avec laquelle la figure de la Terre est maintenant connue dans son ensemble ou dans certains de ses détails. Il est intéressant de chiffrer le progrès que l'ère spatiale a ainsi apporté.

410


La figure de la Terre à l'ère spatiale

Fig. 8. — Détail du géoïde en mer Méditerranée. Cette carte donne, à partir des observations Seasat, la hauteur moyenne de la Méditerranée occidentale au-dessus d'un ellipsoïde de révolution. L'espacement des lignes de niveau est de 20 cm (d'après P. Exertier, CERGA, Grasse) et des détails de 10 cm sont significatifs.

En premier lieu, parlons de la forme du géoïde. Avant 1957, on ne pouvait faire mieux que de l'assimiler à un ellipsoïde de révolution. On lui donnait d'ailleurs un rayon trop grand de 250 m et on surestimait l'aplatissement de 0,4%. Deux ans après le premier Spoutnik, on trouvait la première déviation par rapport à cette surface idéale et on annonçait que la Terre avait une forme de poire. Ce qui était tout de même exagéré, mais signifiait que le rayon polaire sud était d'une quarantaine de mètres plus court que le rayon nord, soit moins de 1/200 000e. La meilleure boule de billard du monde a des irrégularités bien plus importantes ! Puis les autres grands accidents du géoïde par rapport à l'ellipsoïde ont été découverts et il faut maintenant plus de 1000 paramètres pour en décrire la forme telle qu'elle est actuellement connue.

Sur cette surface, il faut placer les continents; des erreurs allant jusqu'à 1 km ont été corrigées et on a gagné un facteur compris en 500 et 2000 dans la précision de leur positionnement.

A l'intérieur des continents, les réseaux géodésiques existants ont été précisés et améliorés par un facteur 10 à 100, comme ce fut le cas en Europe, aux États-Unis, au Japon ou en Australie. Dans de nouvelles régions, dépourvues de réseau géodésique,

411


J. Kovalevsky

comme en Afrique ou en Amérique du Sud, des réseaux précis ont été établis grâce aux observations radio-électriques des satellites du réseau Transit. Chaque année plusieurs nouvelles campagnes d'observation sont organisées un peu partout dans le monde.

Enfin, la géodésie marine, inexistante en-dehors de la zone de visibilité des côtes, a fait de tels progrès qu'on connaît maintenant bien mieux la forme de la Terre sur les océans que sur les continents.

Course à la précision et mouvements de la Terre

On peut se demander à quoi sert cette course à la précision. A quoi sert de connaître les distances entre des points éloignés de plusieurs milliers de kilomètres à 10cm près? Ou encore la forme détaillée de la figure de la Terre à quelques décimètres près a-t-elle une application pratique quelconque ?

Incontestablement, pour retrouver un forage en mer, pour guider un missile ou lancer un satellite, pour poser des oléoducs de plusieurs centaines de kilomètres ou pour cartographier de grands territoires inexploités, la précision d'il y a trente ans était insuffisante. Mais on peut dire avec autant de raisons que la précision actuelle est surabondante. Et pourtant on construit de nouveaux instruments de plus en plus performants, on lance ou on veut lancer de nouveaux satellites à but géodésique ou de positionnement, on consacre des moyens considérables à accumuler des mesures de plus en plus nombreuses et précises. Dans quel but ?

La raison est que la Terre n'est pas un astre mort et figé, mais qu'au contraire sa surface se déforme globalement ou en partie, que des blocs tectoniques se déplacent les uns par rapport aux autres, se forment ou s'enfoncent sous d'autres. Tous ces mouvements sont très faibles ou très lents, mais la précision ultime actuelle de la géodésie permet de les mettre en évidence et, par conséquent, apporte aux géophysiciens des informations chiffrées inestimables sur ces mouvements.

Donnons quelques exemples :

— Tectonique des plaques

On sait, depuis une vingtaine d'années, que la croûte terrestre est divisée en un certain nombre de plaques qui se déplacent les unes par rapport aux autres. Elles glissent les unes le long des autres suivant des failles, certaines se créent le long des dorsales qui les poussent, ou encore se heurtent ou passent les unes sous les autres, occasionnant alors la surrection lente des chaînes de montagne, le tout produisant des tremblements de terre plus ou moins dévastateurs. Les mouvements correspondants sont de l'ordre de plusieurs centimètres par an, ce qui est, comme on l'a vu, accessible aux mesures actuelles, d'autant plus que des mouvements plus amples se produisent parfois.

C'est ainsi que depuis une dizaine d'années les Américains surveillent les failles de Californie et notamment la faille de San Andréas responsable du grand tremblement de terre de San Francisco en 1906. Toutes les techniques de géodésie au sol (triangulations,

412


La figure de la Terre à l'ère spatiale

nivellement, interférométrie à longue base) et par satellites (télémétrie laser) sont systématiquement utilisées pour mesurer les positions respectives de balises situées de part et d'autre du système de failles. Des mouvements de quelques centimètres ont été enregistrés. Cependant, vu la complexité des structures de la croûte en cet endroit, l'interprétation des résultats reste incertaine et on est loin d'avoir découvert des méthodes permettant de prévoir au moins certains séismes dans cette région.

D'autre part, certaines distances intercontinentales, obtenues ces dernières années lors de campagnes d'observation laser du satellite Lageos, ont confirmé le mouvement de plaques l'une par rapport aux autres avec des vitesses de quelques centimètres par an. Les résultats obtenus sont cohérents avec la description de la tectonique des plaques telle qu'elle résulte des études géologiques et paléomagnétiques.

Une des régions du globe parmi les plus actives dans la formation des plaques est la région située à l'ouest de Djibouti où la dorsale séparant la plaque africaine de la plaque arabique est très active. Deux séries de mesures sur un réseau de points de part et d'autre de la dorsale, effectuées en 1973 et 1978 par des géodésiens français à l'aide uniquement de méthodes terrestres, ont mis en évidence des mouvements horizontaux et verticaux de l'ordre d'un mètre à l'occasion d'un paroxysme de l'activité de cette dorsale.

En fait, dans toutes les régions actives du point de vue tectonique et sismique, des mesures de déplacements relatifs apporteraient des éléments intéressants pour la compréhension des phénomènes, pour leur surveillance et peut-être plus tard pour la prévision des séismes.

— Déformations globales de la Terre

Récemment, en comparant les déterminations du champ de gravité de la Terre, on a pu constater des variations significatives. Il semblerait que l'aplatissement de la Terre serait en train de diminuer lentement. Ce phénomène global pourrait être lié à la surrection lente des boucliers Scandinave et canadien, conséquence de la disparition, il y a quelques millénaires, de grandes calottes glaciaires. D'autres phénomènes lents, comme les variations du niveau des mers sur les côtes, ou rapides comme les marées terrestres, sont également étudiés par diverses méthodes modernes de géodésie.

— Applications de la détermination du champ de gravité

La connaissance de plus en plus précise et détaillée du champ de pesanteur terrestre a aussi de nombreuses applications dans l'étude de la Terre. Ainsi, une carte de hauteur du géoïde comme celle qui est donnée en figure 7 montre que les accidents de cette carte ne correspondent jamais au relief terrestre, mais fréquemment au relief sous-marin. Il s'agit donc de comprendre pourquoi ces accidents existent; les raisons sont à rechercher dans les propriétés de l'intérieur de la Terre comme la présence de plaques en subduction sous d'autres, l'existence de cellules de convection dans le manteau et, en ce qui concerne les détails, la présence d'une île sur un fond marin profond, etc.

413


J. Kovalevsky

— Application à l'océanographie

L'identification de la surface des océans avec le géoïde est en fait une approximation. Les différences peuvent être de l'ordre de quelques décimètres. Une première preuve est que, par l'altimétrie, on a trouvé des variations temporelles de la surface des océans. Il y a les marées, certes, mais on en tient compte pour définir le niveau moyen des mers. Il y a surtout les marges des grands courants océaniques, les tourbillons, l'effet des vents, les différences de température et de salinité. Seules les méthodes de géodésie spatiale ont la sensibilité voulue pour mesurer ces phénomènes et fournir ainsi aux océanographes des informations essentielles. Des satellites en projet, s'ils se réalisent, permettront de déterminer le géoïde en mesurant directement des accélérations, indépendamment des méthodes altimétriques, ces dernières étant alors consacrées à l'étude du niveau des océans par rapport au géoïde et à ses variations. D'autres projets devraient aussi permettre de nouveaux progrès dans les systèmes de localisation.

La Terre au centimètre près

On doit souligner, en effet, que la géodésie spatiale n'a pas encore atteint ses limites. On peut estimer cette limite à une précision de mesure élémentaire de l'ordre du centimètre. A cette précision, les perturbations atmosphériques ne sont plus corrigeables, tant il y a de facteurs aléatoires non mesurables qui entrent en jeu (turbulences atmosphériques, vents, non-horizontalité des couches d'égale densité, etc.). Mais cet ordre de grandeur n'est pas encore atteint et des progrès importants sont à prévoir dans les cinq à dix années qui viennent. Pour faire mieux, il faudra utiliser des systèmes totalement indépendants des observations depuis le sol tels que les accéléromètres embarqués (projet de gradiométrie) ou encore la mesure de la vitesse relative de deux satellites.

En conclusion, la géodésie n'est plus la science qui étudie une Terre statique. Maintenant elle analyse tous les mouvements lents ou rapides que subit sa surface solide ou liquide. Elle est devenue un précieux auxiliaire de la géophysique et de l'océanographie, et ces sciences ne peuvent plus se passer des nombreuses et très précises données d'observation qu'elle permet de recueillir et que, dans l'avenir, elle fournira avec une précision encore accrue.

BIBLIOGRAPHIE

Levallois J.-J., 1969-1970, Géodésie générale, t. 1, 2 et 3, Collection scientifique de l'IGN, éd. Eyrolles.

Levallois J.-J., Kovalevsky J., 1970, Géodésie générale, t. 4, Collection scientifique de l'IGN, éd. Eyrolles.

La Terre, les eaux, l'espace, 1983, Encyclopédie du Bureau des longitudes, Gauthier-Villars.

Poséidon, octobre 1983, éd. CNES.

Deux articles ont été publiés précédemment dans le cadre du Colloque sur « La Figure de la Terre » :

Lacombe H., 1986, La Vie des Siences, 3, 157.

Levallois J.-J., 1986, La Vie des Siences, 3, 261.

414


La figure de la Terre à l'ère spatiale

Annexes

Résumé des contributions au Colloque (aspects contemporains)

Effort spatial français pour la détermination de la figure de la Terre Jean-Claude Husson (Centre Spatial de Toulouse, 18, avenue E.-Belin, 31055 Toulouse Cedex)

Dès le début de l'ère spatiale, la France, fidèle à sa longue tradition dans ce domaine, entreprend un effort en géodésie spatiale. Après les premières expériences menées par l'Institut Géographique National sur les satellites ECHO, le programme des satellites Dl fournit aux équipes du CNES, de l'IGN, du Bureau des Longitudes et de l'Observatoire de Paris l'occasion d'utiliser les techniques Doppler et laser pour faire les premières jonctions géodésiques, développer les premières méthodes de géodésie semi-dynamiques et faire des positionnements du centre de masse.

Les lancements de PEOLE, de Starlette, le dépôt sur la Lune des réflecteurs laser, la coopération avec la NASA autour des satellites GEOS, SEASAT permettent à cet effort spatial de porter ses fruits dans de nombreux domaines :

— publication de modèles de potentiel;

— mouvement du pôle, définition du temps;

— marées terrestres et océaniques;

— topographie de la surface des océans.

Cet effort développé en coopération internationale permet de nombreuses applications en navigation, poursuite de fusées ou satellites, géodésie, gravimétrie, océanographie.

Avec la précision centimétrique permise par les techniques laser, altimétriques, interférométrique à la longue base, le champ est ouvert à l'étude dans des délais rapides d'une figure de la Terre déformable.

L'union Géodésique et Géographique Internationale et la figure de la Terre Paul Melchior (Observatoire Royal de Belgique, 3, avenue Circulaire, 1180 Bruxelles, Belgique)

La figure de la Terre reflète sa structure interne. On passera en revue les paramètres géophysiques qui la caractérisent et qui peuvent être modélisés, tout comme la figure de la Terre, par des développements en fonctions harmoniques : champ magnétique, point de Curie, flux de chaleur, hétérogénéités latérales de densité, vitesses des ondes sismiques.

* * *

Les constantes géodésiques fondamentales

Helmut Moritz (Technische Universitât Graz, Abteilung fur Physikalische Geodâsie, Steyrergasse 17, 8010 Graz, Autriche)

Le problème des constantes géodésiques fondamentales (dimensions de l'ellipsoïde terrestre, etc.) est traité du point de vue historique considérant en particulier les systèmes de référence adoptés par l'Association Internationale de Géodésie : l'ellipsoïde de Hayford et les systèmes géodésiques

415


J. Kovalevsky

de référence 1967 et 1980. Ceci donne l'occasion de suivre l'évolution de la méthodologie géodésique, qui a subi des changements profonds à cause des techniques spatiales contemporaines.

Positionnement par RILB de Atibaia et Nançay dans un système de référence terrestre

G. Petit (Institut Géographique National, 2, avenue Pasteur, 94160 Saint-Mandé), J. F. Lestrade (Bureau des Longitudes, 77, avenue Denfert-Rochereau, 75014 Paris), C. Boucher (Institut Géographique National, 2, avenue Pasteur, 94160 Saint-Mandé)

Les 29 juin et 4 juillet 1985, les radiotélescopes des stations DSS63 (Espagne), Atibaia (Brésil), Hartebeesthoek (Afrique du Sud), Nançay (France), et Onsala (Suède) participèrent à deux sessions de Radio-Interférométrie à Longue Base (RILB ou VLBI pour « Very Long Baseline Interferometry » en anglais) sur radiosources extra-galactiques.

L'utilisation de la technique de synthèse de bande et l'évaluation de la contribution de l'ionosphère au retard du signal grâce à l'enregistrement simultané des signaux de satellites TRANSIT doivent permettre de déterminer les positions relatives de Atibaia et Nançay avec la précision maximale permise par la bande de fréquence (1,67 GHz) et la bande passante du système utilisé (2 MHz).

Cette expérience constitue la première manifestation française (conception de l'expérience, mise en oeuvre des stations de Nançay et Atibaia, traitement des données) dans le domaine de la RILB géodésique.

* * *

Télémétrie laser : état actuel, prospective

Francis Pierron et les équipes « laser satellite et géodésie spatiale »

[Centre d'Etudes et de Recherches Géodynamiques et Astronomiques (CERGA),

avenue N.-Copernic, 06130 Grasse]

La télémétrie laser est une des méthodes les plus précises actuellement pour effectuer des mesures de distances sur un satellite artificiel de la Terre ou sur la Lune.

Le principe de base de cette méthode est la chronométrie de très haute précision du temps d'aller-retour d'une impulsion laser. Cette mesure permet alors d'effectuer une trajectographie très précise de l'objet en utilisant les données de nombreuses stations.

Ces données ainsi collectées donnent lieu à de très nombreuses recherches sur la rotation de la Terre, le mouvement du pôle, la dérive des plaques tectoniques, le potentiel de gravitation de la Terre, le système Terre-Lune...

L'évolution de cette technique liée à un ensemble de progrès technologiques récents (composants électroniques, lasers, calculateurs, ...) permet actuellement d'obtenir plusieurs milliers de mesures sur un passage de satellite (une demi-heure) avec une qualité tout à fait remarquable (écart-type de deux centimètres réduit encore de moitié en effectuant des points normaux).

Une telle précision permet aujourd'hui d'espérer effectuer des surveillances de mouvements de plaques tectoniques sur quelques années seulement.

Ne s'arrêtant pas à ce niveau de précision, des recherches sont déjà en cours aussi bien en France qu'à l'étranger afin de dessiner les stations de demain dont la précision et l'exactitude

416


La figure de la Terre à l'ère spatiale

pourraient s'approcher des quelques millimètres avec en plus une réelle mobilité et une exploitation beaucoup plus aisée.

* * *

Détermination d'un réseau géodésique mondial de stations de télémétrie laser à partir des données de la campagne Merit

D. Gambis (Observatoire de Paris, 61, avenue de l'Observatoire, 75014 Paris),

Y. Boudon et P. Exertier [Centre d'Études et de Recherches Géodynamiques et Astronomiques

(CERGA), avenue N.-Copernic, 06130 Grasse]

De manière récente, de nombreuses stations de télémétrie laser ont vu leur précision et leur fiabilité améliorées de façon considérable. Environ une douzaine de stations ont désormais une précision de quelques centimètres et les autres stations ont une précision de 1 ou 2 décimètres. Dans un système rapporté au centre des masses de la Terre, les coordonnées de ces stations peuvent être déterminées avec une très grande précision (les erreurs internes sont de quelques centimètres). Elles définissent une référence de base par rapport à laquelle peut se rapporter la figure détaillée de la Terre. Comme cette référence se déforme par suite de la tectonique des plaques, les variations de cette référence doivent être étudiées année par année.

« Nombre de Love » et figure de la Terre

Hilaire Legros et Martine Amalvict (Institut de Physique du Globe, 5, rue René-Descartes,

67084 Strasbourg Cedex)

Classiquement la figure de la Terre s'étudie à partir des équations d'équilibre hydrostatique d'un corps gravitant, soumis à une rotation axiale et/ou à une force de marée. Il paraît préférable d'appliquer les équations de la gravito-visco-élasticité à une Terre composée d'un noyau liquide et d'un manteau visco-élastique. En effet on peut y intégrer aussi bien les effets des forces volumiques que ceux des diverses conditions aux limites en surface ou à l'interface. En généralisant la théorie de Love, on peut écrire le déplacement et la perturbation du potentiel terrestre en surface à partir de « nombres » issus de la résolvante du système d'équations. La valeur de ces nombres, constante pour un modèle élastique, évolue au cours du temps pour une rhéologie visqueuse. Ainsi, la figure de la Terre, qui est la forme géométrique donnée par le déplacement en surface et qui est différente du géoïde donné par l'équipotentielle, peut évoluer au cours du temps. Elle peut se déduire aussi bien des effets instantanés que des effets retard, des sollicitations statiques globales que des phénomènes dynamiques dans les régions fluides.

Télémétrie laser-Lune, géodésie et géophysique

Christian Veillet [Centre d'Études et de Recherches Géodynamiques et Astronomiques (CERGA), avenue N.-Copernic, 06130 Grasse]

La télémétrie laser-Lune fournit des mesures de temps de trajet aller-retour d'une impulsion lumineuse entre une station terrestre et un réflecteur lunaire, mesures qui dépendent à la fois de la position de la Terre et de la Lune dans l'espace, de leur rotation et des déformations de leur

417


J. Kovalevsky

surface. Tous ces domaines sont donc un champ d'application de cette technique qui y apporte sa contribution de manière plus ou moins directe. Après une brève description des principes de la télémétrie laser-Lune, de ses possibilités actuelles et de ses développements futurs à la fois au CERGA et de par le monde, la contribution de cette technique à la géophysique est présentée. Elle se fait principalement par le biais de la géodésie et de la rotation de la Terre. Avec plusieurs stations bien réparties en longitude (Texas, Hawaii, Australie, France) opérant avec une précision de quelques centimètres, on peut attendre des déterminations des coordonnées du pôle avec une erreur inférieure à 4 cm, et de UT1 à mieux que le dixième de milliseconde. Les lignes de base entre stations devraient être connues au niveau de un ou deux centimètres, et leur évolution dans le temps suivie avec une grande précision contribue ainsi à la tectonique des plaques. Un tel réseau de stations devrait être achevé puisque trois d'entre elles sont déjà équipées de lasers centimétriques, la dernière (celle du CERGA) devant l'être dans le courant de l'année 1986. D'autres aspects sont enfin évoqués, nutation qui donne des contraintes aux modèles de processus à l'intérieur de la Terre, dissipation dans le système Terre-Lune...

Évolution des modèles de Terre : nouvelle méthode de détermination à partir de mesures spatiales

Richard Biancale et Érick Lansard (CNES/GRGS, 18, avenue E.-Belin, 31055 Toulouse Cedex)

Les énormes progrès réalisés dans les trente dernières années sur la connaissance de la forme de la Terre et son champ d'attraction gravitationnelle sont dus essentiellement au développement spatial de la géodésie grâce à la mise en orbite de satellites artificiels. Les caractères synoptique et instantané des missions actuelles de géodésie spatiale contrastent avec les longues et périlleuses expériences sur le terrain du xvnc siècle : une seule journée de mesures satellitaires suffirait aujourd'hui à déterminer l'aplatissement terrestre, mais les perspectives sont de nos jours beaucoup plus ambitieuses.

La figure du géoïde définissant une équipotentielle de la surface terrestre se modélise maintenant globalement à des longueurs d'onde de moins de 800 km et à une précision de l'ordre du mètre.

Sur cette figure statique représentative de la distribution des masses, apparaissent dans les mesures altimétriques au-dessus des océans les variations de la surface des mers dues aux marées, aux courants, aux tourbillons... Cependant, les mouvements des plaques tectoniques qui engendrent les tremblements de terre ou les variations de niveau des mers liées aux phénomènes climatiques sont de trop faible amplitude (quelques cm/an) pour être détectés par les mesures spatiales actuelles. C'est pourtant à ce niveau de précision que sont maintenant développées des méthodologies qui devraient permettre d'atteindre sur les futures missions satellitaires des années 90 des restitutions de la figure de la Terre à mieux que le centimètre.

418


La figure de la Terre à l'ère spatiale

Les concepts fondamentaux

François Barlier [Centre d'Études et de Recherches Géodynamiques et Astronomiques (CERGA), avenue N.-Copernic, 06130 Grasse]

L'auteur introduit brièvement les principales surfaces de référence utilisées en géodésie et dont il sera question dans la suite des exposés.

Positionnement à la surface de la Terre solide

Claude Boucher (Institut Géographique National, 2, avenue Pasteur, 94160 Saint-Mandé)

La géodésie permet la détermination de coordonnées de points fixes à la surface de la Terre solide émergée ou immergée, dans une gamme d'exactitude allant de quelques mètres à quelques centimètres.

De nombreuses techniques procurent les données nécessaires à cette tâche. Méthodes terrestres de triangulation, stadimétrie, nivellement, arpentage inertiel...; méthodes spatiales de télémétrie laser sur satellite ou la Lune, VLBI, mesures radioélectriques de distance ou variation de distance, altimétrie radar...

Les conditions techniques, logistiques et économiques font se répartir ces méthodes entre plusieurs objectifs complémentaires, à savoir :

— détermination et maintenance temporelle d'un système de référence terrestre global à la précision centimétrique;

— positionnement différentiel à moyenne échelle (quelques centaines de kilomètres) à la même précision;

— positionnement différentiel à petite échelle (quelques dizaines de kilomètres) à quelques millimètres.

La diversité des moyens allant de grands instruments d'observatoire à des balises automatiques et légères permet d'assurer cette couverture spatiale. La couverture temporelle permet déjà de déterminer des déplacements avec un échantillonnage centimétrique quotidien dans certains cas. Ces mesures sont donc d'ores et déjà exploitables en géodynamique.

Champ de pesanteur terrestre et géoïde

Georges Balmino (CNES/GRGS-BGI, 18, avenue E.-Belin, 31055 Toulouse Cedex)

Le champ de gravitation de la Terre, ses variations, et donc la forme de l'équipotentielle privilégiée qu'est le géoïde, sont essentiellement déterminés à notre époque par des moyens spatiaux. Certes les mesures gravimétriques faites à la surface jouent un rôle non négligeable, surtout sur les terres émergées, par l'information à haute résolution qu'elles apportent, mais l'essentiel de notre connaissance dans la gamme de longueurs d'onde allant de 20000 à 1000 km provient de l'analyse des perturbations subies par les trajectoires de satellites artificiels, dues en particulier aux variations de champ. De plus, deux générations d'altimètres radar embarqués sur satellite ont permis, sur les océans, d'obtenir directement et avec grande précision les anomalies à haute fréquence du géopotentiel à travers les variations de forme de la surface moyenne de la mer.

419


J. Kovalevsky

Les modèles globaux de potentiel gravitationnel sont généralement exprimés sous la forme d'une série d'harmoniques sphériques dont les coefficients sont calculés, à partir des observations à la fois spatiales et terrestres, jusqu'à un degré et ordre maximal, présentement (36,36) ce qui correspond à la connaissance (approchée) de 1 369 paramètres et une résolution moyenne de 500 km à la surface du globe.

Ces techniques modernes s'essouflent néanmoins, ne serait-ce qu'à cause de l'atmosphère terrestre qui impose une altitude minimale aux satellites géodésiques, également du fait de la mauvaise couverture gravimétrique sur les continents. De nouvelles méthodes, directes par opposition à l'inversion laborieuse des perturbations orbitales, sont en ce moment étudiées, principalement la poursuite de satellite par satellite et la gradiométrie spatiale qui devraient, dans la prochaine décennie, conduire à une connaissance globale du champ de gravité avec une résolution de 100 à 200 km et une précision de quelques milligals.

Surface topographique des océans

Jean-François Minster (Institut de Physique du Globe de Paris et CNES/GRGS, 18, avenue E.-Belin, 31055 Toulouse Cedex)

Les données des satellites altimétriques fournissent la topographie de la surface des océans. On en tire une image synoptique globale des courants marins et leur variabilité pour toutes les échelles d'espace dépassant la dizaine de kilomètres, et pour les échelles de temps allant de la semaine à plusieurs années. A partir des données existantes obtenues par le satellite américain SE AS AT, des résultats inaccessibles autrement ont pu être obtenus : ce sont par exemple la carte mondiale de variabilité des tourbillons, les variations d'intensité du courant antarctique ainsi que l'observation globale de l'onde de marée M2. Les projets futurs comme ERS1 (projet européen, déjà décidé) ou TOPEX/POSEIDON (projet en collaboration entre le CNES et la NASA) permettent d'envisager pour la première fois une étude globale de la dynamique des courants océaniques.

Variations temporelles et spatiales du géoïde terrestre

Anny Cazenave (CNES/GRGS, 18, avenue E.-Belin, 31055 Toulouse Cedex)

Les variations spatiales du géoïde terrestre peuvent à présent être interprétées de manière assez satisfaisante dans le cadre d'un modèle dynamique de la Terre solide.

Les irrégularités à courtes longueurs d'onde du géoïde apparaissent fortement corrélées aux structures topographiqûes de la tectonique des plaques. Leur analyse nous renseigne spécifiquement sur la structure de la lithosphère et permet notamment de déterminer la rigidité des plaques ainsi que leur évolution thermique.

Aux longueurs d'onde moyennes (2 000-3 000 km) un lien semble à présent pouvoir être établi entre les ondulations du géoïde et la convection dans le manteau supérieur. Enfin, les plus grandes ondulations du géoïde apparaissent géographiquement corrélées à la position passée des continents, et semblent avoir été engendrées il y a 100 à 200 millions d'années par des phénomènes convectifs affectant le manteau inférieur.

Certaines variations temporelles du champ de gravité sont à présent mises en évidence. En dehors des variations du champ de gravité dues au phénomène de marées, une composante séculaire de l'aplatissement dynamique de la Terre (J2) a été mise en évidence par analyse de longues séries d'observations sur le satellite LAGEOS. Cette variation est interprétée en termes de variation du moment principal d'inertie polaire de la Terre causée par le soulèvement de l'Amérique du Nord et de l'Europe après la dernière glaciation. Ce résultat apporte des contraintes importantes sur la viscosité du manteau terrestre.

420




La Vie des Sciences, Série générale des Comptes rendus, est diffusée dans le monde entier par : C.D.R., Centrale des Revues, 11, rue Gossin, 92543 Montrouge Cedex, France. Tarif d'abonnement — un an — Tome 3 :

France 320 F (TTC)

Étranger 360 FF

Numéro séparé 50 FF

En 1986, le service de La Vie des Sciences, Série générale, est assuré gracieusement à tous les abonnés des Comptes rendus.

« Toute représentation ou^reproduction, intégrale ou partielle, faite sans le consentement de l'auteur, ou de ses ayants-droits ou ayants-cause, est illicite (loi du 11 mars 1957, alinéa 1 de l'article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. La loi du 11 mars 1957 n'autorise, aux termes des alinéas 2 et 3 de l'article 41, que les copies ou reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective d'une part et, d'autre part, que les analyses et les courtes citations dans un but d'exemple et d'utilisation. »

© Académie des Sciences, Paris, 1986


COMPTES RENDUS

DE L'ACADÉMIE DES SCIENCES

LA VIE DES SCIENCES

Tome 3 série générale, n° 4, Juillet-Août 1986 SOMMAIRE

Actualité scientifique -— —

Structures magnétiques et convection dans le Soleil (Présentation de Notes aux Comptes rendus), Elizabeth Ribes. 305

Les profondeurs de la Terre : en guise de préface, Jean Coulomb 327

L'intérieur de la Terre d'après la sismologie, Georges Jobert 329

La convection thermique dans les profondeurs de la Terre, Henri-Claude Nataf, Claude Jaupart 347

Politique scientifique

Quelques interventions récentes de l'Académie des Sciences concernant le système éducatif 363

Sciences, Culture et Société

La naissance de la théorie des capacités : réflexion sur une expérience personnelle, Gustave Choquet 385 -

La figure de la Terre à l'ère spatiale, Jean Kovalevsky 399

Les Comptes Rendus de l'Académie des Sciences sont une publication imprimée et diffusée par GAUTHIER-VILLARS. Société anonyme, constituée pour 99 ans, au capital de 3 089 600 F.

Siège social : 17. rue Rêmy-Dumoncel. Paris. P.D.G. : J.-M. BOURGOIS. Actionnaire : BORDAS S.A. (99.8 "„ des parts).

Directeurs de la publication et responsables de la rédaction : MM. les Secrétaires Perpétuels de l'Académie des Sciences. P. GERMAIN et R. COURRIER.

6804-86 Dépôt légal 1986 : Imprimeur 2893 CPPP 66025 Imprimé en France