Reminder of your request:


Downloading format: : Text

View 1 to 632 on 632

Number of pages: 632

Full notice

Title : La Vie des sciences

Author : Académie des sciences (France). Auteur du texte

Publisher : Gauthier-Villars (Paris)

Publisher : Diffusion centrale des revues (Montrouge)

Publication date : 1989

Type : text

Type : printed serial

Language : french

Language : French

Format : Nombre total de vues : 6638

Description : 1989

Description : 1989 (T6).

Rights : public domain

Identifier : ark:/12148/bpt6k56680047

Source : Bibliothèque nationale de France, département Collections numérisées, 2008-99652

Relationship : http://catalogue.bnf.fr/ark:/12148/cb343924404

Provenance : Bibliothèque nationale de France

Date of online availability : 19/01/2011

The text displayed may contain some errors. The text of this document has been generated automatically by an optical character recognition (OCR) program. The estimated recognition rate for this document is 100%.
For more information on OCR




LA VIE DES SCIENCES



LA VIE DES SCIENCES

Quelques points d'histoire relatifs à la Physique du Solide

Michel HULIN

Professeur à l'Université Pierre-et-Marie-Curie

Directeur du Palais de la Découverte, Michel Hulin, récemment disparu, vivait sa mission de communication de la science et de l'esprit scientifique avec enthousiasme. Le texte ci-dessous, inédit et que La Vie des Sciences publie en hommage à son auteur, en illustre la pédagogie et la rigueur dans l'exposé, mais aussi — et peut-être surtout — le sens de la démarche scientifique dans tout ce qu'elle a d'humain. Texte d'histoire des sciences, certes, mais aussi d'actualité qui aide à replacer dans son contexte la découverte des « nouveaux » supraconducteurs (le lecteur pourra consulter l'article de Pierre Aigrain, à paraître dans un prochain numéro de la Vie des Sciences), cet article fait revivre pour nous une grande épopée de la découverte scientifique.

Introduction

L'étude par les physiciens des matériaux solides, en particulier cristallins, a une histoire très longue et très riche. Elle a commencé, faut-il le dire, bien avant que n'apparaisse le terme moderne de « Physique du Solide ». Dès ses débuts, cette étude se caractérisait par un couplage très étroit avec les applications : métallurgiques, mécaniques, électriques, magnétiques, etc.

Cela dit, l'essor véritable de la Physique du Solide est récent, et a été commandé par l'avènement de la Mécanique quantique. C'est celle-ci qui a apporté les références conceptuelles et les outils d'analyse mathématique nécessaires, afin que se résolvent divers dilemmes qui défiaient depuis des décennies l'ingéniosité des physiciens. Les obstacles une

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 1, p. 1-21


M. Hulin

fois surmontés, un développement prodigieusement rapide a pu démarrer; de nouveaux problèmes ont surgi en quelques années; tout aussi vite, des applications industrielles en ont dérivé, dont certaines marquent notre époque de la manière la plus profonde, faisant de la Physique du Solide une discipline particulièrement riche et importante.

Mais cette dépendance même vis-à-vis de la Mécanique quantique retarde l'apparition de la Physique du Solide dans l'enseignement, et elle reste ignorée, le plus souvent, de la vulgarisation. Ainsi perçoit-on mal la grande importance qu'elle a eue dans le développement de la Physique, depuis le début du XIXe siècle, et tout particulièrement dans la genèse des idées quantiques.

Sur deux exemples, nous tenterons dans cet article d'illustrer ce rôle : ils concernent, d'une part, la chaleur spécifique des solides, et d'autre part la théorie de la conduction thermique et électrique des métaux.

Toutefois, avant de les aborder, il est sans doute bon de rappeler quelques données structurales de base relatives aux solides cristallisés — auxquels il sera sous-entendu, désormais, que nous limitons notre examen. Ce sera aussi l'occasion d'introduire quelques termes fondamentaux.

Les corps cristallisés sont caractérisés à l'échelle atomique par une symétrie de translation : le matériau se reproduit, identique à lui-même, quand on le soumet à une translation d'un paramètre cristallin, de l'ordre de quelques angströms (donc quelques unités atomiques).

Normalement, cette périodicité spatiale caractéristique des cristaux ne se maintient que sur des distances de l'ordre de 103 —105 paramètres cristallins, dans des « grains », ou « cristallites ». C'est en effet sous cette forme polycristalline que l'on rencontre la plupart des matériaux solides, en particulier les métaux utilisés à des fins techniques. Pour les besoins des expériences de laboratoire ou d'applications raffinées (par exemple celles de l'électronique), des méthodes de préparation plus évoluées permettent de travailler sur des monocristaux, dont la taille atteint plusieurs centimètres ou décimètres, et rejoint donc celles de certains magnifiques cristaux naturels qui ornent les collections de minéralogie.

Signalons que la matière solide peut également se rencontrer sous forme amorphe, dépourvue de périodicité spatiale, dans les verres en particulier. Ces matériaux amorphes sont très étudiés depuis une vingtaine d'années, en particulier en vue d'applications « solaires ». Nous n'en dirons pas plus ici.

Les cristaux font intervenir, au niveau microscopique, deux types de constituants :

— les électrons externes, « de valence » (au sens des chimistes), susceptibles d'être arrachés relativement facilement aux atomes qui les ont apportés dans le cristal. Dans les conducteurs, certains de ces électrons — les « électrons de conduction » — sont libres de se mouvoir dans le solide;

— le « reste » de ces atomes, qu'on appellera « ions », « coeurs atomiques », voire (par abus de langage) « noyaux », ces coeurs concentrent l'essentiel de la masse dans le cristal et leur ensemble constitue le réseau cristallin.

La Physique du Solide s'organisera autour de cette distinction et se consacrera, au moins dans une première approche, à l'étude :

— des propriétés réticulaires (c'est-à-dire du réseau);

— des propriétés électroniques;


Une histoire de la Physique du Solide

— du couplage entre réseau et électrons.

Sa caractéristique sans doute la plus importante est la liaison qu'elle établit de manière systématique entre le niveau macroscopique — auquel se situent le plus souvent la mesure et les moyens d'action offerts à l'expérimentateur — et le niveau microscopique, qui est celui où intervient en général l'analyse théorique. Celle-ci, de ce fait, doit inclure de manière quasi-nécessaire des éléments quantiques. (Par opposition, la Physique atomique, par exemple, travaille au niveau atomique tant au plan expérimental qu'au plan théorique.)

Il en résulte une complexité certaine, mais aussi une grande richesse : non seulement les systèmes étudiés et leurs propriétés sont très intéressants au point de vue pratique, mais leur complication même impose une modélisation poussée et le recours systématique à des modèles et, plus généralement, à tous les outils d'analyse dont peut disposer le physicien (ainsi l'analyse dimensionnelle : Einstein lui-même a donné l'exemple). Certains d'ailleurs, parmi les plus grands, « ne s'y font pas » : ce fut le cas de Pauli, qui ne toucha à la Physique du Solide que du bout des lèvres, et avoua explicitement être mal à l'aise dans cette discipline; mais pas plus que, pour la plupart, nous n'avons le génie de Pauli, nous ne devons nous sentir tenus de partager ses réticences intellectuelles.

Survol historique d'ensemble

Si l'on considère la période « pré-moderne » (avant 1935), on peut dire que deux problèmes dominent le développement historique de la Physique du Solide : celui de la chaleur spécifique, et celui des conductivités électrique et thermique.

La chaleur spécifique

Par définition, la chaleur spécifique d'un matériau caractérise sa capacité à absorber de la chaleur lors d'une augmentation de température : si 8T est cette augmentation, c la chaleur spécifique, et S Q la chaleur reçue par le corps, on a ainsi

La chaleur spécifique (ramenée à volume constant), soit Cv, des solides fait l'objet d'une des toutes premières lois phénoménologiques de la Physique : la loi de Dulong et Petit, qui remonte à 1819. En termes modernes, cette loi énonce que, pour la plupart des corps, et à la température ambiante (borne inférieure des températures d'expérimentation possibles au début du XIXe siècle), la chaleur spécifique molaire est égale à trois fois la constante R des gaz parfaits :

On rappelle que le « gaz parfait » satisfait à la relation (loi de Boyle-Mariotte) : PV=nRT où P est la pression, V le volume, T la température absolue et n le nombre de moles. R est une constante, la « constante des gaz parfaits », qui vaut :


M. Hulin

c'est une grandeur caractéristique d'un comportement macroscopique, en l'occurrence au niveau de la mole, qui regroupe un nombre de molécules égal au nombre d'Avogadro NA = 6,02.1023. On lui associe une constante caractéristique du niveau « microscopique », et de l'atome ou de la molécule isolés : la « constante de Boltzmann »

(Naturellement, l'impact historique réel de la loi de Dulong et Petit, qui intervenait à une époque où la « théorie atomique » était très loin d'être admise, et où la notion même de mole n'était pas disponible, fut beaucoup plus d'ajouter une « régularité » à toutes celles que l'observation des réactions chimiques permettait alors d'accumuler pour paver la voie de la théorie atomique.)

Dès 1875 cependant, des expériences à — 50°C sur le diamant donnaient Cvc^3,18 J. K- 1 mol- 1 [au lieu de Cv~25 donné par (2)]. La course aux basses températures par liquéfaction des gaz « permanents » modifie progressivement la situation phénoménologique. Cailletet et Pictet obtiennent quelques gouttes d'oxygène et d'azote liquides en 1877; des quantités utilisables de ces liquides sont produites à partir de 1883 grâce à Olzweski; Dewar liquéfie l'hydrogène en 1896, et ceci permettra à Nernst et ses collaborateurs de travailler vers 20 K au début du siècle.

Les données accumulées alors à basse température montrent clairement que, pour tous les corps (et pas seulement pour l'exceptionnel diamant), la loi de Dulong et Petit n'est qu'une loi limite, asymptotique, valable aux « hautes températures ». Aux basses températures, Cv décroît — et le troisième principe enseignera que cette quantité doit tendre vers zéro avec la température T.

Sur le plan théorique, l'histoire de Cv est particulièrement fertile en rebondissements.

Les atomistes et thermodynamiciens (Maxwell au premier rang) rendent compte de (2) grâce au théorème d'équipartition, résultat fondamental de la mécanique statistique « classique » (c'est-à-dire non quantique) développée à partir de 1870. Ce théorème repose sur la notion de « degré de liberté » : on en associe un à chaque variable indépendante nécessaire à la description de l'état mécanique du système. Sont ainsi degrés de liberté les composantes de la vitesse d'une particule du système, ou ses trois coordonnées cartésiennes, ou des combinaisons linéaires indépendantes de ces quantités. Ceci étant posé, on peut montrer, dans le cadre de la mécanique statistique classique encore appelée « statistique de Maxwell-Boltzmann », que, quand un degré de liberté intervient par un terme proportionnel à son carré dans l'expression de l'énergie du système (1), il lui correspond une énergie moyenne (1/2) k T à la température T. Ainsi l'énergie thermique se répartit-elle également entre les différents degrés de liberté, d'où le nom de théorème « d'équipartition » donné à ce résultat.

Dans un gaz parfait monoatomique, l'énergie est purement cinétique car, par hypothèse, les molécules de ce gaz n'interagissent pas entre elles (en dehors de très courts chocs). L'énergie est donc somme de termes en (1/2)mv 2 = (1/2)m(v2x + Vy+v2) associés à chaque atome dont on désigne par m la masse, v la vitesse, vx, vy, vz les composantes de cette vitesse. A chacune de ces composantes correspond un degré de liberté intervenant par son carré dans l'expression de l'énergie du système, et donc une énergie moyenne (1/2) k T. Pour un atome, on compte trois degrés de liberté, correspondant aux trois composantes


Une histoire de la Physique du Solide

Vx, Vy, Vz. Pour une mole regroupant NA atomes, 3 NA degrés de liberté, et une énergie E=(3NA) (1/2)kT), soit finalement E = (3/2)RT.

La chaleur spécifique (à volume constant) Cv n'est autre que la dérivée de E par rapport à T, ce qui nous donne finalement, pour le gaz parfait

Passons au solide. On le modélisera par un ensemble d'atomes se déplaçant en bloc, comme des billes dures interagissant par des forces élastiques, par de petits ressorts; ce sont ces forces qui, ajoutant une composante « énergie potentielle » à l'énergie, font passer de Cv = 3R/2 pour le gaz parfait à Cv = 3R pour le solide. Ni les masses des atomes, ni les caractéristiques des forces élastiques n'apparaissent dans l'expression classique de Cv, si bien que la loi Dulong et Petit peut être effectivement valable pour tous les corps, du moment que l'on rapporte les mesures à un nombre fixé d'atomes, par exemple à la mole.

Cela dit, tant les exceptions existant à l'ambiante (telles le diamant) que celles qui s'accumulent quand on descend aux basses températures, montrent très vite que tout n'est pas dit et qu'il y a insuffisance de la statistique classique de Maxwell-Boltzmann. La Physique du Solide ajoute ici ses interrogations à celles d'autres chapitres de la Physique : la théorie du corps noir par exemple.

Une difficulté supplémentaire apparaît quand J. J. Thomson « invente » les électrons en 1896. Dans les métaux au moins, où il est alors clair que l'on a libération de certains des électrons par les atomes, pourquoi ne passe-t-on pas de Cv = 3 R à Cv = 3 R + (3/2) R Z, où Z serait le nombre d'électrons libérés par chaque atome, puisque chaque électron libre de se mouvoir intervient dans l'expression de l'énergie totale du système par son énergie cinétique, et ajoute — au moins — trois degrés de liberté : les trois composantes de sa vitesse ?

La chaleur spécifique des solides est ainsi devenue, vers 1900, un problème majeur de la Physique, qui va jouer un rôle de tout premier plan pendant une douzaine d'années. D'ailleurs Einstein consacra au moins quatre articles à ce problème entre 1907 et 1911, et quand il reçoit sa première consécration officielle, sous forme d'une invitation à participer au Congrès Solvay de 1911, c'est pour y présenter un rapport sur Cv. N'en déplaise aux passionnés de la Physique atomique, tout n'a pas commencé avec Rydberg, Balmer et Niels Bohr !

En quelques années, la situation va évoluer très profondément. Le « modèle d'Einstein » de 1907 a montré comment on pouvait s'écarter d'un Cv bloqué à sa valeur classique 3 R et assurer une décroissance aux basses températures; Born et von Karman, et surtout P. P. Debye en 1912, assurent un accord très satisfaisant entre les données expérimentales et les valeurs théoriques. Aussitôt, l'intérêt des physiciens cessera de se focaliser sur ce problème de la chaleur spécifique des solides, peut-être indûment d'ailleurs, car il reste des points à élucider; mais il est clair que l'essentiel est dit et que l'attention se porte ailleurs.


M. Hulin

Propriétés électriques et électrons

L'intérêt pour la conductivité électrique a et la conductivité thermique K des métaux — essentiellement dominées l'une et l'autre par les électrons de conduction — fut moins précoce que pour Cv. C'est dès 1853, néanmoins, que Wiedemann et Franz notèrent la quasi-identité, à l'ambiante, du rapport K/CT pour divers métaux. Lorentz précisait, en 1872, le comportement de ce rapport en proposant une relation qu'on transcrirait, en notations modernes, par

où k est la constante de Boltzmann, e la charge électronique élémentaire, T la température absolue, et L un « nombre de Lorentz », sans dimensions, et voisin de 3,3.

Un tel comportement d'ensemble de matériaux divers est suggestif de l'intervention d'entités sous-jacentes omniprésentes. La loi de Wiedemann-Franz constituera donc une incitation puissante à la mise en évidence de ces entités, dont nous savons maintenant qu'elles ne sont autres que les électrons. (Notons cependant que, pour certains savants, la mise en évidence de telles régularités put constituer en fait un obstacle épistémologique supplémentaire. Davy s'opposa ainsi à l'atomisme de Dalton parce que, sensible à la similitude d'aspect et de propriétés mécaniques et électriques de différents métaux, il ne pouvait admettre que des atomes différents, et caractéristiques de chacun de ces métaux, soient leurs constituants intimes. Pour lui, en d'autres termes, les électrons passaient avant les atomes, comme quoi « on a tort d'avoir raison trop tôt » !)

En 1879, Hall découvre l'effet ( 2) qui porte son nom, sur des métaux encore bien sûr, et pas sur des semi-conducteurs : on y perd trois bons ordres de grandeur, et découvrir l'effet Hall dans ces conditions est une prouesse expérimentale.

En 1896, on l'a vu plus haut, J. J. Thomson « invente » l'électron. Rapidement Drude, puis Lorentz (avec des raffinements théoriques au niveau du traitement des phénomènes de transport) proposent une théorie électronique des conductivités électrique et thermique, fondée sur un modèle d'électrons libres se mouvant à l'intérieur du réseau. Ils rendent compte ce faisant de la loi de Wiedemann-Franz (2) — avec L = 3, ce qui n'est pas si mal — mais ni de K, ni de CT séparément, que ce soit en dépendance en température ou en ordre de grandeur.

Subiste également, d'autre part, le problème de la chaleur spécifique électronique.

De plus, on trouve des effets Hall « positifs » — c'est-à-dire cohérents avec un transport par des particules chargées positivement, et non négativement, comme les électrons. Du coup, Nernst renonce aux dits électrons. (On pourrait ajouter à cela divers problèmes liés aux effets thermoélectriques.)

L'ensemble de ces difficultés, lui aussi, est perçu comme un problème central de la Physique, au même titre que l'interprétation du comportement en température de Cv : Bohr en discute largement dans la thèse de 1911 qui reprend la théorie de Lorentz en s'écartant de modèles trop spécifiques. Il s'agit d'une thèse essentiellement critique, montrant l'insuffisance de la théorie électronique du moment,... et l'importance de la Physique du Solide pour les physiciens les plus en vue du début du siècle (en même


Une histoire de la Physique du Solide

temps qu'elle propose une démonstration plus « propre » que celle de Lord Kelvin des relations régissant les effets thermoélectriques).

La quinzaine d'années qui suit va voir apparaître des tentatives théoriques sporadiques sans lendemain (Wien en 1913, Grüneisen en 1913-1914, etc.), en même temps qu'un nouveau problème : la découverte du spin électronique par Uhlenbeck et Goudsmit, en 1925, laisse prévoir un paramagnétisme important pour un éventuel gaz d'électrons libres et divergeant en 1/T à basse température, paramagnétisme qui n'est pas observé dans les métaux.

Tout ceci va se résoudre très rapidement : l'énoncé du principe d'exclusion en 1927 permet à Pauli de faire aussitôt la théorie du paramagnétisme du gaz d'électrons libres. Le « paramagnétisme de Pauli » est réduit par rapport aux attentes classiques dans un rapport

où la « température de Fermi », TF, que nous définirons à loisir plus loin, vaut 104 — 105 K. On aboutit à une susceptibilité indépendante de la température et 102 —103 fois moindre, à l'ambiante, que ne le laissait prévoir la théorie classique.

Sommerfeld prolonge ce traitement dès 1928 en remaniant la théorie de Lorentz pour y faire intervenir le principe d'exclusion par le biais d'une mécanique statistique quantique et adaptée au comportement des électrons, la statistique de Fermi-Dirac.

Très systématiquement, tout se passe comme si la fraction x [donnée par (4)] des électrons libres, seulement, était impliquée dans les effets physiques macroscopiquement appréciables, d'où une importante réduction des ordres de grandeur pour diverses quantités. C'est le cas, en particulier pour la chaleur spécifique qui — comme la susceptibilité de Pauli — est réduite d'un facteur 102 —103 par rapport aux attentes classiques, et qui, indépendamment de la température, devient linéaire en T. Ainsi s'explique, trente ans après, pourquoi, finalement, il fallait « faire l'impasse » sur la contribution électronique à Cv et ne prendre en compte, pour la comparaison avec l'expérience, que la contribution réticulaire. Ces modifications interviennent sans modifier le comportement du rapport K/CT, et donc sans remettre en cause le succès de la théorie de Drude-Lorentz au niveau de la loi de Wiedemann-Franz.

Reste qu'on ne comprend pas encore vraiment à l'époque l'origine des mécanismes qui fixent la valeur du libre parcours moyen A des électrons de conduction dans le solide, non plus que les ordres de grandeur et dépendances en température caractéristiques de cette quantité. L'effet Hall et ses changements de signe restent également mystérieux.

La solution n'interviendra qu'avec la mise en oeuvre, en Physique du Solide, de la Mécanique quantique « calculante ». Son introduction est assurée par Félix Bloch en 1928 : il apparaît que les états électroniques stationnaires s'accommodent de l'immersion des électrons dans un cristal parfait; la part « ondulatoire » du comportement électronique au niveau microscopique se marque ici par l'obligation de renoncer à l'image classique de « l'électron-petite bille » se cognant à tous les coeurs atomiques, avec, par suite, des libres parcours moyens peu différents du paramètre cristallin, fixés, donc, par la géométrie du cristal, et indépendants de la température. L'électron devient « un paquet d'ondes », qui, à un instant donné, s'étale sur des distances sensiblement supérieures au paramètre


M. Hulin

cristallin. Ce qui le diffuse — et limite son libre parcours moyen — ce ne sont pas les coeurs atomiques, mais l'écart à la parfaite cristallinité, qu'elle soit due à la présence d'impuretés, ou aux écarts à la périodicité spatiale qu'imposent l'agitation thermique et les mouvements des atomes autour de leurs positions d'équilibre. A change d'ordre de grandeur, et, à suffisamment haute température, devient proportionnel à T (d'où une résistivité p= 1/aocT comme il convient).

L'immersion de l'électron de conduction dans le cristal n'est cependant pas sans conséquences; elle se marque par une modification de sa dynamique : en rend compte la « théorie des bandes », qui, en introduisant en particulier la notion de « masse effective » remplaçant la masse de la particule libre dans les équations du mouvement, et pouvant devenir négative, donne à l'électron soumis à des forces électromagnétiques le comportement d'une particule chargée positivement (et dont la masse redeviendrait positive, comme c'est le cas « normalement »). Sur cette base, Peierls explique l'effet Hall positif en 1929.

A partir de cela, la Physique du Solide foisonne véritablement. Dans les métaux sont mis en évidence de multiples « effets quantiques » : résonance cyclotron, effet de Haas-van Alphen, effets Gantmacher, Azbel-Kaner, etc. La théorie du magnétisme, en particulier du ferromagnétisme et des autres structures magnétiques ordonnées, est lancée par Heisenberg. Les semiconducteurs, jusque-là confinés à quelques applications artisanales, renouvellent l'électronique et l'optoélectronique, etc.

Tout ceci, cependant, reste limité à une vision « monoparticulaire » : l'électron intervient ici comme une entité microscopique essentiellement libre qui, certes, interagit avec son environnement cristallin ou avec des champs extérieurs, mais ne semble pas particulièrement affectée par la présence d'autres électrons situés à quelques angströms ou fractions d'angströms de là. Ceci demande interprétation; il convient que soient précisées les limites de validité de cette description monoélectronique, et que soient

Fig. 1. — Comportement qualitatif de la chaleur spécifique à volume constant, Cv, avec la température T. A la température ordinaire, Cv(T) est constante : c'est la loi de Dulong et Petit, découverte au XIXe siècle, et qui s'interprète dans le cadre de la Mécanique statistique classique. En revanche, à très basse température, Cv est proportionnelle à T3 : il faudra attendre l'avènement de la Mécanique quantique pour comprendre ce phénomène. (*)


Une histoire de la Physique du Solide

indiqués les prolongements de la théorie au-delà de ces limites. C'est ce que permettra la théorie du « problème à N corps », à partir de 1950, lancée par L. D. Landau (Prix Nobel 1962), avec en particulier, grâce à Bardeen, Cooper et Schrieffer (Prix Nobel 1972), une explication de principe, qu'on attendait depuis 45 ans, de l'étonnant phénomène de supraconductivité, un phénomène fondamentalement quantique et, pourtant, parfaitement observable macroscopiquement (et en particulier au Palais de la Découverte !).

Interdisons-nous ici d'aborder les résultats accumulés pendant le dernier quart de siècle, et revenons plus en détail sur les deux problèmes fondamentaux : chaleur spécifique et conductivités.

La chaleur spécifique réticulaire

Données expérimentales

Telles qu'on en dispose actuellement sur une gamme de températures qui va de quelques millikelvins jusqu'aux températures de fusion, les données expérimentales sur. la dépendance en température des chaleurs spécifiques molaires des solides peuvent être résumées par un graphique qui a systématiquement l'allure représentée sur la figure 1 : le graphe de Cv(T) est une courbe en « S », avec asymptote à peu près horizontale à haute température (loi limite de Dulong et Petit), point d'inflexion, et une décroissance Cv -s- 0 pour T -» 0.

Le comportement est en CvocT 3 sur une plage de quelques dizaines de kelvins au voisinage du zéro absolu (à condition qu'on ait, auparavant, éliminé la chaleur spécifique d'origine électronique pour ne s'intéresser qu'à la contribution réticulaire).

La théorie d'Einstein

La théorie statistique classique, via le théorème d'équipartition, donne une chaleur spécifique Cv = 3 R, constante, indépendante de la température T.

Le premier point est d'installer, à toute force, une dépendance effective de Cv avec T, avec une limite nulle pour T -> 0.

Einstein y parvient (en 1907) en modélisant les vibrations réticulaires par un ensemble d'oscillateurs identiques, de pulsation wE, énergie hwE (h note la constante de Planck h divisée par 2JT : h = 1,054.10- 34 J.s-1).

On posera dans la suite hwE=kQE, où 0E est la « température d'Einstein ». wE (ou 0E), dans ce modèle, constitue la seule caractéristique du matériau considéré.

Einstein reprend d'autre part le raisonnement de Planck sur l'équilibre thermique d'un oscillateur (qui avait conduit à la loi du corps noir); en termes modernes, ceci revient à appliquer à l'assemblée d'oscillateurs la « statistique quantique de Bose-Einstein », mais la démarche d'Einstein, en 1907, est loin d'avoir atteint un caractère aussi systématique : l'on reste visiblement très précautionneux, et très dépendant des divers « ingrédients » de la théorie de Planck.


M. Hulin

Einstein aboutit ainsi à une relation du type :

où <I> (x) est la fonction :

qui tend vers 1 pour x tendant vers 0, et décroît exponentiellement pour x tendant vers l'infini.

Pour T»0E, on retrouve la loi asymptotique de Dulong et Petit.

Pour T«6E, on a Cv^3 R(0E/T)2e"E/T, et Cv tend vers 0 avec T.

Essentiellement, la statistique quantique de Bose-Einstein « corrige » le théorème d'équipartition. Ce ne sont plus les degrés de liberté eux-mêmes qui comptent; à l'ensemble du système on associe une série de « vibrations propres » de fréquences, ou pour être très strict, de « pulsations » caractéristiques ca, et à chacune d'elle un « quantum » d'énergie h a>; l'échange d'énergie entre le système et l'extérieur accompagnant une variation de température — échange caractérisé, comme on l'a vu, par la chaleur spécifique Cv — correspond à des variations du nombre de quanta associés à chaque fréquence caractéristique. Or le traitement quantique impose que h(ù soit au plus de l'ordre de k T pour qu'il y ait effectivement possibilité de variation du nombre de quanta d'énergie h® : si l'énergie microscopique d'agitation thermique, kT, est plus petite que le quantum h <x>, le système « ne répond plus » sur cette fréquence; le mouvement correspondant est inactif, « gelé ». Ceci revient à faire varier avec la température le nombre de degrés de liberté effectivement impliqués dans les échanges thermiques. C'est cette idée qui avait permis à Planck de rendre compte du rayonnement du corps noir : à basse température, les hautes fréquences (ultraviolet) ne comptent plus, et l'on évite la « catastrophe ultraviolette » imposée par le traitement classique. C'est cette même idée qui permet à Einstein, pour la première fois, de « décrocher » Cv de la valeur 3 R.

Mais il apparaît immédiatement que, pour le coup, la décroissance de Cv pour T -> 0 est trop brutale. Malgré le caractère incomplet des résultats expérimentaux de l'époque, il est clair :

— qu'on tient une prescription très intéressante permettant de s'écarter de la théorie classique;

— qu'on n'est pas encore parvenu, cependant, à un accord quantitatif avec l'expérience.

La théorie de Debye

Debye (en 1912) propose de remplacer les oscillateurs de fréquence imposée ooE du « solide d'Einstein » par un ensemble de vibrations de type acoustique, de fréquence s'étageant entre 0 et un maximum, noté eoD (fig. 2).


Une histoire de la Physique du Solide

Cette situation, pour ce qui nous intéresse ici, est résumée par la donnée de la « densité d'états de fréquence g (a) », qui définit le nombre dn d'états propres vibratoires dans l'intervalle de fréquence (co, (ù+da) :

On a, dans ce modèle g(oe)ocra 2 (pour Orgooga)D; cf. fig. 2). A la «fréquence de Debye» on associe la «température de Debye» 0D (avec hcaD=kD), qui devient maintenant la caractéristique unique du réseau étudié.

On obtient ainsi pour Cv l'expression un peu complexe :

à partir de laquelle il est facile de montrer que :

— à haute température, (7) redonne comme il convient la valeur limite 3 R;

— à basse température, on a Cvoc(T/0D) 3 pour T^0/10. Il y a toujours décroissance de Cv avec T vers une limite nulle pour T = 0, mais beaucoup plus modérée que dans le modèle d'Einstein, et, cette fois, en accord très satisfaisant avec l'expérience.

Cv est donné par une fonction universelle d'une température « réduite » T/0D; 0D tombe généralement dans la gamme de 100-400 K, avec une exception notable : le diamant (0D = 1 850 K). On comprend que ce matériau ait manifesté très tôt un fort écart à la loi

Fig. 2. — La théorie de Debye (1912). Le système est assimilé à un ensemble d'oscillateurs acoustiques de fréquences comprises entre 0 et coD, et de densité d'états g((ù). Le modèle de Debye, qui suppose g(a>) =gD(co)oc© 2 (en pointillé sur la figure) par analogie avec les photons du corps noir, donne la bonne dépendance de Cv en fonction de T. Malgré cela, il se trouve que cette hypothèse n'est en réalité qu'une approximation de la densité d'états expérimentale (en traits pleins), que l'on ne retrouve que par un raffinement supplémentaire, l'introduction de la statistique de Bose-Einstein.


M. Hulin

Dulong et Petit : alors que pour la plupart des corps, on est, à l'ambiante, à T/0 > 1 et CJ3R «0,8—0,9, on est encore loin de telles valeurs pour le diamant, avec seulement T/0D=i0,2 et Cv/3 R loin de la valeur limite 1.

L'ingrédient fondamental de la théorie de Debye est la densité d'états quadratique en fréquence: g(oû)oco) 2. Les mêmes caractéristiques sont obtenues pour les photons du corps noir (mais dans ce cas sans limitation du spectre à une valeur maximale raD de la fréquence) : c'est ce qui conduit à la loi de Stefan, une énergie interne EocT 4, et donc Cv = dE/dTo:T 3.

Le comportement en T à basse température de la chaleur spécifique des solides, quand la troncature du spectre à co, n'est pas sensible car les possibilités d'excitation thermique des vibrations atteignant de telles fréquences sont de toute manière très réduites, peut donc être corrélé très étroitement à un résultat bien connu des physiciens du début du siècle. Einstein, en particulier, était un familier du corps noir : comment se fait-il qu'il soit resté empêtré pendant quatre ou cinq ans avec ses oscillateurs à fréquence fixe, et ait ignoré le spectre de vibrations acoustiques, qui constituent pourtant des candidats naturels au rôle d'oscillateurs réticulaires ? Avançons — avec prudence — quelques suggestions en réponse à ces questions.

— Dans le modèle d'Einstein, une faible masse oscillante conduit à une fréquence d'Einstein très élevée, et, aux températures habituelles, à un rapport 0E/T très grand; la chaleur spécifique est alors très petite. Appliquant ces considérations aux électrons, Einstein peut ainsi évacuer le problème de la contribution électronique à la chaleur spécifique, dont on a vu ci-dessus qu'elle venait singulièrement compliquer la situation théorique relative à la chaleur spécifique des solides. Il en fait la remarque dès 1907, et il est permis de penser qu'il est resté jusqu'au bout très préoccupé de ne pas « faire l'impasse » sur la chaleur spécifique d'origine électronique (dont Debye ne souffle mot).

— Einstein semble très soucieux de ne pas brûler les étapes dans la généralisation du traitement du corps noir initié par Planck : il n'est pas impossible qu'il ait hésité à transposer ce traitement d'un système oscillant localisé (« oscillateur », « résonateur » : une masse accrochée à un ressort) à un état vibratoire aussi abstrait qu'une onde acoustique se propageant dans le solide.

— Les données expérimentales du moment atteignaient difficilement la température T=:0D/10 (Nernst et Lindemann, les spécialistes, travaillent au mieux à l'hydrogène, vers 20 K). L'élimination des chaleurs spécifiques électroniques n'était pas possible. Au total, il n'y avait pas de « dépendance expérimentale de Cv en T3 » à basse température, en 1910-1911 : l'analogie avec le corps noir ne pouvait donc pas servir de guide. Dailleurs, Debye note au passage cette analogie, mais n'insiste pas : pour valider sa théorie, il la compare à une « loi expérimentale de Nernst et Lindemann » qui, dans la gamme de températures où se situait l'essentiel de leurs résultats, proposaient de rendre compte de Cv(T) par la somme de deux fonctions d'Einstein (5), l'une avec une température caractéristique 0E, l'autre avec une température moitié 0E/2 (comme le disait Einstein, il s'agissait de comprendre pourquoi l'oscillateur passait la moitié de son temps à vibrer à la fréquence moitié !).

Ce qui a fait le succès de Debye, finalement, c'est une grande hardiesse théorique : accepter d'ignorer le problème — alors pas du tout mûr — de la chaleur spécifique électronique, et accepter d'utiliser la formule de Planck comme une prescription ad hoc,


Une histoire de la Physique du Solide

sans trop se soucier du type de système à quoi on pouvait l'appliquer. Il nous semble que ce type de rappel historique nourrit utilement la réflexion sur les conditions de la découverte scientifique.

Au-delà de Debye

Dès la publication de l'article de Debye, le problème de la chaleur spécifique réticulaire retombe : il est visiblement considéré comme résolu pour l'essentiel, et laissé aux tâcherons de la Physique.

Pourtant on peut songer à raffiner.

Le g (oo) de Debye est une approximation très grossière : la figure 2 compare cette densité d'états (pointillés) à ce qui peut se faire de plus simple comme densité d'états expérimentale (traits pleins); la différence est sensible !

En introduisant dans la théorie de Debye des densités expérimentales, on a pu rendre compte de manière très précise des comportements Cv(T) expérimentaux (Blackman, Kellermann); pour nous, il s'agit en fait d'une confirmation de la validité de la statistique de Bose-Einstein. Reste que le succès de la théorie de Debye est assez étonnant : on a le sentiment que cette modélisation très simple de la densité d'états représente une sorte d'optimum, sans que les raisons en soient vraiment claires.

Compte tenu de l'écart entre la densité d'états réelle et celle de Debye, la chaleur spécifique ne suit pas exactement la loi (7). Une manière usuelle de marquer cet écart consiste à définir une température de Debye 0D fonction de la température : la température de Debye qu'il faudrait insérer, à chaque température, pour rendre compte de la valeur de Cv observée à cette température. Si le modèle de Debye était rigoureux, 0D serait évidemment indépendant de T : l'amplitude des variations de 0D avec T marque donc l'écart par rapport au modèle de Debye. Très systématiquement 0D(T) a l'allure représentée sur la figure 3, avec un démarrage à tangente horizontale (zone A), un minimum plat (zone B), puis un comportement à asymptote horizontale (zone C); l'écart des 0D entre A et B est de l'ordre de quelques dizaines de kelvins (pour 0D de l'ordre de quelques centaines de kelvins). On voit immédiatement que Debye a eu de la chance : les résultats expérimentaux de son époque se situaient typiquement dans la zone B, où 0D est très stable. C'était une circonstance très favorable pour un modèle à 0D constant, mais on était loin de l'idée initiale fondant le modèle, savoir le recours à la densité d'états g(co)oca) 2 : cette idée ne convient que pour rendre compte de l'extrémum de 0D, à T=0, qui donne un 0D à peu près constant sur quelques kelvins seulement (et dans une zone inaccessible aux expérimentateurs de 1910). On voit que des circonstances favorables ne sont pas étrangères au succès de Debye : mais encore faut-il savoir saisir sa chance quand le hasard vous tend ainsi la perche !


M. Hulin

Les électrons de Drude à Sommerfeld

La théorie de Drude

Diverses manifestations (« l'éclat métallique », la conductivité électrique élevée) d'une certaine similitude, et des régularités quantitatives telles que la loi de Wiedemann-Franz, suggèrent l'existence d'entités microscopiques identiques dans tous les métaux.

En 1896, les électrons de J. J. Thomson deviennent des candidats naturels pour ce rôle. Drude en propose une théorie cinétique, simple, fondée sur l'hypothèse d'un temps « de relaxation » x, temps moyen entre les chocs subis par les électrons et qui leur font perdre toute mémoire de leur vitesse.

Une fois défini t, un raisonnement classique donne une conductivité électrique

où A = v T est le libre parcours moyen, entre deux chocs, d'électrons dont la masse est m, la charge e, la vitesse moyenne v, et la densité volumique n.

La théorie cinétique donne par ailleurs une conductivité thermique

Fig. 3. — Écart entre la « température de Debye » 6D (telle que 6D = [fi/fe]<aD) et la température réelle T rendant compte de la valeur expérimentale de Cv : la courbe serait horizontale si la loi de Debye était rigoureusement vérifiée. Ceci est en fait presque vrai autour de 20 K, température typique atteinte par les expériences des années 1910, ce qui explique le succès de cette loi.


Une histoire de la Physique du Solide

avec — via le théorème d'équipartition appliqué aux électrons considérés comme des particules libres — Cv = 3/2 nk. On en déduit

Ainsi

— les caractéristiques du matériau, n, A, disparaissent du rapport K/CT;

— le résultat est en (k2/e 2) T, donc du bon ordre de grandeur, et linéaire en T comme il convient [cf. (3)];

— en se trompant judicieusement d'un facteur 2 (une erreur effectivement commise par Drude, sur la base d'un traitement erroné des chocs aléatoires), on peut même trouver un nombre de Lorentz égal à 3 (au lieu d'une valeur expérimentale ~3,3), ce qui est très satisfaisant.

C'est un beau succès théorique, fondé sur l'idée qu'un même courant de particules — électrons — assure à la fois le transport de la charge électrique et de l'énergie, avec le même temps de relaxation.

Lorentz complète ce traitement en corrigeant quelques négligences de Drude.

Au total, on aboutit à une situation très satisfaisante pour la loi de Wiedemann-Franz. Mais il y a des problèmes plus sérieux.

La relation (8), avec tJocT1/ 2 (théorème d'équipartition) et CT en 1/T, (comme le donne l'expérience à température suffisamment élevée), implique que nA varie en T-1/ 2. Or l'idée naturelle est de prendre A^a — paramètre cristallin — en imaginant que l'électron rebondit sur la plupart des ions du cristal qu'il rencontre dans son mouvement de dérive. A est alors indépendant de T et il faudrait avoir nocT-1/ 2, ce qui laisse très perplexe. Si l'on prend A~a, et si l'on calcule n à partir de représentations simples, en posant par exemple que, « dans un métal monovalent, chaque atome fournit un électron libre », on trouve un ordre de grandeur très incorrect pour a; comme K/CT a la bonne valeur, c'est que K est aussi incorrect, et le fait que la loi de Wiedemann-Franz soit bien « retrouvée » par la théorie est essentiellement le fait d'une heureuse compensation entre diverses erreurs.

Si l'on ajoute à cela que subsistent les problèmes liés à la chaleur spécifique électronique et au « mauvais signe » possible de l'effet Hall, on voit qu'on est, au début du XXe siècle, dans une situation de grande incertitude quant aux propriétés d'origine électronique dans les métaux.

En fait, après avoir été un guide intéressant pendant un demi-siècle, la loi de Wiedemann-Franz va causer une petite catastrophe en Physique du Solide : le succès que rencontre, à son niveau, la théorie de Drude-Lorentz va en effet laisser subsister une confiance injustifiée dans la statistique classique de Maxwell-Boltzmann, et va retarder l'« invention » de la statistique quantique de Fermi-Dirac à laquelle il est ici indispensable d'avoir recours.

Avant de voir comment, avec la théorie de Sommerfeld, la situation est débloquée, signalons que Wien, en 1913, devine les dépendances en température qu'il convient d'assigner aux différents facteurs qui apparaissent dans (8) : n et v indépendants de T, A


M. Hulin

en T -1 mais il ne donne pas de justification convaincante, et cette tentative restera lettre morte pendant quinze ans.

La théorie de Sommerfeld

L'ingrédient nouveau essentiel est la substitution à la statistique classique de MaxwellBoltzmann de la statistique quantique dite « de Fermi-Dirac », qui est celle qui convient pour les électrons. (Nous avons déjà rencontré une autre statistique quantique, celle de Bose-Einstein, qui convient, elle, pour les photons, ou pour les vibrations réticulaires.)

Cette statistique de Fermi-Dirac est intimement liée au « principe d'exclusion de Pauli ». D'après celui-ci, deux électrons ne peuvent occuper le même état quantique.

Imaginons alors que nous apportions un à un, dans un métal à température nulle, ses électrons de conduction. Le premier se place dans l'état de plus basse énergie, dans le « fondamental », de manière à ce que le système soit aussi stable que possible. Mais le deuxième ne peut pas se placer dans le même état : il doit adopter une énergie un petit peu plus élevée; et de même, a fortiori, pour le troisième, le quatrième, etc. Dans un contexte classique, au contraire, tous les électrons se seraient placés sans difficulté dans l'état de plus basse énergie. A température nulle, donc, des électrons « classiques » — en imaginant un instant qu'il existe de telles particules, ce qui n'est évidemment pas le cas — se grouperaient tous dans le fondamental, sur une même horizontale dans un diagramme où les énergies sont comptées suivant l'axe vertical (fig. 4 a). Les vrais électrons, en fait, s'empilent verticalement (fig. 4 b). Adoptons comme origine des énergies l'énergie du fondamental : les électrons occupent tous les niveaux d'énergie disponibles entre 0 et une énergie maximale EF, « l'énergie de Fermi ». A EF on associe une « température de Fermi » TF, avec EF = kTF. Dans un métal EF est de l'ordre de quelques électron-volts, TF de l'ordre de 104-105K.

Fig. 4. — Répartition de l'énergie des électrons de conduction dans un métal à température nulle, (a) En mécanique classique, tous les électrons auraient la même énergie, nulle; (b) en mécanique quantique, en raison du principe d'exclusion de Pauli, ils occupent des états d'énergie différents, répartis entre 0 et « l'énergie de Fermi » EF : ils obéissent à la « statistique de Fermi-Dirac ».


Une histoire de la Physique du Solide

Chauffons maintenant le gaz d'électrons pour l'amener à une température T. Un certain élargissement de la distribution en énergie se produit : excités thermiquement, les électrons vont « visiter » des niveaux d'énergie plus élevée que ceux auxquels ils étaient cantonnés au départ.

Dans le cas classique, cela implique un peuplement des niveaux d'énergie comprise entre 0 et « quelques k T », avec une énergie moyenne qui est de l'ordre de k T (fig. 5 a), conformément à nos raisonnements antérieurs.

Dans le cas de la statistique de Fermi-Dirac, ce n'est qu'au voisinage de EF que l'excitation thermique peut se manifester : par apport d'une énergie de l'ordre de k T, un électron peut quitter son état initial pour passer dans un état d'énergie plus grande, mais encore faut-il que, dans ce saut, le principe de Pauli soit respecté, et que l'état d'arrivée soit vide. Il faut donc que cet état se situe au-dessus du « niveau de Fermi » d'énergie EF. Par suite, ce n'est que dans une «pellicule d'énergie» d'épaisseur de l'ordre de kT centrée sur EF que vont se manifester les effets de l'excitation thermique. La plupart des électrons sont bloqués par le principe de Pauli dans leur état initial.

Par suite, c'est seulement une fraction

des électrons qui participent à la variation avec la température de l'énergie du gaz. Pour un volume unité contenant n électrons, cela représente un nombre xn d'électrons dont l'énergie s'accroît d'une quantité de l'ordre k T par traversée du niveau de Fermi vers le haut sous l'effet de l'agitation thermique. La variation correspondante d'énergie est

Fig. 5. — Répartition de l'énergie, comme pour la figure 4, mais pour IV 0. (a) Dans le cas classique, les électrons ont une énergie de l'ordre de kT; (b) dans la statistique de FermiDirac, à cette énergie doit s'ajouter l'énergie de Fermi EF.


M. Hulin

donc en

d'où l'on tire une chaleur spécifique électronique Cv = dE/dT

Comme on l'a dit plus haut, elle est linéaire en T et plus petite dans un rapport T/TF«1, en fait de l'ordre de 10 -2 ou 10- 3 à l'ambiante, que la valeur (de l'ordre de nk) prédite par une statistique classique. Même heureuse « guérison » de la susceptibilité magnétique. Toujours pour l'unité de volume, la théorie classique de Langevin, pour un gaz d'électrons porteurs d'un moment magnétique u, donne une susceptibilité % = (1/3)(nµ2/kT). Ceci devient %~ 1/3(nx) µ2/kT, soit x —n(µ2/kTF), valeur beaucoup plus petite que la valeur classique et indépendante de la température. Le problème de la susceptibilité magnétique électronique se trouve donc lui aussi résolu, par simple recours au principe Pauli.

Et les conductivités ?

De nouveau, ce ne sont plus que les électrons très voisins du niveau de Fermi qui sont ici « actifs » et participent à la conduction électrique. Mais, en même temps qu'on corrige l'équation (8) en remplaçant n par nT/TF, il convient ici de prendre en compte un autre facteur correctif : la vitesse qui doit intervenir, ce n'est plus une vitesse moyenne v d'agitation thermique, donnée par le théorème d'équipartition classique (1/2 mv 2 = 3/2 kT), mais la vitesse vF au niveau de Fermi (avec 1/2 mvF = EF = kTF). Au total on peut montrer que les deux corrections se compensent, et qu'on garde une expression de cr très voisine de celle de Drude-Lorentz :

Simplement, le temps de relaxation doit être pris au niveau de Fermi, et on le note xF. Il vaut A/vF, où A est le libre parcours moyen. Notons que la vitesse vF est indépendante de la température : elle est fixée par le « remplissage » du conducteur par les électrons. Pour ce qui est de la conductivité thermique K, des compensations analogues jouent encore : intervention d'une fraction T/TF, seulement, des électrons. Mais, en réponse à un gradient thermique, ces électrons entraînent chacun une énergie EF = feTF — et non plus une énergie moyenne d'agitation thermique classique k T.

Au total, le rapport K/CT satisfait toujours à la loi de Wiedemann-Franz. Le calcul est même plus précis, grâce à une traduction plus fidèle des effets des collisions subies par les électrons. On obtient un nombre de Lorentz S£ = 7t2/3, en extrêmement bon accord avec la valeur expérimentale.

Au point où nous en sommes, que reste-t-il à expliquer?


Une histoire de la Physique du Solide

Essentiellement :

— les possibilités d'effet Hall de signe anormal;

— la dépendance en température et l'ordre de grandeur du libre parcours moyen A, ou du temps de relaxation T.

De ce dernier point de vue, absolument crucial, nous avons déjà progressé. La relation (12) fait intervenir, comme on l'a vu, xF = A/vF. La dépendance en température est, maintenant, tout entière liée au libre parcours moyen A. Ce qu'il faut expliquer, c'est que celui-ci soit beaucoup plus grand, en général, que le paramètre cristallin a, et qu'il varie en 1/T, en général, sur une assez large gamme de températures incluant l'ambiante.

Le traitement quantique complet

La clé de l'énigme, c'est une application complète de la Mécanique quantique au problème du comportement électronique dans les solides cristallins (et pas seulement une prise en compte des seules statistiques quantiques).

Le résultat essentiel, dans ce domaine, est connu sous le nom de « théorème de Bloch ».

Il nous enseigne que, dans un cristal parfait, les états stationnaires des électrons restent des ondes progressives, comme pour des électrons « libres » se propageant dans le vide ! Il y a, de ce fait, analogie, beaucoup plus profonde que les vues classiques ne pouvaient le laisser supposer a priori, entre le comportement des électrons des couches externes immergés dans un cristal. Ces derniers s'accommodent de la présence des coeurs atomiques; la délocalisation que leur impose la Mécanique quantique leur permet « d'intégrer » les accidents de potentiel imposés par la présence des coeurs, et de retrouver un comportement voisin de celui de particules libres.

Cela dit, les coeurs manifestent cependant leur présence; essentiellement, au lieu de la relation de dispersion classique entre l'énergie et la quantité de mouvement p

valable pour les particules libres, il faut admettre des relations beaucoup plus complexes, et variables avec les matériaux étudiés.

Le théorème de Bloch a assuré ici un progrès fondamental, en permettant de renoncer à l'idée que l'électron, dans son mouvement de dérive, rebondissait d'atome en atome, ce qui fixait son libre parcours moyen à une valeur peu différente du paramètre cristallin, essentiellement imposée par la structure, et peu sensible à la température, propriétés qui, on l'a vu, engendraient toutes sortes de difficultés.

On comprend maintenant, grâce aux idées quantiques, que ce soit seulement les écarts au cristal parfait, soit :

— à basse température les impuretés ou les défauts de structures;

— à haute température, les vibrations réticulaires, qui limitent le libre parcours moyen électronique.


M. Hulin

Par suite, A peut devenir beaucoup plus grand que a; de plus, dans un régime de diffusion par les vibrations du réseau, A peut devenir fonction de la température, et l'on peut enfin rendre compte des conductivités CT et K, de leurs ordres de grandeur, et de leur dépendance en température.

En fait, la situation se complique et s'enrichit. On est amené à prédire des écarts à la loi de Wiedemann-Franz à basse ou moyenne température (T<0D); on retrouve — phénomène aussi noté pour les vibrations réticulaires — la nécessité de pondérer les processus limitant la durée de vie de certains états par leur efficacité vis-à-vis des transports de différentes quantités physiques, qui dépendent de ces transports. On note enfin le rôle ambigu qu'a joué la loi Wiedemann-Franz pendant près d'un demi-siècle d'histoire de la théorie des électrons dans les métaux, une histoire dont le moins qu'on puisse dire est qu'elle fut fertile en rebondissements.

Dernier acquis : aux relations de dispersion plus complexes qui caractérisent l'électron dans le milieu cristallin par rapport à l'électron libre, correspondent des effets dynamiques surprenants; on peut les traduire, dans certains cas, en attribuant aux porteurs une charge électrique positive. Ainsi rend-on compte de l'effet Hall anormal.

Quelques problèmes en guise de conclusion

On pourra, après tout cela, se demander pourquoi les métaux liquides conduisent, le mercure par exemple. Après tout, il n'y a pas d'ordre cristallin dans ces liquides, le théorème de Bloch n'est plus valable. Or il jouait un rôle essentiel dans ce qui précédait. Il faut avouer que nous avons pas mal triché dans notre présentation ci-dessus, mais pas plus que la Physique des Solides elle-même, qui ne s'est préoccupée des métaux liquides que vers 1960-1965. Il faut préciser notre argument antérieur : ce qu'il y a d'important dans le théorème Bloch, c'est qu'il permet de prédire l'existence, dans les cristaux parfaits, d'états électroniques stationnaires, délocalisés, qui transportent un courant (autrement dit l'existence d'ondes progressives et pas stationnaires); si de tels états existent, sans théorème de Bloch (par exemple en l'absence de périodicité), c'est suffisant pour que puisse se prolonger l'analyse faite plus haut du transport électronique dans les métaux. Et c'est l'existence de ces états qu'on a pu prouver il y a une quinzaine d'années, mais il a fallu vingt ans pour que le rôle exact de la périodicité cristalline soit vraiment cerné.

Nous avons laissé de côté, d'autre part, au moins deux phénomènes majeurs :

— La supraconductivité, qui est, par excellence, le phénomène quantique macroscopiquement sensible — et utilisé !

— Le magnétisme, et en particulier l'existence d'états magnétiques ordonnés. Signalons au moins un calcul d'ordre de grandeur : l'interaction dipolaire entre moments magnétiques élémentaires séparés d'à peu près 1 Â est de l'ordre de 10~ 4 eV, très inférieure donc à l'agitation thermique ambiante. L'ordre magnétique ne peut, par suite, être assuré par les interactions magnétiques dipolaires. Il faut faire intervenir l'interaction d'« échange », en fait une interaction d'origine électrostatique, mais modulée par les orientations relatives des spins (et moments magnétiques) électroniques : comme c'est une interaction électrostatique, elle est beaucoup plus intense que l'interaction magnétique dipolaire, et permet de ne pas buter, dès le départ, sur une difficulté d'ordre de grandeur.


Une histoire de la Physique du Solide

On pourrait bien sûr développer, et ajouter bien d'autres choses. Ce serait dépasser le cadre de cet article et le but que nous lui assignions : ce but serait atteint si nous avions convaincu certains lecteurs qu'ils trouveront dans la Physique du Solide une suite de péripéties dignes d'un roman d'aventures et une mine de remarques épistémologiques.

NOTES

(*) Les légendes des figures sont de la rédaction.

(1) En fait, les conditions sont un peu plus générales.

( 2) Les porteurs de charge mobiles qui transportent le courant sont, dans un champ magnétique, déviés latéralement (comme le sont les électrons d'un tube cathodique, soumis au champ magnétique créé par les bobines de déflexion). Mais ces porteurs doivent, ici, poursuivre, « tout droit », leur route dans le conducteur; il faut donc qu'intervienne un nouvel élément, qui compense l'effet du champ magnétique : il s'agit d'un champ électrique transverse, auquel on peut associer une différence de potentiel mesurable de l'extérieur, la « différence de potentiel de Hall ». Elle sera de l'ordre du millivolt, dans des conditions standard, pour un semi-conducteur, et du microvolt seulement pour un métal. Pour un champ magnétique donné et un courant donné, le sens de cette différence de potentiel sera fonction du signe de la charge des porteurs mobiles. (C'est d'ailleurs avec l'effet Hall qu'on identifie facilement les semi-conducteurs de type n — où les porteurs sont des électrons — des semi-conducteurs de type p — où les porteurs sont des « trous » auxquels on associe une charge positive.)



LA VIE DES SCIENCES

Les objets insolites du chimiste : des solides de basse dimensionalité

Jean ROUXEL

Membre de l'Académie

Certains solides sont de véritables mille feuilles chimiques. On peut en détacher facilement de minces lamelles ou les diviser en fibres très fines. Ceci traduit une cohésion qui n'est importante que dans deux, ou une, directions de l'espace. L'origine de cette situation se trouve dans une structure cristalline elle-même construite à partir de couches ou de chaînes atomiques plus ou moins complexes. De tels solides présentent évidemment des propriétés physiques extrêmement anisotropes, certaines sont aussi totalement nouvelles. Il est possible par ailleurs d'écarter feuillets ou chaînes atomiques par le jeu de diverses insertions chimiques, ioniques ou moléculaires. Ceci introduit directement la chimie d'intercalation dont les développements conceptuels nombreux se doublent d'une égale richesse au niveau des applications (tamis moléculaires, catalyse, lubrifiants, piles et batteries, opto-électroniqué).

La nature a d'abord réalisé d'elle-même certains processus d'intercalation (dans les silicates lamellaires par exemple) ou certaines phases à propriétés physiques ou mécaniques intéressantes (utilisation de MoS2 dans les huiles molygraphite). Puis l'homme a étudié et développé de multiples systèmes d'intercalation dans des matériaux lamellaires qui étaient, encore, fournis par la nature, le graphite notamment. Aujourd'hui on tente de créer des solides à structure feuilletée ou fibreuse en espérant qu'ils témoigneront de telle ou telle propriété physique, ou encore que l'on pourra les utiliser comme supports d'une chimie d'intercalation nouvelle. Les besoins sont grands, aussi bien pour accompagner le développement des théories que pour susciter de nouvelles applications. Il s'agit d'une chimie difficile qui doit répondre en même temps à des impératifs largement contradictoires, mais susceptible, cependant, de mener à des « objets » tout à fait insolites.

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 1, p. 23-43


J. Rouxel

Un état solide inhabituel

L'état solide impose l'idée de volume. Il peut sembler paradoxal, en conséquence, de vouloir parler de solides de « basse dimensionalité. » Cette notion est effectivement toute relative et se réfère, en fait, à une situation de forte anisotropie directionnelle du lien chimique : un solide de basse dimensionalité est celui qui est construit, à l'échelle microscopique, à partir d'un empilement de feuillets ou d'une juxtaposition de fibres. A l'intérieur de ces entités, mettant en jeu quelques couches atomiques, existent des liens forts, iono-covalents ou métalliques. Mais feuillets ou fibres sont séparés — le mot convient bien tant est grande l'hétérogénéité — par des interactions faibles, le plus souvent de type van der Waals. Ceci se traduit en premier lieu par une morphologie de cristaux lamellaires ou fibreux que nous connaissons bien pour l'avoir souvent observée dans la nature, chez les micas, le graphite, la molybdénite par exemple (fig. 1).

Si l'on veut caractériser de manière plus quantitative le solide de basse dimensionalité, une première approche prendra appui sur l'anisotropie de telle ou telle propriété physique, illustration directe de l'autre anisotropie, celle des liaisons chimiques. L'intérêt des thèmes physiques qui peuvent alors être développés vient non seulement de cette anisotropie mais aussi, et surtout, de ce que les propriétés d'un solide de basse dimensionalité, lamellaire par exemple, ne se décrivent pas par simple transcription xy des lois qui régissent l'espace de dimensions trois : ces propriétés sont différentes, parfois totalement nouvelles. Ainsi en est-il par exemple de ces ondes de densité de charge, fluctuations couplées de la densité électronique et des positions atomiques le long d'une chaîne conductrice.

On peut considérer aussi que le solide de basse dimensionalité résulte de la condensation mutuelle de molécules « planes » ou « linéaires » infinies. Ceci établit un lien entre chimie des solides et chimie moléculaire, notamment chimie de coordination. Une chaîne magnétique ne se distinguera en rien, ici, de celles que construisent les chimistes de coordination. Les frontières, parfois artificiellement dressées par les noms que l'on peut se donner, s'effacent devant un langage commun facile à trouver.

Cependant la plus grande richesse conceptuelle que l'on puisse associer aux solides de basse dimensionalité se situe peut-être au niveau de leur extraordinaire réactivité chimique. Cette réactivité a permis de proposer et d'affiner les concepts de ce qui allait devenir la « chimie douce » : chimie des processus redox d'intercalation-désintercalation par lesquels on sépare feuillets ou fibres en peuplant les espaces de van der Waals par diverses espèces ioniques ou moléculaires, chimie acido-basique liée à la structure électronique de certains sites particuliers que la morphologie permet d'atteindre, chimie de greffage où l'on considère les espaces de van der Waals comme autant de surfaces internes des édifices correspondants. La chimie douce est topotactique, c'est-à-dire qu'elle garde en mémoire la géométrie initiale. Chimie des solides faite à basse température, elle mène à des espèces souvent métastables mais toujours hautement réactives et le plus souvent fort originales. Le lien avec les approches plus physiques évoquées plus haut a d'ailleurs permis une discussion de la réactivité chimique en fonction de la structure de bande, à un niveau difficile à atteindre pour les autres solides.

Enfin l'intérêt pratique des solides de basse dimensionalité n'est plus à démontrer. Il concerne, aussi bien l'utilisation « banale » du glissement facile feuillet sur feuillet en relation avec l'anisotropie des propriétés mécaniques pour se servir du graphite ou de


Les objets insolites du chimiste

Fig. 1. — Cristaux bidimensionnels et unidimensionnels de synthèse. Le lamellaire NiPS3 présente ainsi très clairement une morphologie en fines plaquettes aisément clivables (a), cependant que l'unidimensionnel PV2S10 apparaît sous la forme de touffes de cristaux fibreux (b).

25


J. Rouxel

MoS2 comme lubrifiants, que les développements nés de la chimie d'intercalation vers la création de nouvelles piles ou batteries, la fabrication de tamis moléculaires, de nouveaux catalyseurs, de matériaux pour l'affichage lumineux, etc.

Il y a, en conséquence, un besoin sans cesse élargi et renouvelé de nouveaux solides de basse dimensionalité, que l'on veuille appuyer et ancrer dans le réel telle ou telle interprétation théorique ou que l'on s'adresse au monde varié des applications. Comment, à partir de son intuition confortée par le raisonnement, le chimiste peut-il alors réaliser les nouveaux édifices qu'on lui demande?

La voie étroite de synthèses difficiles

La synthèse de nouveaux solides de basse dimensionalité est un exercice difficile. Il est nécessaire de tenir compte simultanément de nombreux facteurs, dont les effets sont parfois opposés.

L'espace interfeuillets ou interchaînes, appelé lacune de van der Waals, est bordé par des couches atomiques de même nature, habituellement anioniques. Par exemple les couches d'octaèdres ou de prismes trigonaux qui forment respectivement les feuillets

Fig. 2. — Le solide de basse dimensionalité est construit à l'échelle microscopique à partir de feuillets résultant de l'assemblage de polyèdres atomiques variés : couches d'octaèdres dans TiS2 (a), de prismes trigonaux dans NbS2(b), chaînes de prismes dans NbSe3 (c). Le métal M est au centre de la charpente anionique, permettant d'assimiler, par exemple, un feuillet (a) ou (b) à un véritable « sandwich » [SMS].

TiS2 ou NbS2 (fig. 2a,b), permettent d'assimiler ces structures à une succession de « sandwiches » [STiS]. Dans les fibres de NbSe3 ou NbSe4 le métal est de la même manière emprisonné dans une charpente anionique (fig. 2 c). Pour qu'un type structural soit stable, il est alors nécessaire que le lien de van der Waals, par définition faible, soit cependant suffisant pour s'opposer favorablement à la répulsion coulombienne entre feuillets. En effet, plus un feuillet ou une fibre manifeste un caractère ionique marqué, et plus importante sera la répulsion coulombienne, c'est-à-dire la séparation entre fibres ou

(a)

(b)

(c)


Les objets insolites du chimiste

feuillets : c'est précisément ce qui établit le caractère de basse dimensionalité. Cette évolution qui associe une basse dimensionalité accrue à une ionicité plus marquée trouve alors sa limite dans la stabilité même de l'édifice. Il peut être dit que la limite de la basse dimensionalité (exprimée par exemple dans le rapport directionnel d'une propriété physique) est l'instabilité intrinsèque qui lui est associée. De ceci on peut déjà tirer de nombreux enseignements que tout chimiste pourra utiliser. Dans le cas d'oxydes (ou fluorures), très ioniques, la répulsion sera trop forte et très déstabilisante. Les oxydes métalliques M02 (où M est un métal) sont en effet de type fluorine ou rutile et n'ont pas la structure lamellaire de leurs homologues MS2. Pourtant on peut imaginer l'existence d'oxydes lamellaires dans trois circonstances. Tout d'abord en présence d'un degré d'oxydation élevé d'un élément de transition, car alors la forte polarisation de la densité électronique de l'oxygène exercée par le métal vers l'intérieur du feuillet va tempérer les répulsions entre feuillets ou fibres. Il en résultera évidemment des propriétés acides : n'est-ce-pas le cas de MoO3 ou V2Os, oxydes lamellaires que l'on appela anhydrides molybdique ou vanadique ? Les structures peuvent ensuite être stabilisées par des contreions, séparant les feuillets et donc minimisant les répulsions tout en introduisant un terme attractif favorable dans le bilan énergétique du système. De nombreux exemples existent dans le domaine des silicates lamellaires et notamment des micas. Enfin la nature nous offre encore, par exemple au niveau des hydroxydes lamellaires (comme la brucite Mg(OH)2), de nombreuses structures stabilisées par liaisons de type hydrogène échangées de feuillet à feuillet. Les deux premières propositions suggèrent de multiples synthèses : construire des feuillets complexes en plaçant à l'extérieur des couches des tétraèdres, polyèdres qui s'accommodent d'une plus haute covalence, pratiquer le jeu des substitutions sur les contre-ions situés entre feuillets en remplaçant ceux-ci par des espèces toujours plus grosses de manière à stabiliser davantage.

Cependant, entre les oxydes qui ne peuvent être abordés que dans les conditions cidessus, car trop ioniques, et les tellurures quasi métalliques mais habituellement tridimensionnels, les sulfures et les séléniures représentent le domaine le plus favorable à l'existence de phases de basse dimensionalité (on transposera bien sûr aux colonnes adjacentes de la classification périodique des éléments). Mais d'autres complications surgissent, illustrées

Fig. 3. — Les niveaux électroniques des différents atomes se regroupent en bandes dont la position relative détermine une compétition redox entre métal et chalcogène, par exemple, dans les chalcogénures lamellaires. (a) cas général pour un chalcogénure, (b) cas de TiS2 et ZrS2 (octaèdres), (c) cas de NbS2 et MoS2 (prismes), (d) le cation est réduit par peuplement d'un niveau d au détriment du sommet de la bande de valence.

27


J. Rouxel

par le fait que, en se déplaçant cette fois dans une période et non plus dans une colonne, TiS2, par exemple, est lamellaire mais FeS2 ne l'est point. Il faut alors faire intervenir une compétition redox, à l'intérieur du solide, entre niveaux cationiques d et niveaux sp anioniques regroupés dans la bande de valence du solide. La structure de bande d'un chalcogénure d'élément de transition (fig. 3) comporte toujours en effet une bande de valence essentiellement formée par les orbitales s et p anioniques, cependant que les niveaux cationiques correspondants sont renvoyés très haut en situation antiliante. Entre ces deux groupes, les niveaux cationiques d, séparés par le champ cristallin (c'est-à-dire par les répulsions qu'ils subissent de la part des anions en fonction de leur orientation spatiale), jouent un rôle essentiel concernant les propriétés optiques, électriques, magnétiques, et les physiciens s'y réfèrent bien sûr en permanence. Mais le chimiste doit savoir qu'ils gouvernent aussi le type structural, voire même la stoechiométrie des édifices. Le fait essentiel est que ces niveaux d voient leur énergie s'abaisser progressivement lorsque l'on parcourt une période de transition de gauche à droite. A un certain moment ils vont rencontrer le sommet de la bande de valence sp. S'il s'agit de niveaux d remplis, aucune conséquence drastique n'en résultera. Par contre, si un niveau d vide pénètre dans la bande de valence, il va se peupler au détriment du sommet de celle-ci, où des trous apparaissent. En termes de chimie, cela veut dire que le cation est réduit et que se forment des paires anioniques. C'est ainsi que l'on passe de TiS2 avec Ti4+ et 2S2- à FeS2 avec Fe2+ et (S2)2-. Bien sûr, une telle évolution se produira plus vite dans le cas des séléniures : le sélénium étant moins électronégatif que le soufre, le sommet de la bande sp est plus haut en énergie et plus vite atteint par les niveaux d cationiques.

Ceci est une première incursion de la structure de bande dans la chimie. Bien d'autres relations peuvent être établies. La compétition redox d-sp, dans un état proche de l'équilibre (niveau d proche du sommet sp), peut entraîner la présence de paires anioniques de longueurs variables avec degrés d'oxydation également variables d'une chaîne à l'autre, dans une même structure riche de plusieurs chaînes. C'est la notion de réservoir d'électrons dont on peut vérifier le bien fondé au travers des propriétés électroniques du solide et de sa réactivité (catalyse, électrochimie) : la paire, variable en longueur suivant le nombre de trous, et donc la population de son niveau antiliant, injecte — ou prend — plus ou moins d'électrons à la chaîne métallique qu'elle entoure et dont elle régit les propriétés conductrices. Si l'on prend maintenant la série des phases lamellaires MPS3 qui dérivent de TiS2 par occupation des sites octaédriques du feuillet par des cations M2+ et des paires phosphore-phosphore dans la proportion de deux tiers et un tiers [on devrait écrire SM2/3(P2)1/3S], la structure de bande gouverne la stoechiométrie. Tout à droite d'une période d'éléments de transition, pour NiPS3, le degré d'oxydation +2 est seul stable. Pour FePS3 le degré +3 est en limite de stabilité au sommet de la bande sp. Des cations Fe 3 + existent en faible proportion. L'excès de charge ainsi apporté doit être compensé par une proportion abaissée du nombre des cations, c'est-à-dire par une non-stoechiométrie M1_XPS3. On justifie ainsi l'excellence de NiPS3 comme cathode industrielle pour batteries au lithium (voir ci-dessous) et la difficulté d'emploi de FePS3 en raison d'une non-stoechiométrie, sensible dans certaines limites aux conditions de préparation, et siège de processus redox complexes. De la même manière on a pu indiquer l'impossibilité d'existence de phases comme VPS3 : ce qui existe alors en réalité, c'est V0,78PS3.


Les objets insolites du chimiste

Des édifices de tous styles

Les très nombreux solides de basse dimensionalité préparés ces dernières années sont à la fois conséquence et illustration des réflexions précédentes.

Considérons tout d'abord le cas des unidimensionnels, le plus spectaculaire sans doute. En augmentant la proportion de soufre ou de sélénium dans un chalcogénure, on oblige les polyèdres de coordination autour du métal à mettre en commun un minimum de sommets. Cette contrainte d'ordre géométrique trouve sa traduction structurale dans le passage d'une organisation tridimensionnelle à un arrangement bidimensionnel puis unidimensionnel. Ainsi NbSe tridimensionnel cède-t-il la place à des ensembles de prismes trigonaux arrangés en feuillets dans NbSe2, puis superposés en fibres infinies dans NbSe3

Fig. 4. — Condensation de chaînes différentes pour former un feuillet : ici des « fibres » prismatiques sont associées à des bichaînes d'octaèdres.

29


J. Rouxel

(Meerschaut et Rouxel, 1975). En jouant ainsi à un jeu de construction dont les modules sont les polyèdres de coordination, on peut s'amuser à imaginer les arrangements les plus variés. Si l'on veille à respecter les conditions redox imposées par la structure de bande associée, et surtout si l'on est suffisamment habile dans l'art de la synthèse chimique, on peut effectivement réaliser quelques-uns de ces modèles. On peut même associer des chaînes elles-mêmes construites à partir de polyèdres différents : ainsi dans FeNb3Se10 des chaînes prismatiques de type NbSe3 sont-elles associées à des groupes de deux chaînes octaédriques contenant le fer aussi bien qu'une partie du niobium (fig. 4). La structure est alors devenue bidimensionnelle à partir d'entités elles-mêmes unidimensionnelles (Meerschaut et Rouxel, 1981).

On peut aussi jouer sur des contraintes qui pourraient être qualifiées de mécaniques, et non plus imposées par la formulation chimique. Reprenons la structure MPS3. Comme nous l'avons dit, elle se compose de feuillets d'octaèdres occupés par le métal M ou par des paires p-p. M est au degré d'oxydation +2 : remplaçons alors par exemple 2Ni 2 + par Cr3++Cu+. On obtient une phase ordonnée où espèces Cr3+ et Cu+ décrivent respectivement les sommets de deux sous-réseaux triangulaires imbriqués l'un dans l'autre. Cette situation est la conséquence directe de l'équilibre imposé par les fortes répulsions coulombiennes entre ions Cr3+. Introduisons maintenant deux cations de tailles fort différentes, Cr3+ et Ag+ : pour minimiser les contraintes, les polyèdres [CrS6] et [AgS6], de tailles très différentes, tendront à éviter de partager des éléments et on aboutit à une ségrégation dans la structure de chaînes de chrome et de chaînes d'argent (fig. 5). Dans les deux cas on a préparé des phases d'un grand intérêt pour les études de propriétés magnétiques (Colombet et a/., 1983).

Un minéral, la patronite VS4, présente une structure unidimensionnelle résultant de la superposition d'antiprismes d'Archimède à base rectangle. Des rectangles de soufre formés de deux paires (S2)2_ tournent, en effet, autour d'une chaîne de vanadium en découpant celle-ci à mi-distance entre les atomes de métal qui la constituent. Tout le soufre est sous forme de paires (S2)2-, ce qui correspond par ailleurs à du vanadium +4. Si l'on tente de reproduire pour le niobium et le tantale ce que la nature a fait pour le vanadium, on constate l'instabilité des structures. L'augmentation d'ionicité des liaisons en passant du vanadium au niobium, puis au tantale, interdit l'obtention d'unidimensionnels NbS4 ou TaS4. Le chimiste peut alors agir de deux manières : compenser l'augmentation d'ionicité due au métal par une diminution obtenue en remplaçant, au contraire, le soufre par le sélénium ou le tellure, ou encore stabiliser les chaînes en les séparant par des contreions. Dans le premier cas, il faut aller jusqu'au tellure : NbTe4 ou TaTe4 sont des types particuliers de structures incommensurables proches de VS4. Dans le deuxième cas, on peut stabiliser des chaînes NbSe4 en les séparant par des ions iodure ou bromure, volumineux. Les phases (Nb-Ta) Se4Ix sont des unidimensionnels typiques à ondes de densité de charge (Gressier et al, 1984).

Les bronzes bleus de tungstène, de formule générale A0,30MoO3 avec A = K, Rb, Cs, constituent un autre exemple de stabilisation de chaînes par des contre-ions. C'est en quelque sorte la situation symétrique de la précédente : entre chaînes Mo03, le contreion est un cation. Le lithium et le sodium, trop petits, ne stabilisent pas suffisamment la structure : celle-ci n'existe que pour les gros alcalins. Les chaînes Mo03 sont obtenues à partir d'octaèdres partageant des arêtes. Ces phases présentent de remarquables propriétés électriques de type ondes de densité de charge (Schlenker, 1983). Elles constituent un des rares exemples de stabilisation d'oxydes à structure quasi unidimensionnelle.


Les objets insolites du chimiste

Fig. 5. — Proposition réciproque : ségrégation de chaînes (Ag et Cr) ou de triangles (Cu et Cr) dans un feuillet (cas des phases Ag0,5Cr0,5PS3 et Cu0,5Cr0,5PS3).

31


J. Rouxel

La stabilisation de chaînes par séparation peut être réalisée non seulement par des ions mais aussi par d'autres chaînes de composition différente. Ainsi en est-il des chaînes NbSe3Br, qui séparent les mêmes chaînes NbSe4 que ci-dessus dans Nb3Se10Br2 (fig. 6 a). Un cas insolite est celui des phases M2Mo6Se6 (M = alcalin, thallium) (Potel et al, 1980). Elles utilisent le motif de base des « phases de Chevrel », un octaèdre de six atomes de molybdène emprisonné dans un pseudo-cube de huit atomes de sélénium. Une condensation infinie de ces motifs, réalisée par mise en commun de faces triangulaires opposées des octaèdres, mène à des chaînes de formulation [Mo6Se6], qui sont stabilisées par les cations M+ (fig. 6 b).

Dans le domaine des lamellaires, on a pu obtenir ces dernières années des structures insolites, le plus souvent en jouant sur des degrés d'oxydation élevés des éléments de transition et en utilisant des polyèdres s'accommodant d'une forte covalence des liaisons (tétraèdres). C'est ainsi qu'en faisant alterner des couches d'octaèdres et de tétraèdres B. Raveau (1981) a construit dans la série des phosphotungstates, des édifices que l'on peut rattacher... au style Louis XIII par référence à l'alternance de bandeaux de briques et de pierres (fig. la). En passant aux oxysulfures de lanthanides [ici (NdO)4Ga2Ss], Dugué et Guittard (1982) obtiennent des ondulations qui marquent cette fois une influence baroque! (fig. 7b).

Mais les situations les plus étonnantes ont été obtenues récemment en réalisant autour du métal une coordination mixte, ou en organisant dans la même chaîne des successions de polyèdres différents. Les conditions angulaires fixées par l'ionocovalence peuvent mener alors à des chaînes sinusoïdales ou hélicoïdales. Dans la structure de Nb6Se20Br6 courent ainsi des chaînes sinusoïdales toutes semblables entre elles. La complexité la plus grande est atteinte dans le cas de Ta4P4S29 : la structure (fig. 8) comprend des doubles hélices TaPS6, construites à partir d'enchaînement de biprismes [Ta2S12] et de tétraèdres (PSJ. Chacune de ces hélices en contient une autre, composée d'atomes de soufre. Il est possible d'enlever le soufre et de libérer le coeur de l'hélice TaPS6. L'espace ainsi ouvert est une cheminée de large diamètre où d'autres polymérisations sont possibles pourvu que certaines conditions de commensurabilité des potentiels développés de part et d'autre soient satisfaites (Evian et al, 1985).

Solides de basse dimensionalité et « chimie douce »

Les solides de basse dimensionalité présentent une remarquable réactivité chimique. Comme nous l'avons dit en introduction, cette réactivité est décrite par trois processus réactionnels qui constituent, à côté des procédés sols-gels, les modes essentiels de ce que l'on appelle désormais la chimie douce. Nous les évoquerons, non pas pour les décrire de manière exhaustive, mais parce qu'ils participent de manière importante au renouveau de la synthèse minérale appliquée aux solides, que l'on constate depuis déjà plus de dix ans.

La chimie d'intercalation décrit des réactions variées au cours desquelles une espèce ionique ou moléculaire est accueillie par un réseau hôte sans modification notable de celui-ci, hormis une expansion volumique éventuelle. Ceci se fait de manière réversible. Si l'espèce intercalée est sous forme ionique, la réaction est un processus de double


Les objets insolites du chimiste

Fig. 6. — (a) Nb3Se10Br2 : des chaînes sont stabilisées par d'autres chaînes; (b) Mo6Se6 : une condensation infinie de clusters Mo6Se8.

33


J. Rouxel

Fig. 7. — Phosphoniobates de « style Louis XIII » (a) et oxysulfure (NdO)4Ga2S5 d'« influence baroque » (b). Les couches de polyèdres différents qui constituent la structure se succèdent de manière régulière, quelquefois avec des variantes inattendues.

34


Les objets insolites du chimiste

transfert ion-électron qui s'écrit simplement, pour un élément alcalin par exemple :

Ces réactions se font le plus souvent à la température ambiante. Toute structure qui possède des places disponibles d'accès facile, sous forme de cages, tunnels, etc., peut jouer le rôle de structure d'accueil pourvu que les conditions redox de transfert électronique puissent être par ailleurs satisfaites. Le succès de cette chimie a fait qu'elle est aujourd'hui mise en oeuvre dans le cas de nombreux solides tridimensionnels, notamment des oxydes. Cependant le réseau d'accueil présente alors un squelette quasi rigide qui impose des conditions précises de taille pour l'espèce invitée. La situation idéale est évidemment celle d'un solide capable de se déformer pour s'adapter à des espèces de taille variable. Les solides de basse dimensionalité présentent cette flexibilité recherchée (fig. 9). C'est dans ce cas que la chimie d'intercalation est née et que le mot prend luimême tout son sens par référence à des feuillets ou fibres qui s'écartent à la manière des pages d'un livre entre lesquelles on place un feuillet intercalaire. C'est aussi dans ce cas que l'on a pu reconnaître et formuler les diverses lois qui gouvernent la chimie d'intercalation. Les études fondamentales ont porté sur les positions prises par les ions A+, leur arrangement régulier ordonné ou leur regroupement en microdomaines de peuplement, leur diffusion dans le réseau d'accueil, la localisation ou la délocalisation de l'électron transféré, son couplage avec A+, etc.

Fig. 8. — Un pas vers les macromelécules biologiques? Dans Ta4.P4S29, des chaînes construites à partir de l'enchaînement AA de polyèdres s'enroulent en hélice pour délimiter de vastes tunnels contenant eux-mêmes une autre hélice d'atomes de soufre.

35


J. Rouxel

La réciproque de la chimie d'intercalation existe aussi. Elle consiste à considérer qu'un composé ternaire AXMJ,SZ classique, bien connu, n'est peut-être après tout qu'un composé d'intercalation hypothétique d'ion A+ dans un squelette MyS2 inconnu. On va appliquer à AxMySz les techniques chimiques, électrochimiques, utilisées habituellement pour vérifier la réversibilité d'une réaction d'intercalation. Ceci implique une bonne connaissance des comportements redox de systèmes solides. En intercalant, on a réduit le réseau d'accueil en raison du transfert électronique. Si au contraire on place maintenant en face de l'intercalaire un oxydant plus puissant que le réseau d'accueil dont on était parti, on pourra réoxyder celui-ci et le régénérer. Une solution d'iode dans l'acétonitrile permet ainsi d'enlever le lithium intercalé dans un lamellaire comme TiS2 : on revient au réseau d'accueil. Appliquons alors les mêmes idées à Li2FeS2 ternaire sulfuré : par oxydation on obtient un FeS2 lamellaire, qui n'a aucun point commun avec les pyrites ou marcassites, variétés bien connues de FeS2. Les exemples de ce genre se multiplient depuis quelques années (Murphy, 1977; Brec, 1980).

Un deuxième aspect de la chimie des solides de basse dimensionalité porte sur des processus acido-basiques à l'état solide. Là encore, de belles synthèses de phases très simples ont été réalisées ces dernières années. Les exemples les plus connus concernent les nouvelles formes de WOs (Figlarz, 1979) et de TiO2 (Tournoux, 1980). Illustrons brièvement cet aspect dans le cas de TiO2. Le point de départ est K2Ti409, titanate lamellaire dont la structure, représentée sur la fig. 10, montre des ions K+ situés entre des feuillets associant en zigzag des blocs de quatre octaèdres TiO6. En milieu acide (nitrique par exemple), on échange les ions K+ par des ions (H30)+. Un chauffage léger

Fig. 9. — Chimie d'intercalation : les feuillets de l'édifice lamellaire s'ouvrent pour accueillir diverses espèces ioniques ou moléculaires.

36


Les objets insolites du chimiste

(60°C) conduit à une perte d'eau et à la formation de protons qui viennent se fixer sur les ions oxygène angulaires. Pourquoi ces ions oxygène ? Parce que leur densité électronique est la moins sollicitée par les cations situés derrière. Par rapport aux autres ions oxygène, ils représentent des sites basiques. Nous arrivons ainsi à une situation où deux (OH) - se font face : un chauffage à température à peine plus élevée que la précédente conduit à une nouvelle élimination d'eau, et à un scellement des deux feuillets en un édifice désormais tridimensionnel par l'intermédiaire d'un oxygène commun :

37

K2Ti409

Fig. 10. — K2Ti409 précurseur de synthèse d'une nouvelle forme de dioxyde titane. Entre des feuillets gaufrés résultant d'un assemblage « en escalier » de groupes de quatre octaèdres Ti06, se situent des ions potassium que l'on peut échanger en milieu acide. Ceci aboutit à une protonation des sites angulaires marquées d'une flèche. L'élimination d'eau entre deux (OH) qui se font face réalise alors la soudure des blocs en ces points. Le résultat est une nouvelle variété d'oxyde de titane.


J. Rouxel

van der Waals, lesquelles constituent en quelque sorte une membrane (fig. 11). Mais plus intéressante encore est la situation où la molécule admise à réagir avec la structure lamellaire est bi-active, capable de se greffer sur deux feuillets à la fois. On construit alors de véritables gratte-ciel avec planchers minéraux (les feuillets), séparés par des piliers qui sont le plus souvent organiques (Rouxel et Palvadeau, 1982; Rouxel, 1987).

Une relation directe avec de nombreux problèmes industriels

L'intérêt porté aux solides de basse dimensionalité trouve bien sûr sa source aussi bien dans les phénomènes physiques particuliers dont ces composés sont le support, que dans la richesse conceptuelle attachée à leur réactivité chimique. Mais il se nourrit également de développements industriels sans cesse renouvelés.

38

Les synthèses de ce genre se multiplient aussi. Tout réside dans l'art d'engendrer une gradation acido-basique entre sites à la surface des feuillets. Les facteurs qui interviennent sont la nature du cation qui est situé derrière et la géométrie du site (position angulaire par exemple).

Enfin, il a été possible de transposer aux lamellaires et unidimensionnels les processus de greffage développés par ailleurs par les chimistes des surfaces. L'idée directrice a été de considérer un espace interfeuillet comme étant une surface interne du solide. Les greffages mènent à des constructions complexes susceptibles de jouer des rôles multiples. Le principe en est simple : un feuillet, noté F, est hérissé de liaisons F—OH ou F—Cl. Ces liaisons peuvent être cassées et remplacées, par exemple, par des liaisons F—NH2 ou F—NHR par réaction avec l'ammoniac ou des aminés (Hagemuller, Rouxel et Portier, 1962). On obtient dans ce dernier cas des doubles couches —NHR dans la lacune de

Fig. 11. — Des doubles couches semblables à des membranes (a) ou des constructions en forme de gratte-ciel (b).


Les objets insolites du chimiste

La réaction d'intercalation que nous avons présentée plus haut décrit très directement le fonctionnement d'une batterie d'un type nouveau dite à cathode à insertion. Plusieurs de ces batteries ont été réalisées utilisant notamment TiS2 ou NiPS3 comme cathode. L'anode est une grille de nickel imprégnée de lithium. Au cours de la décharge, des ions Li+ formés à l'anode voyagent au travers d'une solution non aqueuse d'un électrolyte au Uthium, et viennent s'intercaler à la cathode entre les feuillets du lamellaire. Dans le même temps, l'électron parcourt le circuit extérieur d'utilisation. A la recharge se produit le processus inverse. Les batteries Li-TiS2 (Exxon) ou Li-NiPS3 (CGE) ont une énergie massique utilisable de l'ordre de 130 Wh/kg contre 60 pour nos accumulateurs classiques au plomb. On peut même réaliser des systèmes « rocking chair », selon le mot de Michel Armand, où l'anode est un composé du Kthium que l'on désintercale pendant que la cathode s'intercale et vice-versa.

Le domaine de la catalyse hétérogène est concerné par contre par la diffusion d'espèces moléculaires entre feuillets ou fibres. Ces molécules sont susceptibles de s'activer, au contact de certains sites, de réagir entre elles ou de former des espèces transitoires avec des atomes du réseau d'accueil. Le cas le plus connu est celui de MoS2 dopé au cobalt (catalyseurs « CoMoS »). C'est le catalyseur essentiel d'hydrodésulfuration des pétroles. Le dibenzothiophène contenu dans les pétroles, perd son soufre à la surface des feuillets, soit que celui-ci se trouve piégé dans des vacances de soufre, soit qu'il forme localement des paires (S2)2~ avec les ions sulfure du feuillet. Un passage d'hydrogène ramène ensuite à la situation initiale par élimination, sous forme d'hydrogène sulfuré, du soufre fixé.

L'intercalation induit souvent des changements de couleur par variation de peuplement des niveaux électroniques du réseau d'accueil. L'utilisation de W03 en affichage lumineux résulte très directement d'un processus d'intercalation, même si cette fois le réseau hôte est de type tridimensionnel avec cages vides.

Les solides de basse dimensionalité peuvent, par eux-mêmes, constituer des tamis moléculaires. Ceci est encore plus vrai des systèmes à piliers obtenus par greffage. La nécessité d'obtenir des piliers suffisamment espacés peut amener dans ce cas à une chimie très subtile visant à rendre non équivalentes les liaisons F—Cl ou F—OH dont il a été parlé plus haut. La réflexion portera sur le type de cation porteur de cette liaison à l'intérieur du feuillet. On greffe sur une liaison Fe—Cl, mais pas sur une liaison Cr—Cl. Cela amènera d'ailleurs à relier cette stabilité comparée à l'intensité et à la symétrie de la densité électronique présente sur le métal organisateur du feuillet. Si un pilier porte des sites sensibles bien choisis (liaisons multiples, cation particulier) il pourra avoir un rôle catalytique. Dans ce cas on conjuguera propriétés de catalyse et sélectivité de forme comme dans les zéolithes. Seules pourront approcher des piliers, et seules pourront se former, les molécules dont l'encombrement et l'orientation permettent une diffusion entre piliers. Les silicates lamellaires sont très souvent choisis pour ce genre d'opération (Pinnavaia à Chicago, Rhône-Poulenc).

Il faudrait encore parler de bien d'autres applications, échanges d'ions, exfoliation des structures en film très minces obtenus en intercalant une espèce que l'on chassera brutalement par voie thermique (ainsi le graphoil étudié par Herold et le CarboneLorraine à Nancy), etc.


J. Rouxel

Solides de basse dimensionalité et incommensurabilité

Les développements physiques associés aux solides de basse dimensionalité sont nombreux. Nous évoquerons un seul aspect, choisi parce qu'il marque peut-être plus que d'autres une étroite relation Physique-Chimie et, qu'il constitue une source d'interrogations fondamentales aussi bien dans l'une que dans l'autre de ces deux branches de la science.

On sait que la répétition périodique dans les trois dimensions d'un motif atomique simple ou complexe engendre une structure cristalline. On connaît aussi, en nombre de plus en plus grand, des situations où la manière la plus simple de décrire un solide consiste à y reconnaître, par exemple, deux sous-réseaux, chacun ayant sa propre périodicité. Si cette situation se traduit par un rapport de périodes qui est un nombre entier, l'arrangement est dit commensurable. Une maille cristalline plus grande permet d'exprimer facilement l'organisation de l'ensemble. Si le rapport des périodes devient très grand, et surtout s'il devient irrationnel, les choses sont moins simples. Les propriétés dans le dernier cas ne se reproduisent à l'identique en aucun point du réseau, impliquant théoriquement la prise en considération d'une maille infinie. La structure est dite incommensurable.

Ceci n'est pas un cas de structure amorphe, ni d'organisation aléatoire. Il y a une organisation bien précise. D'un point de vue structural la non-commensurabilité se manifestera dans un composé unidimensionnel, par des juxtapositions de colonnes séparées ou par une rangée d'un élément au sein d'une matrice continue formée par l'autre. Dans un composé bidimensionnel, elle se manifestera par des feuillets successifs dont les périodes ne s'accordent pas.

Les composés de basse dimensionalité jouent un rôle essentiel dans deux cas. Un premier type d'incommensurabilité est celui qui résulte du développement d'une onde de densité de charge dans un conducteur de basse dimensionalité. Les modèles théoriques prévoient pour ces conducteurs une instabilité structurale à basse température. Ceci se manifeste expérimentalement par une modulation de la densité électronique le long d'une chaîne métallique unidimensionnelle par exemple. Il y a corrélativement déplacement des atomes métalliques le long de la chaîne, vers les ventres de densité électronique, de manière à minimiser l'énergie du système (fig. 12). On obtient une nouvelle organisation, commensurable avec l'onde de densité de charge mais souvent incommensurable avec le réseau initial. On parle « d'incommensurables à 2kF » car, en effet, le vecteur d'onde qui décrit la modulation est égal à deux fois le vecteur d'onde de Fermi du système. Pour ne pas rentrer dans des explications théoriques complexes disons simplement que c'est la structure électronique du système qui va fixer la nouvelle périodicité. Si l'on applique un champ électrique excédant une valeur critique, il est possible de décrocher l'onde de densité de charge du réseau sous-jacent (Monceau, 1976). Le glissement de l'onde résulte alors en un transport de courant et se manifeste sous la forme de l'un de ces effets non linéaires annoncés plus haut. Au-dessous du champ critique la résistance différentielle dV/dl est constante comme le veut la loi d'Ohm, au-dessus elle chute en


Les objets insolites du chimiste

raison du courant supplémentaire transporté par l'onde de densité de charge (fig. 13). Il est même possible d'observer des effets-mémoires : le retour au régime ohmique, en champs décroissants ne se faisant pas nécessairement pour la même valeur du champ que celle qui avait assuré le décrochage de l'onde en champs croissants. Les études qui peuvent être faites associent étroitement Physiciens et Chimistes de la matière condensée. Le dépiégeage de l'onde dépend de facteurs tels que les hétérogénéités de potentiels liées à la présence d'impuretés, l'écart à la commensurabilité. Des cascades d'états métastables sont impliquées dans le mouvement de l'onde et dans les effets mémoires associés. L'onde, d'abord déformable, se rigidifie en une sorte de verre électronique à basse température. Ce domaine, très étudié en France, notamment à Orsay (J. Friedel, D. Jérôme, Pouget, ...), à Grenoble (P. Monceau, M. Renard, C. Schlenker, J. Dumas) et à Nantes (J. Rouxel, A. Meerschaut et coll.) ne cesse de susciter des questions nouvelles sur l'organisation de la matière...

Le deuxième type d'incommensurable fréquent chez les phases de basse dimensionalité concerne les désaccords de périodes entre deux feuillets successifs empilés dans une structure. Si ce désaccord se conçoit bien lorsqu'il s'agit de feuillets mettant en jeu des couches atomiques extérieures différentes, il est plus inattendu lorsque ces couches sont semblables, mais, en même temps, ceci permet peut-être une réflexion plus approfondie sur les causes de l'incommensurabilité. Ainsi en est-il des phases récemment préparées et mettant en jeu les éléments des Terres Rares (Ln), le niobium ou le tantale, le soufre (Meerschaut et al, 1989). La structure fait alterner des feuillets NbS2 et des feuillets LnS. Le désaccord est à l'interface entre la couche supérieure de soufre d'un feuillet

41

Fig. 12. — Illustration d'une situation d'onde de densité de charge : la fluctuation de densité électronique P(r), est associée à un déplacement des positions atomiques le long d'une chaîne.


J. Rouxel

NbS2 et la couche inférieure de soufre d'un feuillet LnS. Il varie en fonction de la nature de l'élément Ln. Alors que des empilements d'atomes de soufre se font normalement très bien, phénoménologiquement le désaccord apparaît ici comme lié à la polarisation des atomes de soufre du feuillet LnS par l'élément lanthanide situé derrière. Cette polarisation provoque au contact des deux feuillets une variation sinusoïdale du potentiel qui ne coïncide pas avec celle des feuillets NbS2. Une image qui illustre bien les choses est celle d'un empilement de deux tôles ondulées dont les pas sont légèrement différents.

Un lien entre chimie moléculaire et chimie de la matière condensée

Quel que soit le domaine que nous ayons abordé, le lecteur aura senti que nous avons dû limiter fortement notre propos. Les points de suspension rencontrés ici ou là ne représentent pas une solution de facilité pour terminer un paragraphe, ils le laissent en fait ouvert sur les développements sans cesse renouvelés dont la physique et la chimie des solides de basse dimensionalité sont l'objet de par le monde.

Cette richesse particulière vient pour une large part de la situation des solides de basse dimensionalité au carrefour des approches classiques de la matière condensée et de schémas empruntés à la chimie moléculaire. Il est tout à fait séduisant à cet égard que l'on puisse interpréter les modes d'empilement des feuillets ou de juxtaposition des fibres en termes d'interactions entre orbitales de ces unités (Sandre, 1988). Le solide de basse dimensionalité est un composite simple ou multiple, résultat d'une condensation orientée de molécules planes ou linéaires infinies.

Fig. 13. — Comportement non linéaire et effets mémoire. L'onde de densité de charge d'abord liée au réseau (la résistance différentielle dV/dI est alors constante) peut être « décrochée » de celui-ci. La résistance chute alors au-delà des conditions critiques qui marquent la mise en mouvement de l'onde (à gauche le cas de NbSe3 à 130 K). Le retour à la situation initiale ne se fait cependant pas nécessairement pour les mêmes caractéristiques : un effet mémoire est ainsi observé dans (NbSe4)10/3I à 228 K (à droite).


Les objets insolites du chimiste

RÉFÉRENCES

Brec R., Dugast A., Le Méhauté A., 1980, Mat. Res. Bull, 15, 619. Colombet P., Leblanc A., Danot M., Rouxel J., 1983, Nouv. J. Chim., 7, 333. Dugué J., Guittard M., 1982, Acta Cryst., B38, 2368.

Evain M., Queignec M., Brec R., Rouxel J., 1985, J. Solid State Chem., 56, 148. Filgarz M., Géraud B., Nowogrocki G., Guenot J., 1979, J. Solid State Chem., 29, 429. Gressier P., Meerschaut A., Guémas L., Rouxel J., Monceau P., 1984, J. Solid State Chem., 51, 141. Hagenmuller P., Rouxel J., Portier J., 1962, C. R. Acad. Sci., 254, 2000. Meerschaut A., Rouxel J., 1975, J. Less-common Metals, 39, 498. Meerschaut A., Guémas L., Gressier P., Rouxel J., 1981, Mat. Res. Bull., 16, 1035. Meerschaut A., Rabu P., Rouxel J., 1989, J. Solid State Chem., sous presse. Monceau P., Ong N. P., Portis A. M., Meerschaut A., Rouxel J., 1976, Phys. Rev. Lett., 37, 602. Murphy D. W., Carides J. N., Di Salvo F. J., Cros G, Waszczak J. V., 1977, Mat Res. Bull, 12, 825. Potel M., Chevrel R., Sergent M., 1980, Acta Cryst., B36, 1545. - Raveau B. et al, 1981, Mat. Res. Bull., 16, 811.

Rouxel J., Palvadeau P., 1982, Mat. Res. Bull, 19, 317.

Rouxel J., Palvadeau P., Venien J. P., Villiéras J., Janvier P., Bujoli B., 1987, Mat. Res. Bull, 9, 1217. Sandre E, 1988, J. Phys. Chem. Solids, sous presse.

Schlenker C, 1983, NATO Davy advanced institute : « Electrons and ions in condensed matter », Cambridge University Press. Tournoux M., Marchand R., Brohan L., 1980, Mat. Res. Bull, 15, 1129. Wang Z. Z., Monceau P., Renard M., Gressier P., Guémas L., Meerschaut A., 1983, 47-6, 439.

BIBLIOGRAPHIE

« Physics and Chemistry of Materials with layered structures », vol. I-VI, (F. Levy éd.), D. Reidel, publ., Dordrecht, 1980-1985.

« Crystal Chemistry and Properties of Materials with quasi-one-dimensional structures », (J. Rouxel éd.) D. Reidel publ., Dordrecht, 1986.

Raveau B., 1987, La Vie des Sciences, 4, 2, 93.

Sergent M., 1986, La Vie des Sciences, 3, 3, 195.

43



LA VIE DES SCIENCES

Sur la rénovation du système éducatif

Bureau de l'Académie

Notre Compagnie porte toujours une attention vigilante à tout ce qui touche à l' enseignement, ses structures, ses programmes, sa capacité de répondre aux exigences des évolutions en cours et aux aspirations des Français. Il y a un an, l'Académie tenait à souligner, dans une déclaration destinée aux candidats à l'élection présidentielle, la nécessité et l'urgence pour notre pays de procéder à un examen approfondi de notre ensemble éducatif en vue de mettre en chantier les réformes à réaliser dans les années qui viennent. Simultanément, elle formait une Commission exploratoire, présidée par Monsieur Gustave Choquet, membre de l'Académie, et chargée de recenser les principaux problèmes et de formuler des suggestions pour engager la recherche des solutions. Cette commission a rédigé trois important rapports qui ont été examinés et amendés par le Comité des Études et Rapports de notre Compagnie. Pour éviter les retards qu'aurait entraînés une mise au point des rédactions, le Bureau de l'Académie a décidé de transmettre sans plus attendre ces rapports aux autorités gouvernementales pour leur permettre d'en tenir compte au moment où s'élaboraient les grandes lignes des réformes. Il y a joint un document de synthèse mettant en évidence la continuité des principales propositions avec celles qui firent l'objet des nombreuses interventions de notre Compagnie depuis une dizaine d'années. Enfin dernièrement, lorsqu'à été rendue publique Vintention des plus hautes autorités de l'État d'inclure une licence d'enseignement dans la formation universitaire des instituteurs, l'Académie a adopté à nouveau une courte déclaration indiquant à quelle condition les conséquences dangereuses que pourrait avoir une telle disposition pouvaient être évitées.

Il a paru bon à la Rédaction de La Vie des Sciences de publier aujourd'hui quelques uns de ces documents exprimant les réflexions et les recommandations de l'Académie sur ces questions si importantes pour l'avenir scientifique de notre pays, comme elle l'avait déjà fait en 1986 (1). Une première partie donne les conclusions résumant les réflexions et les propositions élaborées durant l'année écoulée au sein de notre Compagnie et transmises par le Bureau aux autorités gouvernementales. On y trouve les textes des deux Déclarations de l'Académie et, entre les deux, une présentation très condensée des recommandations des trois rapports rédigés par la Commission exploratoire. Il n'a pas été possible, compte tenu de leur longueur, de publier ici le texte intégral de ces rapports mais une copie de ces derniers peut être adressée à tout lecteur qui en fera la demande auprès du Secrétariat de l'Académie.

La deuxième partie dresse un bilan des travaux de l'Académie depuis une dizaine d'années présenté sous une forme dégageant les grands axes de ce que pourrait être aujourd'hui une politique préparant l'avenir à long terme. L'article s'appuie naturellement sur les textes des rapports de la Commission exploratoire auxquels il est fait très souvent référence, mais également sur des textes antérieurs de notre Compagnie, publiés pour la grande majorité d'entre eux dans La Vie des Sciences.

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 1, p. 45-58


Académie des Sciences

I. Une année de réflexions et de propositions

à l'Académie des Sciences

Déclaration de l'Académie des Sciences

sur le système éducatif français (21 mars 1988)

« Des voix autorisées — ministres, personnalités de la politique et de l'économie, chercheurs, enseignants — se sont élevées pour souligner l'urgence et la gravité des problèmes auxquels est affronté notre système éducatif. L'Académie se félicite de cette mobilisation des esprits. Il y va de notre identité culturelle. Il y va de la vitalité de notre recherche et de notre économie. La formation doit être au premier rang de nos préoccupations.

L'enseignement élémentaire est la base de tout l'enseignement; il faut donc revoir la formation des instituteurs, qui doit les rendre aptes à enseigner également bien le français et le calcul, ainsi qu'à initier aux sciences expérimentales.

Mais, dès ce printemps, il faut, pour éviter le pire, dans les enseignements élémentaire et secondaire, tâcher de remédier au désarroi des enseignants et à l'insuffisance de leur recrutement en quantité et en qualité; il faut notablement améliorer leurs salaires et leurs conditions de travail, établir un plan stable de recrutement à moyen terme, revoir le système des affectations.

Très rapidement, il faudra favoriser une orientation des élèves, dès la classe de Terminale, vers des filières diversifiées, en tenant compte de leurs goûts, de leurs capacités, et des besoins du pays. Ainsi, les formations longues des universités pourront accueillir et encadrer les étudiants aptes à en suivre les enseignements et, après que le taux et le nombre des allocations de recherche aient été relevés, conduire jusqu'au Doctorat tous ceux qui doivent pouvoir répondre aux besoins de haute qualification de tous les secteurs de notre société. Un ensemble diversifié de formations plus courtes, à caractère professionnel plus marqué, recevrait ceux qui se destinent à entrer rapidement dans la vie active, tout en offrant des passerelles à tous les niveaux vers les formations longues.

A côté des problèmes d'information et d'orientation concertée, les conditions de vie des étudiants doivent être améliorées et diverses mesures doivent inciter de très bons étudiants à se tourner vers les carrières de l'enseignement secondaire et de l'enseignement supérieur. Dans ces formations universitaires plus accueillantes, les professeurs devront , adapter leur enseignement aux besoins des étudiants.

Pour former en nombre suffisant de bons enseignants du second degré, les universités devraient pouvoir recruter dès leur première année (voire même dès la classe de Terminale, avant qu'ils n'aient opté sur les IUT ou les classes préparatoires aux Écoles d'Ingénieurs) des étudiants de valeur en leur offrant des bourses substantielles et en les encadrant solidement au sein d'organismes de type IPES. Dans les universités, on doit assurer un flux suffisant de jeunes enseignants-chercheurs de qualité pour faire face aux départs massifs à la retraite autour de l'an 2000, et au développement nécessaire de l'enseignement universitaire.


Sur la rénovation du système éducatif

Il faut donc dès maintenant créer en nombre suffisant des postes de professeurs ouverts au concours extérieur. Les enseignants-chercheurs doivent, de plus, voir leurs conditions de travail améliorées, en ce qui concerne leurs charges notamment.

Il convient enfin d'engager sans plus tarder la mutation progressive de notre système éducatif, en y comprenant bien entendu la formation permanente et la formation technique. Face à l'évolution accélérée de notre Société, à l'avènement d'une Europe plus unifiée, à la mondialisation des communications de la technique et de l'économie, des changements profonds doivent faire évoluer nos habitudes et nos structures. Une volonté peu commune et une mobilisation des moyens financiers indispensables sont requises pour une transformation comparable à celle que notre pays sut réaliser au XIXe siècle. »

Synthèse des recommandations de la Commission exploratoire

L'Académie approuve, d'une façon générale, les idées concernant : l'amélioration des

conditions de vie dans les établissements; la réduction de programmes excessifs pour les

élèves; la régularisation des recrutements pour les Maîtres; la revalorisation du statut

social des enseignants, probable condition préalable à une réelle sauvegarde du système

éducatif français.

Enseignement technique et enseignement général

La France a besoin d'un enseignement technique parallèle à l'enseignement général, avec des étapes comparables et des passerelles à chaque étape; rejoignant l'enseignement supérieur technique sans solution de continuité, avec une divergence finale vers les formations d'ingénieurs à Bac+ 5 qui existent largement et celles à Bac+4 qui sont à développer, selon un modèle qui rappelle le système allemand. C'est seulement ainsi qu'il sera possible de conduire 80 % des jeunes français au Baccalauréat en satisfaisant les besoins de l'économie.

Enseignement primaire

L'effort principal pour les élèves devrait être dirigé en priorité vers quatre objectifs : lire, écrire, compter, observer.

Les Maîtres doivent avoir une formation pluridisciplinaire ; si le niveau de la Licence est retenu pour leur formation — ce qui n'apparaît ni nécessaire ni souhaitable à l'Académie — ce doit être une licence adaptée à l'enseignement primaire, complétant la formation acquise pendant le DEUG.

La licence d'enseignement primaire doit être différente de la licence d'enseignement secondaire.


Académie des Sciences

Enseignement secondaire

Les collèges appellent deux évolutions principales :

— le relèvement de leur qualité, qui a beaucoup baissé, par le recrutement de professeurs certifiés appelés à les prendre progressivement en charge complètement;

— l'instauration de classes de niveau, seules structures permettant d'épanouir les élèves en fonction de leurs aptitudes.

Les lycées, pour maintenir la qualité qu'ils ont conservée jusqu'à présent, et accroître leur efficacité, ont besoin :

— d'un recrutement suffisant et régulier de professeurs certifiés et agrégés;

— d'une véritable diversification des baccalauréats : la suprématie de la filière « C » devrait être limitée à sa réelle utilité en fonction de l'aval professionnel.

Enseignement supérieur

Les premiers cycles, pour jouer leur rôle à côté des classes préparatoires aux Grandes Écoles, des IUT et des BTS, devraient offrir deux voies :

— une voie courte, ouverte à tous, complétée par une année de formation professionnelle;

— une voie longue, ouverte sur dossier, se poursuivant par la Licence et la Maîtrise.

Les seconds cycles n'appellent pas de changements fondamentaux, sauf un renforcement des relations avec le monde économique en plus des seules maîtrises des sciences et techniques dont le nombre devrait être augmenté.

Les troisièmes cycles devraient être développés dans la perspective du proche renouvellement de générations dans le monde professionnel; réduire l'accès aux 3e cycles aujourd'hui serait préparer un goulot d'étranglement scientifique et technique pour le très proche futur.

Problèmes spécifiques

Les Maîtres de l'enseignement supérieur. Pour le premier cycle, il ne faudra pas hésiter à faire appel, pour partie, à des professeurs agrégés de l'Enseignement secondaire, afin que les « classes » aient des effectifs raisonnables. Pour les 2e et 3e cycles, un jeu différent de services d'enseignement et de recherche devrait permettre d'adapter les charges d'enseignement de chacun en fonction des besoins, des aptitudes et des choix. Ce qui implique une structure d'évaluation permanente des enseignants-chercheurs.

La formation des Maîtres des Enseignements secondaire et primaire devrait, dès le DEUG, être coordonnée au sein d'« Instituts Universitaires de Formation des Maîtres » à créer dans les universités.

La formation des Ingénieurs, à côté des Grandes Écoles, devrait être augmentée dans les universités, en liaison avec les milieux professionnels, pour des formations à Bac+4 — ces dernières trop rares — et Bac+5.


Sur la rénovation du système éducatif

La recherche universitaire demande, avant tout, le rétablissement d'un recrutement régulier : d'ores et déjà, le manque d'enseignants-chercheurs qualifiés est le goulot d'étranglement pour le développement de l'Enseignement supérieur dans les prochaines années.

L'état des lieux universitaires est souvent au-dessous du seuil de dignité; leur réfection est indispensable.

Enfin, il apparaît à l'Académie qu'un développement harmonieux des Universités ne pourra réellement se faire qu'en liaison avec les régions : sans être totalement girondin, il convient de dénoncer l'actuel excès jacobin.

Conclusion

L'Académie pense que, sans avoir à être bouleversé, le système éducatif français peut être profondément rénové, par touches successives, selon une procédure qui pourrait apparaître dans le futur comme l'équivalent de l'oeuvre de Jules Ferry à la fin du siècle dernier.

Déclaration du Bureau de l'Académie des Sciences (27 février 1989)

L'Académie, qui soulignait récemment à nouveau la nécessité d'une rénovation profonde de notre système éducatif, suit avec un vif intérêt les grands efforts que le Ministre de l'Éducation nationale accomplit dans ce dessein.

Elle souhaite aujourd'hui préciser un point déjà évoqué dans le récent rapport remis aux autorités gouvernementales. Elle considère que la formation universitaire des enseignants du cycle primaire ne peut être identique à celle des enseignants du secondaire : les premiers ont besoin de données qui sont moins nécessaires aux seconds, et inversement. Si donc la préparation d'une licence était exigée pour les uns et les autres, l'Académie suggère que deux programmes distincts soient prévus, la licence préparatoire à l'enseignement primaire ne pouvant être identique à la licence préparatoire à l'enseignement secondaire.

Pour une mise en place efficace de ces deux filières, l'Académie rappelle son voeu recommandant la création d'« Instituts Universitaires de Formation des Maîtres ».


Académie des Sciences

II. Pour une politique de l'Éducation Nationale

Bilan des travaux et des recommandations de l'Académie

L'Académie des Sciences a toujours placé au premier rang de ses missions la vigilante attention qu'elle entend porter à la formation de notre jeunesse. La qualité de cette formation commande en effet l'essor scientifique et technique de notre pays. Les occasions ne lui ont pas manqué, ces dix dernières années, d'exprimer le résultat de ses réflexions et ses recommandations sur tel ou tel problème à l'ordre du jour de notre Éducation Nationale, soit à la demande du gouvernement, soit de sa propre initiative (2).

Au moment où l'ensemble du gouvernement et du pays se trouve mobilisé au service d'une cause fort heureusement reconnue unanimement prioritaire, il a paru opportun de mettre en lumière quelques éléments puisés dans le capital de réflexions de notre Compagnie, et de marquer ainsi que l'Académie ne reste pas à l'écart de l'action qui s'engage, qu'elle l'accompagne et qu'elle est toujours prête à lui apporter son concours.

Les voies offertes à notre jeunesse

Donnée très positive, l'accord quasi unanime sur un objectif extrêmement ambitieux : quatre vingt pour cent d'une classe d'âge doivent atteindre le niveau du baccalauréat! Même si cet objectif n'implique pas que ces jeunes soient tous titulaires de ce diplôme, la mutation visée est comparable à celle réalisée il y a un siècle lorsque le certificat d'études fut l'horizon auquel était appelée la majorité des jeunes français comme point de départ de leur insertion dans une vie professionnelle. Deux questions générales se posent pour mettre les étudiants dans de bonnes conditions pour conduire cette transition, capitale dans leur vie, que va représenter le baccalauréat. Quelles orientations leur sont ouvertes une fois acquis ce niveau ? Pour préparer le choix qu'ils auront à faire, quels baccalauréats leur proposer? Quelques recommandations sur les évolutions à partir de la situation actuelle sont ici présentées.

Les deux premiers cycles universitaires

Il convient de mettre un terme à l'ambiguïté, de fait maintes fois dénoncée à juste titre, qui pèse sur les premiers cycles de nos universités et qui constitue, a-t-on pu dire, l'échec majeur de l'Enseignement Supérieur. Il suffit, selon la suggestion mise en avant par le Comité National d'Évaluation, de créer progressivement au sein des universités deux premiers cycles ayant des objectifs et des modalités de recrutement distincts [C].

— Un premier cycle, ouvert à tous les bacheliers, conduisant en deux ans à un véritable Diplôme d'études universitaires générales, « auto-suffisant », normalement complété par une année de formation professionnelle organisée en étroite liaison avec les professions et ouvrant directement l'entrée dans la vie active.

— Un premier cycle de deux ans préparant aux études universitaires longues (licence, maîtrise, doctorat...) accessibles sur dossier dans des conditions analogues à celles posées


Sur la rénovation du système éducatif

par les premiers cycles actuels non pris en charge, directement au moins, par les universités (classes préparatoires des lycées aux concours des Écoles d'Ingénieurs, aux Brevets de Techniciens Supérieurs, Instituts Universitaires de Technologie) ou encore par les premiers cycles ouvrant les études de médecine, d'odontologie, et de pharmacie.

— Des « passerelles », dans l'un et l'autre sens, permettront des changements d'orientation entre ces deux premiers cycles.

Filières de formation des ingénieurs et des techniciens [2]

La filière traditionnelle de formation de nos ingénieurs débute par une étape de préparation de deux ou trois ans aux Concours des écoles effectuée dans les lycées, et se poursuit dans chaque école par une scolarité de trois ans incluant un stage et conduisant au diplôme. Ces écoles savent jouer de leur autonomie et de facilités de fonctionnement pour mériter une réputation justifiée. Deux recommandations exprimées depuis longtemps par l'Académie méritent d'être rappelées : que, s'il est jugé souhaitable d'accroître les effectifs, on augmente les recrutements d'élèves titulaires d'une bonne maîtrise plutôt que de créer de nouvelles classes préparatoires dans les lycées [3] et que l'on continue d'encourager en plus grand nombre les ingénieurs à compléter leur formation par un doctorat [4].

A cette voie traditionnelle se sont ajoutées, plus récemment, d'autres formations d'ingénieurs dans des cadres universitaires : soit par un complément d'une Maîtrise de Sciences et Techniques, soit dans des Instituts Nationaux des Sciences Appliquées, soit à l'Université Technologique de Compiègne. Cette dernière formule a fait ses preuves et pourrait être développée [9].

Les étudiants titulaires d'un baccalauréat peuvent acquérir en deux ans une formation de technicien bien spécialisée avec un BTS ou plus large avec un DUT. La formule de nos IUT qui conduisent à ce diplôme s'est développée avec succès. Elle attire d'excellents étudiants et les meilleurs ont souvent la faculté de compléter leur formation soit à l'Université soit dans une école d'ingénieurs.

Cet ensemble de formations longues à Bac+ 5 pour les ingénieurs et à Bac+ 2 pour les techniciens fonctionne de façon satisfaisante. Toutefois dans les perspectives européennes, on peut se demander, comme le fait le récent rapport Bloch, s'il ne conviendrait pas prochainement d'envisager une nouvelle filière d'« ingénieurs-techniciens » ( 3) à Bac+4. Il conviendrait de la définir pour qu'elle accueille en majorité des tutilaires d'un baccalauréat de technicien, tout en restant ouverte, naturellement, à des titulaires d'un BTS ou d'un DUT. Elle constituerait une filière intéressante offerte aux bons élèves de l'enseignement secondaire technique [C].

Les baccalauréats

L'autre faiblesse majeure du système actuel, à côté de celle créée par l'ambiguïté de notre DEUG, est celle dénoncée depuis longtemps, mais toujours présente, due au rôle sélectif que l'on fait jouer, de fait, au baccalauréat C [6]. Des aménagements de sections,


Académie des Sciences

de programmes, de coefficients peuvent aider à la pallier. Cependant, pour faire disparaître une habitude aussi néfaste mais aussi fortement ancrée dans les moeurs, il faut provoquer un double changement de comportement. D'abord en aval, auprès de ceux qui définissent les conditions d'accès dans les filières recherchées, où une formation très forte en mathématiques n'est nullement prioritaire : qu'ils mettent en avant dans leur critères de recrutement une initiation de qualité dans les matières qui les intéressent au premier chef, la biologie pour les médecins, les langues pour les écoles de commerce, l'économie pour les filières de gestion [7]. Ensuite au niveau des lycées et très particulièrement des enseignants. Si leur premier devoir est de donner aux élèves des enseignements de qualité, ce qu'ils font bien, il leur revient également d'aider les élèves, dès l'entrée en seconde, à découvrir leurs talents et leurs goûts et à s'orienter dans la perspective d'un choix d'activité professionnelle qu'ils ne peuvent éluder, beaucoup plus que de les classer par ordre de mérite selon une échelle de valeurs nécessairement artificielle [4]. Tâche extrêmement difficile mais éminement éducative, car il s'agit de l'éveil d'une prise de conscience d'une personnalité qui se découvre et qui se forme à travers les choix qui se présentent à elle.

Les Commissions régionales de Coordination des premiers cycles

Il est souhaitable que tout ce réseau de filières de premiers cycles et de passerelles à aménager entre elles soit l'objet de l'attention vigilante d'une instance qui s'assure de son bon fonctionnement, favorise les coordinations nécessaires, constate la bonne distribution des flux. C'est dans le cadre régional que ces commissions pourraient, semble-t-il, fonctionner le plus efficacement [C].

Les enseignements qui préparent au baccalauréat

Pour répondre à cette ambition nationale de conduire quatre vingt pour cent d'une classe d'âge à un niveau d'études aussi élevé, il faut de bonnes écoles primaires, de bons collèges, de bons lycées qui dispensent des enseignements, tant classiques que techniques, de qualité. Dans l'ensemble inépuisable de réflexions, d'analyses, de voeux, très souvent d'un intérêt certain, que suscite une telle exigence, seuls quelques points seront soulignés ici.

(a) Les programmes doivent être allégés. Cette nécessité s'impose à toutes nos formations et sur ce point capital l'accord est quasi unanime. Cela n'implique pas que l'opération soit aisée car il ne suffit pas de supprimer quelques lignes dans un texte. Elle ne prend son sens que si l'on aide l'enfant à acquérir un fonds culturel qui lui permette de ne pas se trouver complètement étranger dans le monde où il est appelé à vivre [8]. Un exemple peut montrer la difficulté et la nouveauté des questions qui peuvent se poser. Que faut-il enseigner comme matières scientifiques, disons en physique ou en biologie, à des élèves littéraires qui n'auront jamais à en faire usage [7]? Ce qui importe évidemment, c'est l'idée aussi exacte que possible qu'ils garderont de ce que sont ces disciplines scientifiques, de leur impact sur l'aventure humaine dans ses dimensions culturelles,


Sur la rénovation du système éducatif

économiques et sociales, plus que tel ou tel énoncé d'une loi supplémentaire inscrite à leur programme.

Dans le passé, trop de réformes globales de programmes se sont succédées. On ne saurait donc trop recommander d'expérimenter les innovations avant de prescrire leur introduction généralisée [A, B].

(b) Cesser de donner la priorité à l'abstrait sur le concret pour favoriser les multiples passages, et dans les deux sens, entre le concret et l'abstrait. La recommandation ne vaut pas seulement pour l'enseignement technique. Il faut lutter contre cette tendance bien ancrée dans notre fonds culturel mais qu'il ne faut pas laisser se développer de façon trop systématique [9].

(c) Éviter les redoublements est aussi un voeu assez général et justifié. Mais il faut prendre les dispositions adéquates pour éviter les classes alourdies par les éléments faibles qui découragent les élèves qui ont envie de progresser plus rapidement; par exemple, organiser des classes de niveau ou prévoir pour certains élèves de faire en deux ans, un programme prévu en un an pour la majorité d'entre eux, ou en trois ans un parcours normalement prévu en deux ans [A, B].

Les enseignants :

l'indispensable revalorisation des situations, des carrières, des perspectives

L'accord est, là encore — et fort heureusement — quasi général. De l'effort financier considérable qui va être demandé au pays dans les années qui viennent, une part importante doit être consacrée à l'accroissement des rémunérations des enseignants de tous les ordres d'enseignement, de la maternelle au supérieur, ces dernières ayant subi dans le passé récent des détériorations continuelles, bien mises en évidence, et dont on commence maintenant à réaliser les conséquences qui pourraient être à très court terme catastrophiques. Les modalités selon lesquelles cette revalorisation financière doit s'opérer ne relèvent pas du domaine de compétence de l'Académie. Une part significative doit récompenser la qualité des services rendus et des résultats, une autre doit prendre en compte les efforts importants d'initiatives et d'adaptation qui seront demandés à tous les enseignants durant cette période décisive où doit s'opérer la mutation de notre système éducatif. De ce point de vue, l'utilisation de contrats ne saurait être exclue car ils ont l'avantage de la souplesse et peuvent favoriser aussi bien l'initiative pédagogique que la reconnaissance et l'évaluation des efforts.

Car la revalorisation ne saurait se réduire au strict plan financier, capital répétons-le. Prioritaire certes, elle doit cependant accompagner un renouveau fondamental dans les recrutements, dans la formation, dans le déroulement et les perspectives de carrière.

Les enseignants-chercheurs universitaires

Certains errements de ces dernières années ont souvent, de fait, pénalisé les enseignantschercheurs des départements les plus productifs et justifié certaines amertumes.

Les normes GARACES, qui réglementent les effectifs des enseignants dans les universités, ne tiennent pas compte, tout au moins pas suffisamment, des réalités spécifiques aux


Académie des Sciences

formations et de la qualité des enseignements délivrés ainsi que des thèses préparées, et devraient être amendées [C, 5].

Les enseignants-chercheurs, par définition, doivent pouvoir conduire une activité de recherche dans des conditions convenables. Il faut donc poursuivre très activement l'action en faveur de la recherche universitaire en donnant à la Direction qui l'anime les moyens de répartir judicieusement entre les universités et les formations le budget accru dont elle doit disposer. A cet effet, il est recommandé de mettre en place auprès de cette Direction un Comité des Moyens de la Recherche [C, 4].

Une évaluation de la valeur pédagogique des enseignants prenant en compte la qualité du cours et de son exposé ou de l'encadrement, comme l'intérêt très concret porté aux étudiants, est aujourd'hui inexistante. Des essais dans ce sens, à l'image de ce qui existe dans des universités étrangères, devraient être encouragés, voire réglementés [C]. Cette valeur pédagogique devrait intervenir, au moins, dans les progressions de carrière.

L'évaluation continue des enseignants-chercheurs fondée sur un rapport d'activité rédigé par chacun à intervalles réguliers favoriserait une prise de conscience des intéressés qui pourraient alors, en accord avec leurs autorités universitaires, moduler leurs activités de recherche et d'enseignement [C, 5].

Beaucoup de souplesse doit être introduite dans un système aujourd'hui trop rigide. Mais rien ne sera possible si n'est pas mis en place un plan de recrutement des effectifs prenant en compte les croissances régulières nécessaires, et soustrayant ces recrutements aux aléas annuels des situations budgétaires ou des départs en retraite. Il est de plus très souhaitable d'accorder aux universités des facilités plus grandes pour recruter, à titre temporaire et strictement limité, des assistants ou des moniteurs d'enseignement. Cela donnerait une souplesse de gestion bien utile et stimulerait les initiatives.

Les enseignants-docteurs

L'accroissement inévitable du nombre des étudiants de premier cycle exige la création d'un nouveau corps d'enseignants si l'on veut éviter une situation rapidement explosive et inextricable. Ce nouveau corps à mettre en place progressivement serait constitué par des titulaires d'un doctorat (4). Ces enseignants auraient vocation à enseigner dans les premiers cycles universitaires à côté des enseignants-chercheurs [C]. Mais il serait très souhaitable que l'on commence à trouver prochainement des membres de ce nouveau corps, titulaires d'une agrégation, parmi des professeurs des classes préparatoires des lycées ou parmi les enseignants de nos IUT.

Ces enseignants, non astreints à mener une activité de recherche, auraient un service d'enseignement leur permettant des activités complémentaires — et ils devraient y être encouragés. Outre le souci de se tenir informés des progrès de leur discipline en suivant des séminaires appropriés, ils pourraient, à titre d'exemple, procéder à la rédaction de cours ou de mises au point pour les étudiants, mener des travaux d'histoire des sciences dans le but de fournir à la communauté des enseignants en sciences des documents facilement utilisables pour leur enseignement, rédiger des articles ou des ouvrages de popularisation de la science, avoir une activité de type muséologique au service du public dans des établissements type Palais de la Découverte ou Cité des Sciences et de l'Industrie, Maisons de la Culture, etc.


Les enseignants du primaire et du secondaire

Sur la rénovation du système éducatif

On sait combien il est urgent de s'attaquer à une profonde rénovation dont le grand public vient de découvrir la gravité : dans certaines disciplines le renouvellement dans des conditions normales des postes libérés est aujourd'hui compromis. Ce renouveau doit s'exercer au niveau des recrutements, des formations premières et continues, et des perspectives de carrière.

Les formations premières comprennent d'une part une formation générale universitaire, soit de deux ans sanctionnée par un DEUG « auto-suffisant » (5), soit de trois ans sanctionnée par une licence d'enseignement, soit de quatre ans sanctionnée par une maîtrise d'enseignement; et d'autre part une formation pédagogique et professionnelle assurée par des établissements recrutant par concours : les Écoles Normales pour les instituteurs ouvertes aux titulaires d'un DEUG, les Centres Pédagogiques Régionaux recrutant par les concours des CAPES ouverts aux titulaires d'une licence ou par les concours d'Agrégation [A, B, C].

La nouveauté à introduire, est la création en principe auprès de chaque université, de Centres de Formation des Maîtres, doués d'une forte structure et d'une large capacité d'initiatives et d'encadrement. Ces centres pourraient recruter leurs étudiants sur dossier, dès leur sortie de terminale et à tout stade des études universitaires. Ils auraient à développer leur publicité en faveur des carrières d'enseignant dès les dernières classes des lycées, comme le font les IUT, les STS ou les écoles d'ingénieurs. Des bourses substantielles et nombreuses pourraient être distribuées par sélection, sur dossier, mais avec des exigences strictes. Les étudiants de ces centres, bien encadrés, pourraient faire leurs études universitaires dans de bonnes conditions, tout en commençant à recevoir des compléments de formation, pédagogiques entre autres, les préparant aux concours de recrutement.

La formation continue doit être fortement encouragée et ceux qui la reçoivent dans de bonnes conditions doivent s'en trouver gratifiés, notamment par des progressions de carrière intéressantes. Elle devrait être assurée dans les Écoles Normales et dans les Centres Pédagogiques Régionaux.

Bien des questions ouvertes sont à préciser. Convient-il de différentier les CAPES pour les collèges et les lycées, les premiers étant organisés au niveau régional (6), les seconds au niveau national? Ne convient-il pas de rapprocher les Écoles Normales, les Centres Pédagogiques Régionaux, les Centres de Formation des Maîtres dans des Instituts Pédagogiques qui seraient ainsi de grands laboratoires d'élaboration et de mise au point, de pédagogies concrètes, de véritables centres de recherche de pédagogie? Les réponses à ces questions requièrent des réflexions complémentaires.

Dernière suggestion importante relative aux évolutions de carrières. La perspective de devoir enseigner durant toute une vie professionnelle à des élèves qui auront toujours le même âge peut faire hésiter et décourager certains candidats, et sans doute parmi eux se trouveront ceux qui sont potentiellement les meilleurs. Aussi convient-il de bien mettre en évidence toutes les voies qui restent ouvertes à celui qui s'engage, à l'intérieur du système éducatif lui-même grâce à l'accroissement des capacités acquises, notamment par la formation continue et compte tenu de la variété des fonctions qui doivent s'y exercer. Serait-il même déraisonnable d'envisager que des enseignants ayant rempli avec zèle leur fonction d'enseignant pendant une longue période soient autorisés, et même aidés, à


Académie des Sciences

rechercher un autre type d'activité et à s'y préparer? Pouvoir assurer aux jeunes qui s'interrogent qu'en préparant une carrière d'enseignant, ils ne s'engagent pas dans une voie où toute autre issue leur est à jamais fermée mais qu'elle reste ouverte, à certaines conditions, à d'autres activités variées, serait de nature à favoriser grandement les vocations naissantes.

Sur les enseignants des filières techniques

L'Académie a souvent proposé comme objectif d'une large portée sociale et nationale, celui de donner aux filières techniques du second degré, une réputation, un attrait et un prestige comparables à ceux dont se trouvent créditées les filières classiques. Pour y parvenir, une condition est nécessaire : réussir à ce que les enseignants du technique aient un statut culturel comparable à celui des enseignants du classique, ce qui implique de leur donner, dans les universités, la formation générale dont ils ont besoin — licence ou maîtrise [6]. C'est un objectif majeur à long terme sur lequel l'Académie n'est pas parvenue à susciter les convictions et à mobiliser les énergies. Certains indices semblent montrer que le moment est peut-être venu de s'y engager avec résolution. L'occasion favorable ne devrait pas être manquée.

Cette condition très importante n'est certes pas suffisante pour parvenir à rendre les filières techniques aussi attrayantes que les autres. Il faudrait de plus que les formations secondaires techniques forment un ensemble comparable, et en quelque sorte parallèle, à celui des formations secondaires classiques, de façon que l'élève l'ayant parcouru avec des résultats satisfaisants puisse escompter parvenir à une carrière intéressante plus prestigieuse que celles auxquelles il peut raisonnablement aspirer actuellement [B]. A cet égard, la création d'une catégorie d'ingénieurs-techniciens envisagée plus haut, à Bac+4, qui serait prioritairement réservée aux élèves des filières techniques, serait un élément très favorable.

Les établissements : des communautés ouvertes sur le monde

Les établissements scolaires et universitaires ne doivent pas être seulement des lieux où s'effectue la transmission des connaissances et des savoirs. Le titre de cette dernière section définit clairement le voeu ou l'objectif visé. Il est double! Il concerne la qualité du climat régnant au sein de l'établissement comme des relations — dans les deux sens — qu'il entretient avec l'extérieur. Il est essentiel : l'éducation, qu'elle soit morale, sociale, civique, nationale, n'est pas d'abord l'objet de textes ou de leçons; elle se vit dans la pratique et l'expérience; elle se transmet par l'exemple dans la quotidienneté des relations; elle est reçue par celui qui, souvent sans être immédiatement conscient, y trouve une aide privilégiée pour se découvrir tout en découvrant le monde.

De longs discours sont, ici plus qu'ailleurs, superflus. Il suffira donc d'évoquer quelques points-clés, dans cette recherche où le résultat n'est jamais acquis définitivement, ni jamais atteint, même si tout est mis en oeuvre pour s'en approcher.

(a) Le rôle capital du chef d'établissement — directeur d'école, proviseur d'un collège ou d'un lycée, président d'université ou directeur d'Unité d'Enseignement et de


Sur la rénovation du système éducatif

Recherche — doit être reconnu. Le sujet est parfois, souvent peut-être, objet de controverse chez les enseignants. L'autorité ne doit pas être perçue comme une puissance hostile, tout au mieux malveillante ou indifférente. Elle doit pour cela s'exercer beaucoup moins à coups d'application de textes réglementaires ou de décisions intempestives que par le jeu relationnel subtil de qualités humaines que doit avoir celui choisi pour en être le responsable. C'est dire que ces qualités doivent, à côté de la compétence, constituer un facteur décisif pour ceux à qui revient d'effectuer ce choix.

(b) Est-il besoin de souligner la responsabilité propre des enseignants, qui s'exerce pour chacun d'eux dans le climat qu'il établit avec sa classe ou son cours, et plus collectivement dans le souci de coopération au sein de l'équipe d'enseignants ou avec les parents des élèves, pour n'évoquer ici que quelques-uns des multiples champs où elle trouve à s'exercer. Il ne faut pas sous-estimer le rôle de tous ceux qui, sans enseigner, concourent largement à établir ce bon climat que l'on recherche, que ce soit en assurant une gestion compréhensive ou en maintenant des locaux bien tenus et attrayants.

(c) Tout cela requiert que l'établissement dispose d'une autonomie et d'une capacité d'initiative réelles pour pouvoir mettre en oeuvre un véritable esprit d'entreprise. Et qu'il puisse trouver, proches de lui, des soutiens prêts à s'exercer. A cet égard, la décentralisation des responsabilités à l'échelon local et régional, doit être poursuivie avec réalisme et prudence certes, mais résolument et activement.

(d) L'ouverture au monde, elle aussi, ne doit pas être seulement objet de discours. Il n'y a pas si longtemps encore, le monde de l'éducation et le monde des entreprises s'ignoraient presque complètement quand ne se développait pas entre eux une certaine méfiance. Le climat à cet égard a bien changé; ils commencent à se découvrir solidaires. Il faut favoriser cette prise de conscience et la traduire en actes très concrets, à l'échelon local tout d'abord [9]. Les modalités envisageables sont multiples. Elles se découvrent rapidement si l'esprit et la volonté de coopération sont bien là. Avec le monde de la recherche également, des relations pourraient s'établir.

L'accès à la culture, la préparation de l'avenir professionnel passent prioritairement pour chaque élève par l'étude et le travail scolaire stimulés et contrôlés par les cours des maîtres et des professeurs. Mais ils peuvent largement bénéficier d'activités optionnelles de types plus récréatifs mais qui n'en sont pas moins éducatives. Des clubs scientifiques, des clubs développant la curiosité et l'habileté techniques, suscitent — ou susciteraient mieux s'ils étaient plus nombreux — les vocations scientifiques et techniques dont notre pays a réellement besoin.

L'école, le collège, le lycée, l'université devraient représenter pour ceux qui auront eu la chance de les fréquenter, des lieux où ils puissent reconnaître qu'il faisait bon y vivre, qu'ils y ont été aidés à découvrir leur identité et des sources irremplaçables d'épanouissement, et qu'ils y ont appris par l'expérience le prix incomparable des solidarités humaines. Un tel objectif n'est pas souvent atteint aujourd'hui. Mais ne méritet-il pas pleinement que notre pays lui consacre les efforts considérables qu'il faut lui demander ?

NOTES

( 1) « Quelques interventions récentes de l'Académie des Sciences concernant le Système Éducatif », La Vie des Sciences, 1986, 3, 363-383.


Académie des Sciences

( 2) Ce texte reprend pour l'essentiel le document de synthèse transmis au gouvernement avec les trois rapports de la Commission exploratoire. Chacun de ces rapports sera adressé à toute personne qui en fera la demande au secrétaire de l'Académie (23, quai de Conti, 75006 Paris). Les références aux rapports de la Commission exploratoire sont notées par une lettre (A, B, C), et celles aux textes antérieurement publiés par un chiffre. Ces références figurent ci-dessous.

( 3) Le rapport auquel il est fait référence est celui de Daniel Bloch, Président du Haut Comité ÉducationÉconomie, intitulé : « Les Formations Technologiques Supérieures : un éclairage européen, des propositions pour la France » (août-septembre 1988).

( 4) Nous avons ici laissé ouverte la question de l'opportunité d'une formation complémentaire, pédagogique entre autres. Les docteurs titulaires d'un certificat d'aptitude, type CAPES ou CAPET, et a fortiori d'une agrégation, classique ou technique, devraient pouvoir entrer directement dans ce corps.

( 5) La Commission exploratoire a envisagé deux formules possibles pour la formation générale des instituteurs. C'est la seconde qui est ici mentionnée. L'Académie n'avait pas fait encore son choix lorsque l'on a appris que le gouvernement avait l'intention de faire faire une licence d'enseignement aux futurs instituteurs. C'est une disposition qui ne semble nullement s'imposer du point de vue pédagogique et qui pourrait être dangereuse si certaines précautions n'étaient pas prises [10].

( 6) Saisissons l'occasion pour rappeler l'opposition ferme de notre Compagnie à un retour à une formule type PEGC [8]. Le CAPES régional doit être un vrai CAPES, ouvert à des étudiants titulaires d'une licence d'enseignement acquise dans une université.

REFERENCES

[A] Rapport de la Commission exploratoire sur le Système Éducatif : Enseignement Primaire.

[B] Rapport de la Commission exploratoire sur le Système Éducatif : Enseignement Secondaire.

[C] Rapport de la Commission exploratoire sur le Système Éducatif : Enseignement Supérieur. [1] Déclaration du 21 mars 1988, voir p. 46.

[2] La formation des ingénieurs et des techniciens (1986). Rapport CADAS 1986, La Vie des Sciences, 3, 245-260.

[3] Sur l'augmentation des effectifs des Écoles d'ingénieurs. Note du Bureau de l'Académie au Premier Ministre (1985), La Vie des Sciences, 3, 367-372 (1986).

[4] Adresse de l'Académie des Sciences à Monsieur le Ministre de l'Éducation Nationale. 1984, CR. Acad. Sel, Paris, 295, Vie Académique, 53-98.

[5] Note de l'Académie des Sciences à Monsieur le Ministre de l'Éducation Nationale, 1983. CR. Acad. Sel, Paris, 297, Vie Académique, 31-55.

[6] Sur la formation des maîtres de l'enseignement technique. Mémorandum du Bureau de l'Académie des Sciences (1985). 1986, La Vie des Sciences, 3, 376-378.

[7] Sur le projet de réforme des Lycées. Lettre du Secrétaire Perpétuel à Monsieur le Ministre de l'Éducation Nationale (1985). 1986, La Vie des Sciences, 3, 379-382.

[8] Sur la formation des professeurs d'enseignement général des Collèges (1986). Déclaration de l'Académie des Sciences. 1986, La Vie des Sciences, 3, 382-383.

[9] Les Sciences Mécaniques et l'Avenir Industriel de la France. Rapport au Président de la République. 1980, La Documentation Française.

[10] Déclaration du 27 février 1989, voir p. 49.

58


LA VIE DES SCIENCES -

Mathématiques et sciences humaines : des années soixante aux années quatre-vingts

Première partie

LES MESSACHES (*)

Je cherche le passage entre la science

exacte et les sciences humaines...

Le chemin n'est pas aussi simple que

le laisse prévoir la classification du

savoir. Je le crois aussi malaisé que le

fameux passage du Nord-Ouest

Michel Serres (1980)

Nous proposons dans cet article en deux parties, quelques éléments pour un bilan de l'évolution des rapports entre les mathématiques et les sciences humaines, en France, dans la période qui se situe des années soixante aux années quatre-vingts.

Dans cette première partie nous évoquons le contexte des années soixante : l'émergence de « nouvelles » mathématiques qui semblent particulièrement adaptées aux besoins de sciences humaines en plein développement; la réforme de renseignement des mathématiques dont la maîtrise apparaît indispensable dans la nouvelle société industrielle; enfin la domination du structuralisme dans le champ philosophique, non sans relation avec le bourbakisme triomphant. Nous retraçons ensuite l'apparition de diverses instances institutionnelles (recherche, enseignement) dont le but explicite est de travailler au rapprochement des mathématiques et des sciences de l'homme. Puis nous examinons comment chacune des disciplines concernées a participé à ce mouvement, en commençant dans cette partie par les mathématiques.

(*) Les auteurs sont : Michel Armatte (UER Économie appliquée, Dauphine), Jacqueline Feldman (Groupe d'Études des Méthodes de l'Analyse sociologique, CNRS), Bruno Leclerc (Centre de Mathématique Sociale, EHESS), Bernard Monjardet (UER Mathématiques, Université René Descartes), Marie-Ange Schiltz (Centre de Mathématique Sociale, CNRS) et Marion Selz-Laurière (Laboratoire d'Anthropologie Sociale, CNRS). Bernard Monjardet a été le maître d'oeuvre de l'article. Jacqueline Feldman en a proposé la première version.

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 1, p. 59-76


Les Messaches

Cet article a été écrit collectivement. Portant sur un sujet aussi vaste, divers, mouvant, à la fois très spécialisé et mal défini, cette entreprise ne pouvait être tentée que par une équipe aux compétences variées, ayant par ailleurs déjà réfléchi sur l'usage des mathématiques dans les sciences humaines.

La période choisie ne correspond pas à une rupture franche avec les années voisines. Elle ne s'accorde pas toujours, non plus, à l'histoire des diverses disciplines et, quand cela a semblé nécessaire à la compréhension des évolutions, nous n'avons pas craint d'en déborder, parfois assez largement.

Les dates indiquées n'en représentent pas moins des changements importants dans le monde académique, comme d'ailleurs dans la société « civile ». Dans les années soixante, les mathématiques se trouvent placées par beaucoup au coeur de la société moderne, jugées indispensables à son développement technique (1). Au plan académique, les récentes « sciences humaines », d'origine essentiellement « littéraire » et en quête de scientificité, pensent pouvoir la trouver dans la mathématisation. Les années quatre-vingts voient, par contre, l'expansion de l'informatique qui devient, d'une certaine manière, le nouveau pôle d'attraction des sciences humaines.

Le moment semblait donc venu de faire le point sur des développements qui furent marqués dans leurs premières années, par beaucoup d'enthousiasme et de grandes espérances.

Pour cette « histoire du temps présent », bien conscients de la difficulté de l'entreprise (*), nous nous sommes efforcés de présenter le plus exactement possible les faits eux-mêmes, sans bien sûr prétendre à l'exhaustivité. Mais nous avons aussi tenu à évoquer, dans la conclusion, quelques-uns des problèmes que n'a pas manqué de soulever cette « alliance nouvelle » entre lettres et sciences.

Ce bilan concerne principalement la France. Mais nous y avons inclus certains développements étrangers (essentiellement américains) qui, ou bien ont eu de l'influence sur les thèmes de recherche en France, ou bien, s'ils n'ont pas été repris par des groupes français, n'en sont pas moins reconnus comme intéressant le champ dont il est question ici.

Le contexte des années soixante

Les deux cultures et l'émergence d'une troisième

En 1959 paraissait aux Presses Universitaires de Cambridge un petit livre intitulé « Les deux cultures » (voir Snow, 1968). L'auteur, un physicien passé à la littérature, s'y plaignait de la distance qui sépare les modes de pensée de « deux groupes humains — d'intelligence comparable, de race identique, d'origine sociale relativement voisine, jouissant à peu près du même revenu — entre lesquels toute communication était pratiquement coupée et qui, sur le plan intellectuel, moral et psychologique, avaient si peu de points communs que l'on avait l'impression, en se rendant de Burlington House ou de South Kensington à Chelsea, de franchir un océan ».


Mathématiques et sciences humaines

Ces deux groupes humains, ce sont d'une part les scientifiques et de l'autre les littéraires, que fréquentait notre auteur, les premiers dans sa journée de travail, les seconds dans ses soirées.

En 1963, dans un « supplément aux deux cultures » lors d'une réédition de son livre qui avait suscité de nombreuses polémiques, Snow note une insuffisance de son premier texte : il a omis de mentionner ce qui lui paraît être l'émergence d'une « troisième culture ». Trop enfermé dans les définitions classiques des disciplines, il n'a pas été en mesure de distinguer les nouveaux courants intellectuels à l'oeuvre dans la société, et qui concernent principalement les sciences sociales et humaines.

Si la plupart de ces dernières naissent en effet au siècle dernier, c'est bien dans les années soixante qu'elles atteignent le grand public cultivé (Institut d'Histoire du Temps

Fig. 1. — Sociologie religieuse et simplexe. Dans une enquête sur les attitudes religieuses, 1 524 sujets ont répondu à quatre questions comportant chacune deux réponses possibles « positive » et « négative ». La figure montre la répartition des réponses des sujets; celles-ci sont représentées par des combinaisons de lettres : ainsi 172 sujets ont répondu négativement aux deux premières questions et positivement aux deux dernières; on remarque que la plus grande partie des réponses se trouve sur une chaîne du simplexe (ensemble des parties de {a, b, c, d}) marquée en gras. Les cas moins élémentaires portant sur des données non numériques de ce type, fréquentes en Sciences humaines, nécessiteront des techniques spécifiques d'« analyse des données » utilisant des outils mathématiques relevant de la combinatoire ou de l'algèbre (latticielle ou linéaire). (J. Maitre, Sociologie Religieuse et Méthodes Mathématiques, PUF, 1972, p. 180.)


Les Messaches

Présent, 1983). A partir de la Libération, et en l'espace d'un quart de siècle, elles connaissent une expansion sans précédent (2). Juste après la guerre, des instituts se créent ( 3) : citons ainsi 1TNED en 1945, le Centre d'Études Sociologiques en 1946, ITNSEE à la même date, en 1947 le VIe Section de l'EPHE, sans oublier, bien entendu, le développement du CNRS.

Une deuxième vague, aux alentours des années soixante, atteint, cette fois, les universités même : si la licence de psychologie existe depuis 1947, celle de sociologie est créée en 1958. La même année, la Faculté des Lettres prend la dénomination de Faculté des Lettres et des Sciences Humaines, tandis que, l'année suivante, c'est au tour de la Faculté de Droit de devenir la Faculté de Droit et des Sciences Économiques. La licence de Sciences Économiques apparaît en 1960.

Les sciences de l'homme revendiquent un statut de scientificité et se veulent en rupture avec les démarches spéculatives pures propres à la philosophie ou à la littérature. Elles se réfèrent aux sciences exactes et naturelles, qui semblent seulement avoir de l'« avance » sur elles. Une avance qu'elles ont bien l'intention de combler (4). Or le modèle de la science, c'est la physique, mathématisée au XVIIe siècle. D'où le rôle que semblent devoir jouer inévitablement les mathématiques, dans ces efforts de scientifisation. C'est ainsi que le Rapport Longchambon (1957) portant sur la Recherche Scientifique et le Progrès Technique, note : « Si l'économie est aujourd'hui la science sociale motrice, c'est que plus qu'une autre, elle s'est prêtée à une mathématisation précoce de ses méthodes » (5).

Des « nouvelles » mathématiques

Certes, des tentatives de mathématisation de l'action humaine n'avaient pas manqué dès le XVIIe siècle. Qu'on pense (notamment) à la création du calcul des probabilités (Pascal, Fermat, Bernoulli, Huygens...) ou encore à la mathématique sociale de Condorcet. Mais au XIXe siècle, à quelques exceptions près (Poisson, Cournot...) ces tentatives sont à peu près abandonnées au profit du développement d'une statistique (Quetelet, Galton, Pearson . . . ) beaucoup plus instrumentale. Si bien que, dans la première moitié du XXe siècle, les mathématiques appliquées apparaissent comme avant tout liées aux sciences physiques. Un tournant important se produit donc après la Deuxième Guerre mondiale quand elles s'arrachent à ce lien quasi-exclusif pour aborder tous les aspects de la réalité biologique ou sociale (Feldman, 1986).

Des livres de mathématiciens, d'ingénieurs ou d'économistes vont ainsi marquer les années de l'après-guerre.

C'est d'abord, en 1947, la théorie des jeux fondée par le mathématicien Von Neumann et l'économiste Oskar Morgenstern. En 1948, Norbert Wiener fait paraître son livre sur la cybernétique, une science nouvelle qu'il a créée avec le cardiologue Rosenblueth et où apparaissent les notions de rétroaction, de contrôle, de communication.

L'année d'après, les mathématiciens du Bell Institute, Shannon et Weaver (1949), publient leur théorie de l'information. En 1950 paraît le premier livre de recherche opérationnelle, par Morse et Kimball, tandis que, la même année, l'économiste Arrow axiomatise le problème du choix social. En France, le mathématicien G. Th. Guilbaud (1949, 1952) montre comment on peut retrouver dans ces travaux des considérations de


Mathématiques et sciences humaines

Pascal, Cournot ou Borel en ce qui concerne la théorie des jeux, ou encore de Condorcet pour ce qui est du choix social.

La tendance est alors à montrer que les mathématiques, sous une forme ou une autre, se retrouvent dans la société comme on les a trouvées dans la nature. Elles apparaissent ainsi à beaucoup comme le langage commun d'une société qui fait à la science une part plus large qu'aucune autre civilisation ne l'a faite avant elle.

On se bornera à citer Lévi-Strauss (1954) : « Ainsi donc, dans l'espace de quelques années, des spécialistes aussi éloignés en apparence les uns des autres que les biologistes, les linguistes, les économistes, les sociologues, les psychologues, les ingénieurs des communications et les mathématiciens, se retrouvent subitement au coude à coude et en possession d'un formidable appareil conceptuel dont ils découvrent progressivement qu'il constitue pour eux un langage commun » (6).

On verra plus loin ce qu'il en sera.

Les années soixante et la réforme de l'enseignement des mathématiques

Si ces années-là apparaissent comme un tournant, c'est du fait de la prise de conscience qui s'impose alors qu'une société nouvelle est en train de naître : nommée par certains post-industrielle, elle se caractérise par la place qu'y prend désormais la technique, sous ses formes diverses. Liée au progrès, la science est amenée à y prendre une part considérable. La cité scientifique cesse d'être réservée à une élite, et l'état de chercheur, par l'intermédiaire du CNRS et des autres organismes de recherche, devient une profession, et non plus une vocation. Cette mutation de la science, les possibilités nouvelles qu'elle offre, permettent que se développent méthodes et modèles, essais de compréhensions en tous genres. Les sciences sociales sont encouragées afin de mieux aider à connaître, comprendre, contrôler, les développements d'une société en évolution permanente. Quant aux mathématiques, elles semblent au coeur même de ces développements, puisqu'il s'agit de former les nombreux techniciens dont la société moderne a besoin (Chariot, 1986). En outre, dans le souci de démocratisation qui anime la société, cette mathématique, qui est partout, doit également être pour tous. D'où l'importance que prend l'enseignement de cette matière ésotérique, qui rebute le plus grand nombre.

En 1959, un colloque organisé par l'OCDE se tient sur ce thème. Ainsi amorcé, le mouvement de réforme se développe dans les années soixante. En France, le ministre de l'éducation crée, en 1967, la Commission Lichnerowicz, chargée de réformer l'enseignement des mathématiques et d'y introduire ce qu'on appelle alors les « mathématiques modernes ».

Citons Le Monde (2-3 avril 1967) : « Le problème des mathématiques et de leur enseignement est ainsi devenu le premier, peut-être, des problèmes mondiaux de l'éducation... Élever le niveau mathématique moyen de ses membres et former suffisamment de mathématiciens qualifiés sont devenus des impératifs de toute nation soucieuse de son indépendance et de ses possibilités de développement » (7).

Cette citation semble être l'écho direct de ces propos de Lévi-Strauss : « On peut, dès aujourd'hui, être certain que les jeunes spécialistes de sciences sociales devront désormais


Les Messaches

posséder une solide et moderne formation mathématique, sans quoi ils seront balayés de la scène scientifique » (8).

On comprend, dans ces conditions, que la réforme de l'enseignement des mathématiques, dépassant de loin le terrain de la pédagogie, fasse l'objet d'un véritable « débat

Fig. 2. — D'une distribution de courrier à la « partition de relèvement » d'une application : l'ensemble du haut (six cartes postales) est partitionné en trois classes par la relation d'équivalence « avoir même image » (« même destinataire »), associée à l'application représentée par les flèches. L'introduction brutale des « mathématiques modernes » à l'école primaire et élémentaire dans les années soixante-dix a conduit, en dépit des expériences pédagogiques aussi intéressantes que celles menées par Papy en Belgique ou par les IREM en France, à des excès de formalisme largement dénoncés. (Frédérique et Papy, L'Enfant et les Graphes, Didier, 1965, p. 60.)


Mathématiques et sciences humaines

de société » (9). Les enfants vont être initiés au langage ensembliste dès la maternelle, tandis que, déjouant le bon vouloir démocratique, l'élitisme va se fixer désormais sur cette discipline qui détrône le latin en tant que matière de sélection dans les lycées.

La mathématisation des sciences sociales apparaît ainsi dans un vaste mouvement social qui la dépasse largement et la pousse en avant, passant outre aux réticences qui la questionnent sur son bien-fondé. C'est ainsi que Lévi-Strauss répond dans le texte déjà cité, que si « les spécialistes de sciences sociales s'exposent à des aventures mathématiques », ce n'est pas tant pour les résultats obtenus, qui apparaissent minces, voire inexistants, que parce qu'« ils sont portés par un immense élan dont l'origine leur est extérieure ».

Et il rationalise alors l'acceptation de cet « élan extérieur » par l'argumentation classique : l'aide apportée par les mathématiques à la physique (10).

Si Lévi-Strauss se trouve ainsi souvent cité, c'est qu'il apparaît, en France, au coeur du mouvement qui porte les sciences de l'homme vers les mathématiques, en tant que le représentant le plus éminent du courant qui domine alors la scène philosophique des sciences humaines, à savoir le structuralisme.

Le structuralisme

La pensée structuraliste fait le pari qu'il existe dans les phénomènes sociaux, et à l'instar des phénomènes naturels, des structures sous-jacentes, universelles, permanentes, qu'il est du travail de la science de dévoiler.

Universalité : « les formes sont fondamentalement les mêmes pour tous les esprits, anciens et modernes, primitifs et civilisés » (11).

Permanence : « les sociétés humaines comme les individus — dans leurs jeux, leurs rêves ou leurs délires — ne créent jamais de façon absolue, mais se bornent à choisir certaines combinaisons dans un répertoire idéal qu'il serait possible de reconstituer » (12).

Universalité et permanence autorisent l'espoir que l'approche mathématique va se montrer fructueuse comme elle l'a été dans les sciences physiques. « L'apparition et le développement de la notion de structure dans les sciences humaines sont liés à la mathématisation à la fois explosive et récente de ces sciences », confirme Raymond Boudon dans l'Encyclopaedia Universalis (13).

La linguistique est la première des sciences de l'homme à avoir fait, au tournant du siècle, le pari structuraliste : en se détachant de la philologie classique et de ses traditions historicistes, elle s'attache à envisager les phénomènes de langage en toute extériorité et généralité, les décomposant en éléments premiers se situant dans des systèmes. On remarque ainsi la proximité des notions de système et de structure (Piaget, 1968).

Certes, l'économie, dans les années soixante, est déjà fortement mathématisée et donc trop technique pour être facilement accessible. Ou encore, elle repose sur des statistiques par nature approchées, qui répugnent à l'esprit structuraliste. Citons à nouveau Claude Lévi-Strauss :

« Ces mathématiques humaines... veulent résolument échapper au désespoir des grands nombres — ce radeau où agonisaient les sciences sociales perdues dans un océan de chiffres » (14).


Les Messaches

C'est donc la linguistique qui va apparaître comme la reine des sciences de l'homme : « dès le début, une constatation s'impose de la façon la plus absolue : dans l'ensemble des sciences sociales, la linguistique peut être mise de plain-pied avec les sciences exactes et naturelles » (15).

Si les structures du mouvement physique ont pu être prises en compte par le calcul différentiel et intégral qui s'est développé précisément pour cette prise en compte, c'est vers les structures mathématiques les plus élémentaires, algèbre, ordre, topologie, que l'on va se tourner pour les sciences de l'homme.

Elles représentent aux yeux du public français savant non mathématicien, l'expression même de la mathématique moderne, telle que la reconstruit, dans un édifice unitaire, l'équipe de Bourbaki. Celle-ci s'est attachée à dégager ces structures fondamentales sous-jacentes aux diverses formes de ce qu'on se met alors à nommer au singulier la « mathématique » (Bourbaki, 1962). L'adéquation de ces structures aux besoins des sciences humaines apparaît dans divers domaines. En 1952, un colloque sur « les structures mathématiques et les structures mentales » s'ouvre sur les exposés du mathématicien Dieudonné puis du psychologue Piaget. Ce dernier est frappé par la convergence entre ces deux exposés « entièrement indépendants » par deux auteurs « dont... le premier est connu pour son ignorance volontaire de la psychologie et le second pour son ignorance involontaire des mathématiques » : les structures fondamentales de Bourbaki correspondent à celles qu'il a lui-même trouvées dans l'étude empirique du développement de l'intelligence des enfants (16).

Après avoir reçu, d'abord, quelques rebuffades, Lévi-Strauss réussit à intéresser à sa problématique des mathématiciens : des structures de la parenté peuvent bien en effet être décrites dans le langage rigoureux de l'algèbre finie (Weil, 1949; Courrège, 1965). Le postulat structuraliste semble ainsi avoir été prouvé.

Le phénomène structuraliste apparaît spécifique de la France : même s'il a existé ailleurs, il n'a pas ainsi occupé une place centrale et quasi-exclusive. Il faut sans nul doute y voir l'influence du prestige alors, en France, des mathématiques pures, telles qu'elles ont été remises sur pied par Bourbaki. On peut ainsi remarquer que le développement des méthodes statistiques, de caractère beaucoup plus pragmatique, a été essentiellement le fait des Britanniques et des Américains. Dans les années soixante, les mathématiques appliquées sont quelque peu méprisées par les mathématiciens « purs » en France, et, pour être acceptées, elles doivent être remises « au propre », c'est-à-dire dans le langage bourbakiste (17). C'est également en France que la réforme de l'enseignement des mathématiques sera menée avec le plus d'audace, et, il faut bien le dire, le plus d'excès (Chevallard, 1980) (18).

Évolutions

Aspects institutionnels

Les deux courants fortement liés de mathématisation des sciences humaines et de « nouvelles » mathématiques recueilleront chez les mathématiciens français un écho limité. Certes il existait déjà quelques mathématiciens confirmés qui s'étaient intéressés aux


Mathématiques et sciences humaines

rapports entre mathématiques et sciences humaines, comme Darmois ou Fréchet, mais essentiellement du fait de leurs travaux en probabilités et statistiques. Par contre, de jeunes mathématiciens comme Berge, Debreu, Kreweras, Mandelbrot, Riguet, Schützenberger qui s'étaient orientés dans ces directions nouvelles, apparaissaient très marginaux par rapport aux institutions mathématiques françaises (ce qui avait conduit certains à s'exiler). Outre les centres orientés vers l'économétrie (essentiellement dans quelques facultés de droit et sciences économiques et quelques grandes Écoles) il se trouvera toutefois une institution non mathématique, la jeune mais déjà renommée sixième section de l'École Pratique des Hautes Études ( 19) pour créer en son sein un Centre de Mathématique Sociale (CMS) qui va jouer un rôle important. Notons qu'au départ en 1955, il s'agit d'un Groupe de Mathématique Sociale et de Statistique; cette dernière a droit de cité dans les sciences humaines et ceci depuis Quetelet au XIXe siècle. L'originalité est d'introduire les mathématiques, ou plutôt comme on dit alors, « la » mathématique, celle-ci englobant toutes les formes variées de ses subdivisions, y compris la statistique. D'où en 1968 la suppression de ce dernier terme dans l'appellation du Centre.

Le créateur du Centre, G. Th. Guilbaud, a pour ambition d'arriver à réduire la fracture entre « littéraires » et « scientifiques » qu'il juge infondée. On est à l'époque bien conscient que le rapprochement entre littéraires et scientifiques ne peut-être obtenu que par une pédagogie des mathématiques appropriée. Or Guilbaud, faisant preuve d'une originalité certaine, sait présenter les mathématiques à des non mathématiciens en les dégageant de leur gangue technique et en mettant en lumière les concepts essentiels et les modes possibles d'utilisation dans les sciences sociales, tout en insistant sur le fait que leur compréhension ne peut résulter que de leur pratique (20).

Les séminaires de Guilbaud à l'EPHE, suivis par de nombreux spécialistes de sciences humaines, vont exercer une influence profonde. En 1960 s'y adjoindra un séminaire pluridisciplinaire où ces spécialistes viendront y présenter des tentatives de formalisation mathématique dans leur discipline.

Ces activités ne concernent alors qu'un public de chercheurs. Mais la nécessité apparaît rapidement de donner une formation mathématique aux étudiants — avancés ou non — des disciplines concernées. Pour les étudiants de niveau 3e cycle (créé en 1958) ou les jeunes chercheurs, on peut mentionner deux initiatives : les stages Mathématiques et Sciences Sociales rassemblent une quarantaine de jeunes chercheurs européens en 1960 et 1962 (ces stages, financés par l'UNESCO, la Fondation Rockfeller et l'EPHE, sont organisés sous l'égide du sociologue P. Lazarsfeld); au niveau purement français, un programme conséquent de mathématiques et statistiques est inclus dans l'enseignement de préparation à la recherche en sciences sociales créé en 1964 à la sixième section de l'EPHE.

Pour ce qui est de l'enseignement « de masse », une impulsion décisive va être donnée en 1962 par le colloque sur l'Enseignement des Mathématiques et de la Statistique pour les Sciences Humaines, organisé par le CMS. Il affirme la nécessité d'un enseignement mathématique préalable à l'enseignement statistique. Cette affirmation sera officiellement reprise en 1966 lorsqu'à l'occasion de la réforme Fouchet des premiers cycles, un enseignement obligatoire de mathématiques et statistiques sera institué pour les DUEL de psychologie et sociologie : une « révolution », selon le psychologue P. Fraisse, l'un des promoteurs de cet enseignement (notons qu'en économie un enseignement similaire avait été introduit dès 1960). Les années précédant et suivant la réforme voient se


Les Messaches

multiplier dans un bel enthousiasme les réunions, stages, cours chargés de préparer le programme de mathématiques et statistiques (21), de l'expérimenter, de l'évaluer, de « recycler » ceux des « littéraires » chargés de l'enseigner ou, pour les enseignants « purement » mathématiciens, de montrer l'intérêt des mathématiques en sciences sociales. C'est l'époque où le livre de M. Barbut (1967, 1968) « Mathématiques et Sciences Humaines » apparaît comme l'ouvrage de base : il expose d'une manière qui, pour être pédagogique, n'en est pas moins rigoureuse, les bases mathématiques en algèbre des ensembles, algèbre linéaire, calcul des probabilités, « préalables » à un enseignement convenable des statistiques. Toutefois, assez rapidement et sous l'effet de causes variées (dont certaines conséquences du mouvement de mai 1968), une réaction va se produire : l'enseignement des mathématiques se voit critiqué, soit pour des raisons idéologiques (notamment chez les sociologues), soit parce que n'aidant en rien à celui des statistiques (notamment chez les psychologues). Dans les années quatre-vingts, on peut dire que l'enseignement des mathématiques instauré par la réforme de 1966 a considérablement diminué, voire même disparu au profit d'un enseignement de statistique, lui-même en voie de transformation — pas toujours heureuse — par le recours à l'informatique. Entre temps, ce même enseignement de statistique a été introduit dans le cursus d'autres disciplines, comme la géographie; si bien qu'en 1980 (comme en 1988) c'est seulement en économie qu'il existe un enseignement mathématique consistant au niveau du premier cycle universitaire.

Auparavant, les événements de 1968 et l'attrait consécutif pour la « pluridisciplinarité » ont eu deux conséquences institutionnelles importantes : à la faveur de la recomposition des universités, des départements ou UER de mathématiques se créent dans des universités à dominante (ou sous-dominante) sciences économiques et/ou humaines (22); une filière spécifique « mathématiques appliquées et sciences sociales » (MASS) se met en place.

L'implantation, au début des années soixante-dix, d'unités de mathématiciensstatisticiens-informaticiens dans des complexes de sciences sociales avait pour but de susciter une pluridisciplinarité féconde; dix ans plus tard on peut déjà constater que si cette attente s'est révélée en grande partie illusoire, il n'en reste pas moins qu'ici ou là se sont produits rencontres, échanges, travaux fructueux qui n'auraient pas vu le jour sans ces changements institutionnels.

Après une période expérimentale de deux années, le premier cycle MASS, créé officiellement en 1973 à l'occasion de la réforme des DEUG, est progressivement institué dans plus de vingt universités. Une dizaine d'entre elles le prolongeront par la licence et maîtrise MASS, créés en 1976-1977. Quelques DEA spécifiques prolongent la filière MASS au niveau 3e cycle. Bien que les effectifs d'étudiants restent relativement faibles (2000 inscrits au DEUG en 1980), ils croissent cependant régulièrement. Si l'on peut se réjouir de ce que les étudiants diplômés au niveau maîtrise MASS ne rencontrent guère de problèmes de débouchés, on est toutefois obligé de constater que rares sont ceux qui deviendront des chercheurs en sciences sociales où ils auraient pu y faire usage de leur formation mathématique; il faut aussi noter l'évolution qui fait que l'économie est de plus en plus, parmi les sciences sociales, celle qui est enseignée dans la filière (Devinant et Monjardet, 1988).

Aux institutionalisations les plus marquantes de la période, que nous avons tenté de décrire ci-dessus, il faudrait ajouter bien d'autres activités relevant de stages, de la


Mathématiques et sciences humaines

publication de livres ou de revues, de colloques, etc. Signalons-en brièvement quelquesunes. Au niveau des multiples stages, écoles d'été de « recyclage » ou de « formation » organisés par des institutions diverses (CNRS, EPHE, Universités) pour des publics soit d'origine variée, soit spécialisés (sociologues, géographes, ...), on notera simplement l'évolution qui s'amorce dans la période : l'informatique commence à y prendre la place des mathématiques, avec une transition autour de l'« analyse des données »; la transformation du Service de Calcul de Sciences Humaines (créé en 1972) en Laboratoire d'Informatique pour les Sciences Humaines (LISH) en 1975 est d'ailleurs significative de cette évolution.

Pour les revues, on peut citer la création de « Mathématiques et Sciences humaines » en 1962 (par le Centre de Mathématique Sociale), des « Annales de FINSEE » et d'« Informatique et Sciences humaines » en 1969, des « Cahiers de l'Analyse des Données » en 1976, de « Programmation et Sciences de l'Homme » en 1978 (23).

L'instauration des enseignements de mathématiques et statistiques dans les sciences humaines va susciter plusieurs manuels d'initiation (24). Rappelons « Mathématiques et Sciences humaines » de M. Barbut (1967, 1968) déjà évoqué et signalons, entre autres, « Mathématiques pour les Sciences Sociales » (Roure et Butery, 1970) de la même époque. Mentionnons la création de collections pour les étudiants plus avancés ou les chercheurs; outre toutes celles orientées vers les mathématiques et les statistiques du champ économiegestion-recherche opérationnelle, on peut signaler : « Méthodes Mathématiques des Sciences de l'Homme» (Hachette Université), «Mathématiques et Sciences de l'Homme» (vingt livres chez Gauthier-Villars de 1965 à 1974), « Monographies de Linguistique Mathématique » (Dunod). On assiste donc à la publication d'un grand nombre d'ouvrages, y compris dans des collections de « poche », à audience plus large (on en trouvera cités quelques-uns dans les références de cet article).

Terminons par les titres de quelques colloques représentatifs de la période : « L'analyse factorielle et ses applications» (CNRS, 1955); «Les modèles dynamiques en économétrie » (CNRS, 1955); « La décision, analyse et agrégation des ordres de préférences » (CNRS, 1959); « Le concept d'information dans la science contemporaine » (Royaumont, 1962); « Calcul et formalisation dans les sciences de l'homme » (Rome, 1966); «Les modèles et la formalisation du comportement» (CNRS, 1967); « Archéologie et calculateurs » (CNRS, 1969); « La mathématisation des doctrines informes » (Centre de Synthèse, 1972) ; « Systèmes dynamiques et modèles économiques » (CNRS, 1976); « Quantification en sciences humaines » (CNRS, 1978). Notons enfin qu'en 1972, année où se tient la première des rencontres annuelles de Besançon consacrée aux « méthodes mathématiques de la géographie », a lieu le colloque du CNRS « Banques de données archéologiques », et que l'année suivante la DGRST lance une Action Thématique Programmée sur l'informatique et les sciences humaines dont le bilan sera tiré au colloque de Marseille de 1975.

Du côté des mathématiques ( 25)

Le développement de mathématiques répondant aux besoins de la société technicienne a pu être ressenti de façon particulièrement conflictuelle en France où les mathématiques « pures », jeu intellectuel ne satisfaisant qu'à sa propre logique, bénéficiaient d'un grand


Les Messaches

prestige. Un certain renversement de tendance en faveur des mathématiques « appliquées » s'opère toutefois au cours de la période considérée, en même temps que l'autonomisation de l'informatique. Ainsi, en 1971, le Bulletin Signalétique du CNRS cesse de rendre compte des mathématiques pures mais, par contre, adjoint l'informatique et l'automatique aux mathématiques appliquées; en 1976, toujours au CNRS, la section informatique se détache de celle des mathématiques (26). On peut voir dans la création ultérieure (1983) d'une Société de Mathématiques Appliquées et Industrielle, une réponse aux mathématiciens purs qui refusaient de faire une distinction entre ces deux sortes de mathématiques. Il est vrai qu'une telle distinction est apparue moins pertinente au cours de la dernière décennie.

Traditionnellement, ce sont les probabilités et les statistiques qui ont vocation à des applications diverses. Aussi ont-elles joué historiquement un rôle important dans la mathématisation des sciences humaines, depuis la mathématique sociale de Condorcet, au XVIIIe siècle, en passant par la statistique morale et administrative du XIXe inaugurée par Quetelet, jusqu'à la constitution de disciplines quasi autonomes, au début de ce siècle : psychométrie, biométrie et économétrie.

Pour la période considérée, deux mouvements sont à remarquer quant à l'évolution du rôle du calcul des probabilités.

D'une part un mouvement de reconnaissance et de réintégration par les mathématiques pures qui, parti dans les années trente de l'axiomatisation de Kolmogorov, se manifeste par une refonte du calcul des probabilités comme branche de la théorie de la mesure et par une réécriture — voire un enseignement — dans le langage ensembliste et bourbakiste. Ce mouvement tend à séparer la théorie des probabilités de ses applications statistiques.

Mais un autre mouvement se traduit par des travaux portant sur des modèles probabilistes susceptibles d'utilisations, essentiellement autour de la théorie des processus : processus de Markov, processus ARIMA (Box et Jenkins, 1970), modèles de diffusion, martingales, files d'attente ... (27).

La banalisation des outils de statistique descriptive mono ou bivariée, au travers de multiples ouvrages pédagogiques, généraux ou appliqués à chacune des disciplines, fait des moyennes, variances et corrélations les éléments de base d'une première — et parfois unique — analyse des corpus étudiés, et cela dans toutes les disciplines.

Les techniques de statistique mathématique inférentielle créées dans les années trente par Fisher, puis Neyman et Pearson, à savoir tests statistiques, estimations ponctuelles et par intervalle, se diffusent dans toutes les situations de recherche où cette inférence peut être contrôlée, qu'il s'agisse de situations expérimentales (voir l'usage récurrent des tests statistiques en psychologie expérimentale) ou qu'il y ait un échantillonnage aléatoire (en sociologie ou économétrie par exemple) qui justifie le recours aux probabilités.

Mais les objets des sciences humaines sont souvent caractérisés par d'autres situations ou d'autres points de vue qui se sont davantage satisfaits de statistiques non paramétriques, ou bien de statistiques moins efficaces mais plus robustes, ou bien encore du paradigme de la théorie de la décision, cadre plus étendu dans lequel Wald (1950), Raiffa et d'autres ont reformulé le modèle statistique, pour lui faire prendre en compte, par des fonctions d'utilité ou de perte, les conséquences d'une action en univers incertain; ce qui complète la théorie de la décision en univers certain de Von Neumann et Morgenstern (1947), et va permettre aussi, dans les années soixante-dix, une réhabilitation de la


Mathématiques et sciences humaines

Fig. 3. — Ce premier numéro contenait le compte rendu d'un colloque tenu en mai 1962 sur l'enseignement des Mathématiques et des Statistiques dans les Sciences de l'Homme; c'est à partir des réflexions qui y furent menées qu'allait être élaboré un programme de mathématiques et statistiques pour les premiers cycles de Psychologie et de Sociologie, rendu obligatoire cinq ans plus tard. Le graphisme représente la célèbre « configuration de Desargues », qui n'est pas sans rapport avec la construction de certains plans d'expérience « équilibrés ».

71


Les Messaches

statistique bayésienne, en réintroduisant l'information connue a priori, et conséquemment bien souvent, une interprétation subjective de la probabilité qui exprime cette information (de Finetti, Savage).

C'est aussi dans les années soixante que J. P. Benzecri (1973) développe une forme de statistique mathématique qui abandonne le paradigme de l'inférence probabiliste pour développer des méthodes de description statistique multivariée, connues en France sous le nom d'analyse des données : l'« analyse factorielle des correspondances », fondée sur les travaux de psychométriciens des années trente (Spearman 1927, Thurstone 1932), et la classification hiérarchique, inspirée des méthodes de taxinomie des naturalistes. Ces méthodes ont l'« avantage » de ne nécessiter ni modèle hypothétique, ni mesure quantitative, ni représentativité des observations, et sont supposées faire surgir la « structure des données », donc du réel, dans l'esprit de leur auteur.

Le succès social de ces méthodes dans diverses disciplines — linguistique d'abord, puis sociologie, écologie, économie... — mais aussi jusque dans des périodiques à grand tirage, est dû à un faisceau d'éléments convergents : liberté retrouvée de la description, prise en compte simultanée des « individus » et d'un grand nombre de variables, pouvoir d'évocation de ses représentations graphiques. Ce succès doit aussi beaucoup aux possibilités nouvelles et concomittantes des ordinateurs, et à l'efficacité d'équipes de statisticiensinformaticiens sachant se mettre au service de publics divers (faut-il dire consommateurs?). Mais la philosophie associée par leur auteur à ces méthodes ne serait pas, selon son propre point de vue, étrangère à ce succès :

« A la philosophie de la méthode l'outil doit son efficacité; mais marteau sans maître, celui-ci frappe désormais librement. En nous appliquant à instruire des statisticiens philosophes, nous espérons au moins servir ceux qui saisissent l'outil pour dégager de la gangue des données le pur diamant de la véridique Nature » (Benzecri, 1982).

Les années soixante à quatre-vingts sont aussi celles où les mathématiques discrètes encore peu développées au début de la période vont connaître une expansion considérable : après les premiers manuels sur la théorie des graphes (Berge, 1958, Ore, 1962), on voit éclore une multitude d'ouvrages et de revues spécialisées en combinatoire et algèbre finies. Ce type de mathématiques apparaît alors comme particulièrement pertinent en sciences humaines. On le retrouve dans de nombreuses modélisations mathématiques : préférences individuelles ou collectives (cf. les théories du « choix individuel » des psychologues ou du « choix social » des économistes), jeux et décisions (notamment dans la perspective appliquée de la recherche opérationnelle), hiérarchies et réseaux sociaux, structures de parenté, formalismes linguistiques... On retrouve aussi ces mathématiques discrètes dans la représentation et le traitement de données : formalisation de certains types de données non numériques (comparaisons par paires des psychologues...), modèles de typologie ou de sériation, (et bien sûr en informatique).

On peut noter que si certaines problématiques de sciences sociales ont parfois inspiré la définition de notions de mathématiques discrètes — notamment en théorie des graphes ou en théorie des langages — l'étude de ces notions s'est développée ensuite de façon autonome, sans avoir nécessairement de retombée sur ces problèmes initiaux.

On pourrait en dire autant du développement considérable de la théorie axiomatique du mesurage (measurement theory) effectué dans le cadre d'une « psychologie mathématique » (essentiellement anglo-saxonne) à partir des années soixante. Cette


Mathématiques et sciences humaines

théorie qui étudie systématiquement les conditions d'existence d'homomorphismes de systèmes relationnels dans des systèmes numériques, poursuit une voie inaugurée par des mathématiciens comme Cantor; pourtant elle n'a guère réussi à intéresser d'autres mathématiciens. D'autre part, bien qu'on conçoive clairement l'intérêt potentiel d'une telle théorie pour les problèmes de la « mesure » en sciences humaines, sa relative sophistication semble l'avoir empêchée d'exercer une réelle influence sur les pratiques effectives de mesurage.

Dans un tout autre ordre d'idées, les mathématiciens R. Thom et B. Mandelbrot ont exploré de nouveaux domaines aux frontières de l'analyse classique. Avec la théorie des catastrophes, le premier propose une théorie mathématique des phénomènes critiques. Connaissant rapidement un grand succès, elle a été appliquée par de nombreux chercheurs à la modélisation des discontinuités observées dans des domaines des sciences sociales bien divers, en économie et en linguistique notamment, mais aussi en psychologie, en géographie, en politologie et dans les sciences de la décision. Le second, en rupture de bourbakisme (28), décrit avec les fractales des structures qu'un changement d'échelle laisse semblables à elles-mêmes. Si des problèmes de linguistique ont été parmi ses sources d'inspiration, ses modèles ont pu servir à représenter des séries boursières ou hydrologiques aussi bien que des objets météorologiques ou géographiques. Ils ont trouvé une application majeure dans la synthèse d'images.

A la fin des années cinquante, et notamment à partir des travaux de Forrester (1968), se développe aussi une théorie (mathématique) des « systèmes », ceux-ci étant définis comme des objets complexes formés de sous-systèmes reliés entre eux; il s'agit d'étudier l'évolution temporelle des « états » d'un tel système. Le cas le plus classique (il remonte à la mécanique) est celui des « systèmes dynamiques » où l'état, caractérisé par un certain nombre de grandeurs numériques, évolue en fonction du temps de manière déterministe ou stochastique. L'étude des trajectoires de tels systèmes, de leur stabilité, de leur commande, de leur optimisation a fait l'objet de multiples travaux, dans un cadre mathématique qui est celui des systèmes d'équations différentielles. Les retombées de ces travaux concernent surtout les systèmes physiques ou biologiques, mais aussi l'économie et la gestion.

C'est aussi pour l'économie et la gestion que se sont considérablement développées dans les années soixante les techniques de la recherche opérationnelle et les mathématiques afférentes. On a déjà cité le cas des processus probabilistes; l'autre grand domaine est celui des mathématiques de l'optimisation, qu'il s'agisse de l'optimisation convexe et non convexe, ou de l'optimisation combinatoire. On retrouve dans ce dernier thème les mathématiques discrètes et l'algorithmique avec des applications qui peuvent concerner aussi l'analyse des données (recherche d'un modèle descriptif optimisant un critère). On a ainsi une illustration d'un autre phénomène caractéristique de cette période : les relations multiples qui s'établissent entre des domaines mathématiques à priori étrangers, phénomène qui tend à relativiser les distinctions entre différentes mathématiques (« pures » ou « appliquées »).

NOTES

(*) Nous avons été aidés dans ce travail par de nombreuses personnes. Certaines nous ont apporté leurs réflexions et expériences, notamment au cours d'une journée de la Société Française d'Histoire des Sciences de


Les Messaches

l'Homme, organisée par nous sur le thème même de cet article. D'autres ont proposé des modifications du texte, parfois intégralement reproduites. Nous remercions entre autres : P. Achard, S. Auroux, M. Baulant,

A. Blum, A. Degenne, A. Geffroy, J. P. Grémy, A. Guénoche, E. Jacquet-Lagrèze, P. Lafon, M. S. Lagrange,

B. Lecuyer, D. Lépine, B. Marchand, B. Matalon, P. Parlebas, Y. Pasquet, D. Pumain et L. Toulemon. Nous remercions aussi P. Costabel, sans lequel ce texte n'aurait pas été écrit.

(1) C'est l'époque où Edgar Faure, devenu Ministre de l'Éducation Nationale à la suite des « événements de Mai », voit dans la mathématique l'espéranto de la société moderne.

( 2) Bedarida, in Institut d'Histoire du Temps Présent, (1983), p. 11.

( 3) Certains bénéficient de l'aide de fondations américaines, dans le cadre des efforts de reconstruction de l'Europe, (Mazon, 1988).

( 4) Institut d'Histoire du Temps Présent, op. cit., p. 15.

( 5) Institut d'Histoire du Temps Présent, op. cit., p. 23.

( 6) Lévi-Strauss, (1954), p. 645.

( 7) Schiltz, (1984), p. 125.

( 8) Lévi-Strauss, (1954), p. 652.

( 9) Schiltz, (1984), p. 118.

( 10) Lévi-Strauss, op. cit., p. 645 : « Si tant de spécialistes de sciences humaines manifestent aujourd'hui leur foi dans les méthodes mathématiques, c'est moins à cause des résultats qu'ils ont eux-mêmes obtenus grâce à ces méthodes qu'en raison de l'aide immense apportée par les mathématiques dans d'autres domaines, notamment les sciences physiques ».

(11) Lévi-Strauss, (1958), p. 28.

( 12) Lévi-Strauss, (1955), p. 203.

( 13) Boudon, (1968), p. 439. (14) Lévi-Strauss, (1954), p. 648.

( 15) Lévi-Strauss cité par Drouard, in Institut d'Histoire du Temps Présent, op. cit., p. 15.

( 16) Piaget, (1961), p. 181-182.

( 17) Témoin l'acceptation par les mathématiques du calcul des probabilités, vu comme une branche de la théorie de la mesure.

( 18) Ainsi, si un certain dogmatisme a accompagné en France et soutenu l'enthousiasme du mouvement qui poussait à faire pénétrer les mathématiques dans les sciences sociales, il est intéressant de remarquer que, sans doute sous la poussée de la même force extérieure qu'évoquait Lévi-Strauss, les États-Unis n'en ont pas été exempts, mais sous d'autres formes. C'est le positivisme logique qui y tenait la position de philosophie dominante, et même hégémonique. C'est donc lui qui a été utilisé pour fonder la scientificité des « sciences du comportement », en décidant, d'après les théories qu'il proposait de la science (physique) ce que devaient être leurs règles méthodologiques (Mokrzycki, 1983, cf. aussi Feldman, 1985). Ces développements devaient amener le philosophe positiviste Popper à évoquer ceux qui « singent ce qui passe, de façon erronée mais largement répandue, pour être la méthode de la science » (cité par Mokrzycki, p. 7).

( 19) Sur la création de la sixième section, cf. Mazon, (1988).

( 20) Lorsque dans les années soixante-dix se développera la vogue de l'ordinateur, Guilbaud engagera ainsi, par exemple, pour l'analyse en composantes principales, à en revenir aux cas où la diagonalisation des matrices peut se faire en deux ou trois étapes de calcul élémentaire. Ouvrant ainsi la boîte noire de l'ordinateur pour en montrer les ressorts, en définitive simples, il en appelle à une compréhension assumée par chacun, leçon d'une importance toute particulière alors que la cité scientifique tend à encourager, au contraire, la décomposition des tâches de la recherche. Le lien entre le courant de mathématisation des sciences humaines et le mouvement de réforme de l'enseignement des mathématiques est encore illustré par la série « chantiers mathématiques », émissions de télévision animées par G. Th. Guilbaud et A. Revuz, destinées à recycler les enseignants de mathématiques.

( 21) On notera que ce programme reprend pour une bonne part des propositions d'origine américaine pour la formation mathématique des spécialistes de sciences sociales (formulées notamment par un comité du « Social Science Research Council », en 1955), propositions que l'on retrouve au colloque de Royaumont de 1959.

( 22) Des unités de mathématiques se créent à : Besançon, Grenoble 2 (Université des Sciences Sociales), Lille 3 (Université des Sciences Humaines, des Lettres et des Arts), Montpellier 3 (Université Paul Valéry), Paris 1, Paris 4 (Paris-Sorbonne), Paris 5 (René Descartes), Paris 8 (Vincennes), Paris 9 (Dauphine), Paris 10 (Nanterre), Rennes 2 (Haute-Bretagne).

( 23) Au niveau des revues internationales, les précurseurs sont Econometrica (1933), Psychometrica (1936), Sociometry (1937), ainsi que Biometrika (1901) et Biométries (1945), orientées vers les sciences de la vie. On remarquera que le suffixe « métrique » va disparaître dans le titre des nombreuses revues qui se créent à partir


Mathématiques et sciences humaines

des années soixante et dont voici un échantillon : Management Science (1954), Journal of Mathematical Psychology (1964), Quality and Quantity (1967), Journal of Mathematical Sociology (1971), Journal of Mathematical Economies (1974), American Journal of Computational Linguistics (1974), Mathematical Linguistics (1978), Mathematical Social Sciences (1980)... Une évolution significative est celle de la « statistical section » du British Journal of Psychology créée en 1947, devenue en 1953 le British Journal of Statistical Psychology, puis en 1965 le British Journal of Mathematical and Statistical Psychology.

( 24) Au niveau international, le premier manuel d'initiation mathématique était apparu cinq ans auparavant : « Mathematical Models in Social Sciences » (Kemeny et Snell, 1962) ; il avait été précédé notamment par « Introduction to Finite Mathematics » (Kemeny, Snell et Thompson, 1957) qui en traduction française devint «Algèbre moderne et activités humaines» (1962); il sera suivi, entre autres, de «Structural Models; an Introduction to the Theory of Directed Graphs » (Harary, Norman et Cartwright, 1965). Ces ouvrages montraient qu'il n'était pas nécessaire pour les mathématiques en sciences humaines de passer par le formidable appareil classique du calcul différentiel et intégral, lié au développement de la physique.

( 25) Les mathématiques qu'on présente ici sont celles qui relèvent, de près ou de loin, des sciences humaines. Remarquons qu'elles n'ont pas été nécessairement créées ou développées pour celles-ci (ainsi le domaine de l'optimisation issu de problèmes de mécanique classique s'est surtout développé dans ce contexte).

( 26) On peut encore noter qu'en 1982 les mathématiques, jusque-là section numéro 1, selon la classification des sciences d'Auguste Comte, passent en troisième position, après deux sections de physique expérimentale qui drainent les plus gros budgets et participent à des projets internationaux.

( 27) Le livre de Doob « Stochastic Processes », J. Wiley & Sons (1952), est un ouvrage de référence pour l'introduction des processus dans les sciences humaines.

( 28) Sur le mépris des mathématiques appliquées en France, à cette époque, on lira avec intérêt l'interview de Mandelbrot à « La Recherche » (1986); à propos de la genèse des fractales, il y explique en particulier comment il a trouvé des moyens de travail chez IBM.

REFERENCES

Armatte M. et al, 1984, « Le sujet et l'objet : Confrontations », Éditions du CNRS.

Barbut M., « Mathématiques des Sciences humaines », PUF, t. 1 : 1967; t. 2 : 1968.

Benzecri J. P. et coll., 1973, « L'analyse des données » (2 volumes), Dunod, Paris.

Benzecri J. P., 1982, « Histoire et préhistoire de l'analyse des données », Dunod, Paris.

Berge C, 1958, « Théorie des graphes et ses applications », Dunod, Paris.

Boudon R., 1968, « Structures dans les sciences humaines », Encyclopedia Universalis, 439.

Bourbaki N., 1962, « L'architecture des mathématiques », in Le Lionnais, F., « Les grands courants de la pensée mathématique », Albert Blanchard, 35-47.

Box G. E. P., Jenkins G. M., 1970 « Séries analysis: forecasting and control », Holden Day Inc. Publisher.

Chariot B., 1986, « Histoire de la réforme des "maths modernes", idées directrices et contexte institutionnel et socio-économique », Bulletin APMEP, 352, 15-31.

Chevallard Y., 1980, « Mathématiques, langage, enseignement : la réforme des années soixante », Recherches, 41, 71.

Colloque OCDE (1959), Mathématiques Nouvelles, Éditions OCDE, 1981.

Courrège P., 1965, « Un modèle mathématique des structures élémentaires de la parenté », L'Homme, 5 (3-4), 248-290.

Devinant A., Monjardet B., 1988, « La filière Mathématiques Appliquées et Sciences Sociales (MASS) », Gazette des mathématiciens, 36, 19-34.

Feldman J., 1985, « Formalismes et scientificités. Quelques reflets internationaux » Archives européennes de sociologie, 26, 301-331.

Feldman J., 1986, « Les mathématiques appliquées aux sciences non physiques. Éléments pour une étude : Évolutions récentes à travers les Mathematical Reviews », GEMA/ISHA, Document numéro 10.

Forrester J. W., 1984, « Principe des systèmes », PUF, (traduction de « Principles of Systems », 1968).

Guilbaud G. Th., 1949, « La Théorie des Jeux », Économie Appliquée, 2, 501-551. « Les Théories de l'Intérêt Général et le Problème Logique de l'Agrégation », Économie Appliquée, 1952, 5, 502-584, réédités in « Éléments de la Théorie Mathématique des Jeux », Dunod, 1968.

Institut d'Histoire du Temps Présent, 1983, « Le développement des Sciences sociales en France au tournant des années soixante », CNRS.


Les Messaches

Kemeny J. G., Snell J. L., Thompson G. L., 1960, « Algèbre moderne et activités humaines », Dunod, (traduction de « Introduction to finite mathematics », Prentice-Hall, 1957).

Lévi-Strauss G, 1954, « Les mathématiques de l'homme », Bulletin International des Sciences Sociales, UNESCO, 6, 643-653.

Lévi-Strauss C, 1955, « Tristes tropiques », Plon.

Lévi-Strauss C, 1958, « Anthropologie structurale », Plon.

Lichnerowicz A., 1967, « Remarques sur les mathématiques et la réalité », in Piaget J., « Logique et Connaissance scientifique », Pléiade.

Mandelbrot B., 1986, « Comment j'ai découvert les fractales », La Recherche, 175, 420-424.

Mazon B., 1988, « Aux origines de l'EHESS, le rôle du mécénat américain », Éditions du Cerf.

Mokrzycki E., 1983, « Philosophy of science and sociology. From the methodological doctrine to research practice », Routledge & Kegan Paul.

Morse P. et Kimball G., 1950, « Methods of Operational Research », J. Wiley.

Ore O, 1962, « Theory of graphs », Amer. Math. Soc.

Piaget J., in: E. W. Beth, J. Piaget, 1961, « Épistémologie mathématique et psychologie », PUF.

Piaget J., 1968, « Le structuralisme », PUF.

Rapport Longchambon, 1957, « La Recherche scientifique et les progrès techniques », Présidence du Conseil. Conseil Supérieur de la Recherche Scientifique et du Progrès Technique, 11-125.

Roure F., Butery A., 1970, « Mathématiques pour les sciences sociales », PUF.

Schiltz M. A., 1984, « Analyse des épisodes d'une controverse : la réforme des mathématiques des années soixante », in Armatte et al, 117-147.

Shannon C. E., Weaver W., 1949, « The Mathematical Theory of Communication », The University of Illinois Press.

Snow C. P., 1968, « Les deux cultures », J.-J. Pauvert.

Von Neumann J., Morgenstern O., 1947, « Theory of Games and Economie Behavior », J. Wiley.

Wald A., 1950, « Statistical décisions functions », J. Wiley.

Weil H., 1949, « Sur l'étude algébrique de certains types de lois de mariage (système Murgin) », in C. LévyStrauss, « Les structures élémentaires de la parenté », PUF, 257-265.

Wiener N., 1948, « Cybernetics, Control and Communication in the Animal and the Machine », J. Wiley.

76


— LA VIE DES SCIENCES

La Mécanique, trois siècles après Newton

Sir James LIGHTHILL

Fellow of the Royal Society Associé étranger de l' Académie des Sciences

L'auteur, l'un des grands mécaniciens de notre temps, met particulièrement en lumière deux récents acquis de première importance dans l'histoire de la Mécanique. D'une part, la convergence de la mécanique fondamentale et de la mécanique appliquée des ingénieurs, en une seule et même discipline, capable aujourd'hui de traiter les problèmes d'écoulements de fluides, simples ou complexes, sièges de phénomènes physiques ou chimiques variés, et ceux de structure des matériaux, élastiques ou non, soumises à des conditions de chargement et d'environnement éventuellement très sévères. D'autre part, la révision profonde des conceptions sur le déterminisme et sur les capacités de prédiction, à la suite des résultats sur la stabilité, les bifurcations, l'existence de solutions chaotiques et des progrès réalisés dans la compréhension et la maîtrise de la turbulence.

Cet article reprend pour l'essentiel le texte de la conférence prononcée par Sir James Lighthill, Provost of the University Collège London, Président de l' Union Internationale de Mécanique Théorique et Appliquée, lors d'un séminaire exceptionnel du Laboratoire de Modélisation en Mécanique qui s'est tenu le 22 avril 1988 dans les locaux de l'Université Pierre-et-Marie-Curie. Cette réunion était organisée à l'occasion du départ en retraite de Paul Germain. Sir James Lighthill et Paul Germain se connaissent depuis plus de quarante ans et ont eu des carrières parallèles à bien des titres dans leurs pays respectifs.

Introduction

Dans le cabinet du Secrétaire Perpétuel de l'Académie des Sciences, prochain Président de l'Union Internationale de Mécanique Théorique et Appliquée, est accroché au mur un beau portrait de Newton, qui, en 1687, donna au monde la première base systématique de la mécanique théorique. Les mécaniciens du monde moderne peuvent remarquer avec orgueil que la mécanique fut la première science bâtie sur une base solide de lois essentiellement mathématiques (comme beaucoup plus tard, en effet, la physique et la

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 1, p. 77-92


Sir James Lighthill

chimie allaient recevoir des fondations mathématiques analogues). Les «Principia», outre leur grande importance pour la mécanique, avaient de plus une signification considérable comme première preuve que les lois réglant le monde expérimental pouvaient prendre une forme tout à fait mathématique.

En 1987, au mois de juin, la Royal Society a célébré le troisième centenaire des « Principia » par une réunion rétrospective à laquelle, malheureusement, je n'ai pu assister parce qu'à ce moment-là, j'étais en train d'ouvrir un congrès international de mécanique des fluides en Chine (à Pékin) avec une conférence sur l'hydrodynamique des ondes. C'est pourquoi j'ai répondu avec enthousiasme à la proposition d'Henri Cabannes de participer à ce séminaire exceptionnel, organisé en l'honneur de l'un des grands mécaniciens d'aujourd'hui, qui me permet en même temps de célébrer ce tricentenaire (avec toutefois un peu de retard) en analysant ce qu'était devenue la mécanique trois siècles après Newton.

Je n'ai toutefois pas l'intention de retracer les modifications, nombreuses et diverses, des lois newtoniennes de la mécanique; c'est-à-dire les modifications développées pour tenir compte des très grandes vitesses, ou encore des échelles très petites pour construire les lois modernes de la chimie et de la physique. J'ai plutôt l'intention de dépeindre en quelques traits les progrès réalisés (depuis 1687) dans le domaine central de la mécanique macroscopique, celui dont s'occupe principalement l'Union Internationale de Mécanique Théorique et Appliquée. Je veux démontrer surtout que trois siècles furent absolument nécessaires pour achever l'intégration de la mécanique; c'est-à-dire l'intégration effective de la mécanique théorique (fondée sur les lois mathématiques de Newton) avec la mécanique appliquée, développée par les ingénieurs à partir de bases expérimentales. Ensuite, je veux souligner qu'il aura fallu ces mêmes trois siècles pour juger enfin la cause célèbre du déterminisme sur le comportement des systèmes planétaires ou d'autres systèmes régis par les lois newtoniennes.

L'intégration de la mécanique

Les fondements de la mécanique théorique

D'abord je remarque que la mécanique théorique de tous les siècles, et de ces trois siècles en particulier, est liée au principe universel qui s'exprime nettement par la maxime célèbre de la politique divide et impera (diviser pour régner), attribuée par Harold Jeffreys au machiavélique roi Louis XI de France. En mécanique théorique en effet il faut toujours diviser. Ainsi doit-on diviser — ou bien classer — les diverses forces, c'est-àdire tous les différents types d'efforts qui peuvent agir, soit pour empêcher le mouvement, soit pour le provoquer; ce sont là les objets respectifs de la statique et de la dynamique. De même, il faut diviser la matière en éléments matériels qui restent très petits par rapport à toutes les échelles caractéristiques d'un problème. Ces éléments subissent des forces de deux sortes : les actions extérieures comme la force de la pesanteur, et les forces intérieures agissant mutuellement entre deux éléments avec une même intensité et une direction opposée.

La statique précise que le mouvement d'un système peut être entièrement empêché si la somme des forces (j'entends la somme vectorielle) auxquelles est soumis chaque élément


La Mécanique, trois siècles après Newton

Portrait d'Isaac Newton se trouvant dans le bureau du Secrétaire perpétuel Paul Germain. (Cliché J.-L. Charmet).

79


Sir James Lighthill

matériel du système est nulle. Mathématiquement, cette loi se traduit par une équation aux dérivées partielles dont les variables indépendantes sont les coordonnées cartésiennes de l'élément, pourvu que les lois de comportement soient données. Ces dernières sont, pour chaque milieu du système, les lois qui expriment comment les contraintes (c'est-àdire les forces intérieures entre des éléments voisins, divisés par leur aire de contact) dépendent d'autres variables, en particulier des mesures appropriées de la déformation du milieu. Pour résoudre une telle équation aux dérivées partielles, qui rend la somme des forces (intérieures et extérieures) subies par chaque élément égale à zéro, l'analyse numérique moderne utilise de façon classique une approximation aux différences finies, ou encore, met en oeuvre, avec succès, une autre méthode en appliquant directement à des éléments finis (choisis avec soin) les principes fondamentaux de la statique.

En dynamique au contraire, le total des forces qui agissent sur un élément matériel n'est pas en général égal à zéro; sa valeur détermine la variation dans le temps de la quantité de mouvement (c'est-à-dire la vitesse de l'élément multipliée par sa masse). Dans les calculs pratiques, la maxime divide et impera s'applique donc à chaque instant: il faut diviser le temps en tout petits intervalles pendant lesquels la quantité de mouvement de chaque élément subit une variation déterminée par la somme des forces qui lui sont appliquées. Du point de vue de l'analyse aux éléments finis, il faut préciser avec soin le calcul de cette variation instantanée pour assurer la stabilité numérique. La loi fondamentale de la dynamique peut également s'exprimer par une équation aux dérivées partielles avec comme variables indépendantes les coordonnées d'espace et de temps, équation qui peut être traitée soit de façon rigoureuse par l'analyse mathématique, soit d'une manière approximative par l'analyse numérique au moyen de la méthode des différences finies.

Naturellement, un corps assez petit par rapport au système entier peut être traité tous simplement comme un point matériel, dont la quantité de mouvement totale possède une dérivée par rapport au temps égale à la somme des forces extérieures (car celle des forces intérieures est nécessairement nulle). La loi du mouvement s'exprime donc alors par une équation différentielle ordinaire, comme celles utilisées pour décrire le mouvement des planètes du système solaire et de leurs satellites. Je reviendrai plus loin sur la mécanique des points matériels du point de vue de la « cause célèbre » du déterminisme.

Le renforcement de la base physique

Le progrès crucial de la construction de la mécanique théorique pendant les trois derniers siècles repose sur deux bases: physique et mathématique. La base physique s'affirme de plus en plus; par exemple, les lois de comportement deviennent plus précises, ou encore on prend en compte de nouvelles sortes de forces extérieures.

Dans le domaine de la mécanique théorique des solides, de très larges développements sont fondés sur la loi de comportement qui impose classiquement aux contraintes une dépendance linéaire en fonction de la déformation: l'élasticité linéaire apporte ainsi depuis deux siècles de nombreux résultats très importants, et en statique et en dynamique. Plusieurs lois de comportement beaucoup plus compliquées (de la plasticité, de l'élasticité non linéaire, etc.) augmentèrent considérablement et très utilement la précision et la portée de la mécanique des solides, principalement dans le cas des grandes déformations.


La Mécanique, trois siècles après Newton

Quelques développements récents et forts intéressants traitent de la mécanique des milieux doués de mémoire.

En mécanique des fluides, l'étude de la statique est tout à fait banale, parce que les contraintes prennent tout simplement dans un fluide stationnaire la forme d'une pression normale. La dynamique demande au contraire beaucoup plus de subtilité par suite des contraintes supplémentaires qui dépendent, pour les fluides usuels, de leur viscosité. Comme on le sait bien, de telles contraintes ont une grande importance, même pour les fluides ayant une viscosité très faible. En effet, la condition à laquelle satisfait l'écoulement du fluide sur une paroi frontière entraîne que la vitesse du fluide croît très rapidement à travers une couche limite très mince où, par conséquent, les contraintes visqueuses prennent des valeurs considérables. Les contraintes exercent une forte influence sur le comportement de la couche limite, au point que sa séparation éventuelle peut changer radicalement la nature de l'écoulement dans son ensemble.

Dans certains milieux, une loi de comportement encore plus compliquée règle l'écoulement en liant les contraintes d'une façon non linéaire au taux de déformation (et peutêtre aussi à la déformation elle-même). De tels fluides montrent des phénomènes spéciaux très intéressants étudiés par les mécaniciens qui aiment bien alors se qualifier de rhéologistes.

En général, pour les milieux continus, la physique doit être prise en compte beaucoup plus profondément dès que l'énergie cinétique de l'écoulement devient assez grande pour modifier la température. C'est pourquoi un beau cours de mécanique (comme celui de P. Germain) a besoin de quelques chapitres traitant de la thermodynamique des milieux continus. Ces chapitres doivent expliquer les équations d'état et les lois qui règlent la transformation de l'énergie en ses diverses formes, prélude à l'étude plus profonde des lois de comportement, et aussi des équations qui décrivent et la diffusion et le transfert de chaleur. Pour les gaz, la théorie cinétique (c'est-à-dire la mécanique statistique des molécules) fournit beaucoup de renseignements utiles sur ces propriétés.

Enfin, l'apport de la physique est encore nécessaire dès que la mécanique doit tenir compte de nouvelles forces, comme par exemple des forces électromagnétiques. Les effets mécaniques deviennent en effet très importants dans les milieux très conducteurs, y compris les métaux solides et liquides, et en particulier les plasmas, c'est-à-dire les gaz fortement ionisés. Dans ce dernier cas, bien entendu, les propriétés électromagnétiques elles-mêmes peuvent être légitimement précisées par la théorie cinétique.

Le renforcement de la base mathématique

Naturellement, la base mathématique d'une science comme la mécanique, dont les lois fondamentales s'expriment par des équations différentielles (ou aux dérivées partielles), se trouve renforcée par chaque nouveau développement mathématique de la théorie générale de ces équations. Néanmoins, une grande part des nouvelles découvertes mathématiques qui importent le plus en mécanique découlent des travaux mathématiques des mécaniciens eux-mêmes, qui deviennent ainsi les bienfaiteurs de la science plus ancienne.

La mécanique en effet, comme le coeur, a ses raisons: celles-ci se composent des grandes idées générales propres à notre science et nous attirent vers les découvertes mathématiques dont elle a besoin. La plus renommée est l'idée générale de l'énergie, sur


Sir James Lighthill

laquelle plusieurs théories mathématiques se fondent depuis la Mécanique Analytique de Lagrange, y compris les théories, linéaires ou non, des oscillations et des ondes.

Les théories de la stabilité revêtent également beaucoup d'importance. En statique, elles peuvent distinguer deux espèces d'équilibre: ceux qui persistent en présence d'une petite perturbation de forme quelconque, et ceux qui répondent à certaines formes de perturbation en conduisant au flambement ou à l'effondrement. En dynamique, elles précisent les conditions pour lesquelles un mouvement stationnaire peut continuer indéfiniment ou subir des perturbations croissantes qui amènent ensuite de nouvelles transformations du mouvement sous forme oscillatoire ou bien chaotique. Comme on le sait, il devient de plus en plus utile de caractériser ces transformations sous le concept générique de bifurcation; mais, pour le moment, je renvoie à plus tard toute discussion sur les mouvements chaotiques.

D'autres idées génériques sont de grande importance, dont l'origine se trouve peutêtre dans le phénomène mécanique du développement non linéaire des ondes et la formation des ondes de choc, telles les catastrophes étudiées par l'éminent mathématicien René Thom... Mais maintenant, je dois écourter ce petit résumé du processus de renforcement de la mécanique théorique pendant ces trois siècles (mes lecteurs en connaissent bien d'autres exemples) et je voudrais plutôt reprendre le thème de son intégration avec la mécanique appliquée.

Les origines de la mécanique appliquée

Évidemment, les origines de la mécanique appliquée sont beaucoup plus anciennes que celles de la mécanique théorique. Au commencement même de la civilisation, la technologie hydraulique des canaux d'irrigation se trouve à la base des premiers grands empires sumériens et égyptiens, et les ingénieurs réalisaient déjà des constructions colossales comme les pyramides. Nous savons que leurs techniciens mesuraient beaucoup de choses avec une bonne précision. On peut supposer que cela leur permettait d'acquérir une expérience quantitative très utile pour le constructeur.

Plus tard, nous voyons que l'hydraulique englobe la technologie ingénieuse des grands aqueducs romains et des vastes systèmes hollandais d'assèchement; tandis que les constructions des grandes cathédrales du Moyen Âge deviennent, avec le temps, de plus en plus raffinées par suite des capacités toujours croissantes chez les bâtisseurs, acquises par la mesure et l'expérience.

En général, pour toutes les technologies à ces époques, l'introduction de chaque nouvelle technique expérimentale et de mesure permet des progrès très utiles à l'ingénieur par la découverte de bonnes corrélations entre les quantités mesurées. Même après la publication des «Principia», qui créèrent une mécanique théorique fondée sur de nouvelles bases physiques et mathématiques, le processus de la pénétration de telles idées dans la technologie allait se faire très lentement. Évidemment, les problèmes mécaniques qui se posaient alors le contexte des buts typiques visés par l'ingénieur étaient encore à cette époque beaucoup trop compliqués pour être traités par les méthodes de la mécanique théorique, qui n'était qu'au début de son développement — malgré la renommée justifiée de la mécanique du point traitant du mouvement des corps célestes.


La Mécanique, trois siècles après Newton

Il est vrai que, de plus en plus, les résultats des expériences énonçaient des règles qui utilisaient les idées principales de la mécanique théorique et portaient sur la quantité de mouvement, sur ce qui devait s'appeler plus tard l'énergie cinétique, sur les forces, sur les pressions et les contraintes. Mais l'application directe de l'analyse, fondée sur les lois de la mécanique théorique, n'était pas encore possible.

Le mariage des deux mécaniques

En avançant dans le temps, je veux célébrer maintenant le mariage des deux mécaniques (théorique et appliquée); ou plutôt leur amitié croissante qui, depuis l'époque de Daniel Bernoulli et de Leonhard Euler, se développa progressivement en union intime et consacrée (surtout, comme un Président peut le dire, en Union Internationale). Le commencement de tout cela fut le renforcement des bases (physique et mathématique) de la mécanique théorique; un renforcement suscité en effet non seulement par le génie et l'esprit curieux des savants mais aussi par la stimulation des problèmes compliqués qu'on avait besoin de résoudre dans les domaines particuliers de la mécanique appliquée. Peu à peu, dans chaque domaine, l'analyse théorique de « problèmes modèles » devenait une méthode reconnue pour aborder l'étude préliminaire des « problèmes réels », mais beaucoup plus compliqués, avec lesquels ils avaient quelque relation. Même quand les résultats de l'analyse n'étaient pas en très bon accord avec les expériences, une telle analyse pouvait néanmoins suggérer une extrapolation utile des résultats fournis par des expériences à d'autres conditions, pour lesquelles ces expériences auraient été coûteuses. Peu à peu, de tels modèles manifestèrent un accroissement de leur précision et par conséquent de leur valeur.

La méthode analytique commença par exemple à pénétrer le domaine de la construction, dès qu'on put utiliser la mécanique théorique pour estimer les charges et la répartition des contraintes qui en découle d'abord pour les poutres isolées et ensuite pour les systèmes réticulés de poutres (y compris les charpentes). Les contraintes ainsi calculées pouvaient naturellement être comparées avec certaines limites caractéristiques des matériaux. Les calculs de la stabilité, introduits par Euler, permirent aussi l'estimation des charges critiques pour le flambement.

Malgré cela, il fallut utiliser dans la construction, pendant deux siècles environ, de grands facteurs de sécurité — peut être un facteur dix —, c'est-à-dire qu'il était nécessaire de s'assurer que les charges calculées pour la rupture ou pour l'effondrement étaient dix fois plus grandes que les charges attendues en pratique sur le système considéré. Un tel facteur résultait de plusieurs incertitudes d'estimation: relativement aux charges, aux propriétés matérielles, et à l'analyse même des contraintes.

Peu à peu, l'étude d'une telle construction devint beaucoup plus précise. On étudia par exemple comment il était possible de minimiser la concentration de contraintes au voisinage des liaisons entre les poutres (soudure, encastrement ou articulation). On étudia la réponse limite d'une charpente, c'est-à-dire son comportement après que les premières charges appliquées au système eussent produit quelques déformations plastiques. On établit l'influence déterminante des imperfections géométriques sur le phénomène de flambement, ou bien des imperfections matérielles (comme les dislocations) sur la déformation plastique et la fracture. Toutes les expériences menées durant un grand


Sir James Lighthill

nombre d'années sur la fatigue des métaux finirent par s'expliquer au moyen d'une théorie remarquable de la croissance progressive de toutes petites fissures.

Simultanément, les grands avantages économiques de la minimisation du poids pour la construction aéronautique ou astronautique conduisirent à des analyses encore plus précises, autorisant en définitive une réduction importante, des facteurs de sécurité à partir de dix (environ) jusqu'à des valeurs de 1,5 ou moins. Pour ces progrès indispensables, de nouvelles théories mathématiques très raffinées des déformations élastiques quasibidimensionnelles (pour les plaques, par exemple) jouèrent un rôle de premier plan.

La mécanique appliquée aux machines suivit un chemin tout à fait semblable. A partir de la technologie ancienne des moulins à eau et à vent, le développement des machines à vapeur au dix-huitième siècle fut rapide grâce à quelques idées tirées de la mécanique théorique. Ainsi la cinématique (c'est-à-dire l'étude géométrique des mouvements relatifs) influença le dessin de toutes sortes d'engrenages, et en particulier la forme des surfaces en contact. La cinétique, qui lie les mouvements aux forces et au travail des forces, influença non seulement le dessin des machines pour le transfert de puissance, mais aussi le dessin des mécanismes assurant la régulation. Par la suite, la théorie générale des oscillations d'un système mécanique, avec son concept fondamental de périodes propres d'un système, montra aux ingénieurs l'importance qu'il y avait à éviter, en général, la résonance entre une de ces périodes propres et une période d'oscillation de quelque force extérieure.

Il y a cent vingt ans, l'ingénieur mécanicien commença à utiliser la mécanique théorique des fluides; par exemple dans la théorie hydrodynamique de la lubrification. On eut surtout besoin d'une connaissance exacte du mouvement des gaz pour le développement de la turbine à vapeur. Les pales et les canalisations demandent en effet des formes précises, qui tiennent compte de la dynamique et de la thermodynamique du mouvement de la vapeur aux très grandes vitesses. Il fallait en même temps développer une nouvelle compréhension des lois fondées sur la mécanique des fluides et sur le transfert de chaleur.

La mécanique moderne des fluides

Écoulements internes

Il faut absolument qu'une conférence comme celle-ci, dédiée à Paul Germain, contienne quelques mots consacrés à la mécanique moderne des fluides. Tout d'abord, intéressonsnous à la dynamique des écoulements internes dans les tuyaux et les canaux.

Reprenant l'histoire des machines, je souligne ici le développement progressif de systèmes efficaces pour le transfert d'énergie (dans l'un ou dans l'autre) entre les pales qui tournent et les écoulements de fluides: hélices ou ventilateurs, compresseurs ou turbines à gaz, et leurs applications à l'aéronautique et à beaucoup d'autres domaines. De plus en plus, ces développements nécessitaient un calcul précis (analytique ou numérique) de la dynamique des fluides et des pales en mouvement relatif. D'autres formes géométriques d'écoulement retinrent l'attention dès l'introduction des grosses fusées à propergol liquide.

Dans beaucoup de tels développements, l'aérodynamique de la combustion jouait un rôle essentiel; tandis que les systèmes indispensables de refroidissement avaient besoin de


La Mécanique, trois siècles après Newton

toute l'attention des spécialistes qui appliquent la mécanique des fluides au transfert de chaleur. Notons à ce propos que le succès de 1 ingénieur chimiste moderne tient dans une recette admirable mettant en oeuvre les mêmes ingrédients fondamentaux, à savoir les réactions chimiques, le transfert de chaleur, la dynamique des fluides, auxquels s'ajoute une pointe d'épice sous forme de dynamique des processus modernes du mélange.

Et, revenant même sur l'histoire de l'hydraulique, je rappelle que, depuis l'oeuvre de Boussinesq, les théories de plus en plus fines des ondes de surface permet de comprendre les modes compliqués de génération de ces ondes, stationnaires ou progressives, dans les écoulements à l'intérieur de canaux, ou dans ceux provoqués par des vannes. Pour toutes les études d'écoulements internes, soit dans les tuyaux, soit dans les canaux, des méthodes numériques aux différences finies, comprenant parfois un modèle utile de la turbulence, deviennent chaque jour plus nécessaires et plus valables.

Écoulements externes

Mais c'est surtout dans la mécanique des écoulements extérieurs aux corps solides, et particulièrement dans l'aérodynamique des avions, que notre siècle, depuis l'oeuvre de Prandtl, a fait des progrès vraiment extraordinaires; qui, combinés aux développements importants de la construction et des moteurs, ont marqué le formidable succès de notre siècle dans le domaine aéronautique. Le vol horizontal demande en effet que la résultante de toutes les pressions de l'air et de toutes les contraintes visqueuses autour de l'avion possède une très grande composante verticale, dite portance, pour compenser le poids, avec (en comparaison) une très petite composante horizontale, dite résistance, que la poussée du moteur doit compenser. Prandtl savait bien que la viscosité de l'air, malgré sa faible valeur, ne doit pas du tout être négligée, car les théories classiques du fluide parfait donnent une valeur absolument nulle à la force résultante, et parce que, pour la plupart des formes, ces théories ne tiennent pas compte du sillage épais et turbulent en aval du corps. Mais Prandtl et d'autres savants utilisèrent la mécanique théorique des fluides pour démontrer que, autour des avions de forme bien choisie, les régions de l'écoulement où sont sensibles les effets de la viscosité — c'est-à-dire la couche limite et le sillage — pouvaient demeurer très minces. Cela conduit à une résistance relativement basse; néanmoins lorsque le sillage contient des tourbillons intenses parallèles à l'écoulement, la portance peut être très grande. De telles découvertes contribuèrent beaucoup à l'accroissement progressif du rayon d'action des avions.

Plus tard, les améliorations de l'aérodynamique, de la cellule et des moteurs ont permis d'augmenter les vitesses des avions jusqu'aux environs de la vitesse du son; les avions commencèrent à subir alors une résistance supplémentaire, liée à la création d'une onde acoustique qui comprend en effet au moins deux ondes de choc. Le phénomène correspondant en hydrodynamique apparaît quand la vitesse d'un navire s'accroît jusqu'à ce qu'il subisse, non seulement une résistance due au sillage, mais aussi une résistance due aux ondes. La théorie fondamentale des ondes s'applique avec fruit à l'étude des formes des avions et des navires pour retarder un accroissement sensible de la résistance liée à la création des ondes aux grandes vitesses.

Autres domaines importants de l'aérodynamique et de l'hydrodynamique: les études de la stabilité et du guidage d'un avion ou d'une fusée, ou d'un navire ou d'un sousmarin. Cela requiert l'application des lois de la mécanique du corps solide, en tenant


Sir James Lighthill

compte des forces avec lesquelles le fluide agit sur lui, et de leur dépendance à l'égard du mouvement même et de l'action des surfaces de guidage comme l'aileron ou le gouvernail. De plus, la navigation moderne utilise d'autres développements remarquables de la mécanique théorique des corps rigides relatifs aux gyroscopes et aux méthodes de navigation par des systèmes inertiels, très compliqués mais beaucoup plus précis, chacun comprenant au moins trois gyroscopes et trois accéléromètres.

Aux très grandes vitesses, la dissipation de l'énergie cinétique dans la couche limite augmente énormément le taux de chaleur reçue par la structure, dont la rigidité peut être gravement menacée. L'analyse du transfert de chaleur doit alors tenir compte des grands progrès de l'aérodynamique hypersonique moderne.

Évidemment, toutes les techniques expérimentales des souffleries (méthodes optiques, méthodes piézométriques) et des autres moyens d'essais contribuèrent d'une façon essentielle aux succès remarquables de l'aréodynamique. Notons qu'il est devenu possible, ces dernières années, de mesurer dans son ensemble un champ compliqué de vitesses, par exemple au moyen de la technique laser-Doppler. Néanmoins, les perfectionnements simultanés du calcul numérique des écoulements fondé sur les progrès de la mécanique théorique des fluides sont en train de modifier peu à peu, pour l'ingénieur, l'équilibre de sa double dépendance vis-à-vis des données de l'expérience et du calcul théorique. Le rôle de l'analyse devient au moins aussi important que celui des expériences. Aujourd'hui il est en effet possible de dire que pour les deux mécaniques, il existe un mariage contracté à parts égales entre les deux époux.

Il existe de nombreux cas où l'ingénieur se sert de la mécanique appliquée liée étroitement à la mécanique théorique. Le météorologue, par exemple, utilise, grâce aux télécommunications, un système mondial de mesures et de données atmosphériques à toutes les altitudes, qui, traités ensuite statistiquement, constituent les conditions initiales propres à un système mondial de calcul numérique aux différences finies. Ce calcul se fonde sur la mécanique théorique des fluides atmosphériques. La prédiction météorologique devient toujours plus précise, et aujourd'hui les prédictions pour trois jours sont aussi bonnes que celles d'il y a dix ans pour un seul jour; encore une fois à cause du mariage fécond entre les deux mécaniques.

L'illusion du déterminisme newtonien (1)

La théorie des perturbations

Je dois revenir maintenant au tout début de la mécanique théorique, dont la première application traita du mouvement des planètes autour du Soleil et du mouvement de leurs satellites. Kepler avait donné un résumé remarquable des observations de ces mouvements (faites principalement par Tycho Brahé) incluant le mouvement de cinq planètes ainsi que les quatre satellites de Jupiter découverts par Galilée grâce à sa lunette. Ce résumé, énoncé par rapport au repère de Copernic, constate la forme elliptique des orbites, chaque ellipse ayant le corps central comme foyer, et énonce les deux autres lois également bien connues. Newton, qui reconnut bien sûr le caractère approché de ces lois képlériennes, démontra néanmoins que sa propre loi de gravitation conduisait aux mêmes


La Mécanique, trois siècles après Newton

résultats pour le mouvement relatif de deux corps sphériques; tandis que cette même loi de gravitation, dite universelle, expliquait également les phénomènes de pesanteur dans le système terrestre. Quant aux différences entre les observations astronomiques les plus exactes et les lois de Kepler, Newton prédisit clairement la possibilité de les expliquer au moyen des perturbations en considérant soit un troisième corps, soit la forme non sphérique dû corps central.

Nous devons à Euler la mise en oeuvre initiale systématique de ce programme important, que les grands mécaniciens français continuèrent. La théorie des perturbations, dite «méthode Euler-Lagrange» possède encore une grande valeur pour l'étude des orbites des satellites artificiels. La méthode décrit en effet comment varient lentement les éléments d'une orbite képlérienne sous l'effet d'une force perturbatrice (les éléments, évidemment, sont ici certaines quantités qui définissent les dimensions de l'orbite elliptique et sa position par rapport au repère de Copernic). Au moyen de la méthode Euler-Lagrange, la variation observée des éléments d'un satellite artificiel nous donne de très bons renseignements sur les forces perturbatrices qui dépendent de la forme précise, non sphérique, de la Terre.

Lagrange nous livra quelque chose d'encore plus fondamental de son chef d'oeuvre traitant de la Mécanique Analytique, où il donna une forme absolument générale des équations satisfaites par un système mécanique quelconque obéissant aux lois de Newton. Presque toutes les particularités des phénomènes orbitaux découverts à cette époque-là par les observations du système solaire reçurent des explications claires, qui témoignent de façon éclatante du génie analytique de Lagrange ainsi que des dons extraordinaires de l'auteur des cinq tomes de la Mécanique Céleste dans lesquels Laplace démontra l'efficacité de la théorie des perturbations.

En même temps, Laplace publia en un seul tome son chef d'oeuvre de haute vulgarisation, intitulé Exposition du Système du Monde, dont la clarté remarquable permit au grand public de comprendre les succès de la mécanique théorique capable d'expliquer le comportement si compliqué et la stabilité du système solaire. Cette oeuvre très séduisante répandit en effet la croyance en la possibilité de prédiction illimitée pour les systèmes mécaniques, autrement dit la croyance dans le déterminisme de l'univers newtonien.

Et pourtant, il me semble qu'un Président (actuel ou futur) de notre Union se doit de faire parfois des excuses, au nom des mécaniciens en général, auprès du grand public pour l'avoir trompé à cet égard. Nous comprenons actuellement que l'enthousiasme de nos ancêtres pour les réussites merveilleuses de la mécanique théorique les amena à quelques déclarations trop générales au sujet du déterminisme, déclarations auxquelles, peut-être, nous apportions nous-mêmes une adhésion générale il y a trente ans, mais auxquelles nous ne croyons plus. La dernière partie de cet article sera consacrée à un tableau tout à fait différent de nos vues actuelles, ainsi qu'aux raisons pour lesquelles ce tableau fut dévoilé si tardivement.

Depuis plusieurs années, nous reconnaissions, bien entendu, que la théorie des perturbations de Laplace ne reposait pas sur des démonstrations analytiques rigoureuses et, de ce fait, ne pouvait conduire à aucune certitude à propos d'une telle question. Cependant, la grande école d'analyse française du dix-neuvième siècle établit des moyens sûrs, quoique difficiles à appliquer, pour apporter une certitude absolue par un théorème rigoureusement démontré.


Sir James Lighthill

Néanmoins, il fallut attendre le génie de Poincaré, c'est-à-dire 1892, date de la publication des Nouvelles Méthodes de la Mécanique Céleste pour voir traitée systématiquement la théorie des perturbations du point de vue de l'analyse rigoureuse. Poincaré s'intéressait surtout au problème classique des trois corps, sans négliger les autres problèmes difficiles relatifs aux orbites; il utilisait les équations de Lagrange sous forme hamiltonienne. La démarche caractéristique de son oeuvre commence par une première approximation très simple, celle d'une orbite képlérienne qui varie ensuite en tenant compte des forces perturbatrices selon une seconde approximation, puis selon une troisième, et ainsi de suite, puis il tente finalement de démontrer la convergence du processus vers une limite bien déterminée. Ce programme réussit heureusement dans beaucoup de cas, dont l'ensemble couvre un domaine étendu de l'espace des paramètres. Mais, dans d'autres domaines, là où se rencontre une résonance approchée entre deux périodes caractéristiques du système, la méthode de Poincaré échoua par suite de l'obstacle célèbre connu sous le nom de «difficulté des petits diviseurs». Parmi les termes d'une série, certains ont de temps en temps un très petit dénominateur, si bien que la série ne converge pas.

Naturellement, on pouvait supposer que cet échec à la méthode de démonstration était fortuit et qu'on pourrait recombiner les termes de la série — comme dans la méthode de renormalisation qui se révèle si féconde dans d'autres cas — afin d'accroître le domaine de validité de la démonstration. Malgré de nombreuses tentatives durant plusieurs années, on ne put jamais achever la démonstration dans tout l'espace des paramètres. Nous comprenons actuellement que l'échec était dû à la naissance d'un comportement du système d'une nature fondamentalement nouvelle, à savoir un comportement chaotique.

Le comportement chaotique

Trois voies conduisirent d'abord à une première découverte de la possibilité du comportement chaotique de systèmes newtoniens relativement simples, puis à la constatation qu'un tel comportement se produit assez souvent.

La première voie résulte de la découverte d'une méthode analytique fondée encore sur la théorie des perturbations pour les systèmes hamiltoniens d'énergie constante, mais plus approfondie que celle de Poincaré. La démonstration, commencée par le grand mathématicien russe Kolmogorov, et achevée par son distingué élève Arnold, s'applique pour des valeurs suffisamment petites d'un paramètre caractérisant les forces perturbatrices. Dans ce cas, ces auteurs ont démontré qu'une large classe de conditions initiales donne lieu à des mouvements réguliers, tout à fait comme dans l'oeuvre de Laplace, mais que néanmoins, des mouvements d'un caractère dit «stochastique» ou «chaotique» apparaissent dans un domaine très petit de l'espace des conditions initiales.

On a considéré immédiatement comme très intéressante cette découverte qu'un système d'équations hamiltonien ne contenant aucun terme stochastique peut, néanmoins, posséder des solutions d'un caractère stochastique. Cependant, ce résultat pouvait peutêtre considéré comme une bizarrerie assez rare, l'analyse n'étant valable que dans le cas de petites forces perturbatrices et ne donnant lieu à un mouvement chaotique que pour des intervalles extrêmement courts de conditions initiales.

Mais aucune supposition de ce genre n'est désormais possible depuis la première publication, il y a dix ans, des résultats obtenus par une seconde voie. Cette dernière fait


La Mécanique, trois siècles après Newton

Henri Poincaré faisant une leçon sur la théorie des perturbations, à la Sorbonne, en 1908. (Croquis exécuté par Mme K. Popoff, Archives de l'Académie des Sciences).

89


Sir James Lighthill

appel à des calculs numériques d'une grande précision, ce qui est nécessaire pour s'assurer que les solutions des équations différentielles ainsi obtenues ne soient entachées d'aucune instabilité numérique. On peut vraiment dire que les résultats de tels calculs ont bouleversé toutes les idées reposant sur la théorie des perturbations, bien qu'ils soient en fait en accord avec cette théorie au cas de toutes petites forces perturbatrices. En revanche, les calculs numériques effectués dans le cas de forces perturbatrices assez importantes ont produit un véritable ahurissement dans le monde des mécaniciens, en démontrant que le domaine de l'espace des conditions initiales qui donne lieu à des mouvements chaotiques s'accroît très rapidement lorsque croissent les forces pertubatrices. Enfin, quand ces dernières atteignent un certain niveau, on observe ce qu'on appelle la « stochasticité globale»: toutes les solutions provenant de n'importe quelle condition initiale prennent une forme chaotique. Je préciserai plus loin la signification détaillée de cette conclusion, mais je remarque tout de suite qu'elle accroît considérablement l'importance générale des mouvement chaotiques.

Tous ces résultats obtenus pour les systèmes hamiltoniens d'énergie constante sont à rapprocher d'autres conclusions propres aux systèmes dissipatifs atteints par une troisième voie. C'est surtout la mécanique des fluides, où l'action dissipative de la viscosité est toujours présente, qui ouvre cette voie. Evidemment, ce fut tout d'abord Reynolds, il y a plus de cent ans, qui constata que le mouvement des fluides peut devenir chaotique (ou plutôt turbulent) quand le nombre de Reynolds dépasse une certaine limite, c'est-àdire quand la force productrice du mouvement devient suffisamment grande comparée aux forces dissipatives de viscosité. Tout de même, les fluides sont des systèmes infiniment compliqués, et il n'était pas du tout évident que l'existence des mouvements chaotiques pour de tels systèmes nous contraigne à croire que les systèmes mécaniques très simples (possédant deux ou trois degrés de liberté) puissent également devenir chaotiques. Maintenant nous savons pourtant, depuis le travail de Miles, publié il y a quatre ans, que même le mouvement du pendule — considéré jusqu'ici comme le type parfait de la régularité — peut devenir chaotique dans un certain intervalle de fréquences des forces perturbatrices quand celles-ci dépassent suffisamment en grandeur les forces dissipatives.

Le point de départ dans cette voie fut, en effet, quelques recherches nouvelles très intéressantes du grand mécanicien des fluides Lorenz, qui étudia le mouvement de certains systèmes dynamiques très simples, considérés comme analogues au développement de la turbulence dans le système beaucoup plus compliqué du mouvement d'un fluide. Il démontra que de tels systèmes, quoique soumis à des forces perturbatrices d'une forme tout à fait régulière, peuvent répondre d'une façon complètement chaotique pourvu que les forces perturbatrices soient suffisamment grandes comparées aux forces dissipatives. Il introduisit le terme «d'attracteur étrange» (strange attractor) pour exprimer le type du mouvement chaotique qui se développe inexorablement dans ce cas.

Divers savants donnèrent ultérieurement une théorie plus générale de ces systèmes qui, à la différence des systèmes isolés d'énergie constante étudiés par Poincaré, subissent à la fois des forces productrices d'énergie nouvelle et des forces dissipatives de l'énergie. Cette théorie précise les étapes de développement du chaos quand s'accroît un certain rapport des forces perturbatrices et dissipatives. Cela arrive souvent par une suite infinie de bifurcations, dont chacune peut doubler la période, et qui se termine, après seulement une augmentation finie dudit rapport, en un mouvement complètement chaotique. Les calculs numériques concordent admirablement avec ces théories.


La Mécanique, trois siècles après Newton

Même si je voulais m'étendre sur la diversité immense des types de systèmes chaotiques et des chemins conduisant vers le chaos, je n'en aurais pas ici le temps et, en tout cas, mon unique objet est de concentrer mon attention sur certains traits caractéristiques communs à tous les types de chaos. Ce sont les traits qui concernent la question, l'illusion si vous voulez, du déterminisme newtonien.

La chute du déterminisme newtonien

Pour un système satisfaisant à des équations différentielles, le problème du déterminisme est surtout celui de la dépendance des conditions initiales du mouvement au bout d'un certain temps. Or, au sens purement mathématique, le théorème de Picard nous assure que, si les conditions initiales sont connues au sens précis du mathématicien par des nombres réels bien définis, et chacun de ces nombres par une suite infinie de décimales, la position exacte du système est bien connue à tout instant. Cependant, il est tout à fait dénué de sens pratique que de supposer que les conditions initiales soient ainsi définies par une infinité de décimales. Evidemment le mécanicien s'intéresse tout au plus à un nombre fini de décimales en rapport avec la précision de vitesses et des positions initiales (peut-être en avons-nous besoin de huit afin que les unités de longueur de l'ordre de l'Angström soient correctes !).

Or, quand nous précisons les conditions initiales à un certain nombre de décimales près (n'importe quel nombre fixé), nous trouvons un résultat valable pour toutes les conditions initiales qui donnent lieu à des mouvements chaotiques. Dans chaque cas, il y a un «horizon de prédiction», c'est-à-dire un temps au-delà duquel la position du système est complètement inconnue : en raison de la dépendance absolument imprévisible de la dernière décimale des conditions initiales, cette position varie chaotiquement et fortement comme fonction de cette dernière décimale. Au-delà de l'horizon de prédiction, l'état du système est tout à fait inconnu.

Cette conclusion ne dépend donc pas du choix précis du nombre de décimales. L'horizon de prédiction varie seulement comme une fonction linéaire de ce nombre de décimales. Alors, pour le mécanicien quel qu'il soit — tant amateur de précision — la partie de l'espace des conditions initiales qui donne lieu aux mouvements chaotiques ne peut lui apporter aucune connaissance sur l'avenir du système au-delà d'un certain horizon du temps.

En même temps, on doit faire comprendre au public que les résultats selon lesquels un nombre considérable de systèmes newtoniens sont chaotiques, possèdent une utilité non seulement philosophique mais aussi pratique. Dans le domaine de l'ingénieur, nous comprenons maintenant qu'un grand nombre de systèmes importants conduisent inévitablement à des mouvements chaotiques qu'il faut étudier stochastiquement. Dans le domaine de Laplace concernant la mécanique céleste, on a déjà précisé, et par la théorie et par les observations, que le mouvement d'un des satellites de la planète Saturne (à savoir le satellite Hypérion) est chaotique. Dans le domaine du météorologue, on utilise déjà comme outil très valable le concept de l'horizon de prédiction (ici, bien sûr, le nombre de décimales propres au sujet est tout petit!). Mais il existe beaucoup d'autres exemples.


Sir James Lighthill

Dans cet article, j'ai essayé de donner les raisons pour lesquelles il a fallu trois siècles après Newton, d'une part pour juger la cause célèbre du déterminisme pour les systèmes régis par les lois newtoniennes, d'autre part pour achever l'intégration effective de la mécanique théorique et de la mécanique appliquée. J'espère surtout avoir rappelé à mes distingués auditeurs l'étendue extraordinaire des grandes réussites obtenues par les mécaniciens, entre Newton et Germain.

NOTE

(1) Pour une discussion plus détaillée à ce sujet, voir Lighthill (1986) «The recently recognized failure of predictability in Newtonian dynamics », Proc. Roy. Soc, A407, 36-50.

92


LA VIE DES SCIENCES

L'intérêt d'observer la Terre depuis l'espace

Fernand VERGER

IMAGEO, UPR n° 30 du CNRS, 191, rue Saint-Jacques, 75005 Paris

« Les miroirs feraient bien de réfléchir un peu plus avant de renvoyer des images. »

Jean Cocteau, Le sang d'un poète.

L'observation de la Terre depuis l'espace offre un merveilleux outil de connaissance géographique. Mobilisant toute une chaîne technique lourde qui associe des lanceurs et des satellites très sophistiqués à des systèmes plus ou moins complexes de traitement des données, elle produit un foisonnement d'images extrêmement variées dont les aspects divers flattent souvent l'oeil, renseignent ou parfois déconcertent ceux qui cherchent à les interpréter. L'investissement des puissances spatiales est considérable sur le plan technologique et financier : le coût total du programme Spot 1 s'élève ainsi à plus de trois milliards de francs.

Face à l'abondance des documents et à l'ampleur de l'investissement intellectuel et financier, la réflexion épistémologique sur la véritable révolution provoquée par la télédétection satellitaire est demeurée limitée et le plus souvent inexprimée. Il faut aujourd'hui examiner les possibilités des nouveaux instruments et les conséquences de la généralisation de leur usage dans les domaines scientifiques, politiques et culturels.

L'intérêt de voir la Terre depuis l'espace a été d'abord décelé, à la fois par les militaires pour l'espionnage géographique et par les météorologistes pour la prévision à court terme. Le désir d'observer des territoires étrangers est la motivation principale des

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 2, p. 93-112


F. Verger

Fig. 1. — Tableau synoptique des satellites civils et militaires d'observation de la Terre. Principalement d'après : Johnson N. L., 1987, Soviet Space Programs 1980-1985. Vol. 66 Science and Technology séries. An American Astronautical Society publication. Johnson N. L., 1987, The Soviet Year in Space. 1986. Teledyne Brown Engeneering. Colorado Springs. Johnson N. L., 1988, The Soviet Year in Space. 1987. Teledyne Brown Engineering. Colorado Springs. King-Hele D. G. et al, 1987, The RAE Table of Earth satellites. 1957-1986. M. Stockton press. Laurent D., 1982, Les satellites américains d'observation photographique. L'Aéronautique et l'Astronautique. 1982-5, n° 96, p. 41-52.

94


Observer la Terre depuis l'espace

Fig. 1. (suite) — Les satellites soviétiques de reconnaissance militaire ont été regroupés en cinq familles : 1. — satellites à basse et moyenne résolution des trois premières générations; 2 et 3. — satellites à haute résolution de la deuxième et de la troisième générations; 4 et 5. — satellites polyvalents de la quatrième et de la cinquième générations.

95


F. Verger

militaires dans ce domaine où les lancements ont été très nombreux depuis que Discoverer14 a probablement fourni, le 10 août 1960, les premières images sur l'Union Soviétique au Département de la Défense des États-Unis. Les météorologistes ont aussi compris très tôt ce qu'ils pouvaient tirer de l'observation synoptique des systèmes nuageux vus du dessus; TIROS-1 (Télévision InfraRed Observational Satellite), lancé dès 1960 a inauguré la série des satellites de météorologie (1).

Dans la même décennie, l'image de la Terre vue de l'espace suscite l'émerveillement des astronautes embarqués dans les premiers véhicules spatiaux : Vostok en 1961, Voskhod en 1964 (2), Mercury en 1962, Gemini en 1964 (3). La variété de notre planète contraste avec l'aspect monotone et désolé de la Lune. La Terre apparaît avec le bleu des océans et le blanc des masses nuageuses qui l'emportent sur le rouge ou le jaune de la lithosphère et le vert plus ou moins brunâtre de la végétation. Si les astronautes perçurent immédiatement la beauté et la nouveauté de cette image de la Terre, il fallut attendre la fin des années 1960 et les analyses des résultats des vols Apollo-7 ( 4) et Apollo-9 (5), pour que les applications scientifiques et économiques de l'observation de la Terre à partir du cosmos se développent véritablement.

Les décennies 1970-1980 voient la poursuite de l'effort de reconnaissance militaire qui recherche les plus fines résolutions et une plus grande manoeuvrabilité des satellites. La météorologie, pour laquelle des résolutions plus grossières sont en général parfaitement adaptées, continue son essor en s'intégrant de plus en plus dans un système global. Ces années marquent aussi le développement d'une nouvelle activité civile pour la connaissance des ressources de la Terre. Elle est assurée par des capteurs dont la résolution est intermédiaire entre celle des deux catégories précédentes. Elle est désignée sous l'appellation de télédétection satellitaire par certains auteurs qui restreignent ainsi le sens d'un terme auquel il est peut-être souhaitable de conserver son acception originelle — plus large — de détection à distance, et ce à toutes les échelles.

Dans ce domaine, les programmes de satellites habités ont fourni l'occasion de multiplier des expérimentations novatrices. Les missions Skylab ( 6) ont ainsi permis de tester plusieurs méthodes de connaissances des ressources terrestres à partir de l'espace avec les capteurs de l'EREP (Earth Resources Experiment Package) (7); de même, des chambres photographiques (Metric Caméra et Large Format Caméra) ( 8) et des systèmes de radar comme ceux des missions SIR (Shuttle Imaging Radar) ( 9) ont été testés lors de vols de la Navette Spatiale. D'autres expérimentations sont actuellement conduites par les Soviétiques à bord de MIR, après l'avoir été à bord des Soyouz et des Saliout.

Des missions opérationnelles ont été assurées par des séries de satellites automatiques à longue durée de vie comme les Landsat ou certains Cosmos. Le développement de l'observation de la Terre se manifeste aussi par l'apparition, en dehors des États-Unis et de l'URSS, de nombreux pays possédant des satellites de télédétection : la France avec Spot (Satellite Pour l'Observation de la Terre) (10), le Japon avec MOS (Marine Observation Satellite) et l'Inde avec IRS (Indian Remote Sensing). La Chine, en lançant des satellites d'observation de courte durée de vie (Chine 19), commence à son tour à maîtriser cette technique. Ce développement doit se poursuivre activement au cours des prochaines années par de nombreux programmes non seulement dans les pays qui ont déjà accédé à cette technologie, mais aussi dans d'autres comme l'Indonésie — projet TERS (Tropical Earth Resources Satellite) — ou le Brésil, en coopération avec la Chine (fig- 1)


Observer la Terre depuis l'espace

Les produits à très haute résolution de la reconnaissance militaire sont d'une nature assez proche, en général, des photographies aériennes exploitées par les méthodes aujourd'hui classiques de la photo-interprétation. Ce sont en fait surtout les images à plus faible résolution, largement diffusées, qui modifient notre perception du monde. C'est donc essentiellement sur celles-ci que se fonde l'analyse épistémologique proposée ici.

La substitution de l'image à l'imaginé

Il n'y a pas si longtemps que l'homme dispose d'images de la Terre. La photographie aérienne a commencé à fournir à partir de ballons des images parcellaires dès le XIXe siècle, mais seule la télédétection satellitaire a pu recueillir systématiquement des images d'échelles constantes de la surface de la Terre entière. Ainsi toute une couverture d'images aériennes puis spatiales s'est ajoutée, et même parfois substituée, aux cartes imaginées.

Fig. 2. — Substitution de Fimage à Fimaginé : Le levé cartographique (C0, Ct) procédait par reconstitutions imaginées des surfaces (C2), alors que la télédétection satellitaire (T0) renseigne l'image elle-même en procédant dans un ordre inverse : elle constate d'abord les surfaces (T1) et en déduit seulement ensuite les contours (T2).

97


F. Verger

Naguère, en effet, la connaissance de la Terre était fondée sur des reconstitutions imaginées à partir d'observations partielles portant sur des points, plus rarement sur des lignes, presque jamais sur des surfaces. Le levé topographique par triangulation relevait des points que l'imagination joignait Les forêts étaient figurées à partir de leurs orées et le tracé des orées était lui-même déterminé à partir du relevé des angles du contour forestier. Des clairières pouvaient ainsi rester inaperçues des topographes qui n'exploraient pas toujours l'intérieur de la forêt (fig. 2). La télédétection satellitaire procède dans l'ordre inverse : elle constate d'abord les surfaces et déduit seulement ensuite leurs contours.

Par une évolution indépendante mais parallèle, la cartographie automatique qui procède des images satellitaires s'est mise à utiliser de plus en plus les imprimantes à jet d'encre ou à laser, qui couvrent des surfaces de couleurs, aux dépens des tables traçantes qui dessinaient des courbes. Les modes matriciels de cartographie automatique se sont alors généralement substitués aux modes vectoriels. La connaissance qui repose sur l'image au lieu de recourir à l'imaginé provoque un renversement complet du mode de cognition des paysages de la Terre; cette cognition devient du même coup à la fois plus fiable et plus concrète.

La substitution du quantitatif au qualitatif

La télédétection satellitaire apporte sur les paysages terrestres une série de mesures radiométriques qui se substituent à la qualification du topographe, de l'explorateur ou de l'enquêteur des périodes précédentes. Les nombres qui expriment ces mesures doivent être combinés et interprétés (fig. 3). Ils peuvent alors sous forme d'indices — tel l'indice de biomasse — cerner beaucoup plus précisément des réalités auparavant ignorées ou seulement connues ponctuellement par de trop rares mesures au sol. Ces nombres peuvent ensuite être traités par des opérateurs mathématiques variés qui en facilitent l'interprétation.

De plus, des relations topologiques entre les éléments d'images (ou pixels) fournissent un autre champ à l'investigation morphologique (11). Celle-ci peut alors reconnaître des objets par leur forme géographique autant que par leur signature radiométrique (fig. 4). Par exemple, les formes de colonisation végétale apparaissent ainsi à la fois par leur fort indice végétal au milieu d'étendues minérales mais aussi par une morphologie punctiforme d'abord, lorsque les touffes végétales s'installent en pionnières, cribriforme ensuite, lorsque les touffes se rejoignent par coalescence, et uniforme enfin, lorsque le tapis végétal a conquis toute l'étendue. Des indices fondés sur l'évolution de la représentation du paysage lors de lissages itératifs peuvent caractériser de façon simple ces aspects morphologiques (12).

Des « images d'images » se substituent aux images primaires, dont elles expriment seulement certains des paramètres extraits : images dérivées telles qu'images lissées, images des gradients, images d'indices, images de classification, images différentielles entre deux images primaires, etc. La généralisation du numérique ouvre ainsi la voie à l'interprétation automatique et à l'utilisation des systèmes experts en géographie. Les données fournies


Observer la Terre depuis l'espace

Fig. 3. — Substitution du quantitatif au qualitatif. La cartographie des températures de surface exprimées en degrés centigrades est possible à partir des données infrarouge thermique de l'AVHRR de NOAA. (Données acquises par le Centre de Météorologie Spatiale SATMOS de Lannion, prétraitées par l'Institut Géographique National et le Groupement pour le Développement de la Télédétection Aérienne et Spatiale, et traitées par J.-P. Lagouarde, à l'Institut National de la Recherche Agronomique dans le cadre du programme HAPEXMOBILHY.)

99


F. Verger

par les satellites parviennent en des quantités dont le nombre s'accroît en même temps que la finesse de la résolution.

Ces quantités ont imposé des enregistreurs et des émetteurs de télémesure ayant des débits considérables qui atteignent 50 Mbits par seconde pour Spot 1; les programmes futurs seront encore plus performants avec des capacités de 60 Mbits par seconde pour JERS 1 (Japanese Earth Remote Sensing), de 85 Mbits par seconde pour les futurs Landsat 6 et 7 et même de 300 Mbits par seconde pour EOS (Earth Observing System). L'abondance de ces flux d'informations risquerait d'être gênante si l'on ne choisissait pas avec rigueur les niveaux de résolutions spatiale, spectrale et temporelle appropriés aux domaines concernés.

Il faut, en particulier, souligner que les plus fines résolutions ne sont pas toujours les plus adaptées et que l'intégration favorisée par l'éloignement est souvent plus un avantage qu'un inconvénient. Il en va de même pour l'usage des traitements parmi lesquels il faut choisir. La tentation est quelquefois grande d'appliquer des algorithmes sophistiqués pour extraire tel ou tel trait pertinent du paysage alors que l'examen de l'image originelle peut livrer une information parfois plus complète et plus utile à qui sait la déchiffrer.

La perception du visible comme de l'invisible

L'utilisation des capteurs sensibles aux mêmes bandes spectrales que l'oeil humain a été pratiquée tôt et amplement à partir de l'espace. Les images prises dans les longueurs d'onde du visible (450 à 710 nanomètres) font appel, pour leur interprétation, à des critères avec lesquels notre expérience journalière nous a familiarisés. On peut adjoindre à ces bandes spectrales, celle de l'infrarouge proche, couramment utilisée auparavant en photographie aérienne. Cette partie du spectre est d'ailleurs particulièrement appréciée par suite de la faiblesse de la diffusion atmosphérique qui s'y produit, et de la vigueur

Fig. 4. — Morphologie des paysages. Le filtre taxinomique imposé par la résolution spatiale et le traitement informatique des données favorisent l'analyse morphologique des paysages. Des types morphologiques peuvent être définis pour un niveau taxinomique donné dans une évolution progressive ou régressive.


Observer la Terre depuis l'espace

des contrastes de réflectance qu'on y observe : forte absorption par l'eau et forte réflectance de la chlorophylle, entre autres. Les capteurs de nombreux satellites, tel Spot, limitent leur sensibilité aux bandes du visible et de l'infrarouge proche.

Au-delà de l'infrarouge proche, l'infrarouge thermique est l'autre domaine spectral le plus fréquemment utilisé, notamment par les séries de satellites météorologiques. Les mesures, le plus souvent de moindre résolution spatiale que les mesures dans le visible et le proche infrarouge, renseignent sur la température de surface des océans, des terres et des nuages, sur l'inertie des surfaces à réchauffement diurne et au refroidissement nocturne; les capteurs de beaucoup de satellites associent des mesures dans cette partie du spectre aux mesures dans le visible, tels le VHRR (Very High Resolution Radiometer), puis l'AVHRR (Advanced Very High Resolution Radiometer) des satellites NOAA (National Océanographie and Atmospheric Administration) (13).

D'autres parties du spectre sont de plus en plus employées. L'utilisation du radar imageur porté par un satellite civil n'a commencé qu'en 1978 avec la mission de Seasat-1 (fig. 5) qui était équipé d'un radar latéral à synthèse d'ouverture (bande L) (14). La

Fig. 5. — Le radar latéral et la perception de Finvisible. Image du littoral du centre ouest de la France (Ile de Ré, La Rochelle) prise à travers les nuages par le radar latéral de Seasat-1, le 21 août 1978.

101


Fig. 6. — Principales bandes spectrales utilisées par la télédétection satellitaire. L'existence de fenêtres de transparence de l'atmosphère conditionne les domaines d'exercice de la télédétection. Les capteurs qui décrivent la surface du globe sont limités à ces fenêtres; ceux qui étudient des phénomènes atmosphériques peuvent se placer en dehors, s'ils étudient précisément les phénomènes qui forment écran.


Observer la Terre depuis l'espace

Navette Spatiale a pu tester les modes de détection radar avec les expériences SIR A ( 15) et SIR B dans ce domaine. On peut prévoir une multiplication des radars spatiaux d'incidences variées dans de nombreuses bandes centimétriques et décimétriques (bandes L, C et X de l'expérience prévue SIR C et du futur satellite EOS). Ils permettront une connaissance nouvelle de la rugosité de la surface ainsi que de la nature de la subsurface de la Terre. Des systèmes en projet s'efforceront de recueillir un spectre détaillé pour chaque élément de l'image : ce sont les systèmes spectro-imageurs. Un de ces systèmes est l'HIRIS (High Resolution Imaging Spectrometer) qui se propose de mesurer la luminance dans 192 bandes spectrales, comprises entre 0,4 et 2,5 um (fig. 6) (16).

Enfin, les capteurs précédemment décrits sont tous des capteurs imageurs : ils fournissent des données qui décrivent des étendues continues de la surface de la Terre par des séries de mesures élémentaires. Celles-ci définissent des pixels contigus dont la juxtaposition ordonnée compose des images géographiques. A côté de ces capteurs imageurs, d'autres capteurs, qui ne le sont pas (altimètres, diffusiomètres, sondeurs, etc.), fournissent des observations de différentes natures, par exemple sur la hauteur des vagues et sur les caractères des vents à la surface de l'océan. Leur multiplication contribue aussi puissamment à fonder une nouvelle connaissance des aspects divers de notre planète et à préciser le fonctionnement du système Terre.

La perception diachronique

La répétitivité des prises de vue, qui fournit des séquences nourries d'images successives des mêmes régions, assure déjà de disposer généralement de collections nombreuses

Fig. 7. — Perception diachronique de phénomènes évolutifs. La combinaison de deux images Spot acquises le 26 juin 1986 et le 6 août 1986 montre, en rouge, l'accroissement des surfaces de sables nus : apports éoliens sur la végétation des dunes et engraissements localisés de l'extrémité méridionale de la pointe d'Arçay (Vendée) [cf. référence (17)].

103


F. Verger

d'images différentes des mêmes lieux, parmi lesquelles il est possible de choisir les plus adaptées au but poursuivi. Elle trouve des applications diverses qui peuvent être regroupées en trois catégories.

La première catégorie est celle qui se sert de la détection des aspects — différents au cours du temps — des objets qu'on cherche à définir au sol : on dit qu'on utilise alors la signature diachronique des objets. Des cultures peuvent ainsi être identifiées par la succession de leurs stades phénologiques beaucoup plus sûrement que par leur seule signature instantanée; des estrans sont ainsi aisément reconnus par leur alternance de submersion et d'émersion, etc.

La deuxième consiste à sélectionner des valeurs particulières dans des collections d'images successives afin de reconstituer des images composites : cette opération peut servir à faciliter l'analyse statistique. Il est ainsi possible de fabriquer la mosaïque d'une face de la Terre en assemblant des fragments des images prises de demi-heure en demiheure par un satellite géostationnaire, de telle sorte que chaque fragment représente un fuseau éclairé aux environs de midi en heure locale. On peut ranger dans la même catégorie l'utilisation d'images successives pour supprimer certains accidents qui n'affectent qu'une partie de chacune d'elles; par exemple, pour dresser une carte thermographique d'une étendue marine, on n'utilise que les valeurs maximales de chaque pixel de quelques vues successives : les nuages — du fait de leur basse température — sont ainsi éliminés.

La troisième est celle qui consiste à décrire la cinématique de la Terre à partir du suivi satellitaire. En effet, la répétition des observations depuis des satellites géostationnaires qui demeurent en permanence au-dessus du même point de la surface de la Terre, comme celle des satellites à défilement qui repassent cycliquement au-dessus des mêmes points, fonde une nouvelle connaissance diachronique des phénomènes évolutifs tels que les mouvements des cyclones, le déplacement des icebergs, ou les accumulations ou érosions littorales (fig. 7) (17).

La répétitivité est particulièrement appréciée pour suivre des cataclysmes comme les éruptions volcaniques, les grandes inondations ou les vols d'acridiens, ainsi que pour connaître des phénomènes évolutifs mal recensés tels que la croissance des villes du Tiers monde. L'amélioration de la résolution spatiale permet d'étudier des faits d'extension de plus en plus limitée. La nature et l'échelle des phénomènes à étudier commandent le choix des résolutions temporelles comme des résolutions spatiales. La répétitivité est enfin une qualité essentielle pour l'espionnage militaire qui s'attache à déceler les modifications de toute nature qui se produisent dans les bases stratégiques étrangères ainsi que les mouvements de navires ou de troupes.


Observer la Terre depuis l'espace

L'étagement des niveaux d'observation

La gamme des capteurs combinée à celle des satellites fournit une série étagée de niveaux de perception des phénomènes observés à la surface de la Terre. Si l'on ne retient pas les satellites militaires de reconnaissance qui fournissent des images confidentielles dont la résolution est décimétrique, cette série s'étend pour les seuls satellites civils d'observation depuis la résolution décamétrique de Spot en mode panchromatique jusqu'à la résolution kilométrique de Météosat. Ces divers niveaux correspondent à des échelles diverses de perception :

— La résolution décamétrique est celle de l'espace perçu par l'homme habitant. Plus proche de notre perception visuelle directe et aussi de l'échelle des photographies aériennes, cette résolution s'accommode en général des principes et des modes de la photointerprétation, au moins dans les bandes spectrales du visible et de l'infrarouge proche

(fie- 8).

— La résolution hectométrique est celle de l'espace de l'homme circulant au sol. Elle coiffe la résolution précédente dont elle facilite l'insertion dans des ensembles régionaux plus vastes.

— La résolution kilométrique est, elle, tout à fait étrangère à la perception de l'homme demeuré prisonnier de la surface de la Terre. C'est elle qui ouvre les perspectives les plus nouvelles dans l'enrichissement de notre connaissance de la Terre et qui requiert les méthodologies d'interprétation les plus neuves (18).

L'étagement favorise la prise de conscience de niveaux multiples d'intégration et facilite le choix d'un niveau taxinomique de généralisation adapté au type d'analyse effectuée et aux intervalles chronologiques utilisés. Ces niveaux sont en partie déterminés par le champ thématique de l'utilisation des données de télédétection.

C'est ainsi que très généralement la météorologie et la climatologie se contentent des résolutions spatiales et spectrales grossières pour obtenir les plus vastes champs synoptiques et la plus grande répétitivité temporelle. Les images Météosat utilisées pour l'étude des bilans radiatifs constituent un exemple de cette exploitation (fig. 9) (19).

La géologie structurale des grands ensembles retient des images synoptiques à l'échelle

du continent ou de la chaîne montagneuse plutôt qu'à celle de la planète, avec des

résolutions spatiales relativement grossières. Elle recherche plutôt des angles de prises de

vue et des éclairements adaptés, des états favorables du couvert végétal qui assureront la

révélation de phénomènes comme les grands linéaments (20).

Pour sa part, la géomorphologie s'attache, pour l'étude des modelés ( 21) à l'interprétation d'images — parfois stéréoscopiques — à résolution assez fine ainsi qu'aux suivis diachroniques les plus nourris et les plus longs : l'érosion ou l'engraissement des côtes, les migrations des dunes, la progression des coulées volcaniques, les glissements de terrain peuvent ainsi être étudiés dans leur évolution.

Les études sur les couverts végétaux recherchent en général une homogénéité du champ instantané qui est mieux assurée par les fines résolutions, mais doit parfois consentir des sacrifices dans ce domaine pour obtenir des données dans de nombreuses bandes spectrales (22).


Fig. 8. — Image Spot à résolution décamétrique. Image de New York combinant une image panchromatique à résolution de 10 m et une image multibande à résolution de 20 m prise par le satellite Spot-1, le 8 juillet 1986. Sa lecture relève des méthodes de la photo-interprétation. (Document Spot Image © CNES-Spot Image 1986).


Observer la Terre depuis l'espace

Fig. 9. — Observation globale d'une face de la Terre. Moyennes mensuelles des totaux journaliers du rayonnement solaire global pour janvier et juillet 1985. Images construites d'après les données de Météosat 2 (canal visible). [Document communiqué par l'Institut fur Geophysik und Meteorologie, de Cologne (cf. référence 19)].

107


F. Verger

L'archéologie, quant à elle, recherche parmi les images à résolution très fine celles qui assurent, de façon parfois imprévisible, les éclairements adéquats afin de reconnaître des vestiges du passé inconnus ou mal connus.

Toutes ces disciplines, et bien d'autres comme l'océanographie, l'hydrologie ou l'urbanisme utilisent les types d'images les plus adaptés à leur objet par leur résolution spatiale, leur nature spectrale et la date et l'heure de leur prise de vue.

L'universalité d'acquisition et de diffusion

Le satellite embrasse de vastes étendues synoptiques et ignore les frontières politiques. Il autorise l'observation globale de faits d'extension planétaire, comme la vague verte vernale d'un continent (fig. 10) ou celle de phénomènes transfrontaliers. L'universalité d'acquisition des données de télédétection à partir de l'espace est inscrite dans la nature de l'outil lui-même. L'évolution actuelle des techniques ne fait d'ailleurs qu'accroître le poids de cette universalité par l'augmentation des capacités d'enregistrement et des débits de transmission ainsi que par l'utilisation des satellites-relais géostationnaires comme TDRS (Tracking and Data Relay Satellite) qui permet la réception en un seul lieu et en temps réel des données décrivant la totalité de la planète (23).

Cette universalité d'acquisition, liée aux caractères de l'outil, est conforme aux dispositions du Traité international sur l'espace de 1967 qui reconnaît que « l'espace extraatmosphérique peut être exploré et librement utilisé par tous » (24).

Malgré cette reconnaissance et ces caractères, les plus intransigeants des États nonalignés, connus sous le nom de groupe des 77, ont contesté la liberté de prise de vues en revendiquant un principe de souveraineté sur leurs ressources naturelles et sur les moyens de les inventorier. Mais la pression internationale et surtout l'impossibilité de fait de contrôler la prise de vue ont rendu caduque cette revendication et l'universalité d'acquisition est entrée dans les faits et dans le droit. Elle s'inscrit d'ailleurs dans le mouvement général du déclin des souverainetés nationales au profit d'organismes supranationaux et parfois aussi des sociétés multinationales.

Face à l'universalité d'acquisition des données, l'universalité de diffusion, longtemps de règle à la NASA, est plus controversée et plus fragile; les menaces qui pèsent sur elle ont des motivations de diverses natures et s'expriment par des revendications variées. Les raisons de ces menaces tiennent aux divers pouvoirs de l'image : pouvoirs à la fois symboliques et affectifs. L. Lévy-Bruhl avait relevé la méfiance des sociétés ancestrales qui étaient persuadées de la réalité de la formule : « qui possède mon image me tient en son pouvoir » (25). Il est vraisemblable qu'une part de cette méfiance instinctive demeure peut-être au fond de certaines attitudes.

Des raisons plus conscientes ressortissent à l'exploitation économique des informations de la télédétection satellitaire qui peuvent par exemple révéler des structures favorables à des gisements minéraux : structures anticlinales pour le pétrole, structures circulaires indicatrices de granités leucocrates pour les gisements d'uranium. Souvent aussi les informations ne servent pas directement à l'exploitation des ressources des pays détectés, mais sont utilisées pour des spéculations planétaires sur des produits dont on cherche à évaluer l'évolution future du marché : c'est l'intérêt des programmes de prévision de


Observer la Terre depuis l'espace

récoltes qui ont été utilisés notamment pour le café du Brésil et les céréales de l'Union Soviétique.

Toutes ces raisons sont à l'origine de la revendication plus pratique de certains pays de restreindre au moins la diffusion des images spatiales les représentant en la soumettant à leur autorisation. En 1982 toutefois, un pays en voie de développement, le Brésil, proposa de renoncer au principe de l'autorisation du pays observé avant diffusion des images (26). Cette position réaliste doit être encouragée car la pire aliénation pour les pays téléobservés consiste, en fait, en l'accaparement de leur image, exploitée confidentiellement par d'autres pays, et non en la libre diffusion des documents de télédétection qui les concernent.

D'autres motivations sont d'ordre stratégique et militaire; s'il est évident que les données acquises par les satellites militaires de reconnaissance, tels les Key Hole ou

Fig. 10. — Au-delà de la Terre, Fobservation d'autres planètes. Cette image d'une partie de l'hémisphère nord de Vénus a été établie à partir des données radar des sondes soviétiques Venera-15 et 16, acquises d'octobre 1983 à juillet 1984. Le plateau d'Ishtar Terra, au centre, domine de plusieurs kilomètres les plaines environnantes. (Document communiqué par l'Académie des Sciences de l'URSS).


F. Verger

certains Kosmos, ressortissent au domaine secret du renseignement et ne peuvent faire l'objet d'une diffusion publique, la divulgation des informations spatiales civiles suscite chez les militaires de très nombreux pays une méfiance croissant avec l'amélioration du pouvoir de résolution des capteurs. Cette attitude est largement répandue dans les pays socialistes où la plupart des images de l'espace sont considérées comme secrètes. Elle entraîne aussi des mesures restrictives aux États-Unis où le Pentagone a envisagé de limiter le libre accès aux futures images civiles à haute résolution et se montre peu favorable à des projets de satellites de télédétection privée tel celui de la société Médiasat ( 27) destiné à fournir des images de cette qualité à la presse.

Pour éviter que la libre observation ne soit assimilée à de l'espionnage, comme la grande presse le fait trop souvent, il faut donc s'assurer qu'elle soit suivie de sa libre diffusion. L'espionnage, observation clandestine, est tout à fait incompatible avec une diffusion ouverte qu'il paraît absolument nécessaire de garantir pour les données civiles obtenues à partir de l'espace. Les restrictions qui pourraient être apportées à la liberté de diffusion seraient nuisibles à la culture comme à la science, puisqu'elles risqueraient de morceler une connaissance dont l'universalité est le principal intérêt. Elles seraient aussi nuisibles au contrôle démocratique de l'information concernant les faits touchant à la sécurité des populations en matière d'environnement. L'existence de spécialistes compétents est la dernière condition nécessaire car, en leur absence, la libre diffusion suivie d'une interprétation fallacieuse risquerait d'être plus dommageable que l'absence d'information.

L'extériorité de l'observation

Enfin, la télédétection satellitaire apporte à l'homme une vision extérieure de son milieu et ce n'est pas là la moindre originalité de la méthode. Les systèmes nuageux sont vus du dessus et non du dessous. Le système Terre est observé à partir du cosmos, avec ses continents, ses océans enveloppés par l'atmosphère et ce type d'observation entraîne des conséquences objectives. Les résultats obtenus au cours des vingt-cinq dernières années par des satellites divers, notamment les Météosat, les TIROS, les NOAA, les Nimbus, les Landsat, de nombreux Kosmos, Seasat, HCMM (Heat Capacity Mapping Mission) (28), Spot, MOS ont démontré la nécessité d'observer la Terre dans sa globalité. La modélisation du système Terre ne saurait, en effet, être conduite que dans un cadre unifié intégrant les études multidisciplinaires sur les terres émergées, les océans, la cryosphère et l'atmosphère.

C'est ainsi que l'étude des variations climatiques prend désormais en compte des phénomènes divers cernés par la télédétection satellitaire. L'évolution de la topographie des calottes glaciaires pourra ainsi être connue avec une précision décimétrique par le satellite TOPEX-Poseidon (océan TOPography EXperiment) qui doit être lancé en 1991 (29). Le fonctionnement du système Terre, les échanges de matières et d'énergie qui s'y produisent peuvent être décrits de façon quantitative depuis l'espace. La pénétration du dioxyde de carbone dans les eaux marines, par exemple, est fonction de la température de surface des océans, de leur teneur en chlorophylle et de la vitesse du vent sur la mer, tous phénomènes que le satellite permet de mesurer. Dans l'atmosphère et la stratosphère, la connaissance des profils de température, en présence ou non de nuages, de même que l'appréciation de la teneur en ozone ouvrent de nouvelles voies à la climatologie.


Observer la Terre depuis l'espace

Aussi les années 1990 verront-elles un nouveau développement de l'observation de la Terre à partir de l'espace qui associera les mesures de toute une série de satellites à des observations au sol. C'est l'objet de l'ambitieux programme international EOS (30). Cette observation extérieure implique aussi une modification de la philosophie de notre connaissance. L'extériorité de l'observation directe fait l'un des intérêts des vols habités : le fait de voir la Terre vivre à distance est riche en outre de résonances psychologiques et métaphysiques. L'apparition de cette télégéoscopie directe est sans doute un fait majeur dans l'histoire de la prise de conscience par l'Homme de son milieu. Elle fournit un argument supplémentaire d'ordre émotionnel aux partisans des vols habités, face aux tenants de l'exploitation exclusivement automatique de l'espace. La NASA l'a bien compris, qui pour convaincre les parlementaires américains de la nécessité d'un effort financier dans le domaine des stations habitées, a offert à deux d'entre eux un voyage dans la Navette.

Conclusion

La télédétection satellitaire apparaît aujourd'hui comme l'outil le plus novateur de la géographie comprise dans son acception de science dont l'un des objets demeure l'étude des phénomènes physiques, biologiques et humains dans leur localisation à la surface du globe terrestre. Elle s'articule selon deux axes principaux qui peuvent au moins partiellement s'entrecroiser :

— Le premier axe se nourrit de la collection toujours renouvelée d'images actuelles à grande échelle, et se rapproche parfois des modes d'utilisation de la photographie aérienne. En dehors de la reconnaissance militaire, il a souvent pour objectif la cartographie chorographique, topographique ou même thématique. Cette télédétection est l'apanage de satellites opérationnels à orbite basse. Exclusivement menée pendant quelque temps par des agences nationales, ce type de télédétection tend aujourd'hui à devenir le domaine de sociétés commerciales comme Eosat ou Spot-Image.

— Le second axe est celui des données planétaires et a des objectifs météorologiques ou, de façon plus ambitieuse, de modélisation climatologique des bilans radiatifs. Il se nourrit des images répétées des satellites géostationnaires et s'appuie beaucoup sur les données des satellites non imageurs afin de fournir les éléments d'une compréhension synthétique du fonctionnement du système. Il demeure le domaine de la coopération internationale et des agences gouvernementales.

Les modes d'exploitation des deux axes juxtaposent à l'examen visuel analogique, l'exploitation des banques de données numériques très abondantes qui peuvent se combiner avec des données exogènes dans des systèmes complexes d'information géographique, tantôt régionaux, tantôt globaux. Il faut savoir profiter des avantages qu'offre un arsenal technologique en pleine évolution, mais aussi savoir le maîtriser par l'adaptation du moyen au but poursuivi, comme par l'adéquation de modes libéraux de diffusion à l'acquisition universelle des données. A ce prix, élevé économiquement, intellectuellement et politiquement, la télédétection satellitaire peut réellement apporter des modifications notoires dans l'existence des hommes sur la Terre.


F. Verger

NOTES

(1) Colwell R. N., 1983, Manual of Remote Sensing. American Society of Photogrammetry, Falls Church, Virginia.

( 2) Koval A., Dessinov L., 1988, De Spoutnik à la station Mir : 30 ans d'observation de la Terre. Larousse, Paris.

( 3) NASA, 1967, Earth Photographs from Gemini-1, 4, 5. NASA, SP-129, Washington D.C.

( 4) Gierloff-Emden H. G., 1976, Manual of interprétation of orbital remote sensing satellite photography and imagery for coastal and offshore environmental features. Mûnchener Geographische Abandlungen, bd 20.

( 5) Lowman P. D., 1969, Apollo-9 multispectralphotography, Géologie analysis. NASA Goddard Space Flight Center. Report X-644-69-423. Greenbelt, Maryland.

( 6) Welch R., 1974, Skylab-2 photo-evaluation. Photogrammetric Engineering and Remote Sensing, v. 40, p. 1221-1224.

( 7) NASA Lyndon B. Johnson Center, 1978, Skylab EREP Summary. NASA, SP-399, Washington D.C.

( 8) Gierloff-Emden H. G., Dietz K. R., Halm K., 1985, Geographische Bildanalysen von Metric-CameraAufnahmen des Space-Shuttle-Fluges STS-9. Münchener Geographische Abhandlungen, bd 33.

( 9) Cimino J. B., Elachi C, 1982, Shuttle Imaging Radar-A (SIR-A) Experiment. Jet Propulsion Laboratory, publication 82-77, Pasadena, California.

( 10) Cervelle B., 1989, Spot : Des yeux braqués sur la Terre. Presses du CNRS, Paris.

(11) Flouzat G., 1988, Morphologie mathématique et analyse des images de télédétection. Photo-Interprétation, 88-5, p. 1-16.

( 12) Verger F., Joly G., 1980, Analyse de quelques caractères texturaux des paysages d'après les données Landsat. Photo-Interprétation, 1980-2, 4, p. 37-44.

( 13) Jane's spaceflight directory 1988-1989, 1989. Jane's Publishing Company, Londres.

( 14) Fu L. L., Holt, 1982, Seasat views océans and sea ices with synthetic aperture radar. Jet Propulsion Laboratory, publication 81-120, Pasadena, California.

( 15) Ford J. P., Cimino J. B., Elachi C, 1983, Space Shuttle Columbia views the world with Imaging Radar: the SIR-A Experiment. Jet Propulsion Laboratory, publication 82-95, Pasadena, California.

( 16) HIRIS, 1987, High Resolution Imaging Spectrometer: Science opportunities for the 1990's. Earth Observing System, Vol. IIc, Instrument Panel Report. NASA, Washington D.C.

( 17) Verger F., Wang L., Cuq F., He D. C, 1987, Données multitemporelles Spot-1 pour l'étude du régime des côtes sableuses, la Pointe d'Arçay (Vendée, France). Photo-Interprétation, 1987-2, 3, p. 29-38.

( 18) Brimacombe C. A., 1981, Atlas of Meteosat Imagery. European Space Agency, SP-1030, Paris.

( 19) Stuhlman R., The H., 1988, Statistics of global radiation over Europe and Africa computed from data of satellite Meteosat-2 (project SUNSAT). Proceedings of the Euroforum Congress "Neue Energien", 24-28 october 1988, Saarbrûcken, 5 p.

( 20) Masson Ph., 1978, Essai d'analyse structurale du rift levantin d'après les données Landsat. PhotoInterprétation, 1978-1, 3, p. 17-33.

( 21) Short N. M., Blair R. W., 1986, Geomorphology from Space, a global overview of régional landforms. NASA SP-486, Washington D.C.

( 22) Guyot G., 1989, Signatures spectrales des surfaces naturelles. Collection Télédétection Satellitaire, Paradigme, Caen.

( 23) Lebeau A., 1986, L'espace en héritage. Odile Jacob, Paris.

( 24) Colliard C. A., 1988, Le traité de l'Espace de 1967, permanence et actualité. Droit de l'Espace, Pédone, Paris, p. 69-99.

( 25) Lévy-Bruhl L., 1927, L'âme primitive. F. Alcan, Paris.

( 26) Saint Lager O. de, 1988, Aspects juridiques de la télédétection spatiale. Droit de l'Espace, Pédone, Paris, p. 225-253.

( 27) Brender M. E., 1989, High-resolution remonte sensing by the news média. Technology in Society, 11, 89-98.

( 28) Short N. M., Stuart L. M. Jr., 1982, The Heat Capacity Mapping (HCMM) Anthology. NASA, Washington D.C.

( 29) Stewart R., Fu L. L., Lefèvre, 1986, Science opportunities from the TOPEX-Poseidon mission. Jet Propulsion Laboratory, publication 86-18, Pasadena, California.

( 30) NASA, 1987, From Pattern to Process: The strategy of the Earth Observing System. Eos Science Steering Committee Report, Volume II.


LA VIE DES SCIENCES

Les virus oncogènes à ADN, outils de la cancérologie fondamentale

François CUZIN

INSERM, U 273, Université de Nice, Parc Valrose, 06034 Nice Cedex

Un ensemble de virus regroupés sous la désignation de virus oncogènes à ADN a été pendant plusieurs décennies l'objet des efforts convergents des cancérologues et des biologistes moléculaires. Les systèmes expérimentaux qu'ils ont apportés furent à l'origine de toutes les découvertes importantes, sans exception, de la génétique des vingt dernières années. Ils ont aussi permis des progrès décisifs dans notre connaissance des mécanismes de la cancérisation. Leur histoire commence avec les travaux de P. Rous, qui, entre 1930 et 1940, établit sur des bases expérimentales la notion de progression tumorale. Elle se poursuit pendant les années 1960-1970 avec la notion d'oncogène, développée ensuite sur d'autres modèles viraux. Ces mêmes virus reviennent au début des années quatre-vingts sous les projecteurs de l'actualité avec la notion de coopération entre oncogènes. Et à en juger par toute une série de découvertes récentes, leur rôle paraît loin d'être terminé.

L'approche de la cellule supérieure,

une rupture dans l'histoire de la génétique

Les travaux que l'Académie des Sciences m'a fait l'honneur de distinguer ( 1) résultent, comme presque toujours en biologie, de la concentration têtue des efforts sur un objet singulier, dont le choix initial déterminera les questions posées, et les réponses reçues. Ce choix fut celui d'un petit virus, utilisable comme une clé pour accéder aux fonctions intimes de la cellule, et son origine, une réflexion menée tout au long d'un séjour postdoctoral en Californie en 1968, il y a presque exactement vingt ans. Comme beaucoup

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 2, p. 113-124


F. Cuzin

d'autres généticiens pendant cette même période, je quittais le monde des microbes pour aborder l'étude des cellules dites « eucaryotes supérieures », celles de la souris, les nôtres aussi. Dans le laboratoire de Renato Dulbecco, je découvrais alors un monde étrange, stimulé par l'énergie communicative de Paul Berg et sous l'affectueuse férule de Marguerite Vogt. Un monde étrange pour un jeune généticien habitué à des matériels autrement plus dociles que ces lignées cellulaires, cultures primaires ou secondaires, d'embryons ou de rein de bébé souris, que nous devions apprendre à dominer.

En devenant moléculaire, la génétique venait alors de contribuer de manière décisive à l'établissement de la biologie en tant que science exacte, à partir des démarches descriptives qui l'avaient si longtemps dominée. J'avais eu la chance exceptionnelle d'en être le spectateur privilégié, et d'y prendre même une très modeste part, en apprenant mon métier auprès de certains des principaux acteurs de cette révolution. La décennie écoulée nous avait apporté le code génétique, l'ARN messager, l'opéron et quelques autres concepts d'importance. Et surtout, cette notion étonnante que nous allions plier à notre volonté la forme de la matière la plus rétive à l'analyse et la plus riche de complexités emboîtées, la matière vivante. Et voilà que nous devions confronter cette encore très jeune assurance aux mystères d'êtres encore plus étranges que les bactéries et le virus qui venaient de livrer quelques-uns de leurs secrets.

En ces années où tout paraissait abordable et où bien peu était encore possible, la première alternative était entre utiliser les outils disponibles et en créer de nouveaux. Le souci de Paul Berg était le tracé de la seconde voie, qui devait l'amener à un Prix Nobel. Personnellement, je me trouvais peu de goût pour découper des génomes, et n'arrivais guère à me passionner pour ce tout nouvel objet, l'enzyme de restriction — manque d'enthousiasme qui, dans ces lieux privilégiés, n'ayant pas l'excuse du manque d'information, devait relever d'une vision un peu myope. Et pourtant, comment regarder si loin quand sous le microscope, une cellule de souris changeait presque à vue d'oeil. Quelle que soit l'insuffisance des moyens, il fallait aller vers « le vif du sujet ».

D'autant que les démarches n'étaient nullement contradictoires. Créer un « génie génétique » pour construire des objets biologiques selon notre besoin n'exclut pas d'analyser ceux, combien plus sophistiqués, que l'évolution a lentement affinés.

Nous intéressent ici ceux qui, déjà à cette époque, nous permettaient d'isoler une information génétique, ou un petit nombre d'entre elles, de les transporter et de les exprimer dans une cellule cible, aussi proche de la normale que nous le pourrons, et dont nous saurons suivre la progression vers l'état tumoral. Dans les années soixante, un seul outil existait pour cela, les virus oncogènes. Utiliser des virus comme outils de la génétique cellulaire avait fait la preuve de son efficacité lors de l'explosion de la génétique bactérienne des années précédentes, et les travaux de Renato Dulbecco et Marguerite Vogt, d'Howard Temin et de quelques autres montraient que les virus capables d'induire une évolution maligne, connus depuis un demi-siècle et encore incompris, pouvaient jouer pour comprendre la cellule eucaryote le rôle que T4 et lambda avaient joué pour la bactérie.

Parmi les nombreuses familles de virus qui peuvent provoquer des tumeurs, deux modes de fonctionnement bien distincts apparaissaient déjà : celui des « virus oncogènes à ARN », ces « onco RNA virus » que l'on n'appelait pas encore rétrovirus, opposables par beaucoup de leurs propriétés à l'ensemble des « virus oncogènes à ADN » (polyomavirus, papillomavirus, adeno virus, herpes virus). Ces deux groupes, virus à ADN et virus à


Les virus oncogènes à ADN

ARN, ont été, chacun avec sa spécificité propre, des outils essentiels de la biologie moléculaire. Si la découverte cruciale des oncogènes et des proto-oncogènes a justifié les efforts investis dans l'étude des rétrovirus, les virus oncogènes à ADN apparaissent encore aujourd'hui, comme l'un des outils importants de la génétique moléculaire.

Dans cette sorte de « défense et illustration du virus à ADN », je n'envisagerai d'ailleurs que l'une des raisons qui en ont fait des matériels particulièrement utiles à l'expérimentateur, à savoir leur capacité d'interférer avec certains des mécanismes majeurs de la cellule (réplication, transcription, transduction des signaux mitogéniques, division cellulaire). Je ne rappellerai que pour mémoire le fait que la petite taille et les nombreuses similarités de ces « mini-chromosomes » avec les gènes cellulaires ont permis la plupart des grandes découvertes récentes de la génétique moléculaire, celles notamment de la structure des promoteurs de transcription, de l'épissage des messagers, ainsi que les ouvertures actuelles sur les mécanismes de la réplication de l'ADN.

Les modes de vie d'un gène parasite

Chaque virus oncogène, que son génome soit ADN ou ARN, et qu'il constitue ou non un modèle de minichromosome, nous propose une solution différente au même problème : comment favoriser la multiplication de la cellule qui l'héberge et de sa descendance, laquelle reproduira les gènes viraux intégrés dans son propre génome. L'un des mécanismes, non absolument général, mais très souvent choisi, est de faire synthétiser à cette cellule, à partir précisément de ces gènes viraux intégrés, une ou un petit nombre de protéines nouvelles dont l'effet sera de découpler de leurs strictes régulations les processus de synthèse de l'ADN et de division de la cellule. Pour cela, des gènes ont été ajoutés — « oncogènes » dont l'acquisition va, selon le virus, s'accompagner ou non de la perte de gènes nécessaires à sa reproduction propre. Il ne s'agit là en fait que de la version eucaryote d'un procédé de transfert génétique de gène très pratiqué par les bactéries et leurs virus sous le nom de transduction.

Avec ce schéma commun, nos deux groupes ne présentent cependant que peu de similarités. Le rétrovirus ajoute à ses propres gènes un, quelquefois deux gènes cellulaires, tout en modifiant leur structure, par un procédé à la fois précis, brutal et encore largement inexpliqué. Le résultat est un tueur redoutable, et, dans la nature, un cul-de-sac : cette forme oncogène du virus induit une tumeur le plus souvent fatale, mais n'aura elle-même que peu de chances de survie, incapable qu'elle est de se multiplier. Sa principale chance, elle la doit en fait, depuis 1911 et les travaux de Peyton Rous, à l'environnement apporté par le laboratoire.

Le contraste est clair avec les virus oncogènes à ADN qui, tous, ont choisi d'établir une association intime et durable avec leur hôte, qui va permettre la survie et la transmission héréditaire dans un clone cellulaire, parfois dans l'espèce, du génome viral intégré parmi les gènes de la cellule atteinte. Ce mode de reproduction entraîne des conséquences bien précises.

D'abord, il ne faut pas tuer l'hôte, ou du moins pas trop vite, et pour cela, il faut en « manipuler les commandes » avec beaucoup de précision. Permettre la prolifération limitée des clones cellulaires porteurs du génome viral, dans des limites compatibles avec une longue survie : de fait, comme Shope et, encore une fois, Rous l'avaient observé il y


F. Cuzin

a cinquante ans, des tumeurs malignes agressives ne s'observent qu'à très long terme, ou bien lorsque, au laboratoire, le chercheur introduit le virus dans une nouvelle espèce animale, un hôte dont il n'a pas « appris » les régulations propres.

Il faut pour cela un jeu complexe d'éléments régulateurs, plus que pour l'attaque brutale du rétrovirus. Chaque virus à ADN possède un ensemble de plusieurs oncogènes, dont les produits vont venir frapper des cibles distinctes (tableau I). De manière caractéristique, les oncogènes du virus participent également à sa reproduction et les fonctions transformantes sont ainsi imbriquées de manière complexe avec les autres fonctions du génome viral.

TABLEAU I. — Oncogènes de virus à ADN et localisation intracellulaire de leurs produits.

Virus Oncogènes

Protéines

et leurs localisations

(*)

Polyomavirus (Rongeurs) .. .

plt grand T (N)

pmt moyen T (M)

pst petit T (C, N)

Polyomavirus (Primates) . . .

plt grand T (N, M)

pst petit T (C, N)

Adenovirus E1A (N)

E1B (N)

Papillomavirus (BPV1) .... E2 (N)

E5 (M)

E6 (N, M)

(*) N : noyau; M : membranes; C : cytoplasme.

Enfin, la sophistication des modes d'intervention du virus à ADN implique une longue évolution — « co-évolution » en fait — avec son hôte. Les oncogènes des rétrovirus évoluent peu ou pas, et heureusement pour le chercheur : leur parenté avec le gène cellulaire original mettait il y a plus de dix ans déjà notre collègue Dominique Stéhelin sur la piste des oncogènes cellulaires. Ceux des virus à ADN, très probablement constitués eux aussi de « domaines » prélevés dans des gènes cellulaires, les ont intégrés en des structures complexes, et quant à leur séquence de nucléotides, méconnaissables (des parentés plus visibles pouvant quelquefois être décelées dans les séquences d'aminoacides).

Un ou plusieurs oncogènes ?

De ces propriétés spécifiques des oncogènes des virus à ADN, l'une retient immédiatement l'attention : le groupement d'oncogènes multiples dans un même génome. Un tel groupement de déterminants oncogènes distincts est-il la règle ou l'exception ? Les réponses ont varié avec les années.


Les virus oncogènes à ADN

L'attention fut d'abord entièrement concentrée sur I'oncogène prototype identifié chez un rétrovirus, et sur le gène cellulaire dont il dérive (le « proto-oncogène »), soit respectivement, le gène v-src du virus du sarcome de Rous et son homologue cellulaire c-src. La forme oncogène v-src peut, et nous savons maintenant que c'est une situation rare dans les cancers, convertir à elle seule une cellule mésenchymateuse de poule en cellule hautement tumorale. Le produit de v-src est une protéine catalysant la fixation de groupements phosphates sur d'autres protéines (ou sur elle-même), par estérification de résidus tyrosines (tyrosine-kinase). Toutes ces découvertes marquantes de la fin des années soixante-dix amenèrent quelquefois à des généralisations peu prudentes — mais les scientifiques n'échappent pas toujours au dogmatisme simplificateur : pour une tumeur donnée, un seul oncogène serait responsable, de manière générale, de la cancérisation, dont le produit serait, de manière générale, une tyrosine-kinase.

Généralisation pourtant bien surprenante. Les cancérologues savent bien en effet (notion que nous devons, encore une fois, à Peyton Rous !) qu'une tumeur se développe par des étapes successives. Cette « progression tumorale » évoque bien clairement l'activation successive d'oncogènes distincts, diversifiant des sous-clones de plus en plus agressifs dans la descendance d'une cellule initialement modifiée. Elle l'évoque au point que les pathologistes retrouvent spontanément les termes même de la génétique, ainsi, L. Foulds dans l'un des articles de référence qui généralisèrent cette notion (Cancer Res., 14, 327339, 1954) : « La règle étant établie d'une progression indépendante des caractères (d'un cancer), on est conduit à la proposition plus générale que la structure et le comportement des tumeurs sont déterminés par de nombreux déterminants unitaires (unit characters), qui, dans certaines limites, varient indépendamment... et qui peuvent être réassortis en une grande variété de combinaisons. Il existe entre certains caractères des liaisons (linkages) manifestes. »

Un autre obstacle va empêcher la généralisation de la notion d'oncogène unique. Ce sont les résultats de travaux menés simultanément, et indépendamment, dans le laboratoire d'Alex van der Eb à Leyde sur les adénovirus, et dans le nôtre, sur le polyome. Je résumerai une partie de ce que nous savons des attaques convergentes sur des sites névralgiques du fonctionnement cellulaire menées par ce petit virus de la souris, qui avait été appelé polyome par ses découvreurs, B. Eddy et S. Stewart, frappées par la diversité des tumeurs qu'il provoque chez l'animal infecté.

Les oncogènes multiples du virus polyome

La région du génome du virus suffisante à la transformation de cellules en culture représente moins de 3 000 nucléotides. Une petite taille pour un gène, et cependant, elle contient l'information pour la synthèse de trois protéines distinctes. Sa « capacité de codage » est en effet démultipliée par le mécanisme de l'« épissage alternatif », complexité que l'on pensait jusqu'à une date récente être le fait exclusif de ces génomes petits et compacts, mais que l'on sait maintenant être partagée par toute une série de gènes cellulaires. Trois ARN messagers distincts peuvent être synthétisés à partir d'un même transcrit, dont les trois phases de lecture codent trois séquences d'amino-acides différentes. Ces trois protéines constituent ce qui avait été appelé « l'antigène tumoral » (antigène T) du virus, et sont désignées maintenant par « grand T », « moyen T » et « petit T» selon l'ordre de leurs tailles décroissantes.


F. Cuzin

Analyser l'effet de mutations introduites dans un tel ensemble de gènes devient plus difficile qu'en génétique classique : beaucoup de ces mutations vont affecter deux, voire trois protéines différentes, et il devient plus délicat de déterminer « qui fait quoi ». La biochimie, elle, suggérait d'emblée un rôle important pour la protéine moyen T. Plusieurs laboratoires anglo-saxons avaient montré qu'elle partage avec l'oncogène de référence, v-src du virus de Rous, deux propriétés importantes : elle est dans, ou proche des membranes de la cellule, elle est associée à une activité tyrosine-kinase. De plus, les altérations introduites dans la région du génome viral codant pour moyen T abolissent très souvent le pouvoir transformant. Et l'on en concluait que moyen T est « l'oncogène du polyome ». Un peu rapidement, sans doute (on oubliait par exemple que beaucoup des mutations qui touchent moyen T touchent aussi grand T), mais la période, nous l'avons vu, était celle d'un certain dogmatisme.

Et cependant, nous rapportions d'abord avec Roland Seif, puis, surtout, avec Minoo Rassoulzadegan, quelques faits têtus, fondés sur une analyse génétique par complémentation utilisant les deux classes de mutants déjà reconnues par le travail de pionnier de T. Benjamin. A mesure que nous avancions, il devenait clair, au moins pour nous, que les mutations des deux groupes affectent l'aptitude du virus à transformer des cellules.

Deux groupes de complémentation, cela signifie deux protéines, nous l'avions appris de nos professeurs de génétique. Et il se trouvait de plus que les mutants de l'un de ces groupes sont les seuls dans ce génome intriqué à affecter une protéine et seulement une : grand T. D'où notre conclusion formulée en 1981 : deux protéines sont nécessaires à la transformation par ce virus, grand T et moyen T. Ce que nous savions de la biochimie de la protéine grand T, en particulier par le travail mené dans notre laboratoire par Philippe Clertant et Patrick Gaudray, permettait d'ailleurs d'intéressantes spéculations sur lesquelles nous reviendrons.

Le rôle de moyen T est certes crucial. L'expression de cette protéine entraîne des altérations immédiates de la structure et des modalités de division de la cellules : le cytosquelette perd son organisation fibrillaire, le clone cellulaire devient capable de multiplication en l'absence d'un support, d'envahir une boîte de Pétri, et d'envahir le rat ou la souris à qui il aura été injecté.

La question fondamentale autour de laquelle nous étions donc, vers 1980, plusieurs groupes à nous disputer était de savoir si moyen T est ou non suffisant à transformer complètement une cellule. Nos résultats suggéraient que non, d'autres pensaient avoir démontré que oui. La plus sérieuse pièce au dossier du oui allait être l'analyse par R. Treisman et R. Kamen des propriétés d'une construction génétique délicate qu'ils venaient d'achever. Par un artifice de génie génétique, ils avaient ôté au génome du virus, préalablement transposé dans un vecteur bactérien, la capacité d'épisser ses ARN messagers, le limitant donc à la production d'une protéine, dans ce cas moyen T. Or, ils montraient que cette limitation paraissait ne pas affecter la capacité de ce génome de transformer une cellule normale. En fait, d'une cellule « presque normale » : il s'agissait d'une de ces lignées établies, que seul un abus de langage caractérisé peut faire qualifier de normales, alors qu'elles ont déjà progressé dans la voie tumorale au point d'accepter de se multiplier dans les conditions artificielles de la culture de cellules, phénomène qu'un autre abus de langage, très vite popularisé pour des raisons qui relèvent davantage de la psychologie de l'inconscient que de la biologie, avait fait qualifier « d'immortalisation ». Que moyen T suffise à transformer ces cellules déjà engagées dans la voie tumorale, était-ce suffisante démonstration de son rôle unique dans la tumorigenèse ? Intrigué par


Les virus oncogènes à ADN

Fig. 1. — Cellules normales et transformées, (a) photographie d'un fibroblaste normal de rat après marquage du cytosquelette par des anticorps fluorescents contre la tubuline; (b) fibroblaste de rat originaire de la même lignée, après transformation par le virus polyome. (Phot. Pr M. L. Nicaise, Centre commun de Microscopie, Université de Nice.)

119


F. Cuzin

notre proposition hétérodoxe d'un rôle de grand T, R. Kamen nous apportait les constructions génétiques nécessaires pour exprimer séparément les deux protéines, point de départ d'une collaboration qui devait être mutuellement enrichissante.

Grâce au talent expérimental exceptionnel de Minoo Rassoulzadegan, il apparut très vite que les limitations du pouvoir transformant de moyen T, qui allaient définir, « en négatif », l'activité de grand T, étaient en fait importantes. Non seulement moyen T seul ne pouvait transformer de vraies cellules normales, directement explantées d'un embryon, mais, sur une lignée établie, l'expression de cette protéine ne suffisait pas à conférer l'indépendance quasi complète vis-à-vis des facteurs de croissance qui caractérise la cellule complètement transformée. La démonstration positive que l'expression du grand T seul immortalise la cellule de première explantation, qu'elle apporte d'autre part à une cellule déjà immortalisée la capacité de se multiplier dans des milieux pauvres en sérum, et que les propriétés conférées par les deux gènes sont, en première approximation au moins, simplement additives, démontrait le phénomène de coopération entre oncogènes (fig. 1).

Oncogènes « nucléaires » et cancers humains

Le schéma simple — simpliste, bien évidemment — ainsi établi a permis de poser des questions nouvelles. Je n'en énumérerai que quelques-unes.

Sa première conséquence, sans doute la plus connue, est la brillante transposition qu'en firent Land, Parada et Weinberg à des oncogènes cellulaires activés dans les cancers humains, démontrant ainsi que le phénomène de coopération n'était pas une « curiosité de la nature » comme il s'en rencontre tant en virologie. L'oncogène ras, pourtant muté dans une proportion importante des cancers, ne peut transformer des cellules en culture primaire, mais seulement des cellules déjà immortalisées. Il peut le faire si on lui adjoint un second oncogène, par exemple le gène du polyome codant pour grand T, ou, plus important, un autre oncogène cellulaire, myc, souvent trouvé modifié dans des cancers, et souvent dans les mêmes où ras est modifié. L'hypothèse était proposée, et nous devions, avec d'autres, la confirmer peu après, que l'oncogène myc peut immortaliser des cellules de culture primaire. Depuis, une famille d'oncogènes a été définie sur cette base (tableau II), dits oncogènes immortalisants ou encore « nucléaires ».

Pourquoi « nucléaires »? Une seconde voie s'ouvre ici. Un point commun à tous ces gènes en effet est de coder pour des protéines localisées dans le noyau et qui interviennent dans le contrôle de l'expression d'autres gènes. Quels sont ceux-ci, quelles protéines clés de la réplication de l'ADN, de la division cellulaire, de la différenciation, seront ainsi identifiées, sont des questions posées aujourd'hui dans de nombreux laboratoires. D'autres progrès sont attendus de l'identification de protéines cellulaires auxquelles viennent s'associer les produits des oncogènes viraux. Il y a plusieurs années, cette méthode avait déjà amené à l'identification d'un nouvel oncogène, P53, qui code pour une protéine associée à l'un des antigènes T viraux et qui est trouvé lui-même modifié dans certaines tumeurs. Un nouveau résultat spectaculaire a été annoncé il y a quelques mois par un groupe américain, qui a montré que les protéines produites par plusieurs oncogènes nucléaires sont associées à une même protéine cellulaire qui n'est autre que le produit du locus Rb. Ce dernier est le site de mutations prédisposant à des cancers humains hautement héréditaires (rétinoblastome et ostéosarcome).


Les virus oncogènes à ADN

TABLEAU II. — Quelques oncogènes nucléaires. Localisation et fonction présumée de leurs produits.

Localisation Protéine oncogène cellulaire Fonction

Grand I, Virus polyome.... noyau régulation

de la transcription

initiation

de la réplication

Grand I, Virus SV 40 noyau régulation

de la transcription

initiation de la réplication

Adénovirus, E1A noyau régulation

de la transcription

c-myc noyau régulation

de la transcription ?

c-fos noyau régulation

de la transcription? P53 noyau ?

La figure 2 illustre une propriété qui nous a paru importante des cellules exprimant un oncogène nucléaire. Injectées dans l'animal, celles-ci ne sont pas capables immédiatement d'évoluer en une tumeur. Cependant, des cellules tumorigènes vont apparaître dans leur descendance avec une fréquence bien supérieure à celle de cellules témoins. Cette observation nous a menés à la définition d'un état « à haut risque », notion familière aux épidémiologistes du cancer, mais que nous voyons ici apparaître au niveau cellulaire, et en rapport avec l'expression d'une unique protéine (d'un unique gène). Modèle d'un de ces états pré-cancéreux si difficiles à aborder pour la recherche clinique (parce que sans symptômes) ? En tous cas, un système expérimental auquel des questions diverses peuvent être posées.

Il est un autre point sur lequel je voudrais insister. Nous n'avons bien sûr jamais pensé qu'un schéma aussi simple que nos deux étapes d'immortalisation et de transformation pouvait être autre chose qu'une première et grossière approximation. D'autres étapes devront être identifiées, fractionnant le parcours déjà reconnu, ou définissant des voies entièrement nouvelles. D'autres systèmes modèles nous sont déjà offerts pour cela, et notamment toujours par des virus oncogènes à ADN. Nous avons ainsi cherché récemment à définir les oncogènes viraux agissant aux étapes d'immortalisation et de transformation du fibroblaste de rat par un virus de la famille des papillomavirus (fig. 3). Celle-ci est l'objet d'une attention soutenue, en particulier depuis le travail conduit par Gérard Orth et ses collègues, dans une voie qui avait d'ailleurs été, elle aussi, ouverte en 1935 par des résultats de P. Rous et de ses collaborateurs. Une série de papillomavirus sont associés à la progression en carcinomes malins de tumeurs initialement bénignes. Certains sont ainsi présents dans des cancers importants, comme ceux du col utérin. Dans nos systèmes expérimentaux, il apparaît que la « simple » immortalisation à laquelle, jusqu'ici, une seule protéine, il est vrai complexe, comme grand T, paraissait suffire, résulte d'interactions entre les produits de trois gènes distincts, deux correspondant à des protéines régulatrices nucléaires, et un, à une protéine membranaire. Les propriétés des cellules, tant immortalisées que transformées par ces virus, sont aussi très clairement différentes de celles induites par d'autres oncogènes, remettant même en question certains principes de l'oncologie expérimentale.

121


F. Cuzin

De nouvelles voies de recherche

Les pistes que nous proposent ces objets biologiques complexes et fascinants regroupés sous le titre vague de virus oncogènes à ADN sont loin d'être ainsi épuisées. Je me suis limité ici à celles que nous avons nous-mêmes explorées et qui concernent l'oncogenèse. D'autres sont déjà ouvertes. A la suite d'une découverte faite par une équipe américaine dirigée par Ed Harlow, plusieurs laboratoires viennent ainsi de démontrer que tous les virus oncogènes à ADN, incluant polyome, SV 40, adénovirus, papillomavirus, ont une cible commune dans la mécanique cellulaire, une protéine avec laquelle s'associent notamment les antigènes grand T (polyome et SV 40) et d'autres protéines impliquées dans la progression tumorale. Cette protéine est le produit d'un gène lui-même déjà

Fig. 2. — Rôles respectifs de deux protéines du virus polyome dans la transformation tumorale du fibroblaste embryonnaire de rat. Les cellules normales (cultures primaires) sont caractérisées par toute une série de caractères, incluant (de manière non exhaustive) : une morphologie étendue correspondant à la présence d'un cytosquelette organisé en fibres, un potentiel de multiplication en culture limité de vingt à trente générations, un besoin en concentrations élevées de facteurs de croissance apportés en culture par le sérum ajouté au milieu, la nécessité de l'attachement à un support solide. Elles ne produisent pas de tumeurs lorsqu'elles sont injectées dans l'animal. Ces différents caractères sont modifiés au cours de la transformation, modification dépendant soit de l'expression de grand T, soit de celle de moyen T. La ligne grisée marque la frontière entre « normal » et « transformé ».

122


Les virus oncogènes à ADN

connu chez l'homme pour son rôle dans le développement d'une série de cancers, notamment d'un cancer rare, mais remarquable par une forte prédisposition héréditaire, le rétinoblastome. En ce qui nous concerne, nous développons actuellement une observation inattendue faite par Minoo Rassoulzadegan : l'expression de grand T dans une cellule très particulière, l'oeuf de Mammifère juste après fécondation, paraît permettre la replication d'éléments génétiques qui pourront dans certains cas être ensuite maintenus, dans des lignées transgéniques de souris, comme des unités autonomes (des épisomes selon la terminologie de la génétique bactérienne). Nous pouvons à partir de là poser des questions nouvelles sur les structures responsables de la replication régulière d'une unité génétique et de sa ségrégation aux divisions successives, en résumé sur la remarquable et très peu comprise mécanique qui assure la stabilité héréditaire de nos chromosomes.

NOTE

( 1) Attribution du prix Lounsbery 1988.

123

Nombre de générations en culture

Fig. 3. — Acquisition de propriétés tumorales dans la descendance de cellules exprimant un oncogène nucléaire. Au temps 0, les cellules (fibroblastes de rat en culture) ont reçu par transfection un oncogène nucléaire (c-myc). La capacité à induire des tumeurs est mesurée par injection de quantités constantes de cellules à des animaux, soit immédiatement, soit après un nombre variable de générations en culture. L'apparition de cellules à potentialité tumorale dans la descendance de ces cellules (barres grisées), en contraste avec des cellules normales (barres blanches) apparaît comme la conséquence de la sélection au cours de la croissance d'événements génétiques secondaires ajoutés à l'expression initiale de l'oncogène (d'après Mougneau, Cerni et Cuzin, Oncogène Res., 2, 177-188, 1988, modifié).


F. CuzinBIBLIOGRAPHIE

CuzinBIBLIOGRAPHIE

Deux revues récentes, parmi d'autres pourront être utilement consultées :

Cuzin F., Meneguzzi G., 1986, « Stepwise transformation and coopérative interactions involving oncogènes of DNA tumour viruses », Adv. Viral One, 6, 21-43. Weinberg R. A., 1986, « Oncogènes and the molecular basis of cancer », The Harvey Lectures, 80, 129-136.

Voir également les travaux originaux de P. Rous, de M. Vogt et de R. Dulbecco :

Rous P., 1911, « A sarcoma of the fowl transmissible by an agent separable from the tumor cells », J. Exp. Med., 13, 397-411.

Rous P., Beard J. W., 1935, « The progression to carcinomas of virus-induced rabbit papillomas (Shope) », J. Exp. Med., 62, 523-548.

Rous P., Kidd J. G., 1941, « Conditional neoplasms and subthreshold neoplastic states », J. Exp. Med., 73, 365-389.

Vogt M., Dulbecco R., 1963, « Properties of cell transformed by polyoma virus », Cold Spring Harbor Symp., Quant. Biol., 28, 367-374.

Vogt M., Dulbecco R., 1963, « Steps in the neoplastic transformation of hamster embryo cells by polyoma virus », Proc. Natl. Acad. Sci., USA, 49, 171-179.

124


LA VIE DES SCIENCES

Rapport du Comité des Applications

de l'Académie des Sciences

(CAD AS)

Les industries agro-alimentaires

Les filières agro-alimentaires assurent la sécurité et la qualité de l'alimentation des Français. Elles contribuent par ailleurs à équilibrer la balance commerciale, avec en 1987 près de 90 milliards de Francs d'exportations et 30 milliards de Francs d'excédents. Enfin, les débouchés croissants que ces filières ont offerts à l'agriculture ont permis jusqu'à présent de maintenir une large emprise agricole sur le territoire — et donc un entretien général de celui-ci.

On doit rappeler que cette expansion agro-alimentaire est récente, et résulte d'abord des grandes mutations de productivité que l'agriculture a su réaliser depuis quelques décennies.

Ce constat apparemment satisfaisant ne doit pas masquer des faiblesses graves qui compromettent l'avenir. La poursuite de l'expansion agro-alimentaire avec accroissement des exportations, indispensable à la prospérité nationale et au maintien d'une agriculture dynamique, n'est pas assurée. Soumises à une concurrence croissante sur la qualité et sur les prix dans un monde où les échanges portent de plus en plus sur des produits transformés par l'industrie, les filières agro-alimentaires opérant en France souffrent notamment :

— d'une insuffisance des efforts de recherche et d'application de la recherche; il serait dangereux de croire qu'il suffit d'industrialiser la gastronomie française et que cela relève uniquement de démarches empiriques;

— de l'absence d'une stratégie nationale claire, particulièrement regrettable au moment où la France doit impérativement situer ses actions et défendre ses points de vue dans un cadre mondial. L'éclatement des centres de décision, singulièrement entre Ministères et entre organismes publics, est sans doute largement responsable de cette situation.

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 2, p. 125-138


Rapport du CADAS

Ces problèmes ont déjà fait l'objet d'études très complètes dont les conclusions n'ont pas reçu l'attention qu'elles méritent (Annexe 2). Certes, des actions judicieuses ont été lancées; mais elles appellent un engagement plus ferme des entreprises et des pouvoirs publics ainsi qu'un meilleur soutien de l'opinion.

Le CADAS, dans sa vocation scientifique et technique, a tenté de dégager un nombre volontairement très réduit de propositions précises susceptibles d'avoir un effet d'entraînement, parce qu'elles dérivent directement des changements constatés récemment dans le domaine de F alimentation (pages 126 à 131 : « Sur l'évolution des filières agro-alimentaires — Quelques propositions »).

Trois sujets ont été retenus, et font chacun l'objet d'une proposition comprenant des recommandations : le génie nutritionnel, les spécifications analytiques des produits et les banques de données, le génie agro-alimentaire (pages 132 à 136).

Ces recommandations à caractère scientifique et technique ne prendront leur réelle valeur que dans le cadre d'une stratégie nationale ouverte sur le monde, préparée et suivie en permanence par une instance assurant la concertation des secteurs ministériels concernés — Agriculture, Commerce extérieur, Industrie, Recherche, Santé, etc. — et des divers opérateurs des filières agro-alimentaires. Ce point capital fait l'objet d'une proposition présentée en page 132.

Sur l'évolution des filières agro-alimentaires

Quelques propositions

Depuis quelques millénaires, l'agriculture produit l'essentiel de nos aliments. Cette activité a longtemps occupé la majorité des hommes et déterminé leur mode de vie dans des systèmes autarciques à évolution lente; la mise en exploitation de nouveaux territoires restait la principale voie d'augmentation de la production.

Il n'y a guère plus d'un siècle que l'accumulation de progrès scientifiques et techniques a rendu possible un accroissement rapide des rendements accompagné d'une diminution des temps de travail. Cette évolution s'est accélérée au cours des dernières décennies dans le monde dit développé : disparition des famines, expansion démographique, urbanisation, réduction du nombre d'agriculteurs, spécialisation, échanges internationaux, préparation industrielle d'aliments de plus en plus élaborés. Ce développement, qui bouleverse systèmes et sociétés, fait apparaître des différences et des décalages entre régions et entre pays, qui sont à la base des déséquilibres les plus graves dans le monde d'aujourd'hui.

L'effort de productivité agricole et ses résultats

La production s'est accrue considérablement dans les pays les plus développés. En France, depuis 1950, elle a triplé en volume sur des surfaces équivalentes : le secteur


Les industries agro-alimentaires

agro-alimentaire, déficitaire jusqu'en 1970, apporte aujourd'hui des excédents croissants à la balance commerciale dans un contexte de concurrence internationale de plus en plus âpre; quelques entreprises françaises occupent d'ailleurs des positions mondiales de premier plan et c'est un des domaines où il est logique de porter un effort national particulièrement important.

L'autarcie a disparu et l'agriculture est désormais très dépendante de l'extérieur : en amont, la recherche perfectionne stratégies, méthodes et outils de production; des industries fournissent installations, machines, carburants, fertilisants, pesticides, semences, aliments pour animaux, etc. En aval, l'agriculture s'adresse à une chaîne de clients exigeants, industriels de la transformation, distributeurs et consommateurs, auxquels les progrès de productivité agricole ont profité largement. Dans un contexte de surabondance, et bien que des politiques de régularisation des marchés aient été mises en place (*), les prix de vente réels des grands produits de base décroissent : en France, entre 1960 et 1984, ils ont baissé en moyenne de 2 % par an pour le blé et de 0,5 % par an pour le lait. Cela a contribué à faire passer la part de l'alimentation dans les dépenses des ménages de 33 % en 1960 à 20 % en 1987.

Les agriculteurs soumis à la baisse de leurs prix de vente ont enregistré en même temps une hausse des coûts des fournitures qu'ils doivent acheter pour produire. A cela s'ajoutent les limitations autoritaires de certaines productions (quotas). Dans ces conditions, la diminution du nombre des actifs agricoles (environ 7 % des actifs en 1986 contre 20 % en 1960), avec agrandissement des exploitations, s'accompagne désormais d'une rétraction de l'emprise territoriale de l'agriculture. La stabilité paysanne d'autrefois a fait place à la fragilité : lorsqu'une exploitation disparaît, on ne trouve plus forcément des voisins pour reprendre toutes les terres. En dépit du chômage actuel, la friche commence à avancer dans les zones difficiles des régions montagneuses, mais aussi dans certaines parties du Languedoc, du Centre, du Centre-Est, de la Normandie, etc, compromettant le maintien des activités extra-agricoles de ces territoires. C'est là un problème collectif grave, car ces terroirs exposés sont actuellement vivants et actifs, et ils abritent des ressources; ils représentent des potentialités dont on aura sans doute besoin, et leur reconquête après un abandon serait coûteuse. Il est de l'intérêt de tous de limiter cette rétraction de l'emprise agricole; les industries alimentaires peuvent y aider en ouvrant des débouchés aux productions.

Quant aux agriculteurs, chacun cherche la compétitivité en continuant à réduire ses coûts et en ajustant mieux la qualité de ses produits aux demandes des marchés.

La réduction des coûts, dont nous avons rappelé les résultats passés, est recherchée de façon permanente. Elle implique en général un accroissement des rendements par travailleur, mais aussi par hectare : en effet, les frais fixes par hectare — loyer, amortissements, impôts destinés aux collectivités locales, etc. — sont élevés en France. Dans les systèmes céréaliers, ils représentent annuellement l'équivalent de 40 q de grain, soit plus de la moitié d'un bon rendement. Passer à des systèmes moins intensifs, promouvoir une agriculture « plus écologique », prendre davantage en compte les problèmes d'environnement et rémunérer le rôle des agriculteurs dans ce domaine : toutes ces orientations, qui pourraient contribuer de leur côté à diminuer les coûts de production, nécessitent de profonds changements dans l'opinion publique et dans l'organisation de la société.


Rapport du CADAS

L'ajustement qualitatif aux marchés a conduit à explorer des pistes nouvelles ou oubliées : fourniture de protéines, d'éthanol carburant, de bois, d'autres matières premières destinées aux industries, de molécules d'intérêt biologique, etc. Des succès importants ont été enregistrés : l'expansion récente du tournesol et du pois a réduit les importations françaises de protéines et d'huiles. De plus, il est essentiel d'ajuster chaque fois que c'est possible les caractéristiques de toutes les productions — leur « qualité » — aux demandes précises et réalistes émanant de la filière Transformation-Distribution-Consommation. Ainsi, les trois variétés de blé aujourd'hui les plus cultivées en France possèdent une « force boulangère » qui eut été considérée comme exceptionnellement bonne il y a seulement quinze ans. Les efforts actuels portent sur la satisfaction du goût des consommateurs, la qualité du service, la valeur nutritionnelle et la sécurité hygiénique; cela nécessite un ajustement entre produits de base et technologies de transformation.

Cette situation traduit un déplacement vers l'aval du centre de gravité du système agro-alimentaire, consécutif à l'abondance agricole et à l'industrialisation de la transformation. On constate une évolution : d'une politique de production et de revenu agricoles à une politique alimentaire encore balbutiante. La mise en oeuvre de la politique agricole commune, dans le cadre de laquelle évoluent désormais les économies des pays de la CEE, ne remet pas ce changement en cause, même si elle a influé sur ses modalités et sur ses échéances. Il en est de même d'événements comme la sécheresse qui a fortement réduit la production aux États-Unis en 1988. Certes, cette calamité qui a eu des précédents nous rappelle l'importance de la mémoire et du bon sens; elle illustre la nécessité d'une politique de sécurité : production maîtrisée mais suffisante, stockage d'assurance, protection d'une réserve d'expansion de la production, souci de gestion à long terme des ressources de la biosphère, etc. Tout cela se fera sans doute, mais n'empêchera pas la poursuite de la compétition mondiale sur les marchés des produits agricoles et — de plus en plus — sur les marchés des produits alimentaires à haute valeur ajoutée préparés par l'industrie.

Dans un univers bouleversé par les évolutions techniques, économiques et sociales, notamment à la suite de l'explosion des biotechnologies, la place que les producteurs et les transformateurs français occuperont dépend beaucoup de l'efficacité de la concertation qu'ils développeront dans la chaîne agro-alimentaire, en traitant les problèmes en fonction de la finalité principale de ces activités : L'ALIMENTATION DES HOMMES.

Les aliments : physiologie de la nutrition, spécification des produits, optimisation des filières de production et de transformation

Dans les sociétés développées, la crainte d'une pénurie générale a disparu, alors qu'un siècle à peine s'est écoulé depuis la dernière grande famine enregistrée en Europe.

— L'alimentation n'est plus perçue comme un facteur de survie au jour le jour mais comme un service assuré, dont chacun attend — outre le confort immédiat — la longévité dans un état satisfaisant. L'importance de cette prévention en matière de santé commence à être mieux comprise, alors que les limites et les coûts de la médecine curative apparaissent plus nettement. Bien alimenter des hommes qui sont fort divers et dont le genre de vie a profondément changé, en utilisant au mieux des préparations alimentaires traditionnelles et d'autres qui sont inédites, tout en évitant abus et erreurs : ce problème


Les industries agro-alimentaires

requiert une intervention beaucoup plus forte des physiologistes et des médecins dans les recherches touchant à l'agro-alimentaire.

Carrefour de sciences — physiologie, biochimie des aliments, microbiologie, toxicologie, sociologie — la nutrition est un foyer de synthèse, c'est à dire un « Génie » qui permet de dominer la complexité et d'orienter l'agro-industrie vers la production d'aliments convenant aux consommateurs d'aujourd'hui.

C'est l'objet d'une proposition relative au génie nutritionnel (page 132).

— Les consommateurs expriment diverses demandes :

• Les aliments doivent être conditionnés, stockés et distribués de façon parfaite, partout et en toute saison; la préparation des repas doit être simple et rapide.

• La qualité hygiénique doit être parfaite; en particulier, les risques d'empoisonnement d'origine bactérienne sont inacceptables, au point que certains ateliers de fabrication et de conditionnement « en salle blanche » atteignent aujourd'hui un niveau d'hygiène supérieur à celui de beaucoup de blocs opératoires.

• L'agrément de consommation reste essentiel, qu'il s'agisse du quotidien ou des fêtes; gastronomie et diversité, tradition et découverte, sont des valeurs reconnues. La mode des produits du terroir crée des liens nouveaux entre tourisme, alimentation et agriculture.

• La pression à la baisse des prix, accentuée par la concentration du commerce de distribution, est de plus en plus forte pour les produits banalisés. Par contre, les spécialités de qualité supérieure ou d'originalité reconnue constituent un créneau de choix dont l'importance croît avec l'élévation du niveau de vie; dans ce domaine, la réputation de la gastronomie française constitue un facteur favorable.

La satisfaction de ces demandes complexes et contradictoires exige évidemment des interventions industrielles fondées sur un suivi analytique complet allant de la matière première au produit fini.

L'hétérogénéité des produits agricoles introduit une première difficulté : leurs caractéristiques de « qualité » diffèrent d'un lot à l'autre, et elles ne sont pas faciles à prévoir. Seule une bonne coordination entre producteurs et transformateurs, fondée sur une analyse correcte des éléments de la qualité, permet d'optimiser les techniques de production : variétés ou races, conditions de culture ou d'élevage, normes de récolte et de conditionnement, etc.

A partir de produits de base d'une qualité adéquate, les industries préparent des aliments traditionnels en maîtrisant les techniques artisanales, ou bien des aliments nouveaux en mettant en oeuvre notamment les progrès du génie chimique. Tout au long de ces opérations, des mesures de composition et de caractéristiques, conformes à des prescriptions claires, sont indispensables.

Les produits alimentaires ainsi obtenus doivent pouvoir être eux-mêmes contrôlés de façon stricte : par les fabricants, dont la garantie devient de plus en plus importante, par les services officiels, par les entreprises de distribution, par les organisations de consommateurs, etc. Autrefois, traditions et habitudes locales étaient jugées suffisantes pour justifier un produit; aujourd'hui, des spécifications contrôlables touchant à l'innocuité, à la valeur nutritionnelle, aux qualités organoleptiques, etc. sont de plus en plus souvent nécessaires : pour soutenir le lancement de produits nouveaux mais aussi pour éviter, sur des préparations classiques, les erreurs et les tromperies, ainsi que les discriminations abusives que l'on pratique même entre pays associés. On a donc besoin de


Rapport du CADAS

méthodes internationales d'analyse définies par des instances indépendantes sur la base de travaux d'organismes scientifiques reconnus. C'est d'ailleurs une des responsabilités des laboratoires de recherche fondamentale que de faciliter la mise en oeuvre des voies d'analyse les plus performantes — par exemple récemment l'utilisation des sondes moléculaires.

Pour soutenir une compétition économique internationale portant sur les caractéristiques analytiques autant que sur les prix, un pays doit participer à l'élaboration des normes qui encadrent les échanges mondiaux. Ces normes dérivent des valeurs validées par les banques de données. La France doit développer laboratoires d'analyses et réseaux de données. Tout cela explique la proposition relative aux" analyses et banques de données agro-alimentaires (page 133).

— L'intervention des industries dans l'alimentation n'est pas toujours perçue favorablement par l'opinion, prompte à dénoncer a priori une dégradation de la « qualité » et des caractéristiques « naturelles » que l'on prête — souvent gratuitement — aux produits « paysans ». Ce reproche systématique est injuste; par exemple, l'industrialisation de la vinification a pratiquement fait disparaître les accidents de fabrication autrefois si fréquents; le lait est devenu un aliment de sécurité alors qu'il était source de troubles et de maladies comme la tuberculose, la brucellose ou la typhoïde.

Les premiers industriels ont cherché à faire en grand ce que l'on réalisait dans les cuisines familiales; les difficultés rencontrées amènent aujourd'hui à opérer en sens inverse : concevoir appareillages, procédés et produits de base en fonction de l'aliment que l'on veut obtenir. Cette procédure a permis dans de nombreux cas des progrès considérables; mais on pourrait également citer maints exemples de produits frais ou transformés dont les qualités organoleptiques ont souffert de cette optimisation globale. Des recherches approfondies sur les méthodes de production, de transformation, de conditionnement et de distribution apparaissent nécessaires pour concilier les exigences économiques ou sanitaires actuelles et la saveur des produits.

En toute hypothèse, et indépendamment du poids relatif accordé aux divers critères, il convient, dans une première phase d'étude, de réduire un procédé habituellement complexe à une suite d'opérations élémentaires. C'est ensuite l'ensemble de la filière qu'il faut optimiser, ce qui suppose d'abord une bonne connaissance fondamentale des phénomènes biochimiques en cause, afin de proposer une modélisation; enfin, des capacités d'analyse physique, chimique et biologique en continu, et l'on retrouve ici le problème des spécifications. On retrouve également les exigences hygiéniques déjà mentionnées — exigences croissantes parce que l'on s'habitue à la sécurité, et peut-être aussi parce que les défenses immunitaires humaines, de moins en moins sollicitées, tendent à s'affaiblir — au point que l'on pourrait parler d'un « génie hygiénique », fondé sur une recherche associant technologues, hygiénistes et médecins. Les problèmes sont donc fort divers.

Le génie industriel alimentaire est l'outil permettant une optimisation générale par rapport à l'objectif final. L'étude intégrée est d'autant plus nécessaire que le génie industriel alimentaire induit des matériels, des systèmes électromécaniques et une instrumentation d'analyse et de mesure en ligne qui sont eux-mêmes source d'innovation, et dont le poids relatif est considérable dans les investissements. Il s'agit, notamment, des machines liées à la transformation des denrées agricoles de base, mais aussi des machines, éventuellement spécifiques, de conditionnement et de conservation des produits élaborés.


Les industries agro-alimentaires

Ces études de filières de production sont insuffisamment développées, ce qui justifie la proposition relative au génie industriel alimentaire (page 134).

Conclusions

Une meilleure valorisation des capacités agro-industrielles et de la richesse gastronomique de la France a des composantes scientifiques importantes; en effet, l'ajustement de la production et de la transformation à la consommation, qui résultait autrefois des habitudes en fonction des contraintes et des particularités locales, exige désormais des connaissances objectives et précises, notamment sur trois points :

— l'évaluation des besoins physiologiques et psychologiques des consommateurs dans leur diversité;

— l'analyse des caractéristiques des produits, matières premières et aliments élaborés;

— l'optimisation des filières de transformation mettant en jeu une succession complexe de procédés.

Les recommandations à caractère scientifique et technique faites dans ces trois domaines ne prendront leur réelle valeur que dans le cadre d'une stratégie cohérente et clairement exprimée, dont l'absence se fait cruellement sentir, alors que la France doit impérativement situer ses actions dans un cadre international où la concurrence est acharnée. Bien que ce point ne relève pas spécialement de la compétence du CADAS, il faut en rappeler l'urgence (Proposition Pour une stratégie nationale).

Ces approches internationales devraient d'ailleurs ouvrir sur des programmes scientifiques en coopération — notamment dans la CEE. Mais cela ne diminue pas, bien au contraire, l'urgence d'un important effort national de recherche. On ne peut coopérer durablement que si l'on est compétitif, et la France a beaucoup à faire pour plusieurs raisons : d'abord, nombre d'entreprises agro-alimentaires sont de petite taille et ont des services scientifiques réduits, l'ensemble de la branche consacrant à la recherche beaucoup moins de 1 % de son chiffre d'affaires. De plus, le partage des responsabilités entre secteur public et secteur privé, et même à l'intérieur du secteur public, n'est pas clair. Enfin, les travaux associant de façon souple agronomes, industriels de l'agro-alimentaire, physiologistes de la nutrition et médecins sont encore trop rares. Leur réussite en matière de recherche et d'enseignement conditionne pourtant l'expansion internationale de l'agriculture et de l'industrie françaises pour la préparation d'une alimentation qui assurera au mieux l'agrément quotidien, la santé et la longévité active des hommes du XXIe siècle... en favorisant d'ailleurs l'équilibre des comptes de la sécurité sociale.

On doit encourager cette coopération, avec le soutien des principaux intéressés : les consommateurs, dont la vigilance et le jugement sont encore plus utiles maintenant qu'ils ignorent l'origine de la plupart de leurs aliments et qu'on leur propose de nouveaux types de restauration simplifiée. Soulignons en particulier l'intérêt d'une éducation nutritionnelle de base, jadis au programme des enseignements primaires, et actuellement fort réduite. Or, la composition des repas reste de la responsabilité des consommateurs, que personne ne peut remplacer dans l'exercice de choix éclairés qui contribueront aussi à la qualité des filières agro-alimentaires.

131


Rapport du CADAS

QUATRE PROPOSITIONS

Pour une statégie nationale

Dans un domaine capital pour la France, et alors que la concurrence internationale est particulièrement vive, il n'existe pas d'instance assurant une concertation permanente des secteurs ministériels concernés — Agriculture, Commerce extérieur, Industrie, Recherche, Consommation, Santé, etc. — et des divers opérateurs agricoles, industriels et commerciaux des filières agro-alimentaires. Cette situation compromet l'élaboration d'une stratégie nationale cohérente dans un domaine évolutif où une politique claire est indispensable : pour coordonner les initiatives régionales et les projets nationaux des diverses parties prenantes, pour défendre les points de vue français dans l'élaboration de la politique européenne et dans la préparation des accords internationaux, pour faciliter les choix et les interventions des opérateurs français dans un monde où la compétition scientifique, technique et économique est rude.

Recommandation

Il appartient aux autorités françaises, agissant en liaison avec les organisations professionnelles telles que l'Association Nationale des Industries Agro-alimentaires, de mettre en place une instance nationale de coordination, ou de donner l'autorité et les moyens correspondants à un organisme déjà existant (le suivi des actions scientifiques et techniques, faisant l'objet des propositions suivantes, pourrait relever de cette instance).

Le génie nutritionnel

La création récente d'un Haut Comité de la Nutrition et de l'Alimentation traduit la prise de conscience de l'importance des liaisons entre l'agriculture, l'industrie alimentaire et la santé. Dans cette perspective, la France doit mettre en place un « Génie Nutritionnel », carrefour des sciences de la vie où pourra être pris en compte l'ensemble des phénomènes intervenant dans l'alimentation et la nutrition de l'homme.

Recommandations

1. Il est essentiel de développer les collaborations associant toutes les diciplines et tous les opérateurs concernés, en regroupant en un même lieu et pour chaque objectif retenu des chercheurs venant des divers secteurs. On s'appuiera sur une connaissance fondamentale des produits agricoles, des aliments traditionnels, des préparations nouvelles, mais aussi sur la physiologie de l'homme, à l'exemple de ce qui a été entrepris dans le cadre de l'opération « Aliment 2000 ». L'industrie agro-alimentaire doit être un partenaire de premier plan dans le développement des structures et la réalisation des travaux.


Les industries agro-alimentaires

2. Chaque structure associerait des disciplines telles que chimie analytique, biochimie, physique, rhéologie, technologie des matériels, microbiologie, physiologie de la nutrition, médecine. Ce regroupement est indispensable pour former un pôle souple et ouvert, accueillant les projets de recherche d'inspiration agricole, industrielle ou médicale, et jouant également un rôle de formation.

3. Par le canal du programme Alimentation initié par les Ministères de la Recherche et de l'Agriculture, les pouvoirs publics doivent continuer à soutenir une telle orientation. La complexité et la durée probable de ces projets nécessitent un choix attentif des grands objectifs — peu nombreux — qu'il sera réaliste de retenir compte tenu des moyens disponibles.

4. Enfin, un réseau national de banques de données agro-alimentaires est indispensable (cf. Proposition suivante).

Analyses et banques de données agro-alimentaires

Les industries agricoles et alimentaires (IAA) transforment des matières premières de composition variable et difficilement prévisible en des aliments dont la qualité doit être de plus en plus fiable et constante. Elles font appel à des méthodes physiques et biologiques et à des additifs et auxiliaires technologiques (texture, arôme...). La maîtrise de ces opérations, s'ajoutant à l'application des exigences réglementaires, commerciales, sanitaires et nutritionnelles, contraint à connaître de mieux en mieux la composition des matières premières et des produits élaborés, ainsi que leur variation dans le temps.

Cette connaissance doit s'étendre de la production agricole à la consommation, en passant par les stades nombreux de la transformation, du transport, du stockage, de la distribution et de la préparation culinaire. D'une manière générale, l'agriculture et les IAA — à l'exception de quelques grandes entreprises — ne disposent pas des moyens d'analyse nécessaires. A l'heure actuelle, les données analytiques, quoique abondantes, sont encore très insuffisantes au regard des besoins.

Outre ces inconvénients pour l'efficacité propre des filières agro-alimentaires, cette faiblesse limite le poids de la France dans les organismes qui définissent normes et règles qualitatives pour le commerce mondial des produits agricoles et des aliments. C'est pourtant là un problème réellement stratégique.

Des méthodes d'investigation nouvelles, plus rapides, restent à élaborer pour rendre ces données plus fiables et moins onéreuses, de telle manière que l'on puisse espérer obtenir un jour le contrôle continu en temps réel de la qualité.

Recommandations

1. Une instance nationale associant les pouvoirs publics et les divers opérateurs concernés (cf. Proposition Pour une statégie nationale) doit conforter le réseau actuel d'analyses constitué de laboratoires privés ou coopératifs qui couvrent le territoire et qui sont au


Rapport du CADAS

service de l'agriculture, des industries de transformation et des consommateurs. Ce réseau pourrait ainsi assurer de façon plus satisfaisante les services suivants :

— analyses courantes;

— formation des personnels de l'industrie;

— normalisation et mise en oeuvre des méthodes mises au point par les laboratoires de recherche, afin de diffuser des techniques analytiques répondant à des situations en continuelle évolution;

— aide technique aux transactions commerciales, notamment entre le secteur agricole et les IAA;

— tenue à jour de la liste des spécifications techniques des matières premières, des additifs et des aliments, et diffusion auprès des utilisateurs : une première réponse pragmatique à ces souhaits serait de développer les moyens de la banque nationale de données sur la composition des aliments (Centre Informatique sur la Qualité des Aliments), qui fonctionne depuis peu sous la tutelle du Ministère de l'Agriculture;

— conseil auprès des producteurs agricoles et des industriels pour développer une politique de qualité, évidemment capitale pour faire face à une concurrence internationale de plus en plus dure.

2. La banque de données, centre de référence fiable, exige la caution d'une autorité indépendante. Parallèlement, elle s'appuierait sur les organismes de recherche pour le conseil d'ensemble et les méthodologies; ces organismes, de même que les Centres Techniques, feraient bénéficier la banque de leurs propres résultats analytiques.

3. Le réseau d'analyse et de banques de données aurait un rôle international important : assurer coordination, échanges et coopérations, et faire en sorte que les travaux et les points de vue français soient normalement pris en compte.

4. Ce réseau doit être, à terme, auto-financé; sa mise en place ou son développement appellent un soutien de l'État, qui aura à assurer une coordination des investissements lourds à répartir entre un petit nombre de laboratoires spécialisés.

Le génie industriel alimentaire (GIA)

Dans un monde de plus en plus ouvert à une concurrence qui s'exercera plus au niveau des produits transformés que des matières premières agricoles, la compétitivité des filières — et donc leur survie — sera directement liée à la qualité des procédés de transformation.

Le Génie Industriel Alimentaire (GIA) est un carrefour de disciplines scientifiques et techniques (biologie, microbiologie, chimie, mécanique, sciences médicales, etc.); il doit notamment assurer l'héritage des savoir-faire empiriques, éléments souvent déterminants des procédés, mais source de contraintes considérables. Il doit mettre au point des lignes complètes de transformation à conduite automatisée.

Or les partenaires français concernés travaillent en ordre dispersé :

— Les quinze Centres Universitaires (cf. Annexe 1), résultant du saupoudrage de moyens insuffisants, ont du mal à établir des relations de coopération sur grands objectifs,


Les industries agro-alimentaires

et à assurer avec la recherche fondamentale les liaisons indispensables à l'étude des processus mis en jeu dans les procédés.

— La puissance de recherche des Centres Techniques Professionnels et leur coopération avec l'industrie sont très insuffisantes.

— Le potentiel de la Recherche Industrielle est réparti entre une dizaine de laboratoires de niveau international dans les grands groupes, et un ensemble de PME qui ne disposent pas du minimum technique et scientifique nécessaire pour assurer l'interface avec les Centres universitaires et les Centres techniques.

Le résultat, c'est le retard national dans la mise au point de lignes complètes de transformation ainsi que dans la fourniture d'équipements industriels et de systèmes de contrôle en ligne.

Plan d'action

1. Établir un bilan des actions conduites en France, et encourager les échanges et les coopérations les plus souhaitables.

2. Susciter la création, autour de quelques pôles universitaires favorables, d'un petit nombre de centres de recherche inspirés des centres de recherche technologiques des universités américaines. Un centre serait spécialisé dans un domaine précis du GIA couvrant une grande ligne de produits et l'enchaînement des procédés correspondants; la gestion de la recherche se ferait essentiellement par projets, avec cofinancements possibles de l'industrie.

3. Ces centres auraient notamment comme rôle de favoriser le transfert scientifique. A ce titre ils pourraient lancer un certain nombre d'actions spécifiques, par exemple dans le domaine des biotechnologies, où l'on constate un cloisonnement université — industrie préoccupant.

Recommandation

Renforcer l'action engagée par le Ministère de la Recherche et de la Technologie par la mise en place, pour un temps limité, d'un Comité de pilotage doté de moyens significatifs afin de lancer ce plan. L'action de ce Comité serait suivie régulièrement par l'instance de concertation nationale agro-alimentaire (Proposition Pour une stratégie nationale). Un bilan serait fait au bout de cinq ans, afin de préparer la suite de la façon la plus efficace.

Motion adoptée par l'Académie des Sciences lors du Comité secret du 20 février 1989

L'Académie des Sciences a pris connaissance avec intérêt du rapport sur les Industries agro-alimentaires préparé par le Comité des Applications de l'Académie des Sciences (CADAS). Elle en approuve les conclusions et remercie André Couder on et tous ceux qui ont pris part à ce travail.

NOTE

(*) Tous les pays développés soutiennent leur agriculture, chacun à sa façon; ce soutien est actuellement du même ordre de grandeur financier dans la CEE et aux USA.


Rapport du CADAS

ANNEXE 1

LES PRINCIPAUX LABORATOIRES DE GÉNIE INDUSTRIEL ALIMENTAIRE

1. Villeneuve d'Ascq, INRA. Traitements thermiques, étude de fluides non-newtoniens, capteurs.

2. Massy, INRA, ENSIA, Mines de Paris. Adhésion de microorganismes aux surfaces, désinfection, traitements thermiques, séparation par échange d'ions et par membranes, séchage, automatismes et capteurs, automatisation en fromagerie.

3. Antony, CEMAGREF. Séchage, techniques du froid.

4. Chatenay Malabry, École centrale. Informatique appliquée au G.I.A.

5. Grignon, INRA. Génie des bioréacteurs, automatismes et capteurs, séchage.

6. Nancy, ENSAIA, en liaison avec le Laboratoire des Sciences du Génie Chimique. Automatismes, capteurs, procédés de fermentation.

7. Montpellier, CEMAGREF, CIRAD et INRA. Automatismes, analyse d'images, robotisation, séchage.

8. Compiègne, UTC. Cuisson-extrusion, rhéologie des fluides complexes, séchage, techniques de filtration, génie des bioréacteurs.

9. Reims, ADRIAC. Conditionnement, emballage.

10. Rennes, INRA. Séparation par membranes sur produits laitiers.

11. Nantes, INRA, ENITIA. Cuisson-extrusion, mécanique des produits pulvérulents, extraction de protéines végétales, rhéologie alimentaire.

12. Theix (Clermont-Ferrand), INRA. Procédés de conditionnement de la viande, robotisation.

13. Avignon, INRA. Conservation en atmosphère contrôlée, capteurs.

14. Toulouse, INSA, ENSIGC. Bioréacteurs, fluidisation, séparations fines.

15. Dijon, ENSBANA. Séchage, extraction des arômes, cuisson-extrusion, capteurs pour le suivi des fermentations.

136


Les industries agro-alimentaires

ANNEXE 2

LISTE DE RAPPORTS ET DOCUMENTS SUR LES INDUSTRIES AGRO-ALIMENTAIRES

— Industries Agro-alimentaires et Innovation (Jacques POLY et Christian HERRAULT, INRA, 1981).

— Agro-alimentaire : des moyens pour demain (Gérard JOULIN et Guy FAUCONNEAU. Ministère de la Recherche et de l'Industrie, 1982).

— Pour une politique de l'Alimentation (rapport du Ministère de l'Agriculture, 1983).

— Vers une F.D.A. à la française (Pierre MAINGUY et Jean-Pierre MARESCHI, Prospective et Santé n° 25, 1983).

— Rapport de la Commission Agro-alimentaire au Ministre de l'Agriculture (1985).

— La recherche alimentaire publique et privée (Étude réalisée pour le compte de la Mission Scientifique et Technique du Ministère de la Recherche et de l'Enseignement Supérieur, 1986).

— L'évolution des pratiques alimentaires : l'alimentation quotidienne et festive (Guy FAUCONNEAU, INRA, 1987).

— Rapport du Groupe d'Étude Parlementaire de Développement Agro-Industriel (Michel COINTAT, 1987).

— Rôle et importance des spécifications analytiques dans le domaine agro-alimentaire (Pierre MAINGUY, BSN, 1987).

— Mémorandum du Gouvernement Français : contribution à l'achèvement du marché intérieur dans le domaine des denrées alimentaires (1987).

— Les Biotechnologies, rapport au Premier Ministre — chap. II, 2 : L'agriculture et les industries agro-alimentaires (M. SAUTIER, 1988).

137


Rapport du CADAS

ANNEXE 3 COMPOSITION DU GROUPE DE TRAVAIL

MM. CAUDERON (Président), Membre de l'Académie des Sciences, VicePrésident

VicePrésident CADAS. Secrétaire perpétuel de l'Académie d'Agriculture.

DESPRAIRIES Président d'honneur de l'Institut Français du Pétrole,

Membre du CADAS.

FEILLET Chef du Département des Technologies des Glucides

et des Protéines à l'INRA, Associé au CADAS.

FILLET Secrétaire Général de la Société Française de Chimie,

Délégué Général du CADAS.

HELME Président de la Société Bio-Extraction SA, Membre du

CADAS.

HESLOT Professeur à l'Institut National Agronomique, Membre

du CADAS.

MATNGUY Directeur Scientifique de BSN, Membre du CADAS.

Mme MERCIER Directeur Scientifique pour les Industries Agro-alimentaires

Agro-alimentaires l'INRA.

MM. VOLFIN Chargé de Mission à l'Académie des Sciences.

WINTENBERGER Ancien Directeur Scientifique de Péchiney, Membre du

CADAS.

Ont été consultés :

Mme BECARUD Chef du Service Scientifique et Technique de l'ANIA.

MM. BIMBENET Professeur à l'ENSIA, Massy.

DAMAGNEZ Chef du Département Agro-alimentaire et Bois au

Ministère de la Recherche et de la Technologie.

DUPUY Ancien Chef du Département de Technologie des Produits

Produits à l'INRA.

FEDRY Directeur Général Adjoint de la Société Diététique et

Santé.

FROUIN Directeur Recherche Développement du Groupe

SOPARIND-BONGRAIN, Associé au CADAS.

FUNCK-BRENTANO Professeur à la Faculté de Médecine de Paris, Membre

du CADAS.

GELUS Professeur à l'Université de Compiègne.

LAVALOU Président de l'Université de Compiègne.

LOUISOT Professeur de Biochimie à l'Université de Lyon.

MENORET Directeur Scientifique de Pernod-Ricard.

138


LA VIE DES SCIENCES

Mathématiques et sciences humaines : des années soixante aux années quatre-vingts

Deuxième partie

LES MESSACHES (*)

Nous proposons dans cet article en deux parties, quelques éléments pour un bilan de révolution des rapports entre les mathématiques et les sciences humaines, en France, dans la période qui se situe des années soixante aux années quatre-vingts.

Dans la première partie (parue dans La Vie des Sciences, 1989, 6, n° 1, 59-76) nous avons évoqué le contexte des années soixante : l'émergence de « nouvelles » mathématiques qui semblent particulièrement adaptées aux besoins de sciences humaines en plein développement; la réforme de l'enseignement des mathématiques dont la maîtrise apparaît indispensable dans la nouvelle société industrielle; enfin la domination du structuralisme dans le champ philosophique, non sans relation avec la bourbakisme triomphant. Nous avons retracé ensuite l'apparition de diverses instances institutionnelles (recherche, enseignement) dont le but était de travailler au rapprochement des Mathématiques et des Sciences de l'Homme.

Il s'agit ensuite d'examiner comment chacune des disciplines concernées a participé à ce mouvement. Dans la première partie nous considérions les mathématiques. Dans cette seconde partie sont passées successivement en revue la démographie, l'économie, la linguistique, la psychologie, la sociologie, la géographie, l'histoire, l'archéologie et l'anthropologie. Nous notons, pour terminer, la présence croissante de l'informatique qui s'impose dans cette période et bouleverse des rapports déjà complexes entre les disciplines. En conclusion, nous soulignons quelques-uns des effets et des problèmes qu'a suscités la rencontre de deux cultures jusque-là à peu près étrangères l'une à l'autre.

(*) Les auteurs sont : Michel Armatte (UER Économie appliquée, Dauphine), Jacqueline Feldman (Groupe d'Études des Méthodes de l'Analyse sociologique, CNRS), Bruno Leclerc (Centre de Mathématique Sociale, EHESS), Bernard Monjardet (UFR Mathématiques, Université René-Descartes), Marie-Ange Schiltz (Centre de Mathématique Sociale, CNRS) et Marion Selz-Laurière (Laboratoire d'Anthropologie Sociale, CNRS). Bernard Monjardet a été le maître d'oeuvre de l'article. Jacqueline Feldman en a proposé la première version.

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 2, p. 139-165


Les Messaches

Évolutions : du côté des sciences sociales

Les sciences sociales sont diverses; diverses aussi ont été, au cours de la période considérée, les demandes, initiatives, tentatives, réponses aux sollicitations, externes ou internes, d'utiliser les mathématiques.

Dans cette section, nous nous sommes efforcés d'examiner, pour chaque discipline, quelles ont été les pratiques mathématiques effectives, et quelle place elles ont tenu dans les problématiques propres à chacune d'entre elles.

Nous avons choisi, approximativement, l'ordre historique de pénétration des mathématiques dans les disciplines.

La démographie

C'est la plus ancienne des sciences sociales; elle est, par sa nature même, quantitative. Avec un sujet d'études bien centré, la population, et des usages sociaux directement reconnus, elle privilégie, dans ses efforts méthodologiques, la réflexion sur la qualité de ses descriptions : problème des données manquantes, validité des concepts utilisés, possibilité de « projection », présentation de ses résultats (tableaux, graphiques, cartes...).

Elle est liée à l'histoire des probabilités et des statistiques dès leur origine (tables de mortalité, rapports des naissances garçons/filles...). Elle possède une tradition d'utilisation des modèles mathématiques : ajustement de courbes (Gompertz, 1825); modèles décrivant l'évolution des populations (Lotka, 1922; Volterra, 1926) (29); modèles probabilistes divers (markoviens en particulier). La génétique des populations, fortement mathématisée, a eu droit de cité à l'INED dès sa création (Malécot, 1948, 1966; Jacquard, 1970).

Les démographes ont donc volontiers participé aux développements formalistes et statistiques des années soixante : modèles de dynamique des populations dans la tradition de Lotka (populations dont l'évolution est soumise à contrainte, retour d'une population à l'état stable après une catastrophe...); modèles écologiques dans la tradition de Volterra; modélisation micro-démographique (modèles de fécondité). La simulation a fait l'objet d'un très grand nombre de travaux dans les années soixante-dix.

Pour la pratique statistique, ont été étudiées diverses méthodes d'estimation fondées sur le développement des formalismes discrets (probabilités d'occurrence d'événements prises comme variables expliquées). Le lien entre théorie de l'estimation et modèles de processus de vie ou de mort en est un exemple.

Les méthodes d'analyse des données, telles que l'analyse factorielle, ont également été essayées. En fait, le développement de la construction des « tables types de mortalité » est fondé, antérieurement à l'utilisation large de ces méthodes, sur des principes analogues.

La démographie (tout comme l'économie) est donc en position différente des autres sciences sociales par rapport aux mathématiques : elle les a déjà intégrées. Mais contrairement à l'économie, elle semble se méfier des développements mathématiques qui s'éloignent trop des problèmes empiriques. Les démographes auront tendance à mettre en garde contre la séduction de la « beauté des modèles mathématiques » (30). Ils regretteront la tendance des mathématiciens à « se cantonner dans des développements purement


Mathématiques et sciences humaines

mathématiques sans lien avec les faits » et attendent surtout d'eux « qu'ils les aident à manier des concepts nouveaux » (31).

Dans son traité sur l'analyse démographique, Pressat insiste également sur la nécessité d'employer des outils mathématiques élémentaires : « si nous n'avons jamais eu recours qu'à des règles simples de calcul, ce n'est pas par esprit de concession aux connaissances mathématiques généralement peu étendues des praticiens de la démographie, mais en raison de l'exact "climat" dans lequel baignent les spéculations démographiques, où les difficultés sont autres que d'ordre formel » (Pressat, 1973, p. 281).

L'économie

En économie, la modélisation mathématique est une oeuvre ancienne que l'on peut dater des Lumières (Condorcet) et surtout de Cournot (1838). Mais elle n'est pas aussi ancienne que l'idée de quantification et de description statistique des richesses d'un pays présente dans « l'arithmétique politique » anglaise du XVIIe siècle. Ces deux courants vont connaître chacun leur révolution à la fin du XIXe siècle : le marginalisme, d'une part, introduit le principe de l'unité marginale et permet la traduction mathématique des principes de l'économie classique (Walras); l'irruption de la statistique mathématique anglaise (Pearson, Yule et Fisher), d'autre part, introduit les outils de statistique mathématique qui vont permettre de confronter théories et observations. Ces deux courants vont garder une tendance à l'autonomie et on les retrouve actuellement sous les termes d'économie mathématique et d'économétrie.

L'économie mathématique est caractérisée dans les années soixante par d'abondants travaux mathématiques développant le paradigme de la théorie de l'équilibre général walrasienne, sur la base des travaux d'Arrow (1951) et de Debreu (1959). Certains centres de recherches se sont spécialisés dans cette reconstruction axiomatique caractérisée par la sophistication et parfois l'hypertrophie de sa syntaxe mathématique (calcul différentiel, techniques d'optimisation, analyse convexe, topologie différentielle, théorie des jeux...). Cette sophistication jointe à l'irréalisme des hypothèses a conduit des économistes à la critique de cet académisme, mathématiquement et heuristiquement fécond, mais incapable d'application à une économie concrète (32). Certains ont tenté de renouveler le paradigme — par exemple avec la théorie du déséquilibre — tandis que d'autres préconisent son abandon pur et simple au profit d'une approche plus empirique des « vrais » problèmes de politique économique.

L'économétrie, née institutionnellement en 1933, s'est développée dans les années soixante grâce à plusieurs facteurs : l'amélioration du système d'information statistique dans ses composantes institutionnelles (rôle de l'INSEE) et méthodologiques (nomenclatures, grandes enquêtes, fichiers informatisés); l'aiguillon de la planification qui a suscité la création d'institutions (Direction de la Prévision, CEPREMAP) et la construction de modèles macro-économiques fonctionnant comme de grosses maquettes de l'économie française (33); l'affinage enfin des méthodes statistiques de l'économétrie (modèle linéaire, estimation, test, analyse de la variance) favorisé par une première synthèse due à Malinvaud (1964). Ses innovations essentielles concernent une meilleure spécification de la dimension temporelle (processus ARIMA, optimisation et contrôle dans les modèles dynamiques, usages de données de panels, traduction de la théorie des anticipations


Les Messaches

rationnelles) et l'amélioration des techniques d'estimation et d'identification ou leur extension aux modèles non linéaires. Le progrès de l'outil informatique joue encore ici un rôle décisif.

Le calcul économique enfin, dont la vocation est de chiffrer les coûts et avantages d'un projet, a connu un grand essor dans les années soixante en mariant calcul marginal (fixation des prix par le coût marginal), développement des techniques de recherche opérationnelle (programmation, graphes...), et techniques économétriques. La gestion (choix d'investissements, tarification...) y a trouvé son compte aussi bien dans les entreprises publiques que dans les grandes entreprises nationalisées (EDF, SNCF), voire même dans les ministères où la rationalisation des choix budgétaires (RCB) fut, vers 1970, fort en vogue.

Il faut signaler enfin que les hypothèses de choix rationnel des acteurs de l'approche néo-classique et les méthodes économétriques (ou celles du calcul coût-avantage) tentent de coloniser des champs nouveaux (choix de portefeuilles, comportement de consommation, choix d'éducation, choix matrimonial, décision familiale) dont certains ressortissaient jusqu'ici d'autres disciplines (psycho-sociologie par exemple) (34).

La linguistique

Ce domaine a suscité, autour des années soixante, un intérêt très vif de la part des mathématiciens, et cet intérêt persiste. Carrefour entre la logique, l'informatique et ses langages artificiels, la sociologie, la psychologie et la biologie, la linguistique a fait l'objet d'approches mathématiques et formalisantes très diverses, touchant à ses multiples aspects : phonologie, étude lexicale, étude des textes; morphologie, syntaxe, sémantique, pragmatique... Il ne peut être question de rendre compte ici avec fidélité de ses nombreux courants en évolution constante, et souvent sans véritables liens entre eux. On se contentera d'esquisser quelques traits généraux qui concernent de façon plus particulière les thèmes de cet article.

La linguistique n'était pas, avant les années soixante, sans tradition mathématique : la philologie classique avait recours aux comptages de mots pour caractériser des oeuvres, ou encore à l'analyse en composantes simples de textes composites. La sténographie, et plus tard les tentatives de définir un « français fondamental », ont fait usage des statistiques phonétiques ou lexicales. Celles-ci ont donné lieu à l'établissement de quelques « lois » du langage, qui se sont avérées toutefois trop générales pour être réellement convaincantes aux yeux des linguistes (35). Dans les années suivantes, la linguistique statistique a continué sur cette voie en utilisant des méthodes plus élaborées (36). L'ordinateur favorise le développement de cette « linguistique quantitative et computationnelle », qui déploie son activité autour de l'analyse automatique du langage et travaille à constituer des bases de données documentaires, lexicales ou textuelles (37). Mais il arrive que certains de ses praticiens se sentent un peu marginaux entre des « littéraires » toujours « allergiques » au moindre calcul ( 38) et l'essor d'une linguistique logico-mathématique qui entend intervenir dans la théorie même du langage.

Le rapport étroit qu'entretiennent le langage et la logique n'a cessé d'intriguer depuis l'Antiquité. Aux XVIIe et XVIIIe siècles, alors que la langue mathématique et scientifique se sépare de la langue naturelle, on assiste à des tentatives d'écrire des grammaires


Mathématiques et sciences humaines

générales (telle celle de Port-Royal), tandis que des philosophes-mathématiciens, tels Descartes et Leibniz, voudraient construire un langage universel parfaitement logique. Au siècle dernier, la logique formelle fait se rejoindre logique et mathématiques, tandis que Saussure pose, au tournant du siècle, les bases de la linguistique moderne, qu'il semble envisager comme devant aboutir à un système mathématique (39).

Dès 1943, le mathématicien Hadamard voit dans la linguistique le pont qui va pouvoir relier les mathématiques et les humanités (40). La jonction se fait autour des années soixante, avec les grammaires génératives du linguiste Chomsky : de la même façon que la logique mathématique voit dans les mathématiques un système d'axiomes et de règles démonstratives, Chomsky tente de réduire la syntaxe à un ensemble d'éléments de base et un ensemble de règles de dérivation. La formalisation chomskienne rencontre alors la théorie des automates, et une grande activité se développe autour de ces modèles (41).

Dès lors la linguistique apparaît à beaucoup comme ayant atteint un « degré de précision et de sophistication tels qu'ils nécessitent l'emploi d'outils mathématiques » (42). Dès 1950, certains pensaient qu'elle était « en bonne voie pour devenir complètement mathématique » (43). Cependant, Chomsky lui-même se montre beaucoup plus prudent : il remarque la distance qui sépare encore les investigations mathématiques et empiriques et considère qu'une théorie mathématique de la grammaire universelle est « un espoir plutôt qu'une réalité présente » (44).

On a vu le rôle important que la linguistique a joué dans les années soixante pour convertir les autres sciences humaines aux mathématiques : c'est qu'elle est alors reconnue par la plupart comme « science pilote » (45), « mathématiques des sciences humaines et sociales » (46), « de plain-pied avec les sciences exactes et naturelles » (47). Certains linguistes, pourtant, mettent en garde contre les excès du formalisme (48).

D'une manière générale, les modèles algébriques apparaissent comme « une réserve inépuisable de "moules" possibles » pour analyser diverses structures linguistiques (49). Ces confrontations permettent en fait de mieux expliciter les caractères propres aux langues naturelles, à travers des résultats « négatifs » essentiellement. On citera le théorème de Chomsky de 1955 qui montre que la complexité d'agencement d'une langue naturelle est supérieure à la complexité par emboîtements récursifs; autrement dit, que sa syntaxe ne peut être considérée comme une grammaire « indépendante du contexte » (context-free) (50).

Tandis que Chomsky est conduit, par la suite, à modifier ses théories linguistiques, en s'éloignant quelque peu des mathématiciens, les informaticiens s'emparent de ses travaux; pour eux, les grammaires génératives sont avant tout la théorie des langages formels (51).

Mais la linguistique mathématique ne saurait se réduire aux travaux algébriques faits autour de la grammaire générative. Un continuum existe en fait entre les formalisations faites par les linguistes et les formalisations mathématiques abstraites. Une discussion en cours porte sur ce qu'on désire formaliser : s'agit-il des langues elles-mêmes, du signifiant ou du signifié, des concepts, des théories portant sur des classes de langues ou même encore, du raisonnement linguistique lui-même ?

De fait, la résistance de la sémantique naturelle à la modélisation logicienne pose des questions intéressantes à la logique mathématique. Parmi les diverses tentatives qui ont cours, mentionnons celles qui utilisent les logiques non classiques, modales ou intentionnelles; ou encore celles qui, refusant le caractère discret des décompositions de la


Les Messaches

linguistique de type saussurien, considèrent nécessaire l'introduction de modèles topologiques (52).

Terminons ce rapide survol par l'évocation, toujours présente dans les divers domaines de la linguistique, de la traduction automatique : celle-ci a suscité de grands espoirs dans les années soixante, et drainé alors des subsides importants (53). Après la déception survenue à partir des nombreuses difficultés rencontrées, une réorientation des recherches ainsi que la plus grande puissance des ordinateurs d'aujourd'hui permettent d'envisager des possibilités nouvelles comme la mise au point d'outils d'aide à la traduction.

Fig. 1. — Arbre d'analyse syntaxique. La structure d'une phrase naturelle se représente, selon certains modèles d'analyse syntaxique, par un arbre. Dans l'exemple ci-dessus, tiré de Vauquois (1971), la phrase entière s'organise d'abord en un premier « groupe nommai » (GN) et un premier « groupe verbal » (GV); chaque sous-groupe est à son tour susceptible de présenter le même type de construction. On aboutit à la « formule » ci-dessus, analogue à ce que l'on trouve maintenant dans bon nombre de livres de grammaire du secondaire. En fait, par rapport à la complexité de ces modèles algébriques « à la Chomsky », une telle représentation reste très simplifiée. (B. Vauquois, « Modèles pour la traduction automatique », Math. Sci. hum., 34, 1971, p. 67.)


Mathématiques et sciences humaines

La psychologie

Appartenant, au CNRS, aux sciences de la vie, la psychologie propose deux versants nettement distincts de son activité : psychologie clinique, psychologie expérimentale. La première n'est guère demandeuse de mathématiques, encore que, autour de Lacan, aient été tentés quelques embryons de formalisation.

A l'inverse, dès sa création, dans la seconde moitié du XIXe siècle, la psychologie expérimentale [dite aussi scientifique (54)] sera demandeuse et plus tard pourvoyeuse d'outils mathématiques. Ainsi, avant même les années quarante, elle aura suscité ou utilisé les travaux de l'école statistique anglo-saxonne : méthodes de corrélation et de tests (Galton, Pearson, Yule), analyse factorielle (Spearman, Burt, Thurstone), analyse de variance (Fisher). Le cas de l'analyse factorielle, créée en vue de la mesure de l'intelligence, est particulièrement intéressant. Si l'on considère que les « facteurs » obtenus sont des catégories purement descriptives du comportement, on peut voir dans l'analyse factorielle l'ancêtre de l'analyse des données multidimensionnelles contemporaine; une analyse des données d'ailleurs assez peu utilisée par le psychologue, du fait de la nature expérimentale de sa démarche. Par contre, si l'on voit ces facteurs comme constituant un modèle explicatif du comportement, l'analyse factorielle apparaît comme relevant de la « psychologie mathématique », partie de la psychologie où les hypothèses du chercheur se présentent sous la forme d'un modèle formalisé (55). Cette psychologie mathématique, qu'on peut faire remonter à Fechner (au milieu du XIXe siècle), a été fortement développée aux États-Unis à partir des années cinquante. Elle a connu un certain engouement en France, dans les années soixante (56), avec l'étude de modèles de mesures d'attitude (l'analyse hiérarchique), de modèles de décision et de choix individuels ou collectifs, de modèles logiques de comportement cognitif, de modèles stochastiques d'apprentissage (à base de processus), de modèles de communication et d'équilibres de groupes sociaux (utilisant la théorie des graphes)... Toutefois, la plupart de ces recherches ont été peu à peu délaissées, peut-être parce qu'on s'est aperçu que la modélisation mathématique n'était réellement satisfaisante et enrichissante que là où la réalité psychologique ou sociale était déjà fortement structurée; cela se produit s'il existe des règes explicites comme dans le cas des jeux sociaux ou sportifs qui donnent lieu à des modélisations fructueuses (57). Ainsi les principaux outils mathématiques des psychologues durant la période sont restés les outils statistiques traditionnels, généralement utilisés de manière très standardisée et dans un cadre ne permettant souvent que d'obtenir des micro-conclusions. Il en est résulté une certaine crise de la discipline à laquelle elle répond de différentes manières. Un effort de méthodologie statistique est mené pour adapter les outils aux questions réelles des chercheurs [et donc éviter que ce soit les questions qui s'adaptent aux outils (58)]. Par ailleurs, l'évolution amorcée dans les années soixante-dix vers les neuro-sciences se poursuit dans la direction des sciences cognitives où l'on espère beaucoup des nouveaux paradigmes informatiques et des interactions avec l'intelligence artificielle; ce courant est devenu dominant dans les années quatre-vingts.

La sociologie

Sous l'impulsion de P. Lazarsfeld ( 59) et de son disciple R. Boudon, un grand intérêt pour le mode de « pensée mathématique » (Lazarsfed, 1958) se manifeste dans les


Les Messaches

années soixante. De nombreux sociologues vont se frotter aux méthodes et modèles mathématiques proposés : confrontations logiques, ajustements à des lois statistiques, simulations, modèles algébriques, ordres, modèles de diffusion, théorie des jeux, processus stochastiques de mobilité sociale, théorie des graphes, analyse des questionnaires, théorie des catastrophes (60).

Ce mouvement vers la mathématisation est conforté par une arrivée massive de données sociales (INSEE, INED, CREDOC, instituts de sondages, premières grandes enquêtes de recherche). Leur traitement statistique utilise aussi bien des outils classiques (indices, corrélations, tests d'hypothèses...) que des méthodes nouvelles, par exemple l'analyse hiérarchique. Le paradigme des variables « à expliquer » et « explicatives » (originaire de l'économétrie) inspire diverses méthodes d'analyse causale fondées sur les modèles linéaires.

Mais la spécificité des données sociologiques, le plus souvent de nature qualitative, conduit, dans les années soixante-dix, au succès (essentiellement français) des méthodes d'analyse de données développées par Benzécri (classifications et surtout analyse des correspondances). Celles-ci offrent la possibilité de premières descriptions de champs complexes.

La dispersion des méthodes statistiques et des modèles mathématiques utilisés est très certainement ce qui caractérise le mieux la sociologie par rapport aux autres disciplines de l'homme. Ceci tient sans doute à la tradition critique issue de la philosophie, tradition qu'elle tient à conserver et qui la fait revenir sans cesse sur les fondements de ses conceptualisations.

La géographie

Entre 1960 et 1980, cette discipline a effectué en matière de méthodes quantitatives, et selon ses praticiens, une « révolution douce » (61), ceci malgré un certain « retard » ( 62) et à travers un conflit initial entre « anciens » (plutôt qualitativistes) et « modernes » (plutôt quantitativistes). C'est vers la fin des années soixante qu'une jeune école francophone se lance avec enthousiasme dans les méthodes quantitatives; à partir d'initiatives multiples (63), [groupes informels, rencontres diverses, publications (64)...], elle développe un réseau solide de diffusion et de réflexion critique. Les outils les plus utilisés sont d'abord ceux de l'analyse des données, éventuellement adaptés aux problèmes de l'analyse spatiale. Ces outils se révèlent aussi indispensables pour le traitement des images obtenues par télédétection que dans des techniques de la cartographie automatique. Les géographes français contribuent aussi — mais de façon modérée — à l'autre direction majeure de la géographie quantitative, à savoir l'élaboration de modèles mathématiques pour rendre compte de phénomènes spatio-économiques (équilibre inter-régional, migrations, localisations, structures urbaines...). Les outils utilisés peuvent être classiques (champs de gravité), mais on relève aussi des tentatives d'utiliser la théorie des structures dissipatives ou celle des catastrophes pour modéliser des systèmes spatiaux dynamiques. En conclusion, le conflit initial a laissé la place à un climat plus serein où les géographes (ou au moins une partie d'entre eux) semblent avoir su s'emparer avec efficacité de nouvelles méthodes et techniques, passées au crible de leur réflexion; peut-être doit-on y voir une conséquence de leur double enracinement dans les sciences de la nature et les sciences humaines.


Fig. 2. — Les variantes du goût petit-bourgeois. Un exemple d'une « analyse des correspondances » : cette technique recherche les axes principaux d'inertie d'un nuage de points représentant un ensemble important d'individus et de leurs descripteurs; elle peut se résumer comme ici à la carte de la projection sur les deux premiers « facteurs », interprétés par le sociologue respectivement comme le niveau d'instruction et la profession du père. (P. Bourdieu et M. de Saint-Martin, « Anatomie du goût », Actes de la Recherche en Sciences Sociales, 5, 1976, p. 68.)


Les Messaches

L'histoire

C'est à travers l'histoire économique puis démographique que l'histoire a rencontré la « quantification ». Dans les années trente, l'« École des Annales », rompant avec une tradition axée sur l'événement politique, veut s'attacher à restituer dans leurs divers aspects les sociétés passées et leur évolution, et entend s'ouvrir aux autres disciplines des sciences sociales. Si les travaux bien connus de L. Febvre et M. Bloch restent avant tout qualitatifs, à la suite de la crise de 1929, F. Simiand puis E. Labrousse examinent le développement de l'économie sur le long terme, à travers les séries chronologiques des prix. Dans les années soixante et après quelques résistances ( 65) la « révolution quantitative » ( 66) s'installe. La problématique de la croissance économique supplante celle des prix, tandis que le dépouillement des registres paroissiaux permet l'apparition d'une histoire démographique. Le quantitatif « contamine » ainsi divers domaines l'un après l'autre, atteint l'histoire sociologique, voire psychologique.

Mais cette quantification reste le plus souvent élémentaire; les historiens recourent rarement à des techniques élaborées (telles que le lissage des courbes, l'évaluation des corrélations par des coefficients...). Il faut remarquer à ce sujet que l'histoire a été pendant longtemps une des rares sciences sociales à ne pas proposer de formation statistique à ses étudiants.

Autour des années soixante-dix, la revue Les Annales, qui domine le champ du point de vue méthodologique, s'intéresse aux mathématiques (à travers leur histoire) ( 67) et au débat épistémologique de l'époque. Commence alors à fleurir une production d'articles dont les ambitions quantitatives dépassent le simple comptage et les graphiques, et utilisent des techniques statistiques plus sophistiquées (régression, analyse factorielle, classification...) (68).

De leur côté, les économistes historiens, forts de leurs modélisations poussées, entendent réserver la dénomination d'« histoire quantitative » à l'examen des données économiques d'une époque à partir de leurs schémas théoriques (69). Les historiens réagissent vivement à ce qu'ils ressentent comme une « agression » et réaffirment leur propre identité (70). Leur tradition critique les conduit à ne passer au quantitatif qu'après avoir bien fondé les catégories qui le supportent.

De fait, à partir des années soixante-quinze, la vogue quantitative subit un reflux, l'intérêt épistémologique se déplace ailleurs. Si les études quantitatives continuent à exister (cartographie automatique, analyse multifactorielle, analyse de variance...), elles ne suscitent plus autant d'intérêt et leurs partisans se sentent quelque peu marginalisés. C'est autour de l'informatique, reconnue dès son apparition comme instrument indispensable ( 71) que la revue Histoire et Mesure, créée en 1986, entend relancer le débat.

L'archéologie

Celle-ci présente d'emblée une spécificité notable : science d'objets autant que d'idées, elle a déjà l'habitude, bien avant les années soixante, de recourir aux différentes disciplines


Mathématiques et sciences humaines

Fig. 3. — La quantification en histoire. Elle est toujours restée mesurée; ci-dessus, des techniques, essentiellement graphiques, ont permis de représenter, de classer en sept types et de définir les tendances générales des séries constituées par le cours du change de différentes monnaies aux foires de Bisenzone, entre 1600 et 1650. (J. Bertin, « La Graphique et le Traitement graphique de l'Information », Flammarion, 1977, p. 94.)

149


Les Messaches

qui peuvent l'aider à caractériser les traces matérielles auxquelles elle a affaire : Varchéométrie rassemble ainsi des techniques et méthodes très variées (72). Une part du développement de l'usage des mathématiques que la discipline connaît à partir de ces années, à l'instar des autres sciences humaines, se coule dans cette tradition (73).

Cependant, parmi les applications assez variées des mathématiques, certaines, plus ambitieuses, empiètent davantage sur le domaine propre de l'archéologue et sont en conséquence plus discutées : c'est le cas par exemple des méthodes de sériation pour la reconstitution de chronologies, ou de l'usage de la statistique inférentielle pour l'estimation de volumes de production (par exemple monétaire) (74). Ainsi, l'engouement pour les méthodes de sériation a surtout été le fait de mathématiciens, les archéologues ayant vite perçu que « leur » temps échappait le plus souvent, par sa complexité, à la modélisation mathématique (75). Au contraire, l'usage mieux consacré des méthodes de classification correspond sans doute à ce que leur rôle est davantage celui d'un soutien technique, qui laisse libre place à l'interprétation (76). Elles s'intègrent, de plus, naturellement aux démarches informatiques.

Il est en effet essentiel de rappeler l'importance des motivations archéologiques dans l'élaboration de celles-ci. D'abord, les besoins spécifiques des archéologues en enregistrement et en documentation ( 77) leur ont fait utiliser, précocement et profondément, les possibilités offertes par l'informatique en matière de bases de données (78). Par la suite, une réflexion poussée sur le raisonnement et la construction des conclusions a conduit à l'usage de systèmes experts (79).

Dans ce contexte, l'usage des mathématiques en archéologie se trouve être, peut-être encore plus qu'ailleurs, tributaire de celui de l'informatique, ce qui n'a pas empêché son évolution de présenter les analogies saisissantes avec ce qui s'est passé dans d'autres disciplines : développement important, plus nettement marqué dans la littérature anglosaxonne; difficulté du dialogue mathématiciens-archéologues; « stabilisation », après un certain désenchantement, à la fin des années soixante-dix (80).

L'anthropologie

Nous avons évoqué dans la première partie le rôle que l'anthrophologie a joué, autour de Lévi-Strauss et du structuralisme, dans l'adoption de méthodes mathématiques par les sciences sociales : la mise sous forme algébrique de certaines structures de parenté avait alors suscité l'espoir qu'une mathématisation aussi serrée qu'en physique pourrait être possible. Depuis, les limites de ces modèles ont été mises à jour, et c'est par un traitement plus systématique, rendu possible par l'informatique, qu'a été continuée l'analyse de la parenté (81).

Il faut encore signaler l'entreprise gigantesque de recensement des données de l'Américain Murdock et de son équipe qui, depuis 1949, rassemblent les diverses données ethnographiques dans un Atlas portant actuellement sur 1100 sociétés, entreprise qui s'est voulue la première tentative de quantification universelle des faits d'organisation sociale. Mais l'exploitation statistique de cet Atlas est contestée, en règle générale, par les ethnologues français.

Aussi, dans l'ensemble, à part quelques usages clairsemés et modestes de statistiques élémentaires, quelques travaux qui continuent autour des algèbres de la parenté et


Mathématiques et sciences humaines

quelques tentatives récentes de modélisations topologiques, les recherches ethnologiques se font majoritairement sans mathématiques et sans quantification (82).

Informatique, Mathématiques et Sciences humaines

C'est à la fin des années soixante que l'informatique pénètre dans les laboratoires des sciences de l'homme, et cette introduction va bouleverser les rapports déjà complexes entre les « deux cultures », au point qu'il est impossible, même dans ce texte non directement consacré à l'informatique, de passer son rôle sous silence. De fait, le bouleversement affecte aussi bien chacune de ces cultures que leur rapport mutuel.

Une interaction directe s'est organisée entre mathématique et informatique théorique sur des disciplines charnières telles que l'analyse numérique, l'algorithmique et la logique formelle : une théorie mathématique de la complexité des algorithmes permet par exemple d'en évaluer l'efficacité; les simulations et solutions algorithmiques sont d'autre part admises en mathématique comme substitut de la preuve formelle déductive.

Une interaction semblable s'est construite directement entre informatique et linguistique, à partir du moment où l'on reconnaissait à la fois que l'ordinateur traitait de l'information et donc du symbole, hors de toute signification, et que la linguistique statistique puis structurale isolait le langage de la parole. Le rapprochement entre langages naturels et langages artificiels a permis de faire progresser les théories du codage, les langages de programmation ou de requête, et plus généralement l'interface hommemachine; tandis que l'informatique explorait différentes stratégies de représentation des connaissances et de modélisation des langages : grammaires formelles de Chomsky, représentations sémantiques d'énoncés, programmation logique (PROLOG) et intelligence artificielle. Celles-ci débouchent sur des applications concrètes en traduction automatique ou en reconnaissance de la parole, domaines pour lesquels de nombreux problèmes demeurent (83).

Mais pour le reste des sciences humaines, l'informatique a d'abord été un moyen de traiter en grand nombre des données, numériques ou non, selon des méthodes qui préexistaient à son irruption. Dans les années soixante, de gros calculateurs électroniques puissants, mais difficilement programmables par des non spécialistes, ont pu résoudre des problèmes soulevés par la taille des corpus analysés ou par la complexité des calculs. On peut dire que l'automatisation n'avait qu'un effet quantitatif. C'est par exemple le cas des traitements statistiques, et particulièrement de l'analyse des données multidimensionnelles qui n'aurait pas connu sa large diffusion sans cette médiation informatique. C'est aussi le cas de la recherche opérationnelle, et de techniques qui nécessitent un grand nombre d'itérations ou l'exploration d'un grand nombre de possibilités combinatoires.

Les données des chercheurs en sciences sociales étant souvent de nature qualitative, il est apparu bien vite que l'informatique, au-delà des possibilités de calcul, était capable de traiter de l'information sous quelque forme que ce soit. Les corpus des chercheurs décrivent des objets plus ou moins complexes par des attributs numériques, codés, textuels, voire iconographiques que l'ordinateur sait de mieux en mieux gérer. En ethnographie, en histoire, en archéologie, en sociologie, en économie... s'est généralisée l'informatisation de ces corpus, soit au niveau du chercheur, soit au niveau institutionnel sous la forme de bases de données.


Les Messaches

Cette information est riche d'enseignements par les contraintes de catégorisation, de codage, de classement, de sélection des éléments à représenter, qui obligent le chercheur à expliciter ses hypothèses et à rationaliser ses choix et procédures. Elle passe de plus en plus par l'optimisation et la standardisation des programmes de gestion et d'interrogation de ces fichiers ou bases de données. D'où l'importance des progrès faits dans ces programmes de gestion de fichiers, et les systèmes de gestion de bases de données.

La représentation des connaissances sous forme de bases de faits, couplée à un « moteur d'inférence » qui opère sur des règles de déduction et d'induction, doit permettre de « capturer » le savoir de spécialistes en un système expert. Cette approche, la plus connue de l'intelligence artificielle, renouvelle les possibilités de description de l'information, élargit le raisonnement aux démarches heuristiques et non procédurales, et aux logiques floues et non monotones. Elle semblerait pouvoir servir les sciences humaines : après la médecine (diagnostic), la gestion (aide à la décision), l'anthropologie (reconstitution de généalogies), l'archéologie (reconnaissance, datation) en ont fait usage.

Au-delà des systèmes experts, l'intelligence artificielle introduit une démarche qui, pour certains, pourrait modifier la méthode et l'épistémologie des sciences humaines, voire leur découpage, avec l'exemple des sciences cognitives qui associent des savoirs empruntés à des disciplines aussi différentes que la psychologie, la neurologie, la linguistique...

Autant pour le stade de la gestion des données que pour celui de leur traitement statistique ou mathématique, le passage de programmes adhoc à des progiciels du marché a constitué le premier pas d'une libération des contraintes de l'informatique première manière, qu'il faut associer aux progrès techniques (passage des cartes perforées aux supports magnétiques par exemple). Le second changement important est, au début des années quatre-vingts, la révolution apportée par la micro-informatique qui, par sa montée en puissance, court-circuite partiellement le rôle des centres de calcul et des analystesprogrammeurs. Ceci permet un certain retour à l'autonomie et à l'artisanat du travail de recherche, au prix peut-être d'une dépendance à l'égard du marché des logiciels; de plus l'effet de standardisation et l'effet boîte-noire conduisent à des risques d'utilisation non avertie et non contrôlée de ces logiciels qui ruinent les efforts de pédagogie méthodologique des mathématiciens et statisticiens.

Vingt ans après : acquis et controverses

Qu'est-il advenu de l'enthousiasme qui a présidé, dans les années soixante, à la rencontre entre les mathématiques et les sciences humaines? Les premières ont-elles permis aux secondes d'accéder à un statut supérieur de scientificité? La mutation que certains prévoyaient s'est-elle produite ? Est-il possible, aujourd'hui, de proposer un bilan quelque peu dépassionné ?

Comme la section précédente de ce texte l'a montré, on a vu, dans les dernières décennies, une intense activité se déployer dans des domaines de recherche parfois entièrement nouveaux. Les frontières qui s'étaient établies, au cours des siècles précédents, entre les « deux cultures » ont été franchies, et ceci, de part et d'autre. Des mathématiciens se sont intéressés à des problèmes relevant, de près ou de loin, des sciences de l'homme. Ils sont venus enseigner les mathématiques, les statistiques, l'informatique aux étudiants et aux chercheurs des sciences humaines. Ils ont collaboré avec eux dans des projets de


Mathématiques et sciences humaines

recherche. De l'autre côté, des chercheurs des sciences humaines se sont initiés au langage mathématique et ont tenté, avec plus ou moins de bonheur, plus ou moins de suivi, de l'utiliser dans leurs champs de recherche. La présence, dans les « laboratoires » de sciences humaines d'un statisticien, d'un informaticien, voire d'un mathématicien, n'est plus inhabituelle. Un certain nombre de chercheurs, enfin, ont acquis, par eux-mêmes ou à travers les filières instituées, une double formation.

Chaque culture, du fait de ces interpénétrations, est ainsi devenue moins étrangère à l'autre. Pourtant, les traditions de pensée, les exigences qui y sont liées, restent très différentes dans les deux cas. Aux nécessités de la précision, de la définition univoque des mathématiques comme de l'informatique, s'opposent des appréhensions plus intuitives de domaines de réalité qui se caractérisent par leur complexité et, le plus souvent, leur mouvance. Aussi les dialogues restent-ils ardus. Il en est résulté, dans certaines disciplines, l'apparition d'intermédiaires, parfois nommés méthodologues, au statut mal défini. Leur rôle, dont la difficulté est souvent mal perçue, consiste à proposer, voire créer, les méthodes, les modèles, les moyens qui pourraient répondre aux demandes, plus ou moins bien explicitées, des praticiens des sciences sociales. Dans quelques cas, des centres à vocation interdisciplinaire ont pu être créés (84).

La situation, certes, est très différente selon que la discipline possédait déjà ou non une tradition mathématique. Dans le premier cas, elle pouvait, comme l'économie, s'intéresser de façon active aux nouveaux développements et y contribuer elle-même; ou bien, comme la démographie, participer à ces développements tout en continuant à se tenir proche des données empiriques et à insister sur la précision des concepts utilisés.

Des disciplines jusque-là essentiellement « littéraires » ont souvent succombé aux illusions sur le pouvoir des mathématiques qui étaient, on l'a vu, celles de toute une époque. Le cas de l'anthropologie est ici exemplaire : en pointe, dans les années soixante, dans le mouvement pour l'introduction des mathématiques dans les sciences sociales, elle a pu exhiber un cas spectaculaire d'adéquation entre algèbre et structure sociale. Mais cet exemple est resté isolé, et aucune mathématique n'a pris réellement corps dans la discipline elle-même.

Les engouements ont été suivis assez vite de déceptions : pauvreté des résultats obtenus au vu de l'effort fourni, évasion des travaux mathématiques de leur problématique d'origine. On en est arrivé, depuis, à des vues plus réalistes. La présence des outils mathématiques et surtout informatiques a été acceptée, mais on a tenu (sociologie, histoire...) à bien délimiter leur territoire.

D'autres disciplines ont intégré l'outil mathématique à travers une « révolution douce » (géographie), ou encore en créant des champs nouveaux : la psychologie mathématique et surtout la linguistique mathématique, venant après l'économie mathématique, introduisent des problématiques et des développements originaux.

S'il faut tirer une conclusion de l'examen des diverses disciplines dans leurs rapports aux mathématiques, il faut souligner les rôles particuliers joués par l'économie et la linguistique. On peut remarquer que toutes deux sont liées à des fonctions sociales essentielles, l'échange et la communication, et que la société moderne reconnaît comme telles. L'économie est la discipline humaine qui a le mieux accepté le jeu de la modélisation mathématique, et ceci, dès le siècle dernier. Elle est la seule des sciences de l'homme à avoir acquis le droit au prix Nobel, en 1969. On peut être tenté de voir une concordance


Les Messaches

Fig. 4. — Modélisations. La modélisation spatiale et dynamique des structures intra-urbaines connaît des renouvellements importants liés à l'utilisation de formulations mathématiques tirées de la théorie des catastrophes, de la théorie des structures dissipatives ou encore des théories de l'auto-organisation. Est représenté ici le développement d'une ville fictive selon un paramètre de propension d'une activité à s'agglomérer. (D. Pumain, Th. Saint-Julien et L. Sanders, « Vers une modélisation de la dynamique intraurbaine », L'espace Géographique, 2, 1984, p. 133).

154


Mathématiques et sciences humaines

entre ces divers caractères, mathématisation poussée, « nobélisation », dynamisme, et le rôle de régulation qui lui est reconnu dans le développement des sociétés modernes.

Le cas de la linguistique est quelque peu différent : elle concerne ce qu'il y a de plus spécifiquement humain chez l'homme, le langage, et touche à la fois au biologique, au social et à la logique. La fascination qu'elle exerce aujourd'hui dans les cercles académiques provient de ce que sa rencontre avec l'informatique permet de reposer de façon neuve de très vieilles questions sur ce que sont le langage, la grammaire et l'intelligence. Par ailleurs, elle fait nécessairement partie de ces sciences de la communication, conglomérat récent qui traverse les frontières des disciplines humaines et techniques.

Les mathématiques ont connu un élargissement considérable de leurs domaines d'intérêt, et des développements si nombreux qu'une vue globale de leur activité, comme celle qu'a pu proposer Bourbaki est sans doute devenue impossible. Les limites qui marquaient mathématiques pures et appliquées se sont estompées. Pour ces dernières, la prise de conscience de la variété de leurs modes d'utilisation se traduit par l'apparition d'expressions nouvelles : on parle de mathématiques « applicables », « motivées » (Aubin, 1982), ou « métaphoriques »; on évoque des modèles « heuristiques », « herméneutiques », voire « démiurges » (85).

Cette variété ressort à l'examen des diverses fonctions remplies par les mathématiques dans un texte de science sociale : elles peuvent apparaître à titre illustratif, répliquant l'argumentation « littéraire ». Elles peuvent correspondre à des résumés d'énonciation, ou se réduire à des comptages. Elles peuvent s'intégrer dans une démarche hypothéticodéductive, laquelle peut être poussée jusqu'à l'axiomatisation. Elles peuvent proposer des modèles plus ou moins charpentés, plus ou moins étendus, plus ou moins complexes, allant de l'ajustement de courbe à des modèles dynamiques régis par des systèmes d'équations différentielles.

Ces modes d'utilisation dépendent encore d'un faisceau complexe de raisons : la discipline peut avoir fait le choix de théorisations poussées (économie) ou d'une méthodologie expérimentale pointilleuse (psychologie expérimentale). Le matériau même de la discipline peut présenter un substrat logique (jeux sociaux, langage, formes de parenté...) ou encore un substrat quantitatif, comme c'est le cas pour l'économie, la démographie, la sociologie électorale ou encore la géographie. Ces disciplines sont d'ailleurs tributaires des organismes qui se sont multipliés après-guerre, quadrillant la société d'observations, produisant données et indices. La prolifération des données ainsi disponibles implique à son tour la nécessité de résumés, modèles mathématiques ou techniques statistiques, le tout étant favorisé par les moyens de l'informatique moderne.

L'arrivée des mathématiques dans les sciences humaines ne s'est pas faite sans polémiques : aux enthousiasmes des uns ont répondu les réticences, mises en garde, voire refus décidés des autres. « Mathématiser les sciences de l'Homme? » interroge le probabiliste André Régnier (1968) : s'il reconnaît l'utilité des mathématiques comme discipline auxiliaire, ou encore celle des modèles dans les sciences humaines appliquées, il entend réserver aux sciences humaines « théoriques » le droit de se passer de mathématiques comme de modèles (86).

Beaucoup de critiques voient surtout dans divers emplois des mathématiques des alibis destinés à donner l'illusion de cette scientificité recherchée et problématique. Le manque de rigueur de certaines applications a été dénoncé, et ceci des deux côtés, en se référant


Les Messaches

aux exigences propres des disciplines d'origine : c'est ainsi que des mathématiciens « purs » s'irritent du laxisme de certains de leurs collègues (87), tandis que des praticiens des sciences humaines attachés à une critique fine de leur démarche refusent certaines procédures qu'ils jugent réductrices. Ainsi, catégorisations et classements sont des opérations délicates, que certains jugent relativement arbitraires mais qui reflètent, pour d'autres, des enjeux de lutte sociale (88).

Toute modélisation a pour effet de figer des concepts plus ou moins bien définis et prête donc le flanc à la critique (89), dans des sciences où le consensus manque, tant pour des raisons internes à la discipline (complexité d'un champ d'études évolutif) que pour des raisons externes, d'ordre socio-politique. Le manque de résultats spectaculaires,

Fig. 5. — L'analyse des données dans les médias. Parue dans Le Monde du 14 octobre 1981, cette analyse des correspondances représente la répartition des Prix Nobel selon les disciplines et les pays; la pertinence de l'usage de cette méthode dans un tel cas — et aussi la mise en valeur dans le graphique de l'opposition Sciences/Lettres — a été jugée fallacieuse. (Cf. Ph. Cibois, « Piège dans un tableau », L'Écho des Messaches, 11, 1981.)

156


Mathématiques et sciences humaines

de découvertes d'effets nouveaux bien identifiés, comme cela a pu être le cas de la physique ou encore celui de la biologie, empêchent que puissent se former des consensus fermes.

Si les manipulations informatiques et statistiques ne peuvent plus guères être rejetées, le développement de modèles plus sophistiqués apparaît souvent comme inutile. Cette tension entre un pôle théorique et un pôle empirique de la recherche ne peut manquer d'exister : les aventures mathématiques du premier, aussi séduisantes intellectuellement soient-elles, apparaissent stériles au second (90); de leur côté les « théoriciens » reprochent aux « empiristes » l'accumulation de données qui, sans théorie préalable, se révèle tout aussi stérile.

Les enthousiasmes médiatiques, prompts à se saisir, sans toujours les comprendre, des courants à la mode (91), les enjeux sociaux inévitables dans les applications des sciences sociales (92), viennent perturber un débat scientifique déjà difficile, et le faire sortir de la communauté scientifique. Ainsi la « révolution culturelle » de mai 1968 n'a pas manqué d'intervenir également dans ce domaine. Certains « contestataires » ont retrouvé, dans la mathématisation des sciences sociales, liée de fait, on l'a vu, aux mutations de la société moderne, le processus de rationalisation et de « contrôle disciplinaire » de la société dans son ensemble (93).

Malgré toutes ces critiques et la pertinence de nombre d'entre elles, la mathématisation des sciences humaines, ou du moins de certains domaines de ces sciences, s'est poursuivie, semblant ainsi répondre à cette « nécessité extérieure » qu'évoquait Lévi-Strauss. Mais elle n'a pas toujours correspondu aux attentes de ceux qui l'avaient initiée.

Beaucoup espéraient qu'elle permettrait de faire accéder les sciences de l'homme au statut de scientificité « dure » qui est celui de la physique, prise souvent pour modèle. Ces espoirs ont été déçus, mais du coup se trouve posée de façon neuve la question de ce qu'est la scientificité et ses diverses expressions.

Les formes mathématiques qui ont été le plus utilisées n'ont pas non plus toujours correspondu aux idées des années soixante : dans les domaines où l'introduction des mathématiques était neuve, on se centrait surtout alors sur le langage ensembliste, la modélisation algébrique et l'axiomatisation de la mesure. L'informatique est venue bousculer l'état des choses, fournissant des méthodes amples, contribuant à redéfinir les problématiques.

Plus que les mathématiques, elle a fait éclater les frontières entre certaines disciplines : c'est ainsi que les sciences cognitives, ce nouveau pôle d'attraction qui draine actuellement les crédits, réunit des parties de l'informatique, de la logique, de la psychologie et des neuro-sciences, sans oublier une dose inévitable de philosophie.

L'enthousiasme quelque peu naïf des années soixante est très certainement retombé. Les miracles attendus de la mathématisation n'ont pas eu lieu. Au plan philosophique un examen de « l'épopée structuraliste » est à l'ordre du jour (94). Pour l'enseignement scolaire des mathématiques, le formalisme de type bourbakiste a fait marche arrière. Mais il faut remarquer que tout ceci n'est pas contradictoire avec une autre évolution marquée par la considérable diffusion sociale des outils de quantification : les techniques de mesurage telles que sondages et recensements, estimations électorales, tests psychotechniques, nomenclatures et indices économiques... font désormais partie de notre univers professionnel et médiatique quotidien (95). Par ailleurs l'informatique dont les rapports


Les Messaches

avec les mathématiques sont, comme on l'a vu, complexes, devient, sous ses multiples formes, une composante importante de notre civilisation.

Dans les années soixante, on avait espéré des mathématiques qu'elles apportent un langage commun aux diverses disciplines. N'auraient-elles en définitive principalement servi qu'à aider à l'introduction d'un instrument commun, l'ordinateur?

NOTES

( 29) Cf. Lotka (1925), Volterra et d'Ancona (1935).

( 30) Rendant compte d'un séminaire de l'UNESCO sur les applications des mathématiques aux sciences humaines où se retrouvaient Marschak, Lazarsfeld, Mandelbrot, Kreweras..., Tugault écrit encore (1964) : « Certains voudraient que se constitue une profession de "mathématicien en sciences humaines" ; c'était l'opinion généralement admise au Séminaire. Nous pensons au contraire que, si une formation mathématique peut être parfois utile, elle doit être complétée par l'étude d'une seconde discipline; faute de quoi le mathématicien, détaché du réel, s'expose à mettre au point des modèles très poussés mais peu utilisables ».

( 31) Henry rappelle que la notion de fécondabilité a été proposée par Gini en 1924, utilisée de façon d'ailleurs erronée par lui, mais est devenue une base indispensable de toutes les études sur la fécondité (cf. Henry, 1969, et Henry, 1970, p. 15).

( 32) Voir par exemple Simon (1986) ou Leontief (1982).

( 33) Du modèle FIFI (6e et 7e plans, 1 500 équations) au modèle DMS (8e et 9e plans, près de 1000 équations) on est surtout passé d'un modèle essentiellement comptable à un modèle économétrique et dynamique (INSEE, 1980).

( 34) Mais celles-ci se montrent peu disposées à se voir ravir leur objet, leur méthode et leur prudence au nom d'une quelconque fécondité heuristique de cette modélisation.

( 35) Il est bien connu que le probabiliste Markov a élaboré les fameuses « chaînes » qui portent son nom à partir de l'examen des fréquences des voyelles et consonnes dans un texte de Pouchkine, Eugène Onéguine (Petruszewycz, 1981). A la même époque, le sténographe Estoup donnait une première relation entre la fréquence et le rang des mots d'un texte : reprise par Zipf dans des cas très divers, cette « loi » devait faire l'objet, par Mandelbrot, d'une interprétation dans le cadre de la théorie de l'information (Petruszewycz, 1973; Mandelbrot, 1961).

( 36) En particulier, les méthodes de l'analyse pluridimensionnelle de Benzécri (1981). Mais les possibilités d'utilisation des mathématiques sont très nombreuses. Citons par exemple l'emploi de techniques ordinales pour l'analyse des Évangiles synoptiques (Frey, 1972) ou encore celui des graphes pour l'analyse de champs sémantiques tabous (Feldman, 1980).

( 37) Voir par exemple, « Méthodes quantitatives et informatiques dans l'étude des textes » (1985).

( 38) Au colloque en son honneur, cité dans la note précédente, Charles Muller, regrettant que les littéraires refusent d'accepter, comme d'autres disciplines, des « sciences auxiliaires », rappelait la phrase de Pierre Guiraud : « La linguistique est la science statistique type; les statisticiens le savent bien; la plupart des linguistes l'ignorent encore » (p. 8 et 10).

( 39) En 1894, Saussure note : « les quantités du langage et leurs rapports sont régulièrement exprimables dans leur nature fondamentale, par des formules mathématiques ». En 1911, tandis qu'il travaille à son dernier cours de linguistique générale, il remarque combien cette science lui apparaît comme un système mathématique : « on aboutit à des théorèmes qu'il faut démontrer ». Cf. l'introduction de Roman Jakobson, in: Structure of language and its mathematical aspect (1961). Jakobson évoque également les réflexions de Borel, au début du siècle, sur les rapports entre les mathématiques et la « langue vulgaire » dont les premières ne peuvent pas se passer.

( 40) Même référence que pour la note précédente.

(41) Voir par exemple Chomsky et Schûtzenberger (1963), Gross et Lentin (1967), Chomsky et Miller (1968), Gross(1972).

( 42) L'ouvrage de Gross (1972) est ainsi présenté : « The considerable advancements in linguistics during the past twenty years have reached such a level of precision and sophistication that mathematical tools are needed to adequately describe them ».


Mathématiques et sciences humaines

( 43) En 1950, le linguiste Joos déclarait que, « dans la phase amorcée en 1926 avec le Set of Postulates de Bloomfield, la linguistique, seule parmi les sciences du comportement humain, était en bonne voie pour devenir complètement mathématique » (Hagège, 1976, p. 172).

(44) Voir sa préface à Gross et Lentin (1967).

( 45) « Linguistic as a pilot science », c'est le titre d'un article de Greenberg de l'époque (Marcus 1987, p. 25).

( 46) Une expression de Roman Jakobson citée également par Marcus (1987, p. 25).

( 47) Cf. Lévi-Strauss, texte cité dans la note 15 ci-dessus (première partie). ( 48) Voir par exemple Hagège (1976).

( 49) Cf. Viet (1966).

( 50) Desclés, dans son article « Opérations constructives d'énoncés », in Linguistique et Mathématique (1982), cite également un théorème de Peters et Ritchie, concernant les grammaires transformationnelles de Chomsky, montrant qu'il y a un nombre non fini de structures (universelles) de base et qu'il est donc impossible de choisir laquelle serait explicative.

( 51) Marcus (1987, p. 31), parle à ce sujet de « déroutement ».

( 52) Cf. en particulier, les travaux de Thom (1974).

( 53) Voir par exemple Schûtzenberger (1984).

( 54) A l'origine, les termes de psychologie scientifique et de psychologie expérimentale apparaissent comme synonymes, cette dernière se constituant par recours à la « méthode scientifique » contre une psychologie philosophique. Actuellement le terme « psychologie expérimentale » désigne plutôt une branche particulière de la psychologie scientifique, celle concernant l'étude de l'homme normal dans des situations réalisables en laboratoire.

( 55) « Sur l'analyse factorielle; elle a été effectivement conçue par Spearman (1904) en vue de vérifier l'hypothèse d'une intelligence générale. Puis d'autres modèles ont été proposés, par exemple avec une structure hiérarchique des facteurs. Mais assez vite, avec le modèle multifactoriel de Thurstone surtout (1930 environ), elle est devenue très descriptive : on met en évidence la structure d'un ensemble de données, on ne vérifie pas une hypothèse sur cette structure. C'est déjà du Benzécri ! Dans cette perspective, l'analyse factorielle est restée un instrument essentiel pour la psychologie différentielle, qu'il faut bien distinguer de la psychologie générale, principalement expérimentale » (communication personnelle de B. Matalon).

( 56) Pour la psychologie mathématique en France dans les années soixante, voir Rouanet (1966) et le compte rendu d'un colloque international du CNRS : les modèles et la formalisation du comportement (Paris, 1965).

(57) Pour l'utilisation de modèles mathématiques dans les jeux, cf. les travaux de Parlebas (par exemple 1972).

( 58) Cet effort porte notamment sur le développement de l'« analyse des comparaisons » pour le traitement des données expérimentales; cf. H. Rouanet et D. Lépine (1977), et les travaux du Groupe Mathématique et Psychologie (Université René-Descartes).

( 59) Chef de file de l'École méthodologique de Columbia.

( 60) Voir par exemple Boudon (1967, 1971); Coleman (1964); Coleman et al. (1966); Flament (1965, 1976); Gremy (1971, 1980); Lorrain (1975); Maitre (1972); Naville (1960); « Simulation in Sociology » (1965).

( 61) Pour des exposés plus détaillés sur cette évolution de la géographie française, on se reportera à D. Pumain (1988) ainsi qu'aux références citées dans son texte.

( 62) En 1966 le rapport Viet signalait qu'en géographie humaine en France, l'utilisation de méthodes quantitatives ne dépassait guère le dénombrement statistique. Or la géographie quantitative (parfois dénommée « new geography ») était apparue aux États-Unis vers la fin des années cinquante et y avait connu rapidement une période d'engouement (qui sera suivie d'un reflux puis d'une stabilisation).

( 63) On peut noter que ces initiatives sont venues de « marges » : francophones ou français ayant séjourné à l'étranger, provinciaux, femmes, universitaires (plutôt que chercheurs du CNRS)...

( 64) Notons, par exemple, la création de la revue l'Espace géographique (1972) qui accueillera beaucoup de travaux utilisant l'analyse des données, ainsi que celle de la Revue d'Analyse Spatiale Quantitative et Appliquée, des Cahiers de Géographie de Besançon, des Brouillons Dupont, etc. Pour les ouvrages on peut mentionner, entre autres, Racine et Reymond (1973) et Merlin (1973).

( 65) P. Chaunu, 1978, écrit : « Tout est allé très vite. Je me souviens des interrogations anxieuses et réprobatrices, au seuil des années cinquante, quand nous nous efforcions de construire, autour et sous l'impulsion de Fernand Braudel, les indices d'activité du grand commerce maritime... Et puis, tout à coup, les résistances ont cessé, le plaidoyer reçu, la cause a semblé plaidée et bien plaidée », p. 5-6.

( 66) Comme la dénomme E. Le Roy Ladurie dans un article du Monde de 1969 : « La révolution quantitative et les historiens français : bilan d'une génération (1932-1968) », article repris dans Le Roy Ladurie (1973).

( 67) Cf. par exemple, « Histoire des Sciences », Les Annales, [1975, 30, (5), n° spécial].


Les Messaches

( 68) A propos des articles des Annales à contenu mathématique, dans le sens large, cf. Genêt (1988).

( 69) Le livre de Marczewski (1965) apparaît comme un véritable « manifeste » aux yeux des historiens (cf. Encyclopaedia Universalis, 1968). Dans la même perspective, la New Economie History se développe aux USA dès les années cinquante.

( 70) « L'histoire subit l'agression des sciences sociales où la quantification est reine comme la démographie ou l'économie. Elle devient le laboratoire d'expérimentation des hypothèses de ces disciplines » (Le Goff J., Nora P., Faire l'histoire, Gallimard, 1974, p. 10). Dès 1964, Chaunu avait proposé de remplacer le terme d'« histoire quantitative », désormais trop connoté, par celui d'« histoire sérielle » (Chaunu, 1978).

( 71) Le Roy Ladurie conclut un article sur l'apport de l'informatique à l'histoire, ne serait-ce que pour la constitution d'archives modernes, par ces mots : « L'historien de demain sera programmeur ou il ne sera plus ». L'historien et l'ordinateur, Le Nouvel Observateur, 8 mai 1968 (Le Roy Ladurie, 1973).

( 72) On trouve de nombreux exemples de ces recours, à propos des méthodes de datation ou d'analyse physique ou chimique, dans les numéros 39 (nov.-déc. 1979) et 42 (mars-avril 1980) des Dossiers de l'Archéologie.

( 73) Selon Cleuziou et al. (1973), repris dans Borillo (1978, p. 37) : « le recours aux mathématiques, à l'informatique, n'est que l'une des conséquences de la démarche scientifique générale... ».

( 74) On peut citer ici, en quelque sorte a contrario, les travaux en statistique numismatique de Carcassonne (1987) : menés en liaison étroite avec des spécialistes, ils ont suscité en définitive plus d'adhésions que de réticences. Celles-ci sont bien décrites par l'auteur : « recourir à une méthodologie statistique projette sur l'objet d'étude un éclairage différent de celui auquel les numismates sont accoutumés... Les méthodes rationnelles provoquent souvent une réaction de rejet de la part des numismates effrayés par les abus auxquels, sous couvert de statistiques, se sont livrés certains spécialistes dans d'autres domaines ».

( 75) Cleuziou et al. : « les quelques résultats qu'on possède sur le mode d'évolution des sociétés disparues font entrevoir une représentation beaucoup plus riche du temps que [la] forme linéaire continue ». Certains succès des méthodes de sériation n'ont pas suffi à les faire intégrer dans une méthodologie générale, car ils correspondaient à des situations bien particulières (Borillo 1978, p. 37).

( 76) Le CNRS vient de rééditer Typologie du paléolithique ancien et moyen, de François Bordes, un ouvrage datant de 1961, que l'on peut voir à l'origine du considérable développement des méthodes formelles de typologie.

( 77) L'exploitation d'un site conduit à sa destruction, ou tout au moins à sa modification.

( 78) Témoin la création, dès 1962, du Centre d'Analyse et de Documentation en Archéologie.

( 79) Voir par exemple Une archéologie théorique de Gardin (1979) ou l'article de Lagrange et Renaud dans le numéro spécial de 1983 d'Informatique et Sciences Humaines consacré à l'archéologie.

( 80) Selon Leredde et Djindjian (1980).

( 81) Voir par exemple Françoise Héritier-Augé (1981).

( 82) Voir Marion Selz-Laurière (1988).

( 83) Cf. l'article de J. P. Desclés, dans le numéro spécial du Courrier du CNRS : « l'ordinateur a-t-il changé les Sciences de l'homme et de la société » (n° 65, 1986).

( 84) Non sans parfois quelques problèmes : témoin la suppression en 1972 du Centre de Mathématiques Appliquées et de Calcul de la Maison des Sciences de l'Homme. Ce centre, créé en 1964, se voit reprocher son activité de recherche au détriment de son activité de « service ».

( 85) Cf. le titre d'un exposé du mathématicien René Thom à un colloque organisé par l'Institut de PsychoPathologie Clinique (Université Paris VII) sur l'évolution des modèles scientifiques (28 nov. 1987) : « La modélisation entre démiurgie et herméneutique ».

( 86) Cf. Régnier (1968). A quoi répond, comme en écho, cette autre question : « la sociologie mathématique existe-t-elle? » (Feldman, 1977).

( 87) Le très dynamique Herbert Simon, spécialiste de l'intelligence artificielle, prix Nobel d'Économie en 1978, s'est vu à plusieurs reprises reprocher par des mathématiciens des démonstrations mathématiques peu rigoureuses; cf. sa controverse avec B. Mandelbrot sur la qualité de ses approximations (Mandelbrot et Simon, 1960-1961) ou encore celle avec W. Aubert : celui-ci refuse la « démonstration mathématique » de Simon sur la possibilité de prédictions exactes dans les sciences sociales, pour des raisons, d'une part mathématique, d'autre part épistémologique : à quoi Simon répond en évoquant le caractère « heuristique » de sa démonstration (Aubert et Simon, 1982). La dernière controverse, à notre connaissance, se déroule en ce moment avec le mathématicien Neal Koblitz (Koblitz et Simon, 1988).

( 88) Voir par exemple la critique de P. Bourdieu (1973) au sujet des sondages d'opinion ou encore, les numéros de la revue Épistémologie Sociologique consacrés à la classification (1964-1968, 1971).


Mathématiques et sciences humaines

( 89) En 1964, Claude Lévi-Strauss lui-même revient sur la nécessité de travailler très sérieusement à la construction de l'appareil conceptuel avant d'envisager, pour le cas des mythes, une analyse Iogico-mathématique; « ... si l'analyse structurale des mythes a un avenir devant elle, la manière dont à ses débuts elle a choisi et utilisé ses concepts devra faire l'objet d'une sévère critique...les catégories grossières que nous utilisons comme des outils de fortune devront être analysées en catégories plus fines et méthodiquement appliquées », cf. Lévi-Strauss, Mythologies. Le cru et le cuit, Pion, Paris, 1964, p. 39, cité par Régnier (1968). Pour sa part, l'économiste François Perroux reproche à l'économie .académique de ne pas revenir suffisamment sur ses concepts de base, qui dissimulent, en fait, des choix politiques; cf. « les conceptualisations implicitement normatives et les limites de la modélisation en économie » (Canguilhem, 1972).

( 90) L'économiste W. Leontief a critiqué à plusieurs reprises les développements d'une économie académique « devenue obèse à force de contempler son nombril théorique » (cf. la controverse dans Science, 1982, 9 juillet, p. 104; 8 oct., p. 108; 10 déc, p. 1070; 1983, 25 fév., p. 904). En 1971 déjà, il écrivait : « In no other field of empirical inquiry has so massive and sophisticated a statistical machinery been used with such indifferent results... Uncritical enthusiasm for mathematical formulation tends often to conceal ephemeral substantive content of the argument behind the formidable front of algebraic signs » (Leontief, 1971). « A quoi sert l'économie mathématique?» demande à son tour Bernard Maris dans Le Monde (12-13juillet 1987). Et il répond ; « à rien bien sûr, et tout son intérêt vient de là. Qui aurait le front de s'interroger sur l'utilité d'une peinture de Kandinsky? L'économie mathématique se juge sur le terrain délicat de l'esthétisme et du plaisir ». Côté linguistes, Claude Hagège, dans sa leçon inaugurale au Collège de France, s'exclame : « Je ne sacrifierai pas une langue à un paradigme » (Le Monde, 28 avril 1988).

( 91) Citons ici le cas de la théorie des catastrophes de René Thom, qui a « fait un tabac » aux État-Unis : « le plus important développement depuis le calcul (différentiel et intégral) » écrit le journal Newsweek. « La terre promise est peut-être enfin en vue renchérit Science, cités dans Sussman et Zahler (1978). A ces enthousiasmes, le physicien J.-M. Lévy-Leblond (1977) répond par son article : « Des mathématiques catastrophiques ».

( 92) On connaît les controverses autour du Q.I., voir par exemple Tort (1974); cf. aussi le livre de Gould (1983), La mal-mesure de l'homme.

( 93) La revue Labo-contestation (6 numéros entre 1970-1972), qui, dans un premier temps, critique, avec toute la virulence de l'époque, les rapports hiérarchiques de la Cité scientifique (secrétaires/techniciens/chercheurs/patrons; femmes/hommes), se décide, dans son numéro 4, à aborder la critique interne de la science : il est symptomatique que les premiers thèmes abordés soient la mathématique administrative et les sondages d'opinion; cf. Feldman, « la science en mutation » in (Armatte et al., 1984). La revue de contestation des sciences qui suivra, Impascience, éditions Solin (6 numéros de 1975 à 1977) consacrera un double numéro, n° 4/5, aux mathématiques, voir en particulier : « mathématiques et sciences humaines : union libre ou mariage forcé ». Cf. aussi Dreyfus (1975) et « Les méthodes quantitatives dans le processus disciplinaire », Institut d'Études Politiques de Grenoble (1977).

( 94) Voir, par exemple : T. Pavel, Le mirage linguistique. Essai sur la modernisation intellectuelle. Éd. de Minuit, 1988; cf. aussi le compte rendu de cet .ouvrage dans Le Monde (8 avril 1988), par Roger-Pol Droit.

( 95) L'importance prise par ces techniques quantitatives dans le monde actuel a suscité maints débats et polémiques autour de leur pertinence, de leur neutralité ou encore des effets sociaux qu'elles induisent (cf. par exemple, P. Bourdieu, 1973; M. Tort, 1974; M. Brûlé, 1988, S. J. Gould, 1983; et le numéro spécial de La Nef, « Sondages d'opinion... et opinions sur les sondages », 1973).

RÉFÉRENCES

Armatte M., et al, 1984, « Le sujet et l'objet : Confrontations », Éditions du CNRS.

Arrow K. J., 1974, « Choix collectif et préférences individuelles », Calmann-Lévy, Paris, (traduction de « Social Choice and Individual Values », Wiley, 1951).

Aubert W., Simon H. A., 1982, « Accurate prédictions and fixed point theorems », Information sur les sciences sociales, 21, 323, 605.

Aubin J. P., 1982, « Mathématiques motivées », Gazettes des Mathématiciens, 19, 87.


Les Messaches

Benzecri J. P. et coll., 1981, « Pratique de l'analyse des données. 3. Linguistique et lexicologie », Dunod, Paris.

Borillo M. (éd.), 1978, « Archéologie et calcul », Union générale d'éditions.

Boudon R., 1967, « L'analyse mathématique des faits sociaux », Pion, Paris.

Boudon R., Grémy J. P., 1971, « Les mathématiques en sociologie », PUF, Paris.

Bourdieu P., « L'opinion publique n'existe pas », Temps Modernes, janvier 1973, 1.

Brûlé M., 1988, « L'empire des sondages », Laffont, Paris.

Canguilhem G. (sous la direction de), 1972, « La mathématisation des doctrines informes », Hermann.

Carcassonne C, 1987, « Méthodes statistiques en numismatique », Séminaire de numismatique Marcel Hoc, Louvain-La-Neuve.

Chaunu P., 1978, « Histoire quantitative, histoire sérielle », A. Colin, Paris.

Chomsky N., Miller G. A., 1968, « L'analyse formelle des langues naturelles », Gauthier-Villars, Mouton, Paris (traduction des chapitres 11 et 12 du vol. II du « Handbook of Mathematical Psychology », Wiley, 1963).

Chomsky N., Schützenberger M. P., 1968, La théorie algébrique des langages « context-free », Langages, 9, (traduction de « The algebraic theory of context-free languages », in Braffort & Hirschberg, 1963, « Computer programming and formai Systems », North-Holland).

Cleuziou S., Démoule J. P., Schnapp A., 1973, « Renouveau des méthodes et théorie de l'archéologie », Annales ESC, 28 (1), 35.

Coleman J. S., 1964, « Introduction to mathematical sociology », Free Press of Glencoe, Collier-Mc Millan Ltd.

Coleman J. S., Katz E., Menzel H., 1966, « Médical innovation : a diffusion study », Bobbs-Merrill.

Cournot A., 1838, « Recherches sur les principes mathématiques de la théorie des richesses », Hachette, Paris.

Debreu G., 1966, « Théorie de la valeur; une analyse axiomatique de l'équilibre économique », Dunod, Paris (traduction de « Theory of value; an axiomatic analysis of économie equilibrium », Wiley, London, 1959).

Dreyfus J., 1975, « Implication ou neutralité des méthodes statistiques appliquées aux sciences humaines : l'analyse des correspondances », CREDOC.

Feldman J., 1977, « Regards sur la sociologie mathématique », Archives Européennes de sociologie, 18, 179.

Feldman J., 1980, « La sexualité du Petit Larousse ou le jeu du dictionnaire », Tierce.

Flament C, 1965, « Théorie des graphes et structures sociales », Mouton, Paris.

Flament C, 1976, « L'analyse booléenne de questionnaire », Mouton, Paris.

Frey L., 1972, « Analyse ordinale des Évangiles synoptiques », Gauthier-Villars, Mouton, Paris.

Gardin J. C, 1979, « Une archéologie théorique » Hachette, Paris.

Genet J. P., 1988, « Mathématiques et sciences sociales : heurs et malheurs 1960-1980 : l'histoire », Contribution à la journée de la SFHSH.

Gompertz, 1825, « On the nature of the function expressive of the law of human mortality », Philosophical Transactions of the Royal Society of London.

Gould S. J., 1983, « La mal-mesure de l'homme », Ramsay (traduction de « The mismeasure of man », Norton, 1981).

Grémy J. P., 1980, « Jalons pour une théorie du questionnaire dans les sciences de l'Homme », Thèse de doctorat d'État, Université René-Descartes.

Gross M., 1972, « Mathematical Models in Linguistics », Prentice-Hall.

Gross M., Lentin A., 1967, « Notions sur les grammaires formelles », Gauthier-Villars, Paris.

Hagège C, 1976, « La grammaire générative : réflexions critiques », PUF, Paris.

Henry L., 1969, « Congrès Général de l'Union Internationale pour l'Étude Scientifique de la Population », Londres, Compte rendu dans Population, 1970, p. 15.

Héritier F., 1981, « L'Exercice de la parenté », Gallimard, Le Seuil, Paris.

INSEE-Service des Programmes, 1980, « Une représentation de l'économie française, le modèle DMS », Revue Economique, 31 (5).

Jacquard A., 1970, « Structures génétiques des populations », Masson, Paris.

Koblitz N., Simon H. A., 1988, « A taie of three équations : or the Emperors hâve no clothes », The Mathematical Intelligencer, 10 (1), 5; 10 (2), 10.

Lazarsfeld P. (éd.), 1958, « Mathematical thinking in the Social Sciences », The Free Press.


Mathématiques et sciences humaines

Leontief W., 1971, « Theoretical assumptions and non-observed facts », American Economical Review, 61, 1.

Leontief W., 1982, « Académie Economies », Science, 217.

Leredde H. et Djindjian F., 1980, « Traitement automatique des données en Archéologie », Les dossiers de Tarchéologie, 42, 52.

Le Roy Ladurie E., 1973, « Le territoire de l'historien », Gallimard, Paris.

« Les modèles et la formalisation du comportement », Colloque international du CNRS, Éditions du CNRS, 1967.

Lotka A. J., 1956, « Eléments of Mathematical Biology », Dover (titre de la première édition : « Elements of Physical Biology », Baltimore, 1925).

Lorrain F., 1975, « Réseaux sociaux et classifications sociales », Hermann.

Maître J., 1972, « Sociologie religieuse et méthodes mathématiques », PUF, Paris.

Malecot G., 1948, « Les mathématiques de l'hérédité », Masson, Paris.

Malinvaud E., 1964, « Méthodes statistiques de I'Économétrie », Dunod, Paris.

Mandelbrot B., 1961, « Word frequencies and Markovian models of discourse », in «Structure of language and its mathematical aspects », 190-219.

Mandelbrot B., Simon H. A., 1960-1961, « On a class of skew distribution functions », Information and Control.

Marcus S., « Mathématiques et linguistique : contribution à la Rencontre Internationale,- Mathématiques et sciences humaines : aspects théoriques et médiation informatique », 22-26 juin 1987, Marseille-Luminy (document multigraphié).

Marczewski J., 1965, « Introduction à l'histoire quantitative », Droz.

Merlin P., 1973, « Méthodes quantitatives et espaces urbains », Masson, Paris.

« Méthodes quantitatives et informatiques dans l'étude des textes », Colloque International du C.N.R.S., Nice, 1985, Éd. Slatkine-Champion, 1986.

Naville P., 1960, « Classes sociales et classes logiques », L'année sociologique, 3-77.

Parlebas P., 1972, « Analyse mathématique d'un jeu sportif », Math. Sci. hum., 39, 5.

Petruszewycz M., 1973, « L'histoire de la loi d'Estoup-Zipf : documents », Math. Sci. hum., 44, 41.

Petruszewycz M., 1981, « Les chaînes de Markov dans le domaine de la linguistique », Slatkine.

Pressât R., 1973, « L'analyse démographique », PUF, Paris (1re éd. 1961).

Pumain D., 1988, « Quelques réflexions sur l'usage des mathématiques en géographie », contribution à la journée de la SFHSH.

Racine J. B., Reymond D. H., 1973, « L'analyse quantitative en géographie », PUF, Paris.

Régnier A., 1968, « Mathématiser les sciences de l'Homme ? », Revue Française de Sociologie, 9, 307.

Rouanet H., 1966, La recherche en psychologie mathématique, Revue de l'enseignement supérieur, 2, 73.

Rouanet H., Lépine D., 1977, « Introduction à l'analyse des comparaisons pour le traitement des données expérimentales », Informatique et Sciences humaines, 33-44, 11.

Schützenberger M., 1984, « Informatique et mathématiques », La Vie des Sciences, Comptes rendus, série générale, 1 (3), 175.

Selz-Laurière M., 1988, « Les mathématiques en ethnologie », L'Homme, 28, 147.

Simon H. A., 1986, « The failure of armehair économies », Challenge.

« Simulation in sociology », Archives Européennes de Sociologie, n° spécial 6 (1), 1965.

« Structure of language and its mathematical aspects », Proceedings of Symposia in Applied Math., vol. XII, Amer. Math. Soc, 1961.

Sussmann H. J., Zahler R. S., 1978, « Catastrophe theory as applied to the social and biological sciences : a critique », Synthèse, 37, 117.

Tort M., 1974, « Le quotient intellectuel », Maspero, Paris.

Tugault Y., 1964, Séminaire de l'UNESCO (Oslo) : « Les applications des mathématiques aux sciences humaines », Population, 19, 974.

Viet J., 1966, « Les sciences de l'homme en France, tendances et organisation de la recherche », Mouton, Paris.

Volterra V., d'Ancona U., 1935, « Les associations biologiques au point de vue mathématique », Hermann.


Les Messaches

BIBLIOGRAPHIE

Cette bibliographie commune aux deux parties de l'article, contient un certain nombre d'ouvrages écrits (ou traduits) en français, qui nous semblent illustratifs du champ mathématiques et sciences humaines, en France, des années soixante aux années quatre-vingts. L'importance et la variété des ouvrages publiés alors ne permettant pas d'être exhaustif, nous attirons l'attention sur le fait que certains domaines particulièrement productifs (enseignement, statistiques, économie, gestion, recherche opérationnelle....) sont sous-représentés par rapport à d'autres.

Aubert W., 1984, « Spurious Mathematical Modelling », The Mathematical Intelligences 6, 54.

Barbut M., Monjardet B., 1970, « Ordre et classification : algèbre et combinatoire », 2 tomes, Hachette, Paris.

Benassy J. P., 1976, « Théorie du déséquilibre et fondements micro-économiques de la macro-économie », Revue Économique, 27 (5), 785.

Bertin J., 1977, « La graphique et le traitement graphique de l'information », Flammarion, Paris.

Bordes F., 1961, « Typologie du paléolithique ancien et moyen », Presses du CNRS, 2e éd. 1988.

Borillo M., Fernandez de la Vega W., Guénoche A. (eds.), 1977, « Raisonnement et méthodes mathématiques en archéologie », Éditions du CNRS.

Bourdelais P., 1984, « French Quantitative History. Problems and Promises », Social Science History, 8 (2), 179.

Boyer R., 1976, « La croissance française de l'après-guerre et les modèles macro-économiques », Revue Économique, 27 (5) 882.

Bresson F., 1972, « Problèmes de la mathématisation en psychologie », in Canguilhem G., La mathématisation des doctrines informes, Hermann, 135-156.

Celeyrette J., 1980, « La mathématisation en question », Modèles linguistiques, 2 (1), 3.

Classes, classification et sociologie, Épistémologie sociologique, n°s spéciaux 1-5, 1964-1968.

Coombs G, Dawes R., Tversky A., 1975, « Psychologie mathématique », PUF, Paris (traduction de « Mathematical Psychology, an elementary introduction », Prentice Hall, 1970).

Daval R. et al, 1963, « Traité de psychologie sociale, t. 1 : les méthodes », PUF, Paris.

Degenne A., 1972, « Techniques ordinales en analyse des données, statistique », Hachette, Paris.

Desclés J.-P. (éd.), 1971, « Quelques aspects de la formalisation en linguistique », Math. Sci. hum., nos spéciaux 34-35.

Desclés J. P., 1982, « Quelques réflexions sur les rapports entre linguistique et mathématiques », in Penser les mathématiques, 88-107, Seuil, Paris.

Desclés J. P. (éd.), 1982, « Linguistique et mathématique », Math. Sci. hum., nos spéciaux 77-78-79.

Dupâquier J., Dupâquier M., 1975, « Histoire de la démographie. La statistique de la population des origines à 1914 », Librairie académique Perrin, Paris.

Elisseeff V., 1965, Possibilités du scalogramme dans l'étude des bronzes chinois, Math. Sci. hum., 11, 1.

Etner F., 1987, « Histoire du calcul économique en France », Economica.

Feldman J., 1986, « Les mathématiques appliquées aux sciences non physiques. Éléments pour une étude : Évolutions récentes à travers les Mathematical Reviews, GEMAS/ISHA, Document n° 10.

Fishburn P. C, 1973, « Les mathématiques de la décision », Mouton, Paris (traduction de « Mathematics of decision Theory », Mouton, 1973).

Furet F., 1968, « Sur quelques problèmes posés par le développement de l'histoire quantitative », Information sur les Sciences Sociales, 1 (1), 71.

Furet F, 1971, « L'histoire quantitative et la construction du fait historique », Annales ESC, 26 (1), 63.

Gardin J. C, Jaulin B. (éds.), 1968, « Calcul et formalisation dans les sciences de l'homme », Éditions du CNRS.

Godelier M., 1982, « Les sciences de l'homme et de la société en France », La documentation française, Paris.

Guilbaud G. Th., 1963, « Mathématiques », PUF, Paris.

Guillaume M., 1971, « Modèles économiques », PUF, Paris.

Guillaume M. et al, 1986, « L'état des sciences sociales en France », Éditions La Découverte, Paris.

Ingrao B., Israël G., 1985, « General Economie Equilibrium Theory. An history of ineffectuai paradigmatic shifts », Fundamenta Scientiae, 6(1), 1 et 6 (2), 90.

Institut d'Histoire du Temps Présent, « Le développement des Sciences sociales en France au tournant des années soixante », CNRS, 1983.


Mathématiques et sciences humaines

Lagrange M. S., Renaud M., 1984, « Deux expériences de simulation du raisonnement en archéologie au moyen d'un système expert : le système SNARK », Informatique et Sciences humaines, 59-60, 161.

Lamaison P., Selz-Laurière M., 1985, « Généalogies, alliances et informatique », Terrain, 4, 3.

Lentin A. et al., 1984, « Rapport sur les applications des mathématiques aux Sciences de l'Homme, aux Sciences de la Société et à la Linguistique », Math. Sci. hum., n° spécial 86.

Lévy-Leblond J. M., 1977, « Des mathématiques catastrophiques », Critique, 359, 430.

Lichnerowicz A., 1967, « Remarques sur les mathématiques et la réalité », in Piaget J., « Logique et Connaissance scientifique », Pléiade.

« Linguistique et Mathématiques : peut-on construire un discours cohérent en linguistique? », Table Ronde, Neuchâtel, Peter Lang, 1980.

« Logique et sociologie », Épistémologie sociologique, n° spécial 7, 1969.

Malecot G., 1966, « Probabilité et hérédité », PUF, Paris.

Mandelbrot B., 1975, « Les objets fractals : forme, hasard, dimension », Flammarion, Paris.

Matalon B., 1965, « L'analyse hiérarchique », Mouton Gauthier-Villars, Paris.

« Mathématiques et modèles mathématiques, rapport de conjoncture du CNRS », 1981, Gazette des Mathématiciens, 1982, 20, 17.

Milo D., 1987, « La rencontre, insolite mais édifiante, du quantitatif et du culturel », Histoire et Mesure, 2 (2), 7.

Morgenstern O., 1972, « L'illusion statistique : précision et incertitude des données économiques », Dunod (traduction de « On the accuracy of Economie observations », Princeton University, 1963).

Morse P., Kimball G, 1950, « Methods of Operational Research », Wiley.

Muller Ch., 1968, « Initiation à la statistique linguistique », Larousse, Paris.

Murdock G. P., 1979, « De la structure sociale », Payot (traduction française de Social Structure, 1949).

Pintor R., Grawitz M., 1964, « Les méthodes des sciences sociales », 2 tomes, Dalloz, Paris.

Ponsard Cl., 1969, « Un modèle topologique d'équilibre économique inter-régional », Dunod, Paris.

Pumain D. (éd.), 1983, « Informatique et géographie », Annales de géographie, n° spécial 511.

Régnier A., 1974, « La crise du langage scientifique », Anthropos.

Régnier S., 1983, « Sur quelques aspects mathématiques des problèmes de classification automatique », Math. Sci. hum., 82, 13.

Reuchlin M., 1962, « Les méthodes quantitatives en psychologie », PUF, Paris.

Richard P., Jaulin R. (éds.), 1971, « Anthropologie et calcul », Union Générale d'Éditions, Paris.

Robert J. L., 1983, « L'histoire quantitative : réflexions épistémologiques », Quantum (Historical Social Research), 25, 24.

Rosenstiehl P., Mothes J., 1965, « Les mathématiques de l'action », Dunod, Paris.

Rouanet H., 1967, « Les modèles stochastiques d'apprentissage, Recherches et Perspectives », Mouton, Paris.

Roy B., 1969, « Algèbre moderne et théorie des graphes orientées vers les sciences économiques et sociales », Dunod, Paris.

Serres M., 1980, « Le passage du Nord-Ouest », Éditions de Minuit, Paris.

« Sondages d'opinion... et opinions sur les sondages », La Nef, n° spécial 53, déc. 1973-janv. 1974.

Soudsky B., 1968, « Application de méthodes de calcul dans un site néolithique », in « Calcul et formalisation dans les Sciences de l'Homme », Éditions du CNRS.

Soury P., 1980, « Chaînes et noeuds », Maison des Sciences de l'Homme.

Thom R., 1974, « Modèles mathématiques de la morphogenèse », Union Générale d'Éditions.

« Types, classes et objet en sociologie et en psychologie », Épistémologie sociologique, n° spécial 12, 1972.

165



LA VIE DES SCIENCES -

Lagrange et l'art analytique

Pierre COSTABEL

Correspondant de l'Académie

La Mechanique Analitique de Lagrange a été publiée à Paris en 1788, moins d'une année après l'installation de son auteur en France au sein de l'Académie Royale des Sciences et à la veille de la Révolution française. Célébrer son bicentenaire est d'abord la reconnaissance d'un fait : l'ouverture de la vieille institution scientifique nationale à un novateur. Son ouvrage a dès sa publication transformé l'application de la mathématique au traitement des phénomènes de l'équilibre et du mouvement d'une manière telle que les événements politiques n'ont eu sur sa diffusion aucune conséquence. L'auteur et son livre ont traversé les bouleversements de la société française et assuré à la science mécanique l'accès à une ère nouvelle, universellement reconnue. En confirmant cet accès, la deuxième édition de l'ouvrage en 1811 a complété et perfectionné son premier apport de telle sorte que les grands développements de la Physique mathématique au milieu du XIXe siècle y ont puisé leur raison d'être, presque toujours avec référence explicite. Mais la Mécanique a, depuis, beaucoup évolué et faire le point sur un héritage ne peut être que l'oeuvre de spécialistes. D'où l'organisation du Colloque dont André Lichnerowicz a pris l'initiative dans le cadre de la Fondation Hugot du Collège de France. A Thistorien des sciences revient seulement une réflexion générale, aussi appropriée que possible.

Analytique et mécanique

Comment une telle réflexion pourrait-elle négliger le titre même de l'ouvrage! La graphie franco-italienne en est d'ailleurs, de la part de l'auteur, un appel à ne pas oublier d'une part son appartenance à deux cultures et d'autre part l'assurance que la publication réalisée à Paris achevait les projets commencés à Turin. Mais révérence étant rendue à

La Vie des Sciences, Comptes rendus, série générale, tome 6, n° 2, p. 167-177


P. Costabel

cette discrète signification, le plus frappant est encore le qualitatif donné au nouveau traité de Mécanique. Il s'agit d'une science analytique.

L'adjectif « analytique » est aujourd'hui très éloigné de son origine et recouvre des sens étendus et diversifiés. Il n'est pas inutile de remonter à son apparition dans une oeuvre mathématique majeure. Sans doute lorsque François Viète écrivit son Isagoge ad artem analyticem, ce dernier terme n'avait pas le statut d'adjectif, mais les traductions qui diffusent, vers 1630, ce livre capital le désignent comme Introduction à l'art analytique et donnent ainsi un nom à ce que Viète présentait à titre de voie nouvelle de la méthode mathématique de résolution des problèmes. Une voie qui n'allait pas tarder avec Descartes à s'avérer souveraine et qui consiste à dénombrer de quels éléments dépend un problème supposé résolu, puis à considérer les relations que le problème résolu exige entre les éléments connus et inconnus, enfin à voir si ces relations déterminent les inconnus. Et ces deux dernières phases introduisent une forme nouvelle de quelque chose qui n'avait jusque-là de nom qu'en arithmétique, à savoir le calcul. Mais si cette forme nouvelle méritera de garder le nom de calcul dans l'utilisation de signes et de règles, son emploi ne sera pas pour autant d'un automatisme simpliste. Il demandera de l'intelligence et de l'habileté. Il supposera un art.

Leibniz a dit cela admirablement dans une lettre à un professeur de mathématiques. Il n'y a pas de progrès dans l'Analyse mathématique sans un progrès des canons, c'est-àdire des codes d'écriture et des règles associées. Et c'est là une affaire qui regarde particulièrement les professeurs. Mais il restera toujours quelque chose qui distinguera les gens d'esprit. Naturellement, Leibniz, en affirmant cela, n'a pas une once de mépris pour les besogneux de l'enseignement et il n'a cessé de solliciter leur expérience, indispensable.

La haute solidarité scientifique, que le philosophe de Hanovre a ainsi mise en oeuvre, a été particulièrement illustrée au tournant du XVIIIe siècle dans l'application du calcul différentiel et intégral à la Mécanique. Car c'est moins de dix ans après la fondation du calcul leibnizien que le sort de cette nouveauté a été engagé dans la solution de problèmes d'équilibre et de mouvement, et dans les débats de fondement suscités par des esprits très moyennement ou peu doués.

Un demi-siècle avant que Lagrange en fasse un objet central de sa préoccupation, la Mécanique et l'art analytique avaient donc liés leurs destins. Le dire, de manière aussi brève et significative que possible, était nécessaire. Cela n'enlève rien au fait que le jeune Lagrange a fait mieux, en ses années de formation, qu'assimiler les techniques opératoires des auteurs qui le précédaient, notamment Euler. Il y a lu un message.

Le calcul des variations

On ne peut rendre compte de cette lecture sans entrer encore dans quelques détails historiques. Lagrange n'a tout juste que dix-huit ans lorsqu'il se manifeste en 1754 par une lettre à Euler et il est naturellement un inconnu alors qu'Euler, à quarante-sept ans, directeur de la Classe de mathématiques de l'Académie de Berlin, est une autorité universellement reconnue et respectée. C'est d'ailleurs respectueusement que le jeune homme ose écrire à son aîné. Il ne le fait que parce que d'une part Euler — à propos de problèmes difficiles où il s'agit de satisfaire à une condition de maximum ou de


Lagrange et l'art analytique

Fig. 1. — Reproduction d'une gravure italienne (« Rados incisore ») avec dessin de Bosio, qui semble pouvoir être située entre 1760 et 1770.

169


P. Costabel

minimum — a reconnu manquer d'une procédure suffisamment générale, et parce que d'autre part il pense, lui Lagrange, avoir une proposition à formuler à cet égard. Proposition qu'il précise dans une seconde lettre.

Euler a reconnu tout de suite l'excellence du projet et c'est à ses éloges que Lagrange a dû d'être nommé en 1756 professeur à l'École d'artillerie de Turin. L'appui du grand maître lui a été immédiatement bénéfique. Mais l'histoire ultérieure est plus complexe.

On sait par le registre des séances de l'Académie de Berlin que le 6 mai 1756 fut déposée une lettre de Lagrange à Euler accompagnée d'un mémoire où le nouveau calcul de l'auteur était appliqué à une justification très générale du principe de la moindre action en mécanique. Le Président de l'Académie, Maupertuis, qui se considérait comme le promoteur dudit principe en tant que loi universelle de la nature, était encore à Berlin, mais s'apprêtait à regagner la France pour essayer de rétablir sa santé gravement atteinte. Il n'eut que le temps d'apprendre l'initiative de Lagrange et d'exprimer sa satisfaction. Mieux encore : de demander la publication dans l'ouvrage annuel de l'Académie.

Cette demande n'eut pas de suite. Non seulement en raison de l'absence de Maupertuis, mais aussi parce que l'Académie de Berlin entra dans une période singulièrement difficile de son fonctionnement en raison de la Guerre de Sept ans et des graves revers de l'armée prussienne jusqu'en 1759.

Le mémoire de Lagrange sur la moindre action n'a pas été publié et a été perdu. Lorsqu'en 1759 Lagrange a pu reprendre une correspondance avec Euler, il lui a rappelé l'existence de ce premier travail d'application à la mécanique et déclaré qu'il l'avait considérablement amélioré. Mais en lui répondant que les ruines de la guerre rendaient impossible toute publication à Berlin, Euler ajoutait qu'en ce qui concernait la nouvelle méthode analytique il avait rédigé lui-même une mise au point. Mise au point qu'il garderait inédite jusqu'à ce que Lagrange publie lui-même ce qu'il jugerait opportun.

René Taton, coéditeur avec A. P. Iousckevitch de la Correspondance d'Euler avec Clairaut, d'Alembert, et Lagrange, a très justement écrit :

« On peut aisément comprendre la déception de Lagrange à la lecture de cette lettre d'Euler. Il ne pouvait plus éviter un retard dans la publication de ses découvertes et il ne pouvait par ailleurs en imputer la faute à personne. »

Il pouvait cependant avoir quelque inquiétude de ce qu'Euler avait déjà pris la plume pour un exposé de la méthode.

Sans aucun doute Euler a tenu parole. Ses deux mémoires sur la question : Analytica explicatio methodi maximorum et minimorum et Elementa calculi variationum, n'ont été publiés qu'en 1766 dans le volume X des Nouveaux Commentaires de Saint-Pétersbourg, après que Lagrange ait lui-même publié deux mémoires dans le tome II des Mélanges de Turin (1760-1761) en 1762. Et dans ses deux mémoires Euler reconnaît explicitement la priorité de Lagrange. Il reste qu'en réalité la matière de la mise au point de la méthode avait été présentée par Euler dans les séances de l'Académie de Berlin des 9 et 16 septembre 1756, c'est-à-dire qu'Euler s'était vraiment hâté de baptiser le « calcul des variations ».


Lagrange et l'art analytique

Arrière-plan d'une nouveauté

L'expression qui vient d'être employée est exacte au-delà de la fixation d'un nom. Il est certain qu'avec sa grande expérience mathématique Euler a rapidement conçu la manière intelligible de définir le statut du nouveau calcul, manière si intelligible que ce sont les mémoires de 1766, ci-dessus cités, qui ont eu la faveur du milieu savant. Lagrange s'en est plaint dans l'introduction de l'abondante étude qu'il a publiée ensuite dans le tome IV des Mélanges de Turin (1766-1769) sous le titre « Sur la méthode des variations ».

Quelque chose d'important est à retenir de ces pages où Lagrange a retracé sa propre histoire. Il est exact que l'hommage rendu par Euler en 1766 était incomplet, car il ne mentionnait comme application par Lagrange du calcul des variations que la généralisation d'un théorème. Le théorème établi par Euler en 1744 selon lequel la trajectoire qu'un corps doit décrire sous l'action de forces centrales quelconques est la même que celle que l'on trouverait en supposant que l'intégrale de la vitesse multipliée par l'élément de la courbe fût un maximum ou un minimum.

« L'application de ce beau théorème à un système quelconque de corps, et surtout la manière de s'en servir pour résoudre avec la plus grande simplicité et généralité tous les problèmes de Dynamique, m'est entièrement due — écrit Lagrange — et ce qui doit le prouver invinciblement c'est que cette théorie dépend des mêmes principes que celle des variations et que l'un et l'autre ont paru dans le même volume des Miscellanea Taurinensia, Tome II (1760-1761). »

Et Lagrange ajoute qu'il ne doute pas que si l'occasion s'était présentée, Euler n'aurait pas manqué de lui rendre sur le second point la même justice que sur le premier. La formule n'est pas dépourvue d'ambiguïté et amène à quelque complément.

Si la perspective d'une application du calcul des variations à la solution générale de tous les problèmes de Dynamique n'est pas absente du second mémoire de Lagrange dans le tome II des Mélanges de Turin, c'est seulement dans le mémoire déposé en 1763 à l'Académie de Paris pour le concours sur la libration de la Lune que Lagrange s'est exprimé pleinement sur la question. Et c'est lui qui a obtenu le Prix alors qu'Euler subissait un échec.

En fait il y avait donc eu une occasion pour Euler de rendre à Lagrange une justice complète, mais le second avait des égards à conserver avec le premier et c'est sans doute la raison pour laquelle, dans son historique, Lagrange a évité de faire référence à son mémoire sur la libration de la Lune, de 1763, premier texte de sa main qui annonce la Mécanique Analytique.

Du principe de la moindre action à une Mécanique nouvelle

Il est temps de tirer clairement de l'histoire, dans laquelle il fallait entrer, la leçon qui convient au présent propos.

Lagrange a pris place très jeune dans le milieu mathématique européen par une invention, celle du calcul qu'Euler a appelé calcul des variations. Il l'a fait en constatant l'insuffisance des raisonnements et des opérations analytiques conjointes concernant le traitement de problèmes de maxima ou minima dont certains étaient mécaniques. Et le


P. Costabel

message qu'il avait lu dans les textes qui étaient sous ses yeux était essentiellement celui d'une nécessité : rechercher la rigueur de démarches jusque-là peu sûres en dotant l'outil mathématique de nouveaux opérateurs. Il y a bien réussi, mais l'application à la mécanique était une autre affaire, et ce n'est qu'avec le temps que Lagrange est parvenu à prendre de la distance par rapport à la spéculation âprement controversée du principe de moindre action. Ce principe, qui postulait l'économie des voies de la nature, semblait devoir présider à une Mécanique nouvelle.

Ceci dit, quelques commentaires s'imposent. D'abord concernant cette amélioration de l'outil mathématique permettant des démarches plus rigoureuses. Elle repose sur la distinction de deux types d'éléments différentiels et l'introduction d'une caractéristique désignée par la lettre grecque 5 à côté de la caractéristique d du calcul feibnizien. Mais c'est bien Euler qui s'est exprimé à cet égard de manière plus pédagogique.

Dans le calcul différentiel, a écrit Euler, d'une relation donnée entre des quantités variables y et x résulte une relation d'ordre quelconque entre leurs différentielles. Mais si on remplace la relation entre y et x par une relation très voisine, les valeurs de y correspondant à un même x seront aussi très voisines du premier y. On les désignera par j + ôy. Ainsi la caractéristique 8 affecte ce qui résulte d'une variation très petite d'une relation.

Si cette présentation très élémentaire a le mérite de poser de quoi il s'agit, elle ne suffit évidemment pas. Lagrange a su, dès le début, quelle propriété rendait opérationnelle la nouvelle écriture, à savoir la commutativité des deux caractéristiques, mais — il faut le reconnaître — c'est encore Euler qui a justifié le mieux cette commutativité. Au reste Lagrange a remarquablement employé l'outil et enrichi le calcul analytique. Euler n'a pas ménagé son admiration pour une virtuosité qui mettait en évidence combien Lagrange était le maître d'un art.

Un premier aspect des choses est ainsi acquis, mais il n'est que le seuil de l'application à la Mécanique. Et il est utile de lire ce que Lagrange dit à ce sujet en 1763 :

« Le principe donné par Monsieur d'Alembert réduit les lois de la Dynamique à celles de la Statique, mais la recherche de ces dernières lois par les principes ordinaires de l'équilibre du levier, ou de la composition des forces, est souvent longue et pénible. Heureusement il y a un autre principe de Statique plus général, et qui a surtout l'avantage de pouvoir être représenté par une équation analytique, laquelle, renferme seule les conditions nécessaires pour l'équilibre d'un système quelconque de puissances. »

Et après avoir rappelé que cet autre principe plus général est connu sous le nom de principe des vitesses virtuelles, Lagrange poursuit : « Si un système quelconque de corps, réduits à des points et tirés par des puissances quelconques, est en équilibre et qu'on donne à ce système un petit mouvement quelconque en vertu duquel chaque corps parcourt un espace infiniment petit, la somme des puissances multipliée chacune par l'espace que le point où elle est appliquée parcourt suivant la direction de cette puissance, est toujours égale à zéro. »

Dans la Mechanique Analitique, Lagrange s'étendra longuement sur l'histoire qui a conduit à ce principe et il ajoutera dans la deuxième édition de 1811 qu'« il faut convenir qu'il n'est pas assez évident par lui-même pour pouvoir être érigé en principe primitif ». En fait c'est la généralité et la fécondité de l'emploi qui sera pour Lagrange une sorte de


Lagrange et l'art analytique

Fig. 2. — Lettre autographe de Lagrange, adressée de Berlin le 29 juin 1772 au Secrétaire perpétuel de l'Académie Royale des Sciences (Grandjean de Fouchy), en remerciement de son élection comme associé étranger, le 22 mai 1772 (élection notifiée le 28 mai).

173


P. Costabel

justification suprême. Il faut noter, cependant, combien la différence de style avec Euler est de conséquence à un moment qui est, en définitive, crucial pour le lecteur.

Dans la citation qui vient d'être faite, Lagrange appelle « petit mouvement » ce qui est en réalité une variation compatible avec des liaisons et c'est pour cela d'ailleurs que quelques lignes plus bas il se sert pour ces variations de la caractéristique ô. Mais dans la Mechanique Analitique, après avoir restitué le mot de variation à la place de « petit mouvement », Lagrange n'a plus employé que la caractéristique d là où il pensait que la distinction entre deux types de différentielles était superflue et sans difficulté pour un lecteur attentif. Autrement dit, il n'y a aucun doute sur le fait que Lagrange était moins attentif qu'Euler à un discours irréprochable.

La parenthèse de cette remarque s'imposait. Elle ne nuit pas à une autre constatation. C'est bien parce que le principe des vitesses virtuelles est l'annulation d'une somme construite avec des « variations » quelconques, que Lagrange conclut à la nécessité d'annuler séparément dans la somme en question ce qui résulte de « chaque indéterminée ». Il ne faut qu'un minimum d'attention au lecteur pour comprendre que les «indéterminées » sont des paramètres de position, paramètres indépendants lorsqu'on a par ailleurs tenu compte des conditions imposées au système, et qu'ainsi d'une équation générale d'égalité à zéro sortent autant d'équations particulières et finies qu'il en faut pour la détermination de l'équilibre du système proposé.

Ainsi dès 1763 l'art analytique appliqué à la mécanique avait des traits fondamentaux conformes à ses origines et l'ouvrage de 1788 ne fera qu'en développer les résultats. Tout au plus peut-on relever que si l'extension de la Statique à la Dynamique, selon la pensée de d'Alembert, oblige davantage d'user des deux caractéristiques 8 et d pour des distinctions absolument nécessaires, l'introduction de la masse comme coefficient de l'accélération pour la définition de la force motrice n'est pas davantage franchement déclarée par Lagrange que par Euler, d'Alembert et d'autres. C'est, à l'époque, une faiblesse ou une négligence commune, et elle est importante. Mais par ailleurs la Dynamique ne requiert pas de l'art analytique de Lagrange une autre procédure que celle qui consiste à dénombrer les paramètres indépendants — ce sont les variables séparables d'aujourd'hui — et à tirer d'une somme nulle quelles que soient les variations très petites de ces paramètres autant d'équations que d'inconnues.

La Mécanique nouvelle et le langage de la force

C'est en définitive très simple. Et il n'est pas douteux que, comme le marque la citation faite plus haut, c'est la rencontre avec le Traité de Dynamique de d'Alembert qui a provoqué chez Lagrange la découverte de cette simplicité. Il n'est pas inutile de s'arrêter quelque peu sur l'arrière plan de cet événement.

En publiant en 1758 la deuxième édition de son Traité de Dynamique, d'Alembert a explicitement déclaré que les changements et additions apportés à la première édition (1743) — parmi lesquels le célèbre principe — devaient principalement l'existence aux réflexions qu'il avait faites pour concourir à Berlin sur le sujet « Si les lois de la Mécanique sont de vérité nécessaire ou contingente ? ».

Ce sujet avait été fixé par Euler en 1756, et résultait chez lui d'une longue démarche. Dans ses Réflexions sur les origines des forces, publiées en 1752, il avait donné de la loi


Lagrange et l'art analytique

Fig. 3. — Lithographie de Delpech, exécutée elle-même sur une gravure de Belliart dont le nom a été effacé. A été ajoutée une signature autographe empruntée à un document administratif de l'An VII (1799). Il y a quelque probabilité pour que le portrait lui-même date de la période du Directoire.

175


P. Costabel

d'inertie une conception plus claire et plus précise qu'aucun de ses devanciers, et montré que la notion de force n'est que l'expression d'un changement d'état. D'où cette affirmation assez étrange que « les forces n'existent pas en dehors du cas où elles sont obligées d'agir ». L'affirmation se comprend en fonction de la méditation d'Euler sur le phénomène du choc. En ce cas en effet il voyait l'impénétrabilité des corps exiger la nécessité d'actions antagonistes, et la possibilité pour le mathématicien de traduire cette nécessité par des forces, êtres plus ou moins éphémères et sans existence réelle. Mais Euler ne cachait pas son embarras pour transférer au cas des actions à distance et il se contentait de constater à son bénéfice que personne n'avait encore démontré, pour la gravitation et les sollicitations dont les corps célestes sont le siège, l'impossibilité de recourir à des bombardements de particules. En définitive, sans critiquer formellement Newton il penchait, à cause du choc, vers une réduction générale de la notion de force à des nécessités. Nécessités fugitives, mais nécessités tout de même. Donc, d'une certaine manière, réalités.

Toute autre, assurément, était la philosophie de d'Alembert. A l'entendre d'après ce qu'il a écrit dans son Traité, la science du mouvement est toute entière affaire de bonnes définitions. Pas de définitions arbitraires, bien sûr; des définitions inspirées par la longue confrontation de la pensée mécanicienne avec l'expérience. Mais des définitions auxquelles on demande seulement d'être mathématiquement structurées et aptes à un usage purement mathématique, d'où la célèbre déclaration que les forces en tant qu'êtres, obscurs et métaphysiques, doivent être bannies de la Mécanique.

Est-ce à dire qu'entre Euler et d'Alembert l'opposition était radicale au point d'exclure tout élément commun? Lors de l'assistance que le premier eut à donner à Maupertuis en 1745-1746 à propos de la moindre action, il insista sur le fait que la confiance à accorder à l'élaboration mathématique en matière de mécanique est toujours le résultat de concordances a posteriori. Concordances avec des connaissances déjà éprouvées ou dont l'épreuve se trouve suggérée. Il est certain que d'Alembert pensait de même. Mais Euler espérait remonter de l'a posteriori à l'a priori d'une réalité profonde, métaphysique. Telle l'économie de la moindre action. Il voyait, selon Viète, le mathématicien agir comme le mineur qui avec un pic « déterre » des pierres précieuses, secrets de la nature. C'est à ce sujet que d'Alembert marquait une divergence fondamentale. Il refusait de voir dans la notion de force autre chose qu'un outil mathématique.

Il est impossible de savoir si Lagrange en a eu très précisément conscience. On peut seulement constater qu'entre 1759 et 1763 il a abandonné la perspective du principe variationnel d'Euler-Maupertuis et a opté pour la position de d'Alembert. Les dernières lignes de la préface de la Mechanique Analitique expriment ce qu'a été pour Lagrange la conséquence de cette option.

« On ne trouvera point de figures dans cet ouvrage. Les méthodes que j'y expose ne demandant ni constructions ni raisonnements géométriques ou méchaniques, mais seulement des opérations algébriques assujetties à une marche régulière et uniforme. Ceux qui aiment l'Analyse verront avec plaisir la Mécanique en devenir une nouvelle branche et me sauront gré d'en avoir étendu ainsi le domaine. »

Louis Poinsot, qui fut pour Lagrange un lecteur critique, a pu dire plus tard qu'il n'y avait en effet de clair dans la nouvelle Mécanique que la marche des calculs et que les nuages étaient rassemblés sur les fondements. Cet avis percutant n'était pas dépourvu d'exactitude, notamment en ce qui concerne le langage de la force que Lagrange a


Lagrange et l'art analytique

conservé sans trancher la question de savoir s'il s'agit par là de parler d'un absolu ou d'un relatif, c'est-à-dire d'un élément indépendant ou non du système de référence. Mais Poinsot, malgré sa fine intelligence, jugeait mal de l'événement que constituait l'oeuvre de Lagrange. L'art analytique qui y était mis en oeuvre n'était pas seulement au service de la clarté de calculs, le perfectionnement qu'il apportait à un outil était lié à l'exercice de l'esprit dans sa réflexion devant l'histoire de la Mécanique et fixait les traits d'un modèle suggestif exempt de la prétention à exprimer ce que l'on a la tentation d'appeler le « réel ».

La postérité ne s'y est pas méprise. La Physique française a souvent marqué sa défiance,' depuis le milieu du XIXe siècle, à l'abus des procédures de l'Analyse mathématique, mais ce ne sont pas ceux qui aiment cette Analyse qui sont aujourd'hui les seuls à savoir gré à Lagrange d'en avoir étendu le domaine dans et par la Mécanique.

Celle-ci n'est sans doute qu'une science du mouvement local, cependant le mouvement en général, c'est-à-dire le changement, retrouve dans toute science de phénomènes particuliers la dignité de notion fondamentale qui s'était depuis Aristote quelque peu obscurcie. On doit indéniablement à la Mechanique Analitique l'exemple élaboré de la science d'un mouvement, où l'usage de fictions est toujours contrôlé par le souci des fondements logiques. C'est cet exemple qui ne cesse d'être suivi.

177



LA VIE DES SCIENCES

Imagerie de la croûte terrestre

par sismique réflexion

verticale profonde :

le programme ECORS

Christian BOIS

Institut Français du Pétrole, B.P. 311, 92506 Rueil-Malmaison Cedex

Les études géologiques conventionnelles ont montré depuis longtemps que la croûte terrestre a été le siège de grandes déformations dont les manifestations les plus spectaculaires sont les bassins sédimentaires, les océans et les chaînes de montagne. Ces phénomènes s'intègrent assez bien dans le cadre conceptuel de la tectonique des plaques, une théorie fondée essentiellement sur l'étude par géophysique et forage des océans et de leurs marges. Or les océans actuels sont des structures relativement jeunes dans l'histoire géologique. Pour progresser, il fallait donc s'intéresser aussi aux « vieux » continents et pour cela, obtenir des données assez: précises concernant leur sous-sol. Grâce aux recherches d'eau, d'hydrocarbures et autres substances minérales, les continents étaient assez bien connus sur leurs quelques premiers kilomètres en profondeur. Des profils de sismique réfraction et de sismique réflexion grand angle fournissaient aussi des informations importantes sur la base de la croûte, mais avec une résolution limitée. Il y avait donc un vaste domaine, situé en France entre 5 et 50 km de profondeur environ, où la structure de la croûte n'était pas connue avec une précision suffisante faute d'une imagerie adéquate. C'est la sismique réflexion verticale profonde, dérivée des techniques pétrolières, qui a permis de réaliser cette imagerie. Elle est mise en oeuvre en France depuis plus de cinq ans maintenant, par le programme ECORS.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 3, p. 179-209


C. Bois

Imagerie sismique de la croûte terrestre

Des réflexions provenant de 25 km de profondeur ont été découvertes par hasard en 1951 dans le Montana (États-Unis). Des réflexions analogues ont été obtenues un peu plus tard en Allemagne et leur caractère systématique ainsi que leur origine profonde ont été démontrés. D'autres essais réalisés dans de nombreuses régions du monde ont conduit à développer des programmes d'investigation de la croûte par sismique réflexion profonde. Le premier et le plus important de ces programmes est le programme COCORP qui a débuté en 1975 aux États-Unis et réalisé plus de 10000 km de profils. Parmi ses principales découvertes on peut citer un grand détachement plat sous la chaîne des Appalaches, un chevauchement pénétrant de plus de 20 km dans la croûte des Rocheuses, une croûte inférieure litée sous la zone étirée du Basin and Range et des dépressions sédimentaires précambriennes dans le bouclier américain. Le programme canadien LITHOPROBE a poursuivi l'étude de ces structures vers le Nord et également réalisé des profils marins à travers les bassins sédimentaires associés à la marge continentale atlantique. En Europe, le programme BIRPS a entrepris à partir de 1979 une investigation marine autour des îles britanniques où il y a acquis plus de 12000 km de profils. Il faut également mentionner le programme DEKORP qui a tiré plusieurs grands profils en Allemagne, le programme NFP 20 qui a achevé deux traverses des Alpes suisses ainsi que d'autres travaux en Belgique, Hollande et Scandinavie. Le programme ACORP, enfin, a acquis plusieurs milliers de kilomètres de profils sismiques en Australie.

La croûte terrestre

A la fin du XIXe siècle est née la sismologie, c'est-à-dire la science des tremblements de terre. Dès que l'on a su capter les différents types d'ondes sismiques et les enregistrer tout autour du globe, leur vitesse de parcours dans les différents milieux du sous-sol a été mesurée et leurs trajets reconstitués. On a ainsi progressivement découvert que l'intérieur de notre globe était formé d'une série d'enveloppes, grossièrement sphériques, de densité croissante vers le centre de la Terre (fig. 1). Le noyau, essentiellement composé de fer, est situé à 2 900 km de profondeur. Seule sa partie centrale, la graine, est solide. Il est entouré du manteau, lui-même recouvert par la croûte terrestre. L'ensemble du manteau supérieur et de la croûte forme la lithosphère, relativement rigide, qui « flotte » sur l'asténosphère sous-jacente, plus visqueuse.

La croûte mesure en moyenne 30 à 35 km sous les continents. Elle est fortement épaissie sous les chaînes de montagne, jusqu'à 70 km sous l'Himalaya, et au contraire très amincie sous les océans où elle ne mesure plus que 7 à 10 km en moyenne (fig. 1). La théorie des plaques a expliqué de telles différences en montrant que tout autour du globe, la lithosphère était formée de plusieurs plaques rigides se déplaçant sans cesse audessus de l'asténosphère (fig. 2 a). Une nouvelle croûte est formée en permanence au milieu des océans, le long des dorsales médio-océaniques, tandis que l'excès de croûte est résorbé au niveau des zones de subduction où la croûte s'enfonce dans le manteau. Les continents, quant à eux, sont entraînés passivement par le mouvement des plaques.

L'histoire géologique européenne depuis le Jurassique, il y a 200 millions d'années (200 M.a.), illustre parfaitement ces phénomènes et montre les relations étroites qui existent entre le mouvement des plaques et les grandes structures géologiques de surface


Le programme ECORS

(fig. 2 b). Tout commence par l'amincissement de la vieille croûte continentale hefcynienne et le développement de bassins sédimentaires par suite de la dépression de sa surface (subsidence). Ce processus s'achève avec la rupture de la croûte et la formation de l'océan alpin, la Téthys, suivie du plongement (subduction) de la croûte européenne sous la croûte africaine et du chevauchement de la croûte océanique par-dessus le continent européen (obduction). Finalement, la collision entre les continents européen et africain provoque l'épaississement de la croûte continentale et l'orogenèse ou naissance de la chaîne alpine. La suture entre les deux anciens continents, désormais solidaires, est soulignée par des roches basiques et ultra-basiques, d'origine océanique et mantellique.

Fig. 1. — Structure de la croûte terrestre (d'après Foucault et Raoult, 1984, légèrement modifié). A : les enveloppes de la Terre avec leurs propriétés physiques (Vp=vitesse de propagation des ondes sismiques longitudinales en km/s. d = densité moyenne des roches). B : la lithosphère et l'asténosphère. C : la croûte : la croûte océanique est plus mince que la croûte continentale.

181


C. Bois

182


Le programme ECORS

Entre la croûte et le manteau se situe une limite importante découverte en 1909 par le sismologue Mohorovicic (fig. 1). Cette discontinuité physique, appelée couramment le Moho, sépare un milieu supérieur, la croûte, où la vitesse de propagation des ondes sismiques longitudinales (Vp) est en moyenne de 6,25 km/s, et un milieu inférieur où elle est égale ou supérieure à 8 km/s. La vitesse des ondes est étroitement fonction du type de roche traversé, et liée en particulier à sa densité (fig. 1).

Les études sismologiques ont conduit un autre sismologue, Conrad, à découvrir en 1925 une autre discontinuité assez caractéristique de la croûte européenne et qui sépare une croûte supérieure où les ondes ont une vitesse de 6 km/s d'une croûte inférieure où elle dépasse 6,5 km/s. Cette différence est interprétée non seulement comme la transformation naturelle des roches et de leurs propriétés physiques sous l'effet de l'augmentation de pression et de température avec la profondeur (métamorphisme), mais comme un réel changement de composition chimique. Les roches sont relativement acides (composition granitique) dans la croûte supérieure, et basiques (composition basaltique) dans la croûte inférieure, au-dessus d'un manteau de composition ultra-basique.

Le programme ECORS

L'objectif du programme ECORS est tout entier contenu dans son titre : Étude Continentale et Océanique par Réflexion et réfraction Sismiques. Il s'agit d'explorer la croûte terrestre dans son ensemble, ses variations d'épaisseur et sa structure interne, afin de reconstituer ses propriétés et son évolution. A cet objectif scientifique s'ajoutent quelques applications. Il est possible de découvrir dans le fond des bassins connus ou sous les fronts montagneux, des zones sédimentaires cachées qui pourraient receler des hydrocarbures. La connaissance précise des zones fracturées peut être utile à l'exploration géothermique et l'appréciation du risque sismique. Le programme travaille aussi au perfectionnement des moyens géophysiques mis en oeuvre, aussi bien sur le terrain qu'au niveau du traitement des données.

Le programme ECORS a été lancé en 1983 par l'Institut Français du Pétrole, l'Institut National des Sciences de l'Univers (CNRS) et la Société Elf-Aquitaine. L'Institut Français pour la Recherche et l'Exploitation de la Mer s'est joint au programme pour toutes les opérations marines. D'autres projets semblables sont en cours en Amérique du Nord, en Europe et en Australie. Mais l'originalité du programme ECORS est sans doute dans cette collaboration pluridisciplinaire entre industriels et universitaires où chacun apporte une expérience et des méthodes de travail différentes.

Fig. 2 (ci-contre). — La théorie des plaques, a : coupe schématique de la Terre avec les principales plaques, b : évolution de la croûte entre l'Europe et l'Afrique, du Jurassique (200 M.a.) à l'Éocène (40 M.a.) (d'après Mattauer in Allègre, 1983).

183


C. Bois

Grâce à sa géologie très variée, la France est un pays particulièrement bien adapté à l'application d'un tel programme (fig. 3). Après l'orogenèse cadomienne (650-600 M.a.) qui a déformé un socle vieux de 2 milliards d'années, connu seulement en quelques points au nord-ouest du Massif Armoricain, l'histoire de la croûte terrestre en France peut être subdivisée en trois grandes périodes. C'est tout d'abord, la formation de la chaîne hercynienne (380-300 M.a.) qui résulte de la collision entre des plaques méridionale et septentrionale. Elle affleure dans le Massif Central, le Massif Armoricain, en Ardenne et dans les Vosges ainsi qu'au coeur des Alpes et des Pyrénées (fig. 3). Ensuite, au cours du Permien et du Mésozoïque (280-85 M.a.), la croûte est sujette à une longue période de subsidence. De grands bassins se forment, comme ceux de Paris et d'Aquitaine, et de nouvelles aires océaniques s'ouvrent dans les Alpes (Téthys) au Jurassique supérieur (160 M.a.) (fig. 2b), et dans le Golfe de Gascogne au Crétacé inférieur (110 M.a.). Enfin, au Tertiaire (65 M.a.), la convergence des plaques entraîne la formation des chaînes des Alpes (fig. 2b) et des Pyrénées tandis qu'à l'Oligocène (30 M.a.), se produit l'effondrement des fossés du Rhin, du Rhône et de la Camargue, et l'ouverture du bassin océanique de Méditerranée occidentale.

184

Fig. 3. — Les profils sismiques ECORS et les principaux traits structuraux de la France.


Le programme ECORS

Les différents profils ECORS ont été implantés sur des structures géologiques qui jalonnent cette histoire géologique de la France (fig. 3) :

— le profil Nord de la France (230 km) a traversé la zone externe septentrionale de la chaîne hercynienne (380-300 M.a.);

— le projet SWAT, réalisé en Manche et en Mer Celtique par le groupe britannique BIRPS avec la coopération d'ECORS, a étudié une zone plus large de la chaîne et également les bassins mésozoïques (230-65 M.a.) sus-jacents; il a été complété par le profil WAM (645 km) qui le relie à la marge atlantique;

— le profil Gascogne (300 km), réalisé le long du plateau aquitain avec la collaboration de la compagnie espagnole REPSOL, était essentiellement destiné à étudier la croûte sous le bassin de Parentis, superposé au bassin d'Aquitaine au cours du Crétacé inférieur (140-100 M.a.);

— Le profil Pyrénées (250 km), réalisé en collaboration avec la société ESSOREP et le groupe ECORS espagnol, et le profil Alpes (130 km) réalisé en collaboration avec les sociétés BP et EURAFREP et le groupe italien CROP, devaient déterminer la structure profonde de ces deux chaînes récentes, objet de nombreuses controverses;

— le profil Jura-Bresse, a prolongé de 120 km vers le nord-ouest le profil Alpes fournissant une traverse complète de la zone déformée jusqu'à la bordure du Massif Central;

— les deux profils Fossé Rhénan (210 km), réalisés en collaboration avec le groupe allemand DEKORP, ont étudié la structure profonde de ce grand fossé;

— le projet Golfe du Lion (580 km) a exploré le bassin de Méditerranée occidentale; il a été prolongé par un profil de 200 km réalisé par le groupe CROP jusqu'à la marge de Sardaigne.

Un profil est prévu en 1989 au travers de la partie sud du bassin d'Aquitaine et de l'ouest des Pyrénées occidentales.

En un peu plus de cinq ans, le programme ECORS a ainsi obtenu seul ou en association, plus de 1000 km de profils sismiques terrestres et 3 000 km de profils marins (fig. 3).

La méthode d'investigation

La sismique réflexion verticale constitue la méthode d'investigation essentielle mise en oeuvre par le programme ECORS. Dans son principe elle reconstitue artificiellement les conditions d'un séisme naturel (fig. 4). Un ébranlement mécanique est créé par une source sismique superficielle, par exemple l'explosion d'une charge enterrée de dynamite. Cet ébranlement se propage dans le sous-sol où il se réfléchit et se réfracte, selon des lois voisines de celles de l'optique, sur les différents horizons géologiques séparant des milieux de vitesses et de densités différentes. Très atténué, le signal est capté à son retour en surface par des sismographes qui transforment les mouvements du sol en tension électrique apte à être enregistée numériquement.

Ces informations sont ensuite traitées dans un centre de calcul de façon à bien dégager le signal utile du bruit. Pour ce faire, on additionne les enregistrements de signaux



Fig. 4. — La méthode de sismique réflexion verticale, a : principe d'acquisition des données, b : exemple de traitement sismique montrant le gain d'information obtenu par la couverture multiple (document Institut Français du Pétrole).


C. Bois

provenant du même point d'un réflecteur, mais obtenus à partir de positions variées de la source et du capteur. Le nombre d'enregistrements ainsi additionnés (couverture multiple) peut dépasser 100. Une telle addition permet d'éliminer les bruits aléatoires et de renforcer le signal, même lorsque celui-ci est très faiblement perçu sur l'enregistrement brut (fig. 4).

La mise en oeuvre de la sismique réflexion verticale consiste en général à enregistrer le long d'une ligne de capteurs les signaux émis par une source placée au centre du dispositif, et à recommencer régulièrement l'opération après avoir déplacé le dispositif et la source d'un pas de l'ordre de 60 à 100 m. Pour être efficace, l'addition des enregistrements successifs doit être précédée par des corrections statiques qui tiennent compte des distorsions causées par les différences d'altitude entre les capteurs et la zone altérée superficielle de faible vitesse, et des corrections dynamiques qui compensent l'allongement du temps de parcours lorsque les rayons sont de plus en plus obliques par rapport à la verticale.

Fig. 5. — Les vibrateurs lourds de la Compagnie Générale de Géophysique en action sur un profil ECORS. Sous le premier vibrateur, on peut observer la plaque vibrante qui transmet au sol l'énergie vibratoire. Les cinq vibrateurs sont synchronisés automatiquement.

188


Le programme ECORS

Le résultat du traitement constitue la section sismique où chaque trace représente le sous-sol à la verticale d'un point de la surface. Les profondeurs sont exprimées par le temps que mettent les ondes pour parcourir la distance de la surface au réflecteur et retour (fig. 4b). Cette image, comparable à celle d'un scanner, constitue une coupe du sous-sol où apparaissent la géométrie et l'organisation des différents horizons géologiques. Un « horizon réflecteur » correspond à une arrivée d'énergie sismique qui se traduit par des pics d'amplitude plus élevée, s'alignant sur un nombre important de traces et formant sur la section une ligne noire (amplitude positive) bordée de blanc tranchant nettement sur le fond gris correspondant au bruit ambiant (fig. 4 b et 8). L'interprétation consiste d'abord à pointer ces alignements et à les reporter sur une coupe comme celle de la figure 9 a qui sert de base à tout l'habillage géologique ultérieur.

Pour passer des profondeurs exprimées en temps de parcours des ondes (fig. 4 et 8) à des profondeurs exprimées en mètres, il est nécessaire de connaître avec précision la

Fig. 6. — Le navire Résolution de rinstitut Français du Pétrole en cours d'enregistrement.

189


C. Bois

vitesse de propagation des ondes, vitesse qui varie verticalement et latéralement. Une première approximation est fournie par les variations du temps de parcours en fonction de l'obliquité des rayons. Mais une bonne connaissance des vitesses nécessite souvent la réalisation d'une expérimentation spéciale, comme un profil à point commun central.

Fig. 7. — Utilisation de l'hélicoptère sur le profil ECORS Pyrénées. On peut voir le déplacement d'une sondeuse de la Compagnie Générale de Géophysique. Sur ce profil, l'énergie sismique provenait de charges de dynamite enterrées dans des trous espacés de 180 m.


Le programme ECORS

La méthode précédente, couramment utilisée par l'industrie pétrolière, a été adaptée à l'investigation profonde du programme ECORS. Pour obtenir une grande pénétration, on a utilisé des sources très puissantes : à terre des charges d'explosif de 25 à 150 kg ou un ensemble de vibrateurs lourds (fig. 5); en mer, des ensembles de canons à air d'un volume total dépassant 100 litres, traînés par un navire (fig. 6). Les dispositifs terrestres atteignaient 15 km de long avec un ensemble de capteurs tous les 40 à 80 m. La mise en oeuvre de ces moyens lourds, dans un environnement parfois difficile (Alpes, Jura, Pyrénées), a nécessité l'utilisation de l'hélicoptère (fig. 7). Les dispositifs marins avaient 3 000 m de long, avec un capteur tous les 50 m. En Gascogne, on a allongé le dispositif en plaçant un deuxième navire derrière le navire sismique, à une distance constante de 7,5 km, et enregistrant lui-même avec un dispositif de 2500 m. On s'est efforcé dans tous les cas de favoriser les basses fréquences (jusqu'à 8-10 Hz) qui pénètrent plus profondément dans le sous-sol.

Les expérimentations de sismique réflexion verticale ont été complétées par des enregistrements de sismique réflexion grand angle (autour de l'angle au-delà duquel se produit la réflexion totale) et de sismique réfraction en utilisant des sources sismiques encore plus puissantes (plusieurs centaines de kilogrammes de dynamite) et des capteurs autonomes enregistrant jusqu'à 1 Hz. On a également mesuré dans certains cas la pesanteur (gravimétrie), le magnétisme et la résistance électrique du sous-sol (magnéto-tellurique).

L'imagerie de la croûte

Une image de la croûte, maintenant classique pour l'Europe occidentale, montre de haut en bas plusieurs zones bien différenciées (Bois et al, 1986) (fig. 8) :

— la couverture sédimentaire, de 0 à 1 s (environ 1,5 km), avec des réflecteurs lités bien marqués et continus;

— la croûte supérieure, jusqu'à 8 s (environ 22 km) relativement transparente, mais où l'on peut néanmoins remarquer des réflecteurs obliques;

— la croûte inférieure, entre 8 et 12 s (22-36 km environ), caractérisée par de nombreux réflecteurs horizontaux discontinus, de forte amplitude, formant une sorte de litage sismique.

La base de la croûte, le Moho, correspond à la disparition vers le bas du litage de la croûte inférieure, comme cela a été vérifié par des expérimentations de sismique réfraction. Au-delà de 12 s, l'image représente donc le manteau supérieur, relativement transparent.

Le profil nord de la France

L'image de la figure 8 est un extrait du profil nord de la France dont la section pointée et l'interprétation sont représentées figure 9 (Cazes et al., 1986). L'un des principaux résultats de ce profil a été de suivre sur plus de 100 km vers le sud le chevauchement frontal de la chaîne hercynienne (300 M.a.) qui émerge à la faille du Midi (fig. 3). Il se marque par un ensemble de réflecteurs subhorizontaux situés entre 3 et 5 s (7-13 km environ), du point 100 au point 2000 (fig. 9), sous la nappe superficielle de Dinant. Il s'enracine dans une série de réflecteurs à pendage sud, interprétés comme les limites


C. Bois

d'écaillés imbriquées, bien développées au sud de la faille de Bray. La section donne une image remarquable de cette tectonique : la rampe de la faille du Midi passe vers le sud à un grand plateau subhorizontal puis à une rampe plus profonde. La suture entre le continent nord (Brabant) et le continent sud (bloc Cadomien) émerge dans le secteur de

Fig. 8. - Exemple d'image sismique crustale extraite du profil ECORS nord de la France. De haut en bas on observe les zones suivantes 0-1 s (0-1,5 km) : la couverture sédimentaire; 1-8 s (1,5-22 km) : la croûte supérieure; 8-12 s (22-36 km) : la croûte inférieure litée; au-delà de 12 s le manteau supérieur (M = Moho). L'échelle des profondeurs est exprimée en temps de parcours (sTD = seconde temps double) des ondes de la surface à l'horizon réflecteur et retour. Elle n'est pas homogène à l'échelle des longueurs.


Le programme ECORS

la faille de Bray où des anomalies gravimétriques et magnétiques correspondent probablement à des roches basiques et ultrabasiques. Cette suture pourrait s'enraciner au niveau d'un réflecteur à pendage sud, observé dans le manteau au sud du profil. On voit ainsi l'ampleur des déformations tangentielles qui ont suivi la collision entre les deux continents et profondément écaillé la marge sud du continent du Brabant.

La zone litée réfléchissante de la croûte inférieure est bien visible dans les deux tiers sud du profil et disparaît vers le nord, ainsi que la réflexion du Moho (fig. 9). La faille de Bray semble recouper l'ensemble de la croûte. Elle correspond à une grande faille de décrochement horizontal qui a fonctionné à la fin de l'orogenèse hercynienne (320 M.a.) (Matte et al, 1986) et qui a été réactivée au Jurassique (190-160 M.a.), pendant la subsidence du bassin de Paris et au Tertiaire (65-35 M.a.), sous l'effet de la compression qui a créé les Pyrénées.

Les mesures magnéto-telluriques (fig. 9 c) montrent deux couches nettement moins résistantes que leur encaissant (Cazes et al, 1986). La moins profonde, vers une dizaine de kilomètres, peut correspondre à la base de la nappe de Dinant et indiquer la présence de sédiments conducteurs appartenant à la couverture sédimentaire autochtone du continent du Brabant. La seconde couche se situe sensiblement à la profondeur de la croûte inférieure litée (30 km) et s'interrompt comme elle vers le nord.

Le profil de sismique réflexion verticale a été complété par un profilage de la base de la croûte vers le nord et vers le sud. Cette expérimentation montre en particulier la présence, sous le continent du Brabant, d'un « Moho » que la sismique réflexion verticale n'avait pas pu mettre en évidence (fig. 9 b). Ce niveau s'approfondit vers le sud et semble même passer sous le Moho de la réflexion verticale.

Le projet SWAT

Les profils SWAT enregistrés en Manche et en Mer Celtique (fig. 3), fournissent d'autres coupes de la chaîne hercynienne (380-300 M.a.) (BIRPS et ECORS, 1986; Bois et al, 1989) (fig. 10). Le chevauchement frontal hercynien ne présente pas de plateau horizontal comme dans le nord de la France, mais une rampe rectiligne à pendage sud traversant toute la croûte supérieure (fig. 10). Au sud, d'autres réflecteurs, parallèles à cette rampe, affectent toute la région déformée, certains traversant toute la croûte et atteignant le manteau, comme dans le secteur du Lizard (fig. 10). Ce secteur est particulièrement intéressant car ici les roches basiques et ultra-basiques de la suture affleurent. Sous les réflecteurs à pendage sud, on observe des réflecteurs profonds à pendage nord qui sont interprétés comme des chevauchements plus anciens. Par analogie avec les structures géologiques qui affleurent en Irlande et au Pays de Galles, au nord du chevauchement frontal hercynien, on les considère comme des chevauchements appartenant à la chaîne calédonienne (450-380 M.a.), sur la bordure sud de laquelle est venue se superposer la chaîne hercynienne.

La croûte inférieure litée est aussi remarquable sur les profils SWAT que dans le nord de la France. Sous les bassins permo-mésozoïques (280-65 M.a.) qui peuvent atteindre 10 km d'épaisseur (fig. 10 et 11), le Moho reste à peu près horizontal (en temps) et la croûte inférieure litée ne présente ni variation d'épaisseur ni changement de faciès significatifs.



Le programme ECORS

Le profil Gascogne

Au centre du profil Gascogne (fig. 3 et 11), on voit clairement le bassin de Parentis (Pinet et al, 1987) créé au Crétacé inférieur (140-110 M.a.), par un effondrement d'une partie du bassin d'Aquitaine, lui-même formé au Trias et Jurassique (230-140 M.a.). L'épaisseur totale de sédiments y dépasse 15 km. Le caractère lité de la croûte inférieure est bien visible au nord et au sud du profil. Mais sous le bassin de Parentis, on observe au contraire une disparition brutale de celle-ci et une remontée spectaculaire du Moho. Ce résultat est bien étayé par les profils à point commun central, effectués transversalement au profil de sismique réflexion verticale (fig. 3), et en excellent accord avec les données gravimétriques. L'important amincissement crustal est directement hé à l'extension et la subsidence qui ont accompagné au Crétacé inférieur l'effondrement et l'ouverture océanique du Golfe de Gascogne tout proche.

Vers le Sud, on observe un important approfondissement de la croûte sous les chevauchements les plus externes des Pyrénées (fig. 11). Un certain nombre de réflecteurs, dans la croûte supérieure et dans le manteau, sont interprétés comme la trace de chevauchements hercyniens qui ont affecté celle-ci bien avant les déformations pyrénéennes. D'autres chevauchements hercyniens, au nord du profil, sont associés à du matériel très réfléchissant, sans doute des séries très métamorphisées de la croûte profonde, comme celles qui affleurent dans le Massif Armoricain plus au nord.

Le profil WAM

Réalisé sur la marge atlantique au droit de l'Éperon de Goban (fig. 3 et 11), ce profil montre une structure assez semblable à celle d'un bassin de Parentis dont on n'aurait conservé que la moitié orientale (Peddy et al., 1989). L'autre moitié se trouve actuellement sur la marge américaine, au-delà de l'océan atlantique qui s'est développé dans l'intervalle depuis le Crétacé moyen (110 M.a.) jusqu'à nos jours. En direction de l'océan, la croûte supérieure est affectée par un jeu de blocs basculés le long de failles à pendage ouest. Du Nord-est vers le Sud-ouest, jusqu'à la limite continent-océan, on observe que la croûte supérieure et la croûte inférieure sont toutes les deux amincies d'un facteur avoisinant 4.

Fig. 9 (ci-contre). — Principaux résultats du profils ECORS nord de la France (d'après Cazes et Torreilles, 1988) (position sur la fig. 3). a : pointé de la section sismique obtenue avec les vibrateurs. b : interprétation géologique. CO=Cambro-Ordovicien (570-435 M.a.). D = Dévonien (395-345 M.a.). h = Carbonifère (345280 M.a.). PC = Précambrien (plus de 570 M.a.), Pz=Paléozoïque indifférencié (570-280 M.a.). Les petites croix représentent le socle du Brabant. Grandes croix = granité. Grisé=matériel magnétique, c : répartition des résistivités (ohm-m) provenant des mesures magnéto-telluriques. On observe le chevauchement d'ensemble du bloc cadomien sur celui du Brabant par l'intermédiaire d'un écaillage de chevauchements imbriqués et d'un grand chevauchement plat sous la nappe de Dinant, chevauchement qui émerge au niveau de la faille du Midi. La suture probable entre les deux continents est indiquée par un trait plus épais.

195


Fig. 10. — Les profils SWAT 2, 3 et 8 (position sur la fig. 3). Profondeur en secondes temps double (sTD). Vitesse moyenne approximative de 6 km/s. Grisé clair = bassins sédimentaires. Grisé foncé = croûte inférieure litée. Pointillés = autre litage sismique. Les réflecteurs à pendage sud sont interprétés comme des chevauchements hercyniens et ceux à pendage nord comme des chevauchements calédoniens. Ils sont probablement séparés par un niveau de découplage (tireté).


Le programme ECORS

Le profil Pyrénées

Au nord et au sud du profil Pyrénées, la base des remplissages sédimentaires mésozoïques et tertiaires des bassins d'Aquitaine et de l'Èbre sont bien visibles (ECORS Pyrénées team, 1988) (fig. 12). De même, on reconnaît bien la croûte inférieure litée et le Moho qu'elle surmonté. La croûte ibérique, plus épaisse que la croûte européenne présente une flexure nette vers le nord. Un important décalage du Moho, connu depuis longtemps (Hirn et al., 1980), est situé sensiblement au droit de la faille nord-pyrénéenne qui a constitué la limite entre les croûtes européenne et ibérique.

Dans la zone axiale, interfèrent des réflecteurs à pendage nord et sud qui traduisent bien la forme en éventail de la chaîne. Le versant sud de la chaîne montre un chevauchement plat enraciné dans les écailles de Nogueres (fig. 12). Sur le versant nord, le chevauchement frontal est marqué par des réflecteurs à pendage sud, passant juste sous le massif nord-pyrénéen de l'Arize. Ces réflecteurs lités, de forte amplitude, suggèrent la présence de matériel crustal profond, analogue à celui que l'on observe à l'affleurement dans certains massifs nord-pyrénéens. La structure actuelle de la chaîne résulte clairement du poinçonnement tertiaire (60-35 M.a.) de la plaque ibérique par la plaque européenne, de Pécaillage des marges des deux croûtes, et d'un début de subduction de la croûte ibérique sous la croûte européenne. Bien que les réflecteurs deviennent flous au-delà de 15 s (une cinquantaine de kilomètres), l'image sismique des Pyrénées tranche de manière originale un débat de plusieurs années sur la structure profonde de cette chaîne.

Au nord du profil, sous le recouvrement du bassin d'Aquitaine, on observe un certain nombre de réflecteurs énergiques à pendage nord interprétés comme des chevauchements hercyniens (380-300 M.a.). Ces mêmes réflecteurs ont été rencontrés plus à l'ouest, au sud du profil Gascogne. On les retrouve également sur des profils industriels réalisés par Elf-Aquitaine entre les deux profils ECORS. On voit l'importance régionale de ces chevauchements dont l'équivalent peut être observé plus à l'est sur le terrain, dans la Montagne Noire et le Mouthoumet.

Le profil Alpes

Sur ce profil, on peut identifier les structures suivantes, en allant du nord-ouest au sud-est, c'est-à-dire de l'extérieur vers l'intérieur de la chaîne (Bayer et al, 1987) (fig. 3 et 12) :

— la nappe des Bornes;

— un ensemble de réflecteurs à pendage sud-est, situés sous le massif cristallin externe (Belledone) et qui sont interprétés comme le chevauchement frontal externe de la chaîne;

— deux réflecteurs à pendage sud-est extrêmement puissants dont l'émergence coïncide avec le front pennique, structure considérée par certains auteurs comme une ancienne suture;

— la forme en dôme caractéristique des nappes du massif cristallin interne (Grand Paradis);

— une zone sismiquement sourde au droit de la zone de Sesia et de la suture principale (ligne insubrienne);



Le programme ECORS

— le remplissage sédimentaire de la plaine du Pô.

En profondeur, la plaque européenne montre clairement une flexure vers le sud-est, soulignée par la croûte inférieure litée et le Moho. Mais à l'est du front pennique, les données de la sismique réflexion verticale deviennent ambiguës. Cest la sismique réflexion grand angle qui a permis de déterminer le Moho. On a pu ainsi proposer plusieurs images de la structure profonde des Alpes, dont les effets gravimétriques ont été calculés. Celle qui est présentée sur la figure 12 correspond au meilleur accord avec les mesures. Elle suppose une écaille de manteau, située vers 7 s de profondeur (environ 20 km), qui peut s'étendre vers le nord-ouest jusque sous les réflecteurs pentes du front pennique. La sismique réflexion grand angle a bien repéré ce corps qui est très réfléchissant. On aurait donc sous les Alpes un véritable écaillage de la croûte inférieure et du manteau, endessous de l'écaillage classique de la croûte supérieure. L'écaillé la plus profonde se relierait au chevauchement externe, qui aboutit tout à fait au nord-ouest sous le Jura. L'écaillé la moins profonde, déjà connue comme le corps d'Ivrée, serait reliée au front pennique.

Quelques résultats scientifiques majeurs

L'apport essentiel des profils ECORS consiste en une série d'images nouvelles de la croûte. Nous avons vu que l'interprétation de ces images fournissait des résultats régionaux très importants comme :

— la mise en évidence de domaines couverts par les déformations hercynienne (Aquitaine, Èbre) et calédonienne (Mer Celtique);

— les modalités d'enracinement du front de déformation hercynien dans la croûte et l'ampleur des raccourcissements correspondants;

— l'implication du manteau dans la tectonique des Alpes et des Pyrénées;

— l'amincissement crustal sous le bassin de Parentis et la marge atlantique;

— et par-dessus tout, la découverve d'un litage réflecteur affectant presque partout la croûte inférieure.

La comparaison des différents profils entre eux apporte d'autres résultats scientifiques, de portée encore plus générale.

Fig. 11 (ci-contre). — Sections sismiques à travers des bassins sédimentaires (position sur la figure 3). Profondeur en secondes temps double (sTD). Vitesse moyenne approximative de 6 km/s. Le Moho, plat (en temps) sous les bassins permo-jurassiques (280-140 M.a.) (en haut) remonte fortement sous les bassins crétacés (14090 M.a.) (en bas). La croûte inférieure litée garde une épaisseur constante sous les premiers et est fortement amincie sous les seconds. AB = bassin d'Aquitaine. COB = limite continent-océan. LH = haut des Landes. PB=bassin de Parentis. PFD = front de déformation pyrénéen. PVE = chevauchement anté-hercynien. VT = chevauchement hercynien. 1 = Albien-Crétacé supérieur-Tertiaire (110-5 M.a.). 2 = Crêtacé inférieur (140-110 M.a.). 3 = Jurassique et Trias (200-140 M.a.). 4 = Permo-Trias (280-210 M.a.). 5 = Croûte inférieure litée. 6 = Autre litage sismique.



Le programme ECORS

La croûte inférieure litée

Sur la figure 12, on a rassemblé les profils ayant traversé des chaînes orogéniques en plaçant à gauche la partie externe de la chaîne, c'est-à-dire celle vers laquelle sont dirigés les chevauchements les plus importants (ce qui nous a amenés à retourner le profil nord de la France de la figure 9).

Un examen, même superficiel, de la figure 12 montre une différence radicale entre l'image de la chaîne hercynienne (profil nord de la France) et celle des chaînes tertiaires. Tandis que la croûte inférieure et le Moho sont relativement plats sous la chaîne hercynienne, ils sont visiblement plissés et failles sous les Alpes et les Pyrénées. Les profils SWAT (fig. 10 et 11) confirment la géométrie profonde de la chaîne hercynienne. Comme toutes ces chaînes résultent du même type d'orogenèse par collision (Matte, 1986), une première conclusion est que la disparition des racines de la chaîne hercynienne et réquilibrage de la transition entre croûte et manteau, la formation du Moho actuel et l'emplacement du litage dans la croûte inférieure sont des processus qui ont pris place entre les deux grandes périodes de déformation orogénique, c'est-à-dire après le Carbonifère supérieur (280 M.a.) et avant le Crétacé supérieur (85 M.a.) (Bois et al, 1988 a).

L'absence de racines dans la chaîne hercynienne peut résulter soit de l'érosion superficielle des reliefs, suivie d'une remontée progressive de la lithosphère déchargée (isostasie), soit d'un fluage ou d'une extension mécanique de la croûte en liaison avec la formation des bassins et l'ouverture de nouveaux domaines océaniques, soit enfin d'un métamorphisme profond. Le Moho actuel recoupe nettement des traits structuraux hercyniens dans le secteur du Lizard (fig. 10), ce qui suggère que le métamorphisme a joué un rôle important dans l'équilibrage de la transition croûte-manteau. On voit d'ailleurs mal comment les autres processus invoqués pourraient faire disparaître des écailles de croûte imbriquées dans le manteau comme celles des Alpes et des Pyrénées. Dans ces deux chaînes l'affaiblissement des réflecteurs, en dessous de 15 s (50 km), pourrait indiquer que le métamorphisme y est commencé. La sismique réflexion grand angle, réalisée dans les Alpes, a montré un changement des propriétés physiques du réflecteur Moho avec la profondeur, changement qui se traduit par une diminution de fréquence du signal sismique, telle que celui-ci n'a pu être capté par les sismographes mis en oeuvre pour la sismique réflexion verticale. On peut penser que les terrains situés à cet endroit, sous le Moho actuel, sont en réalité formés de roches crustales, que la sismique a du mal à

Fig. 12 (ci-contre). — Sections sismiques à travers des chaînes orogéniques (position sur la figure 3). Profondeur en secondes temps double (sTD). Vitesse moyenne approximative de 6 km/s. En haut la chaîne hercynienne (380-300 M.a.). En bas, les chaînes tertiaires des Alpes et des Pyrénées (65-5 M.a.). On observe la différence de géométrie du Moho et de la croûte inférieure litée entre ces chaînes d'âges différents. Nord de la France : BF = Faille de Bray. MF = Faille du Midi. PA = Anticlinal de Picardie. SF = Faille de la Seine. Alpes-Jura : JF=Front de déformation du Jura. BB = Bassin de Bresse. ECM = Massif cristallin externe. ICM = Massif cristallin interne. IL = Ligne insubrienne. MC = Massif Central. PF = Front pennique. PP = Plaine du Pô. Pyrénées: AB = Bassin d'Aquitaine. AM = Massif de l'Arize. AZ = Zone axiale. EB = Bassin de l'Èbre. NPF = Faille nord-pyrénéenne. NT = Écailles de Nogueres. PFD = Front de déformation pyrénéen. TP = Bassin de Tremp. VT = Chevauchement hercynien. l = Tertiaire (moins de 65 M.a.). 2 = Socle paléozoïque (plus de 230 M.a.). 3 = Matériel magnétique. 4 = Granite. 5 = Croûte inférieure litée. 6=Autre litage sismique.


C. Bois

distinguer du manteau parce qu'elles ont acquis par métamorphisme des propriétés de vitesse et de densité voisines de celui-ci (éclogites). Dans notre analyse, nous avons signalé à plusieurs reprises la présence dans le manteau de réflecteurs pentes qui prolongent vers le bas des structures de la croûte (fig. 9 à 12). Il peut s'agir de roches crustales dont la composition chimique empêche la transformation en éclogites et qui constituent ainsi des fantômes des structures antérieures. L'exemple le plus spectaculaire est l'ensemble de réflexions à pendage nord observé sous le Moho au nord du profil Pyrénées (fig. 12).

La figure 11 montre les profils qui ont traversé les bassins sédimentaires de Mer Celtique, Manche, Éperon de Goban et Parentis. Là aussi, on observe au niveau de la transition croûte-manteau un contraste remarquable entre les bassins essentiellement formés au cours du Permien-Jurassique (280-140 M.a.) et ceux d'âge crétacé (14090 M.a.). Sous les premiers, la croûte inférieure litée est sans changement d'épaisseur, l'amincissement crustal associé aux bassins étant entièrement concentré dans la croûte supérieure. Au contraire, croûtes inférieure et supérieure sont amincies sous les seconds. Ceci permet de préciser l'époque de la formation du Moho actuel et de la mise en place du litage dans la croûte inférieure. Ce phénomène doit être antérieur au Crétacé inférieur (bassin de Parentis) (140 M.a.) et postérieur au Permo-Trias (200 M.a.), période de formation des bassins de Manche et de Mer Celtique. Le processus serait donc d'âge Trias supérieur-Jurassique inférieur et moyen (200-160 M.a.), période qui correspond à un phénomène de grande ampleur : l'effondrement de la marge de la Téthys et la formation des grands bassins de l'Europe occidentale. Il est accompagné d'un événement thermique régional qui se traduit probablement à la base de la croûte par du métamorphisme et des intrusions plus ou moins horizontales qui peuvent expliquer le litage. Cependant, aucune indication d'un litage de cet âge n'a été observée dans les rares témoins de la croûte inférieure à l'affleurement (Alpes, Pyrénées) ou remontés dans des cheminées volcaniques (Massif Central). L'extension modérée accompagnant la formation de la Téthys peut aussi avoir créé des fractures saturées de fluides conducteurs de l'électricité, comme le suggère la basse résistivité de la croûte inférieure (fig. 9). De telles fractures pourraient former des horizons réflecteurs.

Structure des chaînes orogéniques

Lors de la collision schématisée sur la figure 2 b, les marges des deux continents qui s'affrontent sont profondément déformées. On observe ainsi au niveau de la croûte un raccourcissement horizontal compensé par la formation d'écaillés qui s'imbriquent et s'empilent pour constituer la chaîne orogénique. Les profils de la figure 12 montrent la structure des différentes chaînes traversées par le programme ECORS. De gauche à droite, on observe tout d'abord la flexure de la croûte subductée qui est clairement reflétée par le Moho et la croûte inférieure litée sur les profils Pyrénées et Alpes, et par le Moho vu en grand angle sur le profil nord de la France (Hirn et al, 1980; Matte et Hirn, 1988). Au-dessus de la flexure se développe l'écaillé la plus externe de la chaîne. Elle surmonte un détachement plat qui se suit sur 100 km et émerge au front de déformation (MF, AJF, PFD). Curieusement, les profils SWAT en Mer Celtique ne montrent pas la même géométrie (fig. 10 et 11). Le chevauchement frontal hercynien forme une rampe qui traverse la plus grande partie de la croûte sans détachement plat superficiel. Des chevauchements parallèles apparaissent plus au sud et donnent à la


Le programme ECORS

chaîne un aspect particulier. Ils suggèrent de grandes fractures de la croûte, formées lors de l'étape finale de la collision, lorsque les continents étaient déjà fortement resserrés. La structure de la chaîne aurait eu d'abord une disposition semblable à celle du nord de la France, puis la poursuite du serrage entre les continents aurait développé ces grands chevauchements crustaux tout en déformant le détachement de telle sorte qu'il ne puisse plus être montré par la sismique. Sur la figure 10, les chevauchements tardifs affectent la chaîne jusque dans le secteur de la suture du Lizard. Les structures du front pennique alpin (fig. 12 et 13) sont probablement des structures du même type.

Les chevauchements de toute nature affectent des terrains de plus en plus profonds lorsque l'on se rapproche de la suture entre les deux croûtes (fig. 10 et 12). En profondeur, ces chevauchements doivent s'enraciner dans une zone mécaniquement moins résistante qui permet un découplage entre les terrains sus-jacents fortement déformés et les terrains moins ou autrement déformés plus profondément. La position de cette zone de découplage est l'objet de nombreuses discussions. S'agit-il du Moho à la base de la croûte ou d'un niveau plus profond? Les profils des Pyrénées et des Alpes montrent que le manteau supérieur est impliqué dans le processus d'écaillage, ce qui favorise le second modèle.

Formation des bassins sédimentaires

Les modalités de formation des bassins sédimentaires sont peut-être encore plus débattues que celles des chaînes de montagne. Les profils comme ceux de la figure 11 permettent de discuter les modèles courants. Nous prendrons comme exemple le Bassin Nord-Celtique (Bois et al, 1988 b) (fig. 14). Certains auteurs pensent que ce bassin résulte d'un étirement horizontal de la lithosphère qui a entraîné un amincissement local de la croûte. Cet étirement peut se faire le long d'une grande fracture oblique, rejeu en extension du chevauchement frontal hercynien situé juste au-dessous du bassin sur le profil SWAT 4 (BIRPS et ECORS, 1986; Gibbs, 1987) (fig. 14). Dans ces conditions, le bassin devrait être parallèle au front hercynien; en réalité, il lui est franchement oblique et le bassin recoupe même ce front vers le nord-est (fig. 3). D'autres caractères, comme la géométrie du bassin par rapport à celle de la rampe, rendent ce modèle inacceptable. Un autre modèle d'étirement prévoit d'abord un effondrement par failles du sommet de la croûte puis la subsidence régulière de celle-ci du fait du refroidissement de la lithosphère (McKenzie, 1978). Ces deux phases sont extrêmement difficiles à mettre en évidence dans le bassin nord-celtique, les failles ayant joué de façon plus ou moins continue depuis le Permo-Trias jusqu'au Crétacé supérieur. Il est clair que ces failles sont très raides, et bordent des panneaux où les couches plongent presque toujours vers le centre du bassin. Ceci interdit une extension horizontale importante de la croûte. On constate enfin que la croûte inférieure n'est pas amincie, et que des structures paléozoïques pentées y sont préservées, ce qui exclut tout déplacement horizontal significatif du matériel crustal.

D'autres modèles de subsidence, comme des modèles thermo-mécaniques (Moretti et Froidevaux, 1986) liés à la remontée d'un panache mantellique chaud, ou des modèles non conservatifs qui supposent un métamorphisme profond dans la lithosphère, rendent mieux compte de la forme du bassin et de la faille d'extension horizontale. Cependant, aucun de ces modèles ne peut expliquer l'absence d'amincissement de la croûte inférieure litée sous le bassin. Ceci nous conduit finalement à envisager que la mise en place de ce



Le programme ECORS

litage est postérieure à la formation du bassin et a effacé, en quelque sorte, les traces de la formation de celui-ci (Bois et al, 1988 b).

Quel que soit le modèle de subsidence, le taux d'extension horizontal mesuré dans la croûte supérieure à partir de la géométrie des failles, est bien plus faible que le taux d'amincissement crustal. Or ces deux taux devraient être égaux si l'on suppose la conservation du matériel crustal. Cette différence entre extension et amincissement est particulièrement saisissante sur le profil SWAT 5 (fig. 14) où l'on peut voir que les failles n'ont joué à peu près aucun rôle dans la subsidence d'une croûte amincie d'un bon tiers. Mais on arrive à un résultat analogue dans le bassin de Parentis et sur l'Éperon de Goban (fig. 11) où les failles ont un jeu beaucoup plus important mais où l'amincissement crustal est encore plus considérable. Cette observation suggère donc que des processus profonds ont joué un rôle dans l'amincissement de la croûte et la formation des bassins.

La géométrie du Moho

Les profils ECORS permettent de compléter la carte du Moho en France établie par sismique réfraction et sismique réflexion grand angle. La figure 15 montre que le Moho remonte nettement sous la plupart des bassins comme on pouvait s'y attendre, les masses lourdes du manteau ayant tendance à équilibrer le remplissage sédimentaire léger. C'est le cas des bassins de Mer Celtique, de Manche, du Bassin de Parentis et des fossés tertiaires de la France (Rhin, Rhône, Limagne, Languedoc). Symétriquement, la croûte est plus épaisse sous les chaînes des Pyrénées et des Alpes, ce qui résulte de l'empilement des écailles crustales. En revanche, les données ECORS indiquent aussi un Moho plus profond que la moyenne sous le Bassin de Paris, le nord du Bassin d'Aquitaine et celui de l'Èbre. Pour expliquer de telles anomalies, on peut là encore envisager des phénomènes profonds, comme par exemple un épaississement de la base de la croûte par des intrusions venant du manteau.

Apport et futur du programme ECORS

Les profils sommairement décrits dans cet article illustrent le type de données nouvelles que le programme ECORS a apportées sur la structure et la nature de la croûte. Ces données constituent des contraintes dont il faut tenir compte lors de l'élaboration des modèles de formation des chaînes orogéniques et des bassins sédimentaires. Elles alimentent ainsi de nouvelles recherches qui se traduisent par de nouveaux travaux sur le terrain et au laboratoire. Grâce à la situation géologique particulière de la France, il a été possible d'étudier la plupart des phénomènes géodynamiques essentiels en restant dans

Fig. 13 (ci-contre). — Extrait de la section Alpes dans le secteur du front pennique (position sur la fig. 12). Des réflecteurs pentes rectilignes partent de Bourg-Saint-Maurice et s'enfoncent vers le sud-est jusqu'à 5 sTD (15 km) dans la croûte. Vitesse moyenne approximative 6 km/s.


C. Bois

Fig. 14. — Deux coupes du bassin nord-celtique (position sur la figure 3). Profondeurs en km. Le fort pendage des failles, l'absence de basculement des couches le long de ces failles, l'absence d'amincissement de la croûte inférieure et la préservation dans celle-ci de traits paléozoïques, suggèrent une extension horizontale très modérée de la croûte sous le bassin. 1= Tertiaire (65-5 M.a.). 2 = Crétacé supérieur (110-65 M.a.). 3 = Crétacé inférieur (140-110 M.a.). 4 = Jurassique supérieur (160-140 M.a.). 5 = Jurassique moyen et inférieur (200160 M.a.). 6 = Permo-Trias (280-200 M.a.).

206


Le programme ECORS

l'espace national ou à son voisinage immédiat. Parmi les différents programmes européens, américains et australien, le programme ECORS est propablement le seul a avoir pu observer à la fois les racines crustales des chaînes orogéniques (par exemple les Pyrénées) et la remontée spectaculaire du manteau sous un bassin cratonique (par exemple Parentis).

On peut considérer maintenant plusieurs aspects dans l'avenir du programme ECORS. Tout d'abord, de nombreuses structures du territoire national n'ont pas été explorées ou sont insuffisamment connues. Des profils à travers le Massif Central, les bassins de Paris, d'Aquitaine et du Sud-Est, et les Alpes du sud permettraient de compléter le réseau d'information actuellement disponible. Les deux derniers projets, en particulier, sont

207

Fig. 15. — Esquisse de la géométrie du Moho d'après Hirn (in Weber et al., 1980) complété par les données de sismique réflection verticale profonde. (Profondeur en km). Observer que la profondeur du Moho est supérieure à la normale (30-35 km) sous le bassin de Paris. 1 = Affleurement du substratum anté-mésozoïque (plus de 230 M.a.). 2 = Bassins mésozoïques et tertiaires (moins de 230 M.a.). 3 = Moho non visible sur la sismique réflexion verticale. 4 = Image brouillée de la transition croûte-manteau. 5 = Moho haut. 6 = Moho bas. Ligne barbelée = chevauchement frontal hercynien.


C. Bois

indispensables pour reconstituer en trois dimensions la cinématique de collision des Alpes, un phénomène complexe qui a entraîné non seulement de grands chevauchements et des nappes, mais aussi des déplacements latéraux importants liés à l'indentation de l'arc alpin entre la Provence et la frontière suisse. D'autre part, les paragraphes précédents ont montré que de nombreuses questions fondamentales restaient en suspens, comme par exemple la nature et le mode de formation du litage de la croûte inférieure. Tous les projets en France s'appuieront non seulement sur les profils déjà réalisés, mais aussi sur la masse d'informations géologiques accumulées depuis plus d'un siècle dans l'un des pays du monde les mieux explorés géologiquement. En revanche, de tels projets présentent l'inconvénient d'étudier des phénomènes structuraux complexes ayant résulté d'orogenèses superposées et qui ne sont plus actives actuellement. C'est pourquoi des profils sont envisagés dans des zones où les phénomènes tectoniques sont de grande ampleur, mieux isolés, voire actifs : Méditerranée orientale, Afars, Oman, Tibet, Indonésie, etc.

L'une des ambitions du programme ECORS était de faire progresser la méthode sismique d'exploration crustale. Force est de reconnaître que pour diverses raisons, les essais originaux de mise en oeuvre ont été limités à quelques tirs latéraux ou longitudinaux par rapport aux dispositifs d'enregistrement réguliers. Des développements méthodologiques plus systématiques peuvent être envisagés, comme un réseau de profils de faible espacement pour mieux comprendre la géométrie dans les trois dimensions de certains réflecteurs, des distances variées entre source et capteurs, l'utilisation des ondes de cisaillement, etc. Au niveau du traitement des données, des travaux de recherche sont entrepris depuis quelques années dans plusieurs centres et ont déjà donné des résultats intéressants. Quels que soient les développements futurs du programme ECORS, la masse des données déjà acquises mérite d'être exploitée à nouveau, avec des idées différentes. Les résultats que nous venons de présenter doivent donc être considérés comme préliminaires, mais nous pensons qu'ils sont suffisamment attrayants pour justifier la poursuite de l'effort d'imagerie de la croûte terrestre en France entreprise par le programme ECORS (1).

NOTE

(1) Le programme ECORS constitue un effort collectif. De nombreux géologues et géophysiciens sont engagés dans les diverses équipes du Programme dont les responsables sont M. Cazes, G. Torreilles, C. Bois, B. Pinet, J.-C. Sibuet, P. Choukroune, A. Nicolas, A. Hirn, J.-P. Brun, J.-P. Marthelot, J. Burrus et J. L. Olivet. Le président du Comité de Direction du projet est L. Montadert, celui du Comité Scientifique V. Courtillot et la Direction du programme est assurée par C. Bois, B. Damotte et A. Hirn.

RÉFÉRENCES

Bayer R., Cazes M., Dal Piaz G. V., Damotte B., Elter J., Gosso G., Hirn A., Lanza R., Lompardo B., Mugnier J. L., Nicolas A., Nicolich R., Polino R., Roure F., Sacchi R., Scarascia S., Tabaco L, Tapponnier P., Tardy M., Tayor M., Thouvenot F., Torreilles G., Villien A., 1987, C.R. Acad. Sci. Paris, 305, II, 1461.

BIRPS et ECORS, 1986, J. Geol. Soc. London, 143, 45.

Bois C, Cazes M., Damotte B., Galdeano A., Hirn A., Mascle A., Matte P., Raoult J. F., Torreilles G., 1986, in « Reflection Seismology: a Global Perspective » (Barazangi M., Brown L., eds.), AGU Geodynamic Séries, 13, 21.

Bois C, Cazes M., Hirn A., Mascle A., Matte P., Montadert L., Pinet B., 1988 a, Tectonophysics, 145, 253.

Bois C, ECORS Scientific Party, 1988 b, Ann. Soc. Géol. Belgique, 111, n° 2, 257.


Le programme ECORS

Bois C, Lefort J. P., Le Gall B., Sibuet J.-C, Gariel O., Pinet B., Cazes M., 1989, Tectonophysics, à paraître.

Cazes M., Torreilles G., Bois C, Damotte B., Galdeano A., Hirn A., Mascle A., Matte P., Pham V. N., Raoult J.-F., 1985, Bull. Soc. Géol. France, 8,1, 6, 925.

Cazes M., Mascle A., Torreilles G., Bois C, Damotte X., Matte P., Raoult J.-F., Hirn A., Galdeano A., 1986, Nature, 323, 144.

ECORS Pyrénées team, 1988, Nature, 331, 508.

Gibbs A. D., 1987, Tectonophysics, 133, 189.

Hirn A., Daignières M., Gallart J., Vadell M., 1980, Geophys. Res. Lett., 7, 4, 263.

Matte P., 1986, Tectonophysics, 126, 329.

Matte P., Respaut J.-P., Maluski J., Lancelot J., Brunel M., 1986, Bull. Soc. Géol. France, 1, 2, 141.

Matte P., Hirn A., 1988, Tectonics, 7, 2, 141.

McKenzie D., 1978, Earih Planet. Sci. Lett, 40, 25.

Moretti I., Froidevaux C, 1986, in « Thermal Modelling in Sedimentary Basins » (Burrus J., ed.), Technip, Paris, 107.

Peddy C, Pinet B., Masson D., Sowtton R., Sibuet J. C, Warner M. R., Lefort J. P., Schroeder I. I, (BIRPS and ECORS), 1989, J. Geol. Soc. London, 146, 427.

Phillips W. E. A., Stillman C. J., Murphy J., 1976, J. Geol. Soc. London, 132, 579.

Pinet B., Montadert L., ECORS Scientific Party, 1987, Geophys. J.R. astron. Soc, 89, 305.

Weber C, Hirn A., Philip H., Roche A., 1980, 26e Congr. Géol. Intern., Paris, Colloque C7, Mém. BRGM, 107, 25.

BIBLIOGRAPHIE

Allègre C. J., 1983, « L'écume de la Terre », Fayard, Paris, 366 p.

Allègre C. J., 1985, « De la Pierre à l'Étoile », Fayard, Paris, 300 p.

Barazangi M., Brown L. (eds), 1986, « Reflection Seismology: a Global Perspective », AGU Geodynamic Séries, 13, 311 p., 14, 339 p.

Cazes M., Torreilles, G. (eds), « Étude de la croûte terrestre par sismique profonde, Profil Nord de la France, Structure Hercynienne », Technip, Paris, 260 p. 15 pl.

Foucault, Raoult J. P., 1984, Dictionnaire de Géologie, éd. revue et augmentée, 347 p., Masson, Paris.

Matthews D., Smith C. (éd.), 1987, « Deep Seismic Reflection Profiling of the Continental Lithosphère », Geophys. J. astr. Soc, 89, 1, 495 p.

Trùmpy R., 1988, Cent ans de tectonique de nappes dans les Alpes, La Vie des Sciences, 5, 1.

209



LA VIE DES SCIENCES —

Les « nouveaux » supraconducteurs et leurs applications potentielles

Pierre AIGRAIN

Membre de l'Académie

Depuis leur découverte en 1911, les propriétés de supraconductivité de certains métaux à très basse température ont toujours fasciné les physiciens du solide. Mais celles-ci sont restées essentiellement des curiosités de laboratoire, jusqu'à la découverte récente des supraconducteurs dits « à haute température critique ». On ne comprend pas encore bien les mécanismes physiques responsables des propriétés de ces nouveaux composés, non métalliques et supraconducteurs dès la température de l'azote liquide, mais déjà s'ouvre un champ d'applications. Ce champ est moins grand qu'on aurait pu le croire initialement, notamment en raison de sérieuses difficultés technologiques. Il ne touche aujourd'hui que quelques domaines bien précis, mais où ces « nouveaux » supraconducteurs apparaissent comme irremplaçables. Cependant, il ne semble pas que l'on doive envisager l'existence du supraconducteur de rêve « à température ambiante », susceptible d'entraîner de nombreuses applications industrielles, avant longtemps.

Un peu d'histoire

En 1911 K. Onnes découvre que la résistivité électrique p de nombreux métaux devient nulle en dessous d'une température « critique » (4,2 K pour Hg, 7,2 K pour Pb). Meissner, dans les années vingt, montre que la supraconductivité a pour effet d'exclure le champ magnétique de l'intérieur du métal (perméabilité magnétique u=0). Si le champ appliqué dépasse une limite (faible, quelques centaines d'oersteds), la supraconductivité disparaît.

Dans les années trente, des théories phénoménologiques (London) permettent de mieux comprendre le phénomène, sans en expliquer les causes physiques. Celles-ci seront

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 3, p. 211-229


P. Aigrain

élucidées en 1957, toujours pour les métaux, en 1957 par Bardeen, Cooper et Schrieffer (Prix Nobel) : ce fut la « Théorie BCS ». En 1962, B. Josephson en déduit la prédiction du comportement de «jonctions tunnel » entre supraconducteurs (nouveau Prix Nobel).

Vers la même période on découvre et explique les propriétés des supraconducteurs « de type II » (voir plus loin), pour lesquels l'application d'un champ magnétique parfois même intense (20 teslas, soit 200000 gauss) reste compatible avec p=0. Cela conduit à l'utilisation de supraconducteur pour la génération de champs intenses.

Les principes de base

Sans rentrer dans les détails, ni dans les discussions en cours sur le mécanisme physique de la supraconductivité de ces nouveaux matériaux, sur lequel les théoriciens sont loin d'être d'accord, il est utile de rappeler quelques principes de base qui sont presque certainement applicables tant aux supraconducteurs « classiques » qu'aux « nouveaux ».

Les « paires » de porteurs de charges

Dans un conducteur normal, le courant est transporté par des charges électriques qui sont des électrons (charge —a), soit parfois — et c'est le cas des supraconducteurs nouveaux — des « trous positifs » se comportant comme des charges +e. Dans les deux cas, ces charges ont une « masse effective » m* définie par :

où E est l'énergie cinétique d'un porteur et p sa quantité de mouvement. La masse m* est positive, du même ordre de grandeur que me (masse de l'électron libre) mais peut en différer du fait de l'interaction avec le réseau cristallin.

Pour qu'il y ait supraconductivité, il faut que ces porteurs soient capables de former des « paires » où le mouvement de deux porteurs pas trop éloignés est corrélé. Cela implique qu'il existe une interaction attractive entre porteurs susceptible de surmonter leur interaction coulombienne répulsive. Dans la théorie BCS, cette interaction est due à la polarisation des ions du réseau par les électrons, dont la répulsion coulombienne est réduite par l'écran fourni par les nombreux autres électrons. Dans les nouveaux supraconducteurs, l'origine de l'attraction est encore discutée.

Propriétés des paires

1. La charge d'une paire est ±2e, sa masse effective 2m*.

2. Le spin d'une paire est entier (0 ou 1, en pratique 0). Les paires satisfont à une statistique de Bose-Einstein


Les « nouveaux » supraconducteurs

ou f (E) est le nombre de paires dans l'état d'énergie E, kB est la constante de Boltzman. µ est le potentiel chimique », énergie de référence µ < 0) telle que f(E) n(E) dE = N, le nombre total de paires, n (E) dE représentant le nombre d'états d'énergie dans l'intervalle dE autour de E. En trois dimensions, n(E) ~ E1/ 2 converge vers une valeur finie même pour u=0. En d'autres termes, à basse température une proportion finie des paires se trouve dans le même état E = 0 (condensation de Bose-Einstein, analogue à celle observée dans l'hélium liquide). On appellera dans la suite Ns la densité de porteurs formant Ns/2 paires condensées et Nn la densité de porteurs « normaux ».

3. Pour dissocier une paire condensée il faut une énergie finie 2AE0 à T=0. A température finie cette énergie baisse et devient 2ÀE<2AE0. Elle s'annule, ainsi que Ns, à la température critique Tc.

4. Les paires se meuvent sans résistance, du fait même qu'il faut une énergie finie pour diffuser le porteur d'une paire. En mécanique quantique, l'action d'un champ magnétique peut être introduite en remplaçant dans l'hamiltonien la quantité de mouvement p par p—q A où A est le potentiel vecteur (B=rot A).

Donc pour les paires (q= ±2e), pour lesquelles p=2m*v on aura :

et une densité de courant donnée par l'équation de London :

En combinant cette dernière avec l'équation de Maxwell on obtient, après calcul

Le champ magnétique H décroît sur une distance H appelée longueur de pénétration de l'extérieur du supraconducteur vers l'intérieur : d'où l'effet Meissner.

5. Les porteurs constituant les paires sont corrélés sur une distance spatiale finie appelée t, (longueur de corrélation).

Toutes ces notions sont valables tant pour les supraconducteurs classiques que pour les nouveaux supraconducteurs.

Dans les années 70 et 80 on découvre la supraconductivité de matériaux non métalliques : matériaux organiques (Orsay) ou oxydes non stoechiométriques (Sr Ti 03 réduit) toujours à moins de 15 K.

Enfin, en 1986, Mueller et Bednorz découvrent la supraconductivité de La1_xSrxCu04 (matériau initialement synthétisé par B. Raveau, à Caen) vers 40 K. C'est le début des


P. Aigrain

« nouveaux supraconducteurs » qui ont conduit à un nouveau Prix Nobel, suivi d'une explosion de résultats :

- 1987 : Chu et al. (Texas)

— 1988 : Un groupe de Tsukuba (Japon, non publié) puis Chu et al.

et composition analogue avec du tallium, etc.

(Dans ces formules, x, y, e, etc sont des nombres inférieurs à 1, et résultent de la complexité de la structure cristalline.)

La quantification du flux

Soit un tube de supraconducteur à l'intérieur duquel passe un champ magnétique. Du fait du théorème de Gauss :

le flux magnétique est

puisque p — q A = 0 (pas de pertes).

Mais en mécanique quantique, la fonction d'onde W comprend un facteur de phase

(h=constante de Planck). Après un tour complet on doit retrouver la même phase à un multiple n de 2 n près.

214


Les « nouveaux » supraconducteurs

où n est entier. Le flux magnétique est quantité en unités de

(soit environ 2.10 9 oersted sur 1 cm2).

On verra l'importance de ce phénomène par la suite. Il faut signaler que <D0 ne dépend que des constantes fondamentales de la physique, R et e, et pas du matériau. Sa mesure permet de vérifier qu'on a bien affaire à des paires (de charge 2 e et non pas e).

Les supraconducteurs de type I et de type II; les aimants

Soit un supraconducteur, par exemple de forme sphérique, placé dans un champ magnétique extérieur pas trop élevé B0. Si l'intérieur reste supraconducteur, le champ ne pénètre que dans une couche mince d'épaisseur X (fig. 1). La présence du supraconducteur augmente donc B dans certaines régions de l'espace, donc aussi la densité d'énergie magnétique Bz/2\i0. L'énergie totale augmente donc d'environ (B2/4µ0)V (V étant le volume du supraconducteur).

Si ce terme est supérieur à la différence d'énergie libre entre l'état normal et l'état supraconducteur, le matériau retourne à l'état normal : il existe un « champ critique » Hc.

Mais il peut y avoir une autre possibilité : le champ peut pénétrer dans des « tubes » devenus normaux (non supraconducteurs). Cela réduit considérablement l'énergie magnétique extérieure, mais coûte de l'énergie libre. Remarquons que le flux à travers chaque tube (encore appelé vortex puisqu'entouré d'un courant circulant dans une couche d'épaisseur de l'ordre de X) doit être un multiple entier de <D>0. En pratique il est égal à <ï>o.

Laquelle de ces deux situations est la plus stable ? Un calcul détaillé montre que cela dépend de la valeur relative de X et c\. Si t,>X on est dans le cas de la figure 1. Si, au contraire X>£„ le coût énergétique du passage à l'état normal sur le volume faible de diamètre £, ainsi que l'énergie cinétique des électrons dans la couche d'épaisseur X (qui varie comme 1/X) est réduit et la situation figure 2 est la plus stable.

Les supraconducteurs en action

Il y a donc deux types de supraconducteurs :

— £, > X : supraconducteur « de type I ». C'est le cas des métaux purs bien cristallisés, car les impuretés ou défauts de réseau ont pour effet de réduire ï;. Par exemple pour le plomb à très basse température Ç = 83 nm, X=40 nm.

— i; < X : supraconducteur « de type II ». C'est le cas de nombreux alliages métalliques (exemple PbBi avec ^ = 20 nm, A.=200nm), composés intermétalliques (NbN avec ^ = 3 nm, À,=200 nm) et, on le verra, des nouveaux supraconducteurs.


P. Aigrain

Fig. 1. — La présence d'un corps supraconducteur (SC) plongé dans un champ magnétique dévie les lignes de force, à condition que la valeur du champ soit inférieure à une certaine valeur critique Bc. Dans ce cas, l'énergie magnétique augmente au voisinage du supraconducteur.

Fig. 2. — Si le champ magnétique dépasse le champ critique Bc, l'énergie libre du corps est plus faible que celle du milieu environnant, et ce corps redevient normal : il perd sa supraconductivité. Alors les lignes de champ pénètrent à l'intérieur.

216


Les « nouveaux » supraconducteurs

Dans un supraconducteur de type II, le champ commence à pénétrer dès qu'il atteint une valeur Hc, plus faible que HC1 défini ci-dessus. Mais il reste des régions supraconducteurs autour des vortex jusqu'à un champ HC2 plus élevé que Hc. On a, à peu près, HC1 - HC2 = HC.

HC2 est déterminé par la coalescence des vortex à champ très fort et peut être élevé (10 à 40 teslas!) dans des alliages tels Nb Ti, ou des composés intermétalliques tels Nb Sn. Comme la résistance reste nulle (tant que le courant n'est pas trop élevé, voir cidessous), c'est grâce au supraconducteur de type II que l'on peut réaliser des champs magnétiques intenses avec des supraconducteur(s), dont c'est, à ce jour, l'application principale.

Le courant critique

Même dans une géométrie où le courant est parallèle aux vortex, il existe une densité de courant critique intrinsèque : celle où l'énergie cinétique des paires devient supérieure à la différence d'énergie libre supraconducteur-normal. Elle n'est pas très élevée, en général, ce qui limite les performances pratiques. En revanche, si le courant a une composante perpendiculaire aux vortex, ou, ce qui revient au même, s'il existe un gradient de champ, il y a une force par unité de longueur qui tend à déplacer le vortex perpendiculairement au courant (analogue à l'effet Magnus en aérodynamique), ou, d'une manière équivalente, vers les régions de champ faible. Or les mouvements du vortex créent une différence de potentiel d'induction de signe opposé au courant : le matériau apparaît résistif. Ce qui rend cependant possible l'utilisation des supraconducteurs de type II c'est que les vortex tendent à s'accrocher sur les impuretés ou défauts de réseau. Il faut une force minimale, donc une densité de courant suffisante jc pour les décrocher. La résistance reste nulle jusqu'à jc, qui dépend non seulement du matériau mais de sa préparation (écrouissage, etc.) : un bon matériau de type II doit être « sale ».

En courant alternatif, même basse fréquence, des pertes peuvent cependant apparaître. Les vortex se comportent comme des cordes tendues (énergie proportionnelle à la longueur). Ils peuvent donc vibrer entre deux points d'ancrage. Si ces fréquences propres de vibration sont dans la gamme des fréquences utilisées (cordes longues, point d'ancrage éloignés les uns des autres) il y aura des pertes. On les réduit en utilisant des conducteurs très fins (1 µm par exemple) obtenus par cotréfilage dans une matrice de métal normal (Cu par exemple). Cela assure deux avantages : la longueur des vortex est toujours inférieure au diamètre du fil, et, en cas de décrochage accidentel d'un vortex, due, par exemple, à l'agitation thermique, la matrice shunte le courant et élimine la chaleur produite, évitant ainsi que tout le supraconducteur ne transite vers l'état normal avec transformation en chaleur de toute l'énergie magnétique de l'aimant, ce qui pourrait conduire à de véritables explosions !

Signalons que le courant critique je décroît avec la température bien avant la température critique Tc : un supraconducteur de type II n'est guère utilisable à plus de Tc/2.

Pour être technologiquement utilisable, et compte tenu de ce que seule une partie du câble cotréfilé est en supraconducteur, il faut que le matériau ait un jc de l'ordre de 105 A/cm 2 en présence du champ magnétique désiré. On obtient ce résultat avec Nb Ti jusque vers 10 teslas, avec Nb3 Sn jusque vers 20 ou 25 teslas selon le volume de l'aimant.


P. Aigrain

Enfin il ne faut pas négliger l'importance des forces mécaniques auxquelles sont soumis les bobinages. La pression magnétique (énergie par unité de volume) est d'environ 4 atmosphères (4.105 pascals) pour 1 tesla et croît comme B2 (donc 1600 atmosphères à 20 teslas) !

Propriétés hyperfréquence

Une autre cause de pertes apparaît en hyperfréquence/(même pour un supraconducteur de type I). Le champ magnétique hyperfréquence pénètre en effet sur une profondeur X dans laquelle existe donc aussi un champ électrique d'induction proportionnel à / Celuici agit sur les électrons normaux qui sont dissipatifs. Les pertes dans un supraconducteur en hyperfréquence ne seront donc réduites que s'il n'y a pratiquement pas d'électrons normaux, ce qui implique que la température est basse devant Tc(T<Tc/2).

Des pertes « extrinsèques » dues à un mauvais état de surface sont également observées. Aussi faut-il soigneusement préparer les supraconducteurs si on veut les utiliser, par exemple, pour réaliser des cavités hyperfréquence à pertes réduites. Il semble qu'on puisse, avec beaucoup de soin, atteindre des facteurs de qualité Q de l'ordre de 104. Le projet américain de SSC (Supraconducting Super Collider) est basé sur des cavités de ce type.

L'effet Josephson

Une jonction Josephson est constituée de deux supraconducteurs séparés par une région mince (au plus quelques Q non supraconductrice. Le cas le plus simple est celui où cette région est une couche isolante, et où les deux supraconducteurs sont des matériaux identiques. C'est le seul qui sera considéré ici. Hors leur intérêt propre comme moyen d'étude de la supraconductivité, les jonctions Josephson sont à la base de nombreuses applications des supraconducteurs dans le domaine des courants faibles (électronique) proposées ou déjà utilisées.

Josephson (1962) avait prévu théoriquement — et l'expérience a confirmé — que de telles jonctions ont les propriétés suivantes :

1. Les paires peuvent passer par effet tunnel à travers la jonction sans se dissocier, tant que la tension appliquée V n'est pas suffisante pour fournir l'énergie de dissociation : V<V9; 2eV9 = 2AE.

2. Évidemment, à l'équilibre, il y aura autant de paires passant de droite à gauche que dans l'autre sens. Mais, s'il y a une différence de phase a entre la fonction d'onde des paires des deux côtés de la jonction, il y aura une différence de quantité de mouvement p, donc de densité de courant (2Nsep)/(2m*). Un courant de paire I peut donc passer sans pertes, lié à cette différence de phase :

où Ig est proportionnel à la surface de la jonction et décroît exponentiellement avec son épaisseur (effet tunnel). Le courant de paires ne peut donc dépasser I9 Si l'on impose un


Les « nouveaux » supraconducteurs

courant I > Ig, la différence de potentiel à travers la jonction monte à Vg. Au-delà, le courant est composé de porteurs normaux (paires dissociées) et devient à peu près linéaire en V. D'où la courbe caractéristique I (V) de la figure 3.

3. Un courant I > Ig peut donc passer même à tension nulle. Mais si on impose une tension V, on peut montrer (équation de Schrôdinger dépendant du temps) que la différence de phase a varie selon

2e Le courant oscille donc à une fréquence — V = V€>0, soit environ 484 MHz/uV.

R

Le coefficient ne dépend que des constantes fondamentales de la physique !

4. Il existe un effet conjugué : si la jonction est irradiée par une source hyperfréquence de fréquence f(hf<AE) la courbe I(V) présente des « marches » lorsque V vaut

219

Fig. 3. — Propriétés du passage du courant électrique dans le cas d'une jonction Josephson (une couche isolante, par exemple, prise entre deux couches supraconductrices). Dans un supraconducteur, le courant est transporté par des paires de porteurs (électrons interagissant avec un réseau cristallin). Tant que la tension appliquée V ne dépasse pas la tension de dissociation Vg, les paires peuvent passer par effet tunnel dans la jonction : le courant a une valeur constante, Ig, qui dépend des caractéristiques géométriques de la jonction. La jonction se comporte alors comme un supraconducteur. Si V dépasse Vg, les paires de porteurs sont dissociées et la jonction dans ce cas se comporte à peu près comme un condensateur ordinaire.


P. Aigrain

5. Le matériau de la jonction n'étant pas supraconducteur, un champ magnétique peut le pénétrer. Mais le déphasage a variera alors le long de la jonction, car A aura une composante parallèle à celle-ci. D'où interférence entre les courants de paires, donnant un résultat analogue au phénomène bien connu de la diffraction de la lumière par une fente (Fraunhôffer)

Il suffit d'un quantum de flux <D0 pour que I s'annule !

Les applications des jonctions Josephson

Les propriétés spectaculaires des jonctions Josephson ont bien sûr inspiré beaucoup de projets d'applications, dont certaines déjà utilisées. Signalons, entre autres :

— La détection d'ondes électromagnétiques. La non linéarité très forte de la courbe I(V) au voisinage de Vg, et l'absence de pertes pour V < Vg font des jonctions Josephson le meilleur détecteur connu d'ondes électromagnétiques. Ceci est déjà appliqué en radioastronomie.

— les oscillateurs accordables. On utilise la propriété 3 ci-dessus. Les puissances émises sont cependant très faibles, et on ne peut les utiliser que pour piloter un amplificateur à très faible bruit.

— les étalons de tension électrique. On utilise la propriété 4. Comme on sait mesurer / avec une très grande précision, on dispose d'un étalon de tension idéal : on peut rattacher la définition même du volt à celle de la seconde à travers les constantes fondamentales e et h (déjà utilisé).

— les circuits logiques à contrôle magnétique. On utilise la propriété 5. Le champ magnétique (très faible) produit par un ou plusieurs supraconducteurs placé sous la jonction (géométrie de la figure 4) module le courant de paires. En ajoutant un détecteur de seuil (autre jonction) on peut ainsi réaliser des « portes à logique majoritaire », dont les propriétés seraient très proches de celles désirées pour des « circuits neuronaux ». De tels systèmes ne peuvent pas, malheureusement, être très denses, car il faut éloigner les portes les unes des autres de plusieurs fois leurs dimensions latérales pour éviter que les champs magnétiques appliqués à une jonction ne perturbent les voisines !

— les portes logiques « dipoles ». On peut aussi utiliser le fait qu'à V a Vg, le courant peut être transporté par paires (sans perte), mais que, si l'on a momentanément dépassé, il subsiste un faible courant d'électrons normaux, avec un courant de paire nul. Cela permet de réaliser des portes logiques à deux bornes simples et compactes. Toutefois les composants « dipôles » (à deux bornes) sont d'emploi difficile dans des circuits complexes.

Remarque sur les portes logiques : on sait déjà réaliser des circuits logiques grâce aux semiconducteurs. Il est donc utile de comparer les jonctions Josephson à ce qu'on peut obtenir avec des semiconducteurs fonctionnant aux mêmes températures (4 ou 77 K) et


Les « nouveaux » supraconducteurs

basés sur les composés III-V (GaAs ou peut-être InAs). On peut dire, pour simplifier, que :

(a) Les jonctions Josephson ne sont pas plus rapides que les semiconducteurs (quelques picosecondes). En effet l'importante capacité de la jonction ralentit les transitions.

(b) Les jonctions contrôlés magnétiquement donnent des circuits moins compacts, mais permettent peut-être de réaliser des logiques plus souples. Les jonctions dipoles sont compactes, mais il n'est pas évident qu'au niveau d'un circuit complet le désavantage de n'avoir que deux bornes ne crée pas une complexité qui détruise cet avantage apparent.

(c) Avec les supraconducteurs classiques, Vg est très faible (quelques mV). Cela complique le couplage avec des périphériques (clavier, écran, imprimante... et utilisateur) qui sont, eux, à température ambiante.

(d) Le seul avantage marqué des circuits Josephson est qu'ils consomment peu d'énergie. Non que l'économie d'énergie soit un problème sérieux en informatique, mais cela simplifie l'évacuation des calories dans les systèmes très denses. Or la densité est nécessaire pour pouvoir calculer très vite : en quelques picosecondes, la lumière (ou tout autre signal) ne peut parcourir plus de quelques millimètres !

Vers les nouvelles applications

Les "Squids"

Un squid (en anglais : Supraconducting Quantum Interférence Device) est un circuit à deux branches comportant chacune une jonction Josephson (fig. 5 a).

Fig. 4. — Circuit logique à contrôle magnétique. Ces circuits utilisent les propriétés des supraconducteurs dans les jonctions Josephson en présence de champ magnétique. Le champ, très faible, est produit par un ou plusieurs supraconducteurs sous la jonction, et on utilise l'effet de seuil pour le passage du courant des paires pour créer une « porte à logique majoritaire ».


P. Aigrain

La présence des jonctions permet à un flux magnétique <5 arbitraire de traverser la boucle formée par les deux branches. Mais ce flux introduit un déphasage entre les courants de paires traversant chaque branche, et donc une interférence, tout à fait analogue à ce qu'on aurait en optique dans une expérience du type trous d'Young.

En courant continu la tension (pour un courant constant I < Ig) est une fonction périodique du flux, de période <Ù0 (fig. 5 b). On imagine bien qu'en se plaçant à un point

Fig. 5. — Un « squid » (supraconducting quantum interférence device). Ce dispositif est un circuit à deux branches dont chacune comporte un jonction Josephson, et plongé dans un champ magnétique (a). Le courant des paires passe dans chacune des branches avec un certain déphasage. La tension appliquée V étant une fonction périodique du flux magnétique 3>, de période le « quantum de flux » <b0(b), on peut obtenir de véritables interférences entre les deux courants. En ajustant bien la tension, ce dispositif permet de mesurer des champs magnétiques extraordinairement faibles, de l'ordre de 10-11 oersted.


Les « nouveaux » supraconducteurs

d'inflexion on peut détecter facilement des variations de flux très faibles, de l'ordre de 10"2<I>o ou mieux, donc, pour une boucle de 1 cm 2, 10-11 oersted! Aussi les squids sont-ils les magnétomètres les plus sensibles qu'on puisse imaginer.

On peut aussi alimenter le circuit en courant alternatif haute fréquence, ce qui est avantageux par rapport au bruit de fond des amplificateurs associés. On perd théoriquement en sensibilité, mais on gagne en stabilité et commodité d'emploi, et il y a peu de cas où l'on ait besoin de la sensibilité maximale. Par exemple, pour la détection de sousmarins en plongée, on est gêné par des fluctuations naturelles du champ terrestre, de l'ordre de 10- 6 oersted, dû à des courants ionosphériques. Comme ces fluctuations sont corrélées sur des distances de l'ordre du kilomètre, on peut partiellement s'en affranchir en réalisant des gradientmètres (2 squids opposés séparés) mais en perdant en sensibilité. Signalons aussi qu'un squid ne détecte qu'une composante de H (perpendiculaire au plan du squid), ce qui implique soit que son orientation dans l'espace soit maintenue à quelques 10- 9 radians près, soit qu'on combine plusieurs squid dont l'orientation mutuelle est connue à la même précision. Ce n'est peut-être pas impossible, mais ce n'est pas facile.

Une autre application possible des squids consiste en un convertisseur analogique — digital. Le principe — pas la réalisation pratique, bien plus difficile! — en est donné (fig- 6).

Une série de squids (1 par bit) reçoit un flux proportionnel au courant d'entrée et valant al, (1/2) al, (1/4) al etc. pour chaque étage. Chaque squid est suivi d'un comparateur de voltage (une jonction Josephson) dont la tension de sortie vaut 0 ou V9 selon que le flux qui le traverse est compris entre (N + 3/4)4»0 et (N + 5/4) <£0, et entre (N+l/4) O0 et (N+3/4)$0. On se convainc facilement que ces tensions de sortie sont le code binaire du courant d'entrée (de préférence le code binaire réfléchi). L'intérêt de tels convertisseurs est qu'ils pourraient peut-être fonctionner à cadence beaucoup plus haute (109 échantillons par seconde, par exemple) que les circuits classiques.

Un phénomène peu utilisé : l'inductance inertielle

On sait qu'un conducteur parcouru par un courant I crée dans son voisinage un champ magnétique H et une induction B. Il en résulte une augmentation de l'énergie totale :

L'inductance du conducteur peut être définie comme :

Mais il y a un deuxième terme dans l'énergie totale : c'est l'augmentation d'énergie cinétique des porteurs de charge due à leur vitesse d'ensemble et qui vaut :


P. Aigrain

v étant la vitesse des porteurs.

Comme v est proportionnel au courant I, E est proportionnel à l 2, d'où une inductance inertielle qui, tous calculs faits, vaut

ou

/ est la longueur du conducteur et s la section.

Ce terme est généralement inobservable dans un conducteur normal, parce que masqué par sa résistance

Il n'en est pas de même dans un supraconducteur où p est nul. Par exemple, si l'on considère une ligne de transmission composée de deux couches très minces de supraconducteur, séparées par un diélectrique lui aussi très mince, l'inductance inertielle peut devenir significative devant l'inductance magnétique (s faible, donc L; élevé, volume faible donc Lm faible).

Fig. 6. — Principe d'un convertisseur analogique-digital utilisant des squids. Le dispositif convertit la tension analogique d'entrée V en tensions de sortie dont l'ensemble représente son code binaire. Difficile à réaliser, son intérêt serait de fonctionner beaucoup plus rapidement que les convertisseurs classiques (jusqu'à 1 GHz).


Les « nouveaux » supraconducteurs

La vitesse de propagation d'une onde le long de la ligne en est réduite de sa valeur classique :

s étant la constante diélectrique de l'isolant et devient :

où S; est l'épaisseur de l'isolant, 5SC celle du supraconducteur. Cette dernière ne peut évidemment être inférieure à quelques "t, sans perturber la supraconductivité. Ce phénomène peut être gênant lorsqu'on veut utiliser les supraconducteurs pour assurer des interconnections en électronique : il ne faut pas trop réduire ô; et ôsc. Il peut aussi, on le verra plus loin, être à la base d'applications encore peu explorées.

Les mesures bolométriques

Une des premières applications des supraconducteurs, historiquement, a été à la détection d'ondes (hyperfréquence et IR, phonons dans des cristaux, etc. par échauffement). On peut utiliser la variation rapide de la résistance avec la température juste audessus de la température critique. La sensibilité est alors limitée par le bruit de fond de la résistance non nulle dans cette gamme de température, mais reste élevée à très basse température supraconducteurs classiques.

On peut aussi utiliser la variation rapide de l'inductance L; avec la température en dessous de Tc et gagner ainsi en sensibilité, au prix de quelques complexités technologiques.

Les nouveaux supraconducteurs : avantages et inconvénients

Si la découverte des nouveaux supraconducteurs, tel Y02Cu307_8, a provoqué une telle explosion des recherches, c'est qu'on en attend des avantages technologiques évidents et réels. Même si on doit travailler à 77 K (azote liquide, car la température ambiante est loin d'être atteinte, et est peut-être inaccessible) les avantages sont nombreux. L'azote liquide est bon marché, largement disponible partout. Sa chaleur de vaporisation est de l'ordre de 100 fois celle de l'hélium, et l'énergie nécessaire pour le reliquéfier est de 10 à 20 fois sa chaleur d'évaporation contre près de 1000 fois pour l'hélium. Et l'hélium fuit à travers de nombreux matériaux et les moindres fissures.

Sans doute la marge entre 77 K et les Tc de 92 K des composés de Y, Ba, Cu O estelle un peu faible pour beaucoup d'applications. Même les jonctions Josephson ne sont pas utilisables près de Tc, à cause d'un important « courant de fuite » de porteurs normaux à V<V3), mais l'apparition de nouveaux matériaux tels les composés de Bi, Sr, Ca, Cu, O avec Tc de l'ordre de 115 ou 120 K peut résoudre ce problème. Et, en tous cas, l'utilisation du néon liquide (27 K) qui, sauf pour le coût de l'investissement initial a des avantages comparables à l'azote, est toujours possible.


P. Aigrain

Mais les nouveaux supraconducteurs ont, en plus de leur température de transition élevée, des propriétés quantitativement et même qualitativement différentes des supraconducteurs classiques, et cela peut rendre difficile leur utilisation pratique, et parfois aussi ouvrir la porte à de nouvelles applications. Il faut donc retracer d'abord la liste de ces différences entre supraconducteurs classiques et nouveaux.

Structure cristalline

Les supraconducteurs classiques sont des métaux ou des composés intermétalliques isotropes ou presque. Les nouveaux supraconducteurs ont au contraire une structure très arisotrope, d'un type initialement découvert par B. Raveau. Ils sont caractérisés par la présence de plans d'atomes de Cu, formant un réseau presque carré, et entouré d'atomes d'oxygène aux sommets d'octaèdre légèrement distordus. Ces plans sont séparés les uns des autres par des plans (un peu « ondulés ») d'atomes d'Y, Ba, etc. Dans certains composés des chaînes Cu O parallèles remplacent un plan Cu O sur deux (cas de Y Ba2 Cu3 07). D'autre part ces composés sont non stoechiométriques : ils contiennent un excès d'oxygène par rapport à ce qu'il faudrait pour que tous les atomes métalliques soient dans leur état de valence normal. Aussi les atomes de cuivre se trouvent-ils dans un état de valence inhabituel intermédiaire entre Cu2+ et Cu3+. Il y a un déficit d'électrons sur les cuivres et ces « trous positifs » sont responsables de la conductivité et de la supraconductivité.

La distance entre Cu est beaucoup plus grande dans une direction perpendiculaire aux plans que dans les plans eux-mêmes. Aussi la conduction est-elle essentiellement bidimensionnelle (dans le plan). L'interaction, faible, entre plans est cependant essentielle puisqu'une condensation type Bose-Einstein est impossible en deux dimensions.

Cette forte anisotropie a des conséquences importantes pour les applications, la plupart du temps gênantes. Dans un matériau obtenu par frittage avec des grains orientés au hasard, les joints de grain se comportent comme des jonctions Josephson multiples, ce qui permet certes au courant de passer sans résistance, mais avec une densité très faible ( < 1000 A/cm 2) peu utilisable. De plus, comme la faible distorsion d'une symétrie carrée des plans, mentionnée plus haut, résulte d'une transition de phase (du deuxième ordre) à une température inférieure à la température de préparation, les grains eux-mêmes sont « maclés » et ces macles semblent, elles aussi, se comporter comme des jonctions. Ce maclage est aussi la raison pour laquelle il est très difficile de préparer des monocristaux (utiles pour la recherche). Il faut procéder par cristallisation à partir de solution dans des « flux » complexes à température pas trop élevée. Seuls les Japonais semblent actuellement maîtriser cette technique.

Les solutions, au moins partielles, qu'on peut apporter à ces problèmes sont de deux types :

— Pour les couches minces (applications principalement électroniques), on peut faire croître le supraconducteur épitaxialement sur un support approprié (Sr Ti O3 par exemple). On a ainsi observé des densités de courant de quelques 105 A/cm2 (à 77 K). Les techniques classiques marchent, mais doivent être adaptées pour fonctionner en présence d'excès d'oxygène.


Les « nouveaux » supraconducteurs

— Pour des matériaux plus massifs, on peut orienter les grains, à une température inférieure à Tc, dans un champ magnétique qui pénètre plus facilement parallèlement aux plans que perpendiculairement. Cela semble améliorer le courant critique, mais il n'est pas sûr que cela soit suffisant.

Perte de l'oxygène

L'excès d'oxygène est, on l'a vu, essentiel à l'obtention de la supraconductivité à haute température (relative !). Or cet oxygène s'échange facilement avec le milieu environnant. Cela limite aussi les matériaux métalliques que l'on peut mettre au contact des nouveaux supraconducteurs. (Au, par exemple, semble convenir pour Y Ba2 Cu3 O7 mais pas Cu !). Pour les couches minces il sera sans doute nécessaire d'« encapsuler » le matériau sous une couche qui s'oppose au départ de O (Si O2 pourrait convenir). La substitution d'une faible proportion des oxygènes par du fluor semble améliorer la stabilité.

Différence de propriétés entre supraconducteurs nouveaux et classiques

Il existe de très importantes différences quantitatives entre les nouveaux supraconducteurs et les anciens, et elles ont des conséquences pour les applications évoquées plus haut. Récapitulons-les :

1. Une température critique T,. élevée. C'est bien sûr presque toujours avantageux, mais conduit, en bolométrie résistive à un bruit de fond plus élevé. Corrélativement AE0 est élevé (mal connu d'ailleurs). Cela augmente Vg dans les jonctions Josephson, donc réduit l'avantage de faible consommation d'énergie par rapport aux circuits semi-conducteurs. Mais cela peut simplifier le problème du couplage à des circuits extérieurs.

Autre conséquence : chaleur spécifique C„ assez élevée à la température d'emploi : c'est plutôt un avantage car cela stabilise le matériau contre les fluctuations vers l'état normal.

2. t, très faible et anisotrope [environ 15 Â dans le plan, moins perpendiculairement (7 Â?)]. Nous avons vu que cela peut être utile pour orienter les grains au cours de la préparation. Cela permet aussi, en principe, d'utiliser des couches très minces (100 Â) sans détruire la supraconductivité, ce qui est favorable pour la bolométrie (compense Cv élevé) et les applications de l'inductance inertielle. Mais cela rend plus difficile la réalisation de jonctions Josephson multiples (circuits logiques) puisque l'épaisseur d'isolant ne doit guère dépasser \. Les jonctions réalisées jusqu'à présent (fracture mécanique « recollée », contacts avec une pointe, isolement d'un joint de grain dans une constriction) peuvent convenir pour faire des squids, et la dernière a effectivement été utilisée à cette fin par Raveau et Desormières, mais elles ne sont pas généralisables. Des recherches sont, bien sûr, en cours pour résoudre ces problèmes.

3. X très grand (de l'ordre de 2000 Â). Combiné avec la faible valeur de E, cela fait des nouveaux supraconducteurs un cas extrême de supraconducteurs de type II ! (X/t, de l'ordre de 100). Comme Hc est lui-même élevé (AE élevé) cela conduit à des valeurs considérables pour HC2. On parle de 100 à 200 teslas ! (106 à 2.106 gauss). Il est probable que les problèmes de résistance mécanique seront une limitation aux champs magnétiques produits plus grave que HC2.


P. Aigrain

Par contre, la valeur élevée de X conduit à des pertes hyperfréquences importantes dès qu'il y a des porteurs normaux, donc dès que la température n'est pas faible par rapport

àTc(Tc/3?).

Le même effet peut, bien sûr, être aussi utilisé en bolométrie par variation d'inductance inertielle.

4. Conduction par « trous positifs ». Il est difficile de bien prévoir les conséquences de ce fait (les supraconducteurs classiques ont une conductivité par électrons). Quel est, par exemple, le comportement d'une jonction supraconducteur nouveau-supraconducteur classique, ou supraconducteur nouveau-métal normal-supraconducteur nouveau ?

Un avenir encore incertain

Outre les problèmes de mise en forme des matériaux, compatible avec l'application envisagée (couches minces, fils, etc.) il reste bien des problèmes mal compris, ou dont la réponse est inconnue.

La théorie : d'où vient l'énergie de liaison des « paires de trous »? On a proposé, entre autres, un mécanisme analogue à celui de la théorie BCS, mais modifié par le caractère bidimensionnel des plans Cu O (Bok et Labbé) ; un mécanisme faisant également intervenir l'interaction trou-réseau, mais conduisant à des paires réellement liées dans l'espace (bipolarons) (Chakravartan) ; une interaction par le biais de fluctuations antiferromagnétiques des spins sur les sites Cu (Anderson); et bien d'autres.

Des recherches sont nécessaires pour élucider ces points et pouvoir progresser autrement que par « pêche à la ligne ». La maîtrise de la production de bons monocristaux est probablement nécessaire — et c'est un domaine où la France n'est pas bien placée.

La question : « est-il concevable de trouver un jour des matériaux à Tc assez élevés pour être utilisables à la température ordinaire ? » reste ouverte mais seule une compréhension théorique permettra d'y répondre.

La constante diélectrique de réseau de ces matériaux est d'ailleurs inconnue. Elle joue pourtant un rôle important au point de vue théorique (répulsion coulombienne des paires), mais est très difficile à mesurer.

L'application pratique des nouveaux supraconducteurs se heurte encore à beaucoup de problèmes, liés, entre autres, à la maîtrise de la fabrication de matériaux dans les formes, avec les propriétés nécessaires à leur emploi, et avec la stabilité nécessaire.

Pour les applications courant faibles (électronique) qui impliquent des couches minces, ils semblent en voie de résolution. Des idées existent pour réaliser des jonctions Josephson multiples, mais il faudra encore beaucoup de travail. Les squids existent déjà.

Pour les applications courants forts (électroaimants, alternateurs, transformateurs, stockage ou transport d'énergie) les problèmes sont beaucoup plus difficiles. Et nul n'a encore de réponse tout à fait claire à la question : l'avantage de travailler à 77 K plutôt qu'à 4 K compensera-t-il, sur le plan économique, la complexité de préparation et de mise en forme de matériaux difficiles? (Sans parler de la compétitivité économique avec les solutions classiques à température ambiante.)


Les « nouveaux » supraconducteurs

De toute façon tous ces problèmes ne seront résolus que par des recherches scientifiques et techniques poursuivies sérieusement et dans la continuité.

BIBLIOGRAPHIE

Hulin M., 1989, La Vie des Sciences, 6, 1. Raveau B., 1987, La Vie des Sciences, 4, 93. Sergent M., 1986, La Vie des Sciences, 3, 195.

229



— LA VIE DES SCIENCES —

L'optique ondulatoire moderne : optique cohérente et optique non linéaire

Maurice FRANÇON

Université Pierre-et-Marie-Curie, 4, place Jussieu, 75006 Paris

Il y a presque un siècle, on considérait l'optique comme une science achevée, susceptible seulement de progrès techniques. Or, on assiste depuis la dernière guerre, à un développement réellement impressionnant de l'optique principalement grâce au laser. C'est d'abord l'utilisation de la transformation de Fourier qui permet de préciser les notions de cohérence dans les sources de lumière et dans les images. Parallèlement à ces recherches, de nouvelles méthodes d'observation des objets transparents font leur apparition. Puis avec le laser, ce sont les très belles expériences de l'holographie et surtout de l'optique non linéaire qui ouvrent véritablement un nouveau domaine de la physique dont l'importance est très grande par sa contribution au progrès de nos connaissances sur les interactions de la lumière avec la matière.

(Cet article est le texte d'une communication présentée au 106e Congrès de l'Association française pour l'Avancement des Sciences : « De l'onde de lumière à l'onde de matière, d'Augustin Fresnel [1788-1827] à Louis de Broglie [1892-1987] », réuni à Paris, au Conservatoire National des Arts et Métiers, du 17 au 19 novembre 1988, sous la présidence d'Yves Coppens, Président de l'Association.)

Interférométrie et cohérence des vibrations

L'une des premières approches concernant la cohérence de la lumière est due probablement à Verdet en 1869. Plus tard, en 1890, Michelson établit une relation entre la visibilité des franges d'interférence et la distribution des intensités sur la source lumineuse éclairant Pinterféromètre. Un nouveau développement est donné par Van Cittert en 1934, puis par Zernike en 1938. Zernike définit un degré de cohérence des vibrations lumineuses entre deux cas extrêmes : la cohérence parfaite et l'incohérence. Lorsque les vibrations sont cohérentes, elles produisent des franges d'interférences avec le maximum de visibilité. Il n'y a plus de franges d'interférences lorsque les vibrations sont incohérentes. Une analyse plus rigoureuse des phénomènes a été faite par E. Wolf en 1955, et la même année par Blanc-Lapierre et Dumontet en introduisant des fonctions de corrélations plus générales.

La Vie des Sciences, Comptes rendus, série générale, 1989, tome 6, n° 3, p. 231-247


M. Françon

Les atomes d'une source lumineuse émettent des vibrations qui ne sont pas illimitées. Tout se passe comme si les ondes électromagnétiques étaient émises par paquets, par « trains d'ondes » provenant des divers atomes de la source. Plus les trains d'onde sont longs et plus le spectre émis par la source est étroit, c'est-à-dire plus la lumière se rapproche d'un rayonnement monochromatique. La durée de la vibration est le temps de cohérence et la longueur de la vibration la longueur de cohérence. La longueur de cohérence est de l'ordre de 60 cm pour les sources classiques les plus monochromatiques. Elle peut atteindre des kilomètres avec les lasers. Ces données se rapportent à la cohérence temporelle des sources lumineuses. Il faut également considérer la cohérence sous l'aspect spatial. Pour cela, on peut utiliser la vieille expérience des trous d'Young (fig. 1). La source étendue S émet de la lumière monochromatique. Elle éclaire l'écran M1 percé de deux trous très petits assimilés à deux points PL et P2. Les deux trous diffractent la lumière et peuvent produire des franges d'interférences sur un écran M2 placé après Mt. Lorsque la source S est suffisamment petite, on constate que les franges sont bien visibles sur l'écran M2. Les deux trous Pt et P2 se comportent comme deux sources parfaitement

Fig. 1. — Expériences des trous d'Young. Les deux trous Pl et P2 produisent des franges d'interférences sur l'écran M2 si la source lumineuse S est suffisamment petite.

Fig. 2. — Les deux trous Pt et P2 émettent des vibrations cohérentes si la distance P1 P2 est beaucoup plus petite que la tache de diffraction produite par une lentille fictive de même diamètre que la source S.

232


L'optique ondulatoire moderne

cohérentes. La source S produit un éclairage spatialement cohérent. Si le diamètre de la source augmente, le contraste des franges diminue. Il est pratiquement nul quand la source devient trop grande. Les deux trous P1 et P2 se comportent alors comme deux sources incohérentes. La source S produit un éclairage spatialement incohérent. Prenons le cas très simple d'une source S circulaire et uniforme. On imagine une lentille de même diamètre que la source S et qui prend sa place. Cette lentille fictive forme en C l'image d'une source ponctuelle A (fig. 2). Cette image C n'est pas un point mais une figure de

diffraction bien connue (disque d'Airy). Elle s'étale d'autant plus que le diamètre de S est plus petit. On a représenté sur la figure 3 la répartition des intensités lumineuses dans cette figure de diffraction où P1 est au centre de la figure. Si la distance P1 P2 est beaucoup plus petite que le diamètre MM' de la tache centrale, P1 et P2 sont cohérents. Si la distance P1P2 est égale au rayon de la tache centrale (fig. 4), P1 et P2 sont incohérents. Tel est le principe sur lequel est basé le théorème de Van Cittert-Zernike. Ce théorème s'exprime d'une façon très élégante dans le langage de la transformation de Fourier.

Si la source S est pratiquement ponctuelle mais non monochromatique, sur l'écran M2 les franges disparaissent lorsque la différence des distances du point A (où l'on observe le phénomène) aux deux points P1 et P2 est plus grande que la longueur de cohérence. Enfin lorsque la source S est étendue et non monochromatique, les phénomènes se compliquent. On peut néanmoins en faire l'étude en introduisant la notion de signal analytique.

Fig. 3. — Répartition des intensités dans la figure de diffraction produite par une source circulaire (disque d'Airy). Les trous P1 P2 émettent des vibrations cohérentes si P1 P2 <? MM'.

Fig. 4. — Si la distance P1 P2 est égale au rayon de la tache centrale de diffraction, les trous Pt P2 émettent des vibrations incohérentes.

233


M. Françon

Les opticiens s'intéressaient aux questions de cohérence pour se placer dans les meilleures conditions possibles en vue de l'utilisation des interféromètres. Ces instruments sont utilisés dans de nombreux domaines, en particulier dans l'observation des objets transparents (objets déphasants). La méthode du contraste de phase de Zernike, connue aussitôt après la guerre, apporte une solution nouvelle. Cette méthode a eu un grand retentissement à l'époque car, grâce à un éclairage spatialement partiellement cohérent, il était possible d'observer en microscopie les petits organismes vivants et non plus morts après fixation et coloration. Il faut dire que pendant la guerre, Bernard Lyot, qui ignorait les travaux de Zernike, imagina la même méthode pour contrôler des objectifs de coronographe utilisés pour l'observation de la couronne solaire en dehors des éclipses.

Pendant la période 1950-1960, ce sont les interféromètres à polarisation qui font l'objet de développements importants. Comme le contraste de phase, ils permettent d'observer les objets vivants avec l'avantage d'être très lumineux et de pouvoir faire des mesures. La figure 5 montre une cellule épithéliale de la bouche observée au microscope interférentiel à polarisation.

Les interféromètres à polarisation ne sont pas utilisés seulement en microscopie comme le montrent les figures 6 et 7. La figure 6 représente un petit insecte (arthropode aérien) flottant à la surface de l'eau. Les déformations de la surface liquide au contact de l'insecte sont décelées par l'apparition de franges d'interférences. Ces franges permettent d'étudier la flottation de l'insecte. La figure 7 montre la déformation des franges d'interférences produites par les courants de convection au voisinage d'une bougie.

Fig. 5. — Cellule épithéliale de la bouche observée au microscope interférentiel à polarisation.


L'optique ondulatoire moderne

Fig. 6. — Franges d'interférence à la surface liquide au contact d'un arthropode aérien.

Fig. 7. - Déformation des franges d'interférence produites par les courants de convection.


M. Françon

Holographie et holographie interférométrique

Évidemment après 1960, par suite de l'apparition du laser, l'optique se développe dans de nombreux et nouveaux domaines. En particulier, Leith et Upatnieks réussissent en 1962 une expérience proposée par Gabor en 1948 mais qui n'avait pu réussir car les sources lumineuses classiques n'avaient pas une cohérence temporelle suffisante. Dans l'expérience de Gabor, on reconstitue une image en trois dimensions d'un objet diffusant quelconque. La figure 8 donne le principe de l'expérience. L'objet A, éclairé par un faisceau laser, diffuse de la lumière sur la plaque photographique H. Celle-ci reçoit directement le faisceau laser après réflexion sur le miroir plan auxiliaire M. Après développement (fig. 9) dans les conditions habituelles, on éclaire la plaque H dans les mêmes conditions que précédemment. En observant à travers la plaque H (l'objet A est enlevé), on voit reconstituée en trois dimensions une image virtuelle parfaite de l'objet A. La plaque photographique H est appelée « hologramme » de l'objet A.

L'holographie connaît beaucoup d'applications dans différents domaines, mais ce n'est pas le côté spectaculaire de la restitution d'un objet en trois dimensions qui est le plus intéressant. L'aspect le plus fondamental de l'holographie est son utilisation en interférométrie.

Reprenons l'expérience des figures 8 et 9 en faisant deux poses successives sur la même plaque photographique H. Dans la première pose, on est dans la situation de la figure 8.

Fig. 8 (à gauche). — Enregistrement de l'hologramme H de l'objet A éclairé par un laser.

Fig. 9 (à droite). — L'hologramme H reconstitue une image virtuelle parfaite A' de l'objet A en trois dimensions de l'objet A.

236


L'optique ondulatoire moderne

Avant d'effectuer la deuxième pose, on déforme légèrement l'objet A. Dans la deuxième pose, l'objet A déformé reste en place. Après développement (l'objet A est enlevé), on regarde à travers la plaque comme précédemment (fig. 10). L'hologramme H reconstitue une image de l'objet A non déformé plus une image de l'objet A déformé. Mais comme la plaque H est éclairée par le même laser, ces deux images peuvent interférer. On décèle ainsi les déformations de l'objet en prenant comme référence l'objet lui-même non déformé.

La figure 11 montre une application de l'interférométrie holographique à l'étude des courants de convection dans les lampes. Dans la première pose, la lampe n'est pas allumée. Dans la deuxième pose, la lampe est en fonctionnement normal. Grâce à la puissance du laser, la lumière émise par la lampe n'intervient pratiquement pas et ne risque pas de voiler la plaque. Par ailleurs la qualité optique du globe en verre qui est fort mauvaise n'intervient pas non plus car le globe est présent dans les deux poses sans avoir été déplacé. Les interférences décèlent seulement les changements qui sont intervenus entre les deux poses. L'expérience n'est pas réalisable avec les interféromètres classiques car les déformations du globe introduisent une multitude de franges parasites qui masquent complètement les franges produites par les courants de convection à l'intérieur de la lampe.

Dans une soufflerie aérodynamique on peut utiliser des glaces de grandes dimensions sans qualité optique pour visionner les phénomènes. Des interféromètres classiques de dimensions comparables sont tout à fait irréalisables.

Dans la méthode des deux poses successives, rien n'empêche de faire interférer un objet transparent quelconque avec un autre objet transparent. Grâce à l'holographie, on peut faire interférer des ondes enregistrées à des instants différents sans contrevenir aux principes fondamentaux de la physique puisque à la reconstitution l'hologramme est éclairé par une source unique.

Fig. 10. — Étude des déformations d'un objet par interférométrie holographique.


M. Françon

Optique non linéaire et ondes harmoniques

Le laser est également à l'origine de développements considérables de l'optique dans un autre domaine, celui des effets non linéaires. Certes, les propriétés non linéaires de certains éléments de circuits sont déjà bien connues aux fréquences radio et micro-ondes et même en optique où des effets non linéaires ont été observés avant l'apparition du

Fig. 11. — Courants de convection observés au voisinage d'un filament d'une lampe électrique. R. E. Brooks et al. (TRW Systems Group, USA) H. Horster et al. (Philip Forschungslaboratorium, Aachen GmbH, West Germany).


L'optique ondulatoire moderne

laser. Par exemple, le pompage optique modifie la population des niveaux atomiques et change les propriétés du milieu. Toutefois le laser est la source idéale pour observer les effets non linéaires en optique. Le développement des recherches a pour origine les expériences de P. A. Franken sur la seconde harmonique en 1961 et les travaux théoriques effectués en 1962 par N. Bloembergen sur les interactions d'ondes. La figure 12 donne le principe de l'expérience de Franken.

Le faisceau laser de longueur d'onde À, = 6 942 Â émis par un laser à rubis traverse un cristal de quartz. Par effet non linéaire, on observe l'apparition d'un faisceau ultraviolet de longueur d'onde A,=3741Â. Franken connaissait depuis longtemps la possibilité d'engendrer des harmoniques d'ondes électromagnétiques de basses fréquences, et c'est ainsi qu'il eut l'idée de faire la même expérience avec les ondes lumineuses. Les sources lumineuses ordinaires sont beaucoup trop faibles pour réaliser une telle expérience; il faut des sources produisant des champs de l'ordre de grandeur des champs atomiques présents dans le milieu. Des champs de 1 kV/cm sont nécessaires : ils correspondent à un faisceau d'intensité 2,5kW/cm 2 et c'est pourquoi un faisceau laser est seul susceptible de produire la génération d'harmoniques. Il faut noter que la génération de la seconde harmonique est le premier effet non linéaire dans lequel un faisceau incident cohérent produit un autre faisceau transmis également cohérent.

Depuis 1961, un grand nombre de phénomènes non linéaires ont été observés. Ils ont beaucoup contribué à l'amélioration de nos connaissances sur les interactions de la lumière avec la matière et ils ont produit une véritable révolution dans les techniques de l'optique.

Le couplage des ondes dans un milieu non linéaire permet de prévoir les effets non linéaires. Si P est la polarisation électrique induite par un champ électrique E dans le milieu, on a

K1 est la susceptibilité électrique normale du milieu. Lorsque le champ électrique est suffisamment intense, les coefficients K2, K3 (plus petits que K1) montrent que des effets

Fig. 12. — En éclairant un cristal par un faisceau laser de longueur d'onde %1 on observe à la sortie du cristal le faisceau de longueur d'onde Xt plus un faisceau de longueur d'onde X1/2 (effet non linéaire).


M. Françon

non linéaires se manifestent. Ce cas se produit justement quand le milieu est éclairé par un laser. Supposons que le champ incident soit de la forme E = Asinoot. P peut s'écrire :

et en utilisant les formules élémentaires de la trigonométrie :

à la sortie du cristal on observe la fréquence incidente co plus la fréquence double 2co, c'est-à-dire une longueur d'onde deux fois plus petite. Il y a apparition de l'harmonique n° 2 par effet non linéaire.

Dans beaucoup de cristaux, le coefficient non linéaire K2 dépend de la direction de propagation, de la polarisation du champ électrique et de l'orientation de l'axe optique du cristal (K2 n'est pas une constante mais un tenseur). La possibilité pour un cristal de produire l'harmonique n° 2 dépend des propriétés de symétrie du cristal. Il n'y a pas de second harmonique dans un cristal isotrope. Le coefficient K2 est nul pour les cristaux pour lesquels la polarisation change de signe avec le champ électrique. C'est le cas du spath.

L'effet de la dispersion du cristal sur l'intensité de l'harmonique n° 2 est important. Lorsque l'indice n1 du cristal pour la fréquence co est différent de l'indice n2 du cristal pour la fréquence 2oo, l'intensité de l'harmonique peut être très réduite. Le cas le plus favorable est obtenu quand nl = n2. On dit qu'il y a accord de phase (phase matching). Il existe des cristaux anisotropes pour lesquels, dans une direction de propagation donnée, l'indice ordinaire pour une fréquence (la fréquence incidente) est égal à l'indice extraordinaire pour la fréquence double. Donc, on peut produire l'accord de phase en orientant convenablement le cristal par rapport au faisceau incident.

L'amplification paramétrique

Au lieu de considérer la polarisation non linéaire K2E 2 qui résulte du produit du champ E par lui-même, on peut étudier la polarisation non linéaire due à l'interaction de deux champs (deux lasers) de fréquences différentes a1 et co2. Le terme K2E 2 qui nous intéresse maintenant est le terme :

en développant cette expression, les termes carrés qui révèlent les fréquences 2m1 et 2co2 sont de la forme :

que l'on peut écrire :

La polarisation non linéaire produit donc les fréquences (ù1+ oo2 et %— oo2. Ce procédé est connu sous le nom d'amplification paramétrique. Ici aussi l'accord de phase joue un rôle important.


L'optique ondulatoire moderne

L'interaction d'ondes dans un milieu non linéaire a été observée pour la première fois par Bass et ses collaborateurs en 1962. Dans leur expérience, un cristal de sulfate de triglycérine est éclairé par deux lasers à rubis émettant deux longueurs d'ondes très voisines (AÀ,= 10Â). En analysant au spectrographe les faisceaux sortant du cristal, ils constatent la présence de trois raies au voisinage de 3470Â. Deux de ces raies sont des harmoniques des raies des deux lasers, et entre elles apparaît une raie dont la fréquence est la somme des fréquences des deux lasers. De même, la différence des fréquences a été observée par Smith et Braslau la même année et donne la possibilité d'obtenir des sources accordables intenses dans le domaine infrarouge.

Conjugaison de phase

Les interactions d'ondes dans un milieu non linéaire peuvent donner naissance à des ondes complexes conjuguées des ondes incidentes. Considérons l'expérience de la figure 13. L'onde plane £0 traverse une lame de verre L à faces parallèles comportant

Fig. 13. — Réflexion d'une onde sur un miroir ordinaire M après traversée d'un objet transparent L. La déformation de l'onde émergente 23 est doublée.

Fig. 14. — Même expérience que celle de la figure 13 mais le miroir M est un miroir spécial appelé miroir « à conjugaison de phase ». A la sortie l'onde S3 n'est plus déformée.

241


M. Françon

une petite surépaisseur e en son milieu. Après traversée de L, l'onde est déformée et devient Et. La surépaisseur retarde l'onde dans la région où elle a traversé e. Après réflexion sur un miroir plan M, l'onde E2 revient en arrière et après avoir traversé à nouveau L, le retard provoqué par la surépaisseur e est doublé dans l'onde 23. Si on remplace le miroir M par un miroir spécial dit « à conjugaison de phase », on observe les phénomènes suivants (fig. 14). Après réflexion sur ce nouveau miroir M', le retard dans la région centrale de l'onde devient une avance. Dans ces conditions, lorsque l'onde E2 traverse la lame L, l'avance est annulée par le retard provoqué par la surépaisseur e. L'onde émergente S'3 redevient plane comme l'onde incidente S0. On dit que l'onde E2 (fig. 14) est conjuguée de l'onde Ex. L'onde conjuguée compense les déformations de l'onde incidente sur le miroir à conjugaison de phase.

Les premiers travaux sur la génération d'ondes conjuguées datent de 1967 (Geritsen). A cette époque l'obtention d'ondes conjuguées se faisait par holographie. Kogelnik, Pennington, Lukoz réalisèrent des expériences pour compenser statistiquement des milieux déphasants. Les recherches des propriétés des ondes complexes conjuguées dans les milieux non linéaires ont été entreprises en 1972 par Zel'dovich. Dans ces expériences, Zel'dovich a montré la possibilité de produire une onde dont l'amplitude complexe par effet Brillouin stimulé (effet observé lors de la diffusion de la lumière par un milieu condensé dans lequel se propagent des ondes d'agitation thermique). Depuis de nombreuses expériences ont été réalisées : miroirs donnant par réflexion une onde conjuguée et amplifiée (Yariv, Pepper), effets non linéaires dans les guides d'onde (Yariv, Hellwarth), conjugaison de phase intracavité dans les lasers, compression des impulsions, interférométrie et traitement des images, spectroscopie non linéaire (Biraben, Cagnac, Grynberg) (Levenson, Bloembergen), pour ne citer que quelques exemples.

Conjugaison de phase à quatre ondes

Lorsque trois ondes de fréquence <Ù1, ÛJ2 et co3 pénètrent dans un cristal, par suite de la non-linéarité du cristal elles peuvent engendrer une onde dont l'amplitude est proportionnelle à l'amplitude complexe conjuguée de l'une des trois ondes. Ces trois ondes créent dans le cristal une polarisation de la forme :

où E est le champ total produit par les ondes. On obtient une onde de fréquence

qui est l'onde conjuguée de l'onde oo3. Considérons le cas où oe1=eo2 = cû3 soit coc = oo3, toutes les fréquences sont égales y compris celle de l'onde conjuguée. Ce cas est appelé conjugaison de phase à quatre ondes dégénérées.

Si les ondes Ex et E2 se propagent en sens contraires, on montre que l'onde conjuguée Ec se propage en sens contraire de l'onde E3. La géométrie de l'expérience est indiquée sur la figure 15. Cette interaction est proche de ce que l'on appelle un « miroir à conjugaison de phase ». Elle a été étudiée pour la première fois par Hellwarth en 1977. Yariv et Pepper ont calculé le facteur de réflexion d'un tel miroir.


L'optique ondulatoire moderne

Un cristal qui convient très bien pour les expériences de conjugaison de phase est un cristal photoréfractif comme le BSO (Bi12SiO20) dont l'indice de réfraction varie avec l'intensité du faisceau incident. Le montage du cristal peut être celui de la figure 16. Ici l'onde E2 n'est autre que l'onde B1 après réflexion sur le miroir plan M. On voit qu'il y a une forte analogie avec l'holographie. En holographie, on utiliserait les deux ondes Et et E3. Mais dans le cas de l'holographie le processus se déroule en deux étapes alors que la conjugaison de phase se fait en une seule étape. Par ailleurs, en holographie les deux ondes E1 et E3 doivent avoir la même longueur d'onde pour qu'il y ait des interférences. Ce n'est plus nécessaire en conjugaison de phase à quatre ondes car le mélange des ondes correspond à une modulation de la polarisation non linéaire.

Exemples d'utilisation de la conjugaison de phase à quatre ondes

Dans l'exemple de la figure 17, on utilise la conjugaison de phase à quatre ondes à la compensation d'un milieu déphasant. Le faisceau incident traverse une diapositive A qui constitue l'objet à observer à travers le milieu déphasant T. Après traversée du milieu déphasant T, l'image de la diapositive est très déformée. L'onde correspondante est l'onde E3. Le cristal reçoit l'onde E3 plus les deux ondes Et et E2. Il émet l'onde Ec d'amplitude conjuguée de l'amplitude de l'onde E3. Cette onde conjuguée revient en arrière et en traversant le milieu déphasant ses déformations sont compensées et en A', on observe

Fig. 15. — Conjugaison déphasé à quatre ondes. Le cristal est éclairé par les trois ondes E1, E2, E3. Le cristal émet une onde Ec conjuguée de l'onde E3.

Fig. 16. — Utilisation d'un cristal BSO (Bi12SiO20) pour réaliser la conjugaison de phase à quatre ondes.


M. Françon

une image parfaite de la diapositive. On peut considérer ici qu'il y a enregistrement de l'hologramme de l'objet A et restitution de l'image A', les deux opérations se faisant simultanément.

Comme l'opération se fait en temps réel, le milieu déphasant T peut se déformer continuellement au cours du temps, mais l'image est toujours parfaitement restituée à la sortie du système.

La conjugaison de phase à quatre ondes peut donc s'appliquer à la compensation de la turbulence atmosphérique (Hughes Research Laboratories).

Il existe bien d'autres utilisations de la conjugaison de phase à quatre ondes et nous citerons par exemple la compensation de l'élargissement des impulsions lumineuses dans une fibre optique par suite de la dispersion. On sait en effet que l'élargissement a deux causes : la différence des trajets des différents modes pour une longueur d'onde donnée (zig-zag des rayons dans la fibre) et la dispersion chromatique, dispersion du matériau constituant la fibre. Cet élargissement réduit la bande passante de la fibre, c'est-à-dire diminue la quantité d'information transmise par la fibre ce qui n'est évidemment pas favorable pour les communications optiques. Le laser émet des impulsions qui sont élargies après passage dans la fibre (fig. 18). Le faisceau incident est représenté par l'onde E3. Il pénètre dans le milieu non linéaire avec les deux faisceaux E1 et E2. Sous l'action de ces trois faisceaux, le milieu non linéaire émet le faisceau Ec composé d'ondes conjuguées des différentes ondes monochromatiques composant chaque impulsion incidente. Après traversée d'une seconde fibre identique à la première, on retrouve les impulsions incidentes.

Optique non linéaire en spectroscopie

Le rayonnement laser est capable de produire des effets non linéaires dans les systèmes atomiques et moléculaires et conduit ainsi à de nouvelles méthodes de spectroscopie sans effet Doppler.

Fig. 17. — Utilisation de la conjugaison de phase à quatre ondes pour compenser la déformation d'une onde (d'après Huignard et ses collaborateurs, Thomson CSF, Paris).

244


L'optique ondulatoire moderne

Par le nombre des travaux publiés sur ces problèmes, qui est considérable, on peut constater le grand intérêt des physiciens pour les possibilités offertes par l'optique non linéaire en spectroscopie.

La première démonstration d'une transition à deux photons sans effet Doppler a été réalisée en 1974 par Biraben, Cagnac et Grynberg à Paris et par Levenson et Bloembergen à Harvard.

On sait que l'effet Doppler se produit lorsqu'une source lumineuse et l'observateur sont en déplacement l'un par rapport à l'autre. Le même phénomène est observable dans le cas de transitions atomiques où l'effet Doppler est dû à l'agitation thermique des atomes. Pour faire de la spectroscopie à haute résolution, on s'efforce d'éliminer l'effet Doppler qui est l'effet prédominant dans les gaz. La transition à deux photons est l'une des méthodes utilisées. Son principe est donné par le schéma de la figure 19. Un gaz formé d'atomes tels que A est irradié par un faisceau laser de fréquence qui revient sur lui-même par réflexion sur un miroir plan M. Un atome A dont la composante de sa vitesse vx est dans la direction du faisceau laser « voit » une fréquence v—Ay (due à l'effet Doppler). Pour le faisceau de retour, l'atome « voit » la fréquence v+Av puisqu'il

Fig. 18. — Compensation de l'élargissement des impulsions lumineuses dans une fibre optique par conjugaison de phase à quatre ondes.

Fig. 19. — Un gaz formé d'atomes tels que A est irradié par un faisceau laser qui se réfléchit sur un miroir plan M : l'élargissement Doppler est supprimé.

245


M. Françon

va en sens contraire de l'onde. L'atome peut absorber simultanément les deux photons qu'il « voit », dont les fréquences sont v + Av et v —Av, et passer de l'état Ej à l'état Ep si

A la résonance, tous les atomes, quelles que soient leurs vitesses, peuvent absorber deux photons. Il n'y a plus d'élargissement Doppler. On détecte la transition à deux photons en recueillant la lumière réémise par émission spontanée par les atomes excités et qui a une longueur d'ondes différente de celle du laser.

Récemment, l'équipe de l'École Normale Supérieure à Paris a utilisé la spectroscopie par transition à deux photons pour mesurer la constante de Rydberg. La méthode repose sur les mesures de longueurs d'ondes de plusieurs transitions à deux photons sans effet Doppler dans l'hydrogène.

On sait que, dans le domaine visible, la fréquence des raies spectrales de l'atome d'hydrogène est donné par la formule :

où R est la constante de Rydberg. La connaissance précise de Rydberg est importante dans beaucoup de domaines de la physique et de la chimie. La figure 20 montre la précision remarquable obtenue cette année par l'équipe de l'École Normale Supérieure.

Les quelques exemples donnés précédemment montrent quels ont été les progrès accomplis en optique depuis la dernière guerre en particulier par le contraste de phase et le contraste interférentiel à polarisation et aussi par l'utilisation de la transformation de Fourier.

Fig. 20. — Précisions obtenues dans des mesures récentes de la constante de Rydberg.

246


L'optique ondulatoire moderne

Avec l'apparition du laser, les progrès deviennent réellement extraordinaires aussi bien dans le domaine de l'optique cohérente classique que dans le domaine de l'optique non linéaire. L'holographie permet la restitution d'images en trois dimensions d'objets quelconques et surtout l'étude de leurs déformations par interférométrie holographique. Dans le domaine de l'optique non linéaire, les développements sont tels que l'on est obligé de se limiter à donner seulement quelques exemples comme le doublement des fréquences, l'amplification paramétrique, la conjugaison de phase et la spectroscopie. Les phénomènes non linéaires ont beaucoup contribué à l'amélioration de nos connaissances sur les interactions de la lumière avec la matière et ils ont produit une véritable révolution en optique.

BIBLIOGRAPHIE

Bruhat G., Kastler A., 1965, Optique, Masson, Paris.

Goodman J. W., 1972, Introduction à l'optique de Fourier et à l'holographie, Masson, Paris. Cagnac B., Pebay-Peroula U. G., 1989, Physique atomique, Dunod, Paris. Françon M., 1987, Holographie, Masson, Paris.

Hanna B. C, Yuratich M. A., Cotter D., 1979, Non linear optics offree atoms and molécules, Springer Séries in Optical Science. n° 17.

247



LA VIE DES SCIENCES -

Le rôle de père, propos d'un biologiste (*)

Alfred JOST

Secrétaire perpétuel

L'homme se reconnaît comme le père de ses enfants et il en a toujours été ainsi depuis les origines de l'histoire humaine. Cela s'explique sans doute par le fait qu'il vit en famille ou en groupes familiaux, que les liens soient ceux de la monogamie ou ceux de la polygamie. Il s'agit là d'une caractéristique biologique de l'espèce humaine, acquise au cours de l'évolution. Les espèces animales donnent des exemples très variés de liens entre les sexes. La monogamie, qui prédomine chez les oiseaux, est rare chez les Mammifères. A ce point de vue, l'homme n'a guère d'héritage commun avec les grands singes anthropoïdes, qui sont ses plus proches parents pour le zoologiste. Certaines données biologiques suggèrent que l'espèce humaine a pu évoluer originellement comme une espèce polygame.

Mais, depuis la plus haute antiquité, l'homme s'interroge sur lui-même. La question du rôle exact du père dans la procréation a fait l'objet de nombreux mythes ou théories. Les uns pensaient que l'enfant n'est issu que du sperme masculin auquel la mère fournit un milieu nourricier, d'autres attribuaient un rôle essentiel à une sorte de « sperme » féminin, d'autres encore estimaient que les deux sexes interviennent à égalité. La découverte presque simultanée d' « oeufs » dans Tovaire féminin (1672) et de petits « vers » ou « animalcules » (les spermatozoïdes) dans le sperme humain (1677) fut à l'origine de théories « ovistes » ou « animalculistes », mais une vraie compréhension biologique des faits n'était pas encore possible.

C'est pendant le XIXe siècle que fut découverte la cellule vivante et la structure cellulaire des organismes. Il fallut attendre 1875 pour que fut observée et décrite la fusion du noyau de la cellule sexuelle mâle avec celui de la cellule femelle au cours de la fécondation de l'oeuf d'oursin. En 1888, était enfin reconnue et étayée l'égalité du père et de la mère dans la génération, sous la forme d'un apport semblable de « chromosomes » à la cellule oeuf, lors de la fécondation. On peut donc aujourd'hui célébrer le centenaire de cette découverte essentielle, et souligner combien est récente dans l'histoire de l'humanité la compréhension du rôle biologique du père dans la procréation.

(*) Exposé présenté à la séance solennelle de l'Académie des Sciences, le 28 novembre 1988.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 3, p. 249-269


A. Jost

Le mot de père prononcé, que de sentiments et d'évocations surgissent, l'image de notre père à chacun d'entre nous, parfois aussi celle du père idéal, rêvé, doté d'inépuisables richesses d'amour, de confiance et de pouvoir initiatique. Vient aussi l'évocation de la famille et de ses liens. Le thème du père, avec ses variations, est un filon de la littérature. Balzac ne note-t-il pas, avec une certaine fierté, semble-t-il, dans un de ses carnets de la bibliothèque Lovenjoul de l'Institut de France, qu'il a campé treize modèles différents de père dans ses romans (1). En pendant, Jean-Paul Sartre insiste dans « les Mots » sur le malaise longuement ressenti de l'enfant privé de père.

Malgré quelques vicissitudes éventuelles, le mot de père a une connotation flatteuse et le titre de « Pater patriae » des romains ou de « Père de la Nation », chez nous, est réservé à de grands hommes considérés comme des bienfaiteurs.

En évoquant cette image du père que nous a transmise notre héritage classique et judéo-chrétien, par des traditions ou des lois, par les arts et la littérature, j'ai conscience d'être bien schématique. Il faudrait analyser le rôle de père dans les diverses civilisations humaines. On découvrirait sans doute, malgré des variations culturelles, certaines constantes caractéristiques de notre espèce.

Pour commencer, je rappellerai que c'est l'enfant qui fait le père. L'homme ne devient père que lorsqu'il a engendré un enfant, dont il se reconnaît le père(2). Il peut éventuellement se préparer à ce rôle, même s'en réjouir, il ne sera un père achevé que lorsqu'il sera face à son enfant. Il est bien beau, me dira-t-on d'annoncer que c'est l'enfant qui fait le père, tout le monde sait bien que c'est le père qui a engendré l'enfant. Ne dit-on pas familièrement d'un homme qu'il a « fait un enfant » à une femme. Cette opposition des mêmes termes soulève une série de questions auxquelles je voudrais consacrer cet exposé.

Dans la nuit des temps

La notion de paternité

Première question : comment se fait-il que dans toutes les formes de sociétés humaines qui nous ont laissé leur histoire ou que les ethnologues nous ont fait connaître, tous les êtres humains savent qu'une femme ne donnera naissance à un enfant que si elle a eu un rapport sexuel avec un homme? Neuf mois séparent la conception de la délivrance. Cependant, tous les humains ont établi une relation de cause à effet entre l'acte initial et ses conséquences retardées et prolongées.

Une exception a, depuis près d'un siècle, suscité bien des discussions. Divers groupes d'aborigènes australiens ou d'insulaires voisins semblaient ignorer le lien biologique entre relations maritales et enfantement, lorsque les premiers missionnaires ou ethnologues les ont interrogés (3). Certains racontaient que les femmes concevaient seulement lorsque des « esprits-enfants » pénétraient leurs corps, par diverses voies, dans des lieux sacrés ou totémiques. A l'époque où se répandait la théorie évolutionniste, plusieurs spécialistes ont souligné le caractère primitif de ces populations qui, au cours de l'évolution, n'avaient pas encore compris le mécanisme physiologique de la procréation. Des missionnaires étaient enfin venus leur apprendre la vérité. D'autres, par exemple Edmund Leach, dans


Le rôle de père, propos d'un biologiste

un article fameux de 1966, intitulé les « Vierges-mères », exprimait l'opinion qu'il s'agissait dans ces cultures, d'un thème mythologique et non de l'expérience matérielle, d'une sorte de dogme métaphysique dont l'équivalent se retrouve dans d'autres croyances (4).

A cette exception australienne près, il est remarquable que tous les êtres humains aient établi une relation causale entre l'homme et l'enfant. Bien entendu, depuis des temps immémoriaux, cette connaissance se transmet d'une génération à la suivante, avec les traditions et les découvertes nouvelles. Mais nous ne saurons jamais auxquels de nos ancêtres cette lumière est venue, qu'ils aient déjà été des Homo sapiens ou, antérieurement, alors qu'ils n'étaient encore que de ces petits humanoïdes au front fuyant que fréquentent les paléontologistes.

Établir une relation de cause à effet entre l'insémination et la grossesse suppose une qualité d'observation, de mémoire et d'intelligence dont nous ne pouvons savoir si aucun animal l'a acquise.

Les sociobiologistes, depuis vingt ans, scrutent les comportements animaux, sélectionnés et transmis au cours de l'évolution. Ils soulignent les conduites des reproducteurs qui ont pour effet de transmettre à la descendance tel gène utile à l'espèce plutôt que tel autre. Ceci peut se faire sans que ces animaux connaissent les conséquences de l'accouplement.

Beaucoup d'animaux ont une saison annuelle de reproduction, parfois très limitée. Je pense par exemple aux éléphants d'Afrique dont la mémoire est célèbre. Les femelles restent unies de mère en filles, en troupes stables, organisées et hiérarchisées selon un système matriarcal au sein duquel sont élevés les éléphanteaux. Les mâles adultes vivent isolés ou en petits groupes, rejetés qu'ils sont de la troupe dès que s'annonce leur maturité. Les femelles dominantes, celles qui ont le plus de chances de procréer, acceptent généralement la rencontre des mâles au cours d'une saison des pluies. Vingt-deux mois après, presque deux ans, peu avant une nouvelle saison des pluies, elles donnent naissance à leurs petits(5). J'ignore si ces femelles — ou d'autres dont la reproduction obéit à un rythme saisonnier — se posent la question, mais j'imagine qu'il pourrait leur être difficile de préciser si la grossesse est liée au seul rythme des pluies ou à la rencontre des mâles qui l'accompagne.

Il ne me semble pas improbable que la compréhension intelligente du rôle du père dans la naissance des enfants soit une caractéristique humaine.

L'homme a aussi été capable, depuis des temps reculés, de mesurer le temps et de reconnaître la durée de la gestation. Une tablette sumérienne (fig. 1) d'il y a plus de quatre mille ans nous parle du Dieu Enki et de la Déesse Ninhursag ( 6) :

Il épancha (sa) semence dans le sein de Ninhursaga.

Elle reçut la semence en (son) sein, la semence d'Enki.

Le premier jour fut pour elle le premier mois.

Le deuxième jour, le deuxième mois.

Le troisième jour, le troisième mois.

Le quatrième jour, le quatrième mois.

Le cinquième jour, le cinquième mois.

Le sixième jour, le sixième mois.

Le septième (jour), le septième mois.

Le huitième (jour), le huitième mois.

Le neuvième (jour), le neuvième mois, le mois de l'enfantement.


A. Jost

L'acquisition de cette connaissance a dû être facilitée par la vie en couples stables ou en groupes familiaux. Si, comme c'est le cas de bien des espèces animales, les deux sexes, les hommes et les femmes, vivaient séparés et si les unions procréatrices n'avaient lieu qu'au hasard des rencontres, l'évaluation de la durée de la gestation aurait probablement été plus malaisée.

Fig. 1. — Tablette rapportant le poème d'Enki et Ninhursag et la naissance de la déesse Ninsar (Tablette 4561 de la Collection de l'Université de Pennsylvanie, datant de l'époque paléobabylonienne et rapportant une légende plus ancienne). L'extrait traduit ci-contre est encadré dans le bas de la deuxième colonne (emprunté à S. N. Kramer, Sumerian mythology, the American philosophical Society, Philadelphy, 1944). Il existe des duplicats du même texte sur d'autres tablettes.

252


Le rôle de père, propos d'un biologiste

L'instinct familial

Or, c'est un fait historique, dans l'espèce humaine les hommes et les femmes adultes vivent ensemble soit en couple, soit en petits groupes composés d'un homme et d'un petit nombre de femmes, qu'il s'agisse d'épouses, de concubines ou éventuellement de captives. Ces unions ont une stabilité suffisante pour constituer des familles dans lesquelles le père participe souvent à l'élevage, si l'on peut dire, et à l'éducation des enfants.

Monogamie et polygamie ont souvent coexisté dans l'histoire humaine. D'après la Genèse, Dieu ne créa qu'une seule femme pour Adam, qui fut donc monogame. Mais dès la sixième génération de ses descendants par Caïn, Lemec eut deux épouses et ensuite la Bible devait fourmiller d'hommes polygames. La Grèce ancienne, puis le Christianisme, ont prôné la monogamie, le Coran se séparant nettement de cette tradition. Dans de très nombreuses civilisations dont l'évolution a été indépendante de la nôtre, monogamie et polygamie officielle sont allées de pair. A ma connaissance, la polygamie a été assez répandue dans la Chine ancienne, elle a été découverte chez les peuples de NouvelleGuinée et dans les civilisations précolombiennes. Chez les Aztèques du Mexique ou les Incas du Pérou, la polygamie était un privilège des riches. Les hommes les moins aisés et les plus nombreux, étaient monogames par nécessité; peut-être étaient-ils aussi ceux qui s'occupaient le plus, personnellement, de leurs enfants.

L'instinct qui pousse au rapprochement permanent ou tout ou moins stable pour une durée de temps prolongée, d'individus des deux sexes, le père et la mère, et à la vie de famille, est une caractéristique biologique de l'espèce Homo sapiens. Même si l'espèce humaine y a ajouté l'amour et la richesse merveilleuse de ses sentiments, ses orages aussi parfois, ce comportement a probablement été hérité d'ancêtres lointains, au cours de l'évolution, et l'humanité n'en a pas l'exclusive. Dans beaucoup d'espèces animales, les mâles et les femelles fondent des familles stables, monogames ou polygames, et donnent des exemples de pères assumant une part importante de l'élevage et de l'éducation des enfants. Les modalités sont diverses. Peuvent-elles nous instruire sur l'origine, au cours des temps, de nos propres manières ?

Monogamie et polygamie : exemples animaux

La monogamie d'abord. Les formes en sont multiples et il vaut la peine d'en évoquer certaines, rapidement. Sans m'attarder à la monogamie des crocodiles du Nil, il me faut d'abord citer les Oiseaux.

La monogamie chez les Oiseaux

Plus de quatre-vingt-dix pour cent des espèces d'Oiseaux sont monogames, dit-on, encore que des infidélités occasionnelles et des paternités adultérines aient été observées. En général, à la saison de reproduction, le mâle et la femelle restent unis, préparent le nid ensemble, assurent la couvaison à tour de rôle et c'est à deux qu'ils approvisionnent


A. Jost

les petits ou les défendent contre les prédateurs. Souvent le père leur apprend le vol, le chant ou la chasse. Les femelles de certaines espèces prestigieuses comme l'aigle, l'albatros ou le manchot empereur ne pondent qu'un seul oeuf, couvé tour à tour par les deux parents. Le nouveau-né est si vorace qu'il exige les efforts de ses deux parents pour suffire à son appétit. Vient-on à ajouter un deuxième oeuf, pris à un autre couple, dans le nid d'un albatros ou d'un pétrel, un seul des petits réussira à atteindre l'état adulte (7).

Chez d'autres oiseaux — c'est beaucoup plus rare — le père ignore totalement sa progéniture. Le coq de bruyère par exemple, s'installe et parade sur son territoire attendant qu'une femelle de passage le distingue et s'unisse à lui, avant de repartir ailleurs pondre et élever ses enfants.

Si la ponte est l'apanage d'un seul sexe, les Oiseaux mâles et femelles sont au contraire équivalents pour couver les oeufs, pour nourrir les jeunes, pour éduquer ceux-ci ou les défendre contre les prédateurs.

La monogamie chez les Mammifères

Le rôle respectif des deux sexes est totalement différent chez nous, les Mammifères. Pour les Mammifères, la mère est deux fois irremplaçable, seule elle possède la matrice et seule elle peut allaiter son enfant. Il arrive qu'une mère voisine puisse la remplacer dans ce dernier rôle et allaiter des enfants qui ne sont pas les siens. Cet « allomaternage », comme on l'appelle, se pratique chez les éléphants, chez les lionnes et bien d'autres. Nos sociétés humaines modernes, elles, sont allées encore plus loin, elles ont tendu à supprimer cette prérogative maternelle en élevant leurs enfants avec le lait pris aux mères d'espèces domestiques. Elles ont même poussé les choses jusqu'à faire donner le biberon par le père.

Mais d'une manière générale, chez les mammaliens non humains, la mère et ses enfants forment un groupe stable, quelles que soient ses relations avec le progéniteur mâle. La mère gestante ou allaitante a besoin d'une quantité suffisante de nourriture, sinon l'espèce risque de disparaître. En cas de compétition alimentaire sur un habitat trop pauvre, un seul mâle suffit pour assurer l'insémination de plusieurs femelles, ce qui peut conduire soit à une polygamie stable, soit à une polygynie « de passage » (8). D'autres espèces répondent à la même situation par une limitation sévère des naissances et par une monogamie de fait.

La monogamie qui permet des liens étroits entre le père et ses enfants, est rare chez les Mammifères, moins de cinq pour cent des espèces la pratiquent (9). Elle a été décrite, par exemple, chez les Gibbons de Kloss, singes anthropomorphes considérés comme zoologiquement proches de l'homme, mais dont la généalogie s'est écartée très anciennement de la branche humaine. Habitant des îles proches de Sumatra et arboricoles, ils vivent par couple, avec un ou deux petits, sur un territoire qu'ils défendent. La monogamie est la règle, mais, elle n'a pas pour fondement une véritable vocation de chacun des conjoints pour un amour unique : le mâle, le père, interdit l'accès de son territoire à tout mâle étranger, il serait cependant disposé à ne pas repousser aussi vivement la visite d'une autre femelle; mais la femelle veille et repousse sévèrement les concurrentes, sans cependant manifester la même rigueur aux mâles (10).


Le rôle de père, propos d'un biologiste

Ce type de cohésion familiale, réalisé par une surveillance réciproque des sexes, qu'il s'agisse de monogamie ou de polygamie, est fréquent chez les Mammifères. La surveillance constitue l'un des fondements de la hiérarchie des sociétés complexes de macaques ou de babouins. Les mâles dominants surveillent et harcèlent les sujets subordonnés au point de leur faire accepter un rang social inférieur, en particulier pour ce qui est de l'accès aux femelles. Ils défendent aussi la troupe contre les prédateurs, assurent le commandement et pour une grande part se chargent de la reproduction. Pères de nombreux enfants de la colonie, ils ne s'occupent guère de leur progéniture autrement que comme chefs et protecteurs du clan.

Revenons aux Mammifères monogames. Certains vivent en meutes ou en groupes familiaux dans lesquels un seul couple se reproduit, imposant soit la chasteté, soit même la stérilité à ses descendants. Il en résulte une véritable limitation des naissances, bien étudiée chez" les loups du Minnesota( 11) ou les chacals de Tanzanie(12). Les enfants devenus adultes peuvent soit s'en aller à leurs risques et périls et devenir des solitaires dont la vie sera généralement brève, soit demeurer dans le groupe, mais à condition de ne pas s'y reproduire. Ils aident alors les parents à élever leurs frères et soeurs. Ou bien ils accompagnent le père à la chasse puis reviennent avec lui régurgiter, pour la mère et pour les petits, une partie de la viande arrachée aux proies; ou bien, si les deux parents s'absentent, ils veillent sur les jeunes, les distraient et les défendent contre les prédateurs, en cas de besoin. Les auteurs de langue anglaise les appellent « helpers », c'est-à-dire des aides, je dirais volontiers des « aides familiaux ». Chez le chacal, on a montré que, dans certaines limites, chaque aide familial supplémentaire augmente d'une unité le nombre des petits parvenant à l'état adulte. Sur le plan de la survie de l'espèce, le mécanisme sélectionné au cours de l'évolution est donc efficace.

Ce genre d'organisation familiale n'est pas l'apanage des grands canidés, on le trouve aussi chez divers autres Mammifères, tel le mérion, petit rongeur de Mongolie. Mais, je voudrais citer des recherches faites sur un être plus proche de l'homme, un joli petit singe du Brésil, l'ouistiti. Il pèse moins d'une livre, il est arboricole, il est donc difficile à étudier en liberté dans son milieu naturel, mais il s'élève bien en captivité. Si, comme l'a fait. David Abbott (13), on réunit dans une cage appropriée trois jeunes femelles et trois jeunes mâles, après des conflits initiaux une hiérarchie s'établit, un couple devient dominant et seul se reproduit, la mère donnant généralement le jour à deux petits par portée. Le père s'occupe activement de ses enfants. Il porte l'un d'eux agrippé contre lui, ventre contre ventre et le confie régulièrement à la mère pour l'allaitement. Les autres membres du groupe sont réduits à l'infécondité; l'influence familiale est si puissante qu'elle supprime l'ovulation des jeunes femelles.

Chez le talapoin, autre petit singe, vivant, lui, au Gabon(14), également étudié en captivité, le couple devenu dominant exerce une influence si exorbitante que les mâles subordonnés restent sexuellement inactifs lorsqu'on les soustrait à l'influence sociale délétère du milieu dans lequel ils se trouvaient. Des recherches faites, il y a peu, à Cambridge, montrent que la production de certains neuromédiateurs responsables du comportement, comme la P-endorphine, est profondément perturbée chez ces animaux subordonnés (15).

Il est sûr que la captivité imprime au comportement animal des contraintes qui entraînent parfois des conduites ou des états atteignant le morbide. Devant une telle hiérarchisation allant jusqu'à l'excessif, on est tenté d'évoquer certains aspects de l'histoire


A. Jost

humaine qui a comporté tant de contraintes et de carcans, tant de dominants et tant de subordonnés timorés.

Quel héritage commun avec nos cousins anthropoïdes ?

Mais, si une étude comparative devait nous donner des indications sur l'origine du comportement familial humain — à défaut de pouvoir connaître nos ancêtres directs — il faut sans doute interroger nos parents les plus proches, nos cousins, les singes anthropomorphes, les orang-outans, les chimpanzés, les gorilles (16).

L' orang-outan, grand singe arboricole des riches forêts de Bornéo ou de Sumatra, est un solitaire. Le mâle n'atteint sa maturité et son faciès impressionnant, qu'à un âge avancé. Il vit seul, défendant, brutalement au besoin, un vaste territoire qui englobe les territoires plus restreints de 2 à 4 femelles. Celles-ci élèvent leurs enfants en petits groupes. La rencontre des sexes n'a lieu qu'aux époques où les femelles sont réceptives, ce qui, compte tenu des gestations et des lactations, ne survient guère que tous les quatre à sept ans. L'union des sexes est donc rare. Les mères élèvent leurs petits sans aucun secours masculin. Le rôle du père se limite à l'insémination de la mère, minimum requis pour la procréation (17).

Les chimpanzés, des forêts de l'Afrique tropicale, sont les grands singes les plus proches de l'Homme par diverses caractéristiques biochimiques ou cellulaires. Ils vivent en larges communautés, subdivisées en groupes, dont les mâles adultes forment le noyau stable, sous la direction d'un mâle dominant. Celui-ci veille vigoureusement contre l'intrusion de mâles étrangers. Les femelles, moins sociables que les mâles, passent parfois d'un groupe à un autre. Lorsque l'une d'entre elles devient réceptive, ce que signale une tumescence périnéale rouge et visible de loin, elle s'unit aux mâles de rencontre, qui l'invitent par une attitude caractéristique. Un mâle essaie parfois d'entraîner une femelle à l'écart pour lui seul, au moins pour quelques heures, sinon pour plusieurs jours. La femelle accepte ou non la proposition, et peut ainsi choisir un conjoint du moment. Gestante, elle s'isole pour élever ses petits. De père s'occupant de sa famille, au sens humain, il n'est pas question.

Le gorille, autre grand singe des forêts tropicales africaines, d'aspect peu engageant de prime abord, atteint sa pleine taille, deux fois le poids des femelles, et son aspect caractéristique de « dos argenté » à l'âge de 18 ans. Un adulte, éventuellement deux, et quelques mâles subadultes, forment avec un petit nombre de femelles une association qui dure plusieurs années, encore que certaines femelles puissent se couler d'un groupe à un autre. L'un des adultes est dominant, et, tant que dure sa suprématie, il a seul accès aux femelles adultes fertiles. Dian Fossey( 18) qui a étudié les gorilles du Ruanda et du Zaïre raconte que jusqu'à l'âge de trois ans les enfants ne s'écartent guère de leur mère, mais qu'ensuite le père tolère leurs jeux pendant les heures de repos souvent pris en famille.

De cette confrontation avec les trois anthropomorphes que les biologistes considèrent comme nos proches cousins, il ressort nettement que chacun a évolué pour son compte et retenu son propre type de liens familiaux. La parenté n'empêche pas la diversité.


Le rôle de père, propos d'un biologiste

Monogamie ou polygamie originelle de l'homme ?

Une autre sorte de réflexion sur le système familial humain a été formulée par Roger Short (19). Les Mammifères polygames ou polygynes, dit-il, présentent habituellement des différences sexuelles marquées qui permettent de distinguer les mâles des femelles même de loin, comme la taille, la ramure, la crinière, etc. Ce « dimorphisme sexuel » a été mis en relation soit avec le choix par la femelle du mâle préféré, soit avec la compétition entre mâles pour approcher la femelle. A l'inverse, dans les espèces monogames de telles différences entre les sexes n'existent généralement pas. On associe parfois les mots de monogamie et de « monomorphisme ». Or, dans l'espèce humaine, le dimorphisme sexuel est assez prononcé : taille, musculature, pilosité ou calvitie masculines ou seins et formes corporelles plus gracieuses de la femme. La polygamie pourrait donc bien être la tendance originelle de l'homme, nous dit le biologiste britannique.

Le rôle de l'homme dans la procréation : idées d'autrefois

J'en viens enfin à une question primordiale. L'homme, c'est évident pour tous, intervient dans la procréation. Mais c'est la femme qui porte l'enfant et lui donne le jour. Quels sont, alors, exactement, les rôles respectifs des deux sexes et quel est le mécanisme de la génération?

Les mythes et les penseurs

A question ancienne, réponses nombreuses et variées. Dès les cosmogonies les plus reculées deux tendances prédominent. Pour les Sumériens, par exemple, trois mille ans avant notre ère, l'union charnelle d'un Dieu masculin et d'une Déesse féminine était à l'origine de l'humanité. La Bible, au contraire, enseigne qu'un Dieu unique, masculin, Dieu le Père, ou le Créateur, a créé le Monde, créé l'Homme, créé la Femme. Les généalogies de la Genèse sont essentiellement masculines. Cette manière de prédominance masculine se retrouve, accentuée, dans le Coran.

Les penseurs de l'antiquité étaient partagés, eux aussi. Les uns, tel Hippocrate, frappés par les ressemblances de l'enfant aussi souvent avec sa mère qu'avec son père, ont admis que les deux parents produisaient, tous deux, à égalité, un sperme véhiculant les caractères héréditaires (20). D'autres étaient enclins à favoriser la prééminence du père, soit en admettant comme Aristote que « le mâle possède le principe moteur et générateur, la femelle le principe matériel » (21), soit en pensant comme Diogène d'Apollonie( 22) que seul le sperme du père est à l'origine du descendant, opinion qui de-ci, de-là se retrouvera jusqu'à une époque récente.

Pendant plus de vingt siècles d'histoire écrite, des opinions diverses ou contradictoires, tantôt confuses, tantôt touchantes, parfois irritantes par leur intolérance, se sont exprimées au sujet du rôle du père dans la procréation. Et voici qu'en 1672 et 1677, presque simultanément, deux éléments majeurs sont introduits dans la discussion, l'existence d'oeufs dans l'ovaire et la découverte inouïe de petits « vers » ou « animalcules » visibles au microscope dans le sperme de l'homme ou des animaux(23).


TABLE XV

Elle reprefente le tefîicule ou ovaire d'une vache ouvert avant le coït.

AA. Le tefticule ourerc de fa longueur. B. Gros oeuf & meur , étant dans le tefticule. C.C. Petits oeufs & non meurs attachés au tefticule. D.D. La membrane des tefticulcs apellée Darcos.

E. Gros oeuf tiré hors du cefticule.

F. Expanfion membraneufe de la trompe de

Fallope.

G. Trou de l'extrémité de la crompe rétréci. H. L'extrémité de la trompe de Fallope.

I.I. Le refte de la trompe. K. Portion de la corne de la matrice coupée. L. Ligament de la trompe nommé aile de chauvefoutrs dans les femmes.

TABLE XVI.

Elle reprefente le tefticule ou ovaire d'une

femme avec l'extrémité des trompes

qui y efl attachée.

A. Le tefticule ouvert ffuivant fa longueur en fa partie inférieure.

B B. Oeufs de diverfes grofleurs contenus dans la fubftance membraneufe des tefticules.

C.C. Vailfeaux fanguinaires au milieu des tefticules, venant en grand nombre de fa partie fuperisure & allant aux oeufs.

D.D. Ligament des tefticules avec la matrice coupé.

E. Partie de la trompe de Fallope coupée.

F. La cavité de la trompe.

G. Le trou qui eft au bout de la trompe, H.H. Le feuillage de la trompe.

I. Le même attaché au tefticule.


Le rôle de père, propos d'un biologiste

En 1672, en effet, Régnier de Graaf faisait accepter l'idée que le « testicule femelle » des Mammifères, ce que nous appelons maintenant l'ovaire, contient des oeufs comparables à ceux des animaux ovipares (fig. 2). Même si son interprétation des faits se révélait inexacte — l'ovule des Mammifères fut découvert seulement 55 ans plus tard — le rôle de l'ovaire dans la reproduction s'ancrait dans la connaissance humaine. La signification réelle des spermatozoïdes découverts par Antoine Leeuwenhoek et Louis Ham en 1677 (fig. 3) resta plus longtemps incertaine et discutée.

Les ovistes

Ces observations qu'on peut qualifier de scientifiques, avaient surgi dans un siècle de longues et ardues discussions théologiques et philosophiques sur la transmission de l'âme et sur la création de l'Homme. D'aucuns, admettant avec Saint-Augustin, que Dieu avait créé tout au même moment, étaient conduits à penser que toutes les créatures avaient été créées dès l'origine des temps. Malebranche, en 1674, dans sa « Recherche de la vérité », traduit avec clarté des idées mûres à cette époque. Après avoir observé dans le germe d'un oignon de tulipe, une petite tulipe déjà tout entière, il pense qu'elle-même doit déjà contenir la nouvelle tulipe qui en naîtra, et ainsi de suite jusqu'à l'infini, et depuis la création initiale. De la même manière, conclut-il,

« tous les corps des hommes et des animaux qui naîtront jusqu'à la consommation des siècles, ont peut-être été produits dès la création du monde; je veux dire, que les femelles des premiers animaux ont peut-être été créées, avec tous ceux de la même espèce qu'ils ont engendrez et qui devaient s'engendrer dans la suite des tems »(24).

Ainsi naissait la théorie de la « préexistence » des germes et de leur « emboîtement » comme on disait, chaque génération contenant déjà, préexistantes et incluses les unes dans les autres, toutes celles qui doivent en descendre.

La conception « oviste » de Malebranche et de bien d'autres devait durer fort longtemps. Jean-Baptiste Du Hamel, le premier Secrétaire perpétuel de l'Académie des Sciences, y a été converti. Un siècle plus tard, en 1786, paraissait à Genève la traduction française de l'important ouvrage de l'Abbé Lazzaro Spallanzani, de l'Université de Pavie, intitulé « Expériences pour servir à l'histoire de la génération des animaux et des plantes », dans lequel il démontrait avec un soin et une précision remarquable, la nécessité pour l'oeuf de grenouille d'être fécondé par le sperme du mâle pour pouvoir se développer.

Fig. 2 (ci-contre). — Illustrations de de Graaf présentant un ovaire de vache (planche XV) et un ovaire de femme (planche XVI). Le dessin de l'ovaire de femme est reproduit d'après l'édition originale de 1672, celui de l'ovaire de vache d'après l'édition de 1705. Les légendes sont celles figurant dans l'édition française de 1699. (30). Bien entendu ce qui est appelé « oeuf » ici, constitue en réalité le follicule ovarien, aujourd'hui appelé follicule de de Graaf.

259


A. Jost

Dans l'une des premières expériences, il sacrifie 156 grenouilles pour une seule démonstration, prouver que les oeufs prélevés dans l'organisme féminin ne se développent pas, parce qu'ils n'ont pas été fécondés; normalement, le mâle répand son sperme sur les oeufs au moment où ils sont pondus. L'expérimentation est conduite de manière rigoureuse. Et voici que tout à coup, au détour d'une page, ce scientifique méticuleux et critique affirme que le descendant préexiste dans ce que tout le monde appelle l'oeuf de grenouille et dont il demande qu'on l'appelle foetus et non oeuf. Les spermatozoïdes n'ont aucun rôle dans la génération du descendant, dit Spallanzani, puisque la fécondation peut être réalisée par du sperme dans lequel il n'a pas réussi à voir de spermatozoïde au microscope. Le liquide spermatique ne sert qu'à stimuler le coeur du foetus préformé, ce qui « donnera naissance à la vie qui suit la fécondation ».

Les animalculistes

Bien entendu, d'autres, nombreux aussi, s'opposaient à la théorie oviste. Quelques années après sa découverte, Leeuwenhoek admit que l'animalcule ou spermatozoïde était à l'origine du descendant. La conception dite parfois « animalculiste » prit corps, selon

Fig. 3. — Dessins d' « animalcules » observés par Leeuwenhoek (1677) dans du sperme de lapin (1 à 4) et de chien (5 à 8). Dans chaque cas un spermatozoïde est dessiné vivant (1 et 5), la tête (ABC et EFG) et la queue (CD et GH) étant distinguées. Les autres spermatozoïdes sont immobiles et plus ou moins altérés (d'après Philosophical Transactions, 1678 (réduit de 1/4)(31).

260


Le rôle de père, propos d'un biologiste

laquelle les germes des générations successives, préexistent dans le spermatozoïde; c'était l'emboîtement des germes dans le sexe mâle. Nicolas Hartsoeker (devenu associé étranger de notre Académie, comme Leeuwenhoek), dans son « Essay de Dioptrique » publié, à Paris, en 1694, par Jean Anisson, Directeur de l'Imprimerie Royale, pense que le spermatozoïde humain contient déjà le petit homme à venir, ce qu'il figure dans un dessin classique (fig. 4), dont il dit :

« si l'on pouvoit voir le petit animal au travers de la peau qui le cache, nous le verrions peut-être comme cette figure le représente sinon que la tête serait peutêtre plus grande à proportion du reste du corps, qu'on ne l'a dessinée icy »...

« [on peut] dire que chacun de ces animaux mâles renferme lui-même une infinité d'autres animaux mâles et femelles de même espèce; mais qui sont infiniment petits, et ainsi de suite; de sorte que selon cette pensée les premiers mâles auraient été créés avec tous ceux de la même espèce qu'ils ont engendrez et qui s'engendreront jusqu'à la fin des siècles ».

Le père est donc le vrai progéniteur, la mère ne fait que subvenir à la nourriture du petit être et permettre son accroissement. La thèse animalculiste eut de nombreux adeptes, jusqu'au Révérend Père ***, anonyme, sans doute le père Le Brun, qui écrivait dans le « Journal des Sçavans », en janvier 1707 :

Quant à la queftion , fi dés le commencement de toutes choies, Dieu a mis les germes du genre humain dans les hommes ou dans les femmes : permettez-moi de vous dire feulement, qu'il m'a paru depuis plufieurs années , qu'il eft contre l'analogie de la Foy, & des Myfteres, de fuppofer que Dieu ait mis les germes dans les femmes. J'ai lu tout ce qu'on a obfervé dans les Mémoires des Arts & des Sciences , aux Journaux des Sçavans 1672. & en divers autres recueils ; & j'oie cependant efperer , que ceux à qui il convient d'examiner toutes ces obfervations anatomiques, pourront enfin nous apprendre , après une ferieule application , que dans ce qu'on appelle les oeufs &; les ovaires des femmes , il n'y a qu'une matière propre à nourrir , & à faire croître le germe qui vient de l'homme. Et véritablement il y a d'habiles Auteurs qui ont déjà montré, qu'on n'établiffoit ia nouvelle opinion que fur des fondemens fort légers.

Les excès des préformistes, ovistes ou animalculistes, se heurtaient peu à peu à la redécouverte de l'épigenèse au cours du développement embryonnaire. Le descendant ne préexiste pas dans l'oeuf, ses divers organes se forment progressivement. De plus, il est évident que l'enfant peut hériter de ressemblances aussi bien de sa mère que de son père.


A. Jost

230 ESSAY DE DlOFTRIQUE.

que la tête feroit peut-être plus grande à proportion du refte du corps, qu'on ne l'a deffinée icy.

Au relie, l'oeuf n'eft à proprement parler que ce qu'on appelle placenta , dont l'enfant, après y avoir demeuré un certain-temps tout courbé & comme en peloton, brife en s'étendant & en s'allongeant le plus qu'il peut, les membranes qui le couvroient, & pofant fes pieds contre le placenta, qui refte attaché au fond de la matrice, fe pouffeainfi avec la tête hors de fa prifon ; en quoi il eft aidé par la mère, qui agitée par la douleur, qu'elle en fent, pouffe le fond de la matrice en bas, & donne par confequent d'autant plus d'occafïon à cet enfant de fe pouffer dehors & de venir ainfi au monde.

L'expérience nous apprend que beaucoup d'animaux fortent à peu prés de cette manière des oeufs qui lés renferment.

L'on peut pouffer bien plus loin cette nouvelle penfée de la

génération, & dire que chacun de ces animaux mâles, renferme lui-même une infinité d'autres

Fig. 4. - Page 230 du traité de Dioptrique de Hartsoeker (1694).

262

ART. XC. Ce que c'eft que l'oeuf de la femme, & comment un enfant vient ordinairement au monde.

ART. XCI.

Que l'on peut pouffer bien plus loin cette nouvelle penfée de la generation, & comment.


Le rôle de père, propos d'un biologiste

Maupertuis et Buffon, au milieu du XVIII 5 siècle, pour ne citer qu'eux, revenaient à des conceptions, certes fumeuses dans le détail, mais qui rétablissaient une sorte d'égalité des deux sexes dans la production de la descendance, en admettant qu'ils participent tous deux matériellement à l'origine de l'enfant.

La naissance de la biologie et la découverte de la fécondation

Il fallut ensuite attend te 125 ans pour que le rôle respectif du père et de la mère dans la génération de l'enfant soit compris. Cette longue période avait permis à la Biologie de faire des progrès décisifs et indispensables pour trouver la solution du problème posé. C'est au cours du XIXe siècle que fut introduite ce que l'on a appelé la théorie cellulaire, la cellule étant identifiée comme l'unité de structure des êtres vivants, et ses constituants (noyau, cytoplasme, membrane) étant reconnus. Dès 1858, Virchow établissait que toute cellule provient d'une cellule préexistante. Les embryologistes suivaient le développement d'un nouvel individu à partir d'une cellule initiale et la croyance à la génération spontanée d'êtres vivants à partir de la matière inerte était définitivement ruinée. Les progrès de la microscopie avaient grandement contribué à cette avancée.

Durant le dernier quart du XIXe siècle, les connaissances acquises étaient donc devenues suffisantes pour que la lumière put enfin se faire. On assiste alors à l'éclosion de travaux passionnants.

En 1875, Oscar Hertwig, un grand biologiste allemand, scrute la fécondation in vitro de l'oeuf d'un oursin et constate que la tête du spermatozoïde fécondant se transforme dans l'ovule en un noyau mâle, qui va fusionner avec le noyau femelle de l'ovule.

« Nous avons reconnu, conclut-il, que l'événement le plus important de la fécondation est la fusion de ces deux noyaux ».

Le noyau résultant de cette fusion est le noyau de la cellule oeuf, cellule qui, en se divisant, sera à l'origine de l'embryon en formation (25).

Quelques années plus tard, en 1883, le biologiste belge Edouard Van Beneden publie un autre travail fertile en conséquences, sur la fécondation de l'oeuf de l'Ascaris. L'Ascaris est un ver parasite de l'intestin du cheval, qui est devenu de la sorte un des héros de la biologie (26). Van Beneden constatait qu'au moment de la division cellulaire, le noyau se résout en quatre « anses chromatiques », c'est-à-dire en filaments incurvés fixant les colorants, bien reconnaissables et faciles à identifier (fig. 5 et 6). Le nombre de quatre est caractéristique de l'espèce d'Ascaris étudiée :

« Le nombre des anses est constant, écrit-il, on en trouve régulièrement quatre », or l'étude de la fécondation montre « avec la dernière évidence... que deux de ces anses proviennent de pronucleus mâle, les deux autres du pronucleus femelle... » Plus loin il dit encore : « les pronucleux mâle et femelle interviennent à égalité de titres ».

Suivent des années de recherche effervescente, riches en discussions, en découvertes et en idées théoriques, comme celles d'Oscar Hertwig et d'August Weismann concernant l'hérédité.


A. Jost

Fig. 5. — Dessins de Van Beneden (1883) ( 26) de préparations d'oeuf d'Ascaris au cours de la fécondation. En 6 le noyau du spermatozoïde qui a pénétré dans l'ovule est devenu semblable à celui de ce dernier (qui a subi sa « maturation »). Dans les dessins 11, 12, 18 et 19, les deux noyaux sont accolés, et dans chacun se différencient deux anses chromatiques (chromosomes). Dans cette espèce, la vraie fusion nucléaire n'a lieu qu'à la fin de la première division de l'oeuf, ce qui permet de bien suivre l'apport chromosomique de chaque sexe.

Fig. 6. — Une des premières photographies de chromosomes : les quatre « anses chromatiques » de l'Ascaris lors de la division de l'oeuf ont été photographiées par Adolphe Neyt (1887) (32).

264


Le rôle de père, propos d'un biologiste

Un centenaire : l'égalité du père et de la mère dans la procréation

Les filaments chromatiques, reçus en nombre égal des deux parents au moment de la fécondation, sont vite considérés comme les supports des caractères héréditaires. En 1888, Theodor Boveri en défend l'individualité et la persistance dans le noyau, même lorsqu'ils deviennent invisibles entre deux phases de division. L'importance cruciale de ces constituants essentiels de la cellule était devenue si patente qu'il fallut leur donner un nom, ce que fit Wilhelm Waldeyer, en 1888 également. Il proposa le nom de « chromosome », qui fut immédiatement adopté comme une nécessité évidente (27).

Il me semble donc justifié de vous proposer de célébrer aujourd'hui, en 1988, un centenaire, celui de la démonstration de l'égalité des deux sexes dans la génération, matérialisée par l'individualité et la persistance des chromosomes transmis à égalité par chacun des deux parents au moment de la fécondation.

Depuis un siècle et depuis un siècle seulement nous savons le rôle du père dans la génération. Et surtout, depuis un siècle et un siècle seulement, a été donné à la mère un rôle égal à celui du père, ôtant ainsi à ce dernier des prérogatives que d'aucuns lui

Fig. 7. — Photographie d'une coupe histologique d'un oeuf de vache une douzaine d'heures environ après la pénétration du spermatozoïde dans l'ovule; l'oeuf est entouré par une enveloppe de consistance élastique, la zone pellucide, ici très noire et plus grande que l'oeuf lui-même après la rétraction de celui-ci. Les deux pronuclei se trouvent accolés au centre de l'oeuf, où ils restent jusqu'à la première division de segmentation. Le pronucleus femelle (celui de droite) est bien identifiable par sa chromatine plus dense du côté adjacent au pronucleus mâle (celui de gauche). Une caractéristique semblable du pronucleus femelle se retrouve dans plusieurs espèces animales et dans l'oeuf humain. (Photographie due à l'amitiié du Professeur Charles Thibault.)

265


A. Jost

avaient attribuées abusivement. Il en garde une, cependant, seul il peut transmettre la masculinité à ses descendants.

Ces découvertes, parachevées par celle de la réduction chromatique des cellules sexuelles, ont été à l'aube de la Biologie moderne en donnant l'explication chromosomique des lois de l'hérédité, qu'avait découvertes dès 1866, Gregor Mendel resté longtemps méconnu. La génétique chromosomique de la première moitié du XXe siècle est ellemême relayée maintenant par la génétique moléculaire qui progresse à une vitesse vertigineuse (28).

Ainsi donc, l'Homme qui au cours de l'évolution a acquis un comportement familial, qui a appris à se reconnaître comme le père de ses enfants et à se conduire en père, cet homme a maintenant acquis la possibilité de retrouver la réplique de certaines de ses molécules les plus intimes dans les cellules de ses enfants. Il peut donner une preuve moléculaire de sa paternité — ou éventuellement la désavouer.

Je vous proposais tout à l'heure de célébrer un centenaire, celui de l'égalité du père et de la mère dans la génération, chacun apportant à la constitution de l'oeuf, lors de la fécondation, un pronucleus équivalent (fig. 7).

Mais la science n'a pas fini de progresser. Voici que des recherches toutes récentes suggèrent des faits inattendus concernant le développement de l'oeuf de souris. Les noyaux des cellules sexuelles des deux sexes ne seraient pas absolument équivalents pour assurer le développement initial du nouveau-né. Les chercheurs le montrent en opérant in vitro et en employant des techniques micro-chirurgicales de transfert de noyau qui permettent l'ablation du noyau de l'ovule ou l'injection de noyaux dans son cytoplasme. On peut ainsi obtenir des « oeufs » contenant deux noyaux paternels ou bien deux noyaux maternels ou bien un noyau issu de chaque sexe, comme c'est le cas lors de la fécondation normale. Or, lorsqu'on réintroduit ces oeufs dans un utérus maternel, seuls ceux qui contiennent un noyau mâle et un noyau femelle se développent normalement. Les modalités d'expression des gènes semblent réglées de telle manière, que l'union d'un noyau issu du père avec un noyau issu de la mère est nécessaire au bon développement initial de l'enfant (29). Découverte nouvelle et curieuse qui demande à être vérifiée et analysée. Appliquée à la famille humaine, elle ne serait pas pour déplaire.

NOTES

(1) Il les cite de la manière suivante :

« Il y a la paternité jalouse et terrible de Bartholomeo di Piombo, la paternité faible et indulgente du comte de Fontaine, la paternité partagée du comte de Granville, la paternité tout aristocratique du duc de Chaulieu, l'imposante paternité du baron du Guénic, la paternité douce, conseilleuse et bourgeoise de M. Mignon, la paternité dure de Grandet, la paternité nominale de M. de la Baudraye, la paternité noble et abusée du marquis d'Esgrignon, la paternité muette de M. de Mortsauf, la paternité d'instinct, de passion et à l'état de vice du père Goriot, la paternité partiale du vieux juge Blondet, la paternité bourgeoise de César Birotteau ». (Collection Lovenjoul, A 159, f 24.)

( 2) Des sentiments et un comportement paternels naissent cependant normalement chez le « père » d'un enfant né d'un adultère ignoré.

Dans le droit romain le père de famille, paterfamilias, ne devenait père d'un enfant que lorsqu'il l'avait « reconnu » et « adopté », même si celui-ci avait été engendré par un autre. Il exerçait alors tous les droits de la puissance paternelle, parfois exorbitante, la patria potestas.


Le rôle de père, propos d'un biologiste

Je remercie Jean Delumeau, Professeur au Collège de France, Membre de l'Institut, d'avoir attiré mon attention sur la primauté chez les romains, de la « reconnaissance » de l'enfant par le père sur la paternité biologique.

( 3) Le premier ou l'un des premiers ouvrages à signaler le fait date de 1899 (B. Spencer & F. J. Gillen : The native tribes in Central Australia, Londres). Dans son article de 1986, F. Merlan cite un grand nombre de publications sur ce sujet (Australian aborigenal conception beliefs revisited, Mon, Journal ofthe royal Anthropological Institute, New Séries, 21, pp. 474-493). Dans le même fascicule de la même revue Carol Delaney apporte une intéressante discussion sur les concepts de paternité et de naissance virginale (« The meaning of paternity and the virgin birth debate », pp. 493-513).

Je dois une grande reconnaissance à Françoise Héritier-Augé, Professeur au Collège de France, qui m'a amicalement documenté sur cet aspect de la pensée des aborigènes.

(4) L'article de E. Leach d'abord paru en 1966 dans Proceedings of the Royal Anthropological Institute of Great Britain and Ireland, pp. 39-49, a été traduit en français dans l'ouvrage de E. Leach intitulé « l'Unité de l'Homme et autres essais » (Gallimard, 1980).

( 5) Divers aspects sur la vie sociale des éléphants sont analysés dans le chapitre de H. T. Dublin intitulé : « Cooperation and Reproductive Competition among Female African Elephants » dans le livre publié par S. K. Wasser (« Social Behavior of female Vertebrates », Académie Press, 1983). Les faits rapportés ici lui sont empruntés.

( 6) La traduction citée ici est celle de P. Attinger (Enki et Ninhursaga, Zeitschrift fur Assyriologie, 74, pp. 152, 1984), qui diffère peu de celle souvent rapportée de Kramer (1944).

Je remercie vivement M. Paul Garelli, Professeur au Collège de France, Membre de l'Institut, de me l'avoir fait connaître.

( 7) On trouvera des détails et de nombreux renseignements bibliographiques sur ces sujets dans l'article de J. F. Wittenberger & R. L. Tilson (The évolution of monogamy, Annual Review of Ecological Systems, 11, pp. 197-232, 1980).

( 8) Le terme de polygamie implique une certaine stabilité dans les relations entre le mâle et les mêmes femelles. Le mot de polygynie, signifiant seulement qu'un seul mâle peut avoir des femelles multiples, recouvre aussi bien la polygamie que les relations entre mâles et femelles de très courte durée ou faites au hasard des rencontres, sans lien fixe entre les individus (« promiscuity » des auteurs de langue anglaise).

( 9) L'article classique bien que déjà un peu ancien de Debora Kleinman (Monogamy in Mammals, Quarterly Review of Biology, 52, pp. 39-69, 1977) est une importante source de renseignements.

( 10) Ce paragraphe est directement inspiré du travail de R. Tenaza : Territory and monogamy among Kloss'Gibbons (Hylobates Klossii) in Siberut Island, Indonesia, (Folia Primatologia, 24, pp. 60-80, 1975). Les gibbons sont pratiquement les seuls anthropôdes monogames. A l'exception d'un langur monogame (Presbytis potenziani), les autres singes de l'ancien Monde (85 espèces) sont généralement polygames ou sans lien stable entre les sexes (« promiscuity » en anglais) (voir à ce sujet R. Tilson et R. Tenaza : Monogamy and duetting in an Old World monkey, Nature, 262, pp. 320-321, 1976).

( 11) On a signalé des cas où deux femelles de la meute portaient des petits, mais ce n'est pas fréquent. David Mech, qui a beaucoup étudié les loups du Minnesota, a publié un livre en 1970 (« The Wolf », Doubleday Publisher, New York) et rapporté des données précises dans un chapitre écrit avec Jane Packard et intitulé « Population régulation in wolves » (dans le livre de M. Cohen, R. Malpass & H. Klein, « Biosocial mechanisms of population régulation », Yale University Press, 1980). Il a récemment rapporté des faits semblables chez les loups blancs de l'Arctique qu'il a observés de près dans l'île d'Ellesmere, au nord du Canada (National Géographie, mai 1987, 171, pp. 562-593).

( 12) Les faits concernant les chacals sont cités d'après le travail de Patricia Moehlman (Jackal helpers and pup survival, Nature, 277, pp. 382-383, 1979). D. W. Macdonald a décrit des « aides familiaux » chez les renards (« Helpers » in fox society, Nature, 282, pp. 69-71, 1979).

( 13) L'expérience est rapportée en détail dans l'article intitulé « Behavioural and physiological suppression of fertility in subordinate Marmoset Monkeys », American Journal of Primatology, 6, pp. 169-186, 1984. Cet article cite beaucoup de recherches antérieures faites sur le même petit singe.

( 14) Mme A. Gautier-Hion a étudié sur place et dans la nature « l'organisation sociale d'une bande de talapoins (Miopithecus talapoin) dans le Nord-Est du Gabon », Folia primatologia, 12, pp. 116-141, 1970.

( 15) Ces recherches récentes sont encore en cours. On peut, semble-t-il, en attendre des informations du plus haut intérêt en ce qui concerne ces primates et peut-être, un jour, l'homme. C'est la raison pour laquelle il me semble utile de donner deux références tout au moins :

J. A. Eberhart, U. Yodyingyard & E. B. Keverne : Subordination in male talapoin monkeys lowers sexual behaviour in the absence of dominants, Physiol. Behav., 35, pp. 673-677, 1985.


A. Jost

N. D. Martensz, S. V. Vellucci, E. B. Revente & J. Herbert : Endorphin levels in the cerebrospinal fluid of male talapoin monkeys in social groups related to dominance status and the luteinizing hormone response to naloxone, Neuroscience, 18, pp. 651-658, 1986.

Le Dr E. B. Keverne a bien voulu relire mon manuscrit et me faire plusieurs remarques utiles. Je l'en remercie vivement.

( 16) J'ai emprunté de nombreuses informations au livre publié par D. Hamburg et E. McCown et intitulé « The Great apes ». Il s'agit du volume V d'une série parue sous le titre « Perspectives on human evolution » (Benjamin/Cummings, Mento Park, Calif., USA, 1979) et à l'ouvrage collectif de C. E. Graham : « Reproductive biology of the great apes » (Academie Press, 1981).

(17) Ce grand singe dont le nom signifie « homme des bois » en malais est en voie de disparition à Bornéo par suite de la déforestation intensive. Certains tentent actuellement de le protéger, en particulier l'équipe de Birute Galdikas.

( 18) Dian Fossey, qui a passé une grande partie de sa vie à étudier et à défendre les gorilles, est morte en 1985 victime, probablement, de sa défense courageuse d'une espèce en voie de disparition.

( 19) Voir son chapitre dans le livre de C. E. Graham cité dans la note(16).

( 20) « Il est impossible que tout ressemble à la mère et rien au père, ou tout au père et rien à la mère, ou rien ni à l'un ni à l'autre. Mais nécessairement, l'enfant ressemble à l'un et à l'autre en quelque chose, s'il est vrai que la semence vient des deux corps à l'enfant. A celui qui contribue le plus et de plus de parties à la ressemblance, l'enfant ressemble le plus. Il arrive que parfois la fille ressemble plus au père qu'à la mère, et le garçon plus à la mère qu'au père ». (Hippocrate. De la génération §8, p. 481 dans le volume 7 des OEuvres d'Hippocrate dans la traduction de E. Littré, J. B. Baillère, Paris, 1851).

( 21) Aristote « De la génération des animaux », traduction de Pierre Louis, Les Belles Lettres, Paris, 1961, Livre I, 1, page 3.

( 22) Selon Censorinus qui écrivit un traité, en l'an 238, « les savants se disputent également sur le point de savoir si l'embryon naît de la seule semence paternelle, comme l'on écrit Diogène, Hippon et les Stoïciens ou si n'intervient pas également de la semence maternelle comme le pensent Anaxagore et Alcméon, et aussi Parménide, Empédocle et Epicure » (cité d'après les Présocratiques, édition établie par Jean-Paul Dumont, Collection de la Pléiade, Gallimard, 1988, page 223).

( 23) Pour une information détaillée sur l'évolution des conceptions sur la reproduction jusqu'à la fin du XVIIIe siècle, on pourra consulter les importants ouvrages d'Emile Guyénot : « Les Sciences de la vie au XVIIe et XVIIIe siècles. L'idée d'Évolution » (Albin Michel, Bibliothèque de Synthèse historique, Paris, 1941) et de Jacques Roger : « Les Sciences de la vie dans la pensée française du XVIIIe siècle (Armand Colin, T édition 1971, 848 pages).

( 24) Le père Nicolas Malebranche, dans « La recherche de la Vérité (Livres I et II édités par D. Roustan & P. Schrecker, Boivin, Paris 1938, in 8°).

( 25) Oscar Hertwig rend hommage à L. Auerbach qui, en 1874, avait insisté sur le rôle crucial du noyau dans la vie cellulaire. C'est ce travail qui le décida à chercher dans un laboratoire marin des cellules assez transparentes pour permettre l'observation au microscope du noyau dans la cellule vivante. L'oeuf d'oursin répondait à cette exigence. Dans son article, il donne des dessins de la fusion des deux noyaux de fécondation, puis de la division du noyau de la cellule oeuf au début du développement de l'embryon.

La même année, Edouard Van Beneden rapportait ses observations sur la fécondation de l'oeuf de lapin. Ni le matériel, ni la technique insuffisante (matériel fixé pour l'histologie) ne donnèrent des résultats clairs. Les aspects des noyaux étaient peu interprétables. Il lui sembla cependant que ceux-ci, ou peut-être une partie de leur substance, jouent un rôle : alors, dit-il, « le premier noyau de l'embryon serait le résultat de l'union d'éléments mâles et femelles. J'énonce cette dernière idée comme une hypothèse que l'on peut ou non accepter ». On est loin de la conclusion si assurée d'Oscar Hertwig sur la signification de la fécondation : « so haben wir jetzt erkannt, dass der wichtigste Vorgang hierbei die Verschmelzung der beiden Zellkerne ist ». Cette phrase est extraite (page 386) de son travail dont le titre est : « Beiträge zur Kenntniss der Bildung, Befruchtung und Theilung des thierischen Eies » (Morphologishes Jahrbuch, 1, pp. 347-434, 1875).

( 26) En 1883, c'est au tour d'Edouard van Beneden de découvrir — dans les meilleures pages de ce terriblement long mémoire — avec l'Ascaris et une technique utilisable, un matériel exceptionnellement favorable qui sera mis à profit par les auteurs ultérieurs, en particulier par Boveri.

(E. Van Beneden : Recherches sur la maturation de l'oeuf et la fécondation, Archives de Biologie, 4, pp. 265640, avec 13 planches).

( 27) Dans son article consacré à l'individualité et à la permanence des chromosomes, Boveri parle encore de ceux-ci en les appelant « Stäbchen », c'est-à-dire batonnets (Theodor Boveri : Zellenstudien. II Die Befruchrung


Le rôle de père, propos d'un biologiste ,

und Theilung des Eies von Ascaris megalocephala, Jenaische Zeitschrift fur Naturwissenschaften, 22, pp. 685882, 1888).

L'article de Waldeyer est important surtout parce qu'il introduit le nom de chromosome (d'après le nom antérieur de chromatine que Flemming avait donné à la substance nucléaire prenant intensément certains colorants). Il donne aussi les raisons qui justifient de les considérer comme des éléments constants de la cellule en division. En écrivant il ne connaissait pas encore les importantes observations de Boveri.

(Wilhelm Waldeyer (1888) Ueber Karyokinese und ihre Beziehungen zu den Befruchtungsvorgângen, Archiv fur Mikroskopische Anatomie, 32, pp. 1-122, 1888).

( 28) Voir F. Gros : « Les secrets du gène », Odile Jacob, 1986.

( 29) Diverses expériences de ce type sont décrites dans les articles suivants :

J. McGrath & D. Solter : Completion of mouse embryogenesis requires both maternai and patentai genomes, Cell, 37, pp. 179-183, 1984.

N. A. H. Surani, S. C. Barton & M. L. Morris : Experimental reconstruction of mouse eggs and embryos: an analysis of mammalian development, Biology of Reproduction, 36, pp. 1-16, 1987.

( 30) Regneri de Graaf : De mulierum organis generationi inservientibus tractatus novus, demonstrans tam Homines et Animalia caetera omnia, quae Vivipara dicuntur, haud minus quam Ovipara, ab Ovo originem ducere, chez Hack, Leyde (1672).

Traité des parties des femmes qui servent à la génération (traduit en François par M. N. P. D. M.), chez E. J. C. König, Bâle (1705).

( 31) Leeuwenhoek (A.) : Observationes D. Anthonii Lewenhoek, de natis è semine genitali animalculis. Philos. Transactions, n° 142, janvier 1678.

(Traduction en latin de la lettre adressée à Brounker en novembre 1677.)

( 32) Van Beneden (E,) & Neyt (A.) : Nouvelles recherches sur la fécondation et la division mitosique chez l'Ascaride mégalocéphale. Bulletin de l'Académie Royale de Belgique, 14, pp. 215-295, 1887.

Notes ajoutées sur épreuves :

Concernant les aborigènes d'Australie (page 250) : on vient d'insister sur le rôle de l'imaginaire et sur la complexité spirituelle de leur civilisation (B. Glowizwski : « Les rêveurs du désert », Plon, 1989 et le numéro de mars 1989 de la revue Autrement portant pour titre « les Aborigènes, un peuple d'intellectuels »).

Concernant les éléphants (page 251) : Katharine Payne, dans National Géographie (vol. 176, août 1989) rapporte des observations suggérant que les éléphants des déserts de Namibie et du Zimbabwe communiquent entre eux par des sons de basse fréquence, infrasoniques; en particulier les femelles en oestrus émettent un « chant infrasonique » qui semble bien informer les mâles de leur état réceptif et les attirer.

269



LA VIE DES SCIENCES -

L'Académie des sciences et la Révolution

André GUINIER

Membre de l'Académie

A l'occasion du bicentenaire de la Révolution, de nombreux livres et expositions ont été consacrés au rôle des savants dans la Révolution française. Le présent article n'est pas une contribution historique : il donne seulement quelques réflexions du point de vue du scientifique actuel sur cette période fascinante et contrastée.

Dans la tourmente, la science a subi des pertes inadmissibles, disons stupides, du fait de ce qui nous paraît une « révolution culturelle ». En même temps, des politiques se sont rendu compte, pour la première fois dans l'histoire, que l'économie et la défense d'une Nation dépendaient des progrès de la science et la technologie. La Révolution a créé des institutions où, fait inédit, recherche et enseignement de haut niveau étaient associés. Cela a permis l'essor des génies scientifiques qui, au début du XIXe siècle, ont fait démarrer la science moderne.

L'héritage de la Révolution est encore sensible pour nous, en particulier dans la dualité de notre enseignement supérieur (Écoles et Université).

Quand on évoque les savants dans la tourmente révolutionnaire, deux images viennent à l'esprit : l'exécution de Lavoisier et la terrible phase attribuée au président du tribunal qui le condamnait « La République n'a pas besoin de. savants », et aussi ce qui, après deux siècles, subsiste de l'oeuvre de création des révolutionnaires, comme l'École Polytechnique et le système métrique.

Faut-il dire, avec un conventionnel repenti, que « la Révolution ressemble à ces torrents fougueux qui se précipitent du haut des montagnes, renversent tout ce qu'ils rencontrent et finissent par demeurer secs », ou bien, avec le physicien Biot, « que l'on parcoure les annales des peuples, que l'on rassemble, s'il le faut, plusieurs pays et plusieurs âges, on ne trouvera pas une nation, pas une époque où l'on ait tant fait pour l'esprit humain ».

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 3, p. 271-288


A. Guinier

Les opinions d'aujourd'hui, quand elles sont trop tranchées, sont souvent étayées par des idéologies politiques, disons de droite ou de gauche. Alors suivons plutôt les historiens qui, admettant la complexité de la réalité, s'astreignent à en examiner les diverses facettes.

Les destructions

Il y avait en France, avant 1789, une activité notable dans le domaine des sciences. Les Encyclopédistes avaient fait reconnaître l'importance des travaux scientifiques et techniques. L'Académie Royale des Sciences produisait régulièrement de nombreux mémoires de valeur. Certes les savants dont le nom s'est conservé n'étaient pas nombreux, quelques dizaines (et il en sera de même pendant la Révolution). Ils étaient indépendants et s'étaient formés en dehors d'écoles ou d'universités. Seules des personnalités exceptionnelles pouvaient émerger : on était bien loin de la science de masse moderne. Les savants étaient des amateurs, généralement fortunés. Si Lavoisier a pu s'adonner à la chimie et réaliser ses célèbres expériences dans son cabinet personnel, c'est parce qu'il était fort riche, grâce à sa fonction de fermier général, qui lui a été fatale.

Les savants dont nous parlerons ont de 35 à 50 ans en 1790. Ils ont déjà effectué les travaux qui les rendent célèbres. Ce qu'ils ont accompli pendant la période révolutionnaire, dans des conditions difficiles et dans la précipitation, c'est grâce aux connaissances et aux méthodes de travail qu'ils avaient acquises sous l'Ancien Régime. On retrouve là un aspect de la continuité mise en lumière par Tocqueville : « La Révolution a beaucoup moins innové qu'on ne le suppose généralement ».

Au début, dans leur ensemble, les savants ont été favorables aux idées nouvelles : c'était bien naturel pour des fervents des « Lumières ». Certains avaient eu à souffrir des inégalités de la royauté. Ainsi Gaspard Monge ne put entrer à l'École Militaire de Mézières parce qu'il n'était pas noble. On peut imaginer que les académiciens supportaient mal que siègent avec eux des membres « honoraires », fort peu scientifiques, que nommait le roi.

Quelques-uns se sont nettement engagés. Ils ont été membres des Assemblées, où ils ont joué un rôle politique important. Ainsi l'astronome Bailly a été maire de Paris; le mathématicien Monge a été ministre de la Marine; Condorcet a donné un projet de constitution, Lazare Carnot, le grand ingénieur, a été membre du Comité de salut public et il a « organisé la victoire »... D'autres ont préféré rester dans l'ombre. Mais tous ont répondu favorablement quand les politiques leur ont demandé de travailler « pour la République » et, en tout cas, pas un n'a émigré pour se joindre à ses ennemis.

Ainsi les savants étaient tout disposés à collaborer avec le Nouveau Régime : ils voulaient réformer les institutions scientifiques d'avant 1789 dont ils sentaient l'insuffisance et les défauts. Cependant le petit groupe n'échappa pas à la vague de suspicion qui s'enfla jusqu'au paroxysme de la Terreur. « Il est désolant, dit Lavoisier, de voir que les arts qui faisaient en France des progrès si rapides et qui pouvaient contribuer de manière si efficace à la gloire et à la prospérité de la République, sont sacrifiés à des opinions exagérées sur le danger desquelles on s'éclairera plus tard. »

Il y eut des victimes célèbres, Lavoisier, Bailly, Condorcet... Mais tous étaient suspects : le savoir a été considéré comme une forme détestable d'aristocratie et le génie comme un


L'Académie des sciences et la Révolution

Fig. 1. — Jean-Sylvain Bailly (1736-1793), astronome, membre de l'Académie des sciences depuis 1763, entre en politique avant même la réunion des états généraux. Représentant des Parisiens et doyen du Tiers État, il devient président de l'Assemblée constituante jusqu'au 2 juillet 1789. Premier maire élu de Paris, il voit bientôt son autorité décliner, notamment après le massacre du Champ-de-Mars du 17 juillet 1791. Arrêté en septembre 1793, il est jugé et guillotiné le 12 novembre 1793. (Lithographie dessinée par F. Benneville et gravée par Charpentier, Archives de l'Académie des sciences. Cliché J.-L. Charmet.)

273


A. Guinier

crime contre l'égalité... L'Histoire nous a montré, récemment encore, que des foules peuvent être emportées par de telles aberrations.

Les académies, et en particulier celle des sciences, créées par les rois, étaient par là même accusées d'être la source de privilèges illégitimes. Ces compagnies, puis les académiciens individuellement, sont attaqués pendant des mois par Marat dans son journal L'Ami du Peuple avec une violence et une bassesse qui nous paraissent incroyables. Le moindre des reproches était de dépeindre les académies comme des assemblées d'hommes bavards, orgueilleux, médiocres et parfaitement inutiles.

Fig. 2. — Jean-Antoine-Nicolas de Caritat, marquis de Condorcet (1743-1794), mathématicien, membre de l'Académie des sciences depuis 1769, est représentatif de ces aristocrates aux idées éclairées qui influencèrent directement la Révolution. Moins heureux en politique, il est l'auteur d'un remarquable projet d'instruction publique qui ne reçut pas de suite. Élu à la Convention nationale, il échappe à la prosciption des Girondins, mais meurt à Bourg-la-Reine le 29 mars 1794 alors qu'il venait d'être arrêté. (Reproduction d'un médaillon par David d'Angers. Archives de l'Académie des sciences. Cliché J.-L. Charmet.)


L'Académie des sciences et la Révolution

Quant la Convention entreprend l'examen des académies, l'opinion des députés est a priori très hostile. Le 8 août 1793, les académies sont supprimées. L'Académie des sciences avait eu quelques défenseurs à cause des services que la Convention elle-même lui avait demandés. Mais elle subit le même sort que toutes les autres et toutes les sociétés littéraires dotées par la Nation. C'est un académicien des Beaux-Arts, le peintre David, qui fut le plus terrible procureur « Au nom de l'humanité, dit-il, au nom de la justice, pour l'amour de l'Art et surtout pour votre amour de la jeunesse, détruisons, anéantissons les trop funestes académiciens, qui ne peuvent plus subsister sous un régime libre ». On doit mentionner que ce même David, quelques années plus tard, devenait premier peintre de Napoléon...

Les académiciens tentèrent de se retrouver dans une nouvelle société libre et fraternelle; ils voulaient terminer le 146e volume de leur oeuvre, ainsi que les travaux demandés à des commissions ad hoc. Tout fut vain : l'Académie était ruinée, comme d'ailleurs l'ensemble du système éducatif : facultés de droit, théologie, médecine, écoles et collèges sont désorganisés. Au lieu de transformer, d'amender, de développer ce qui existait, la Convention a cédé à la tentation de faire table rase,... pour, pensait-elle, reconstruire mieux plus tard.

De fait, en 1793-1794, la situation générale de la nation est très grave. Mais, même en ces jours sombres, certains conventionnels expriment leur confiance en la force du mouvement scientifique. « Le feu des sciences, écrit Biot, brillait partout d'un trop vif éclat pour être étouffé en un moment sous le pouvoir passager de l'ignorance ».

Les savants au service de la nation

Le souci de clarté nous pousse à distinguer, trop schématiquement, deux phases : la destruction de la science, et sa renaissance. En fait les deux phases se sont superposées. Alors même que des savants étaient persécutés, que la Convention discutait longuement de la suppression de l'académie, des travaux scientifiques étaient entrepris au bénéfice de la défense nationale et de l'économie du pays, à la demande du Comité de salut public. Les Comptes Rendus de l'Académie rapportent que, le 7 août 1793, veille du décret de suppression, Joseph Lefrançois de Lalande présentait un mémoire sur le mouvement propre des étoiles.

Si la science a, peu à peu, retrouvé une place dans la nation, ce n'est pas à cause de sa valeur spirituelle, mais bien à cause des besoins pressants de la défense nationale. La France était en guerre, la patrie en danger. On avait pu lever en masse des troupes enthousiastes : il fallait les équiper, les armer. Le Comité de salut public a fait appel aux savants pour résoudre les problèmes techniques qui bloquaient les fabrications. Très rapidement, les savants trouvent et mettent en oeuvre des solutions. Berthollet organise la récolte de salpêtre et son raffinage pour faire de la poudre. Monge rédige un manuel pour la fabrication de l'acier. Fourcroy trouve comment on peut utiliser le bronze des cloches pour fondre les canons. Nicolas Leblanc découvre un procédé de fabrication de la soude. Des chimistes accélèrent le tannage des peaux pour augmenter la production de cuir. Les savants ne se sont pas contentés de mettre au point des méthodes; ils ont aussi participé eux-mêmes à la formation des techniciens pour les usines nouvelles qu'on créait.


A. Guinier

Tout était improvisé. Que des résultats effectifs, ayant eu de l'influence sur le cours des batailles, aient pu être atteints dans une telle bousculade est aujourd'hui pour nous un objet d'étonnement et d'admiration. Et la révolution a innové : elle a montré que la survie d'une nation dépendait autant du savoir de ses savants que du nombre et de la force de ses soldats. Depuis, l'idée a fait du chemin.

De véritables inventions provoquèrent la surprise de l'ennemi. Avec le télégraphe optique de Chappe, l'armée du Nord pouvait faire parvenir un message au gouvernement à Paris, à une distance de 200 km, en deux heures. On utilisa des ballons captifs gonflés à l'hydrogène pour emmener des observateurs au-dessus des champs de bataille.

Par leurs divers succès techniques, les savants gagnèrent immédiatement beaucoup de prestige : ils avaient « sauvé la République ». Biot nous dit : « Ils profitèrent de cet instant de faveur pour assurer à la France cette supériorité de lumières qui l'avait fait triompher de ses ennemis ». Lazare Carnot, profondément convaincu de la valeur de la science, fit beaucoup pour mettre en valeur les scientifiques aux yeux du Comité de salut public. Dès que le danger fut moins pressant, les savants revinrent à leurs travaux de science pure et, aussi, réfléchirent à la réorganisation scientifique et technique du pays.

Les réalisations techniques de cette époque ont certainement eu un effet immédiat très utile; mais il faut dire qu'elles n'ont pas provoqué de bouleversements dans l'industrie du siècle suivant. En revanche, les savants de la Révolution ont préparé l'avenir et véritablement ouvert l'ère de la science moderne, par les institutions dont ils ont imaginé les structures, et par leur enseignement qui a formé une nouvelle génération de scientifiques de qualité exceptionnelle.

Et ils ont créé le système métrique! Ils ont fondé la métrologie sur la conservation d'étalons immuables et l'amélioration de la précision des mesures. C'était une base indispensable pour le développement de la science pure, comme pour l'industrie et le commerce.

Le commencement de cette grande aventure fut modeste. Les unités de mesure sous l'Ancien Régime étaient anarchiques et leur diversité très gênante dans la vie quotidienne. Mais rien n'avait réussi pour les réformer. Les révolutionnaires étaient mieux placés, parce qu'ils prenaient appui sur la volonté politique d'unification de la nation et sur le désir de présenter aux autres nations un système idéal créé au pays de la science et de la liberté. Dès 1790, l'Académie des sciences se met au travail. On adopte d'abord la numération décimale. Ensuite on choisit une unité de longueur « naturelle et universelle » en la rattachant aux dimensions de la Terre. « Quel plaisir, disait-on dans le style du temps, pour le père de famille de penser que le champ qui fait subsister ses enfants est une certaine proportion du globe. » Moins lyriques, nous savons que l'essentiel était de définir le mètre par une barre de platine, inaltérable, et non pas par la dix-millionième partie du quart du méridien. Toutefois les remarquables mesures géodésiques effectuées par les savants, avant et pendant la Révolution, ont été très utiles pour déterminer la « figure de la Terre ».

Il y a quelques années, on a changé la définition des unités de longueur et de temps. Les progrès de la physique ont permis d'en revenir au rêve des savants de la Révolution : l'étalon naturel et universel. Il est maintenant lié à la structure interne d'une espèce donnée d'atome et à la vitesse de la lumière dans le vide. En revanche, le kilogramme étalon est toujours la masse de platine construite sous la Révolution à la suite de mesures de la masse d'un litre d'eau pure, faites sous la direction de Lavoisier.


L'Académie des sciences et la Révolution

Fig. 3. — Antoine-Laurent Lavoisier (1743-1794), membre de l'Académie des sciences depuis 1768, peut être considéré comme le fondateur de la chimie moderne. Adepte des idées philosophiques et agronome de talent, il salue avec enthousiasme les débuts de la Révolution. Cependant, il est arrêté en même temps que les fermiers généraux qui n'avaient pas émigré et est guillotiné avec eux, le 8 mai 1794. (Portrait présumé attribué à Jean-Marc Nattier. Coll. privée, photo aux Archives de l'Académie des sciences. Cliché J.-L. Charmet.)

277


A. Guinier

La Liste des Académiciens arrivés Celle des Académiciens arrivés après trois heures trois-quarts, a

Par nous Officiers de l'Académie, ce

Fig. 4. — Feuille de présence de la séance de l'Académie des sciences du 3 août 1793. L'Académie fut supprimée, comme toutes les autres académies, le 8 août 1793 par la Convention. La Constitution du 5 fructidor an III (22 août 1795) les rétablit sous forme de l'Institut national des sciences et des arts.

278


L'Académie des sciences et la Révolution

La renaissance

Malgré les excès commis contre les scientifiques, certains hommes politiques ont toujours considéré que les savants étaient « utiles » et qu'il était nécessaire d'assurer la formation de bons techniciens. Dès 1791, Condorcet et Talleyrand établissaient des projets globaux et cohérents pour le système éducatif, aux différents niveaux depuis le primaire jusqu'au supérieur. Mais, en ce temps déjà, les problèmes d'enseignement étaient parmi les plus difficiles et les plus controversés : ces projets ne furent pas pris en considération par les Assemblées.

Ce n'est qu'après la Terreur que la Convention créa plusieurs nouvelles institutions d'enseignement : beaucoup ont duré. « La postérité, disait Chaptal en 1801, croira avec peine que la même Assemblée, qui paraissait avoir organisé la destruction en système, ait produit ces nombreuses lois salutaires auxquelles nous devons la conservation ou la création de presque tous nos établissements d'instruction publique. »

A l'origine de ces créations fameuses, il y avait, non pas le simple désir de développer la science, mais toujours le souci de répondre à des besoins pratiques. L'École Polytechnique devait former des ingénieurs; le Conservatoire des Arts et Métiers devait contribuer à l'invention de nouvelles machines pour l'industrie; le Bureau des Longitudes devait faciliter la navigation de la Marine qui était engagée dans la lutte contre l'ennemi du moment, l'Angleterre. Le succès de ces institutions est venu, en grande partie, de la qualité exceptionnelle des hommes, à la fois chercheurs et professeurs, à qui on les avait confiées.

Arago souligne ce qui était nouveau dans l'oeuvre de la Convention : « Les savants en possession de faire avancer les sciences formaient jadis en France une classe totalement distincte de celle des professeurs. En appelant les premiers géomètres, les premiers physiciens, les premiers naturalistes du monde au professorat, la Convention jeta sur les fonctions enseignantes un éclat inaccoutumé ».

L'École Polytechnique a été le plus beau fleuron des créations révolutionnaires; elle a bientôt acquis la première place en Europe. On y donnait des enseignements de sciences appliquées, mais aussi des bases théoriques : les grands mathématiciens qui y furent professeurs donnèrent un niveau très élevé aux cours de sciencetpure. L'École, ainsi que plus tard l'École Normale, fut la pépinière des scientifiques du XIXe siècle. Fini le temps des amateurs distingués : il y avait contact entre scientifiques et ingénieurs.

Toutes les initiatives de la Convention n'eurent pas le même succès. L'École Normale, créée en 1794, avait pour but la formation des professeurs. Mais, dans la précipitation, les programmes des cours n'avaient pas été clairement fixés ni coordonnés. Leur niveau s'est trouvé bien supérieur aux capacités d'auditeurs n'ayant pas suivi de bons cours secondaires. Après seulement quelques mois de fonctionnement assez désordonné, l'École fut supprimée. L'idée fut reprise en 1808 sous Napoléon, mais, cette fois, sur des bases saines : l'École Normale définitive était créée.

Tout l'enseignement secondaire, qui sous l'Ancien Régime était presque exclusivement assuré par des religieux, devait être reconstruit. Ce n'est qu'en 1796 que furent créées les Écoles Centrales sur un projet de Lakanal, à raison d'une par département. Ces écoles connurent bien des difficultés, principalement du fait du manque de maîtres compétents


A. Guinier


L'Académie des sciences et la Révolution

Fig. 5 (ci-contre et ci-dessus). — Procès-verbaux manuscrits des dernières séances de l'Académie des sciences, dissoute le 8 août 1793 par la Convention nationale. Le 7 août, elle entend un rapport de Pingré et de Cassini sur un mémoire d'astronomie de Michel Lefrançois de Lalande. Le 13, elle prend connaissance d'une lettre du ministre de la Marine qui la remercie de ses propositions tendant à assurer une meilleure conservation des biscuits et des légumes à bord des vaisseaux. Et le 14, avant de se séparer jusqu'en 1795, elle prend acte d'un décret de la Convention nationale ordonnant la levée des scellés mis sur ses archives. (Archives de l'Académie des sciences. Cliché J.-L. Charmet.)

281


A. Guinier

Un épisode de l'expédition d'Egypte...

Après la campagne d'Italie et la paix de Campo-Formio (17 octobre 1797), la ville de Rome est secouée par des émeutes et des soldats du pape tuent le général Duphot dans l'ambassade de France. Le Directoire réagit en envoyant des troupes, le gouvernement pontifical est déclaré aboli et la République romaine constituée. Le pape Pie VII, élu en 1799, rentre dans Rome seulement en 1800.

En janvier 1799, la ville de Naples est prise par Championnet qui en fait la capitale de la République parthénopéenne. Elle est rendue au roi des Deux-Siciles six mois plus tard. Elle sera de nouveau envahie par les armées françaises en 1806 et donnée à Murat.

Dans son carnet de notes, Pierre-Louis Cordier (1777-1861), ingénieur et géologue, résume ainsi les événements survenus lors de son retour en France en 1799 et dont le certificat ci-contre se fait l'écho :

— 7 mars (17 ventôse) nous jetons l'ancre à l'entrée du Golphe de Tarente, malgré une violente tempête qui durait depuis plusieurs jours.

— 20 mars (30 ventôse) faits prisonniers de guerre et détenus dans des casemates des fortifications extérieures de Tarente pour y faire d'abord quarantaine.

— 8 avril (19 germinal) traités avec moins de rigueur et transférés dans un vieux séminaire entre la mer et la ville pour y achever notre quarantaine.

— 22 mai (3 prairial) départ de Tarente pour Messine sur un navire de l'État et après avoir été dépouillés. Deux galères nous escortaient.

— 27 mai (8 prairial) arrivés en rade de Messine et transférés sur un vieux navire pour prison.

— 6 juin (18 prairial) Dolomieu nous est enlevé.

— 19 juin (1er messidor) renvoi en France après serment sur un navire parlementaire.

— 25 juin (7 messidor) jetés par un coup de vent à Porto Danzo (plages Romaines) - Liberté mais avec quarantaine d'observation.

— 7 juillet (19 messidor) arrivée à Rome - Séjour forcé.

— fin d'août - Départ de Rome pour Civita Vecchia où j'attends avec quelques compagnons le moment de risquer par mer le retour en France.

Et ses aventures ne se terminent pas là... Cordier conclut : « Le retour en France avait duré six mois! » (7 mars-5 octobre 1799).

Fig. 6. — Obélisque dessiné, lors de l'expédition d'Egypte, par Pierre-Louis Cordier. Les ruines de San (l'ancienne Tanis, aujourd'hui San Al-Hajar AlQibliyah, capitale de la XIVe dynastie des pharaons) furent fouillées plus tard, au cours du XIXe siècle, par Auguste Mariette. On y mit à jour, notamment, des statues colossales de Ramses II. (Carnet de voyage de Pierre-Louis Cordier, Archives de l'Académie des sciences. Cliché J.-L. Charmet.)

282


L'Académie des sciences et la Révolution

283


A. Guinier

et en nombre suffisant. Les Écoles Centrales furent réorganisées en 1802 par Napoléon sous forme des « lycées », qui existent encore. Ce qui est à l'actif de la Révolution, c'est l'introduction des disciplines scientifiques dans l'enseignement secondaire, qui avait été autrefois dominé par le latin et le grec. Un plus grand nombre de jeunes gens ont été orientés vers des carrières scientifiques ou techniques.

Le grand établissement consacré aux sciences naturelles qu'était le Jardin des Plantes a traversé les orages sans trop de mal : il a subsisté sous le nouveau nom de Muséum d'Histoire Naturelle. La plupart des professeurs poursuivirent au calme leurs travaux, grâce en particulier à Lakanal. C'est un bon exemple de la continuité qui a parfois existé entre Nouveau et Ancien Régimes, à côté de profonds bouleversements : c'est aussi le cas du Collège de France.

Le 8 août 1793, la Convention avait supprimé les académies. Le 25 octobre 1795, la même Assemblée crée l'Institut de France. Ce fut la dernière décision de la Convention, qui devait le lendemain céder la place au Directoire qu'elle avait créé. C'était la conclusion de patients efforts de certains hommes avisés et obstinés : Lavoisier avait soutenu le projet de transformation des anciennes académies, prévoyant que « bientôt la France serait le séjour des Arts et des Sciences et de l'Industrie et qu'elle surpasserait toutes les nations de l'univers ». Quelques mois plus tard, en 1794, il était condamné pour avoir participé à un complot contre le peuple français « tendant à favoriser de tous les moyens possibles le succès des ennemis de la France ».

La première classe de l'Institut de France comprend à peu près les mêmes hommes que l'ancienne Académie des Sciences, chargés à peu près des mêmes tâches. Le 4 avril 1796, l'Institut tient sa première séance dans la salle du Palais du Louvre où se réunissaient les Académies royales. En réponse au Président du Directoire, l'académicien Daunou

Fig. 7. — Certificat délivré à Pierre-Louis Cordier, le 20 messidor an VII (8 juillet 1799), constatant le vol de ses papiers lors de son retour d'Egypte (voir page précédente).

Transcription : « Nous soussignés, embarqués sur le navire La Belle Maltaise parti d'Alexandrie le 17 ventôse dernier, ayant été forcés par une voye d'eau d'entrer dans le Port de Tarente le 27 du même mois, Certifions en Présence du Général Bordieu commandant la marine Romaine, qu'après avoir été déclarés prisonniers de guerre par ordre du Cardinal Ruffo, vice Roy du Royaume de Naples, le c(itoye)n P(ier)re Louis Cordier de Paris, Ingénieur des mines de la République française, membre de la Commission des Sciences en Egypte, a été totallement dépouillé et que partie de ses Papiers qui avoient été pris pour en faire l'examen, ne luy ont Pas été Rendus, en foy de quoy nous luy avons délivré le Présent Certificat pour luy servir et valoir ce que de raison au Port d'Anzo le 20 (18) messidor an 7 de la République française. »

(suivent les signatures des témoins)

[Fabrizio Ruffo, cardinal et homme politique italien (1744-1827). Porto d'Anzo, petite ville de l'Italie centrale est située à 50 km au S.E. de Rome. Une lecture plus approfondie des documents indique que Bordieu est seulement adjudant général au service de la République romaine. Le corps d'adjudant général fut créé le 5 octobre 1790; les adjudants généraux avaient des fonctions analogues à ceux des anciens maréchaux des logis.]

284


L'Académie des sciences et la Révolution

précise la position libre de l'Institut (que nous appellerions aujourd'hui organisation nongouvernementale) dans cette jolie formule : « Ceux qui ont le droit de demander des travaux n'auront pas le droit de commander des opinions. »

Dès les premières séances de travail, les académiciens présentèrent de nombreux mémoires : on a l'impression que les savants, durant les années de silence qui leur avaient été imposées, avaient accumulé des résultats scientifiques qu'ils voulaient sans tarder exposer à leurs confrères. Il apparaît quelques jeunes nouveaux savants : Cuvier présente les premiers de ses mémoires où il fondait la paléontologie.

L'Institut groupait les différentes disciplines des sciences et des lettres : en attribuant la première classe aux sciences, la Convention avait marqué qu'elles étaient prioritaires à ses yeux. Les Conventionnels suivaient les Encyclopédistes et croyaient toujours aux progrès des Lumières.

Il s'est trouvé qu'en cette fin du XVIIIe siècle, la France comptait un nombre extraordinaire de noms qui sont restés au premier rang de l'histoire des sciences. Aujourd'hui on trouve dans nos archives les feuilles de présence aux séances de l'Académie. Il est émouvant d'y lire des colonnes de signatures tracées de la main d'hommes que nous pouvons associer chacun à une découverte fondamentale.

la position exceptionnelle des savants de ce temps apparaît dans l'aventure de l'expédition d'Egypte. A-t-on jamais vu, depuis, un général emmener avec son armée une trentaine de savants de toutes spécialités avec la seule mission de faire des recherches à leur gré ?

L'héritage

Des institutions issues des tumultueux bouillonnements de la Révolution, beaucoup ont duré, deux siècles déjà, en dépit des bouleversements politiques. Peut-être, pour nous, le legs essentiel est-il le système des grandes écoles scientifiques, qui ont, peu ou prou, l'École Polytechnique comme modèle. Quand la Convention l'a créée, il n'y avait pratiquement pas d'enseignement scientifique à l'Université. L'École a réussi, s'est développée; et plus tard, l'Université a pris de l'importance, Polytechnique et les autres grandes Écoles ont continué d'exister parallèlement, en dehors de l'Université. Ainsi s'est mise en place la dualité de l'enseignement supérieur scientifique, qui est particulière à notre pays.

Il est certain que des caractères essentiels de nos grandes écoles ont leur origine dans la création originale de la Convention. Les élèves sont recrutés dans toute la France (centralisation); ils sont très sévèrement sélectionnés, et, en contrepartie ils sont assurés d'avoir une position à leur sortie de l'École. La part donnée à l'enseignement théorique est considérable et les mathématiques occupent une place prépondérante.

Les savants de la Révolution ont laissé des traces profondes, visibles à notre époque, même dans notre vie quotidienne. On retrouve leurs noms dans nos rues et nos stations de métro. Pour préciser les choses, je me permettrai de citer des exemples personnels, parce qu'ils n'ont rien d'exceptionnel. De ma province natale, je suis entré à l'École


A. Guinier

Normale Supérieure, franchissant le portail portant l'inscription :

Décret de la Convention 9 Brumaire, An III.

Aux concours d'entrée, à Normale comme à Polytechnique, une des épreuves était l'épure de géométrie descriptive. Pourquoi? Ce n'était pas parce que cet exercice permettait de bien évaluer les capacités du candidat à devenir professeur ou ingénieur; c'était simplement parce que, cent cinquante ans auparavant, Gaspard Monge réservait dans son enseignement une place de choix à la géométrie qu'il avait inventée.

Fig. 8. — Gaspard Monge (1746-1818), mathématicien, membre de l'Académie des sciences depuis 1780, s'engage activement aux côtés de la Révolution. Ministre de la marine d'août 1792 à avril 1793, il entreprend la réorganisation des arsenaux et de la flotte, puis participe à la création de l'École polytechnique. Chargé par Bonaparte de constituer la « Commission des Arts et des Sciences » qui accompagne l'expédition d'Egypte, il devient le premier président de l'Institut d'Egypte en août 1798. (Médaillon par David d'Angers, Archives de l'Académie des sciences. Cliché J.-L. Charmet.)


L'Académie des sciences et la Révolution

Fig. 9. — Jean-Baptiste Biot (1774-1862), astronome, mathématicien, physicien et chimiste, membre de l'Institut national en 1803. (Portrait dessiné par Dujardin. Archives de l'Académie des sciences. Cliché J.-L. Charmet.)

287


A. Guinier

J'ai été professeur au Conservatoire des Arts et Métiers et donné des cours à l'emplacement même qu'avait choisi son fondateur, l'abbé Grégoire.

Si les membres de l'Académie des sciences se retrouvent tous les lundis à 15 h, c'est parce que, en 1806, il en a été ainsi décidé.

Ainsi, nous Français, nous nous sentons des racines plongées dans notre période révolutionnaire. Et c'est aussi souvent vrai pour les scientifiques du monde entier, au moins dans leur vie intellectuelle. Voilà ce qui distingue la Révolution française d'autres périodes troubles de l'humanité; mais notre Révolution n'a pas évité les excès, destructions, fautes contre l'esprit qui sont malheureusement le lot commun des temps de violence.

BIBLIOGRAPHIE

Fayet J., La Révolution française et la Science, Librairie Marcel Rivière et Cie, Paris, 1960, 498 pages. (Les citations de l'article proviennent du livre de J. Fayet.)

Biot J. B., Essai sur l'histoire générale des sciences pendant la Révolution, Paris, 1803, 34 pages. Guedj D., La Révolution des Savants, Découvertes, Gallimard, Paris, 1988.

288


— LA VIE DES SCIENCES -

« Stockage » et « Rappel » d'information

chez un végétal

Michel THELLIER

Correspondant de l'Académie

Laboratoire « Échanges cellulaires » U.A. CNRS n° 203,

Faculté des Sciences et Techniques de Rouen,

BP n° 118, 76134 Mont-Saint-Aignan Cedex

Marie-Odile DESBIEZ

Laboratoire de « Phytomorphogenèse » U.A. CNRS n° 45,

Université Clermont-II, 4, rue Ledru, 63038 Clermont-Ferrand Cedex

Le développement des êtres vivants a été spécialement étudié dans le cas de l'embryogenèse des animaux. Cependant, le problème existe aussi en biologie végétale, et même, pourrait-on dire, doublement : de l'oeuf à la plante, d'une part, mais aussi, pendant toute la durée de la vie de la plante, lors du développement des bourgeons. Nous avons mis en évidence un curieux mécanisme qui contrôle une rupture de la symétrie du développement des bourgeons d'une jeune plante. Un signal extérieur peut initier un message de « rupture de symétrie », ce message peut circuler dans la plante, puis y être en quelque sorte « stocké en mémoire » jusqu'à ce que la plante, ayant perçu d'autres signaux, puisse enfin « rappeler » le message mémorisé et l'exprimer par une modification de sa morphogenèse. Le détail des mécanismes est encore loin d'être compris, mais des modifications de perméabilité membranaire pour K+ ou d'autres ions minéraux sont impliquées dans les différentes étapes.

On peut songer à utiliser ce système comme modèle de traitement biologique de l'information, et comme exemple d'un mécanisme de régulations intercellulaires «flexibles », c'est-à-dire facilement modulé par les sollicitations de l'environnement.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 4. p. 289-303


M. Thellier et M.-O. Desbiez

Les corrélations entre organes dans la morphogenèse des végétaux

Le contrôle de la morphogenèse, c'est-à-dire de l'acquisition de la forme des êtres vivants, est un problème fascinant, mais qui, chez les végétaux, ne se pose pas tout à fait dans les mêmes termes que chez les animaux. Dans ce dernier cas, en effet, les caractéristiques morphologiques sont étroitement tributaires de l'héritage génétique, et ne dépendent qu'assez peu des conditions dans lesquelles s'effectue le développement : de vrais jumeaux restent pratiquement la copie conforme l'un de l'autre, même s'ils se trouvent dans des conditions de vie différentes. Chez les plantes, s'il y a bien aussi un strict contrôle génétique de quelques caractères morphologiques (spécialement au niveau des organes de reproduction), on n'en note pas moins une grande variabilité du nombre et de la disposition des ramifications, du nombre de feuilles, de bourgeons et de fleurs, de la taille de l'individu et de celle de ses différentes parties, ainsi que de l'âge auquel est atteinte l'aptitude à la reproduction sexuée.

Pour une part, l'évolution de la forme d'un végétal dépend des caractéristiques du milieu extérieur, spécialement de la température, de l'éclairement (qualité, intensité et durées relatives du jour et de la nuit), de l'hygrométrie et de la nutrition minérale. Mais, tout au long de la vie de la plante, il s'exerce aussi des interactions entre organes qui jouent un rôle majeur sur le déroulement de la morphogenèse. En France, ces « corrélations entre organes » ont été particulièrement étudiées par P. Champagnat (1974) et son groupe, auquel appartient l'un de nous (M.-O. Desbiez), à l'Université de Clermont-II.

Il arrive que les interactions entre organes d'un végétal soient fortement hiérarchisées. Le cas le plus caractéristique est celui de la « dominance apicale » : un bourgeon terminal en cours de développement (apex) bloque la croissance des bourgeons sous-jacents, laquelle peut démarrer après ablation de l'apex; en revanche, sectionner les bourgeons sous-jacents quiescents ne modifie pas sensiblement le fonctionnement de l'apex. Cependant, les corrélations sont souvent de nature plus complexe et réciproques, chaque organe, à la fois, étant sous l'influence des autres et les influençant (Champagnat, 1974). Une telle situation se rencontre, en particulier, lors du démarrage de la croissance des bourgeons axillaires de feuilles opposées. Il y a des cas où les deux bourgeons croissent à peu près à la même vitesse, sans influer sensiblement l'un sur l'autre. Mais il arrive aussi qu'un des deux bourgeons prenne l'avantage sur l'autre : on dit alors qu'il prend la « préséance ». Il est fréquent que la préséance soit d'abord en faveur de l'un des bourgeons, puis de l'autre : c'est ce que l'on appelle une « inversion de préséance » (Desbiez et al, 1985). Enfin, le fait que les feuilles axillantes des deux bourgeons ne soient pas éclairées de la même façon, ou qu'elles n'aient pas la même position par rapport à la direction de la gravitation terrestre, ou encore qu'elles aient subi des stimulations ou des traumatismes (contact avec une solution saline [Desbiez, 1973], frottements, piqûres, ablation) peut modifier profondément les rapports de croissance des bourgeons axillaires.

Certains auteurs ont donné aux interactions entre organes d'un végétal une interprétation purement trophique (Dostal, 1926). Mais, puisqu'il y a, en général, effet à distance, beaucoup d'auteurs ont considéré que ces corrélations étaient assurées par le transport de « messages » entre les différentes parties de la plante. Dans bien des cas, il apparaissait que ces messages correspondaient à la diffusion de molécules actives (Thimann, 1937) telles que des auxines ou diverses hormones ou substances de croissance.


« Stockage » et « Rappel » d'information chez un végétal

Par ailleurs, à partir d'une approche toute différente, Gautheret (1935) avait montré l'existence d'un transport rapide de messages de contrôle de la morphogenèse chez les végétaux. En sectionnant la racine de diverses plantes à une distance, d, de la pointe, comprise entre 12 et 30 mm, il observait que la vitesse de croissance de ces racines, V, diminuait fortement après un temps de latence de quelques minutes, At, mais sans que At ne dépende de d. Ceci signifiait que At correspondait au temps de réponse du méristème racinaire, mais que le transport du message traumatique, depuis le site de la section jusqu'au méristème de la pointe de la racine, se faisait en un temps 8t petit devant At. En reprenant les données originales de Gautheret, on peut estimer 8t à quelques dizaines de secondes au maximum. Ceci correspondait à une vitesse de transport du message traumatique de l'ordre du mm.s- 1, très supérieure à ce qu'aurait été la vitesse de diffusion d'un soluté. Selon la façon dont était donné le signal initial (section nette au rasoir ou par écrasement à la pince, ou simple pression exercée à la pince sur la racine sans la blesser), on modifiait l'intensité de la réponse, c'est-à-dire l'importance de la diminution de V; mais on ne modifiait pas l'allure générale du phénomène. De plus, le fait qu'il n'était pas nécessaire de sectionner la racine pour observer ce phénomène confirmait qu'il s'agissait bien d'un message, et non pas de la simple interruption de l'approvisionnement trophique de la pointe de la racine à partir du reste de la plante.

Si l'existence d'un transport rapide de messages a été fréquemment retrouvée dans le contrôle des mouvements des végétaux (Pickard, 1973), nous n'avons pas connaissance que d'autres auteurs depuis Gautheret (1935) en aient fait mention pour le contrôle de la morphogenèse.

Nous allons voir, en étudiant la préséance entre bourgeons axillaires chez Bidens pilosa L., non seulement que l'on retrouve l'existence de messages à migration rapide, mais aussi que l'on peut mettre en évidence l'intervention d'un mécanisme complexe de « stockage en mémoire », et de « rappel » de ces messages dans la plante.

Le phénomène de préséance entre bourgeons cotylédonaires chez la plantule de Bidens pilosa L. : définition de l'indice d'asymétrie

La Bidens appartient à la famille des Composacées. Tournefort (1694) en reconnaît quatre espèces, et il signale en 1698 la présence du genre au Bois de Boulogne (fig. 1). Linné, dans son « système sexuel des végétaux », que nous avons lu dans la première édition française présentée par Jolyclerc (1803), en décrit douze espèces (fig. 2) dont Bidens pilosa (fig. 3) sur laquelle nous avons travaillé. Cette plante est originaire d'Amérique tropicale, mais elle s'est introduite en France au cours du XXe siècle à l'occasion des importations de textiles, laine et coton, et de graines oléagineuses. Assez curieusement, le genre du mot Bidens a été fluctuant : pour les premiers auteurs (Tournefort, 1694, 1698; Linné présenté par Jolyclerc, 1803; de Lamarck et Decandolle, 1805) il est féminin; puis on le rencontre fréquemment au masculin (Hegi, 1929; Costes, 1937), et Champagnat (1974) et nous-même avons utilisé le nom de Bidens pilosus. pour l'espèce qui nous intéresse; mais il est maintenant recommandé de revenir au genre féminin (Jovet et Vilmorin, 1975), et c'est ce que nous ferons également désormais.

Des akènes de Bidens pilosa L. nous ont été donnés initialement par le jardin botanique de Strasbourg, et, depuis, nous entretenons la culture de cette plante dans le jardin du


M. Thellier et M.-O. Desbiez

H I S T O I R L

DES

PLANTES

QUI NAISSENT AUX ENVIRONS

DE P A R T S,

Avec leur ufage dans la Médecine.

Par M. PITTON TOURNEFORT de l' Académie Royale des Sciences, Docteur en Médecine de la Faculté de Paris, & Profeffeur en. Botanique au Jardin Royal des Plantes.

A PARIS,

DE IMPRIMERIE ROYALE.

M. DC. XCVIII.

C Hiftoire des Planteseft

Planteseft apetitive, déterfive , & propre à embellir le teint : on attribue les refines vertus à fon fuc dépure, S: à fon eau diftillée.

BIDENS foliis tripartito divifis Cacfalp, 48S. Cannabina aquatica , folie tripartito divifo C. B. l'in. 321. Verbefina. five Cannabina aquatica fiore minus pulchro, elatitior, ac ma es fréquent 7 B. z. 1073. Hepatorium aquatih Dod.l'emprsos. Tragus a fort bien diftingué cette plante : il conjecture que ce potirroic eftre cette efpece de Verveine que Diofcoride a marquée à tiges cou, chées. Il faut pardonner à ce premier d"avoir avancé que fes fcruencesefloient emportées en l'air, comme celles du Séneçon; il n'y a proprement que les femences aigretées qui en foient capables: celles-cy n'ont quedeur outrais portes, par lefquel. les elles s'attachent aux habits, comme l'à remarqué le mefme auteur. Il femble que Cefalpin ait crû que le Cannabina aquatique folio non-divifo C. B. n'eft qu'une varieté de celle-cy: Eadem , dir il., reperitur aliquando.folio non difecto. Cette, plante, eft gravée-deux fois dans l'Hiftoire des Plantes de Lion, fous les noms à' Hydropiper du, rum Dulechampii, dont la figure eft tres-mauvaife, & d'Hydropiper, Pfeudo-hepatorium foeminDodonai : on la trouve dans le Bois de Boulogne; dans une petite, mare à gauclic du Chafteau de Madrir, fut le chemin qui va à la Croix d'Autctüil,

BLATTARIA lucca, folio Iongo laciniato C.B. Pin. 140. Voyez la III. Herborifation.

B R.U N.E L.L A major, folio non diffecto C.B, Pin. 260. prunella flore minore, vulgaris 7. B. 3, 4.'.8 Brunella Do.i. l'empt. 136. Brunelle. Cefalpin a comparé avec plus de juftefle les feuilles de cctcc plante à. celles du Bafîlic, que Dodonee

Fig. 1. — Description de la Bidens par Tournefort. En haut, à gauche, page de titre de l'« Histoire des plantes » (1698), et, à droite, la page 60 du même ouvrage où se trouve le paragraphe consacré à la Bidens dans l'« Herborisation II » (dans le Bois de Boulogne); en bas, la partie consacrée à la Bidens dans la planche 262 des « Éléments de Botanique » (1694).

292


« Stockage » et « Rappel » d'information chez un végétal

SYNGENESIE POLYGAMIE. 575

3. insipida. feuilles ovales, comme doutées, sessiles. Amérique. S. oteracca. feuilles comme cordiformes, dentées en scie, petiolées.

BIDENS. Tournef. cl. 12. Floscuicuscs. seel. 3. Jus. famille des Corymbiféres.

Réceptacle paillassé; aigrette à arêtes droites, rudes ; •calice imbriqué ; corolle quelquefois pourvue d'un ou deux fleurons eu rayons. B. triparlita. feuilles trifudes ; calices comme feuillus ; semences

relevées. Europe (ann.) B. minima. feuilles lancéolées , sessiles ; fleurs et semences relevées.

relevées. (ami.) D. nodifiora. feuilles oblongues , très-entières , à I deut ; tige

dichotôme ; fleurs solitaires , sessiles. Bengale. B. tenella. feuilles linéaires ; pédoncules capillaires ; calices

presque tétraphylles ; semences redressées , quinuées. au,

Cap (anu.) B. cernua. feuilles lancéolées , amplexicaulcs ; fleurs penchées ;

semences relevées. Europe (ami.) B. frondosa. feuilles pimiées , doutées en scie, marquées de

lignes, glabres ; calices feuilles; tige lisse. Amèriquc sept, (ann.) B. pilosa. feuilles pinnées , comme poilues ; tige à genouillures

barbues ; calices à involucre simple ; semences divergentes.

Amérique (ann.) (I) B. bipinnata. feuilles biptnuées , incisées ; calices involucrés ;

corolles demi-radiées ; semences divergentes. Virginie (ann.). B. nivea. feuilles simples , comme hastées, dentées eu scie,

pétiolées; fleurs globuleuses; pédoncules alongés; semences

lisses, Caroline (viv.) B. scandens. feuilles opposées, ovales, aiguës, tres-entières ; tige grimpante, souligneuse; fleurs opposées, paniculées. Vera-Crux. B. verticillata. feuilles oblougues , entières , alternes inferieurement, supérieurement opposées; fleurs verticillées. Vera-Crix. B. bullata. feuilles ovales , dentées en scie, les inférieures opposées , les supérieures ternées ; l'intermédiaire plus grand. Amérique (ann.) (2)

CACILIE. Cacalia. T. cl. 12. Flosculeuscs. sect. 2. Jus. famille des Corymbifères.

Réceptacle nu; aigrette velue ; calice cylindrique , obloug , comme caliculé seulement à sa base.

(i) Cette espèce ressemble à l'Agrimonia molucca; mais tes folio! sont distinctes , et ses semences à 4 aretes. (a) Cette espèce croit maintenant en Italie.

Fig. 2. — Description des différentes espèces de Bidens par Charles Linné, dans la première édition française du « Système sexuel des végétaux » présentée par N. Jolyclerc en 1803 (p. 575).

293


M. Thellier et M.-O. Desbiez

laboratoire de Botanique de l'Université de Clermont. Pour nos expériences, nous utilisons des plantules âgées de trois semaines au plus (fig. 4) : elles sont alors constituées d'un axe (apex, épicotyle, hypocotyle, racine), de deux cotylédons opposés et de deux bourgeons (dits bourgeons cotylédonaires) placés à l'aisselle des cotylédons. Ces plantules présentent donc une symétrie bilatérale.

Tant que l'apex est fonctionnel, les bourgeons cotylédonaires restent quiescents; mais si l'on sectionne l'apex (« décapitation » de la plantule), ils entrent en croissance (fig. 5). Si la plantule se trouve dans des conditions de nutrition minérale et de photosynthèse optimales, les deux bourgeons croissent à peu près à la même vitesse, et la plantule conserve une symétrie bilatérale (fig. 6a). En revanche, si la nutrition est déficiente (ce qui sera toujours le cas dans la suite de cet exposé), l'un des deux bourgeons prend en

Fig. 3. — La fleur et le fruit de Bidens pilosa L.


« Stockage » et « Rappel » d'information chez un végétal

général la préséance sur l'autre, si bien que la symétrie de la plantule est brisée (fig. 6 b). Lorsque l'on opère en conditions homogènes, il est impossible de prévoir quel sera, sur chaque plante, celui des deux bourgeons qui prendra la préséance sur l'autre, ce qui signifie que la population de plantes reste alors symétrique (Desbiez, 1973). Mais il suffit, en général, d'une petite asymétrie dans les conditions expérimentales pour orienter la rupture de symétrie des plantules, et rendre de ce fait la population de Bidens asymétrique. Une façon simple de le faire consiste à donner quelques coups d'épingle à l'un des cotylédons de chaque plantule. Appelons A le cotylédon piqué, B le cotylédon opposé, et a et b leurs bourgeons axillaires. Soient aussi a et p les nombres de plantes où c'est, respectivement, le bourgeon a ou le bourgeon b qui prend la préséance, et y le petit nombre de plantes où les deux bourgeons démarrent à peu près à la même vitesse. On définit un indice d'asymétrie, g, par

Fig. 4. — La plantule de Bidens pilosa L. au moment des expérimentations.

295


M. Thellier et M.-O. Desbiez

Fig. 5. — Les bourgeons cotylédonaires de Bidens pilosa L. observés en microscopie électronique à balayage (document de Pierrette Fleurat-Lessard, URA-CNRS n° 81) : en haut, bourgeon quiescent, sous dominance apicale; en bas, bourgeon en cours de développement, 9 jours après la levée de la dominance apicale.

296


« Stockage » et « Rappel » d'information chez un végétal

Transport, stockage « en mémoire » et rappel du message de rupture de symétrie

Dans une série d'expériences, nous avons appliqué un traitement de piqûres d'épingle à un seul cotylédon de chaque plantule (traitement asymétrique); puis, après un intervalle de temps, ôt, nous avons procédé à l'ablation symétrique des deux cotylédons. Dans les conditions expérimentales les plus favorables (Desbiez, 1973), pour 5t = 0, on trouvait g = 0, mais g augmentait avec ô£ pour atteindre la valeur maximale, G, lorsque 5t devenait égal ou supérieur à une minute environ. Ceci signifiait qu'un message de « rupture de symétrie » était transporté, du site qui avait reçu les piqûres sur les cotylédons, vers les bourgeons axillaires. De plus, compte tenu d'une distance de 2 à 3 cm entre les deux sites, cela correspondait à une vitesse de transport du message proche de 1 mm.s- 1 (Frachisse et al, 1985), c'est-à-dire du même ordre de grandeur que celle calculée à partir des expériences de Gautheret (1935).

Lorsqu'on appliquait des traitements de piqûres à un seul cotylédon (cotylédon A) de plantules non décapitées, rien ne se passait, en apparence, au niveau des bourgeons

Fig. 6. — Schéma de la croissance des bourgeons cotylédonaires après ablation de l'apex : (a) en conditions de nutrition optimale, les deux bourgeons croissent à peu près à la même vitesse, la plantule reste symétrique; (6) en conditions de nutrition déficiente, un des deux bourgeons prend la préséance sur l'autre et la symétrie de la plante est brisée.

qui est tel que g = 0 caractérise une population de plantes symétriques, alors que g= ± 1 correspond à une asymétrie totale en faveur de b ou de a, respectivement. En fait, dans l'ensemble des situations expérimentales que nous avons considérées, g n'a jamais atteint sa borne théorique de valeur 1, mais seulement une valeur maximale, G, de l'ordre de 0,5.

297


M. Thellier et M.-O. Desbiez

cotylédonaires, a et b: ces derniers restaient quiescents, et ne montraient pas de modification de structure, par rapport aux bourgeons témoins de plantes non piquées, à l'observation en microscopie photonique. Pourtant, si, après un intervalle de temps qui a été jusqu'à 14 jours, on coupait enfin l'apex, le démarrage de la croissance des bourgeons axillaires se faisait avec une nette préséance en faveur du bourgeon b : dans les conditions expérimentales les plus favorables, g atteignait encore la valeur maximale G. Le fait que les cotylédons aient été, ou non, sectionnés symétriquement peu après l'application du traitement de piqûres asymétriques, ne changeait rien au résultat. Ainsi, le message de rupture de symétrie avait été transporté vers les bourgeons cotylédonaires même dans le cas où il ne pouvait pas s'exprimer en raison de la dominance apicale : il restait alors stocké « en mémoire » dans la plante, sans perte notable d'information, pendant une durée pouvant atteindre deux semaines au moins, jusqu'à ce que l'ablation de l'apex permette enfin son expression.

Les résultats tels qu'ils viennent d'être décrits ont été obtenus (on l'a signalé à diverses reprises) lorsque l'on opérait dans les conditions expérimentales les plus favorables. Mais de petites modifications des conditions expérimentales, dont on n'attendait a priori aucun effet sur le stockage d'une instruction de rupture de symétrie (addition d'un traitement de piqûres symétriques, réalisation de la décapitation des plantules à la pince ou au rasoir et à midi ou le matin, application de divers traitements thermiques), se traduisaient fréquemment par une modification sensible de l'expression de l'asymétrie : il arrivait même que l'indice, g retombât à des valeurs proches de zéro. Nous avions d'abord interprété ces constatations comme correspondant à l' « effacement » de l'instruction de rupture de symétrie préalablement stockée. Mais cette interprétation s'est finalement révélée incorrecte. En effet, pour tous les traitements dont l'application faisait tendre g vers zéro, nous avons toujours trouvé au moins un autre traitement dont l'application faisait revenir g à des valeurs proches de G. La conclusion était donc que l'information de rupture de symétrie se stockait de façon apparemment irréversible, mais que la plante pouvait facilement commuter d'un état où elle était apte à « rappeler » cette information pour l'exprimer dans sa morphogenèse à un état où elle ne l'était pas (et inversement) : dans le premier cas, on aboutissait à des valeurs de g proches de G, et dans le second cas proches de zéro.

Si l'on se donne l'image d'une mémoire de calculette, tout se passe donc comme si la plante possédait l'équivalent de la touche « STO » (stockage de l'information de rupture de symétrie) et de la touche « RCL » (rappel et expression de l'information stockée), mais pas de la touche « CLEAR REG » (effacement de l'information mémorisée).

Données actuelles, et hypothèses, sur les mécanismes impliqués

Les capteurs

Pour qu'un système soit sensible à des signaux extérieurs il faut évidemment qu'il dispose de capteurs ou « senseurs », de ces signaux. Chez les végétaux, on sait que des pigments, tels que le phytochrome, servent de capteur aux processus de morphogenèse photosensibles, et l'on considère généralement que la reconnaissance du « haut » et du « bas » se fait grâce à de petits organites, riches en amidon, qui sédimentent dans


« Stockage » et « Rappel » d'information chez un végétal

certaines cellules; mais il n'y a jamais de senseurs aussi bien différenciés que les organes des sens des animaux. Pour ce qui est de notre présent problème, on ne connaît pas les capteurs des signaux de rupture de symétrie. On peut supposer qu'il s'agit de cellules associées au système conducteur de la sève, car seules sont efficaces les piqûres données

sur la nervure principale des cotylédons (fig. 7). Il est probable aussi que des échanges ioniques spécifiques sont impliqués dans le fonctionnement de ces capteurs. En effet, pour induire la rupture de symétrie, on a pu remplacer l'administration de piqûres par le dépôt de gouttelettes de solutions de chlorures d'ions alcalins, mais on n'a pu le faire ni avec des solutions de sulfate, ni avec des solutions de chlorures de cations divalents (Desbiez, 1973).

On connaît encore moins les mécanismes capteurs des signaux qui affectent l'aptitude des plantes à rappeler l'information mémorisée. La seule certitude est qu'ils sont délocalisés dans la plante. En effet, nous avons vu qu'on pouvait agir de façon non localisée (par des traitements thermiques de toute la plante), ou au niveau de l'apex (modalités de la décapitation), ou encore au niveau des cotylédons (traitements de piqûres). On sait aussi (inédit) que des piqûres faites au niveau des hypocotyles peuvent être efficaces.

Fig. 7. — Piqûre d'épingle administrée le long de la nervure principale d'un cotylédon de Bidens pilosa L., observée en microscopie électronique à balayage (document de C. Bodet, Bioclimatologie, INRA, Clermont-Ferrand).


M. Thellier et M.-O. Desbiez

Mécanisme de transport des messages dans la plante

Le transport des messages, ceux stockés en mémoire comme ceux qui conditionnent l'aptitude du végétal à rappeler l'information mémorisée, sont étroitement dépendants de processus ioniques et électriques. Les signaux induisant les deux types de messages provoquent la transmission d'ondes de dépolarisation électrique (Frachisse et al., 1985), ainsi que des mouvements locaux de K+ dans la plante spécialement au voisinage du cylindre central. Les vitesses de propagation de ces phénomènes électriques et ioniques sont comparables à celles que nous avons indiquées pour la propagation des messages. Dans l'état actuel des choses, il semble que le transport des deux types de messages emprunte les mêmes voies, et que ce soient les voies déjà mises en évidence pour le transport d'autres types de messages chez les plantes, notamment ceux liés aux mouvements (ondes de dépolarisation électrique liées à des modifications transitoires de perméabilité cellulaire à K+ et Cl-). L'intérêt est que, ces derniers processus ayant déjà fait l'objet d'études approfondies, spécialement dans le cas de la sensitive, nous avons là un bon modèle pour servir de guide à nos propres études.

Mécanismes du stockage de l'information, et du contrôle de l'aptitude de la plante à rappeler cette information

Les cibles atteintes par les messages, et surtout celles où se produit le stockage de l'information, sont complètement inconnues; et l'on ne sait pas non plus à quel mécanisme cellulaire correspond ce phénomène de stockage d'une information de contrôle de la morphogenèse. Si l'on raisonne par analogie avec ce qui se passe dans le cas du contrôle de mouvements, que nous venons d'évoquer, on peut supposer que les cellules cibles sont des cellules adultes qui réagissent, à l'arrivée du message véhiculé par l'onde de dépolarisation électrique, par une brusque modification de perméabilité ionique, se traduisant par un échange d'ions (spécialement de K+) avec leur environnement immédiat. La modification de l'état ionique cellulaire (qui s'accompagne d'un changement de turgescence dans le cas du contrôle du mouvement) pourrait provoquer, dans le cas du stockage d'information, une modification métabolique importante et irréversible (par exemple au niveau de la biosynthèse protéique) mais suffisamment discrète pour ne rien donner de facilement observable en microscopie photonique. Davies et Schuster (1981) ont montré que l'administration de piqûres à des tiges de pois produisait le recrutement de ribosomes libres en polysomes, ainsi qu'une forte augmentation de la capacité de biosynthèse protéique, à partir de la 10e minute suivant l'application des piqûres, aussi bien à 20 mm qu'à 170 mm de la zone blessée. Ceci signifie qu'un message traumatique, migrant à une vitesse proche de 1 mm. s- 1 (donc du même ordre que celle observée dans notre cas) a bien induit un changement de la biosynthèse des protéines.

On ne sait pas non plus à quoi correspond l'aptitude de la plante à rappeler, ou non, un message de rupture de symétrie préalablement stocké en mémoire, ni ce qui fait qu'on puisse passer si facilement, réversiblement, d'un état à l'autre. Il semble probable que l'intervention de petits ions minéraux soit impliquée. En effet, on affecte cette aptitude à rappeler le message mémorisé en jouant sur la concentration de la solution minérale de culture des plantes, en modifiant les concentrations de K+ ou de Na+, ou encore en


« Stockage » et « Rappel » d'information chez un végétal

apportant du Li+ pendant l'expérience, ou enfin en chélatant le Ca2+ dans le milieu nutritif.

Une difficulté, non encore résolue, de tout ceci est de comprendre comment les deux types de messages qui nous intéressent (ceux stockés en mémoire et ceux contrôlant le rappel de mémoire), bien que véhiculés, semble-t-il, par le même mécanisme, atteindraient correctement chacun sa ou ses cibles, et y exerceraient leur effet spécifique.

Premières étapes de l'expression des messages

Il est difficile de faire des études de biochimie au niveau des bourgeons cotylédonaires, tout petits et profondément enfouis dans les tissus du noeud de la plantule. Par conséquent, on n'a pratiquement pas d'information sur ce que sont les premières étapes de la rupture de symétrie des bourgeons. Cependant, on a montré sur de très jeunes plantules de Bidens (au moment où l'allongement de l'hypocotyle est particulièrement rapide) (i) que l'application de piqûres aux cotylédons inhibait la croissance de l'hypocotyle, (ii) que l'on pouvait trouver des conditions expérimentales telles que ce message de contrôle de la croissance soit stocké en mémoire, puis éventuellement rappelé pour être exprimé, et enfin (iii) que l'expression du message passait par des modifications du métabolisme de Péthylène et de l'équipement cellulaire en oxydases pariétales (Desbiez et al., 1987).

Un traitement biologique de l'information

D'autres auteurs ont fait allusion à la possibilité que des messages soient mis en mémoire chez les végétaux, en particulier Jaffé et Shotwell (1980), et Nick et Schâfer (1988). Pour la première fois, à notre connaissance, nous avons montré qu'il existait aussi un dispositif de rappel de l'information mémorisée contrôlant que cette information soit effectivement exprimée ou que, au contraire, elle reste latente et inutilisée. Ainsi, la plante se révèle posséder un système de traitement de l'information : « transport/ stockage/rappel » d'un message. A une époque où l'on commence à s'intéresser à construire des systèmes artificiels de traitement biologique de l'information, ou, réciproquement, à considérer des réseaux de neurones en interaction mutuelle comme des modèles de dispositifs de traitement d'images (problèmes discutés au colloque sur les « Systèmes modèles de traitement biologique de l'information » dont les comptes rendus ont été publiés par l'Université de Rouen en 1984), nous suggérons que le mécanisme que nous avons mis en évidence chez la Bidens pourrait fournir un modèle de traitement biologique de l'information particulièrement simple, sans doute le plus élémentaire qu'on puisse imaginer.

A la façon dont nous l'utilisons, l'indice d'asymétrie, g, sert d'indice de mémorisation du message de rupture de symétrie. Pour la plante, l'indice g est donc l'équivalent de ce qu'est l'indice d'apprentissage pour les animaux inférieurs (Quinn et al, 1974). La raison pour laquelle l'indice g n'atteint jamais sa borne théorique (+1), mais seulement une valeur maximale, G, voisine de 0,5 n'est pas encore claire. Il est remarquable que cette valeur G soit du même ordre de grandeur que les valeurs d'indice d'apprentissage trouvées chez les animaux (Quinn et al., 1974); mais ceci n'est peut-être qu'une coïncidence. De même, si le transport, le stockage et le rappel du message de rupture de symétrie chez le


M. Thellier et M.-O. Desbiez

végétal sont apparemment basés sur des processus d'échanges ioniques cellulaires, en relation avec la propagation d'ondes de dépolarisation électrique, cela ne signifie pas forcément que les mécanismes mis en jeu soient de même nature que ceux fonctionnant dans les neurones des animaux.

Nombre de processus de contrôle chez les êtres vivants peuvent être schématisés par : Signal - Réception - Transduction - Réponse.

Pour la rupture de la symétrie de la croissance des bourgeons cotylédonaires de Bidens nous avons vu que le schéma de contôle était plutôt :

Signal - Réception _ Transduction - Mémorisation.

Le signal de rupture de symétrie est enregistré irréversiblement, c'est-à-dire que les plantes ne perdront plus cette information après l'avoir reçue, mais sans que cela ne produise per se de modification décelable de leur morphogenèse au niveau macroscopique. C'est selon d'autres signaux reçus du milieu extérieur que les plantes commutent réversiblement entre un état où elles ne rappellent pas cette information et un état où elles la rappellent, la croissance des bourgeons se faisant de façon que la population de plantes reste symétrique dans le premier cas et tende à devenir asymétrique dans le second. C'est là un mode de régulation, et d'adaptation de la morphogenèse à l'environnement, à la fois très efficace et très flexible : le système conserve intacte une information initiale, tout en restant capable d'en ajuster et d'en moduler l'expression selon diverses sollicitations qu'il reçoit de l'extérieur.

Insistons sur le fait que le processus que nous étudions n'est pas un simple effet d'inhibition ou d'activation de la croissance des bourgeons. Que les plantes aient été soumises ou non à un traitement de piqûres asymétriques, et qu'elles soient ou non en état de rappeler une éventuelle information de rupture de symétrie, la somme des longueurs des bourgeons à chaque instant est toujours à peu près la même (Desbiez et al, 1985) : ce qui change c'est que l'allongement des bourgeons se fait symétriquement (g proche de zéro) ou non (g proche de G).

Enfin, il faut reconnaître que le système de contrôle de la rupture de la symétrie de croissance des bourgeons cotylédonaires a été mis en évidence dans des conditions extrêmement particulières, commodes pour l'expérimentation, mais qui n'ont guère de chances d'être réalisées dans la nature. Il est donc probable qu'il ne joue aucun rôle dans la morphogenèse des végétaux en conditions naturelles. Cela dit, il serait bien surprenant que le principe de fonctionnement de mécanismes de régulation par « stockage irréversible et rappel réversible d'une information » ne soit pas d'une application beaucoup plus générale que pour le contrôle de la rupture de symétrie chez la Bidens où nous l'avons découvert. Il serait sans doute intéressant de rechercher si l'on ne retrouve pas l'intervention de ce type de système de régulation à d'autres étapes du développement des végétaux (ou peut-être même des animaux). Les situations où un végétal doit faire face à une agression du milieu extérieur (traumatisme, stress, ou infection par des agents parasites ou symbiotes) paraissent a priori favorables à effectuer une telle recherche.


« Stockage » et « Rappel » d'information chez un végétal

RÉFÉRENCES

Champagnat P., 1974, Rev. Cytol. Biol., 37, 175.

Costes H., 1937, « Flore descriptive et illustrée de la France, de la Corse et des contrées limitrophes », t. II, Librairie des Sciences et des Arts, Paris, p. 356.

Davies E., Schuster A., 1981, Proc. Natl. Acad. Sci. USA, 78, 2422.

Desbiez M. O., 1973, Z. Pflanzenphysiol, 69, 174.

Desbiez M. O., Frachisse J. M., Le Guyader H., Champagnat P., Thellier M., 1985, Bull. Soc. Bot. Fr., 132, Actual. Bot., 85.

Desbiez M. O., Gaspar T., Crouzillat D., Frachisse J. M., Thellier M., 1987, Plant Physiol. Biochem., 25, 137.

Dostal R., 1926, Acta Soc. Sci. Nat. Morav. (Brno), 3, 83.

Frachisse J. M., Desbiez M. O., Champagnat P., Thellier M., 1985, Physiol. Plant., 64, 48.

Gautheret R. J., 1935, Rev. Cytol. Cytophysiol. vég., 1, 1.

Hegi G., 1929, « Illustrierte Flora von Mittel-Europa », vol. VI, 1re partie, Dicotylédones, J. F. Lehmanns Verlag, Munich, p. 515.

Jaffé M. J, Shotwell M., 1980, Physiol. Plant, 50, 78.

Jolyclerc W., 1803, « Système sexuel des végétaux, suivant les classes, les ordres, les genres et les espèces, avec les caractères et les différences par Charles Linné », Arthus Bertrand, Paris, p. 575.

Jovet P., de Vilmorin R., 1975, « Troisième supplément à la flore descriptive et illustrée de France » de H. Costes, Librairie scientifique et technique A. Blanchard, Paris, p. 208.

Lamarck J. B. de, Decandolle A. P., 1805, « Flore française ou description succincte de toutes les plantes qui croissent naturellement en France », 3e édition, t. 4, Agasse, Paris, p. 218.

Nick P., Schâfer E., 1988, Planta, 175, 380.

Pickard B. G., 1973, Bot. Rev., 39, 172.

Quinn W. G., Harris W. A., Benzer S., 1974, Proc. Natl. Acad. Sci. USA, 71, 708.

Thimann K. V., 1937, Amer. J. Bot., 24, 407.

Tournefort P., 1694, « Eléments de botanique ou méthode pour connaître les plantes », Imprimerie Royale, Paris, t. I, p. 367 et t. III, planche 262.

Tournefort P., 1698, « Histoire des plantes qui naissent aux environs de Paris, avec leur usage dans la médecine », Imprimerie Royale, Paris, p. 60.

BIBLIOGRAPHIE

Champagnat P., 1965, in « Encyclopedia of Plant Physiology », vol. XV, W. Ruhland ed., Springer Verlag, Berlin, p. 1106.

Champagnat P., Desbiez M. O., 1976, in « Études de Biologie végétale », R. Jacques, éd., Louis-Jean, Paris, p. 177.

Desbiez M. O., Thellier M., 1987, in «Le développement des végétaux : aspects théoriques et synthétiques », H. Le Guyader éd., Masson, Paris, p. 173.

Desbiez M. O., Thellier M., Champagnat P., 1987, in « The cell surface in signal transduction », E. Wagner et al. eds., NATO ASI séries, vol. H12, Springer-Verlag, Berlin, p. 189.

303



LA VIE DES SCIENCES —-

Dualité onde-corpuscule pour le photon : des concepts aux expériences

Philippe GRANGIER

Institut d'Optique théorique et appliquée,

Centre universitaire d'Orsay,

Bâtiment n° 503, BP 43, 91406 Orsay Cedex

Les propriétés quantiques de la lumière font partie des concepts de base de la physique quantique depuis le début de ce siècle. Il se trouve cependant que l'immense majorité des phénomènes optiques est très bien interprétée par un modèle ondulatoire classique non quantifié. Ce n'est que depuis une dizaine d'années que l'on a réalisé qu'il était concevable de produire des champs lumineux « non classiques », ayant certains comportements impossibles à décrire par le modèle ondulatoire de l'optique classique.

Nous décrirons ici un exemple spectaculaire d'état « non classique », qui est l'état à un seul photon. Ce type de lumière donne lieu à un effet d'anticorrélation de part et d'autre d'une lame semi-réfléchissante : classiquement, un tel comportement serait attribué à un corpuscule, et non à une onde.

Ces états à un seul photon ayant été produits, caractérisés et distingués de la lumière classique très atténuée, il était tentant de réexaminer à leur lumière la question des interférences à un seul photon. Nous montrerons que l'on obtient ainsi une illustration particulièrement directe de la dualité onde-corpuscule pour un photon unique.

(Cet article est le texte d'une communication présentée au 106e Congrès de l'Association française pour l'Avancement des Sciences : « De l'onde de lumière à l'onde de matière, d'Augustin Fresnel [1788-1827] à Louis de Broglie [1892-1987] », réuni à Paris, au Conservatoire National des Arts et Métiers, du 17 au 19 novembre 1988, sous la présidence d'Yves Coppens, Président de l'Association.)

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 4, p. 305-314


P. Grangier ■

La lumière, objet classique ou quantique ?

Propriétés ondulatoires

L'électromagnétisme classique permet de rendre compte de l'immense majorité des phénomènes lumineux : la lumière y est décrite comme un phénomène ondulatoire, dû à la propagation de champs électriques et magnétiques couplés, obéissant aux équations de Maxwell.

En associant à cette description classique de la lumière une description quantique des sources et des détecteurs, on obtient une théorie dite « semi-classique », permettant de rendre compte de la plupart des phénomènes optiques. Par exemple, la théorie « semiclassique » du laser, très employée en pratique, entre dans ce cadre conceptuel. Mais l'électromagnétisme classique ne permet pas de comprendre certains effets, dit « non classiques ».

Ces effets doivent être décrits par la théorie quantique de la lumière, dans laquelle des propriétés corpusculaires apparaissent naturellement (concept de photon). Cette théorie est mathématiquement plus complexe, car les champs électromagnétiques deviennent des opérateurs.

En fait, très souvent, la théorie quantique donne des résultats identiques à ceux de la théorie semi-classique. C'est en particulier le cas pour toutes les sources de lumière connues dans les années soixante, y compris les lasers. C'est pourquoi la théorique quantique a pu être considérée par certains physiciens comme un modèle sophistiqué, rigoureux, mais inutile en pratique. Cette position a été contredite par les expériences récentes : on sait maintenant réaliser des sources de lumière non classiques, pour lesquelles il est possible d'observer des propriétés en contradiction avec la description semi-classique, comme nous allons en donner un exemple.

Propriétés corpusculaires

Un comportement typiquement quantique sera relié à des propriétés corpusculaires de la lumière. C'est à ce titre que l'on cite souvent l'effet photoélectrique. Pourtant — et ceci était un des arguments majeurs des détracteurs de la théorie quantique — les propriétés caractéristiques de l'effet photoélectrique (existence d'un seuil, relation d'Einstein pour l'énergie des électrons) peuvent être obtenues dans le cadre semi-classique; elles résultent alors simplement du caractère quantique du détecteur et ne « prouvent » donc pas la nécessité de quantifier la lumière elle-même.

On peut cependant imaginer une manifestation directe des propriétés corpusculaires d'un photon unique : considérons deux photodétecteurs placés de part et d'autre d'une lame semi-réfléchissantes (fig. 1); si une impulsion à un seul photon tombe sur cette lame, on s'attend à observer une seule détection, soit d'un côté, soit de l'autre; mais on n'observera aucune « coïncidence » (double détection simultanée de part et d'autre de la


Dualité onde-corpuscule pour le photon

lame), Un tel comportement est en contradiction avec le modèle semi-classique, où la lumière est décrite comme une onde qui se partage en deux sur la lame séparatrice, et qui prédit donc l'existence de coïncidences.

Nous avons en fait réalisé une expérience très proche de l'expérience « idéale » présentée ci-dessus : en utilisant une cascade radiative atomique comme une source d'impulsions à un seul photon, nous avons pu observer une anticorrélation de part et d'autre de la séparatrice.

L'expérience

Le principe

La source lumineuse que nous allons utiliser est une cascade radiative atomique, excitée par un processus non linéaire employant deux lasers asservis en fréquence et en intensité. Les atomes, excités dans le niveau supérieur, émettent deux photons de fréquences V1 et v2. Les intervalles de temps entre les détections de vx et de v2 sont distribués suivant une loi de probabilité qui est une exponentielle décroissante dont la constante de temps est la durée de vie ts (4,7 ns) du niveau intermédiaire de la cascade. On peut considérer que le photon v2 est émis dans une impulsion lumineuse qui débute lors de l'émission de v1 et qui s'amortit en quelques ts.

307

Fig. 1. — Anticorrélation pour un état à un seul photon sur une lame semi-réfléchissante. La détection du photon v1 provoque l'ouverture d'une porte de durée co, synchronisée avec l'émission de l'impulsion à un seul photon associée à v2. Les photomultiplicateurs PMr et PM, ne sont validés que pendant ces portes; on obtient ainsi les taux de comptage simple Nr et Nr On compte une coïncidence si PMr et PMr sont déclenchés pendant la même porte. L'observation d'un taux de coïncidences Nc très faible est la signature d'un comportement corpusculaire.


P. Grangier

La figure 1 représente le schéma de l'expérience. La détection d'un photon v1 par la photomultiplicateur PM1 provoque l'ouverture d'une porte de comptage de durée eu (9 ns), synchronisée avec l'impulsion lumineuse associée à v2. Les détecteurs PMr et PMt, placés de part et d'autre de la lame semi-réfléchissante, sont activés pendant la porte eu. On comptera une coïncidence si PMr et PMt enregistrent une détection pendant la même porte. Si nous appelons Nl, Nr et Nt les taux de comptages simples mesurés respectivement par PMl, PMr et PMt, et Nc le taux de coïncidences observées, nous obtenons une mesure des probabilités de détections simples et en coïncidence pendant une porte :

Domaines classique et quantique

Le modèle ondulatoire de la lumière prédit un taux minimal de coïncidences, ce qui peut se traduire par une inégalité entre ces trois probabilités :

On peut également montrer que cette inégalité est toujours satisfaite par une source lumineuse « ordinaire » atténuée (lampe, corps incandescent ou laser); nous en verrons plus loin une confirmation expérimentale.

Au contraire, pour la source d'« états à un seul photon », on doit avoir un effet d'anticorrélation, caractérisé par l'inégalité :

Cette inégalité exprime le fait qu'un corpuscule « ne se partage pas » sur la lame semiréfléchissante : il est donc détecté aléatoirement d'un côté ou de l'autre, mais ne donne pas lieu à des coïncidences.

Les résultats

Les résultats de l'expérience peuvent être représentés de façon simple en étudiant la quantité :

308 -


Dualité onde-corpuscule pour le photon

La théorie semi-classique restreint le domaine de variation de a à des valeurs supérieures à 1; le domaine a < 1 caractérise donc le domaine non-classique. La figure 2 montre les valeurs de a mesurées en fonction ts>Jfe, c'est-à-dire du nombre de cascades émises pendant une porte. On constate un très bon accord entre les résultats expérimentaux et les prédictions quantiques, et une très nette violation de l'inégalité semi-classique, pouvant dépasser dix écarts-types. Chaque point expérimental correspond à plusieurs heures d'enregistrement. Pour les valeurs de o)/e les plus faibles, le nombre de coïncidences détectées est inférieur à deux par heure. La lumière émise par cette source présente donc un caractère non classique incontestable, en parfait accord avec la prédiction quantique. Nous voyons qu'en choisissant des valeurs suffisamment faibles de (ùJre il est possible d'être dans un régime très proche du régime idéal à un seul photon.

Une autre expérience

Il est important de remarquer que l'état à un seul photon mis en évidence dans l'expérience ci-dessus diffère fondamentalement d'une impulsion lumineuse traditionnelle, même très atténuée. Pour illustrer ce point, nous avons répété l'expérience précédente en utilisant cette fois comme source une diode électroluminescente excitée par des impulsions électriques brèves qui déclenchent également la porte de comptage ra. En atténuant

Fig. 2. — Paramètre de corrélation a. en fonction de co Jf e (nombre de cascades émises pendant une porte). Le domaine classique est caractérisé par a El, et l'observation de valeurs de oc inférieures à 1 est caractéristique d'un état à un seul photon. Les résultats expérimentaux (rectangles correspondant à +1 écart-type) sont en excellent accord avec le calcul quantique (courbe en trait plein).


P. Grangier

fortement cette source par des verres absorbants, il a été possible d'obtenir des impulsions dont l'énergie moyenne était de l'ordre d'un centième de photon. Nous avons pourtant continué à observer des coïncidences, en nombre tel qu'on avait toujours pc~2iprpv L'analyse de cette situation en théorie quantique montre que ces coïncidences sont dues à la possibilité d'avoir deux photons par impulsion, à la différence de la situation précédente. Nous voyons donc qu'une telle impulsion a un comportement en parfait accord avec le modèle semi-classique (théorie quantique et théorie semi-classique président ici la même chose). Il s'agit d'une illustration du fait que la lumière émise par des sources traditionnelles est très bien décrite par un modèle de champ électromagnétique non quantifié, même lorsqu'elle est très atténuée.

Interférences

Rappels historiques

L'analyse de ce qu'est un véritable état à un seul photon (par opposition à de la lumière « classique » très atténuée) nous a amenés à reposer le problème des interférences dites « à un seul photon ». Depuis le début du siècle, une vingtaine d'expériences ont été réalisées pour étudier cette question. Une grande variété de sources et d'interféromètres ont été utilisés. A une exception près, ces expériences ont toujours confirmé que les phénomènes d'interférence subsistent, même lorsque la lumière est tellement atténuée qu'en moyenne il y a moins d'un photon à la fois dans l'interféromètre. Dans certain cas, on a même pu voir la figure d'interférence se construire point par point. Les auteurs en ont généralement conclu qu'ils ont observé des interférences « à un seul photon ».

Pourtant, la totalité de ces expériences a été réalisée avec des sources de lumière traditionnelles atténuées, dont nous savons que toutes les propriétés s'interprètent dans le cadre d'un modèle ondulatoire semi-classique (nous avons déjà dit que le caractère discret des photodétections n'implique pas la nécessité du concept de photon). Il nous a donc semblé intéressant de reprendre une expérience d'interférences en utilisant notre source d'impulsions à un seul photon.

Un interféromètre de précision

Si l'on recombine les deux faisceaux réfléchis et transmis de l'expérience précédente, en utilisant deux miroirs et une deuxième lame semi-réfléchissante, on obtient un interféromètre de Mach-Zehnder (fig. 3). La théorie quantique prédit que l'on doit observer des interférences, même avec des états lumineux à un seul photon. Le contraste prévu pour ces interférences est analogue à celui calculé par l'optique classique.

Afin de conserver à l'expérience son caractère démonstratif, nous avons choisi des conditions où le contraste théorique est proche de l'unité (contraste maximal). Dans nos conditions expérimentales, il est alors nécessaire d'observer les interférences aux foyers de lentilles placées sur les faisceaux Zl et Z2 (franges localisée avec une source étendue); il faut par ailleurs travailler autour de la différence de marche nulle. Les interférences sont étudiées en observant la modulation des signaux détectés dans les voies de sortie complémentaires Zl et Z2, lorsqu'on modifie la différence de marche 5 par translation


Dualité onde-corpuscule pour le photon

des miroirs. La construction de l'interféromètre a fait appel aux techniques les plus raffinées connues à l'Institut d'Optique : les miroirs et séparatrices ont une planéité meilleure qu'un centième de micron, et les mécaniques de translation des miroirs maintiennent le parallélisme avec la même précision; enfin, la stabilité de l'ensemble doit être suffisante pour permettre des expériences longues de plusieurs dizaines de minutes.

Des essais préliminaires nous ont montré que cet interféromètre avait les performances attendues, donnant de façon reproductible des interférences de contraste supérieur à 98,5%. Nous sommes alors passés aux expériences d'interférences à un seul photon proprement dites.

Les interférences à un seul photon

Les franges présentées sur la figure 4 ont été obtenues avec la source d'impulsions à un seul photon, les photomultiplicateurs placés dans les voies Z1 et Z2 étant validés seulement pendant les portes synchrones de ces impulsions. On a enregistré les taux de détection sur chaque voie de sortie en fonction de la différence de marche 8, contrôlée par pas d'un cinquantième de micron. Ces enregistrements permettent de mesurer la valeur du contraste, manifestement proche de 1.

Ces expériences ont été répétées pour plusieurs régimes de fonctionnement de la source. La figure 5 en résume les résultats : pour toutes les valeurs de oo Jf e étudiées, le contraste reste égal à la valeur de 98,7% obtenue lors des tests préliminaires, et cela même dans les régimes très nettement à un seul photon. Nous avons donc observé des interférences à un seul photon au sens propre de cette expression (avec des états du champ à un seul photon).

Fig. 3. — Interférences à un seul photon. En recombinant le faisceaux après la séparatrice de la figure 1, on réalise un interféromètre de Mach-Zehnder. Les probabilités de détection dans les deux voies de sortie Z1 et Z2 sont modulées en fonction de la différence de marche.


P. Grangier

Fig. 4. — Nombre de détections comptées dans les voies de sortie de l'interféromètre de Mach-Zehnder, en fonction de la différence de marche 8. Entre deux points de mesure successifs, 5 varie de X/25 (déplacement d'un miroir d'un centième de micron). Les temps passés en chaque point ont varié de 0,01 seconde à 10 secondes, ce qui permet de « voir apparaître la figure d'interférence photon par photon ». Remarquer que les deux voies donnent des signaux complémentaires.

312


Dualité onde-corpuscule pour le photon

De la dualité onde corpuscule à la réduction du bruit de photons

Deux expériences ont donc été réalisées, utilisant les mêmes impulsions lumineuses. La première met en évidence un comportement de type corpusculaire : elle peut être décrite en disant qu'un photon unique est soit transmis, soit réfléchi, mais ne se partage pas sur une lame semi-réfléchissante; ce comportement est incompatible avec le modèle ondulatoire classique des phénomènes lumineux. Au contraire, la deuxième expérience met en évidence un effet d'interférence pour les mêmes impulsions lumineuses; un tel comportement peut être associé à la division cohérente d'une onde par la lame semi-réfléchissante. Cette présentation délibérément paradoxale de la dualité onde-particule pour un photon unique ne doit pas nous entraîner trop loin : la cohérence de la théorie quantique est sauvegardée par l'impossibilité de déterminer, dans l'expérience d'interférence, laquelle des deux voies de l'interféromètre a été « empruntée par le photon ». Au contraire, la première expérience — qui permet de répondre à cette question — ne révèle aucun caractère ondulatoire. L'incompatibilité des montages expérimentaux correspondant à ces deux expériences est un exemple de la complémentarité de Niels Bohr.

Au-delà de l'illustration de ces concepts fondamentaux — dualité onde-particule, complémentarité — la possibilité de préparer des états non classiques de la lumière ouvre des perspectives nouvelles qui commencent seulement à être explorées. Nous mentionnerons simplement pour mémoire la toute récente et spectaculaire mise en évidence des états comprimés du rayonnement, sujet trop délicat pour être présenté en quelques lignes. Mais nous pouvons citer un exemple voisin, plus facile à expliquer dans le contexte de cet article : on peut concevoir des états à nombre de photons déterminé. Des comptages de photon répétés sur des impulsions lumineuses de ce type donneraient en principe toujours le même résultat, n. On aurait donc une fluctuation nulle, évidemment inférieure au « bruit de photon » habituel égal à /n. Bien plus qu'une curiosité, une

Fig. 5. — Contraste des interférences, en fonction du régime de la source. Pour les plus faibles valeurs de (ûjre, on est nettement dans le régime à un seul photon (voir la fig. 2).


P. Grangier

telle lumière permettrait une amélioration considérable de la sensibilité des mesures de très faible absorption, limitées par le bruit de photon.

Au-delà du débat sur la nécessité d'une théorie quantique de la lumière, ces expériences laissent présager un développement nouveau de l'optique quantique non seulement sur le plan fondamental, mais sans doute aussi dans le domaine des applications.

BIBLIOGRAPHIE

Cohen-Tannoudji C., « Introduction to Quantum Electrodynamic », École d'Été des Houches, 1982, Grynberg G. et Stora R. ed., North-Holland (1984). Cohen-Tannoudji C, Dupont-Roc J., Grynberg G., 1986, « Photons et Atomes », Inter Éditions. Frisch O., 1965, Contemporary Physics, 7, 45. Grangier P., Roger G., Aspect A., 1986, Europhysics Letter, 1, 173. Loudon R., 1983, « The Quantum Theory of Light », 2e éd., Clarendon. Wheeler J. A., 1978, « Mathematical Foundation of Quantum Theory », Marlow A. R. ed., Académie Press.

314


LA VIE DES SCIENCES -

Augustin Fresnel (1788-1827), ingénieur et théoricien

André CHAPPERT

Université de Montpellier-III Route de Mende, BP 5043, 34032 Montpellier

Augustin Fresnel est l'un des hommes qui ont le plus profondément marqué le milieu scientifique dans le premier quart du XIXe siècle du fait que son attention à l'expérimentation, dans le domaine de l'optique, l'a amené à être à la fois un véritable ingénieur et un théoricien avisé. Sa biographie, déjà assez bien connue, peut cependant être aujourd'hui complétée grâce à des données récemment mises à jour et le double titre qui est ici donné à Fresnel à l'occasion du bicentenaire de sa naissance se trouve davantage justifié (*).

De l'École Polytechnique à la Commission des Phares

Un hommage à l'oeuvre et à la grande figure de Fresnel requiert que soit d'abord évoquée la vie de l'un des hommes qui, dans le premier quart du XIXe siècle, ont le plus profondément marqué le monde scientifique et technique. A travers une biographie de Fresnel, même tracée à larges traits, s'affirment déjà, en effet, l'ingénieur et le théoricien de l'optique qu'il a été et dont les contributions respectives doivent être aujourd'hui mises à l'honneur.

Augustin Fresnel est né à Chambrais, aujourd'hui Broglie, petit village de l'Eure, le 10 mai 1788. En dépit d'une santé délicate, il entre, après un passage à l'École Centrale

(*) Sur l'initiative de sa Section de Physique, l'Académie a consacré une partie de sa séance publique du 12 décembre 1988 à un hommage à Augustin Fresnel pour le bicentenaire de sa naissance. La Vie des Sciences publie ici les exposés faits à cette occasion.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 4, p. 315-326


A. Chappert

de Caen, à l'École Polytechnique, en 1804, soit un an après Arago, un an avant Cauchy (Fresnel y a été admis 17e sur une promotion de 130 élèves). Il y reçoit, en mathématiques, l'enseignement de maîtres éminents : Monge, Poisson, Labey, Hachette. En revanche, l'enseignement de la physique, assuré par Hassenfratz, un ancien membre de la Commune de Paris, n'avait ni l'ampleur ni la qualité du précédent. Arago ne s'est jamais privé de faire état de « l'insuffisance » de Hassenfratz et du peu de considération que lui témoignaient les élèves de l'École Polytechnique, comme de la pauvreté en optique des Traités de physique alors en usage, tels ceux de Haüy et de Libes (1). Emile Verdet, qui se chargera, après 1860, de la publication des oeuvres de Fresnel, précisera même que Fresnel n'a pu trouver, dans l'enseignement donné à l'École Polytechnique, « aucune notion tant soit peu exacte des travaux de ses devanciers sur la théorie des ondes » ( 2) ni, par la suite, dans l'isolement qui a été le sien, suppléer à l'imperfection de ses connaissances par la lecture de bons ouvrages.

A sa sortie de l'École Polytechnique, en 1806, Fresnel se trouve affecté au Corps des Ponts et Chaussées. Si les trois années qu'il passe à l'École d'application de ce Corps lui permettent de bénéficier d'une certaine relation avec les milieux scientifiques de l'époque, les premiers postes qu'il occupe en Vendée, puis dans le Drôme le vouent à une solitude

AUGUSTIN FRESNEL.


Augustin Fresnel, ingénieur et théoricien

intellectuelle des plus complètes, sans que son esprit ne cesse de s'interroger sur plusieurs problèmes d'ordre physique ainsi qu'en témoignent sa correspondance ou les notes trouvées dans ses carnets : on peut déjà y lire des objections à la théorie de Newton, quelques ébauches de calcul sur les mouvements ondulatoires ou sur la constitution moléculaire des corps. Lui-même a laissé un témoignage saisissant de son isolement dans ses fonctions de jeune ingénieur : dans une lettre en date du 15 mai 1814, adressée à son frère Léonor, après lui avoir demandé l'envoi d'un exemplaire de la Physique de Haùy ainsi que des Mémoires relatifs aux récentes découvertes des physiciens français sur la polarisation de la lumière, Fresnel indique qu'il a appris par « Le Moniteur » que Biot avait lu à l'Institut « un Mémoire fort intéressant » sur ce phénomène; « J'ai beau me casser la tête, je ne devine pas ce que c'est », avoue-t-il humblement(3).

La carrière de Fresnel se fut sans doute encore déroulée dans l'obscurité, si un de ces événements imprévus dont l'histoire a le secret, n'était venu en modifier brusquement le cours. En avril 1815, il est suspendu de ses fonctions d'ingénieur et mis en surveillance à Nyons, pour s'être joint aux troupes qui, sous les ordres du duc d'Angoulême, avaient tenté de s'opposer au retour vers Paris de Napoléon, revenu de l'île d'Elbe. Bien qu'il n'ait été réintégré dans son Corps d'origine par la Seconde Restauration qu'au mois de juillet 1815, il obtient, grâce à la bienveillance du comte Real, préfet de police pendant les Cent Jours, l'autorisation de quitter Nyons pour le village de Mathieu, aux environs de Caen, où sa mère s'était retirée. Événement en lui-même de portée modeste, mais qui, par ses conséquences indirectes, aura contribué à infléchir sa carrière. Fresnel met, en effet, à profit son passage obligé par la capitale, pour solliciter les conseils de quelques unes des grandes figures de la science de l'époque, d'Arago en particulier, dont l'amitié efficace et généreuse ne se démentira jamais. Dans sa retraite normande, il transforme ses loisirs à demi forcés en activité studieuse, puisque loin de tout laboratoire, à l'aide de moyens de fortune, dont l'ingéniosité suscite encore l'admiration — une goutte de miel déposée sur un trou percé dans une plaque de métal lui tenait lieu de lentille — il entreprend une série d'expériences sur la diffraction, qui devaient aboutir à son premier Mémoire sur ce phénomène, adressé à l'Académie des sciences dès le 15 octobre 1815 (4); Arago et Poinsot seront chargés de l'examen de ce travail, par lequel Fresnel venait d'inaugurer avec éclat sa carrière de physicien.

Bien que réintégré en juillet 1815 dans le Corps des Ponts et Chaussées, Fresnel obtint, sur l'intervention pressante d'Arago qui avait déjà pris la mesure de son génie, de passer une partie de l'année 1816 à Paris; mais à la fin de cette même année, il fut contraint de rejoindre son poste à Rennes où il devait assurer la surveillance d'un des « ateliers de charité » ouverts par l'administration des Travaux publics, à la suite de la disette de 1816. Tant pour sa satisfaction personnelle que pour le plus grand bénéfice de la science, un terme fut assez rapidement mis à ces fonctions : à l'automne de l'année 1817, Fresnel est autorisé à revenir à Paris pour y bénéficier d'un congé avant de recevoir une nomination d'abord au Service du canal de l'Ourcq, puis dans celui du Cadastre de la Ville de Paris, avec le titre d'ingénieur du Pavé de Paris; en 1819, à la demande d'Arago qui en faisait déjà partie, il entre dans la Commission des Phares, promise depuis peu à un rôle accru, en raison de l'urgence de procéder à la rénovation de l'éclairage des côtes françaises, laissé dans un état médiocre.

Fresnel est alors en droit de regarder son retour dans la capitale comme définitif. S'il est désormais contraint de réserver le plus clair de son temps à des activités professionnelles fort astreignantes, mais dans lesquelles il saura donner, en quelques années, la mesure


A. Chappert

Fig. 1. — Cette petite lentille octogonale porte gravée sur son cercle métallique « Première lentille exécutée d'après la théorie et sous la direction de A. Fresnel. Hommage à l'Académie, par Soleil, opticien, rue de l'Odéon à Paris ». Musée National des Techniques (CNAM). Voir n° 62 dans le catalogue de l'Exposition de l'École Polytechnique (p. 25).

318


Augustin Fresnel, ingénieur et théoricien

de son génie créateur et inventif, sa passion pour la science n'a rien perdu de son ardeur. Ses recherches viendront confirmer, mois après mois, année après année, les espoirs que ses premiers travaux avaient éveillés dans le monde scientifique; au point que l'historien, aujourd'hui, s'il veut rendre à la grande figure de Fresnel l'hommage qu'elle mérite, doit réunir dans une même évocation l'ingénieur et le physicien, « l'inventeur des phares lenticulaires », comme aimait à l'appeler son frère Léonor Fresnel, et le fondateur de la théorie vibratoire et ondulatoire de la lumière. Il faut, sans doute, dépasser ce simple rapprochement et se risquer à avancer que l'ingénieur et le physicien qu'était tout à la fois Fresnel, se sont prêtés mutuellement appui et concours : si les perfectionnements novateurs à tant de titres apportés aux lentilles des phares exigeaient une profonde connaissance des problèmes de l'optique théorique, les expériences réalisées par Fresnel au cours de ses recherches sur les modalités de propagation de la lumière ne requéraient pas moins, à leur tour, ingéniosité technique et sens pratique. N'est-il pas déjà significatif qu'à un an d'intervalle, respectivement en juillet 1818 et en août 1819, Fresnel ait adressé à l'Institut le manuscrit de son grand Mémoire sur la diffraction de la lumière, qui devait lui valoir en 1819 le prix de l'Académie, et soumis à la Commission des phares son premier rapport sur les perfectionneçents qu'il convenait d'apporter aux installations d'éclairage et aux systèmes optiques des phares? Sans méconnaître cette unité dans la démarche et l'oeuvre de Fresnel, il est cependant nécessaire pour la clarté de l'exposé, plus encore pour mettre en valeur le rôle qu'il a tenu au début du XIXe siècle et l'influence qu'il a exercée par la suite, de distinguer ses activités d'ingénieur de ses travaux en optique.

Les « lentilles de Fresnel » et autres inventions

Accompagnons d'abord Fresnel, pendant quelques instants, dans ses responsabilités au sein de la Commission des Phares. Il est habituel d'attribuer à Fresnel la découverte des lentilles à échelons annulaires, qu'il proposa de substituer en 1819 aux réflecteurs alors en usage ou aux lentilles simples de grand diamètre déjà essayées en Angleterre. Il serait plus exact de lui accorder le mérite de leur réalisation, puisque Buffon, ainsi que Fresnel l'a reconnu sans la moindre réticence de sa part, avait déjà imaginé ce type de lentilles, mais en proposant d'effectuer la taille dans un unique bloc de verre, ce qui rendait l'opération extrêmement problématique. Le phare de Cordouan, situé en bordure de l'estuaire de la Gironde, a le premier bénéficié, dès le 20 juillet 1823, du dispositif dioptrique tournant, composé de huit lentilles carrées, elles-mêmes formées d'éléments annulaires, conçu et mis au point par Fresnel pendant les trois années précédentes, non sans de multiples difficultés d'exécution. Dès les premiers essais, ce dispositif devait révéler à ce point sa supériorité sur les appareils alors en usage, essentiellement par l'accroissement de portée qu'il conférait au faisceau lumineux, qu'un très vaste programme d'équipement du littoral français, sur le modèle du phare de Cordouan, ne tarda pas à être arrêté. Fresnel, il n'est pas sans intérêt de le noter, avait été nommé en 1824, en raison des services exceptionnels qu'il venait de rendre, secrétaire de la Commission des phares, c'est-à-dire pratiquement directeur de cette instance. Mais ce serait gravement restreindre l'activité de Fresnel au sein de cet organisme que de la limiter à la réalisation des premières lentilles à échelons, si considérable et si décisive qu'ait été sa contribution en ce domaine. De manière certes moins spectaculaire et, surtout, moins connue, même


A. Chappert

Fig. 2. — Lampe à double courant d'air et à plusieurs becs concentriques pour l'éclairage des phares, de MM. Arago et Fresnel, in OEuvres de François Arago, 2' éd. par M. J. A. Barrai, tome I, 1865.

320


Augustin Fresnel, ingénieur et théoricien

des historiens, l'esprit d'invention et l'habileté technique de Fresnel se sont manifestés dans les perfectionnements qu'il a su appliquer tant aux installations d'éclairage qu'aux dispositifs mécaniques des phares. Une rapide énumération suffira à en marquer l'étendue et l'importance : amélioration de la lampe d'Argand à circulation d'air (du nom de son inventeur genevois) par l'utilisation des mèches circulaires imaginées par Guy ton de Morveau et l'introduction d'un système de refroidissement à circulation d'huile (5); substitution aux horloges utilisées dans les feux tournants, de mouvements d'horlogerie régularisés par un volant-pendule s'inspirant du célèbre régulateur de Watt; projet présenté par Fresnel d'installation des appareils lenticulaires sur une nappe de mercure de manière à en faciliter la rotation; organisation, sous sa direction encore, au dépôt des phares, d'un atelier de fabrication de glaces courbes et de systèmes d'éclairage.

Il nous a été donné, il y a déjà une dizaine d'années, de présenter dans les Archives internationales d'histoire des sciences, deux lettres autographes de Fresnel, dont l'Académie des sciences avait su très heureusement faire l'acquisition à l'occasion d'une vente qui a eu lieu en mars 1971 à l'Hôtel Drouot. La seconde de ces lettres, inédite, en date du 18 septembre 1821 et adressée à l'astronome Mathieu, membre comme Fresnel de la Commission des phares, mérite d'être bièvement évoquée, parce qu'elle apporte de précieuses informations sur une application sans doute méconnue, mais significative au regard de la science, des travaux de Fresnel (6). Nous apprenons par ce courrier que Mathieu était à cette date sur le point de recevoir une lentille annulaire et un jeu de lampes qui lui seront utiles dans sa mission géodésique : en effet, en cette fin de l'année 1821, l'astronome français était engagé, de concert avec une équipe anglaise, dans une série d'opérations destinées à prolonger jusqu'en Grande-Bretagne la détermination de la méridienne de France, effectuée d'abord par Delambre et Méchain, puis par Biot et Arago. Ainsi, dès leur réalisation, les lentilles annulaires ont-elles trouvé une application dans l'ordre de la connaissance pure, en permettant de disposer dans les mesures géodésiques, de signaux d'une exceptionnelle directivité et, par suite, d'un grand éclat et d'une portée élevée. Il est heureux qu'à l'occasion de la célébration du bicentenaire de la naissance de Fresnel, grâce à l'acquisition par l'Académie des Sciences de pièces qui risquaient de tomber dans l'oubli, l'hommage rendu à l'illutre ingénieur puisse être aujourd'hui enrichi d'un exemple si parfaitement significatif des services que la technique peut rendre à la science.

Une théorie de la lumière

L'évocation de la carrière d'ingénieur de Fresnel sur laquelle il nous a paru utile d'insister quelque peu, parce qu'elle est souvent éclipsée par son oeuvre en physique, doit maintenant céder la place à celle de ses travaux en optique.

Dès son premier Mémoire, Fresnel s'est inscrit en faux contre la théorie de l'émission, qu'il identifie d'ailleurs injustement, comme bien d'autres physiciens, à la théorie de Newton; il n'a nulle peine à en montrer les insuffisances et à dénoncer l'obligation, dans le cadre de cette théorie, d'accepter un échafaudage sans cesse plus complexe d'hypothèses, au fur et à mesure que l'optique bénéficie de nouvelles découvertes; observation qui lui a valu de solides inimitiés dans un monde scientifique alors acquis à la conception corpusculaire. Tous les historiens sont unanimes à accorder à Fresnel le mérite d'avoir


A. Chappert

Fig. 3. - Phare de Cordouan. Ce phare installé à l'embouchure de la Gironde (1584-1610), restauré sous Colbert [1660-1664), fut doté en 1786-1790 d'un quatrième étage pour installation d'un éclairage à réflecteurs paraboliques. Celui-ci fut remplacé par le système de Fresnel en juillet 1823. Gravure, planche 6, Les Phares, Allard Emile, 1889.

322


Augustin Fresnel, ingénieur et théoricien

constitué la théorie vibratoire et ondulatoire de la lumière; la formule est parfaitement recevable, à condition toutefois de définir aussi exactement que possible sa démarche.

Fresnel conçoit la lumière comme formée par « les vibrations d'un fluide universel agité par les mouvements rapides des particules des corps lumineux », « comme une vibration générale de l'éther », pour reprendre ses propres termes. La « longueur d'ondulation » — nous disons plus volontiers la « longueur d'onde » — désigne « l'intervalle compris entre deux points de l'éther où les mêmes oscillations s'exécutent simultanément et dans le même sens »; l'onde ou, plus exactement, la « surface de l'onde » est comprise comme « la surface dont tous les points sont toujours ébranlés de la même manière au même instant ». Huygens avait déjà fait usage, dans le Traité de la lumière, de la notion d'onde, mais sans supposer que les ondes qui se succèdent, correspondent à une suite « réglée ». Fresnel retient au contraire, comme il l'a souligné à maintes reprises, le cas d'une succession nombreuse d'oscillations, chaque série d'ondes étant, à la limite, regardée comme infinie (7). Il est ainsi en mesure de constituer un mécanisme ondulatoire, qui demeure l'un de ses plus éclatants titres de gloire, par combinaison du principle des interférences et du principe de Huygens : le premier stipule que les vibrations des deux systèmes « s'accordent » s'ils sont séparés par un intervalle égal à la longueur d'onde, mais « se contrarient » dans le cas d'un intervalle égal à la moitié de la longueur d'onde; le second conduit à utiliser les points d'une onde, dans une de ses positions, comme autant de sources intermédiaires en vue de l'étude du mouvement lumineux ultérieur (8). Le problème de la diffraction fait alors l'objet d'une solution complète exposée dans le célèbre Mémoire de 1818 ( 9) : l'onde arrêtée par le bord d'un obstacle est divisée en éléments, dont les contributions respectives sont combinées entre elles, en usant des deux principes précédents, afin de déterminer l'intensité de la vibration résultante en un point pris dans la zone de diffraction. Telle est l'origine des célèbres intégrales de Fresnel, aujourd'hui encore présentes dans les Traités d'optique. Poisson, ayant déduit de ces calculs que le centre de l'ombre d'un petit disque circulaire doit être un point brillant, Fresnel lui apporta rapidement la confirmation expérimentale de cette prévision. En montrant que le mouvement transmis par une onde sphérique se détruit partiellement par interférences, il écarte également l'objection déjà faite à Huygens, à savoir que la théorie ondulatoire ne permettait pas d'expliquer la propagation rectiligne de la lumière.

Lorsqu'au cours de l'année 1815, Fresnel dépose son premier Mémoire, il admet que les vibrations de l'éther, puisqu'il s'agit d'un fluide subtil répandu dans l'espace, se produisent orthogonalement à la surface des ondes, c'est-à-dire qu'elles ont un caractère longitudinal. L'étude des phénomènes de polarisation ne va pas tarder à lui imposer une autre hypothèse sur la direction de ces vibrations. Il convient de rappeler que, depuis la découverte par Malus, en 1808, de la possibilité de polariser la lumière par réflexion, des observations nouvelles sont venues rapidement confirmer l'exceptionnelle richesse de cette classe de phénomènes : Arago a découvert en 1811 la polarisation chromatique, constituée par les couleurs qui apparaissent lorsqu'une lame cristalline est éclairée en lumière blanche polarisée; Biot, peu après, a mis en évidence la polarisation rotatoire. Fresnel est très vite convaincu qu'il existe une profonde analogie entre les couleurs des lames minces, déjà étudiées par Newton, et les couleurs des lames cristallines que venait d'observer Arago : dans le premier cas, il s'agit d'interférences en lumière naturelle, dans le second, d'interférences en lumière polarisée. Il était donc nécessaire de déterminer d'abord les


A. Chappert

conditions d'interférences en lumière polarisée. Arago et Fresnel concluent au terme d'une série d'expériences, le plus souvent réalisées de concert, que deux faisceaux lumineux polarisés à angle droit ne peuvent interférer; c'est seulement lorsqu'ils sont polarisés dans le même sens que les franges d'interférences apparaissent. Ces conclusions, de même que les phénomènes de polarisation chromatique et de réflexion de la lumière polarisée s'expliqueraient de la manière la plus simple si les mouvements oscillatoires au sein de l'éther s'effectuaient transversalement. Mais Fresnel sera seul à franchir le pas, c'est-àdire à affirmer, dans une série de Notes publiées au cours de l'année 1821, la nécessité de supposer les vibrations lumineuses transversales. Les réticences seront aussitôt nombreuses et vives, parce que si l'éther est le siège d'oscillations transversales, il ne peut plus être strictement assimilé à un fluide, mais doit s'apparenter, dans ses propriétés mécaniques, à un solide.

Arago lui-même, si l'on en croit Verdet, n'aurait pu se décider à suivre Fresnel, dès l'instant où il avait avancé l'idée de la transversalité des vibrations lumineuses. Que d'efforts seront exigés des physiciens du XIXe siècle, à commencer par Fresnel lui-même, pour tenter d'apporter une réponse à la si embarrassante question de la constitution de l'éther!

Entraîné par le développement de ses recherches sur les phénomènes de polarisation, Fresnel ne pouvait manquer de s'engager toujours plus avant dans l'étude des milieux biréfringents qui feront l'objet de Mémoires présentés en 1821 et 1822. Non seulement il découvre que le verre comprimé présente les mêmes propriétés que ces derniers et propose une interprétation cinématique, restée justement célèbre, de la polarisation rotatoire, mais encore il montre que dans le cas des cristaux à deux axes, aucun des rayons ne suit la loi de la réfraction ordinaire, contrairement à celui des cristaux à un axe, tel le spath d'Islande. L'extension aux milieux biaxes de la construction des rayons réfractés donnée par Huygens, précisément lorsque le milieu ne comporte qu'un seul axe, exigeait au préalable la détermination de la surface d'onde dans le cas le plus général. Fresnel y parvient, par une démarche sans doute plus intuitive que rigoureuse, mais qu'il est excessif de ramener comme C. Fabry, à « une divination d'une extraordinaire hardiesse » ( 10) : l'équation de la surface d'onde est du quatrième degré. L'intuition de Fresnel, telle qu'elle apparaît dans sa proposition relative à la surface d'onde, trouvera sa première justification dans le résultat établi en 1832 par Sir William Rowan Hamilton, à savoir que la surface d'onde devait présenter quatre points coniques. En 1833, le physicien irlandais Lloyd observera effectivement les phénomènes correspondant à ces points singuliers.

A l'ampleur et à la cohérence de l'oeuvre de Fresnel, puisqu'elle embrasse sans exception tous les phénomènes optiques alors connus, doit être rapportée l'influence qu'elle a exercée sur les travaux des physiciens qui lui ont alors succédé : aucun d'entre eux n'a pu ignorer ni les résultats auxquels Fresnel était parvenu ni la méthode qu'il avait constituée, en combinant l'application du principe des interférences avec celui de Huygens.

En 1823, Fresnel reçoit l'hommage qu'il a pleinement mérité : l'Académie l'accueille; élu à l'unanimité des suffrages dans la Section de Physique générale, le 12 mai de cette année, il succède au physicien Charles. Deux ans plus tard, la Royal Society l'admet au nombre de ses associés, avant de lui décerner en 1827, peu avant sa mort survenue le 14 juillet de cette même année, la médaille Rumford qu'Arago fut chargé de lui remettre. Si l'Académie a su réserver à Fresnel une élection triomphale, elle comptait toutefois dans


Augustin Fresnel, ingénieur et théoricien

Fig. 4. — Gardien de Phare faisant son quart. Gravure dans L'Illustration du 4 avril 1891.

325


A. Chappert

ses rangs des adversaires déterminés, qui ne se sont pas privés de s'opposer à lui : Biot et Poisson figurent parmi les plus notables. Mais si la polémique qui s'est élevée en 1821 entre Fresnel et Biot a rapidement pris l'allure d'un affrontement, Biot se sachant directement visé par la critique développée par Fresnel de sa théorie de la polarisation mobile — nous savons aujourd'hui que la conduite de Biot a été des plus médiocres, le débat entre Fresnel et Poisson en 1822, en dépit à certaines heures de sa vivacité, a gardé un tour plus proprement scientifique : il s'est même révélé positif dans la mesure où il a contraint Fresnel à expliciter ses idées sur le mécanisme ondulatoire qu'il avait introduit.

Ces polémiques, quel qu'ait été leur véritable objet, devaient être rapportées parce qu'elles appartiennent à l'histoire et qu'elles témoignent des obstacles auxquels le génie est toujours confronté. Elles se sont peu à peu éteintes pour ne plus laisser place qu'à l'admiration suscitée par l'oeuvre de Fresnel; tous les physiciens qui lui ont succédé, au cours du XIXe siècle comme à notre époque, se sont, en effet, référé à ses travaux et à ses conclusions. L'autorité incontestée en optique, qui lui a été ainsi unanimement reconnue par la postérité, n'est-elle pas, en définitive, l'expression du plus bel hommage qui puisse être rendu à Fresnel?

NOTES

(1) OEuvres complètes de François Arago, t. I, Paris, Gide et Baudry, 1854, p. 12.

( 2) OEuvres complètes d'Augustin Fresnel, t. I, Paris, Imprimerie impériale, 1866, p. XXIX.

( 3) Fresnel A., op. cit., t. II, Paris, Imprimerie impériale, 1868, p. 819.

(4) Fresnel A., « Premier Mémoire sur la diffraction de la lumière », op. cit., t. I, Paris, Imprimerie impériale, 1866, p. 9-33.

( 5) Lampe imaginée par A. Argand (1755-1803), dans laquelle circule un double courant d'air. Un perfectionnement lui a été apporté en plaçant au-dessus de la lampe une cheminée de cristal, ce qui a pour effet de provoquer une combustion plus complète de l'huile. Guyton de Morveau (1737-1816).

( 6) Archives internationales d'histoire des sciences, 26, n° 99, décembre 1976, Steiner, p. 268-279.

(7) Fresnel A., Op. cit., t. I, 1866, p. 201-204 et p. 271; op. cit., t. II, 1868, p. 53, note 1.

( 8) Fresnel A., op. cit., t. I, 1866, p. 271 et p. 293.

( 9) Fresnel A., « Mémoire couronné sur la diffraction de la lumière », op. cit., t. I, 1866, p. 247-382.

( 10) « Centenaire d'Augustin Fresnel », extrait de la Revue d'optique théorique et instrumentale, 6, 1927, p. 40.

326


LA VIE DES SCIENCES

L'entraînement partiel de l'éther

selon Fresnel

Pierre COSTABEL

Correspondant de l'Académie

L'hypothèse connue sous ce nom est restée célèbre, mais n'est pas généralement considérée à l'actif de son promoteur. Le cas est exemplaire pour l'histoire des sciences. En revenant sur les conditions dans lesquelles Fresnel a été conduit à répondre à une question d'Arago, les erreurs curieuses qui ont été commises dans la tradition postérieure et l'interprétation d'un texte qui fut unique, sont mises en évidence. La conclusion transmise par Fresnel à Arago résultait en fait d'une démarche méthodique sans pour autant le satisfaire réellement. Restituer cette démarche est particulièrement utile.

Une hypothèse fugitive

C'est pour satisfaire une demande d'Arago que Fresnel a formulé une fois l'hypothèse que le transit de la lumière à travers les corps réfringents subit, lorsque ces corps sont mobiles, une influence de leur mouvement. Influence que l'on peut caractériser comme un entraînement partiel de l'éther intérieur. La lettre que Fresnel adressa à ce sujet à Arago suscita suffisamment l'intérêt du destinataire pour que son texte soit, sans tarder, publié dans le numéro de septembre 1818 des Annales de chimie et de physique. Mais ce fut la seule manifestation publique. Par la suite, il n'y eut sous la plume de Fresnel et sous celle d'Arago aucune allusion à une affaire qui marquait un moment de leur collaboration. On peut donc bien qualifier de « fugitive » l'hypothèse de l'entraînement partiel de l'éther.

Elle aurait été complètement oubliée si, en 1851, Fizeau ne s'était pas servi du texte de Fresnel — vraisemblablement d'après une référence donnée oralement par Arago —,

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 4, p. 327-334


P. Costabel

mais l'intervention de Fizeau, centrée sur l'utilisation de l'hypothèse, a laissé entièrement de côté les raisons pour lesquelles cette hypothèse avait été envisagée par Fresnel et il n'est resté en définitive de la mémoire de Fresnel qu'un coefficient numérique, à savoir que, dans un corps réfringent d'indice de réfraction n, l'influence du mouvement de la Terre sur le transit de la lumière dépend du produit de la vitesse orbitale par [1—(1/n2)]. A la fin du siècle dernier les travaux d'approche de la Relativité restreinte ont récupéré ce coefficient dans la perspective théorique nouvelle en conservant sa désignation sous le nom de Fresnel. La survivance du souvenir de ce nom présente donc dans ce cas un caractère accidentel.

Ainsi, tout concourt à obliger l'historien des sciences à une enquête approfondie. Le présent propos ne concernera que la partie fondamentale de cette enquête, c'est-à-dire le texte de Fresnel et la signification qu'il est possible de lui donner.

Position du problème dans l'histoire

Ce texte, unique en la matière, précise dès le début de quoi il s'agit : fournir dans le cadre de la théorie ondulatoire de la lumière une explication de résultats d'observations astronomiques inattendus. Il importe évidemment de ne pas perdre de vue cette déclararation, mais l'examen des conditions scientifiques de son application est impossible sans le rassemblement préalable de données historiques.

Les résultats d'observation inattendus qui ont provoqué la demande d'Arago auprès de Fresnel firent l'objet d'un mémoire déposé à la Première Classe de l'Institut le 10 décembre 1810. Ils ne sont connus que parce que Arago, à la veille de sa mort, publia le mémoire, resté inédit, dans le tome 36 des Comptes rendus de l'Académie, en 1853. Dans une Note jointe, justification est faite du long délai de quarante-deux ans par le fait que le mémoire, considéré comme perdu, n'a été retrouvé que tout récemment dans les papiers de l'auteur. Cette Note ne dit rien de la consultation de Fresnel en 1818. A l'évidence il faut tenir compte de ces constatations curieuses.

La correspondance de Fresnel avec son frère Léonor montre combien sa collaboration avec Arago fut étroite et chargée d'espoir lorsque ce dernier revint en 1816 d'un voyage à Londres au cours duquel la rencontre des savants anglais et de Thomas Young en particulier avait été féconde. Féconde pour la nécessité de considérer avec sérieux la théorie ondulatoire, mais aussi féconde pour l'estime qu'il y avait lieu d'accorder à Fresnel, que la critique anglaise méconnaissait à tort.

On sait par ailleurs combien Arago a recherché toute sa vie ce qu'il a appelé, en 1838, des preuves décisives en faveur de la théorie ondulatoire, et qu'il ne s'est jamais satisfait lui-même à cet égard.

Ainsi le texte de Fresnel de 1818 correspond à une tentative qui fut sans lendemain, après un instant de faveur, et certainement au regret de celui qui l'avait provoquée.

Mais le mémoire de 1810, matière de la consultation de Fresnel, n'est lui-même compréhensible qu'en remontant dans l'histoire d'Arago car ce mémoire est la suite de celui qu'Arago avait déposé avant de partir en 1806 pour accompagner Biot aux Baléares et participer à l'achèvement des mesures géodésiques du prolongement de la méridienne.


L'entraînement partiel de l'éther

Arago et ses observations astronomiques

En 1806, Arago — à peine âgé de vingt ans — avait tenté une démonstration expérimentale de l'identité de nature des lumières provenant soit des astres soit des corps lumineux terrestres, soit encore des planètes réfléchissant la lumière solaire. Il avait, pour cela utilisé une procédure très simple. Si l'on vise un objet (terrestre ou céleste) à travers une lunette, la ligne de visée subit une variation lorsqu'on place un prisme devant l'objectif, et quelle que soit la position bien déterminée que l'on donne au prisme par rapport à la lunette, la déviation que l'on mesure est fonction de l'indice de réfraction du verre dans lequel le prisme a été taillé, c'est-à-dire d'après l'explication newtonienne de la loi de la réfraction, fonction du quotient des vitesses de propagation de la lumière à l'extérieur et à l'intérieur du verre. Dès lors, si la mesure de la déviation est la même quel que soit l'objet observé avec le même dispositif, il y a obtention d'un signe sur l'identité de nature de toutes les lumières extérieures, car on ne saurait douter du caractère propre et unique de la propagation intérieure au verre. Tel était le principe de la démarche d'Arago, principe qui, bien entendu, n'est pas exempt de difficultés.

Le mémoire qu'il déposa en 1806 à l'Académie faisait état de ce qu'en opérant avec un prisme de 45' d'ouverture, il avait observé, quel que soit l'objet visé, une déviation de 25' à 5" près.

Rentrant à Paris en 1807, Biot laissa Arago à Majorque mettre la dernière main aux mesures géodésiques et l'on sut que la population de l'île, pour laquelle cette activité paraissait suspecte, passait à l'hostilité la plus violente. Devant l'absence de nouvelles, pendant deux ans, on crut Arago perdu alors qu'il était parvenu à se réfugier en Algérie. Lorsqu'il reparut à Paris au milieu de 1809, la surprise, heureuse, s'accompagna à l'Académie d'une constatation fâcheuse : le mémoire de 1806 attendait toujours son rapport. En présentant celui-ci le 4 septembre, Delambre ne pouvait pas cacher qu' Arago méritait réparation. Ce fut certainement une des raisons de son élection, fin octobre, au poste laissé vacant dans la section d'Astronomie par la mort de Lalande.

Mais ce succès remit le plus jeune des membres de l'Académie en face de son travail antérieur et Arago comprit que la bienveillance avec laquelle Delambre avait admis la possibilité de négliger des différences de quelques secondes, au titre des erreurs de mesure, soulignait en fait une faiblesse de sa procédure. Il corrigea celle-ci de deux manières.

D'abord en faisant passer les déviations à observer à des valeurs de l'ordre de 10 et 22°, par emploi de prismes achromatiques de grande ouverture. D'où un jugement beaucoup plus facile des erreurs de mesure et une diminution considérable de leur importance relative.

Il chercha ensuite les conditions de l'observation susceptibles de faire apparaître des écarts sensibles, de cinq à dix fois supérieurs à ceux des erreurs de mesure, et qui, rapportés à une cause, puissent servir à une correction significative. Le calcul lui ayant montré que les écarts ainsi souhaités correspondaient à une variation de la vitesse de la lumière de l'ordre de grandeur de la vitesse orbitale de la Terre, il conclut à l'utilité d'observer durant plusieures nuits au voisinage des équinoxes.

C'est en effet l'époque où, à 6 heures du matin et à 6 heures du soir, la vitesse orbitale de la Terre est pratiquement dans le plan méridien du lieu, tantôt dans un sens, tantôt dans le sens opposé. Selon la théorie de l'émission, qui introduit nécessairement pour le


P. Costabel

corpuscule lumineux une composition de vitesses, Arago était en droit d'attendre au cours de ses observations des 19 et 27 mars 1810, puis du 8 octobre, un effet maximal du mouvement orbital de la Terre et, selon les étoiles observées, des écarts de déviation significatifs.

Or le 10 décembre 1810, Arago était obligé de déposer à l'Académie des résultats entièrement négatifs. Si l'égalité des déviations observées se trouvait plus sérieusement établie qu'en 1806, c'était dans une indépendance totale du mouvement de la Terre, donc en contradiction avec la théorie de l'émission.

Y avait-il une explication dans la théorie ondulatoire? C'est la question que Fresnel fut chargé de résoudre.

Mise à l'épreuve de Fresnel

La lettre que Fresnel écrivit à son frère Léonor le 5 septembre 1818 fait mention de ce « petit travail » demandé par Arago, mais contient aussi une information intéressante sur l'état d'esprit dans lequel il se trouvait à cause de la mise au point de son deuxième mémoire sur la diffraction, et de l'aspect général du débat entre les deux théories de la lumière.

Au cours d'une rencontre récente, Laplace lui avait sévèrement reproché de ne pas croire à l'utilité de l'Analyse et avait maintenu son désaccord lorsque Fresnel lui avait déclaré que l'Analyse est certes utile, mais que lorsqu'il s'agit de choisir entre deux systèmes, ce ne sont pas les calculs qui font la balance des probabilités.

Cette remarquable position a son application immédiate au début de la lettre de Fresnel à Arago. Fresnel admet sans réserve les résultats négatifs d'une procédure expérimentale qu'il reconnaît très soignée, et il est catégorique. La tentative qu'Arago a vaguement faite, sans y croire manifestement beaucoup, pour une explication dans la théorie de l'émission, ne peut pas être retenue. Il n'y a donc aucune probabilité de ce côté, et la seule question est de savoir si la théorie ondulatoire est en meilleure posture. Mais Fresnel se trouve ainsi entraîné dans une rédaction où il explicite d'abord ce à quoi il est parvenu, et l'emploi qu'il fait de cette expression laisse peu de doute sur l'inversion qu'il pratique par rapport à l'ordre réel de ses démarches. Il commence par la fin, il annonce le résultat. Et deux constatations viennent à l'appui de ce jugement.

Le résultat — c'est-à-dire l'hypothèse d'un entraînement partiel de l'éther — est suivi d'une évaluation théorique. C'est assez naturel : après l'annonce, la tentative de justification. Elle consiste à utiliser la loi newtonienne récemment revalorisée par Laplace : la vitesse de propagation d'une vibration est proportionnelle à la racine carrée de la densité du fluide porteur, puis à se demander comment — dans la théorie ondulatoire liée à l'hypothèse d'un éther luminifère — traiter des densités de cet éther à l'extérieur et à l'intérieur d'un corps réfringent entraîné par le mouvement de la Terre. La manière dont Fresnel déduit du théorème mécanique du mouvement de centre de masses qu'il y a lieu de distinguer deux parties dans l'éther intérieur — l'une entraînée par le corps, l'autre non — est très embarrassée et peu convaincante. C'est sur elle que toutes les critiques se sont concentrées après la reprise du texte par Fizeau. Mais si la manière est criticable, elle aboutit à justifier le fameux coefficient [1— (1/n2]). Dans la mesure où


L'entraînement partiel de l'éther

Planche I

Structure apparente du texte de Fresnel (1818)

1 - Hypothèse d'un entraînement partiel de l'éther

par les corps réfringents.

Proposition d'une évaluation basée sur le théorème du mouvement du centre de masses.

2 - Calcul de la déviation réelle d'un rayon lumineux

lumineux par rapport au rayon réfracte^ observé.

3 - Calcul de la déviation du rayon réfracté apparent

apparent rapport au rayon réfracté réel.

Et concordance des résultats au premier ordre

infinitésimal.

Structure réelle sous-jacente

1 - L'observation faite par Arago porte sur une

déviation apparente.

Le calcul donne aisément la différence entre

réfraction apparente et réfraction réelle.

2 - Calcul pour rendre compte de la réfraction réelle

différente de la réfraction apparente mesurée.

3 - Nécessité d'admettre une modification de la vitesse de la lumière à l'intérieur du corps réfringent en mouvement, et tentative d'explication.

cette justification est ce qu'il y a de plus clair, il y a grande probabilité pour que le coefficient ait été acquis préalablement par une autre voie.

Par ailleurs, des deux calculs dont Fresnel indique ensuite les résultats concordants — concordance sur laquelle il fait reposer la preuve de son propos — c'est le second qui est le plus facile et le plus incontestable. Il est peu concevable qu'il n'ait pas été en réalité le premier dans la démarche de la recherche.

La lecture du texte de Fresnel à l'envers

Le calcul que Fresnel a placé à la fin de son exposé exploite très directement l'analyse du dispositif expérimental d'Arago. La lumière venant d'un astre et tombant orthogonalement sur la face d'un prisme est reçue à la sortie par une lunette. L'observateur dirige celle-ci de manière que l'image de la « mire » soit au centre du micromètre oculaire.

Figure adjointe fausse

Figure exacte correspondant au texte publié

331


P. Costabel

Fresnel fait remarquer que ce centre occupe alors une position H' distincte de celle, H, qu'il occupait au moment où la lumière est sortie du prisme, en B (voir planches I et II).

La théorie ondulatoire saisit très exactement la question : en supposant que l'observation soit faite lorsque la direction de la lumière incidente coïncide avec celle du mouvement orbital de la Terre, le point H' est déterminé par le fait que HH' est le déplacement de H dans le mouvement orbital durant le temps que les ondes sphériques de centre B permettent le transit de la lumière de B en H'.

Ainsi la lunette, orientée suivant BH', ne mesure pas la déviation qui serait à considérer si le prisme et la lunette n'étaient pas mobiles avec la Terre. Et Fresnel pourrait dire à Arago — mais il évite manifestement de le faire brutalement — : « Votre procédure n'a jamais mesuré autre chose que des déviations apparentes dépouillées du mouvement de la Terre ; tout espoir de mettre en évidence ce mouvement était donc vain a priori. »

En fait, la consultation du théoricien de la théorie ondulatoire pourrait s'arrêter là. Mais, rendre compte théoriquement de l'écart non observable entre BH et BH' s'impose et ce n'est pas difficile en distinguant pour la vitesse de la lumière à l'intérieur du prisme entre prisme immobile et prisme entraîné par la Terre. La mise en équation conduit aisément à une différence entre les deux vitesses qui est au premier ordre infinitésimal [l-(l/«2)]w, où u est la vitesse orbitale de la Terre (très petite par rapport à la vitesse de la lumière) et n l'indice de réfraction usuel (voir planche II).

En définitive, c'est bien à la fin de sa lettre à Arago que Fresnel donne la clef de ses démarches : d'une part, l'absence d'influence du mouvement de la Terre dans les observations a pour raison profonde que ces observations sont réalisées sur des apparences qui intègrent déjà le mouvement orbital ; et, d'autre part, il y a une explication simple par le calcul, concernant la différence des vitesses de la lumière à travers le verre quand on distingue verre immobile et verre entraîné dans le mouvement orbital. Mais alors, interpréter par un entraînement partiel de l'éther est inéluctable, et cette étrange hypothèse est ce à quoi le théoricien parvient, à son corps défendant.

Planche II

332


L'entraînement partiel de l'éther

Planche II. — a, la vitesse orbitale de la Terre W/D<10- 4; V, vitesse de la lumière à l'extérieur du prisme; v' , vitesse de la lumière à l'intérieur du prisme supposé immobile; v", vitesse de la lumière à l'intérieur du prisme entraîné par la Terre.

(a) La lunette mesure la déviation 8 = r — i tandis que la déviation réelle est 8 — s. En posant

Les temps de transport de la lunette de H en H' et de la lumière de B en H' étant égaux, on a

(b) Explication de l'écart s dans la théorie ondulatoire.

Calculs au premier ordre en 10- 4 :


P. Costabel

Leçon d'une diffusion fautive et restitution de la mémoire de Fresnel

La planche II montre comment une figure exacte conduit au calcul simple évoqué ci-dessus. Or ceci amène à une constatation très choquante : la figure adjointe au texte de Fresnel tel qu'il fut publié est grossièrement fausse, non conforme aux indications, il est vrai sommaires, contenues dans le texte (voir planche I). Cette figure n'a donc pas été soumise à la correction par l'auteur, et Arago, qui assurait la publication, n'a pas cherché à voir si cela avait une importance.

De plus, la figure fausse a été reproduite telle quelle dans les OEuvres complètes de Fresnel en 1868. Personne ne s'est donc donné la peine, à l'époque, de vérifier les calculs correspondants, et une situation proprement intolérable pour la mémoire de Fresnel s'est perpétuée.

Ainsi une correction s'imposait à l'occasion du bicentenaire.

Il y a eu diffusion fautive de la pensée de Fresnel par atteinte à l'exactitude d'une figure, et la restitution de celle-ci, indipensable à la compréhension et à la justification du calcul, est finalement pièce maîtresse pour la lecture à l'envers du texte et pour l'accès à sa signification véritable.

Pourquoi Fresnel n'a-t-il pas en temps utile protesté contre la figure fausse? Pour un éditeur de périodique, corriger une figure est toujours une opération ennuyeuse, et c'est une considération qui a peut-être joué son rôle. Il eût fallu que l'auteur estime que l'ensemble de sa contribution valait la peine d'urger la correction et, manifestement, il ne l'a pas pensé.

Il a laissé l'hypothèse de l'entraînement partiel de l'éther être l'affaire d'un instant.

Dans la mesure où cette hypothèse apparaît aujourd'hui fondée sur le résultat d'un calcul, on peut imaginer la leçon épistémologique que Fresnel aurait aisément tirée s'il avait eu l'occasion de compléter l'entretien avec Laplace qui a été mentionné. Il aurait été tenté de dire : « Cher Maître, l'Analyse est sans aucun doute utile et nécessaire, mais permettez-moi de vous soumettre un cas où son verdict, loin de résoudre complètement, plonge le théoricien dans une grande perplexité. »

334


LA VIE DES SCIENCES

Le renouveau de l'or éternel

Claude GUILLEMIN

Correspondant de l'Académie

Zdenek JOHAN et Éric MARCOUX

Bureau de Recherches Géologiques et Minières, avenue Concyr, 45060 Orléans Cedex 2

Un métal comme l'or, si lié à l'histoire humaine, est si riche en légendes, en idées reçues et en connaissance qu'il paraît difficile d'innover en son domaine. Trop souvent l'or, symbole de richesse, suscite l'image de pépites plus ou moins fabuleuses : « Llevame El Dorado donde el brillo del oro se confundio con el sol » (1). Or les pépites pluricentimétriques demeurent des curiosités minéralogiques et l'essentiel de l'or exploité dans le monde se présente en fines et minuscules paillettes, lamelles ou grains dans les alluvions et dans les minerais. Pourtant, après 7000 ans d'exploitation, la quête de l'or peut encore réserver des surprises telle celle apportée par les sulfures aurifères dont l'existence controversée vient d'être prouvée. L'or y est en effet invisible, intégré au réseau cristallin. Cet or « camouflé », impossible à repérer par les méthodes classiques de prospection risque, à l'aube du XXIe siècle, d'ouvrir un nouveau champ à la recherche minière.

Dans cet article, les auteurs se proposent de pondérer mythes et réalités de l'or, en dressant un bref tableau de son histoire, de sa géologie et de sa minéralogie.

La première partie, historique, relate brièvement l'histoire de l'or au cours des siècles et se termine concrètement sur les productions actuelles. La seconde partie, géologique, place les gisements d'or dans leur contexte et décrit les formes principales d'apparition de ce métal dans les gites, ce qui nous amène à la troisième partie, consacrée à l'or camouflé dans les sulfures, à ses méthodes d'observation et de valorisation; il en résulte une ouverture sur la possibilité d'une nouvelle « ruée vers l'or » qui, à la différence des précédentes, serait hautement technologique.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 5, p. 337-367


C. Guillemin, Z. Johan et E. Marcoux

Mythes et réalités de l'or

Un métal « humain »

En introduction à cet article consacré surtout à l'état actuel des connaissances sur l'or dit « invisible », dont le comportement géochimique et minéralogique risque de changer ment le problème général de ce métal « humain ». Vieux et cependant toujours jeune, symbole de la richesse et du pouvoir, objet de fascination et de mythes, son rôle historique, social, moral sinon civilisateur est en effet trop rarement souligné en nos époques incertaines.

L'or n'est pas un métal comme les autres :

— au point de vue minier, c'est un paradoxe des temps modernes, aussi bien récolté pour une proportion importante de sa production de manière artisanale à la bâtée, dans les alluvions des rivières ou par lavage de quartz aurifère broyé avec des instruments primitifs, que dans des mines ultramodernes (la plus profonde : Western Deep Level [Driefontein], Witwatersrand, Afrique du Sud, atteignait 3 760 m en 1987 avec à cette profondeur, une température de 60°C) et par des méthodes de traitement ultrasophistiquées, utilisant même le génie génétique pour la lixiviation bactérienne des minerais et la concentration de l'or;

- économiquement, de cours remarquablement instables depuis 1968 (2), il fut pratiquement le seul métal important à augmenter de valeur dans la grave crise des matières premières minérales qui a débuté en 1978, retrouvant ses fonctions de refuge, de nerf des guerres froides ou chaudes. En 1989, les immobilisations en capital qui lui sont consacrées dans l'industrie minière sont de 8 milliards de dollars (18 pour l'aluminium, 11 pour le cuivre, 5,5 pour le fer, 2,5 pour le plomb et le zinc) et ce pour un métal « consommé » au 3/4 pour la thésaurisation.

La prospection fiévreuse de nouveaux gîtes d'or ou la réouverture de gisements devenus auparavant non économiques s'accompagne heureusement de recherches poussées sur ses conditions de gisement, sa géochimie, sa minéralogie, son environnement; toutes choses qui seront exposées ci-après mais qui nécessitent de nous retourner vers le passé de ce métal, passé qui comme le dit le proverbe arabe « n'est pas derrière nous mais sous nos pieds ».

Une vieille histoire...

Comme le résume Sédillot (1974) : l'or, c'est « sept mille années, cent mille tonnes et une fièvre chronique ».

Il y a environ sept mille ans, l'homme, après l'avoir isolé et martelé, apprend à ciseler l'or qu'il a pu trouver à la surface du sol, extraire des alluvions ou des roches affleurantes. Au Ve millénaire, avec la découverte de la fusion de l'or, c'est la naissance de sa métallurgie, qui se développe dans les Balkans, au Proche Orient et en Egypte. On a trouvé en Bulgarie dans la nécropole de Varna le premier « Fort Knox » de l'humanité : plus de 3 000 objets d'or (6 kg) y furent ensevelis vers le milieu du Ve millénaire. En Egypte, la première dynastie des pharaons est encore loin dans le futur quand des étuis


Le renouveau de l'or éternel

en or battu ornent au IVe millénaire les manches des plus beaux couteaux de silex de l'humanité.

Au fil des ans, l'or illumine la civilisation égyptienne, son éclat comparable à celui du soleil en fait la chair même des Dieux. Incorruptible, il confère l'éternité, d'où son emploi dans les rites funéraires, des sarcophages aux masques, pectoraux, doigtiers... (il est du reste significatif que l'or ait ainsi servi de passeport pour l'éternité dans la plupart des civilisations). Par ses richesses en or « funéraire », l'Egypte a été d'ailleurs une véritable mine pour l'Antiquité et le Haut Moyen Âge : une tombe de la XIXe dynastie, pillée par les Arabes au IXe siècle leur a livré 4 tonnes d'objets en or.

Dès la fin du IVe millénaire, l'or filonien a été exploité par les Égyptiens dans de nombreuses mines des chaînes côtières du désert oriental ou par leurs tributaires, en particulier dans les gisements du Soudan septentrional, l'ancienne Nubie. Nous possédons d'ailleurs avec le papyrus de Turin du XIVe siècle av. J.-C. la première carte topographique réalisée dans l'histoire, qui représente les alentours des mines du Wadi Kareim sur la route de Qena à Quseir, à l'est de l'ancienne Coptos, ville située sur le Nil à quelque 50 km au nord de Louxor et qui fut très importante jusqu'à l'essor de Thèbes. En plus des routes et des monuments ou sites remarquables, cette carte indique les « montagnes d'or », les « montagnes où l'on lave l'or », et même « les maisons de la colonie des chercheurs d'or ».

La Grèce, où l'or est utilisé dès la fin du Ve millénaire, est le berceau de la Toison d'Or. C'était, idéalisée, une peau de mouton comme celles qui, jusqu'à nos jours, servent à recueillir par adhésion à la laine grâce au suint les très fines paillettes d'or transportées par les eaux. Les peaux une fois brûlées donnent de la poudre d'or.

Une véritable révolution se produit en Lydie au VIe siècle av. J.-C. quand Crésus fait frapper ses premières pièces d'or de 11 g (créséïde ou statère). C'est le début d'une longue suite de monnaies qui va parcourir l'histoire avec l'auréus romain (3), le besant byzantin, le florin, le ducat de Venise, le franc à cheval, le doublon, la pistole, le louis, le souverain. . .

Mais la Grande Guerre sonne en 1914 le glas de la monnaie d'or. De tout temps, l'or a été un trésor de guerre essentiel, mais l'ampleur de celle-ci est telle qu'elle absorbe tout, l'or et du même coup l'étalon or. Le métal devient alors valeur refuge, ce qu'il est encore aujourd'hui où cependant il abonde le plus; ce fait montre bien l'élévation mondiale des niveaux de vie et la crainte croissante des conflits.

Actuellement, l'or est convoité par une masse trop grande d'hommes pour pouvoir faire l'objet d'un libre échange avec le papier-monnaie. Pour souligner cette récurrence de la fièvre de l'or, il faut signaler que le Brésil a connu en 1980 une des plus impressionnantes ruées vers l'or de l'histoire récente avec la découverte de l'extraordinaire gisement de Morro da Babilonia, dans la Serra Pelada (État de Para). Dans ce gîte d'alluvions et de schistes décomposés, 10 tonnes d'or sont extraites dès la première année. De 1982 à 1986, c'est encore une hallucinante fourmilière non policée où 30000 orpailleurs grouillent les uns sur les autres dans une excavation de 1 km 2 sur 100 m de profondeur, moitié boue, moitié eau; d'où un nombre d'accidents croissant exponentiellement et une certaine reprise en main du gisement par les autorités. Mais on y a trouvé une pépite de 35 kg, deux autres de 17 et 6 kg, et beaucoup d'autres assez grosses pour exalter l'espoir des misérables.


C. Guillemin, Z. Johan et E. Marcoux

L'âge d'or

« Age heureux où régnoit l'innocence et la justice,

où jamais le souffle empoisonné des soucis rongeons

ne corrompit l'air pur qu'on respiroit!...

Alors, l'homme ne cher choit pas la félicité dans le

superflu; et la faim des richesses n'allumoit point

en lui des désirs insatiables... »

Encyclopédie, Tome XI, page 531, 1765.

(en haut) : Or. Pépite cristallisée, Australie (3,5 cm, 35,5 g, n° 15890). Collection École des Mines, Paris.

Lavage des alluvions aurifères, milieu XVIe siècle. Fac. similé, gravure de G. Agricola, 1556. (De re melallica, p. 274, éd. en latin.) A = crible en bois, à anses, garni d'un treillis métallique; B = grands baquets ou cuviers, en bois; C = eau s'écoulant du fond du baquet; D = canal de lévigation, en bois; E = râteau à 3 dents; F « pelle en bois.

(à droite) :

Or des Scythes. Parure de poitrine ou de bouclier, du Kourgane de Kelermes. Début du XVIe siècle av. J.-C. (environ 25 cm de longueur). Musée de l'Ermitage, Leningrad.

340


Le renouveau de l'or éternel

Des tonnes d'or...

D'après de savantes études, dont les résultats sont à prendre avec d'extrêmes précautions, 130 à 140000 t d'or ont été produites depuis sept à huit mille ans. Environ 10000 t pour ies cinq ou six premiers millénaires, puis quelque 2 000 t de 500 à 1500. C'est au moment où l'Europe se réveille que l'or devient le plus rare (surtout entre le IXe et le XIXe siècle), ce qui lui permet de gouverner l'histoire. C'est ce qu'ont voulu faire par exemple les Anglais, en demandant 12 t d'or comme rançon pour Jean le Bon. (Cette méthode n'a pas servi de leçon à Bismark, trop ignorant des possibilités des bas de laine français, lorsqu'il crut faire occuper la France pour plusieurs années en lui demandant 5 milliards-or de dette de guerre en 1871. L'emprunt fut couvert 13 fois en quelques semaines et le remboursement rapide de la dette permit le départ des occupants). De même, c'est indirectement la rareté de l'or dans le Haut Moyen Âge qui a provoqué les progrès de la chimie, car, dans leurs rêveries, les alchimistes ont fait de nombreuses découvertes de base. Certes, la Pierre philosophale du Moyen Âge qui devait donner à la « materia prima » les qualités de l'or : couleur, densité, malléabilité, était souvent une pierre de crédulité, sinon de charlatanerie, mais ces alchimistes, protégés des Grands et craignant donc peu les procès en sorcellerie, pouvaient multiplier des expériences souvent utiles. Il est significatif qu'au début du XVIIIe siècle, Auguste II de Saxe, roi de Pologne, permit l'invention de la porcelaine en Europe, en enfermant en 1709, le chimiste Bôetteger, pour qu'il lui fasse de l'or !

De 1500 à 1900, l'ensemble des continents produisent entre 15000 et 20000 t d'or et de 1900 à nos jours, l'estimation de 100000 à 110000 t produites (dont 40000 t pour la seule Afrique du Sud) est proche de la réalité. Sur ces 130000 à 140000 t d'or historique, près de 60 000 t se trouvent dans des réserves étatiques; sans doute 30 000 t dans le privé (les Français ont à eux seuls dans leurs économies entre 5 et 6 000 t d'or et sont dans ce domaine, les premiers du monde). Il y a donc quelque 40 000 à 50 000 t pour tout le reste, de la tombe à la dentisterie, des épaves aux ordinateurs.

Les réserves marginales et à moyen terme qui pourraient être rentables avec les techniques actuelles ou peu différentes sont d'environ 150 000 t, dont 70 % dans des gisements détritiques (près de 60 % pour les placers( 4) fossiles du Witwatersrand, le « monstre aurifère » d'Afrique du Sud).

Les ressources sont beaucoup plus importantes, car elles comprennent en plus de ces réserves, d'autres types de gîtes, qui peuvent devenir exploitables si le prix de l'or augmente ou si de nouvelles méthodes d'exploitation et de traitement encore à l'essai se révèlent économiques; donc l'humanité peut être rassurée pour beaucoup d'années sinon de siècles.

Ces merveilleuses pépites...

Une pépite (de l'espagnol pepita : pépin) est une masse d'or plus ou moins émoussée, trouvée dans le sol ou dans des alluvions, souvent dans le lit des rivières. Parfois, les pépites ont atteint de grandes tailles (elles sont plus rares actuellement, car comme pour les minéraux ou les espèces animales, les plus grandes ont été trouvées les premières). On en a découvert dans le monde entier, de 30 à 40 kg dans l'Oural, du même poids en


C. Guillemin, Z. Johan et E. Marcoux

Californie, mais la région la plus célèbre est le district de Ballarat (Victoria, Australie). En 1858, on y trouve la Welcome, de 68 kg d'or, puis en 1869, on rencontre sous quelques centimètre de terre, la plus grande pépite jamais trouvée : Welcome Stranger, de 78,4 kg dont 71 d'or. Nous n'avons pas tenu compte de la « fausse pépite » d'Holterman, pesant 235 kg, qui est en réalité une énorme masse d'or filonien mêlée de quartz. Malheureusement, pour toutes ces grosses pépites, on ne possède plus que des moulages, des dessins ou de mauvaises photographies car la plupart d'entre elles ont disparu, converties en lingots, ou en pièces. En Australie, la pépite découverte le plus récemment (1980) à King Ower (Victoria), grâce à un détecteur de métaux, pesait 27 kg.

En France, la plus grosse pépite connue est celle des Avols (Ardèche), trouvée en 1889 sur le sol. Elle pèse 540 g et se trouve au Musée minéralogique de l'Université de Harvard (Mass., USA).

Les grosses pépites proviennent de la dégradation, de l'érosion des filons de quartz renfermant d'importantes masses d'or primaires parfois cristallisées (d'où les nombreuses pépites montrant encore des formes cristallines plus ou moins émoussées par le transport). Ces grosses pépites, essentiellement roulées et épurées par les chocs des minéraux non malléables qui les accompagnaient, ont parcouru de faibles distances et peuvent être de bons indicateurs de la proximité de gîtes primaires. De nombreuses théories sur un accroissement possible des pépites par dépôt de l'or en solution et par accrétion de fines paillettes ont été émises. Il ne fait pas de doute actuellement que l'or peut être facilement transporté, essentiellement sous forme colloïdale (Goni et al., 1967) dans des solutions qui peuvent migrer à grande distance. Ces solutions floculeront par changements de pH et de Eh dus à la rencontre d'eaux de salinités différentes, de matières organiques, de roches altérées (en particulier, il y a une influence importante de la kaolinisation dans la redéposition de l'or). Ces floculats pourront se déposer par accrétion sur des pépites d'or primaire (Machairas, 1963) ou être compactés par des mouvements tourbillonnaires (en particulier dans les « marmites » des torrents ou des cours d'eau rapides) par chocs avec des sables ou des petits graviers. Goni et al. (1967) ont fabriqué ainsi des pépites de 5 à 6 mm par accrétion et par polissage dynamique, en agitant pendant quelques semaines des suspensions d'or colloïdal avec des grains de sable. Ces travaux confirment bien le phénomène de régénération des placers décrit par Freise (1931).

L'or dans le monde

Nous ne reviendrons pas sur l'or antique, sur lequel nous possédons peu de données statistiques de production, pour nous intéresser à la période allant de l'époque postColombienne (XVIe siècle) à l'époque actuelle (tableau I).

L'Afrique du Sud domine la production mondiale depuis la mise en exploitation des gigantesques gisements du Witwatersrand en 1884. Les 600 t d'or extraites en 1987 représentent en effet 48 % de la production mondiale. Loin derrière, trois pays : États Unis, Canada et Australie, dépassent les 100 t annuelles; leurs importantes productions passées témoignent des années fiévreuses de 1830 à 1900 avec les ruées vers l'or de Californie, du Klondyke (Alaska) et du Victoria en Australie. La fièvre est aujourd'hui tombée et a laissé place à des exploitations et prospections rationnelles, qui ont permis de découvrir de nouveaux gisements importants.


Le renouveau de l'or éternel

TABLEAU I. — Principaux pays producteurs d'or. Données statistiques. D'après J. J. Bache (1982), J. Petot (1986), Annuaire Minemet (1988), Annales des Mines (1978-1988). (Communications Gold'86, Toronto; Gold'88, Melbourne).

Production cumulée Production XVIe - XXe

1987 (arrondie)

Pays (tonnes) (tonnes)

Afrique du Sud 594,2 41400

États-Unis 154,5 10650

Canada 117,8 7000

Australie 109,9 6900

Brésil 35,8 1700

Philippines 34,1 850

Nouvelle Guinée 34,0 450

Colombie 26,5 2150

Chili 17,0 700

Zimbabwe 14,7 1700

Ghana 10,3 1300

Japon 8,6 870

Mexique 8,0 1800

Rép. Dominicaine 7,7 130

Pérou 5,3 490

Inde 4,1 850

Nouvelle Zélande - 1800

Espagne 5,0 160

France. 2,7 290

(productions y. c. Guyane)

Monde occidental 1245,7 87 600

URSS

Europe Est

Chine

350 (évaluations)

16400 (évaluations)

Monde 1595,7 104000

Ces quatre grands producteurs de l'or assurent 78 % de la production mondiale (il est probable que l'URSS produit elle aussi plus de 100 t d'or par an, dans des conditions économiques parfois inhabituelles).

Parmi les petits et moyens producteurs, Mexique, Amérique centrale et du Sud ont eu un passé glorieux et, faisant la richesse de l'Espagne, ont indirectement provoqué le renouveau européen du XVIIe et XVIIIe siècle. Certains ont conservé des traces de ce lustre d'antan : Colombie, Bolivie, et Brésil où l'or a été exploité à partir du XVIIIe siècle durant lequel il fut le principal producteur mondial. La seconde moitié du XXe siècle a vu apparaître de nouveaux producteurs : Philippines, République Dominicaine, PapouasieNouvelle Guinée, Chili, avec d'énormes gîtes d'or à très basse teneur ou sous-produit, dont l'exploitation n'était techniquement pas possible auparavant. Par contre de grands


C. Guillemin, Z. Johan et E. Marcoux

producteurs s'essouflent ou ont pratiquement disparu; Venezuela, Mexique, NouvelleZélande, Inde, dont la quasi-totalité de la production provient depuis 1880 de la grande mine de Kolar, en voie d'épuisement.

Mentionnons enfin deux pays africains qui en dehors de l'Afrique du Sud produisent « officiellement » ( 5) plus de 10 t d'or par an. Le Ghana (l'ancienne « Côte de l'Or ») est un producteur connu depuis la conquête musulmane de l'Afrique du Nord au VIIIe siècle, permettant aux grandes villes de l'Ouest du Maghreb de frapper des dinars d'or. Le Zimbabwe, avec ses quelque 6 000 points d'extraction recensés, a fourni près de 17 t d'or« officiel » en 1987.

L'or en France

Nous avons actuellement en France quatre mines d'or en exploitation : une à Salsigne, près de Carcassonne (fig. 1), deux autres au Bourneix et à Laurieras, près de Limoges, et une quatrième vient de naître à Rouez dans la Sarthe (le premier lingot y a été fondu durant l'été 1989 (fig. 2)). Leur production est d'environ 2,7 t par an (tableau II). De plus, depuis 1980, on revoit en France des laveurs d'or, des orpailleurs, dans le Gard, dans le Lot, dans l'Ariège. Ce métier ou ce « hobby » pas très rentable (on récupère tout de même 50 kg d'or par an environ) amena cependant à organiser le premier championnat français des chercheurs d'or, à Saint-Girons, en juillet 1986 (à signaler qu'orpailler n'a rien à voir avec paillette d'or; en effet ce verbe dérive du vieux français « harpailler » : saisir), puis les championnats du monde en 1987 à Foix (Ariège) !

Fig. 1. - La mine d'or de Salsigne (Aude). (Photo BRGM/RPC.)


Le renouveau de l'or éternel

TABLEAU II. — Or extrait en France métropolitaine et en Guyane durant l'époque moderne (principaux gisements). D'après Minéraux et Fossiles (1983-1984), J. Petot (1986), Annales des Mines (1978-1988) et Documents BRGM divers.

Production cumulée Période d'exploitation Gisement (tonnes)

1906-1962 La Bellière (Maine-et-Loire) 9,9

1905-1953 Le Châtelet (Allier) 14,1

1921-1948 La Petite Faye (Creuse) 0,32

Exploitations Petits gisements divers de 1,15 intermittentes Haute-Vienne ; Champvert, Beaune, entre 1912 et 1949 Beaugiraud, Nouzilleras,

Gareillas

1913-1944 Cheni-Douillac (Haute-Vienne) 7,5

1899-1934 La Lucette (Mayenne) 8,3

p.m. (XVIIIe s.) La Gardette (Isère) 0,02

1982-... Le Bourneix 2,87 (*)

( + Lauriéras depuis 1987)

1908-... Salsigne (Aude) 77(*)

+ réserves probables : 35 t

TOTAL 121

dont 64 % pour Salsigne

1957-1987 Guyane 169,54

(*) De 1982 à 1987

Mais il ne faut pas oublier que la Guyane a produit (officiellement) en 150 ans plus de 170 t d'or. Au kilomètre carré, ce département a produit près de 15 g d'or par an en moyenne, soit près de deux fois la moyenne des États-Unis sur la même durée et dé deux fois et demie celle de l'Australie en deux siècles...

L'or, sa minéralogie et ses gisements

De l'or natif des filons à l'or « camouflé » des sulfures aurifères

L'or, de masse atomique 197, cristallise dans le système cubique. Sa densité est de 19,3 et il fond à 1 064°C. Extrêmement malléable, il est inaltérable à l'air, n'est pas attaqué par les acides, seul le chlore natif de l'eau régale le dissout. Il forme très facilement un amalgame avec le mercure. Ses composés monovalents ou trivalents sont instables et se décomposent en redonnant de l'or métal.

L'or est plus sidérophile que chalcophile; c'est un élément rare, son abondance moyenne dans la partie supérieure de la lithosphère est d'environ 0,005 g/t.

La minéralogie de l'or est simple car dans la nature il se présente à plus de 99 % à l'état natif souvent allié à l'argent (l'alliage prend le nom d'électrum s'il y a plus de 20 %


C. Guillemin, Z. Johan et E. Marcoux

d'argent). Il forme beaucoup plus rarement des alliages avec le cuivre, le palladium, le rhodium et le platine, ainsi que des composés intermétalliques avec le bismuth et l'antimoine.

Il y a peu de minéraux aurifères, une vingtaine d'espèces, la plupart rares ou très rares. Dans ces composés, l'or se combine surtout aux semi-métaux, Bi, Sb, Se, Te. Dans les trois sulfures connus, l'or est subordonné à un autre métal plus chalcophile (l'argent, le plomb). Ses minéraux comme ses autres composés chimiques s'altèrent et se détruisent

Fig. 2. - L'or en France métropolitaine. Les surfaces hachurées correspondent aux terrains anciens, essentiellement d'âge paléozoïque.

346


Le renouveau de l'or éternel

facilement en redonnant de l'or métallique. Cette pérennité de la forme métallique à travers les temps et les éphémères combinaisons chimiques est un caractère essentiel de l'or. Parmi ces espèces minérales, les plus importantes, ayant constitué de véritables minerais, en particulier dans le district de Cripple Creek au Colorado, sont la calavérite (AuTe2) et la sylvanite ((Au, Ag)2Te4). Le seul sulfure ayant donné des cristaux macroscopiques est la nagyagite (Pb5Au(Te, Sb)4S5_8).

Mais revenons à l'or natif, tellement plus important ! Il peut parfois se présenter dans la gangue en cristaux ou groupes cristallisés, cubiques ou octaédriques, fréquemment en dendrites, arborescences, filaments ou feuillets, mais plus souvent il se trouve en grains, écailles, lamelles ou petites veines. Il peut être visible à l'oeil nu (Freigold) et parfois former des masses plus ou moins considérables, masses qui sont à l'origine, comme nous l'avons vu, des grosses pépites; mais très fréquemment il est sous forme microscopique parfois seulement visible au microscope électronique. C'est ainsi qu'on ne voit pas l'or dans un minerai des Iles Fidji à 1 kg/t et que dans certains gîtes de Transbaïkalie en URSS, il est si fin qu'il colore le quartz en vert.

Dans de nombreuses régions aurifères, une séquence continue d'or alluvionnaire de plus en plus fin peut être décrite : au pied des filons, on trouve des masses irrégulières mêlées de quartz, puis dans les torrents, les rivières, on rencontre d'abord des pépites puis des grains, des paillettes de plus en plus abrasées, aplaties et petites, qui à la fin ne peuvent plus être observées à la bâtée même avec une loupe.

Mais ce qui justifie en partie cet article, ce n'est pas l'invisibilité optique dépendant des pouvoirs séparateurs des appareils mais « l'invisibilité définitive », quand l'or est « camouflé » sous forme ionique dans le réseau de certains minéraux hôtes comme nous avons pu le démontrer pour l'arsénopyrite (FeAsS) et la berthiérite (FeSb2S4). Il est bien évident que cet « or chimique » aura des conditions de gisements, de prospection et de récupération totalement différentes de celles de l'or natif, et que les études actuelles ouvrent un champ vierge à la mise en évidence de nouvelles réserves de ce précieux métal.

Il nous paraît donc judicieux de décrire maintenant le comportement de l'or dans la nature d'une façon spatiotemporelle.

Le stock naturel d'or

L'or est de toujours et de partout, mais il est le plus souvent très peu concentré, ce qui nécessite l'exploitation de minerai à quelques grammes par tonne, d'où le prix élevé du métal.

L'adaptation de l'or à tous les environnements géologiques a pour conséquence une grande variété des types de gisements. La source de l'or fait toujours l'objet de bien des controverses. Les roches basiques et ultrabasiques ont longtemps bénéficié d'un préjugé favorable, à cause essentiellement de la liaison spatiale qui existe entre elles et les grands gisements d'or des « greenstone belts » ( 6) archéennes et ce en dépit d'une teneur moyenne en or très faible (moins de 0,001 g/t), du même ordre que celle des granités. Des études récentes ont privilégié comme source de For des laves basiques et ultrabasiques issues du manteau supérieur, dont la teneur en or peut dépasser 0,008 g/t (Keays, 1982). Ces laves sont fréquentes dans les « greenstones belts ». Dans les rides médio-océaniques actuelles,


C. Guillemin, Z. Johan et E. Marcoux

les amas polymétalliques en cours de formation peuvent contenir jusqu'à 5 g/t d'or (Hannington et Scott, 1988), découverte qui a relancé l'hypothèse de l'origine mantellique de l'or. Ces processus à l'origine des premières concentrations d'or dans la lithosphère ont prédominé dès l'Archéen puisque l'érosion de ces types de roches a alimenté les conglomérats aurifères du Witwatersrand. Par le jeu des héritages et des remobilisations, ces concentrations peuvent à nouveau être à l'origine de gîtes d'or plus récents.

Avec cette formation en cascades de gisements d'or successifs, nous touchons une des grandes lois de la métallogénie : la permanence métallique (Routhier, 1969, 1980).

Les premiers continents émergés de l'Océan primitif montraient déjà des régions chimiquement hétérogènes, parfois plus riches en or, en nickel, en cuivre, etc. Ces régions renferment donc des stocks de métaux qui vont perdurer à travers les milliards d'années sous des formes diverses. L'érosion désagrège peu à peu ces continents, l'or et les autres sédiments s'accumulent dans des bassins (protoplacers), s'enfouissent jusqu'à ce que la chaleur interne provoque la fusion des roches en formant de nouveaux magmas qui vont à leur tour percer la croûte terrestre. Au cours de ce cycle, le stock métallique reste relativement constant : or alluvionnaire, or disséminé dans des roches sédimentaires, remobilisé dans des fractures, dans des filons, or associé au volcanisme, etc. Cette pérennité du métal assurée par des héritages successifs dans une région est la permanence métallique.

Le regroupement de gisements d'un métal au sein d'aires privilégiées, les « provinces métalliques », est une conséquence directe de cette permanence, car la dispersion du stock métal initial est limitée dans l'espace.

Il est donc normal que le Précambrien, ère pendant laquelle les continents se sont formés, contienne d'énormes accumulations de métaux et fournisse actuellement plus de 85 % de l'or (tableau III), mais aussi l'essentiel du nickel, du cuivre, du fer, etc. Durant les ères primaires et secondaires, les continents formés furent pauvres en métaux, mais depuis quarante millions d'années, un phénomène de différenciation chimique d'une ampleur pour le moins analogue à celui qui eut lieu à l'Archéen se développe là où naissent de nouveaux continents, le long de la ceinture de feu du Pacifique : Andes, Japon, Philippines, Nouvelle-Guinée, Nouvelle-Zélande... Ces gisements dits « épithermaux » assurent actuellement près de 10 % de la production mondiale d'or (tableau III).

Typologie

Ce sont les Égyptiens, qui ont esquissé la première typologie d'un métal, évidemment du plus précieux, l'or, sur des hiéroglyphes du temple de Ramsès III à Médinet Habou, il y a 3 200 ans ! Ils distinguaient l'« or de l'eau » (alluvial), l'« or des montagnes » (filons de quartz aurifère) et l'« or d'Ethiopie » (dans ce dernier cas, il s'agissait peut-être de l'or très fin et disséminé des zones d'oxydation d'amas sulfurés, récemment redécouverts au Soudan par le BRGM et Total Compagnie Minière, et actuellement en cours d'exploitation).

Comme toutes les typologies, celle des gisements d'or est sujette à discussion, en fonction des poids relatifs que les auteurs attribuent aux différents paramètres pris en compte. Nous présenterons donc ici une typologie simplifiée qui a pour seule ambition de donner une vision claire des lieux de formation privilégiés des gisements aurifères (fig, 3).


Le renouveau de l'or éternel

TABLEAU III. - Distribution chronologique des gisements d'or. Les astérisques indiquent les principales périodes aurifères des ères Mésozoïque et Cénozoïque.

Principaux gisements Productions relatives (tonnes)

Cumulées (jusqu'en Périodes 1985) Annuelle

Ères principales (%) (%)

Actuel

Cénozoïque

* Holocène Pléistocène

* Pliocène

* Miocène Oligocène

Éocène

7,6 9,9

Cripple Creek (USA) 700

Panguna (Nelle Guinée) 450

Porgera (Nelle Guinée) 360

Waihi (Nelle Zélande) 270

Ok Tedi (Nelle Guinée) 390

Pachuca (Mexique) 230

Acupan (Philippines) 200

Kurokos (Japon) 890

65 Ma —

Mésozoïque. . . .

* Crétacé

Jurassique

Trias

2,0 1,0

Bingham (USA) 330

Pueblo Viejo (Rép. Dominicaine) 360

Carlin (USA) 250

250 Ma -

Paléozoïque

Permien Carbonifère

Dévonien

Silurien

Ordovicien

Cambrien

2,6 1,0

Mother Lode (USA) 1000

Bendigo (Australie) 240

Salsigne (France) 150

580 MaProtérozoïque.

MaProtérozoïque. - 2,7 1,8

Homestake (USA) 1100

Jérôme (USA) 250

2500 MaPrécambrien

MaPrécambrien

Archéen - 85,1 8,6

4500 Ma

Witwatersrand (Afrique du Sud) 35 000

Kalgoorlie (Australie) 1200

Timmins (Canada) 1200

Hollinger-Mclntyre (Canada) 1100

Duffault (Canada) 1 700

Kolar (Indes) 770

Hemlo (Canada) 530

Horne (Canada) 440

Les gisements « magmatiques »

La liaison de l'or avec le volcanisme apparaît inévitablement. Une distinction de base doit être faite d'emblée entre les ceintures volcaniques à chimisme acide et basique, souvent immergées avec des coulées basaltiques d'une part, et les ceintures volcaniques


C. Guillemin, Z. Johan et E. Marcoux

émergées à coulées et projections aériennes de laves de composition intermédiaire à acide, souvent associées à un plutonisme sous-jacent d'autre part.

Les gisements liés aux ceintures volcaniques immergées à chimisme acide et basique sont quasi exclusivement d'âge Précambrien. Les solutions chaudes accompagnant ces manifestations volcaniques se sont chargées d'éléments métalliques qu'elles ont déposés au fond de la mer au milieu des laves et des sédiments, donnant naissance d'une part à des gisements d'or stratiformes associés aux « formations ferrifères » en Afrique du Sud (Barberton), et en Australie de l'Ouest et d'autre part à des amas sulfurés à cuivre, plomb, zinc, dans lesquels l'or peut être présent en fortes teneurs. Ces amas sont connus et exploités au Canada (Horne, Holliger, Hemlo) et en Australie.

Les amas polymétalliques à Zn-Cu-Pb avec or accessoire sont rencontrés plus couramment dans des unités géologiques plus récentes. Le stock en métaux de base est parfois si important (généralement plus de 100 millions de tonnes de sulfures) que l'or contenu, même à faible teneur, est économiquement très rentable.

Les gisements d'or associés à des ceintures volcaniques, immergées ou émergées, plus récentes, d'âge tertiaire, sont illustrés par la « ceinture de feu » du Pacifique (les célèbres gisements « Kuroko » du Japon) et par les minéralisations des Balkans. Les solutions minéralisées ont suivi de peu l'édification des appareils volcaniques mais n'ont pas débouché dans un environnement marin. Refroidies par les nappes phréatiques, elles ont déposé leur contenu à quelques centaines de mètres ou quelques kilomètres de profondeur.

L'émergence des solutions en surface reste rare et donne lieu à des manifestations spectaculaires de sources chaudes, bouillonnantes parfois, avec geysers qui déposent en abondance opale (geyserite) et boues minéralisées (USA, Nouvelle-Zélande). Ces sites offrent la possibilité d'observer la formation des gisements métallifères, privilège exceptionnel en géologie où le paramètre temps est un des plus difficiles à intégrer. Les

Fig. 3. — Coupe interprétative d'un segment de la croûte terrestre montrant les grands ensembles géotectoniques du globe et la position des différents types de gisements aurifères.

350


Le renouveau de l'or éternel

études réalisées en Nouvelle-Zélande sur les systèmes géothermaux actuels de Waiotapu (Hedenquist et Henley, 1985) et de Rotokawa (Krupp et Seward, 1987) sont éloquentes tant sur la rapidité de formation des gisements que sur le facteur d'enrichissement en métaux. Les « eaux » chaudes, fortement chlorurées et à un pH proche de 2, déposent des « boues » très minéralisées contenant entre autres : 1 à 80 g/t d'or, 4 à 5 000 g/t de thallium, 200 à 500 g/t de mercure, et plusieurs pour cent d'arsenic et d'antimoine. Les auteurs estiment qu'une durée de 10000 ans suffit à former une accumulation de 30 à 150 t d'or.

Dans ces gisements, la minéralisation peut revêtir divers aspects. Elle peut, associée au quartz, tapisser les fissures de la roche et donner des faisceaux filoniens bien minéralisés en or et tellurures (gîtes philippins d'Acupan et Antamok, gîtes péruviens de Julcani et Orcopampa, gîtes des Carpathes) (fig. 4) soit imprégner littéralement la partie sommitale des roches volcaniques ou des corps plutoniques qui leur sont intimement associés. Ce second type de gisements se développe aussi bien dans les arcs insulaires (PapouasieNouvelle-Guinée) que dans les cordillères des marges continentales actives (Bingham, Utah, USA). La littérature l'a consacré sous le nom de « porphyre cuprifère » car il est exact que le cuivre, parfois associé au mobybdène, est le principal métal récolté. Ces gîtes constituent d'importants gisements d'or, aux réserves souvent énormes !

Fig. 4. — Or (Au) accompagné de galène (G) en ciment de cristaux corrodés de pyrite (Py). Mine d'or et d'argent d'Orcopampa (Pérou). Gisement associé à une ceinture volcanique émergée, la Cordillère des Andes. Photo au microscope métallographique. L'échelle représente 100 µm.


C. Guillemin, Z. Johan et E. Marcoux

Zones de cisaillement

Un modèle conceptuel de ce type de gîte n'a été proposé que récemment (Boyle, 1979, Robert et al., 1983; Hugon, 1986; Roberts, 1987; Bonnemaison, 1986; Bonnemaison et Marcoux, 1987). Son originalité est de regrouper dans un même schéma dynamique des gîtes aux allures disparates (imprégnations de sulfures, veinules de quartz à or ou arsénopyrite aurifère, lentilles quartzeuses à sulfures et or natif - type de gisements du Limousin -, stockwerks — réseaux complexes, anastomosés de veinules qe quartz ou carbonates à or natif, dans des roches ultrabasiques... —) qui relèvent en fait de l'évolution plus ou moins poussée d'un même phénomène métallogénique.

Le dénominateur commun à toutes ces entités minéralisées est leur liaison franche avec d'importantes failles ou accidents cisaillants, les « shear-zones », qui drainent des solutions minéralisées aurifères. Le passage d'un mouvement ductile à un mouvement cassant va créer des ouvertures et influencer fortement l'allure des structures minéralisées. Aux imprégnations diffuses des zones de roches plus ou moins finement broyées (mylonites) vont succéder de puissantes lentilles quartzeuses qui s'égrènent le long de l'accident principal, puis des filonnets quartzeux à or visible.

Fig. 5. — Or (Au) et galène (G) en ciment d'arsénopyrite (As) dans la mine d'or de Lauriéras (France). Gisement situé sur une des zones de cisaillement aurifères du Limousin. Photo au microscope métallographique. L'échelle représente 100 µm.

352


Le renouveau de l'or éternel

Ces failles cisaillantes peuvent s'étendre sur des centaines, voire des milliers de kilomètres en donnant d'énormes gisements (Canada, Australie) ou des corps minéralisés beaucoup plus modestes (Lauriéras, Le Bourneix, en France) (fig. 5); les lentilles minéralisées qui y sont exploitées n'ont qu'une extension latérale de quelques centaines de mètres mais peuvent s'enraciner très profondément. Elles ne représentent qu'un épiphénomène dans l'histoire géologique de la faille dans son ensemble.

Ces zones de cisaillement peuvent également se développer au sein de concentrations primaires d'or du type amas sulfuré. Les fracturations et les circulations de fluides hydrothermaux associées entraînent alors la migration de l'or à partir du stock primaire et sa concentration dans des pièges favorables (failles, charnières de plis). Ce phénomène est fréquent dans les « greenstones belts » du Canada (Val d'Or, Cadillac), d'Australie (Kalgoorlie) et du Zimbabwe.

Plus proche de nous, le gîte de Salsigne, dans l'Aude, a bénéficié de conditions analogues. Les amas sulfurés à pyrrhotite (Fe1_xS)-arsénopyrite et or ont été localement remobilisés par une faille cisaillante pour donner un minerai plus riche et plus facile à traiter. Avec ses 80 t produites, Salsigne est actuellement la plus importante mine d'or d'Europe.

La conjonction d'une concentration primaire et d'un processus efficace de remobilisation-concentration débouche donc sur la genèse de quelques-uns des plus grands gisements mondiaux.

Les placers

Les placers représentent le dernier grand type de gisements d'or. L'or, inaltérable, est libéré lors de la destruction des minéralisations aurifères primaires. Il est transporté par les eaux superficielles et se concentre dans des alluvions fluviatiles, deltaïques, ou plus rarement marines, qui prennent dès lors le nom de placers.

Les placers tertiaires et quaternaires abondent partout dans le monde. Les placers d'Alaska, de Colombie ou de Californie ont fait l'objet d'exploitations en règle et certains sont toujours minutieusement « lavés » avec des moyens parfois très sophistiqués. L'or des placers se présente communément en paillettes de 0,1 à 1 mm, parfois plus grosses (les « pépites »), associé à des minéraux qui ont pour caractéristique commune une grande résistance à la fois physique et chimique : quartz, muscovite, grenat, zircon (ZrSiO4), magnétite, rutile (TiO2), cassitérite (SnO2), corindon (Al2O3), diamant, etc. Il existe d'ailleurs fréquemment des placers non pas aurifères mais titanifères, stannifères, diamantifères, etc. qui peuvent être d'importants gisements.

Les placers anciens, ou paléo-placers (en particulier ceux précambriens) fournissent plus de la moitié de la production mondiale d'or. Il s'agit le plus souvent de niveaux, de lentilles de grès ou de conglomérats aurifères interstratifiés dans de puissantes séries de roches détritiques. Le bassin du Witwatersrand, le « Rand » d'Afrique du Sud en est le plus fameux exemple. Il représente la plus fantastique accumulation d'or de la planète, et fournit actuellement la moitié de la production mondiale annuelle (600 t) avec encore probablement plus de 50 000 t d'or en réserves.

Les niveaux aurifères sont constitués de couches de conglomérats aurifères (les « reefs ») d'épaisseur très variable (de quelques centimètres à quelques mètres) mais dont la


C. Guillemin, Z. Johan et E. Marcoux

puissance cumulée atteint 600 m, interstratifiés dans un empilement de couches d'autres roches détritiques d'une épaisseur totale de 15 000 m (!) d'âge Archéen (2 750 à 2 500 millions d'années). On considère actuellement que ces alternances de niveaux minéralisés et stériles résultent de l'empilement de vastes épandages deltaïques de boues, de sables, de graviers avec des séquences de venues aurifères déversés par les cours d'eau durant des millions d'années dans un ancien lac fermé long de 350 km et large de 200 km. Le plus grand des six principaux « deltas fantômes », l'East Rand, mesure 40 km de long sur 90 km d'embouchure et pèse 8 500 t d'or ! Le mode de classement des sédiments suggère des fleuves de puissances bien supérieures à nos plus grands cours d'eau actuels. Cet empilement a ensuite évolué pendant plusieurs centaines de millions d'années d'où : plissements, nouveaux cycles érosion-redéposition, apparition de fractures, d'hydrothermalisme et d'autres métaux dont l'uranium industriellement très important.

Le « Rand » a fourni 40000 t d'or depuis 1884 et sa production annuelle atteint environ 600 t ce qui fait de l'Afrique du Sud le premier producteur mondial malgré les problèmes de l'approfondissement des chantiers d'exploitation. L'extraction actuelle à plus de 3 000 m de profondeur dans de nombreuses mines nécessite des systèmes d'aération et de refroidissement complexes, la roche atteignant 50 à 60°C (ils représentent 10 % des frais d'exploitation). Des aménagements qui font appel à des technologies de pointe comme en particulier l'injection d'azote liquide dans les galeries sont actuellement à l'étude pour atteindre des profondeurs de 5 000 m. Le prix de telles techniques aura pour effet une augmentation parfois considérable (jusqu'à 20 %) des coûts d'extraction de l'or sud-africain avec d'éventuelles retombées sur le prix mondial de l'or, sont également florissantes au Brésil, au Canada, et au Ghana (Tarkwa).

Les filons aurifères

Ils n'apparaissent pas ici en tant qu'entité géologique car ils regroupent des structures d'origines diverses. Le terme de filon, tout comme celui de gisement, appartient davantage au vocabulaire économique qu'au vocabulaire géologique. Il était d'ailleurs dans le langage courant, avant que des géologues ne le définissent comme un « objet géologique à corps bien délimité, sécant sur les roches encaissantes et pouvant contenir des minéralisations ».

Cette définition ne satisfait plus aux normes géologiques actuelles car elle ne prend en compte que l'aspect descriptif au détriment d'une typologie génétique plus riche d'enseignements. Dans le vocabulaire géologique moderne, l'appellation de « filon » tend à se restreindre à des remplissages de fractures en extension, de puissance métrique et généralement assez continues. Les grands filons de quartz souvent associés à la fluorine (CaF2) et/ou à la barytine (BaSO4) du Massif Central français en sont l'illustration parfaite.


Le renouveau de l'or éternel

Les sulfures aurifères : l'or « camouflé »

Un peu d'historique

L'attrait de l'or avait entraîné les Anciens à pécher par optimisme et à imaginer toute une pléiade de sulfures enclins à être « porteurs » d'or. Cette vision fut probablement dictée et entretenue par le comportement d'un autre métal noble, l'argent, que l'on pensa depuis des millénaires être contenu dans la « galène argentifère ».

L'origine de cette appellation, à mi-chemin tout comme pour les sulfures aurifères de la légende et de la réalité, remonte peut être vers l'an 2000 av. J.-C. En effet, l'obtention d'argent par coupellation de la galène (PbS), du Laurium, en Grèce, était une opération industrielle parfaitement maîtrisée dès l'an 500 avant notre ère et contribua à la fortune de la Grèce de Périclès.

Les méthodes modernes d'investigation ont quelque peu égratigné cette image d'Épinal. L'entente parfaite du plomb et de l'argent est certes réalisée grâce à un comportement géochimique assez proche et la galène incorpore facilement les ions Ag dans son réseau. La « galène argentifère » existe donc bien, l'argent peut même y atteindre quelques pour cents mais il ne s'agit pas là du cas général.

Les célèbres « galènes argentifères » de l'histoire minière (Freiberg, Saxe; Huelgoat, Finistère; Pontgibaud, Puy-de-Dôme) examinées au microscope révèlent en effet la présence de fines (10 à 100 µm en moyenne) mais nombreuses inclusions de sulfures complexes d'argent : pearcéite (Ag16As2S11), polybasite (Ag16Sb2S11), pyrargyrite (Ag3SbS3), proustite (Ag3AsS3), andorite (AgPbSb3S6) ou tétraédrite ([Cu, Ag]12Sb4S13). Ces minéraux sont en fait les porteurs de l'argent de la minéralisation, l'analyse à la microsonde électronique ne détectant aucune teneur significative de cet élément dans la galène.

La littérature minière des années passées fourmille de « pyrite aurifère », « mispickel ( 7) aurifère » et « galène aurifère » tant et si bien que le lecteur non averti peut penser que l'or est un métal somme toute très convivial qui s'accommode fort bien de toutes les structures cristallines et s'incorpore dans bon nombre de sulfures. Cette conclusion erronée demeure encore bien ancrée dans l'esprit du public, et le restera encore longtemps, n'en doutons pas; les légendes ont la vie dure surtout lorsqu'elles ont trait à l'or !

Les sulfures ou plus généralement les « minéraux aurifères », sont déjà mentionnés dans le De Re Metallica de Georgius Agricola en 1556; il n'avait sans doute pas fallu longtemps aux remarquables observateurs et techniciens qu'étaient les mineurs saxons des XVe et XVIe siècles pour noter que les plus fortes teneurs en or se rencontraient dans tel minéral plutôt que dans tel autre et pour lui adjoindre le qualificatif « d'aurifère ».

L'amélioration des techniques de séparations minérales et l'obtention de concentrés de grande pureté ne va que conforter les « mineurs » dans leur « erreur »; « erreur » au sens chimique, minéralogique, voire étymologique, mais pas au sens minier ni économique car l'or est bien là, préférentiellement associé à un minéral mais pas sous la forme supposée.

Le démenti sera apporté au cours de la première moitié du XXe siècle lorsque naissent et se développent les études de métallographie. Les minerais opaques en lumière transmise dans leur grande majorité, sont dès lors polis et étudiés en lumière réfléchie. Il est ainsi


C. Guillemin, Z. Johan et E. Marcoux

possible d'examiner leurs propriétés optiques spécifiques, ce qui permet d'en déterminer les minéraux.

Ces observations réalisées sur de nombreux minerais d'or ont montré que dans la très grande majorité des gisements, l'or massif était présent, en plages de très petite taille (quelques µm à 100-200 µm en moyenne), en filaments ou veinules remplissant les microfissures, les interstices entre les grains des autres minéraux.

Il semblait donc qu'il n'y ait nul besoin d'invoquer l'existence d'or camouflé à l'état ionique dans le réseau d'un minéral puisque le métal était là, à l'état natif (métallique), en mouches ou en veinules mais invisibles à l'oeil.

Les sulfures aurifères sortent alors de la scène scientifique officielle, car avant les années 1950 nous ne disposions pas d'appareils optiques dotés de pouvoir séparateurs suffisants ou de méthodes d'analyse réellement ponctuelles permettant de différencier sûrement les éléments fissuraux des éléments structuraux.

L'application de la microsonde électronique à la minéralogie, en 1958, va les réhabiliter. Ce dernier mérite revient à trois auteurs français : G. Aubert, K. D. Phan et J. Geffroy (1964). Leur étude à la microsonde électronique de l'arsénopyrite de la mine d'or alors en exploitation au Châtelet dans l'Allier concluait à l'existence d'or dans le réseau de

Fig. 6. - Arsénopyrite aurifère (As) encroûtant d'anciennes lamelles de pyrrhotite actuellement transformée en marcasite (M). (Ancienne mine d'or du Châtelet, France). Photo microscope électronique à balayage.

356


Le renouveau de l'or éternel

l'arsénopyrite. L'existence de cette mine plaidait depuis longtemps en faveur des sulfures aurifères, car on avait extrait 11 t d'or de 1912 à 1955 sans que l'on y ait jamais observé la moindre mouche d'or natif en dépit d'études microscopiques poussées. Les études actuelles confirment bien l'absence généralisée d'or libre dans ce gisement.

L'arsénopyrite aurifère

De nouvelles études effectuées sur la mine du Châtelet, lors de la découverte d'extensions au gisement exploité par les Anciens, nous amena à réouvrir le dossier de l'arsénopyrite aurifère (fig. 6). Les travaux d'Aubert et al. (1964) avaient permis d'identifier ce minerai comme un porteur de l'or du gîte, mais des questions restaient posées, notamment sur la forme et la répartition de l'or (visiblement très hétérogène) et sur les caractéristiques exactes de cette arsénopyrite (fig. 7).

Fig. 7. - Détail de l'arsénopyrite aurifère de la photo 6, montrant la zonation chimique des cristaux. Les zones les plus pâles possèdent les plus fortes teneurs en or et arsenic. Photo électrons rétrodiffusés, microscope électronique à balayage.

357


C. Guillemin, Z. Johan et E. Marcoux

L'arsénopyrite dans les zones de cisaillement

Ce minéral apparaît dès le stade précoce d'évolution de la structure de cisaillement et son chimisme évolue parallèlement à l'histoire des déformations tectoniques (Bonnemaison et Marcoux, 1987).

Schématiquement, deux générations d'arsénopyrite apparaissent au sein des zones de cisaillement. Lorsque la structure fonctionne en cisaillement ductile ou semi-cassant sans ouverture notable (stade précoce), la minéralisation débute par une pyrrhotite fine qui parsème l'ensemble de la structure et qui pourrait être le porteur initial de l'or, des teneurs de 30 g/t d'or y ayant été dosées dans le gîte à plomb-zinc-or des Hermites (Puyde-Dôme) (Picot et Marcoux, 1987). Dans la plupart des gisements, elle a été déstabilisée

Fig. 8. — Arsénopyrite aurifère (As). Mine d'or d'Obuasi (Ghana). La corrosion de l'arsénopyrite provoque la libération de l'or contenu qui se concentre dans les microfissures de l'arsénopyrite ou à proximité des cristaux. Photo au microscope métallographique. L'échelle représente 100 µm.


Le renouveau de l'or éternel

sous l'action des fluides hydrothermaux ultérieurs et remplacée par l'association pyritemarcasite (FeS2). Cette transformation se marque par l'apparition de quartz microsaccharoïde (Bonnemaison, 1987) et de la première génération d'arsénopyrite en cristaux aciculaires de petite taille (moins de 1 mm dans le cas général) qui parsèment le quartz microsaccharoïde ou l'encaissant rocheux. L'arsénopyrite peut aussi se déposer à la surface des lamelles de pyrite-marcasite antérieure pseudomorphosant d'anciennes pyrrhotites. Cette arsénopyrite est aurifère, comme cela a pu être démontré dans les gîtes du Châtelet et de Villeranges (Creuse) (Marcoux et al., 1989) (fig. 6), mais aussi dans les gisements d'or du Ghana (Obuasi et Prestea). Soumis à l'action ménagée de fluides tardifs, l'arsénopyrite est partiellement déstabilisée; ses contours se déchiquettent, et la corrosion progresse à partir d'un réseau de fissures. Ce phénomène provoque la libération de l'or qui apparaît alors à l'état natif en minuscules plages (moins de 2-3 um) dans les fissures ou à proximité immédiate des cristaux corrodés, les cristaux sains restant exempts d'or libre (fig. 8). Soulignons que le caractère aurifère de l'arsénopyrite est fortement envisageable dans bon nombre d'autres gîtes d'or mais ceci nécessite une démonstration analytique.

L'évolution de la zone de cisaillement aurifère ne s'arrête généralement pas là, et nous devons la conservation de l'arsénopyrite aurifère du Châtelet et de Villeranges à un

Fig. 9. — Or (Au) apparaissant dans la pyrite (Py), la galène (G) ou la blende (Zn). Ancienne mine d'or de La Bellière (Maine-et-Loire, France), située sur une zone de cisaillement aurifère. Photo au microscope métallographique. L'échelle représente 100 µm.

359


C. Guillemin, Z. Johan et E. Marcoux

blocage du jeu cisaillant. En effet la poursuite du cisaillement conduit à l'apparition d'un système hydrothermal détruisant les sulfures aurifères préexistants.

Les métaux ainsi libérés (dont l'or) et l'apport de nouveaux éléments dans les fluides hydrothermaux permettent la formation de nouvelles associations minérales plus complexes. . La pyrite et une seconde génération d'arsénopyrite dominent, avec blende, galène et chalcopyrite. Cette arsénopyrite en cristaux de plus grande taille ne contient plus d'or.

L'histoire de la structure cisaillante parvient alors à un tournant majeur puisque pour la première fois l'or libre apparaît. Il se présente sous forme de petites plages d'or, très pur (moins de 15 % d'Ag) dont la dimension moyenne est généralement de l'ordre du micron, en inclusions dans les sulfures ou dans le quartz, ou en remplissage de fissures de l'arsénopyrite et de la blende. Au cours de ce stade, les sulfures induisent la précipitation de l'or (fig. 9) présent dans les fluides hydrothermaux qui circulent dans les zones cataclasées des filons. L'or n'entre plus dans le réseau cristallin de l'arsénopyrite mais précipite au contact des sulfures ou à leur voisinage dans le quartz microsaccharoïde.

Une tectonique distensive peut faite alors apparaître dans ces structures des ouvertures qui entraînent de nouvelles évolutions minéralogiques. Suivant les modalités de ces ouvertures, les faciès minéralisés pourront être très différents. Toutefois, ils auront en commun une minéralisation à or visible très riche en argent (20 à 60 %), parfois fort spectaculaire (fig. 10) mais aussi fort trompeuse, les teneurs n'étant pas à la hauteur des espérances.

L'identification et la caractérisation de l'arsénopyrite aurifère

La première génération d'arsénopyrite qui apparaît lors du stade précoce intègre donc une forte proportion d'or, et constitue ainsi le seul minerai exploitable des gîtes du Châtelet et de Villeranges dans le Massif Central français. A notre connaissance, les seuls travaux publiés qui se rapportent à ce type d'arsénopyrite concernent des gîtes du domaine hercynien français et du Birrimien du Ghana (Cathelineau et al, 1988; Marcoux et al, 1989; Johan et al, 1989).

Les arsénopyrites, aurifères du Châtelet et de Villeranges ont donc fait l'objet d'analyses à la microsonde électronique. Cinq à 40 analyses par cristal ont été réalisées, de façon à permettre une étude statistique de la répartition des divers éléments et l'établissement de corrélations au sein de chaque cristal. Sur les neufs éléments programmés, cinq ont donné des teneurs significatives : S, As, Fe, Au et Sb. Les points d'analyses à la microsonde ont été répartis autant que possible suivant une grille régulière dans les cristaux d'arsénopyrite. La visualisation des résultats en courbes a été réalisée par une technique d'interpolation d'isovaleur linéaire. Ces études montrent l'existence d'une zonation chimique qui se manifeste par des teneurs croissantes en arsenic du coeur vers la périphérie des cristaux : 31,2 à 36,7 % at. au Châtelet, 29,3 à 34 % at. à Villeranges (fig. 11).

Cette zonation se marque aussi pour l'or, qui se localise essentiellement à la périphérie des cristaux (jusqu'à 1,6 % au Châtelet et 1,52 % à Villeranges), tandis que les coeurs peuvent en être dépourvus (fig. 12). La corrélation As-Au est donc très nette, alors que les anticorrélations As-Sb et As-Fe (et donc Au-Sb et Au-Fe) apparaissent. L'antimoine occupe en effet le coeur des cristaux (1,61 % au Châtelet et 0,95 % à Villeranges) et le fer est systématiquement déficitaire par rapport à la composition stoechiométrique. Ce déficit


Le renouveau de l'or éternel

est particulièrement sensible sur la périphérie des cristaux, là où les teneurs en arsenic et or sont les plus fortes.

Cette zonation chimique reflète deux étapes successives d'intégration des éléments mineurs dans la structure de l'arsénopyrite : une étape antimonifère et une étape aurifère. Le franchissement d'un seuil de teneur en arsenic, variable selon les gîtes (35,0 % at. As au Châtelet, 31,5 % at. As à Villeranges) conditionne l'intégration de l'or dans le réseau cristallin. L'or pourrait alors se substituer au fer dans le réseau cristallin comme semble l'indiquer la corrélation négative Au-Fe. Nos travaux (Johan et al, 1989) ont confirmé cette hypothèse déjà envisagée par Marion et al. en 1986.

Un aperçu de cristallochimie

L'intégration d'atomes d'or (métal monovalent ou trivalent) à la place d'un atome de fer bivalent ne se fait pas facilement, et le mode de substitution n'a été éclairci que

Fig. 10. - Géode à quartz automorphes remplie d'or (Labessette, Puy-de-Dôme, France). Cet or visible concrétise les derniers stades d'évolution d'une zone de cisaillement aurifère. Photo au microscope métallographique. L'échelle représente 100 um.


C. Guillemin, Z. Johan et E. Marcoux

récemment (Johan et al., 1989). L'interprétation est basée sur deux assertions résultant des analyses microsonde : le fort déficit en fer (la population des arsénopyrites riches en or présentant systématiquement le déficit le plus élevé), et l'indépendance des teneurs en Au et Sb vis-à-vis du rapport As/S.

Les calculs ont été basées sur la détermination de la structure cristalline de l'arsénopyrite par Buerger (1936) qui soulignait l'occupation partielle du site Fe par As et proposait un mode de calcul permettant de répartir l'arsenic entre les trois sites structuraux de l'arsénopyrite.

Il en ressort que Au, associé à Sb peut remplacer Fe dans la structure de FeAsS. Ce remplacement semble induit par le déficit en fer mais l'interprétation thermodynamique de ce phénomène est difficile. La substitution isovalente reconnue est la suivante : 2 As [Fe] ±? (Au, Sb) + Fe, où As [Fe] représente le nombre d'atomes d'arsenic placés en site fer. L'existence de Fe(III) non polaire dans la structure de l'arsénopyrite implique que l'or et l'antimoine s'y trouvent à l'état de Au (III) et Sb(III).

Fig. 11. — Distribution de l'arsenic et du fer dans l'arsénopyrite aurifère du Châtelet.

362


Le renouveau de l'or éternel

Les barrières analytiques... et leurs brèches

Les arsénopyrite aurifères du Châtelet et de Villeranges représentent des cas extrêmes, pour l'instant presque uniques au monde, par leurs fortes teneurs en or supérieures à 1 %. En dehors de ces cas exceptionnels, l'identification de sulfures aurifères à plus faibles teneurs en or se heurte à nos possibilités actuelles d'analyses ponctuelles.

Jusqu'à ces dernières années, la microsonde électronique restait le seul appareil opérationnel en routine pour analyser des volumes de l'ordre du micron-cube. En matrice sulfurée, le seuil de détection de l'or se situe aux environ de 500-700 g/t avec cet appareil. Par conséquent, une teneur inférieure à 400 g/t passera donc inaperçue et pourtant quel minerai s'il compose quelques pour cents du volume exploitable !

L'analyse chimique classique (fluorescence X, spectrométrie d'émission ou d'absorption) permet de descendre jusqu'à des seuils de teneur infimes (0,005 g/t) mais elle est peu adaptée au problème qui nous préoccupe. Les analyses sont en effet réalisées sur des

Fig. 12. — Distribution de l'or dans l'arsénopyrite aurifère du Châtelet.


C. Guillemin, Z. Johan et E. Marcoux

échantillons en poudre, qui dans notre cas devraient être parfaitement monominéraux pour que le résultat ait une valeur. L'obtention d'une telle poudre est pratiquement irréalisable.

L'avènement récent de la microsonde ionique, peut abaisser jusqu'à quelques g/t la limite de détection de For. Les premiers résultats expérimentaux paraissent encourageants mais de grandes difficultés techniques demeurent (Cathelineau et al, 1988).

LTCP/MS (Inductively Coupled Plasma/Mass Spectrometry), une des dernières nouveautés apparues sur le marché de l'analyse chimique, possède une gamme de performances très élevée qui semble plus adaptée à nos problèmes. Avec cette technique, l'échantillon vaporisé est ionisé dans un plasma d'argon, à 6000°C. Les ions sont ensuite injectés dans un spectromètre de masse qui les analyse quantitativement. L'avantage de cette méthode est de fournir un spectre complet des éléments, par un balayage systématique de la gamme des masses atomiques, et de détecter des teneurs inférieures au ng/ml, c'est-à-dire de l'ordre du mg/t. Mais s'attaquer à des mesures ponctuelles sur solide, indispensables pour résoudre nos problèmes d'or dans les sulfures, nécessite l'adjonction d'un dispositif supplémentaire, l'ablation laser. Le faisceau laser vaporise un volume de 100 µm de profondeur. « L'échantillon » ainsi obtenu est instantanément injecté dans la torche à plasma, puis dans le spectromètre où il est analysé. Soulignons ici l'intérêt de cette nouvelle technique, cent fois plus sensible que la microsonde électronique et qui permet de détecter des teneurs de quelques mg/t.

En attendant qu'il soit possible d'utiliser couramment ces appareillages, deux critères indirects devraient nous permettre d'identifier les minéraux aurifères lorsque les teneurs en or sont trop basses pour être détectées à la microsonde électronique. Le premier critère est la zonation chimique de l'arsénopyrite en As, perceptible à la microsonde électronique. Le second critère est l'observation de l'intensité de déstabilisation d'un minéral qui libère l'or contenu exprimé alors à l'état natif. Cela nous a permis de démontrer que la berthiérite de certains gîtes du Massif Central (Marmeissat, Puy-deDôme) était aurifère. En effet, si l'or natif est absent des filons à berthiérite massive, il apparaît en vermicules enchevêtrés exclusivement dans la stibine secondaire qui se forme localement aux dépens de la berthiérite (fig. 13).

Les nouveaux orpailleurs

Contrairement à nous, la nature se satisfait peu de schémas simples, sinon simplistes. La forme sous laquelle l'or apparaît dans la partie accessible de la croûte terrestre est certes métallique, mais nous pouvons maintenant affirmer que les sulfures aurifères à or invisible car « camouflé », c'est-à-dire faisant partie du réseau cristallin, existent bien. Ils sont actuellement peu nombreux comme les gisements qui les contiennent, mais il faut souligner qu'avec les moyens analytiques encore à notre disposition, seuls des sulfures exceptionnellement riches en or (plus de 800 g/t) peuvent être directement mis en évidence. Nous espérons que les travaux futurs démontreront l'existence d'autres gisements à « or camouflé ».

L'importance des gîtes à sulfures aurifères souffrira donc encore longtemps de méthodes traditionnelles de prospection basées sur la présence d'or alluvial ou sur d'anciens travaux à or visible. Il faut souligner que le futur des exploitations aurifères a déjà été bouleversé


Le renouveau de l'or éternel

dans les années 1960 par la mise en évidence de quelques 130 t d'or en grains inframier uniques associés à de l'or colloïdal dans le gîte de Carlin Mine au Nevada. L'or y est inclus dans des matières organiques carbonées qui englobent la pyrite et l'arsénopyrite. Une récupération économique de cet or si fin (« flour gold ») a nécessité la mise en oeuvre de la première chaîne de biolixiviation à Tonkin Springs, un des centres d'extraction de Carlin.

Ce procédé de minéralurgie semble un des rares qui soit apte à permettre l'extraction de l'or « camouflé » dans le réseau de sulfures aurifères, réseau qu'il faudra détruire le plus économiquement possible pour pouvoir récupérer l'or. L'or colloïdal de Carlin représente donc le chaînon manquant entre l'or fin et l'or camouflé, et les enseignements tirés de la prospection et de l'exploitation des gisements de ce type seront déterminants pour le nouveau « boom », la nouvelle ruée vers l'or « camouflé ».

Nous concluerons donc comme nous avons commencé cet article par un rapide résumé de l'histoire technologique de la quête de l'or, une des grandes pulsions qui affectent l'« Homo sapiens sapiens ».

Dès l'origine, il y a au moins une dizaine de milliers d'années, nous trouvons la cueillette qui dépend de critères externes, géographie, environnement, tribalisme et démographie. Il serait intéressant de mieux définir le pourquoi des civilisations à or ou sans or (celles des Esquimaux, des polynésiens par exemple). Les explications pourraient être variées, pour les uns on pense immédiatement à l'environnement glaciaire, au permafrost, pour

Fig. 13. - Stibine secondaire (Sb) accompagnée d'or natif en vermicules (Au) et d'un peu de pyrite précoce (Py). Marmeissat, Puy-de-Dôme, France. L'association (Sb + Au) correspond à la déstabilisation de berthiérite aurifère que l'on observe en abondance, sans or natif associé, dans ce filon. Photo au microscope métallographique. L'échelle représente 100 µm.


C. Guillemin, Z. Johan et E. Marcoux

les autres à de l'or trop fin dans une géomorphologie trop jeune pour permettre la formation de placers. Mais peut être est-ce en outre la sagesse qui a fait préférer l'os ou le bois à l'éclat de l'or ?

Avec les siècles, nous passons à la culture, d'Agricola aux mineurs et géologues de la fin du XIXe siècle, des recettes deviennent des procédés et des lois. Le Witwatersrand fait d'ailleurs inévitablement penser avec son gigantisme, la sophistication de ses techniques et appareillages et son hégémonie sur la production mondiale, aux grandes exploitations agricoles du Middle West.

Actuellement avec les recherches sur les ors fins ou camouflés, avec les biolixiviations, nous en arrivons aux biotechnologies, où des bactéries convenablement reprogrammées pourraient être nos nouveaux orpailleurs !

Mais il convient de le souligner : de même que coexistent sur notre planète les cultures les plus primitives et les « civilisations » les plus inutilement sophistiquées, nous trouvons et trouverons toujours des garimpeiros brésiliens (chercheurs d'or, entre autres) coexistant avec des ingénieurs aux appareillages rutilants pour la quête de cet or, métal auquel les humains ont attribué trop de leurs pulsions pour qu'on puisse se contenter de le ranger tout simplement avec ses semblables dans la classification de Mendeleiev.

NOTES

(1) Chanson populaire d'Amérique du Sud : « Donnez-moi l'Eldorado où l'éclat de l'or se confondait avec celui du soleil ».

( 2) Prix de l'or dans les 25 dernières années, en dollars 1988 (moyennes annuelles) par Troy ounce (31,1 g), unité employée pour le cours des métaux précieux :

1963=110,6 1973 = 209,5 1977 = 239,8 1981 = 533,4 1985 = 327,4

1965=106,6 1974 = 314,3 1978 = 291,3 1982 = 411,5 1986 = 390,9

1970= 90,2 1975 = 290,7 1979 = 426,1 1983 = 445,2 1987 = 462,5

1972=132,7 1976 = 214,4 1980 = 777,4 1984=370,5 1988 = 436,8

( 3) Il paraît intéressant de signaler qu'au IVe siècle, la frappe des pièces d'or romaines nécessitait certaines années l'utilisation de 9 à 10 t d'or. Il est vrai que nombre de ces pièces étaient recyclées et que Rome s'était considérablement enrichie au cours de ses conquêtes; par exemple, Trajan s'empara en 106 de 165 t d'or dans le trésor de Decebale, roi des Daces.

( 4) Placer : nom donné par les Conquistadors aux alluvions aurifères d'Amérique.

(s) Dans de nombreux pays en voie de développement ou peu peuplés, un pourcentage plus ou moins important (jusqu'à 50 %) de la production d'or, étant vendu en dehors des circuits légaux, ne peut être recensé.

( 6) Ensemble rubané de roches volcaniques vertes basiques et de sédiments.

( 7) Ancien nom de l'arsénopyrite.

RÉFÉRENCES

Aubert G., Phan K. D., Geffroy J., 1964, Bull. Soc. Franc. Min. Crist., 87, 623-624. Bâche J. J., 1982, « Les gisements d'or dans le monde », Mém. BRGM, n° 118, 102 p., Éd. BRGM. Bonnemaison M., 1986, Chron. Rech. Min., 482, 55. Bonnemaison M., Marcoux E., 1987, Chron. Rech. Min., 488, 29.

Boyle R. W., 1979, « The geochemistry of gold and its deposits », Geol. Surv. Canada Bull, 280, 290 p. Buerger M. J., 1936, Zeit. Krist., 95, 83.

Cathelineau M., Boiron M. C, Holliger P., Marion P., 1988, « Gold rich arsenopyrites : crystal chemistry, gold location and state, physical and chemical conditions of crystatlization », Bicentennial Gold 88, Melbourne.


Le renouveau de l'or éternel

Freise F. W., 1931, Econ. Geol, 26, 421.

Goni J., Guillemin G, Sarcia C, 1967, Mineral. Deposita, 1, 259.

Hannington M. D., Scott S. D., 1988, « Gold mineralization in volcanogenic massive sulfides: modem and ancient », Bicentennial Gold 88, Melbourne.

Hedenquist J. W., Henley R. W., 1985, Econ. Geol., 80, 1640.

Hugon H., 1986, « The role of shearing in gold deposition », In Gold 86, A.M. Chater ed., p. 72-74.

Johan Z., Marcoux E., Bonnemaison M., 1989, C.R. Acad. Sci., Paris, 308, II, 185.

Keays R. R., 1982, « Archean gold deposits and their source rocks : the upper mantle connection ». Proceedings Gold 82.

Krupp R. E., Seward T. W., 1987, Econ. Geol., 82, 1109.

Machairas G., 1963, « Métallogénie de l'or en Guyane française », Mém. BRGM n° 22, 163 p. + pl. Ed. BRGM.

Marcoux E., Bonnemaison M., Braux C, Johan Z., 1989, C. R. Acad. Sci., Paris, 308, II, 293.

Marion P., Regnard J. R., Wagner F. E., 1986, C.R. Acad. Sci., Paris, 302, II, 8, 571.

Picot P., Marcoux E., 1987, C.R. Acad. Sci., Paris, 304, II, 6, 221.

Robert F., Brown A. C, Audet A, J., 1983, « Structural control of gold mineralization at the Sigma Mine, Val d'Or, Québec », CIM Bull., 76, p. 72-80.

Roberts R. G., 1987, Geoscience Canada, 14, 37.

Routhier P., 1969, « Sur trois principes généraux de la métallogénie et de la recherche minérale », Minerai. Deposita, 42, p. 213-218.

Routhier P., 1980, « Où sont les métaux pour l'avenir? », Mém. BRGM, n° 105, 409 p., Ed. BRGM.

Sedillot R., 1974, « Histoire de l'or », Éd. Fayard, Paris, 419 p.

BIBLIOGRAPHIE

Aitchison L., 1960, « A history of metals », MacDonald and Evans, London, 647 p.

«GOLD », 1987, Mineralogical Records, 18, 1, 112 p.

Ramin J., 1977, « La technique minière et métallurgique des Anciens », Latomus, Bruxelles, 153, 223 p.

Shepherd R., 1980, « Prehistoric mining and allied industries », Académie Press, London, 272 p.

Temple J., 1972, « Mining, an international history », Ern. Benn. Ltd, London, 144 p.

367



LA VIE DES SCIENCES -

Le peuplement du Proche-Orient au paléolithique moyen

Bernard VANDERMEERSCH

Laboratoire d'anthropologie de l'université Bordeaux I Laboratoire d'anthropologie des hommes fossiles de l'EPHE

UA 376 du CNRS, avenue des Facultés, 33405 Talence Cedex

Placé au carrefour des trois continents de l'ancien monde, le Proche-Orient a toujours été la seule voie de passage terrestre permettant les mouvements des populations entre l'Afrique et l'Eurasie. C'est probablement en remontant la vallée du Jourdain que des groupes rfTIomo erectus venus d'Afrique ont pour la première fois peuplé Java d'un côté, l'ouest de l'Europe de l'autre. Ils y laissèrent un outillage lithique de plus d'un million d'années. Beaucoup plus récemment, c'est encore du Proche-Orient que sont venus en Europe certaines des techniques agricoles qui favorisèrent la sédentarisation, donnant les premières impulsions qui aboutirent aux états modernes. Cette région joua aussi un rôle essentiel pendant une partie du pléistocène supérieur, précisément entre 100000 et 40000 ans. Cette période fut marquée, en effet, par une succession d'événements qui influencèrent durablement l'histoire biologique et culturelle du Proche-Orient et de l'Europe. Des hommes de morphologie moderne vivaient déjà il y a 100 000 ans dans des grottes du mont Carmel et de Galilée. Ce sont eux qui élaborèrent les plus anciennes pratiques funéraires que nous connaissons. Plus récemment, il y a 60000 ans au moins, ils furent confrontés à des groupes de Néandertaliens venus d'Europe, avec lesquels ils cohabitèrent pendant plusieurs dizaines de millénaires dans le même complexe culturel. Plus récemment encore, vers — 40 000 ans, ils furent probablement à l'origine des Cro-Magnons qui peuplèrent notre continent du début du paléolithique supérieur, en remplaçant progressivement d'est en ouest les Néandertaliens.

Les développements récents des recherches préhistoriques et paléoanthropologiques au Levant permettent de préciser la nature des populations qui occupèrent la région pendant cette période, leur origine, leur évolution et les étapes des transformations culturelles dont elles furent les auteurs.

Cet article s'inscrit dans le cadre d'une série d'exposés organisés par Yves Coppens sur le thème « Les principales étapes de l'histoire de l'Homme » et présentés devant l'Académie des Sciences (cf. La Vie des Sciences, 1987, 4, n° 4, p. 283.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 5, p. 369-386


B. Vandermeersch

Premières découvertes, premières interrogations

C'est en 1893 que furent découverts, dans la grotte d'Antélias au Liban, les premiers fossiles humains du Proche-Orient. Ils comprenaient les restes d'un foetus de huit mois et d'au moins trois adultes. Mais ils passèrent inaperçus et H.-V. Vallois montra en 1957 que les os du foetus ne différaient pas de ceux d'un foetus actuel. Il est d'ailleurs possible qu'ils aient été intrusifs dans les couches aurignaciennes dans lesquelles ils furent mis au jour.

Il fallut en fait attendre 1925 pour que cette région du monde prenne réellement place dans les recherches sur l'évolution de l'Homme. Ce fut grâce à la découverte par TurvillePetre, dans la grotte de Mugharet el-Zuttiyeh, d'une portion de crâne — connue sous le nom de crâne de Galilée - dans un niveau qu'il rattachait par son industrie lithique au paléolithique moyen. Ce fossile a été étudié par sir A. Keith, qui le rapprocha des Néandertaliens européens.

A cette époque, deux concepts complémentaires permettaient d'appréhender l'évolution récente de l'humanité, celui de « paléanthropien » et celui de « phase ».

La notion de paléanthropien avait été proposée par Eliot Smith en 1916. Elle permettait de regrouper les fossiles découverts dans les gisements moustériens européens et donc antérieurs à l'homme moderne du paléolithique supérieur. Elle a été élargie par Keith qui regroupait avec les Néandertaliens les fossiles trouvés hors d'Europe qui leur ressemblaient par quelques caractères et qui étaient supposés être leurs contemporains. Ce terme, dont le contenu était au demeurant imprécis, prenait une signification à la fois morphologique et chronologique. Il s'appliquait à tous les fossiles qui précédaient les hommes modernes, les néanthropiens, et qui suivaient les Homo erectus, les archanthropiens.

A la même époque, Hrdlicka (1927) proposait le concept de « phase ». L'évolution de l'humanité serait caractérisée par une succession de phases ou stades morphologiques qui auraient concerné la totalité des populations de l'ancien monde. Il s'opposait à la notion de lignées évolutives indépendantes. L'humanité dans son ensemble, c'est-à-dire dans les diverses régions, avait suivi une progression générale même si des décalages géographiques pouvaient être observés.

Les paléanthropiens représentaient une des phases de cette évolution, et la découverte de Zuttiyeh, par son âge et ses ressemblances avec les Néandertaliens, particulièrement un fort bourrelet sus-orbitaire, s'inscrivait sans difficulté dans ce schéma.

De nouvelles découvertes, très importantes, eurent lieu entre 1929 et 1935. D'abord celles de Tabun et de Skhul, deux grottes voisines situées sur le mont Carmel à environ 20 km au sud de Haïfa, puis celles de Qafzeh, gisement proche de Nazareth en Galilée (fig. 1).

La grotte de Tabun fut fouillée par Garrod. Avec son remplissage de 23 m d'épaisseur allant du paléolithique inférieur au début du paléolithique supérieur, c'est un des principaux gisements préhistoriques du Proche-Orient. Outre quelques os isolés, un squelette féminin fut exhumé des couches moustériennes. La petite grotte de Skhul, située à quelques centaines de mètres, était fouillée simultanément par McCown. Il devait en extraire dix squelettes moustériens et de nombreux os isolés. La plupart des squelettes proviennent de sépultures.


Le peuplement du Proche-Orient au paléolithique moyen

Les fossiles humains furent étudiés par Keith et McCown. Ces auteurs ont été immédiatement frappés par les différences entre les sujets des deux gisements, et dans une publication préliminaire (1937) ils envisagèrent la présence de deux types humains : celui de Skhul plus proche de l'homme moderne, et celui de Tabun plus proche des Néandertaliens. Mais dans la publication définitive (1939), ils changèrent d'opinion et réunirent dans le même ensemble paléanthropien les fossiles des deux gisements. Il n'y avait plus qu'une seule population, en pleine évolution, mais située, selon eux, en dehors des grands centres où se forgeaient, en Europe les Néandertaliens, et plus à l'est les hommes modernes.

A la même époque Neuville, alors consul de France à Jérusalem, fouillait la grotte de Qafzeh. En trois ans il devait dégager cinq squelettes dans les niveaux moustériens. Il ne put malheureusement pas achever ses recherches, et les ossements, envoyés à l'Institut de paléontologie humaine, restèrent longtemps inédits (fig. 2).

Néandertaliens et hommes modernes au Levant...

Une nouvelle étape de la paléoanthropologie du Levant commença en 1939 avec la proposition de Coon de considérer la diversité morphologique des fossiles découverts comme l'expression d'un métissage. D'après lui, les hommes du Mont Carmel auraient

Fig. 1. — Carte des principaux gisements du paléolithique moyen du Proche-Orient ayant livré des squelettes humains. 1: Tabun et Skhul; 2: Qafzeh; 3: Amud; 4: Shanidar; 5: Kébara.


B. Vandermeersch

été des hybrides de Néandertaliens et d'hommes modernes. Cette hypothèse allait à l'encontre des notions de « paléanthropiens » et de « phase » puisqu'elle impliquait la contemporanéité de deux morphologies considérées jusque-là comme successives.

Elle reçut l'appui du généticien Dobzhansky (1944) et fut remarquablement développée par Thoma entre 1957 et 1965. Pour ce dernier, seuls les hommes de Skhul, et probablement aussi ceux de Qafzeh, étaient des métis. Le squelette de Tabun représentait la composante néandertalienne de ce métissage, et la composante moderne, inconnue parmi les fossiles du Levant, était à rechercher plus à l'est, à Staroselje en Crimée, par exemple. Les travaux de Thoma mettaient clairement en évidence la présence de Néandertaliens au Proche-Orient. De plus, il estimait, à l'examen des fossiles de Skhul, que la composante moderne devait avoir une morphologie proche de celle des Cro-Magnons.

En 1959, Clark Howell allait plus loin en plaçant les sujets de Skhul et de Qafzeh parmi les hommes de morphologie moderne; et il proposait de les appeler Proto-CroMagnons. Reprenant aussi l'analyse de ces gisements et de celui de Tabun, il concluait à la contemporanéité de leurs dépôts moustériens qu'il datait du début de la dernière glaciation. De ce fait, les Néandertaliens et les hommes modernes pouvaient avoir été contemporains au Levant.

Fig. 2. — La grotte de Qafzeh (Israël) en 1934/1935 pendant les fouilles dirigées par René Neuville.

372


Le peuplement du Proche-Orient au paléolithique moyen

Cette interprétation restait fragile. Les données anthropologiques étaient insuffisantes; les fossiles de Qafzeh n'étaient pas publiés et les Néandertaliens du Proche-Orient n'étaient encore représentés que par un seul sujet, celui de Tabun. Des questions essentielles restaient aussi sans réponse. Quelle était la relation chronologique précise entre les deux populations ? Ont-elles été réellement contemporaines, ou se sont-elles succédées pendant le Moustérien? Si on admet que les Proto-Cro-Magnons sont plus récents que les Néandertaliens, qu'ils couvrent seulement la fin de cette période, ne peut-il y avoir filiation entre les deux? Et le moustérien du Proche-Orient ne se prolonge-t-il pas jusqu'à être, à la fin, contemporain du paléolithique supérieur d'Europe ? A travers ces questions on voyait la possibilité de mettre le Proche-Orient en conformité avec l'Europe. Dans les deux régions les hommes modernes auraient succédé aux Néandertaliens; la différence est qu'au Proche-Orient il serait accompagné d'un moustérien tardif, alors qu'en Europe on ne le connaît qu'avec les industries du paléolithique supérieur.

De nouvelles découvertes

La dernière étape des recherches sur ces problèmes a été marquée par de nombreuses découvertes de restes humains, et elle a apporté d'incontestables éclaircissements.

Shanidar

Entre 1953 et 1960 Solecki fouilla la grotte de Shanidar dans le Kurdistan irakien. Il y découvrit les restes de neuf individus, sept adultes et deux enfants. Tous sont des Néandertaliens (Trinkaus, 1983) et proviennent d'un puissant dépôt moustérien. Ils partagent avec la population classique de l'Europe la majorité des traits qui définissent ce type humain. Le crâne est volumineux avec une vaste cavité cérébrale surtout longue et large. Les superstructures osseuses, torus sus-orbitaire et torus occipital, sont bien développées. Le temporal est allongé avec une apophyse mastoïde petite et oblique vers l'intérieur. Sur la face inférieure on remarque une éminence juxta-mastoïdienne très développée, souvent plus saillante que l'apophyse mastoïde elle-même. Le profil transversal du crâne est arrondi.

La face est à la fois haute, large et saillante, surtout dans sa partie moyenne. La région sus-orbitaire est la plus caractéristique. Constituée par le maxillaire et le malaire, elle est à la fois plane et oblique vers l'arrière. Cela correspond à un fort développement des sinus maxillaires qui repoussent leur paroi antérieure et effacent la fosse canine. C'est le type « en extension » de S. Sergi (1947). Il n'y a pas de pommette, mais le malaire et le maxillaire sont dans le prolongement l'un de l'autre, donnant à la partie moyenne de la face un aspect fuyant qui a été qualifié de « museau » par M. Boule (1912).

La mandibule est robuste, sans menton. Elle présente un vaste espace libre entre la troisième molaire et la branche verticale. Les dents antérieures sont généralement disposées en façade, et les molaires et prémolaires montrent un agrandissement caractéristique de la cavité pulpaire, appelé taurodontisme.

Le squelette postcrânien possède lui aussi une série de traits spécifiques : bord axillaire de la scapula avec une seule gouttière, allongement de la branche supérieure du pubis,


B. Vandermeersch

absence de pilastre sur la face postérieure du fémur, etc. Certains de ces caractères ont pu avoir des implications fonctionnelles.

Plusieurs datations au 14C ont été faites à Shanidar. Elles s'étagent de 46000 à 60 000 ans. Cette dernière correspond à un niveau un peu supérieur à celui du squelette le plus ancien (Sh. 7). Ces données font des hommes de Shanidar les contemporains des Néandertaliens européens du début du Würm, mais il faut interpréter ces datations avec prudence car elles dépassent les limites habituellement reconnues pour le 14C.

Amud

La grotte d'Amud est située dans le Wadi du même nom, un peu en amont de Zuttiyeh, non loin du lac de Tibériade. En 1961 Suzuki eut la chance d'y découvrir, dans un des rares secteurs non remaniés du gisement, un squelette de Néandertalien accompagné d'une industrie moustérienne. Sa morphologie est très proche de celle des hommes de Shanidar (fig. 3).

Kébara

Depuis 1981 une équipe franco-israélienne a repris l'étude du gisement de Kébara sur le mont Carmel, à 15 km au sud de Tabun et Skhul. Une très importante séquence moustérienne a été mise en évidence sur plus de 6 m d'épaisseur (fig. 4 et 5). Dans la couche XII une sépulture néandertalienne a été découverte. Le squelette, auquel manquait le crâne, reposait sur le dos dans une fosse. La main droite était ramenée sur l'épaule gauche et la main gauche placée sur le bord du thorax. On a pu montrer que le crâne avait été retiré de la fosse après la disparition des chairs (Arensburg et al., 1985), et il est probable que le cadavre avait d'abord été déposé dans un espace vide et que la fosse n'a été comblée qu'après que le crâne eut été retiré. Cette sépulture apporte donc des données nouvelles sur les pratiques funéraires des Néandertaliens (fig. 6).

L'état de conservation des ossements est en tout point remarquable. Pour la première fois une colonne vertébrale complète de Néandertalien était conservée, et un os hyoïde découvert dans le paléolithique moyen. Quelques restes fragmentaires ou isolés d'adultes et d'enfants sont à ajouter à ce squelette.

En quelques années notre connaissance des Néandertaliens du Proche-Orient s'est donc considérablement enrichie. Plus de onze individus sont venus s'ajouter au squelette de Tabun. Ils confirment la présence de cette population dans cette région, et sa répartition géographique, de l'Irak à Israël, montre qu'il ne s'agit pas d'un phénomène limité {fig. 6).

La comparaison de ces fossiles avec les Néandertaliens classiques de l'Europe fait apparaître certaines différences, mais elles n'altèrent pas l'architecture générale du squelette qui est bien la même dans les deux régions. La voûte crânienne est plus élevée au Proche-Orient où elle entre dans la variation moderne; certains des caractères du crâne cérébral et de la face sont moins accentués. La population du Proche-Orient était plus grande et on n'observe pas l'élargissement du thorax habituel sur les sujets de notre continent.


Le peuplement du Proche-Orient au paléolithique moyen

Nous pouvons donc mettre en évidence à l'intérieur du grand ensemble néandertalien qui s'est étendu de l'Angleterre à l'Ouzbékistan au moins deux sous-groupes, celui de l'Europe de l'Ouest et celui du Proche-Orient.

Qafzeh

La population de type moderne s'est elle aussi enrichie de nouvelles découvertes et s'est trouvée confirmée. De 1965 à 1981 nous avons repris les fouilles dans la grotte de Qafzeh dans le but d'en préciser la stratigraphie, d'en étudier les industries lithiques, et avec l'espoir d'y exhumer de nouveaux restes humains. Cet espoir a été comblé puisque dix-huit individus au moins ont été dégagés, portant ainsi à vingt-trois le nombre total de sujets des niveaux moustériens. Si certains ne sont représentés que par des pièces isolées, d'autres — six adultes et cinq enfants — sont présents par des parties importantes du squelette. Par sa richesse en fossiles humains, Qafzeh est un des sites les plus importants du paléolithique moyen, le plus important du Proche-Orient (fig. 7).

Tous ces individus proviennent de niveaux à industrie moustérienne et certains d'entre eux ont fait l'objet d'inhumations volontaires. L'adulte Qafzeh 8 se trouvait dans une

Fig. 3. - Crâne de Néandertalien découvert dans la grotte d'Amud (Israël) proche du lac de Tibériade. Sa morphologie est très proche de celle du crâne de Shanidar.


B. Vandermeersch

anfractuosité de la paroi rocheuse, couché sur le côté droit, la tête à l'est et les jambes repliées en chien de fusil. Deux autres individus, un adulte (Q-9) et un enfant (Q. 10), ont été enterrés simultanément. La disposition des corps a permis de déduire l'existence d'une fosse sépulcrale bien que les transformations secondaires des sédiments — bréchification et imprégnation par les sels de manganèse - n'aient pas permis d'en déceler les limites. L'adulte était couché sur le côté gauche, la tête au nord, inclinée sur le thorax; les mains étaient ramenées sur le ventre et les jambes rempliées en chien de fusil. Ce squelette est celui d'une très jeune femme. A ses pieds, et contrastant avec cette disposition soignée, le squelette d'un enfant de six ans environ était tassé sur lui-même, la tête en flexion forcée sur le tronc, les jambes fortement repliées, mais sans ordre. Une telle sépulture double est unique pour le moustérien, et l'opposition entre le soin apporté à la mise en place du corps de l'adulte et l'anarchie apparente — qui évoque une certaine brutalité - de celui de l'enfant soulève des questions. Mais nous ne pouvons expliquer cette différence de comportement, alors même qu'il s'agit d'une inhumation simultanée (fig. 8). Mais ce n'est probablement pas parce qu'il s'agissait d'un enfant puisqu'une autre sépulture de sujet jeune a été l'objet de beaucoup de soin. C'est celle d'un adolescent (Q. 11) de treize ans environ. Il a été découvert dans une fosse creusée à même le rocher, couché sur le dos, les jambes repliées et rabattues du côté gauche. La tête, appuyée sur

Fig. 4. - La grotte de Kébara sur le Mont Carmel (Israël) est un des plus grands gisements moustériens du Levant. (Photo J.-P. Parnaudeau).


Le peuplement du Proche-Orient au paléolithique moyen

le bord de la fosse, était fortement inclinée sur la poitrine. Les bras avaient été repliés, les mains amenées de chaque côté du cou, la paume vers le haut. Sur les mains, en contact direct avec elles, il y avait un hémi-massacre de grand cervidé qui se trouvait ainsi en travers de la partie supérieure du thorax. La présence d'offrandes a parfois été signalée dans les sépultures moustériennes, mais celle de Qafzeh Il est la seule qui soit indiscutable.

Deux populations distinctes

L'étude anthropologique a pleinement confirmé l'appartenance de ces fossiles aux populations morphologiquement modernes, leurs ressemblances avec ceux de Skhul et leurs affinités avec les Cro-Magnons. Souvent de grande taille, plus de 1,80 m, et fortement charpentés, ils ne possèdent aucun caractère spécifiquement néandertalien. Leur crâne cérébral est arrondi et ses superstructures sont peu ou modérément saillantes; le frontal est redressé, la voûte élevée. Le temporal est relativement court et porte une

Fig. 5. — L'intérieur de la grotte de Kébara montrant l'installation du chantier pendant la fouille.


B. Vandermeersch

Fig. 6. — Kébara (Israël). Coupe des niveaux moustériens dans lesquels fut découvert, en 1983, le squelette néandertalien. La coupe montre la fosse dans laquelle le corps avait été déposé. Les Néandertaliens sont venus retirer le crâne après disparition des chairs.

378


Le peuplement du Proche-Orient au paléolithique moyen

grande apophyse mastoïde toujours bien dégagée du massif pétreux. Sur la face, le malaire est robuste et coudé au niveau de la pommette, le maxillaire toujours déprimé par une fosse canine. La mandibule présente un menton typique {fig. 9).

Certains individus portent, associés à cette architecture moderne, quelques traits primitifs. Sur Qafzeh 3, par exemple, la voûte crânienne est épaisse et la région occipitale

Fig. 7. - La grotte de Qafzeh (Israël) est située en bordure des collines de Galilée, à 2,5 km de Nazareth. De sa terrasse, et même de l'intérieur, on a une vue étendue sur la plaine d'Esdrelon. Ce vaste habitat moustérien devait aussi être un remarquable poste d'observation pour le gibier.


B. Vandermeersch

380


Le peuplement du Proche-Orient au paléolithique moyen

rappelle celle des Homo erectus. Sur Qafzeh 9, par ailleurs très gracile, le tympanal est épais et les dents, très volumineuses, rappellent par leurs dimensions celles des Sinanthropes. Ces caractères archaïques montrent que l'évolution vers la forme moderne n'est pas encore totalement achevée. Ce sont eux qui ont créé la confusion car on les retrouve aussi chez les Néandertaliens. Mais il ne s'agit en aucun cas de caractères spécialisés particuliers à ce groupe : ce sont des caractères que les Néandertaliens et les Proto-CroMagnons du Levant ont hérité, chacun de son côté, de leurs ancêtres communs Homo erectus.

Fig. 8 (page ci-contre). — Reconstitution de la sépulture double de Qafzeh (2.9) et (Q. 10). Elle renfermait les restes d'une jeune femme au pied de laquelle avait été déposé le corps d'un enfant de six ans environ. C'est la seule sépulture double connue pour le paléolithique moyen. Ces squelettes proviennent d'une population de morphologie moderne, les Proto-Cro-Magnons, et sont datés de 92000 ans environ.

Fig. 9. — Le crâne de Qafzeh 9. Tout à fait moderne par sa morphologie, il représente peutêtre la population ancestrale des Cro-Magnons européens.

381


B. Vandermeersch

La superposition des profils met clairement en évidence la ressemblance des sujets de Qafzeh avec les Cro-Magnons. Cela est confirmé par un calcul de distance de forme établi à partir de neuf caractères métriques (fig. 10). La série épipaléolithique marocaine de Taforalt, probablement dérivée des Cro-Magnons, a servi de référence. Les résultats sont les suivants :

- Taforalt 0

-Qafzeh 9 0,9481

- Skhul V 1,0066

- Predmost III 1,3575

-Qafzeh 6 1,5120

-Skhul IV 2,5503

-Amud I 4,2009

— Shanidar 4,7730

— La Ferrassie 1 6,1014

— La Chapelle-aux-Saints 7,3899

Nous nous trouvions donc en présence de deux populations bien définies, les ProtoCro-Magnons et les Néandertaliens orientaux, ayant vécu au paléolithique moyen dans le cadre de la civilisation moustérienne. Le problème qui restait à résoudre était celui de leur position chronologique réciproque et de leurs éventuelles relations phylogénétiques. Les travaux de ces dernières années aboutissent en effet à deux interprétations contradictoires et inconciliables basées, pour l'une sur de nouvelles fouilles dans la grotte de Tabun, pour l'autre sur l'étude de Qafzeh.

Fig. 10. — Superposition, en haut, du profil du crâne de Qafzeh 9 et de ceux de deux Néandertaliens, La Chapelle-aux-Saints, en pointillés, et Amud, en tirets; en bas, du profil de Qafzeh 9 et de ceux de Skhul V, en pointillés, et du Cro-Magnon européen Predmost III, en tirets. Ces superpositions montrent que les hommes de Qafzeh sont éloignés par leur forme des Nandertaliens et proches des Cro-Magnons européens.

382


Le peuplement du Proche-Orient au paléolithique moyen

Entre 1967 et 1972, une équipe reprit les recherches à Tabun sous la direction de Jelinek. Ce dernier a mis en évidence, de bas en haut de la séquence moustérienne, une diminution régulière de l'indice de largeur/épaisseur de l'outillage lithique, avec une accélération de cette tendance à la fin de la séquence moustérienne. Cette évolution a été suivie de — 120000 à — 50000 ans. Jelinek (1982) en a tiré deux conclusions :

— nous sommes là en présence d'une tendance générale de l'évolution des industries moustériennes du Levant. Il est donc possible d'utiliser l'échelle de Tabun comme référence chronologique et, en calculant l'indice d'une industrie d'un autre gisement, de la dater;

- l'accentuation de cette évolution pourrait correspondre à l'apparition de l'homme moderne.

Pour Jelinek l'homme moderne serait issu des Néandertaliens locaux, et il y aurait parallélisme entre cette évolution biologique et l'évolution culturelle des industries lithiques. Le calcul de l'indice pour les industries moustériennes de Qafzeh placerait celles-ci à la fin de la période considérée et, comme elles accompagnaient des hommes modernes, cela est conforme au schéma proposé. Il y aurait donc bien eu succession, Néandertaliens puis hommes modernes, et évolution des uns aux autres.

Les résultats obtenus à Qafzeh sont radicalement différents. La stratigraphie montre un hiatus entre les dernières couches moustériennes et les premiers dépôts du paléolithique supérieur (Bar Yosef et Vandermeersch, 1981). Ce hiatus correspond à une reprise de l'activité karstique de la grotte à la fin du paléolithique moyen. Le moustérien de ce gisement, en tout état de cause, ne correspond pas à la fin du moustérien dans la région. De plus, Haas (1972) puis Tchernov (1984) ont montré qu'il y avait à Qafzeh, dans les dépôts de cette période, des micromammifères archaïques que l'on trouve dans l'acheuléen de Tabun et, inversement, il y a dans les couches de Tabun des formes plus modernes absentes des couches de Qafzeh. La conclusion que l'on peut en tirer est que le moustérien de Qafzeh relaie celui de Tabun vers le bas et non vers le haut, et que les fossiles humains qu'il contenait sont plus anciens que les Néandertaliens de Tabun.

De plus, de nombreux travaux récents sur les Néandertaliens ont conclu à l'impossibilité d'une relation phylétique avec les hommes modernes. Les caractères qui leur sont propres sont des caractères spécialisés ayant été acquis au cours d'une longue évolution qui a débuté en Europe il y a environ 350000 ans. Les quelques traits qu'ils ont en commun avec les Proto-Cro-Magnons du Levant sont des traits primitifs. Ils montrent seulement qu'il y a parenté d'origine, mais non pas filiation.

Comme on le voit, ces deux interprétations étaient inconciliables et la seule façon de résoudre cette contradiction était de reprendre l'analyse comparée des principaux gisements moustériens du Levant en vue d'établir une échelle chronostratigraphique de référence et d'asseoir ces résultats sur un ensemble de datations absolues. C'est avec cet objectif qu'un programme franco-israélien sur l'évolution de l'homme et de ses industries au paléolithique moyen a été engagé. Les premiers résultats, obtenus par l'étude de la thermoluminescence de silex chauffés de Kébara, ont daté le squelette néandertalien de 60000 ans environ (Valladas, 1988). La même méthode, appliquée à une série d'échantillons de Qafzeh, a donné 95 000 ans (Valladas, 1988). Une autre méthode, l'Electron Spin Resonance, appliquée à des dents de mammifères provenant des mêmes niveaux de ce gisement, a donné des résultats comparables.


B. Vandermeersch

Des Néandertaliens émigrants

La grande ancienneté des Proto-Cro-Magnons se trouve ainsi confirmée et leur antériorité par rapport aux Néandertaliens, au moins certains d'entre eux, établie. Il n'est donc plus possible de retenir l'hypothèse d'une évolution, au Levant, des Néandertaliens aux hommes modernes (fig. 11). Mais quelle peut alors être l'origine de ces deux populations qui ont été contemporaines pendant une partie de leur histoire ?

Le fragment de crâne de Zuttyeh a été rapporté, à la suite de travaux récents, à un niveau acheuléen et daté de 140000 ans environ. Ses caractères primitifs sont plus nombreux que ceux des Proto-Cro-Magnons : fort torus sus-orbitaire, largeur de la grande aile du sphénoïde, vaste faciès temporal du malaire, etc. Il ne présente aucun catactère néandertalien alors que, pour la même époque, les fossiles européens présentent des traits néandertaliens très affirmés. Il n'appartient donc pas à ce groupe. En revanche, les transformations morphologiques nécessaires pour passer de Zuttiyeh au Proto-CroMagnon sont faibles et peuvent s'inscrire dans un schéma évolutif simple; elles n'entraîFig.

n'entraîFig. — Schéma montrant quels ont pu être les échanges de populations entre l'Europe et le Proche-Orient pendant le paléolithique moyen. Les Néandertaliens ont gagné le Proche-Orient au début de la dernière glaciation et les Cro-Magnons sont arrivés en Europe au début du paléolithique supérieur.

384


Le peuplement du Proche-Orient au paléolithique moyen

Fig. 12. — Carte de l'Europe montrant l'extension des glaces lors de la dernière glaciation. Elle fut peut-être la cause du déplacement vers le Proche-Orient des Néandertaliens. Les seules voies d'accès ne nécessitant pas de franchir un bras de mer se situaient à l'ouest et à l'est de la mer Noire et à l'est de la mer Caspienne (d'après Bar Yosef).

nent aucune modification fondamentale. Il est donc probable que les ancêtres de l'homme moderne étaient présents au Proche-Orient depuis plus de 150000 ans, La question est maintenant de savoir si eux-mêmes sont l'aboutissement d'une évolution locale - l'homme est présent dans la vallée du Jourdain depuis plus d'un million d'années - ou s'ils ont une autre origine, alors probablement africaine.

Dans ce contexte les Néandertaliens apparaissent comme des éléments étrangers, intrusifs. Ils n'ont aucun ancêtre possible au Proche-Orient. A ce jour, tous les Prénéandertaliens connus sont d'ailleurs européens (fig. 12). L'origine de la population orientale ne peut donc se situer que sur notre continent. La comparaison des fossiles du ProcheOrient avec ceux d'Europe montre que les ressemblances sont plus nombreuses avec les pièces datées du Riss-Würm qu'avec les Néandertaliens classiques de la fin de la première moitié de la dernière glaciation (Condemi, 1985). On peut donc émettre l'hypothèse suivante (Bar Yosef, 1988) : à la fin du dernier interglaciaire, alors que les conditions climatiques se dégradaient progressivement sur l'Europe et que l'environnement animal

385


B. Vandermeersch

et végétal se modifiait profondément, les Néandertaliens ont été repoussés vers le Sud par l'extension des zones périglaciaires. Certains groupes ont quitté l'Europe et gagné le Proche-Orient où ils s'établirent malgré la présence des populations locales de type moderne. Ils y vécurent pendant tout le paléolithique moyen mais, là comme en Europe, ils disparurent avec la mise en place des civilisations du paléolithique supérieur.

RÉFÉRENCES

Arensburg B., Bar Yosef O., Chech M., Goldberg P., Laville H., Meignen L., Rak Y., Tchernov E., Tillier A. M., Vandermeersch B., 1985, C. R. Acad. Sci. Paris, 300, série II, 227.

Bar Yosef O., Vandermeersch B., 1981, « Note concerning the possible age of the Mousterian layers in Qafzeh cave », in J. Cauvin et P. Sanlaville eds., Préhistoire du Levant, Paris, Ed. du CNRS, 281-285.

Bar Yosef O., 1988, « The date of South-West asian Neandertals, in L'homme de Néandertal, 3, l'Anatomie, Liège ERAUL, 31-38.

Boule M., 1911-1913, Annales de Paléontologie, VI, 111, VII, 21, et VIII, I.

Condemi S., 1985, « Les hommes fossiles de Saccopastore (Italie) et leurs relations phylogénétiques », Thèse, Paris, 1979.

Coon C. S., 1939, « The races of Europe », New York, Macmillan.

Dobzhansky T., 1944, Am. J. of Phys. Anthrop., n.s., 2, 251.

Garrod D. A., Bate D. M. A., 1937, « The Stone Age of Mount Carmel I: excavations at the Wadi-elMughara », Oxford, Claradon, 240 p.

Haas G., 1972, Paleovertebrat, 5, 261.

Howell F. Clark, 1959, « Upper Pleistocene Stratigraphy and early man in Levant », Proceedings of the American Philosophical Society, 103, n° 1, 1-65.

Hrdlicka A., 1930, « The skeletal remains of early man », Smithson Mixell coll., 83, 3033, Washington, 379 p.

Jelinek A., 1982, Science, 216, 4553, 1369.

Keith A., 1927, « A report on the Galilee skull », in Turville Petre, Researches in Prehistoric Galilee, 19251926, British School of Archeology in Jerusalem, 119 p.

Keith A., McCown T. D., 1937, « Mount Carmel man: his bearing on the ancestry of modem races », in G. G. McCurdy ed., Early Man., Philadelphie, E. B. Lippincolt, 362 p.

McCown T. D., Keith A., 1939, « The Stone Age of Mount Carmel », 2, The fossil human remains from the Levalloiso-Mousterien, Oxford, Clarendon, 390 p.

Sergi S., 1947, Sulla morfologia della "facies anterior corporis maxillae" nei paleantropi di Saccopastore e del Monte Circeo., Rivista de Antropologia, XXXV, 401.

Solecki P., 1960, « Three Adult Neanderthal Skeletons from Shanidar cave », Northern Iraq. The Smithsonian Report for 1959, Smithsonian institution, 4414, 603-635.

Solecki P., 1964, « Shanidar cave, a late Pleistocene Site », in Northern Iraq, VIth internat. Congress of Quaternary, Varsovie 1961, VI, 413-423.

Suzuki H., Takai F., 1970, « The Amud man and his cave site », University of Tokyo, 439 p.

Tchernov E., 1984, « Faunal Turnover and Extinction Rate in Levant », in P. S. Martin and R. G. Klein eds., Quaternary extinction a Prehistoric Revolution, The University of Arizona Press, Tucson, 528-552.

Thoma A„ 1957-1958, L'Anthropologie, 61, n° 5-6, et 62, n° 12, 30.

Thoma A., 1962, Anthrop. Hungar, V, n° 1-2.

Thoma A., 1965, L'Anthropologie, 69, 519.

Trinkaus E., 1983, The Shanidar Neandertals, New York, Académie Press, 502 p.

Valladas H., Reyss J. L., Joron L., Valladas G., Bar Ysoef O., Vandermeersch B., 1988, Nature, 311, 614.

Valladas H., Joron L., Valladas G., Arensburg B., Bar Yosef O., Belfer-Cohen A., Goldberg P., Laville H., Meignen L., Rak J., Tchernov E., Tillier A. M., Vandermeersch B., 1987, Nature, 330, 159.

Vandermeersch B., 1981, « Les hommes fossiles de Qafzeh (Israël) », Paris, Ed. du CNRS, 319 p.

386


LA VIE DES SCIENCES

Face au comblement de la baie

du Mont-Saint-Michel :

recommandations en vue

de son aménagement

Jean DORST

Membre de l'Académie

Alain L'HOMER

Bureau de Recherches Géologiques et Minières, BP 6009, 45060 Orléans Cedex 2.

Le Mont-Saint-Michel et sa baie constituent un site unique en France et sans doute dans le monde. Haut lieu de l'esprit et de la culture universelle, il est aussi celui où s'affrontent la mer et la terre depuis des temps géologiques lointains. Les activités humaines ont gravement compromis un équilibre dynamique et une évolution naturelle, en provoquant une accélération du comblement de la baie par des sédiments que ne peuvent plus enlever ni les fleuves ni les marées. Le Mont risque de perdre à brève échéance son caractère insulaire, ce qui se traduirait par de profondes perturbations écologiques, affectant aussi bien la vie sauvage, marine et terrestre, que l'exploitation des ressources halieutiques ou agricoles.

Les pouvoirs publics responsables, aussi bien nationaux que locaux, sont conscients de l'importance du problème. Des projets d'aménagement sont à l'étude et devraient permettre de rétablir une situation plus conforme à l'évolution naturelle de milieux de grande importance sur le plan biologique. Ils font ici l'objet de l'analyse et de la critique d'une commission de l'Académie.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 5, p. 387-401


J. Dorst et A. L'Homer

Un site en constante évolution

Le Mont-Saint-Michel et sa baie constituent un site unique en France et à travers le monde, inscrit par l'UNESCO au Patrimoine mondial.

Cette vaste baie est en effet, sur le plan des phénomènes naturels, le théâtre d'un conflit majeur et permanent entre la mer et la terre, ce qui en fait un des plus beaux modèles de sédimentation et l'un des plus complexes. Sans cesse remaniée par le jeu des marées et des courants, et par le dépôt consécutif d'impressionnantes masses de sédiments qui en modifient les contours, elle a aussi subi depuis des siècles l'influence des activités de l'homme qui a tiré parti de ses richesses naturelles. Son importance biologique est considérable, car elle héberge une faune marine remarquablement diversifiée et sert de relais de migration et de lieu d'hivernage à de très nombreux oiseaux, canards et petits échassiers, venus du nord et de l'est de l'Europe. Par ailleurs, l'exploitation des ressources marines, poissons, moules, huîtres, et des ressources terrestres par l'agriculture et l'élevage (agneaux de pré-salé) joue un rôle évident dans l'économie de la région.

La baie du Mont-Saint-Michel est également un haut lieu de la culture, avant tout par son abbaye, mais aussi par les autres monuments issus du génie humain qui jalonnent ses approches. Il est superflu d'évoquer la superbe harmonie du site et la manière dont l'abbaye et sa flèche s'inscrivent dans un paysage dominé par un vaste horizon.

La beauté de la baie et sa richesse archéologique en font un des lieux les plus fréquentés en France par des touristes venus d'Europe et du monde entier. On estime que quelque 1 800 000 visiteurs s'y pressent chaque année. L'économie du seul Mont bénéficie d'un apport d'environ 200 millions de francs par an venant du tourisme, auxquels il faut ajouter les ressources que laisse celui-ci dans une région allant de Cancale au Cotentin.

Or, à l'heure actuelle, ce site prestigieux, oeuvre de la nature et des hommes, se trouve gravement menacé dans son originalité même : le Mont risque de perdre à brève échéance son caractère insulaire. En même temps la région tout entière pourrait se voir privée d'une partie significative de ses ressources biologiques et économiques; cela du fait d'une accumulation accélérée des sédiments amenés par la mer, consécutive à l'action humaine.

Certes le destin de beaucoup de baies est d'être progressivement comblées par le jeu de la sédimentation, quitte à ce que, à la phase suivante, la mer regagne sur la terre. Mais le phénomène est à l'échelle des millénaires, voire des temps géologiques. Il est bien connu que les marées charrient d'une manière différentielle les sédiments, en apportant souvent plus qu'elles n'en enlèvent. La configuration de la baie du Mont-Saint-Michel ralentit à l'état naturel les processus de comblement d'une manière appréciable. Les marées de vives-eaux — et la baie est un des lieux de nos côtes où les marées sont exceptionnellement fortes, atteignant 15 mètres en marée de vives-eaux - enlèvent des quantités considérables de sédiments. Dans les conditions originelles, en remontant loin dans les lits des fleuves côtiers, elles déterminaient au reflux de forts courants qui emportaient une grande partie des solides amenés par le flux. Par ailleurs les fleuves côtiers — le Couesnon, la Sélune et la Sée —, renommés pour leur cours puissant et capricieux, avaient des effets de chasse d'eau. Leurs divagations naturelles balayaient l'ensemble de la baie.

Ce jeu naturel a été très sérieusement modifié par les interventions humaines dont les premières remontent au XIe siècle et qui seront poursuivies aux siècles suivants par la


I

a

a.

La Baie vue du satellite Spot (enregistrement du 9.6.86). - Taitement BRGM du 19.3.87 avec accentuation des contrastes dans le canal infrarouge.


J. Dorst et A. L'Homer

construction de digues. Nous ne mentionnerons que pour mémoire, car cela n'intervient pas dans le débat actuel, le projet aujourd'hui abandonné d'aménagement d'une usine marémotrice par le barrage de la baie tout entière entre les pointes qui la limitent à l'ouest et à l'est. Les travaux ayant causé les perturbations majeures remontent à la seconde moitié du XIXe siècle, du fait du perfectionnement de la technologie et notamment des activités de la Compagnie des polders de l'ouest. N'est-elle pas allée jusqu'à envisager l'assèchement d'une bonne partie de la baie? La construction de deux digues, l'une partant de la chapelle Sainte-Anne de Bretagne, l'autre de la pointe de la Roche-Torin, en Normandie, était initialement prévue. Finalement, seules les grèves situées à l'ouest du Mont seront conquises, ce qui a permis de gagner 2450 hectares de polders, excellentes terres agricoles.

D'autres travaux encore plus dommageables au site ont été entrepris à diverses époques : canalisation du Couesnon (1858); construction de la digue-route reliant la côte au Mont (1879); déviation des lits de la Guintre et de l'Huisne (1879-1884); construction de deux barrages sur la Sélune (1919-1931); construction d'un barrage sur le Couesnon, au lieu-dit la Caserne (1968).

A ces actions de l'homme, il convient d'ajouter l'arrêt des prélèvements de tangue, surtout formée de sédiment fin, riche en calcaire et utilisée comme amendement des terres acides jusqu'au début de ce siècle. Le chiffre de 500 000 mètres cubes prélevés chaque année, une estimation datant de 1853, indique combien cette action humaine contribuait à compenser, et donc à retarder, les processus naturels de colmatage dans la baie.

Ces divers aménagements ont précipité l'ensablement de la baie, en modifiant profondément le processus de sédimentation et en empêchant la mer de tourner autour du Mont. Son accélération date du siècle dernier et a donné lieu depuis cette époque à de virulents débats. Dès 1884, Victor Hugo prenait la défense du Mont devant la Chambre des députés, en déclarant :« Le Mont-Saint-Michel est pour la France ce que la grande pyramide est pour l'Egypte. Il faut le préserver de toute mutilation. Il faut que le MontSaint-Michel reste une île. Il faut conserver à tout prix cette double oeuvre de la nature et de l'art. » Selon les spécialistes, les divers grands travaux entrepris dans la baie ont occasionné le dépôt supplémentaire de 100 millions de mètres cubes de tangue et de sable en un siècle.

De la modélisation aux premiers projets

Depuis cette époque, les craintes que l'on pouvait formuler se sont progressivement accrues. Ce n'est qu'en 1970 que les plus hautes autorités de l'État se sont penchées pour la première fois sérieusement sur le problème et qu'à leur initiative des études furent entreprises pour évaluer la situation et déterminer les causes de l'ensablement accéléré sur des bases objectives. Divers relevés effectués dans la baie ont montré que, depuis le début du siècle, les fonds se sont élevés de près de 3 mètres autour du Mont et que la superficie des herbus a progressé en moyenne de 30 hectares par an au cours des trente dernières années. A ce rythme, le Mont risque à brève échéance d'être pris dans une tenaille sédimentaire et de perdre ainsi irrémédiablement son caractère insulaire. Des recherches entreprises sur des modèles, l'un au 1/500 en plan et 1/70 en hauteur, par le Laboratoire central d'hydraulique de France, et plus récemment par le Service de la


Carte morphologique de la baie (A. l'Homer et al., 1982).


J. Dorst et A. L'Homer

navigation en Seine (Maisons-Alfort et Paris), ont confirmé les résultats des enquêtes menées sur place. Ainsi près de 15 millions de mètres cubes de sédiments se déposeront dans la baie de 1978 à 1991, enserrant le Mont dans une masse émergeant de 2 à 3 mètres tout autour.

La modélisation a permis d'étudier l'impact des diverses interventions possibles destinées à inverser la tendance actuelle. La simple suppression de certains ouvrages ne permettra plus, à elle seule, de rétablir la situation. Il conviendra impérativement de créer des structures nouvelles capables d'accumuler des masses d'eau de mer importantes à marée haute. Au reflux, celles-ci formeraient des courants assez puissants pour refouler au large les sédiments apportés par le flux, véritables chasses d'eau régularisant les dépôts.

Il s'agit donc en quelque sorte de restaurer l'oeuvre de la nature, sans pour autant rétablir les inconvénients des conditions originelles. On ne pourra pas revenir sur la canalisation du Couesnon et son aménagement par des barrages destinés à protéger la ville de Pontorson et les terres agricoles riveraines des inondations et de l'atteinte des eaux salées; ni supprimer la digue-route, ce qui dans l'état actuel des choses léserait les activités touristiques et provoquerait une vive hostilité de ceux qui en vivent (il ne faut pas pour autant abandonner l'idée de sa profonde modification à long terme). D'ailleurs, de telles mesures seraient certainement inefficaces et n'empêcheraient pas le dépôt accéléré de sédiments, la modélisation l'a clairement démontré.

Tout projet d'aménagement doit donc tenir compte des processus naturels du circuit des eaux marines et des eaux douces, et de l'équilibre du dépôt des sédiments amenés par la mer. Il doit aussi prendre en considération la sécurité des riverains et des visiteurs. Par ailleurs il ne doit pas nuire, par la construction de grands ouvrages, à l'harmonie d'un paysage prestigieux, tout en lignes horizontales. Il est à préserver au même titre que la nature et que les intérêts économiques de la région.

Les aménagements proposés, loin d'avoir été arrêtés dans leur forme définitive par les pouvoirs publics, comprennent essentiellement la construction de deux barrages sur le Couesnon, l'un remplaçant l'actuel barrage de la Caserne, l'autre situé plus en amont constituant une protection de la ville de Pontorson et permettant de moduler le volume de l'eau accumulée en fonction des circonstances. L'aménagement d'un canal latéral de sécurité destiné à évacuer le surplus d'eau fluviale en cas de conjonction de débits importants du fleuve et de fortes marées fait partie des propositions. Le fonctionnement de cet ensemble sera bien entendu géré par voie informatique en fonction des diverses données hydrauliques. Par ailleurs il a été envisagé de réaliser deux réservoirs à marée à l'est du Mont, capables d'accumuler, lors des marées de fort coefficient, un volume important d'eau de mer, qui sera libérée au moment le plus opportun.

Ces propositions ont été examinées par la commission de l'Académie, qui a été amenée à faire plusieurs observations et recommandations, dont voici l'essentiel.


HT

a

Extension des herbus à l'est du Mont (état 1989) depuis la phase de recul de 1952. (d'après carte 1/25.000 et mission aérienne ING 1989).


J. Dorst et A. L'Homer

L'aménagement du Couesnon

Barrage aval

On doit se féliciter de l'initiative d'élargir la partie terminale du canal du Couesnon, disposition conforme à l'évolution naturelle de tout estuaire. La largeur du nouveau barrage et sa conception permettront de balayer plus largement, tout en recréant une certaine mouvance dans la trajectoire des écoulements en aval. Au passage il convient de féliciter l'architecte pour l'élégance discrète du barrage projeté.

Barrage amont

Il paraît indispensable de l'établir en tout état de cause le plus en amont possible en accord avec les prévisions de la modélisation. On note en effet que la position retenue actuellement, vis-à-vis de Beauvoir, ne permettra d'emmagasiner qu'un million de mètres cubes d'eau de mer, volume nettement inférieur à celui accepté dans l'estuaire du Couesnon aux marées supérieures au coefficient 110, avant la construction du barrage de la Caserne (environ 1,3 million de mètres cubes). Il convient de rappeler que ce volume, aboutissement d'une dégradation progressive du Couesnon, ne suffisait déjà plus pour contrecarrer le colmatage progressif du cours estuarien.

Utilité du barrage amont

Les études sur modèle ont montré que la conjonction entre marées de vives-eaux et fortes crues du Couesnon est faible. On sait par ailleurs que le dispositif de gestion du barrage aval permettra fort intelligemment de ne pas admettre les eaux de mer le cas échéant. On ne peut que s'interroger, dans ces conditions, sur le caractère indispensable du barrage amont. Ajoutons que si on laissait l'eau de mer remonter dans le Couesnon, on disposerait alors de 1,3 à 1,6 million de mètres cubes suivant la force des marées, ce qui serait fort utile pour effectuer des chasses de plus longue durée que prévu et par conséquent plus efficaces en aval du Mont.

Si toutefois le barrage amont était maintenu, il devrait être implanté en deçà de Moindrey, de manière à ne pas bloquer les diverses possibilités d'aménagement ultérieur de cette zone qui a constitué jadis un bassin de chasse naturel.

Incidences sur la nappe phréatique

Un des problèmes auxquels se sont trouvés confrontés les auteurs du projet d'aménagement concerne le risque de pollution des terrains des polders lors de la période de stockage des eaux marines dans le bassin à marées du Couesnon. Si, en période d'étiage, il existe un risque réel de pollution par l'imprégnation des terrains par les eaux salées le long des deux rives du Couesnon dans la zone du futur bassin, ce risque est pratiquement nul en période de hautes eaux, car les terrains sont déjà gorgés d'eau douce.


Face au comblement de la baie du Mont-Saint-Michel

Remarques sur les chasses d'eau et leurs effets

Les périodes les plus favorables aux chasses érosives coïncident avec celles où les nappes phréatiques sont au plus haut et quand les terrains constitutifs des prés-salés ou « herbus » sont imprégnés d'eau. C'est alors que les processus d'érosion sont les plus actifs. Les courants engendrés, soit par le; eaux des rivières en crue, soit par les eaux marines au reflux, érodent alors simultanément le fond du lit et ses rives, en sapant les talus à leur base. Cette conjoncture favorable se produit principalement à la fin de l'automne et au début du printemps. A l'inverse, les vases déposées sur la slikke — zone caractérisée par des vases non colonisées par la végétation halophile (« mudflats ») située le plus souvent entre le bas schorre (voir définition plus loin) et le zéro des cartes marines —, puis durcies par le soleil en été, s'érodent difficilement.

Il faut faire prévaloir les chasses longues, car les chasses brutales préconisées après le retrait complet des eaux de jusant font craindre des affouillements aussi néfastes que dangereux, immédiatement en aval du barrage, avec constitution de vastes et profondes « caves », alors qu'il faut agir le plus en aval possible, aux abords du Mont. Nous préconisons plutôt des chasses longues par vannes de fond avec lâchers augmentant progressivement de manière à prendre le relais de la fin des courants de jusant et prolonger leurs effets (lâchers de 2 heures à 2 heures et demie après l'étale de pleine mer).

Il convient aussi de se préoccuper des problèmes de sécurité. Les riverains de la baie ont évoqué les risques que les chasses brusques feraient courir aux promeneurs, aux pêcheurs à pied et aux embarcations se trouvant en aval du barrage. Des chasses trop brutales compromettraient tout autant l'équilibre biologique au débouché de l'estuaire du Couesnon. Notons encore que le spectacle des chasses les jours de grande marée en été ne pourrait qu'accroître l'afflux de visiteurs, ce qui n'est nullement souhaitable, compte tenu du peu d'espace disponible au début de la digue.

De tout ce qui précède, il apparaît que ce sont les chasses d'été qui auront le moins bon rendement érosif tout en présentant le plus d'inconvénients pour les terres agricoles, et de risques pour les personnes se déplaçant aux abords de l'estuaire. C'est pourquoi nous recommandons l'interruption des chasses durant la période estivale, laquelle coïncide grosso modo avec la période d'étiage.

Canal latéral ou « contre-canal »

Sa principale justification est de créer un écran d'eau douce s'opposant à la pénétration des eaux salées dans la nappe aquifère des polders de l'ouest. Si l'on accepte la position définie précédemment : ne stocker des eaux de mer dans le bassin à marées du Couesnon que lorsque la nappe phréatique est haute et que les terrains ont un fort taux d'imprégnation en eau douce, on peut s'interroger sur l'utilité de ce canal. En le supprimant, on réduirait la surface des terres agricoles à exproprier et la dépense inhérente à ce dispositif.


Réduction successives des capacités de chasse du Couesnon depuis sa canalisation en 1858 (Marées de coefficients * 100).


Face au comblement de la baie du Mont-Saint-Michel

Évolution de la partie terminale de l'estuaire du Couesnon depuis la construction du barrage de la Caserne (1969).

(a) Vue prise du barrage en 1971. Deux ans après sa construction, l'impact du barrage se traduit par d'épais dépôts de vases esturiennes (dénommées « Tangues »).

(b) Vue prise du barrage en 1979. Dix ans après la construction de l'ouvrage les dépôts de vase accumulés se sont couverts d'herbes.

(c) Vue aérienne prise en 1988 à la verticale du barrage. Les traces des anciennes limites de l'estuaire se distinguent encore, tandis que le cours du Couesnon s'est réduit à celui d'une rivière méandriforme.

397


J. Dorst et A. L'Homer

Les bassins à marée de l'est

Une des conclusions du rapport du Laboratoire central d'hydraulique de France, datant de 1977, préconisait la construction et l'aménagement de deux réservoirs à marée à l'est du Mont.

Ces aménagements sont mal acceptés localement. Ils présentent plusieurs inconvénients : coût élevé, entretien régulier nécessaire et fort coûteux par suite du colmatage; nuisance pour le site et pour les riverains. De plus les études sur modèle réduit ont montré que de vastes et dangereuses « caves » se produiraient par affouillement au sein des herbus, aux débouchés des canaux de chasse des bassins.

Il paraît tout aussi efficace et moins perturbant pour le site de retracer les larges ruisseaux du schorre (désigné aussi sous le nom plus commun d'herbus ou prés-salés [salt marshes]; partie supérieure de la zone de balancement des marées, colonisée par une végétation halophile; les schorres présentent une zonation végétale déterminée par la durée d'inondation à chaque marée), orientés suivant la direction des vents dominants, de manière à ralentir les processus de colmatage.

Ces larges ruisseaux, alimentés par la collecte des eaux de surface ou de marée et par le drainage des eaux de la nappe, pourraient être transformés par la suite en petits estuaires s'ils étaient reconnectés aux cours d'eau qui se déversaient le long de ce rivage avant d'être détournés en 1886 vers le Couesnon et la Sélune. La restauration et la permanence de ces estuaires dirigés vers le Mont assureront à coup sûr l'abaissement des grèves dans ce secteur.

La digue-route

Les avis des spécialistes sont partagés sur les effets d'une coupure de la digue pour améliorer l'environnement maritime du Mont.

Ce problème et celui, lié d'un accès du Mont satisfaisant pour tous, devraient être abordés à nouveau, dès que seront constatés, sur le terrain, les effets des chasses du Couesnon et du nouveau réseau hydrographique à l'est du Mont.

Amélioration du dispositif de stationnement

Dans un souci d'amélioration des conditions de sécurité et de meilleure organisation de l'accueil des visiteurs, notamment en été et lors des grandes marées, l'aménagement d'aires de stationnement supplémentaires situées à proximité du début de la digue est vivement recommandé.

Impact biologique des aménagements de la baie

Par ailleurs il faut insister sur l'influence de l'actuel comblement de la baie sur l'environnement naturel et agricole de toute la région, comme sur celle que pourraient avoir les travaux à entreprendre pour en contrer les effets.


Face au comblement de la baie du Mont-Saint-Michel

La baie et les terres qui l'entourent abritent des écosystèmes d'une remarquable diversité, tous riches et complexes, entre lesquels existent de multiples interactions. Les écosystèmes marins sont animés par une faune abondante et bien diversifiée, pour une bonne part de grande importance économique, pêcheurs et conchyliculteurs en étant les utilisateurs depuis longtemps. La baie est aussi le territoire d'hivernage ou le relais de migration de nombreux oiseaux venus du nord et de l'est de l'Europe, ce qui lui a valu d'être classée parmi les zones humides d'importance internationale. Des activités de chasse y trouvent leur place légitime. Elle fait aussi partie du Patrimoine mondial tel qu'il est défini par l'UNESCO, nous le rappelons ici. Il serait à ce propos hautement souhaitable que le statut de ce classement fasse l'objet d'une réglementation officielle, ce qui comblerait un vide juridique regrettable.

Il conviendra, certes, d'attendre les conclusions définitives d'une étude d'impact biologique dont a été chargé Jean-Claude Lefeuvre, professeur au Muséum national d'histoire naturelle et à l'université de Rennes-I, pour se faire une opinion fondée sur des données précises. Celui-ci a bien voulu nous faire part de quelques-unes de ses réflexions que nous résumons ci-dessous. Si les tendances évolutives actuelles continuent à se manifester au cours du siècle à venir, le niveau du fond dans la partie ouest de la baie, où se situent les parcs à huîtres et les bouchots, se trouvera exhaussé d'une quarantaine de centimètres. Dans la partie estuarienne, selon les termes de J.-C. Lefeuvre, un dépôt de 130 millions de tonnes de sédiments entraînera un exhaussement moyen de 2 mètres des fonds de la zone intertidale et un accroissement de 3 000 hectares de la surface du schorre. La disparition corrélative de la slikke n'aurait sans doute que peu de répercussions sur la faune benthique de mollusques, d'annélides et de petits crustacés, cette faune n'ayant d'ailleurs qu'une faible biomasse. En revanche elle aurait de graves répercussions sur l'avifaune hivernante. Or il ne faut pas oublier que la baie du Mont-Saint-Michel est une zone de grande importance pour ces oiseaux, petits échassiers, Anatidés et Laridés, ce qui l'a fait classer au titre du projet international MAR, confirmé par la directive européenne relative à la conservation de la faune sauvage. Le stationnement des oies bernaches et de nombreux canards en hiver se trouverait compromis, tout comme celui des tadornes, une espèce particulièrement sensible qui exploite la slikke, il faut le répéter.

Schéma d'aménagement du Couesnon (projet présenté en 1988).

399


J. Dorst et A. L'Homer

Le paysage botanique risque tout autant de se modifier dans de larges proportions. Les hautes slikkes sont couvertes de groupements de salicornes (Salicornia dolichostachya) et de spartines (Spartina anglica), et le schorre par des pelouses de Puccinellia maritima, les prés-salés caractéristiques de la baie, pâturés par des moutons célèbres parmi les ovins. L'exhaussement pourrait permettre l'extension de roselières à Phramites australis, Scirpus maritimus, Juncus Gerardi et Carex extensa, puis de prairies de graminées telles que Festuca rubra, qui donneraient aux herbus un avenir incertain. Ces modifications des groupements végétaux auraient aussi des répercussions fâcheuses, par voie de conséquence, sur la répartition des animaux marins se trouvant à leur voisinage, en particulier les crustacés, mais aussi sur les oiseaux, bernaches et canards siffleurs pâturant les schorres et les abandonnant dès qu'ils sont remplacés par des peuplements de graminées, Festuca et Agropyrum.

En revanche ces modifications ne devraient avoir que des effets mineurs sur la productivité secondaire de la baie, en particulier sur les « nurseries » de soles, raies, merlans, crevettes et seiches.

Il convient donc, pour des raisons relevant aussi de la stricte biologie, de veiller à éviter un comblement accéléré de la baie, nuisible à l'équilibre de la faune sauvage comme des intérêts agricoles de cette région.

Nous ne pouvons préjuger des conséquences à long terme d'une évolution naturelle des climats, spontanée ou en partie provoquée par l'homme. Mais pour une fois raisonnons à court terme, à l'échelle de notre génération et de celle qui la suivra. La baie du MontSaint-Michel est en train de se combler, un phénomène sans doute en partie naturel par suite de l'évolution des processus de sédimentation, mais aussi et surtout d'une accélération consécutive aux activités humaines. C'est à celle-ci que nous devons nous attacher de manière à ne pas contribuer à la dégradation d'un site naturel prestigieux, qui est en même temps un haut lieu de l'esprit.

Résolutions

A l'issue de ses travaux, la commission de l'Académie des Sciences, à laquelle s'était joint Germain Bazin, au nom de l'Académie des Beaux-Arts, réunie pour étudier le maintien du caractère maritime du Mont-Saint-Michel et les projets d'aménagement de la baie, a envisagé avec faveur certaines des propositions dont elle a pris connaissance. Elle a tiré quelques recommandations de ses travaux. Adoptées par l'Académie, celles-ci ont été transmises aux autorités responsables, du chef de l'État aux ministres et aux présidents des collectivités locales intéressées. Ces recommandations, que la commission a voulues aussi générales que possible dans leur esprit, s'énoncent comme suit :

1. L'Académie des Sciences souhaite que l'implantation du barrage amont du réservoir d'eau de mer projeté sur le Couesnon soit repoussée plus au sud de manière à emmagasiner un volume d'eau au moins égal et si possible supérieur à celui que l'estuaire du fleuve acceptait avant la construction du barrage au lieu dit la Caserne.


Face au comblement de la baie du Mont-Saint-Michel

2. Pour des raisons de sécurité, elle demande que soit examinée la possibilité d'interrompre les chasses d'eau durant la période estivale. Cette disposition aurait de plus l'avantage de permettre l'économie du canal latéral, si l'on admet que les risques de pollution des nappes des polders de part et d'autre du Couesnon ne sont à craindre que pendant la période d'étiage.

3. Elle insiste sur la nécessité d'une gestion hydraulique attentive des aménagements projetés, assurant sa régularité en fonction des conditions du milieu.

4. Elle propose que soit recherchée activement une solution de rechange aux bassins à marée projetés à l'est du Mont. A cette solution coûteuse, tributaire de travaux de curage fréquents, de plus susceptible de déparer le site, elle préfère un aménagement plus naturel qui verrait converger à l'est du Mont une partie des cours d'eau du littoral détournés au siècle dernier.

5. Elle encourage le prélèvement de tangue, qui permettrait de dégorger certaines parties de la baie tout en s'intégrant dans l'économie agricole par l'amélioration des terres, telle qu'elle fut pratiquée jadis.

6. De manière à assurer un accès convenable et pratique au Mont les jours de grande affluence, elle recommande vivement la création d'aires de stationnement supplémentaires à proximité de l'accès de la digue sur la côte, desservies par des navettes.

Ce texte résulte des travaux d'une commission de l'Académie des Sciences, à laquelle s'est joint G. Bazin au nom de l'Académie des Beaux-arts. Elle comprenait J. Blamont, P. Bouvarel, P. Fillet, J. Flahaut, C. Guillemin, P. Lacombe, G. Millot et G. Pedro, réunis sous la présidence de J. Dorst. Elle a bénéficié du concours de A. L'Homer, du BRGM, venu exposer l'ensemble de la situation sédimentologique et les moyens susceptibles de pallier les effets préjudiciables au caractère de la baie. Le présent texte, remanié et complété, résume les conclusions de la commission. Il tient compte des nombreuses publications et des avis de J. Doulcier, Y.-M. Froideveaux, C. Larsonneur et C. Migniot, ainsi que de longs entretiens avec Y.-M. Perrin, vice-président délégué du Conservatoire de la baie du Mont-Saint-Michel, et J.-C. Lefeuvre.

401



LA VIE DES SCIENCES

Le dernier pli cacheté de Louis Pasteur à

l'Académie des Sciences

(suivi du jugement inédit de Pasteur

sur les travaux d'Emile Duclaux

consacrés aux vers à soie)

Richard MOREAU

Université de Paris-XII,

UFR de Sciences, Microbiologie appliquée,

av. du Général-de-Gaulle, 94010 Créteil Cedex

Comme il était annoncé dans la Chronique des Plis cachetés ouverts en 1988 (cf. La Vie des Sciences, 5, n° 6, p. 481) les documents déposés par Louis Pasteur le 26 juillet 1869 ont donné lieu à une étude approfondie afin d'éclairer les circonstances dans lesquelles le célèbre savant a été amené à user une fois encore, et la dernière, de la procédure de dépôt d'un pli cacheté, et de comprendre le plus exactement possible pourquoi l'auteur a négligé par la suite de se préoccuper du contenu de ce pli. Cette négligence fournit en fait aujourd'hui un témoignage précis sur l'embarras qui fut celui de Pasteur en acceptant de traiter de la maladie des vers à soie, sujet entièrement neuf pour lui et dans l'étude duquel il fut considérablement gêné par son propre état de santé. Mais de plus, une comparaison avec les cahiers de ses collaborateurs, notamment Emile Duclaux, montre combien Pasteur fut dépendant de leurs observations. En définitive le «paquet cacheté » de juillet 1869, dont le non-retrait a conduit à l'ouverture 130 ans plus tard, révèle des éléments inconnus très importants pour l'appréciation de l'histoire et de la méthode du chef d'équipe que fut Pasteur.

La Vie des Sciences, Comptes rendus, série générale, tome 6, 1989, n° 5, p. 403-434


R. Moreau

Le paquet cacheté

Le 18 février 1988, la Commission des Plis de l'Académie ouvrait un « paquet cacheté » que Pasteur avait déposé le 26 juillet 1869 entre les mains du Secrétaire Perpétuel L. Elie de Beaumont. Après avoir utilisé trois fois cette procédure au début de sa carrière, Pasteur n'y revint que cette ultime fois, dans les circonstances que nous allons examiner.

Dans la note terminale du chapitre III de la partie consacrée à la pébrine (De la nature des corpuscules et de leur mode de génération) de son livre Études sur la maladie des vers à soie. Moyen pratique assuré de la combattre et d'en prévenir le retour, qui sortit des presses au cours du premier semestre de 1870 chez Gauthier-Villars, Pasteur s'expliqua sur l'origine de ce paquet cacheté : « Le n° 2 du Journal séricicole (Oesterreichische Seidenbau-Zeitung) publié à Goritz (Basse-Autriche), par le Dr Haberlandt, porte la date du 15 juillet 1869. Je l'ai reçu à Paris cinq jours après, le 20 juillet. Ce numéro, traitant de la nature des corpuscules (F. Haberlandt et E. Verson. Vorläufige Mittheilung ùber die Ergebnisse der Forschungen an der k. k. Seidenbau-versuchsstation. Die Natur des Körperchen Cornalias und ihre Entwicklung betreffend) et annonçant, sur ce point, la publication d'un Mémoire plus étendu, j'ai dû établir l'indépendance de mes observations et de celles de MM. Haberlandt et Verson. Dans ce but et pour écarter tout débat de priorité, s'il y avait lieu, j'ai déposé à la séance du lundi suivant, 26 juillet, entre les mains du Secrétaire Perpétuel de l'Académie des Sciences, un paquet cacheté (fig. 1) renfermant entre autres les dessins originaux et les photographies prises au microscope, insérés au présent chapitre, accompagnés de légendes descriptives, faisant connaître tous les faits exposés dans ce chapitre (1). J'ai joint, en outre, aux planches (et figures) dont il s'agit, une planche représentant les vibrions de la flacherie sous leurs deux modes de reproduction, par scission et par noyau ainsi que la résorption de la matière du vibrion entourant les noyaux intérieurs (rappelant la forme des corpuscules de la pébrine et un peu leur volume et leur éclat), ainsi que la résorption graduelle de la matière du vibrion entourant le noyau brillant. Je fais remarquer que ces corpuscules brillants n'ont aucun rapport quelconque avec les corpuscules de la pébrine, mais qu'ils constituent un mode particulier de reproduction des vibrions. Dans la Note que je viens de rappeler, MM. Haberlandt et Verson me paraissent avoir confondu les corpuscules brillants des vibrions, tantôt avec un des ferments de la flacherie, celui que j'ai désigné sous le nom de ferment en chapelets de grains, tantôt avec les corpuscules de la pébrine. Sur les points où ces savants bacologues sont en désaccord avec moi, je maintiens l'exactitude de mes observations. »

La Commission des Plis a trouvé dans le paquet : une courte introduction, les microphotographies et les dessins annoncés, établis par P. Lackerbauer, dessinateur habituel de Pasteur. Chaque document était accompagné d'une légende rapide, écrite de la main de Madame Pasteur semble-t-il. Les légendes du pli ont été rédigées sur des morceaux de papier cousus avec chaque cliché ou figure. Le paquet présentait la mention : « Paquet cacheté déposé dans la séance du 26 juillet 1869 de l'Académie des Sciences par Mr Pasteur, membre de l'Académie. Ce 26 juillet 1869. L. Pasteur (2). » Par contre l'acceptation du dépôt par le Secrétaire Perpétuel mentionne : « Séance du 25 juillet 1869. Le dépôt (sic) est accepté. L.E.d.B. » Ces textes sont reproduits ci-dessous avec, pour comparaison, les légendes ou commentaires que retint Pasteur dans ses Études sur la maladie des vers à soie... J'ai renvoyé à l'édition Pasteur-Vallery-Radot des OEuvres,


Un pli cacheté de Louis Pasteur

plus facile à consulter que l'édition originale de 1870 et qui regroupe un grand nombre de documents sur le sujet.

Textes de Pasteur

I. Note introductive

J'ai l'honneur de déposer sur le bureau de l'Académie un paquet cacheté renfermant des dessins et des photographies prises au microscope accompagnés de légendes. Ces dessins, photographies et légendes font connaître les modes de multiplication et la génération complète des corpuscules de la pébrine ou corpuscules de Cornalia [..] ( 3) et des vibrions des morts-flats (4). Ils font connaître également diverses erreurs qui sont renfermées dans une publication de MM. Haberlandt et Verson, insérée à la date du 15 juillet 1869 dans le n° 2 du Journal sèricicole d'Autriche. Cette communication contient plusieurs assertions qui paraissent exactes touchant la génération des corpuscules. Les dates des dessins et photographies ci-joints prouvent que dès les mois de mars et de mai 1869 j'avais constaté les faits correspondant à ces assertions et reproduit ceux-ci par la photographie.

Ce 26 juillet 1869 L. Pasteur (5).

Fig. 1. - Paquet cacheté de Pasteur : suscription du pli, numéro du dépôt et acceptation du Secrétaire perpétuel, L. Elie de Beaumont.

405


R. Moreau

//. Légendes des microphotographies et des dessins annexés au pli cacheté

1. Photographies

(a) Photographie (mars 1869), publiée par Pasteur comme illustration de la note de la page 114 de l'ouvrage sur les vers à soie.

Légende du pli :

N° 15

- Cristaux des tubes de Malpighi à angles arrondis et simulant exactement la forme

des corpuscules. On les distingue de ces derniers, 1° par l'acide chlorhydrique faible

qui les dissout immédiatement, 2° en les faisant pirouetter (6). Si c'est un cristal, la

tranche est rectiligne, si c'est un corpuscule, on voit toujours la forme ovale ou la

forme circulaire suivant que le corpuscule pirouette autour de son grand axe ou son

petit axe.

Beaucoup de personnes confondent ces cristaux avec les corpuscules.

(De la main de Pasteur, grande écriture :) Photographie au microscope mars 1869.

(Sur la photographie pâlie :) à reproduire sans agrandissement. Retoucher les flous

en accusant les parties arrondies (fig. 2).

Texte de l'ouvrage (note 1, pages 114-115) :

L'examen des vers et des chrysalides jeunes peut donner lieu à une cause d'erreur contre laquelle il faut être en garde. Les tubes de Malpighi renferment, à l'ordinaire, des cristaux. Ces derniers ont parfois la forme et la dimension des corpuscules. Il faut craindre de confondre ces deux productions. L'habitude des observations microscopiques ne tarde pas à éveiller les doutes de l'opérateur. Il est facile de les lever en ajoutant à la préparation une très petite quantité d'un acide minéral qui dissout sur le champ les cristaux, mais ne détruit pas les corpuscules ; un autre moyen, encore plus simple, consiste à faire voyager doucement ( 7) les petits corps ovoïdes. Le corpuscule, en tournant sur lui-même autour de son grand axe, ne change pas de forme ; il se projette suivant un cercle quand il tourne autour de son petit axe. Si l'on a affaire à des cristaux, ceux-ci, en tournant sur eux-mêmes, se projettent suivant

406


Un pli cacheté de Louis Pasteur

une ligne droite. La figure ci-contre est une photographie de ces cristaux lenticulaires, au grossissement de 300 diamètres, pris dans un vers près de se chrysalider. Leur dimension et leur forme sont, comme on le voit, très semblables à celles des corpuscules. Ces faits ont donné lieu à plusieurs méprises, et je présume que c'est pour les avoir mal interprétés que certains observateurs ont prétendu que les corpuscules étaient une matière minérale cristalline. J'ai déjà présenté ces observations au Comice d'Alais, dans sa séance du 26 juin 1866.

[La communication en question fut présentée ensuite par Pasteur à l'Académie des sciences lors de sa séance du 23 juillet 1866. On verra mes commentaires plus bas.]

(b) Photographie (mars 1869) : difficilement lisible, ce pourrait être celle publiée page 139 de l'ouvrage sur les vers à soie.

Légende du pli : N°31

— Cellules génératrices des corpuscules les unes sphériques, d'autres ovales, en poires, de formes régulières ou irrégulières (fig. 3).

— Corpuscules ovales s'étranglant par le milieu. Mode plus rare de reproduction des corpuscules.

(Sur la photographie pâlie, de la main de Pasteur :) Photographie microscopique mars 1869 (grande écriture :) agrandir très bonnes parties. On verra ensuite.

Texte de l'ouvrage (page 139) :

La figure ci-après est une photographie microscopique représentant les corpuscules piriformes avec ou sans taches intérieures, et avec des degrés divers de visibilité. En outre, si l'on observe avec beaucoup d'attention toutes les parties de la figure,

Figs. 2 (page précédente) et 3. - Photographies originales du paquet cacheté (mars 1869) ;

- Cristaux des tubes de Malpighi (légende de Pasteur dans l'ouvrage publié : « Cristaux lenticulaires ayant la forme et les dimensions des corpuscules »).

— Cellules des corpuscules et corpuscules « étranglés » (absence de légende dans l'ouvrage).

407


R. Moreau

principalement celles du pourtour, on distingue bon nombre de cellules qui paraissent

être les premiers rudiments des corpuscules piriformes, car on voit tous les passages

de la forme ronde à la forme ovale renflée à une de ses extrémités. Dans ces cellules

qui, ce semble, ne font que commencer à apparaître, on ne voit encore ni vacuoles,

ni granulations distinctes.

[Ce commentaire est suivi immédiatement, dans l'ouvrage, de celui concernant le

dessin (a) ci-dessous].

(c) Photographie (mai 1869) sans numéro : très partiellement lisible (le réactif de

développement a cristallisé), elle parait celle de la page 146 de l'ouvrage sur les

vers à soie.

Légende du pli :

— Cellules génératrices des corpuscules traitées par l'eau iodée. Sottie en masse de

noyaux et de corpuscules des cellules déchirées.

(Sur la photographie, très pâle, de la main de Pasteur et d'une grande écriture :)

Photographie au microscope mai 1869.

Texte de l'ouvrage (pages 146-147) :

La figure ci-dessus représente l'effet de l'iode sur les cellules, leur désagrégation et le développement considérable des granulations ou autres formes rappelant de très petits corpuscules ovales, qui étaient sans doute en voie de formation dans certaines cellules. L'eau iodée, en agissant sur les corpuscules piriformes à vacuoles, met nettement en évidence, dans leur intérieur, un globulin paraissant collé contre la paroi, observation qui établit une nouvelle relation entre la cellule et le corpuscule piriforme.

2. Dessins

(Les trois premiers dessins suivants ont pour légende générale dans l'ouvrage de Pasteur : « Formation et développement des corpuscules. » Le quatrième et dernier concerne la flacherie.)

(a) Dessin identique à celui de la page 138 de l'ouvrage sur les vers à soie. Légende du pli (fig. A):

— Corpuscules en poires et autres avec noyaux intérieurs et noyaux sortants ou sortis.

— Corpuscules adultes.

— Cellules génératrices des corpuscules prises les unes dans les tubes de Malpighi, les autres dans la tunique externe de l'estomac après traitement par l'eau iodée.

— Corpuscules sortant des cellules avec noyaux intérieurs.

— Corpuscules dans l'intérieur des cellules.

— Cristal.

(Sur le dessin et de la main de P. Lackerbauer :)

(Rapport du dessin :) 580/1

(Au dessus du dessin :) St Hippolyte 20 mars 1869 et Alais 24 mai 1869.

(— à gauche du dessin :) (tiré?) des tubes de Malpighi.

(— à droite du dessin :) dans la tunique externe de l'estomac traité par l'eau iodée.

(Signature du dessin :) P.L. ad nat.

Texte de l'ouvrage (pages 138-139) :

La figure représente la tunique interne du canal intestinal d'un ver contagionné depuis vingt jours. On y voit : 1° des corpuscules ordinaires, ovoïdes, brillants, tels que tout le monde les a vus (groupe d); 2° des corpuscules ayant la forme de poires ou de gourdes avec une ou plusieurs vésicules ou vacuoles à l'intérieur (groupe b, b). Dans la vésicule on voit quelquefois un granulin ou nucléole, animé dans certains cas du mouvement brownien, ce qui prouverait un état fluide à l'intérieur de la vésicule; 3° en a est un semis de petits granulins qui sont ordinairement associés aux corpuscules pyriformes. On a figuré en c un corpuscule piriforme dans deux de ses positions. On voit que, dans la première, le granulin paraît être à l'intérieur, mais que, dans la


Un pli cacheté de Louis Pasteur

seconde, il est extérieur et comme fixé à la paroi du corpuscule. Enfin, la figure

montre çà et là des corpuscules piriformes paraissant pleins, homogènes, et sans

contenu apparent.

[Après avoir publié et décrit la photographie qui est probablement le n° 31 du paquet

(cf. ci-dessus), Pasteur redécrit le dessin de la page 138 dans les pages 139 et 140 qui

suivent :]

La figure représente, dans sa moitié de gauche, des corpuscules pris dans l'organe de

la soie. On y voit des corpuscules ovales, les uns très pâles et homogènes (un seul est

de cette dernière forme), d'autres également pâles, mais avec une ou plusieurs vacuoles,

des corpuscules piriformes, d'autres enfin ayant la forme brillante des corpuscules

Fig. 4. - Dessin original du paquet cacheté : corpuscules en poires... (page 138 de l'ouvrage de Pasteur, avec la légende : « Formation et développement des corpuscules »).


R. Moreau

ordinaires. Un de ces derniers est coudé. Mais ce qui frappe surtout l'attention, c'est une foule de cellules rondes, les unes paraissent pleines et homogènes, les autres finement granuleuses ; enfin, il en est beaucoup qui montrent dans leur contenu des formes plus ou moins accusées de corpuscules ovales, lesquels, à leur tour, ont des granulations dans leur intérieur. Tout annonce par conséquent que les corpuscules, du moins ceux qui sont encore très pâles et qui se trouvent libres en dehors des cellules, ont été engendrés dans celles-ci et que les granulins (nucléoles) de ces corpuscules sont en relation directe avec les granulations propres à ces mêmes cellules. La moitié droite de la même figure représente des corpuscules pris dans les tubes de Malpighi. On y retrouve, outre quelques cristaux propres à ces organes, les cellules homogènes ou granuleuses, etc., dont nous venons de parler (cellules b), des corpuscules ordinaires brillants, des piriformes avec granulins (corpuscules c). On aperçoit, en outre, çà et là, dans le champ, des granulins a dont l'aspect, l'éclat, la réfringence ressemblent complètement à ceux que l'on voit à l'intérieur des corpuscules piriformes.

Fig. 5. — Dessin original du paquet cacheté : corpuscules naissants... (page 141 de l'ouvrage de Pasteur, avec la légende : « Formation et développement des corpuscules »).


Un pli cacheté de Louis Pasteur

C'est ce qu'on a essayé de représenter en c, où il y a deux granulins semblables, l'un à l'extérieur, l'autre à l'intérieur d'un corpuscule en poire.

(b) Dessin identique à celui de la page 141 de l'ouvrage sur les vers à soie, où il a été imprimé tourné d'un quart de tour à gauche (fig. 5).

Légende du pli :

— Corpuscules naissants. Cellules génératrices des corpuscules et cristaux dans les tubes de Malpihi.

— Cellules à corpuscules avec noyaux intérieurs.

— Corpuscules adultes.

— Cristaux des tubes de Malpighi.

(A côté du dessin et de la main de P. Lackerbauer :) corpuscules et cellules dans les tubes de Malpighi d'un ver contagionné. Alais 27 mai 69.

Fig. 6 — Dessin original du paquet cacheté : tunique interne et l'intestin... (page 142 de l'ouvrage de Pasteur, avec la légende : « Formation et développement des corpuscules »).


R. Moreau

(Rapport :) 666/1. (Signature :) P.L. ad nat.

Texte de l'ouvrage (page 140) :

a- (...) On ne saurait trop se familiariser avec les variétés de corpuscules autres que la forme ovoïde très réfringente. Nous avons fait dessiner une foule de champs à corpuscules, et on ne se lasserait pas, dans ce genre de travail, parce que toute préparation nouvelle semble offrir des particularités encore inconnues qu'on voudrait fixer par la gravure. Parmi tous ces dessins, je choisis un de ceux qu'on pourra consulter avec le plus de profit : a, a, a sont des cellules génératrices des corpuscules ; b, b, b des corpuscules de diverses formes, ovales, piriformes, soit pleins, soit avec vacuoles; c sont des cristaux des tubes malpighiens...

(c) Dessin identique à celui de la page 142 de l'ouvrage sur les vers à soie (fig. 6).

Légende du pli :

— Tunique interne de l'intestin d'un ver contagionné étudié quelques jours après la contagion.

— Corpuscules en poires et ovales très jeunes avec noyaux intérieurs.

— Noyaux isolés sortis des corpuscules.

— Noyau au moment de sa sortie du corpuscule.

— Corpuscules adultes ordinaires.

Alais 27 mai 1869. (Sur le dessin, écriture P. Lackerbauer :) Corpuscules en poire. (Rapport :) 700/1. (Signature :) P. Lackerbauer ad nat.

Texte de l'ouvrage : aucun autre texte que celui de la légende générale : Formation et développement des corpuscules.

(d) Dessin identique à celui de la page 207 de l'ouvrage sur les vers à soie (fig. 7).

Légende du pli :

— Vibrions des morts-flats sous leurs deux modes de reproduction par scission et par noyaux vivants intérieurs rappelant la forme des corpuscules de la pébrine.

— Résorption graduelle du vibrion autour des noyaux à mesure que le noyau se développe et s'accuse de plus en plus.

— Les points brillants ou noyaux qui se forment dans les vibrions n'ont aucun rapport avec les corpuscules de la pébrine. C'est un mode particulier de reproduction des vibrions. Ce sont de jeunes vibrions.

— Les lignes ponctuées figurent la marche des chaînes de vibrions. Vibrions des morts-flats Alais 21 mai 1869.

(Rapport :) 800/1.

(Signature du dessin :) P.L. ad nat.

Texte de l'ouvrage (page 207) ;

La figure ci-contre représente quelques-unes des diverses variétés de vibrions que l'on

rencontre dans le canal intestinal des vers malades de la flacherie :

a, débris de feuilles, trachées, etc. ;

b, c, d, e, f, ... chaîne de vibrions : les lignes ponctuées simulent la marche ondulée des chaînes ;

g, h, ... vibrions avec corpuscules brillants : dans quelques-uns, on a figuré la haute résolution de la matière environnant ces points brillants, lesquels sont libres en m,...; dans ce cas, ils ressemblent assez à des corpuscules de la pébrine. Les chrysalides mortes dans leurs cocons, noires, pourries, donnent lieu à ce qu'on appelle des cocons fondus, sont ordinairement remplies de vibrions immobiles, ou réduits à ces espèces de kystes, g, h, k,... semblables aux corpuscules de la pébrine.


Un pli cacheté de Louis Pasteur

Circonstances du dépôt

Pasteur travailla sur les maladies des vers à soie à partir de 1865, sur la demande du chimiste Jean-Baptiste Dumas, sénateur du Gard, et du Ministre de l'Agriculture de l'époque. Dans la préface de son ouvrage, il rappela une remarque qu'il avait faite à Dumas en octobre 1868 : « Ah, je vous ai fait un bien grand sacrifice en 1865. » En

413

Fig. 7. — Dessin original du paquet cacheté : Vibrations des morts-flats... (page 207 de l'ouvrage de Pasteur, avec la légende : « Vibrations de la flacherie »).


R. Moreau

effet, Pasteur s'était engagé sur la sollicitation pressante d'un maître à qui il devait déjà beaucoup : « Votre proposition, lui avait-il écrit en 1865, me jette dans une grande perplexité ; elle est assurément très flatteuse pour moi, son but fort élevé, mais combien elle m'inquiète et m'embarrasse ! Considérez, je vous prie, que je n'ai jamais touché un ver à soie (l. c). » J. H. Fabre a laissé un témoignage plein d'humour de cette ignorance. Accepter une pareille mission dans ces conditions relevait pour le moins de l'imprudence. Il ne faut donc pas s'étonner si, ayant d'abord tout à apprendre, Pasteur tâtonna longtemps avant d'obtenir des résultats dont il regretta ensuite qu'ils offrent « moins d'éclat que ceux qu'(il) aurai(t) pu attendre de recherches poursuivies dans le champ de la science pure (/. c). » A vrai dire, il avait été devancé sur ce sujet, avant même de recevoir sa mission, puisque la nature parasitaire de la pébrine, déjà entrevue par GuérinMéneville ( 8) en 1849, fut précisée par l'Allemand Leydig en 1863, puis par Balbiani en 1866. De plus, il fit l'erreur de confondre les corpuscules dits de Cornalia, que l'on trouve chez les insectes infestés et qui sont les spores de la Microsporidie Nosema bombycis, responsable de la pébrine, avec des produits de transformation des cellules atteintes. En 1870, dans une Note en début du chapitre III (OEuvres, pages 135-136), il mentionnait qu'il avait écrit à Leydig le 9 décembre 1866 pour lui proposer sa propre interprétation : les corpuscules n'étaient que des organites, c'est-à-dire « des éléments anatomiques, des corps analogues aux globules du sang, du pus, de la fécule, en un mot de tous ces corps de l'organisme animal ou végétal qui, très réguliers de formes, sont organisés, mais non susceptibles de reproduction par génération », une opinion que Leydig, dans sa réponse du 26 décembre 1866, indiquait ne pas pouvoir partager. Pasteur se trompait, à la suite de ce que Duclaux a appelé pudiquement « un défaut de technique » et ne revint à l'idée - pourtant établie - de parasitisme qu'après une expérience ultérieure de Gernez. R. Dubos était plus près de la vérité lorsqu'il écrivait qu'étranger à la protozoologie, Pasteur ne sut pas d'abord interpréter ses observations, ce qui l'amena, pour « résoudre le premier problème de maladie infectieuse auquel il s'attaquait, à (...) passer par la voie inattendue des observations complexes et des interprétations erronées. » Dans le cas présent, Pasteur, en principe antispontaniste, n'était pas loin de reconnaître une origine spontanée à la pébrine.

Finalement, avant son ouvrage, la seule contribution qu'il publia sur la nature des corpuscules semble avoir été une lettre que, selon son habitude, il envoya d'Alais le 24 avril 1867, à Dumas, pour transmission aux Compte rendus de l'Académie des Sciences (OEuvres, T. IV, p. 498-499). Il y signalait surtout qu'après avoir cherché sans succès à vérifier les descriptions de Balbiani, il avait observé la division des corpuscules par scissiparité, phénomène déjà décrit par Lebert en 1856, et vu des sortes de noyaux, interprétation qui sera contestée un peu plus tard par Haberlandt. Ultérieurement, Pasteur reconnut la nature parasitaire de la pébrine et admit le rôle des « corpuscules » ou spores, qui transmettent le parasite d'une génération de papillons à l'autre par l'intermédiaire des oeufs. Bien avant toutefois, il avait crée sa méthode de recherche, « imparfaite, parce qu'elle était née d'idée fausse », a écrit Duclaux, qu'il perfectionna ensuite en formulant des règles pratiques pour enrayer le développement de la maladie : c'est l'examen microscopique des papillons, toujours en vigueur aujourd'hui. Puis, remarquant qu'il n'y avait pas obligatoirement coïncidence entre la maladie et la présence de corpuscules, il s'aperçut que cette affection en masquait une seconde : la flacherie, dont il attribua la responsabilité à des bactéries intestinales et pour laquelle il démontra l'influence de divers facteurs


Un pli cacheté de Louis Pasteur

prédisposants liés aux conditions respiratoires et à la qualité de l'aliment. Ayant fait luimême la confusion à ses débuts, il cherchait à déterminer la nature exacte des corpuscules de la pébrine et de l'agent présumé des morts-flats, autre nom donné à la maladie de la flacherie, au printemps 1869. Ce résumé rapide correspond à ce qui ressort de la lecture des travaux publiés par Pasteur et c'est aussi ce que son histoire a retenu. On en était là lorsqu'en juillet de cette même année 1869, Pasteur prit connaissance d'un article publié à Goritz (Autriche à l'époque), dans lequel F. Haberlandt et E. Verson traitaient justement de la nature des corpuscules de Cornalia, et annonçaient un mémoire plus complet. Verson publia peu après (15 août 1869) une « Étude sur la flacherie des vers à soie », puis Haberlandt (15 septembre 1869), un article dans lequel il discutait et repoussait les conclusions de Pasteur. Le même Haberlandt, directeur de l'Institut séricicole de Goritz depuis 1868 et l'un des concurrents les plus sérieux de Pasteur sur le plan international, fit paraître son propre ouvrage en 1871.

Explication d'un pli hâtif

Après la lecture de l'article, Pasteur se hâta de déposer à la séance de l'Académie des sciences du lundi 26 juillet 1869, le paquet cacheté que nous venons de voir, afin « d'écarter tout débat de priorité ». Il n'avait pas employé pareille procédure depuis près de vingt ans. La comparaison du court paragraphe de commentaires qui termine la note du chapitre III (pébrine) avec le texte introductif joint aux documents précités, souligne le caractère hâtif de sa démarche : dans le second, le savant se contente de souligner les erreurs (non mentionnées) de ses compétiteurs et n'avance aucune argumentation, même brève. On observe aussi que les légendes du pli manquent de rigueur pour des détails souvent importants comme la date de la contagion du ver avant examen (figure de la page 138, OEuvres, T. IV), ou que leur rédaction est presque familière. Examinons par exemple les légendes du pli et du volume concernant la microphotographie n° 15 : dans la première, Pasteur parle de « faire pirouetter » les cristaux de Malpighi, dans la seconde « de faire voyager doucement les petits corps ovoïdes ». Le texte de l'ouvrage est mieux rédigé, mais guère plus précis. Une comparaison même superficielle avec le livre d'Haberlandt de 1871 est en faveur de celui-ci. Pour le point particulier que nous venons d'évoquer, cet auteur donne les mensurations des corpuscules et écrit par exemple : « En coupe transversale, ils sont arrondis, ce dont on peut se convaincre en provoquant un courant dans le liquide par pression sur la lamelle qui recouvre les corpuscules sur le porte-objet », manière de rédiger plus conforme au langage habituel des micrographes. Enfin, certains documents comportent des « notes de travail » (exemple : photo n° 31 : « agrandir très bonnes parties. On verra ensuite ») qui n'étaient évidemment pas destinées aux membres de l'Académie si, d'aventure, le pli était ouvert, mais à l'intention du photographe-dessinateur. D'ailleurs, quelques indications, de la main même de Pasteur, sont d'une grande écriture qui contraste avec celle, beaucoup plus fine, qui lui était habituelle. On a donc l'impression qu'il enveloppa rapidement quelques clichés et dessins qui lui paraissaient significatifs et qu'il projetait d'inclure dans sa publication finale pour les déposer à la première séance possible de l'Académie, comportement qui traduisait sinon l'affolement, du moins une hâte certaine.


R. Moreau

Pourquoi? On peut avancer l'explication suivante. Pasteur avait bien publié des Notes à l'Académie des Sciences sur la flacherie, mais, on l'a vu, rien de significatif sur la nature des corpuscules de Cornalia. En 1869, Pasteur, qui avait subi son ictus l'année précédente, exerçait depuis quatre ans déjà une mission acceptée imprudemment, sans bien se rendre compte qu'il s'engageait sur un terrain dangereux, celui où la science côtoie la politique. La ruine menaçait nombre de petites villes et de villages dans une vaste région du Midi de la France et les dirigeants du moment, Napoléon III en tête, se devaient de régler vitement la question. Afin de montrer la bonne volonté gouvernementale, on dépêcha un « savant », pour employer la terminologie de l'époque, dont on était

Fig. 8. — Pasteur dictant un texte à son épouse dans le jardin de la villa de Pont Gisquet où il s'était établi pour étudier les maladies des vers à soie (Arch. phot. Musée Pasteur, Paris).


Un pli cacheté de Louis Pasteur

sûr à tous points de vue. L'envoyé du sénateur Dumas fut vite soumis à forte pression. Certaines lettres, (deux sont conservées dans le dossier de Pasteur par les Archives de l'Académie des Sciences, venant des papiers de J. B. Dumas), dans lesquelles les élus locaux évoquaient auprès de leur sénateur les diverses affaires en cours et le renseignaient sur son « missionnaire », permettent de se rendre compte de la sorte de sujétion dans laquelle Pasteur fut probablement tenu. Ainsi, le 12 juin 1865, le maire d'Alais écrivait à Dumas : « Nous avons ici M. Pasteur depuis quelques jours. Vous avez devancé nos voeux. Il s'est mis à l'oeuvre dès son arrivée. Il vous tiendra sans doute au courant. Sa présence fait bon effet. » Ou encore, le 17 février 1866 : « M. Pasteur est arrivé et s'est mis presqu'aussitôt au travail, assisté de ses deux intelligents auxiliaires (9). On vous prépare les meilleurs éléments et lorsque vous arriverez vous-même au commencement de mai vous serez peut-être en mesure, en y ajoutant vos propres investigations, de vous former une opinion décisive. Hic opus, hic labor. C'est toujours une grande satisfaction pour notre population qu'Alais soit le siège des observations des princes de la science... » Audelà de cette appréciation un peu grandiloquente et bien dans le style de l'époque, on peut comprendre, par la phrase que j'ai soulignée, que le maire considérait qu'en somme, Pasteur et ses collaborateurs ne faisaient que préparer le terrain pour le grand homme d'Alais, J. B. Dumas, qui ferait la synthèse dès son arrivée et vaincrait la maladie. C'était aller un peu vite et lui prêter des talents qu'il ne possédait pas. Compte tenu de son caractère exclusif, Pasteur ne put manquer de ressentir cette situation assez mal. L'examen de la Correspondance et du Tome IV des OEuvres montre aussi que le savant fut rapidement en butte à des oppositions locales, ses discussions avec Béchamp ou d'autres collègues étant secondaires dans la mesure où elles n'étaient pas sous-tendues par la politique régionale. Incidemment et pour ces raisons, je suis tenté de prendre au sérieux l'étiologie qu'il donna lui-même à son ictus, même s'il y était prédisposé du point de vue familial (cf. à ce sujet l'étude de J. Piton, 1969), c'est-à-dire l'excès de tension provoqué par ses études sur les vers à soie (10). Sachant ce qui précède et si l'on examine ses lettres, publications et rapports de 1868-1869, on s'aperçoit que l'essentiel de l'activité de cet homme, mal remis d'une affection qui avait manqué le tuer, n'avait qu'un but : proposer une solution simple et peu coûteuse pour lutter contre la pébrine. En témoigne le soustitre de son livre, qui fut en quelque sorte le rapport final très attendu de sa mission : Moyen pratique assuré de combattre (la maladie, c'est-à-dire la pébrine) et d'en prévenir le retour. Mission pratique donc, et accessoirement scientifique, sorte de préfiguration des multiples contrats de recherche qui, de nos jours, tentent les laboratoires, mais qui ne permettent que rarement des ouvertures sur le futur de la science. Tout cela explique sans doute ces lignes quelque peu désabusées de la Préface du livre sur les vers à soie : « C'est l'honneur du savant de placer les découvertes qui ne peuvent avoir à leur naissance que l'estime de ses pairs bien au dessus de celles qui conquièrent aussitôt la faveur de la foule par l'utilité d'une application immédiate; mais, en face de l'infortune, c'est également un honneur de tout sacrifier pour tenter de la secourir. Peut-être aussi aurai-je donné aux jeunes savants le salutaire exemple des longs efforts sur un sujet difficile et ingrat. » On peut les comparer à la péroraison du Discours de réception à l'Académie française (1857), de Jean-Baptiste Biot, son maître :« ... Vous serez connu, estimé, recherché, d'un petit nombre d'hommes éminents(...) vos pairs dans le sénat universel des intelligences, eux seuls ayant le droit de vous apprécier et de vous assigner un rang... » En tout cas, la conclusion de Pasteur était limpide : après avoir fait contre mauvaise fortune bon coeur pendant cinq ans, il fallait tenter de sauver quelque chose pour la science pure; un


R. Moreau

chapitre plus fondamental sur la nature des corpuscules de Cornalia et sur leur mode de génération pouvait être cela. D'où l'urgence qu'il avait de marquer ses priorités réelles ou supposées par le dépôt du paquet cacheté.

La parution de son ouvrage l'année suivante rendit inutile l'ouverture du document déposé à l'Académie puisque le livre en reprenait les pièces et qu'aucun débat de priorité ne s'ensuivit. Haberlandt ne l'avait sans doute pas jugé nécessaire. Au reste, Pasteur ne pouvait pas s'engager dans une discussion avec des concurrents beaucoup plus expérimentés que lui dans un domaine qu'il ne connaissait pas lui-même : la protozoologie. Pour l'essentiel, il eut raison d'agir ainsi. Négligeons sa manière de rédiger, qui ne fut sans doute pas pour rien dans les critiques qu'il reçut plus tard, à l'Académie de Médecine notamment, lorsqu'il s'occupa des maladies infectieuses (le sous-titre du livre : moyen pratique assuré de combattre (la pébrine) et d'en prévenir le retour, fait étrangement penser aux innombrables libelles qui proposaient à la même époque des remèdes plus ou moins secrets contre une foule de maux divers). Son ouvrage, peu fondamental, était essentiellement tourné, conformément aux instructions reçues en 1865, vers l'application souhaitée, c'est-à-dire vers les aspects épidémiologiques et c'est en cela qu'il marqua, comme l'a noté Duclaux dans son Histoire d'un esprit, la première orientation de Pasteur vers la pathologie. Au reste, la déclaration de guerre, à la fin juillet de la même année, constitua une sorte de frontière au-delà de laquelle l'activité de Pasteur sur les vers à soie devint d'autant plus résiduelle que ces recherches lui avaient été commandées par le gouvernement de l'Empereur Napoléon III. Les Etudes sur la maladie des vers à soie... sont d'ailleurs dédiées à l'Impératrice Eugénie.

L'originalité du paquet cacheté

Il est étonnant que Pasteur ait pu croire qu'en déposant son paquet cacheté après la publication d'Haberlandt, son antériorité serait assurée. On peut se demander surtout s'il ne cherchait pas plutôt à se prémunir contre d'éventuelles critiques concernant la lenteur de ses conclusions et à faire d'abord une opération nationale dans un contexte difficile : sa mission s'éternisait, il risquait sa réputation et sa maladie le fragilisait. Il était donc le dos au mur sous le regard des politiques. Dans de pareilles situations, il n'hésitait pas à user de la litote et même plus. Si l'on se reporte au texte qui, dans son ouvrage, accompagne la photographie correspondant au n° 15 du paquet cacheté, on s'aperçoit qu'il prétend avoir « présenté ces observations au Comice d'Alais, dans sa séance du 26 juin 1866. » La communication en question fut déposée ensuite à l'Académie des Sciences lors de la séance du 23 juillet 1866. Dans son édition des oeuvres de son grand-père, L. Pasteur-Vallery-Radot remarquait que « cette Communication, dont Pasteur a(vait) fait une lecture au Comice agricole d'Alais et à la Commission impériale de sériciculture, (pouvait) être considérée comme le Rapport de 1866 », donc rendant compte de tous les résultats de Pasteur pour l'année. Or une lecture attentive ne m'a pas permis de déceler dans ce texte de 1866 une allusion à la distinction microscopique dont Pasteur donna ensuite un exemple dans son ouvrage de 1870. Il ne pouvait donc s'agir alors que d'observations récentes, comme le prouvent les dates indiquées sur les documents du paquet cacheté, mais qui n'ont pas été reprises dans les textes définitifs. On ne trouve pas trace non plus de la différenciation entre les corpuscules et les cristaux, obtenue en dissolvant ces derniers dans un acide minéral dilué. Dans la Note à l'Académie


Un pli cacheté de Louis Pasteur

du 23 juillet 1866, Pasteur indiquait simplement à propos de papillons conservés dans l'éthanol, que « les corpuscules ne sont nullement détruits même par un long séjour dans l'alcool » et, tout à la fin : « Si j'avais eu à ma disposition les ressources d'un laboratoire, je crois qu'il m'aurait été facile de faire une analyse élémentaire de ces petits organites » (c'est-à-dire celle des corpuscules et non pas des cristaux des tubes de Malpighi). Dans le même ordre d'idées, on voit Pasteur citer dans son livre (OEuvres, T. IV, p. 104-105), une brochure d'Haberlandt de 1866 également, mais sans précision de mois, en indiquant qu'elle « confirmait » ses propres communications au Comice d'Alais et à l'Académie des Sciences de juillet 1866 dont on vient de voir pourtant qu'elles ne comportaient aucun renseignements sur les points en question : pour le moins, il y avait entre les deux hommes et en faveur d'Haberlandt cette fois, la même indépendance dans les observations que celle revendiquée par Pasteur pour le paquet cacheté. On retrouve une tournure d'esprit identique dans une lettre inédite de Pasteur à ce même Haberlandt, lorsque le Ministère de l'Agriculture autrichien envisagea de partager le prix de 5 000 florins qu'il avait offert en 1867 au vainqueur de la maladie et auquel Pasteur était candidat. Cette décision mortifia beaucoup le savant français qui, à cette occasion, demanda le soutien d'Haberlandt lui-même, précisant le 23 avril 1871 (11) : « Sans doute je me suis appuyé sur les résultats des naturalistes italiens qui m'ont précédé sur la question. Mais si les hommes qui pressentent les choses et émettent sur elles des opinions anticipées sont souvent très utiles, c'est cependant à ceux qui apportent les faits positifs et les preuves expérimentales que revient toujours le principal mérite. » Pasteur admettait donc auprès de l'un de ses rivaux étrangers les plus sérieux et dans un but intéressé, des antériorités qu'il reconnaissait moins nettement en d'autres circonstances. On remarquera surtout qu'en moins de trois lignes, les « résultats des naturalistes italiens qui (l'avaient) précédé(s) sur la question », donc des observations de laboratoire, sont devenus des pressentiments (« si les hommes qui pressentent les choses... ») et des « opinions anticipées », lui seul apportant ensuite les « faits positifs et les preuves expérimentales » nécessaires, ce qui leur conférait ipso facto le mérite principal. Enfin, et pour en terminer sur ce point, on ne voit pas quoi s'applique le « entre autres » imprimé dans la note du troisième chapitre, sinon qu'il procède du même esprit. Bien d'autres exemples pourraient être donnés, notamment dans la partie de l'ouvrage de Pasteur consacrée à la flacherie, où les « remontres » de priorité, comme disait Biot, sont nombreuses.

Reste à savoir si elles étaient justifiées. Les pièces examinées plus haut portent sur la distinction entre les corpuscules de Cornalia, des cristaux qui leur ressemblent et que l'on trouve parfois dans les tubes de Malpighi des vers et chrysalides jeunes, et enfin les « corpuscules brillants » d'origine bactérienne observés dans les vers atteints de flacherie, et sur les moyens de les différencier. A la fin de son chapitre III (pébrine) Pasteur précisait qu'Haberlandt et Verson avaient confondu les seconds avec ceux de la pébrine, en somme qu'ils avaient fait la même confusion que lui naguère. Dans le paquet cacheté par contre et tout en indiquant sans en donner la liste, que ses concurrents autrichiens avaient commis des erreurs, Pasteur leur reconnaissait une partie de la paternité de la découverte alors qu'il n'en dit mot dans son livre puisqu'il écrit : « cette communication (d'Haberlandt) renferm(ait) plusieurs assertions exact qui paraissent exactes touchant la génération des corpuscules. » Pasteur, on le voit, avait commencé par dicter l'adjectif : exact..., puis s'était repris, manière de minimiser l'apport de ses concurrents, sans prendre ni la peine, ni le temps de faire recommencer son billet. On pourrait penser qu'entre juillet 1869 et la parution du volume, Pasteur fit d'autres observations et changea d'avis.


R. Moreau

En réalité, il n'en fut rien puisqu'il indiqua dans le paquet : « Les dates des dessins et des photographies ci-jointes prouvent que dès les mois de mars et de mai 1869, j'avais constaté les faits correspondants à ces assertions et reproduit ceux-ci par la photographie ». Ce renseignement précis date les observations du paquet cacheté et les place au printemps 1869 et pas avant. Par ailleurs, dans la note qui clôt le chapitre III (pébrine), Pasteur remarquait : « mon paquet cacheté contenait les dessins originaux et les photographies (...) insérés dans le présent chapitre. » Il n'avait donc rien fait (ou fait faire) les années précédentes sur le sujet : en conséquence, on peut considérer ses descriptions comme tardives par rapport à celles de ses concurrents. Ce fut sans doute pourquoi Haberlandt ne jugea pas utile d'en faire mention dans la description très détaillée des corpuscules qu'il publia en 1871.

La méthode de Pasteur et le rôle de Duclaux

Nous avons acquis un point important : de l'aveu même de Pasteur, qui se contredisait, les observations contenues dans le paquet datent du printemps 1869. Mais il faut aller au-delà. L'examen des Cahiers de Laboratoire sur les vers à soie, rendu obligatoire pour essayer de trouver la trace des observations motivant les éléments du pli, oblige à poser la question suivante : qui en fut l'auteur réel? La réponse est : probablement Duclaux. En effet, les seuls cahiers de l'année 1869 furent ceux de Duclaux (12), de Gemez ( 13) et de Raulin (14), auxquels il faut ajouter celui de... Marie-Louise Pasteur ( 15) qui, sur le modèle des « grands », rendit compte de ses « éducations » (mot consacré pour les élevages de vers à soie) d'enfant auxquelles son père fit allusion dans le chapitre V des Etudes sur la maladie des vers à soie... consacré à la flacherie (« En 1869, une petite fille s'amusa à élever quelques grammes de graine (3 g) dans notre salle à manger du Pont Gisquet... »). Il n'en existe pas de Pasteur lui-même. L'étude de ces cahiers apporte des surprises. En premier lieu, on constate que Gernez réalisa l'essentiel du suivi des éducations en cours et, notamment (B.N, N.a.f, 17975, p. 87 et 95), celui des rares essais que Pasteur voulut mener malgré son état de santé. Gernez fit aussi quelques observations sur les corpuscules et sur les « chapelets de grains. » Mais les cahiers de Duclaux et de Raulin paraissent essentiels. Dans celui de Raulin tout d'abord, on trouve des remarques sur l'effet des poussières de l'air sur les vers à soie et sur les « chapelets de grains », des numérations et des descriptions de vibrions, ainsi qu'un résumé des expériences faites avec les feuilles de Mûrier et même des examens de chrysalides conservées dans l'alcool et provenant de Goritz, ce qui prouve que des échanges précis existèrent entre les équipes d'Haberlandt et de Pasteur. Le « petit cahier » de Duclaux (B.N., N.a.f, 17978) fait état de nombreux examens de corpuscules et de tubes de Malpighi. Quant au « grand cahier » (B.N., N.a.f, 17979), il paraît fondamental dans la mesure où il contient des observations et plusieurs synthèses, toutes de la main de Duclaux, qui confirment que les observations visées par le pli cacheté datent bien du printemps 1869.

Une étude succincte de ces cahiers, comparés avec les documents du paquet cacheté et l'ouvrage sur les vers à soie, permet de se rendre compte de la méthode de travail pasteurienne, en notant toutefois qu'en l'espèce, elle fut peut-être, au moins partiellement, l'une des conséquences de son état de santé. Maintenant, la tâche principale de Pasteur, outre la nécessaire définition des buts et des moyens de la recherche, était d'assurer les relations publiques indispensables à la bonne marche des travaux qu'il dirigeait, de


Le dernier pli cacheté de Louis Pasteur

distribuer le travail à ses élèves considérés comme des préparateurs (ce qui correspondait à l'esprit du moment) plutôt que comme des chercheurs, de surveiller sa réalisation et enfin d'en discuter probablement les résultats avec eux. Ensuite, Pasteur étudiait seul les cahiers de ses collaborateurs, en soulignait les points importants, les annotait au besoin (« inutile », « utile », « très utile » : les synthèses de Duclaux sont soulignées presqu'à chaque mot) et enfin s'en inspirait plus ou moins pour dicter ses propres textes. Dans le cas présent, les apports dus à cette « symbiose » efficace ressortent particulièrement bien, peut-être même trop. En effet, si l'on compare les notes de Duclaux avec le texte de Pasteur, on s'aperçoit que la matière originale de plusieurs chapitres provient pour l'essentiel de Duclaux, que la transcription en fut faite presque mot à mot, le « je » de l'auteur étant remplacé assez souvent par « on », mais pas toujours, et que la plupart des expériences citées par Pasteur sont des copies directes du cahier. L'exemple suivant, l'un des textes les plus corrigés par Pasteur, en donnera une idée :

Cahier de Duclaux : le texte général est de Duclaux. Les parties en italique et placées entre parenthèses sont les corrections de Pasteur et correspondent à la ligne située en dessous. Les mots rayés ou soulignés l'ont été par Pasteur également.

(examen de trois) « Le 1er mai, pris de nouveau (x)-3-vers.

(deux) (est) (La troisième offre)

Dans-S^ je ne trouve rien, la peau était belle et sans taches. Dans le 3e je trouve 2 petites taches, l'une au 1er anneau, l'autre au 3e. En l'étudiant avec beaucoup de soin, je ne trouve des corpuscules que dans la tunique interne de l'intestin, mais il y en a beaucoup plus que je n'en ai encore vu, et sur toute la longueur, jusqu'au voisinage de l'anus. Ces corpuscules

(On en voit) sont encore isolés les uns des autres, et presque tous pyriformes. -J%R-vets-pour(Le)

-J%R-vets-pour(Le) d'ovales. En outre, le nombre de ceux qui tout en étant pyriformes, se montrent pleins dans leur intr et homogènes est assez grand, surtout dans (la partie antérieure du canal;) (il y en a fort peu.)

l'estomac, dans la partie postre du canal digestif, j'en vois à peine. A la partie anté(celui)

anté(celui) au contraire, le nombre est presque aussi grand que des corpuscules pyriformes à double enveloppe.

Rien ailleurs que dans l'intestin, même dans le tissu musculaire et cellulaire du voisinage de l'une des taches. »

Texte définitif de l'ouvrage de Pasteur (pp. 143-144) :

« Le 1er mai, examen de trois nouveaux vers. Dans deux on ne trouve rien. La peau est belle et sans tache. Le troisième offre une petite tache au premier anneau, une autre au troisième. Étudié avec beaucoup de soin il ne montre des corpuscules que dans la tunique interne de l'intestin; mais il y en a beaucoup plus qu'on en a vu dans les précédents, et sur toute la longueur du canal digestif. Ces corpuscules sont encore isolés les uns des autres; presque tous sont piriformes, il y en a pourtant quelques uns d'ovales. Dans la partie antérieure du canal, le nombre des corpuscules piriformes, pleins et homogènes, c'est-à-dire, sans vacuoles ni granulins, est presque aussi grand que celui des corpuscules piriformes à double enveloppe. Dans la partie postérieure, le nombre de ces derniers est de beaucoup supérieur. Aucun autre organe ne montre des corpuscules. On n'en trouve pas notamment dans les tissus musculaires et cellulaire au voisinage des taches. »


R. Moreau

Fig. 9. - Emile Duclaux à Pont Gisquet, en 1869, édudiant des vers à soie au microscope. (Arch. phot. Musée Pasteur, Paris).

422


Le dernier pli cacheté de Louis Pasteur

On voit donc que le texte de Duclaux, revu une première fois sur le cahier, a été simplement « toiletté » et légèrement arrangé ou complété de quelques détails (exemple : corpuscules piriformes dont il est précisé qu'ils sont « sans vacuoles ni granulins », notion en principe connue du lecteur). D'autres ont été recopiés à peu près textuellement. Le pointage des cahiers avec l'ouvrage est d'ailleurs difficile car Pasteur semble avoir mélangé à plaisir les expériences d'un chapitre à l'autre. Plus probablement, Duclaux expérimenta simultanément sur la pébrine et la flacherie et Pasteur reprit ensuite les expériences, les classant selon son plan établi, ce qui rend les comparaisons malaisées.

Sur ce sujet, trois remarques doivent être faites. La première est que Duclaux et Raulin réalisèrent en peu de temps un nombre assez grand de manipulations : on pourrait presque parler à leur égard de « frénésie expérimentale. » Sans cela, l'ouvrage de Pasteur sur les vers à soie aurait été réduit à la méthode de prévention de la pébrine (ce qui était demandé finalement) : une première étude des cahiers permet de conclure que les observations qui permirent à Pasteur d'écrire l'essentiel de ses chapitres II, III et IV sur la pébrine, IV (seconde partie) sur la flacherie, furent faites et analysées par Duclaux en moins de trois mois (avril, mai, une partie de juin 1869). Cela montre qu'il y avait une urgence absolue. Il n'est pas interdit de penser en effet qu'en raison de leurs relations avec l'Institut séricicole de Goritz, Pasteur et ses élèves étaient au courant des recherches d'Haberlandt sur la nature des corpuscules. Pour grossir l'ouvrage à venir d'une matière un peu plus fondamentale, il fallait donc faire vite : cela expliquerait le nombre d'expériences faites en peu de temps. La seconde remarque concerne les photographies à propos desquelles je n'ai trouvé à ce jour qu'une indication de Duclaux datée du 8 mai 1869 : « Le 8 mai. Contagionné des vers de la graine du Maréchal ( 16) à l'éclosion. Les vers mangent bien. Ces vers ont été étudiés très rapidement pour y trouver une préparation à photographier. » Tous ces faits confirment que les éléments du paquet cacheté datent du printemps 1869 et sont à mettre au crédit de Duclaux. D'ailleurs, dans le chapitre III (De la nature des corpuscules et de leur mode de génération) de la partie consacrée à la pébrine et concernée par l'essentiel du paquet cacheté, Pasteur indiquait clairement la part de son collaborateur. On peut même dire que, par sa formulation, il reconnaissait implicitement la participation de celui-ci à la rédaction du chapitre : « J'ai donné une grande attention à ce difficile sujet d'études, et M. Duclaux, de son côté, dans les divers séjours qu'il a faits dans le Midi avec moi, a employé également un temps considérable dans cette recherche. L'exposé suivant est l'expression de notre commune opinion. » Suivent alors la description des photographies et dessins du paquet (les premières proviennent certainement des préparations de Duclaux), et un texte dont une partie essentielle (p. 143149) est celui des pages 81 à 92 du « grand cahier » du même Duclaux. Ajoutons que des dessins réalisés par celui-ci d'après ses propres observations au microscope ont été découpés dans le cahier. Or, les cotes de certaines illustrations du chapitre III (page 144, second dessin en bas à gauche), correspondent à peu près exactement à ces découpures (auprès desquelles subsistent d'ailleurs quelques dessins de cellules « hors gabarit »). Il faut donc admettre que si Pasteur a « donné une grande attention » au problème en question, celle que lui a portée Duclaux fut déterminante. A ce point, s'imposerait une analyse comparée et détaillée des descriptions de Duclaux (et de Pasteur) avec celles des travaux italiens et autrichiens notamment, parus à cette époque, mais il me semble qu'elle nous entraînerait trop loin dans le cadre de cet article. On notera seulement que, sur le fond, il ressort assez nettement que les observations des élèves de Pasteur furent préliminaires et hâtives, tout autant que le paquet cacheté lui-même, dont il est clair maintenant


R. Moreau

que, devant la publication d'Haberlandt et Verson, il fut destiné avant tout à sauver les apparences sur le plan français. Enfin, ma troisième remarque est que seul Duclaux parmi les trois collaborateurs de Pasteur, du moins m'a-t-il semblé, ne se comporta pas uniquement en préparateur, mais en chercheur confirmé et en véritable chef d'équipe suppléant totalement le maître malade, puisque non seulement il expérimenta, mais il coordonna les recherches du trio composé de Gernez, de Raulin et de lui-même et rédigea la synthèse des résultats que Pasteur publia ensuite à peu près sans changements, et pour cause. Ce fait mérite d'autant plus d'être noté que, dans le même temps, le même Duclaux faisait ses observations sur la diapause des oeufs du Bombyx mori.

Comment expliquer enfin cette osmose presque excessive entre Pasteur et ses collaborateurs? Ceux-ci durent ressentir que leur groupe entier, plus que leur propre situation, était en péril. Or ces jeunes chercheurs comprenaient combien, nolens volens, la position scientifique de Pasteur et donc la leur, était en rupture avec le passé. Un nouvel état des sciences biologiques apparaissait, qu'il fallait préserver. Comme plus tard, après l'affaire de l'enfant Rouyer mort de la rage vaccinale (Adrien Loir a rapporté ces paroles de Brouardel à Roux : « Si je ne prends pas position en votre faveur, c'est un recul immérité de cinquante ans dans l'évolution de la science »), les élèves de Pasteur firent bloc avec lui pour sauver une situation compromise par l'attaque d'hémiplégie qui l'avait terrassé le 19 octobre 1868 et faillit lui être fatale. Donnant un bel exemple de loyauté et de solidarité scientifique, Duclaux resta dans l'ombre et ne semble pas avoir réclamé la part qui lui revenait, publiant seulement ses résultats sur la diapause sans rapport direct avec la mission impartie. Pasteur resta fortement attaché à cette période de sa vie et choisit les travaux publiés de Duclaux sur les vers à soie, pour intervenir en faveur de sa candidature à l'Académie des Sciences en 1887 (cf. Annexe). Dans le fond de son coeur, il y avait certainement aussi une autre et bonne raison : la nécessité de rendre à Duclaux ce qu'il lui devait, même si, auparavant, lors de la première candidature de son ancien collaborateur à l'Académie des Sciences, il oublia de voter pour lui.

Les microphotographies du pli cacheté

Ce pli a permis de découvrir des documents originaux et notamment des microphotographies de 1869, encore lisibles malgré l'usure du temps. En matière de photographie, trois dates principales sont à considérer : 1839 vit les premiers daguerréotypes; 1851, l'apparition des plaques au collodion humide, plus rapides et à grain très fin, mais encore peu commodes d'emploi; 1871 enfin, l'introduction des plaques sèches au gélatino-bromure d'argent. Très tôt, les microscopistes se rendirent compte de l'intérêt de la photographie, récemment créée, pour une meilleure reproduction des images microscopiques, les garanties de fidélité à l'original étant considérées comme plus grandes que celles offertes par le dessin qui interprète forcément un peu. Pasteur a bien exprimé cette idée dans les Études sur la maladie des vers à soie (OEuvres, T. IV, p. 141-142) : « Quelque soin que l'habile dessinateur de ces figures, M. Lackerbauer, ait mis à représenter toutes ces formes de corpuscules, il faut craindre que la main de l'artiste ait ajouté ou retranché quelque chose à la nature ; aussi avons-nous essayé de fixer par une épreuve photographique (...) un des champs d'observation (...) Le mieux est, je crois, que le lecteur en étudie avec soin toutes les parties; il y retrouvera sous un aspect, sinon plus exact, mais peutêtre plus naturel que dans les dessins dont je viens de parler, les diverses variétés de


Le dernier pli cacheté de Louis Pasteur

corpuscules. » Et d'ajouter : « Bien entendu, il n'y a pas à tenir compte des taches brouillées de la figure qui étaient mal au point. » Plus tard (1887), C. Flügge notait que la « plaque sensible (était), en quelque sorte, un oeil qui n'est jamais ébloui par une vive lumière, qui ne se fatigue pas par l'observation continue des plus petites différences d'éclairage et qui n'est pas gêné par les troubles ou autres défauts du corps vitré » et écrivait à son tour : « Souvent, on trouve sur le négatif, lorsque l'image a été bien au point, de fins flagellums que l'on ne peut voir que par la suite, au moyen du microscope et encore, avec peine, alors même que les conditions d'éclairage sont les plus favorables. » De fait, Flügge, comme E. Macé ensuite (1897), rappelleront que R. Koch découvrit les cils de plusieurs espèces de bactéries (notamment d'un spirille et d'un Bacillus, probablement subtilis) sur des clichés qu'il publia en 1877, soit quatre ans avant ses publications bien connues de 1881 (avec, entre autres, la première microphotographie du bacille d'Eberth-Salmonella typhi). Van Ermengen note d'ailleurs que cette publication de Koch en 1877 sur « les méthodes de préparation, de conservation et de reproduction photographique des Bactéries » fit époque. La microphotographie devint même l'une des spécialités de l'Institut d'Hygiène de Berlin. Dans une lettre inédite datée du 15 septembre 1885 (17), A. Chantemesse, qui le visitait, en envoya une description détaillée à Pasteur, dans laquelle il précisait : « On paie 100 marks pour travailler au laboratoire et 70 marks pour suivre le cours, sans compter environ 30 francs d'instruments qu'on est obligé d'acheter. L'enseignement coûte donc très cher. Le cours de microphotographie se paie en outre 50 francs. »

R. Koch est donc connu (entre autres) comme le créateur de la photographie des microbes et H. Schadewald a même publié un cliché de bacilles dans les capillaires de l'intestin du lapin qui date de 1876 et fait remonter d'un an encore les travaux de Koch en ce domaine. Néanmoins, dans son étude sur les applications de la photographie à l'étude des microbes, et tout en mentionnant la publication par Koch en 1881, « d'une série de photomicrographies remarquables et qui ont excité une vive attention, » mais en omettant celles de 1877 sans doute inconnues de lui, E. Roux a rappelé l'antériorité de Pasteur, en fait de son « équipe ». Or cette priorité n'est guère restée dans la mémoire scientifique. Pourtant, le paquet cacheté atteste qu'elle remonte au moins à 1869 et probablement avant, car, avec le matériel du moment, les tâtonnements durent être nombreux. Si l'on considère que le premier ouvrage en langue française sur la microphotographie paraît être celui de Moitessier (La Photographie appliquée aux recherches microscopiques) en 1866, on voit que Pasteur et ses collaborateurs n'avaient pas perdu leur temps. Les numéros (15 et 31) portés sur deux des photographies du paquet cacheté montrent qu'ils utilisèrent systématiquement cette technique encore très nouvelle, bien que je n'aie pas encore trouvé d'autre mention que celle signalée plus haut dans les cahiers de laboratoire de 1868 et de 1869. Dans son article, Roux précisait que les microphotographies des Études sur la maladie des vers à soie ... avaient été faites, comme nous le savons, par Lackerbauer, dessinateur habituel de Pasteur qui s'aida de microphotographies pour ses dessins.

En commençant ce paragraphe, j'ai noté les dates déterminantes de l'histoire de la photographie. A cet égard Koch profita des nouvelles plaques sèches, à propos desquelles Van Ermengen (1887) parla de « révolution » et qui contribuèrent (l. c.) « plus que tous les autres perfectionnements récents, à vulgariser les usages scientifiques de la photographie », en raison de leur « extrême sensibilité » et de leur « rapidité si merveilleuse ». Par contre, Lackerbauer ne disposait que des plaques humides, moins


R. Moreau

faciles à manipuler, ce qui ajoute à son mérite. Il était donc important de noter que Pasteur et ses élèves furent parmi les premiers « microbistes », sinon les premiers, à utiliser la microphotographie au cours de leurs recherches et à en publier les résultats.

Les quatre plis cachetés de Pasteur

Il paraît utile enfin de faire une récapitulation des plis cachetés de Pasteur à l'Académie des Sciences. Au cours de sa vie scientifique, Pasteur en déposa quatre : trois entre 1848 et 1850 et celui que nous venons d'examiner, en 1869. En voici la liste :

- pli enregistré sous le n° 834 et accepté le 8 mai 1848, par Pierre Flourens, Secrétaire perpétuel. Ce pli contenait un « Mémoire sur les Tartrates et les Paratartrates » (fig. 10). Pasteur était alors préparateur à l'Ecole Normale Supérieure ;

— pli enregistré sous le n° 972 et accepté le 4 février 1850;

— pli enregistré sous le n° 980 et accepté le 1er avril de la même année, par Flourens toujours. Ces deux plis concernaient le pouvoir rotatoire de l'asparagine, de l'acide aspartique et de l'acide malique. Pasteur était alors professeur suppléant à la Faculté des Sciences de Strasbourg ;

[Ces trois premiers plis ont été ouverts le 16 décembre 1963 par le Président, en exercice, M. Roger Heim, en séance publique, puis publiés en 1964, avec des notes et réflexions de M. Delépine, Ch. Dufraisse, L. Velluz et J. Wyart, membres de l'Académie.]

- paquet cacheté enregistré sous le n° 2504 et accepté le 26 juillet 1869 par Elie de Beaumont, Secrétaire Perpétuel. Entre temps, Pasteur était devenu professeur de chimie à la Sorbonne et membre de l'Académie.

Pourquoi plus de dix-neuf ans séparèrent-ils les trois premiers plis, relativement groupés dans le temps, du dernier ? Pendant la période où il s'occupa de cristaux, Pasteur travailla sous la direction précise et bienveillante de J. B. Biot, comme le montrent les lettres inédites de celui-ci, lettres dont l'analyse sera publiée prochainement, et cela dès ses premiers travaux. Il est donc probable que ce fut Biot qui initia Pasteur à la procédure des plis cachetés. Dans une lettre ( 18) du 18 mai 1850, on le voit d'ailleurs encourager celui-ci dès qu'il sera « arrivé à quelque résultat net », à les lui envoyer pour qu'il « les présente en (s)on nom, à l'académie », ou à les consigner « dans un billet cacheté que vous déposerez si vous voulez vous réserver le tems ( 19) de les suivre plus loin ». Ensuite, Biot rendra les choses plus faciles : plus besoin de « billet cacheté », Pasteur n'aurait qu'à lui faire part de ses résultats et Biot en informerait ses confrères Regnault et de Sénarmont : »... Je ne crois pas que vous me désapprouviez de faire confidence de pareils résultats, lui écrivait Biot le 10 février 1852 (20), à des hommes si sûrs, qui vous apprécient, vous aiment, et qui, au besoin, témoigneraient de votre priorité, en cas de remontre. » La parole des trois académiciens aurait donc servi de garantie à Pasteur : pouvait-il espérer mieux ? Il est bien probable qu'aucun de ses concurrents ne disposa d'une pareille facilité. En pratique, il prit l'habitude, qu'il conserva après son élection à l'Académie des Sciences, d'adresser des « lettres personnelles », dans lesquelles il résumait ses résultats de façon concise et sans obligations excessives de forme, à ses correspondants académiciens qui les inséraient ensuite, tout ou partie, aux Compte rendus. Il utilisa au moins deux fois cette pratique avec Biot (à propos de la transformation de l'acide tartrique en


Le dernier pli cacheté de Louis Pasteur

Fig. 10. — Pli cacheté de Pasteur sur les tartrates et les paratartrates (1848).

427


R. Moreau

acide racémique et à propos du sucre de lait), puis souvent avec Dumas (recherches sur les fermentations et surtout sur les vers à soie). Pasteur n'avait donc plus besoin d'utiliser des plis cachetés, sauf dans le cas d'urgence bien précis que nous venons d'examiner.

Conclusion

Le paquet cacheté de Pasteur sur les vers à soie présente un double intérêt : mettre sous nos yeux des documents authentiques, en particulier des photographies de l'époque ; montrer quelques aspects de la méthode de travail de son auteur. Conscience et porteparole d'un équipe à laquelle il procurait les moyens de travail : tel fut sans doute la fonction de Pasteur, position très moderne au demeurant, qui explique « l'osmose » dont je parlais plus haut à propos de la participation librement consentie à l'oeuvre commune, de Duclaux, Gernez, Maillot, Raulin. J'ai attiré également l'attention sur la façon particulière dont Pasteur agissait parfois dans le domaine des priorités scientifiques, en s'appropriant un peu trop facilement les données de la bibliographie, ce qui lui fut souvent reproché de son vivant. J'y ai tenu parce que ces critiques resurgissent de façon aiguë de nos jours à mesure que progresse l'analyse historique de ses travaux, celle publiée par Ph. Decourt en 1973, sur les vers à soie justement, ayant été particulièrement corrosive. Très tôt, Pasteur fut contesté pour ces raisons en France (par A. Béchamp notamment) et à l'étranger, mais aussi, comme l'a rappelé Duclaux, parce que son procédé de grainage modifiait de nombreuses habitudes commerciales et industrielles. Tout cela nuisit beaucoup à l'application de ses méthodes et conduisit à des retards préjudiciables dans la lutte contre la pébr