« le: 13 octobre 2008, 08:33:45 am »
L'espace astronomique selon YB :
Espace astronomique (1)
Je commence ici une série de réflexions sur l’espace avec, pour
thème, l’astronomie spatiale et terrestre, vue plus particulièrement
du côté de l’instrumentation.Pour l'essentiel, ce texte a été publié
sur Fr.sci.astronautique, mais peut intéresser les "astronomes".
Dès l’invention du télescope, il devint rapidement évident que la
turbulence atmosphérique posait un problème. Celui-ci n’a jamais
cessé.
En 1948, les Etats-Unis inaugurèrent le plus grand télescope du monde,
le Hale du Mont Palomar en Californie. Doté d’un miroir primaire de
5,08 m de diamètre, construit avec une structure en nids d’abeilles
pour gagner en poids et inertie thermique, il était un chef-d’œuvre
qui paraissait impossible à surpasser. Ses concepteurs savaient par
exemple qu’un télescope plus grand aurait une inertie thermique telle
qu’il ne pourrait jamais être mis convenablement en température, ce
qui provoquerait des mouvements de convexion atmosphérique près du
miroir, ce qui dégraderait les images.
Plus d’un quart de siècle plus tard, les bureaucrates soviétiques
décidèrent de passer outre et de construire pour la gloriole le plus
grand télescope du monde : Le Zelentchouk de 6m de diamètre avec un
miroir massif. Le premier miroir cassa lors du polissage car on avait
oublier de mélanger du TritonX (un puissant détergent très toxique) au
liquide servant de solvant à l’abrasif. Ils utilisaient de l’eau
déminéralisée au lieu de kérosène additionné de TritonX, la poussière
de verre s’accumulât alors dans les rayures du verre, ce qui finit par
provoquer une tension de surface suffisante pour casser le disque de
verre.
Le second miroir fut traité plus correctement et arriva jusqu’à la
finition, mais son inertie thermique ne lui permit jamais, sur un site
de qualité douteuse, d’obtenir de bon résultats. La démonstration
était faite, rien ne pouvait surpasser le Mont Palomar. Et pourtant,
ce télescope, avec son pouvoir collecteur de lumière unique au monde,
n’avait pas une capacité de séparation optique supérieure à celle d’un
bon 20 cm amateur !
Evidemment, tous les astronomes le savaient, mais ils savait aussi qu’il
n’y avait pas de solution au problème… A moins d’aller dans l’espace,
au-dessus de l’atmosphère.
A Londres, dès 1944, sous les bombes des V2, certains se réjouirent de
ce qui arrivait : Ils savaient la fin de la guerre proche, quelques
mois, un ou deux ans tout au plus. Ils savaient aussi que leur camp
gagnerait et pourrait bénéficier de la technologie de l’adversaire, en
particulier ces bombes lancées par fusée qui arrivaient plus vite que
le son. Quelques calculs rapides leur montrait que les fusées qui
lançaient ces bombes devait atteindre 70 km d’altitude, presque la
limite de l’espace. Un autre calcul du type « dos d’enveloppe » leur
montrait qu’avec la technique des étages multiples, il serait possible
d’atteindre la vitesse orbitale et donc de créer un satellite
artificiel de la Terre. De là à y mettre un télescope, il n’y avait
qu’un pas.
Y.B.
Espace astronomique (2).
A la fin des années 40 et pendant les années 50, la situation était
claire : Avec le télescope du Mont Palomar, le plus puissant engin
possible avait été construit, on ne ferait jamais mieux, les calculs
montraient qu’un télescope plus gros serait en fait moins performant
en raison des problèmes de mise en température du miroir et de flexion
de la monture.
Par contre, la technique des fusées rendait possible la conception
d’observatoires spatiaux. Le rêve était alors de mettre les «
demoiselles des téléphones » en orbite à bord d’une station spatiale,
on disait alors une lune artificielle, pour qu’elles puissent brancher
les communications téléphoniques intercontinentales. Les chefs
militaires, dans une autre section de la même mini-Lune, équipés de
puissantes jumelles devaient observer les batailles et donner des
ordres en direct. Encore une autre partie de la station et là les
météorologues pouvaient voir le déplacement des nuages et prédire le
temps une semaine à l’avance. Il ne restait plus qu’à rajouter une
section pour les astronomes et leur télescope spatial. On était en
plein dans les histoires de Tom Swift de Victor Appleton, le
pseudonyme d’un groupe d’auteurs dont certains avec un bon bagage
scientifique.
On sait ce qu’il est advenu des demoiselles du téléphone et des
satcoms, un marché inimaginable à l’époque. L’électronique à laissé
les militaires au sol, comme les météorologues d’ailleurs. Les
astronomes ne vont guère dans l’espace pour l’instant, ce qui
n’empêche pas les satellites astronomiques. Ainsi, l’idée à survécu.
Vers 1955, le développement des fusées, pour les besoins militaires,
rendait évident la prochaine réalisation d’un satellite artificiel de
la Terre, ce n’était plus un rêve, mais un programme dont l’échéance
était fixé à 1958, déclarée année géophysique internationale. Entre
temps, les astronomes s’étaient rendu compte qu’un satellite
astronomique avec des hommes à bord n’était guère concevable : les
mouvements à l’intérieur de l’appareil détruirait immanquablement
toute tentative de pointage un peu précis. L’idée était donc qu’un
satellite astronomique devait être automatique, ce qui dispensait
d’attendre jusqu’à ce que l’homme puisse aller dans l’espace. Le
projet devenait d’autant plus crédible.
Pendant cette période de réflexion, le domaine encore inexistant de
l’astronomie spatiale s’étendit considérablement. Il ne s’agissait
plus seulement de se débarrasser du trouble de l’atmosphère terrestre,
mais aussi d’observer dans des domaines impossibles au sol.
L’atmosphère est opaque à la majorité des longueurs d’ondes, elle ne
laisse passer que la lumière et une partie des ondes radio. Rien dans
le domaine de l’ultraviolet, rien pour les rayons X, rien pour les
gammas, rien ou presque, pour l’infrarouge. On ne parlait pas des
ondes millimétriques, car on ne savait pas les détecter.
Les physiciens des particules détectaient les rayons cosmiques, ou du
moins ce qu’il en restait, au sommet de hautes montagnes. Eux aussi
souhaitaient mettre leurs détecteurs dans l’espace. Ils rejoignaient
les astronomes sur les domaines et gamma, mais en ajoutant les
particules matérielles de haute énergie.
Lorsque vint le temps de choisir la charge utile du premier satellite
américain, la suggestion retenue fut de placer à bord un détecteur de
particules, cela ne nécessitait pas de pointages précis comme un
télescope et un compteur Geiger était un instrument plus simple qu’un
observatoire automatique. C’est ainsi que le Pr. Van Allen découvrit
les ceintures de radiations qui portent maintenant son nom.
Y.B.
Espace astronomique (3).
Pour les impatients, voilà la suite du sujet, il est assez vaste pour
une analyse en profondeur qui nécessite plus que quelques messages:
Le Hale du Mont Palomar, avec son miroir de 5,08 m de diamètre, soit
200 pouces, régna sans partage pendant plus de 40 ans, son concurrent
russe de Zelentchouk, construit dans les années 70, soit 30 ans après,
ne fit que confirmer que l’engin californien était le meilleurs
possible et restait de fait insurpassable.
Le seul chemin restant ouvert était l’espace. Dès les années 60, les
satellites astronomiques se succédèrent, le premier, dans le domaine
optique aux USA fut OAO : Orbital Astronomical Observatory. Il fut
suivi par beaucoup d’autres, la série culminant avec le Hubble Space
Telescope, devenu une mascotte qu’il devient impossible d’arrêter pour
des raisons morales : On ne tue pas un ami que tout le monde connaît !
Le service de public relations du HST Hubble à été à la mesure de ses
résultats : gigantesques. Pour le monde entier, Hubble est LE
télescope, l’emblème de l’astronomie. A ce jour, il n’a pas de
successeur dans le domaine visible. Le James Webb Space Telescope
(JWST), prévu pour 2013 exploitera l’infrarouge, Herschel
l’ultraviolet, mais rien n’est prévu dans la fenêtre optique. Dans
l’IR comme l’UV, rien n’est encore en place d’ailleurs.
Au cour des années 60, l’astronomie des particules de haute énergie
passa du petit détecteur d’Explorer 1, mis en place par van Allen, au
géant de 13 t soviétique lancé par une nouvelle fusée. Comme le
détecteur avait pour mission d’observer les protons de haute énergie,
le satellite fut baptisé Proton. Le nom fut pris également pour la
fusée, qui devint pour tout le monde « La » Proton. 40 ans plus tard,
le lanceur Proton continue sa carrière sous ce nom.
En 2008, les télescopes spatiaux ont fait beaucoup de progrès depuis
les années 60, ils ont grossi comme l’avait fait avant eux leurs
prédécesseurs au sol. Ils atteignent maintenant environ 2,5 m de
diamètre. C’est beaucoup et peu à la fois, ce n’est que la moitié de
ce qu’offre le Mont Palomar, juste 60 ans après celui-ci. Le progrès a
été beaucoup plus lent que prévu. Le prix de l’astronomie spatiale, la
volonté de « super-technologie » et le diamètre des lanceurs, tout à
contribué à une progression lente.
Dans ces circonstances, on se prend à se demander pourquoi ne pas
avoir cherché à développer les techniques au sol, nettement moins
chères, même si leur productivité est moindre. Il faut analyser un peu
plus l’état de la technologie des années 50 pour comprendre le barrage
qui s’est instauré dans les esprits à cette époque.
Y.B.
Espace astronomique (4).
Au 19ème siècle, les astronomes étaient l’œil rivé à l’oculaire de
leur lunette, comme on les représentent encore dans les bandes
dessinées, les auteurs littéraires n’ayant pas évolué depuis 150 ans.
Au début de 20ème siècle, la plaque photographie remplaça l’œil, le
crayon et le papier. A la fin des années 40, cette technique était à
son sommet.
Le télescope Hale permettait de prendre des cliché de 30 cm de large à
son foyer primaire. La maîtrise photographique n’avait plus grand
chose à découvrir. La gélatine des plaques, imprégnée de cristaux
d’iodure d’argent n’avait plus de secret.
On savait par exemple qu’il était nécessaire d’absorber un certain
nombre de photons par cristal pour permettre de déclencher une
réaction catalytique autorisant le développement. Plus les cristaux
étaient petits, meilleure était la finesse de l’image, mais plus il
était nécessaire d’avoir de lumière pour les impressionner. Les
émulsions à gros grain étaient donc les plus sensibles, mais donnaient
la plus basse définition. Pour voir des détails fins en astronomie, il
restait la solution d’augmenter le grossissement, ce qui permettait de
voir des objets rapprochés avec des émulsion à gros grains.
Evidemment, on perdait en champ de vision. Ce n’était pas grave pour
voir une objet particulier, par contre cela devenait fâcheux pour des
opérations de « survey » devant photographier une large part du ciel.
On savait aussi que lors des longues poses, les derniers photons
arrivés étaient plus efficaces que les premiers, la « mémoire » des
grains d’iodure d’argent étant faible. Une solution connue à ce
problème de perte de sensibilité avec le temps était de refroidir la
plaque à la température de la glace carbonique, soit –79°C.
évidemment, il était nécessaire de placer l’ensemble dans une boîte
étanche remplie de gaz sec, car à cette température, l’humidité de
l’air aurait vite fait de couvrir la plaque d’une couche de givre.
On savait aussi augmenter l’instabilité des cristaux de l’émulsion,
donc leur sensibilité à la lumière, par un traitement chimique avec
des gaz. On savait aussi pré-voiler les plaques, pour que les cristaux
d’iodure d’argent aient une dose de photons juste en dessous de ce qui
était nécessaire pour permettre leur révélation. Ainsi, il suffisait
de très peu de photons venus des étoiles pour former une image. Bref,
on connaissait tout de la photo, Kodak avait même préparé un type
spécial d’émulsion adapté à la photo astronomique, il ne restait plus
rien à découvrir.
Un gros défaut de la photo, est qu’elle n’est pas du tout linéaire,
deux fois plus de photons ne produisent pas deux fois plus de grains
sensibilisés. Il est donc impossible d’ajouter des photos les unes aux
autres, on sature très vite les objets donnant une image, quant à ceux
un peu plus faible qui ne franchissent pas le seuil, il ne sert à rien
d’ajouter des sensibilités nulles. On ne peut pas non plus soustraire
la luminosité de fond du ciel et récupérer l’image d’objets bien moins
lumineux que ce fond. Le seul moyen de se débarrasser de ce problème,
c’est d’avoir cette luminosité atmosphérique au-dessous de soit, donc
d’être dans l’espace.
Ainsi, au début des années 50, on savait tout sur la construction des
télescopes et sur les techniques photographiques pour les exploiter.
Non seulement on savait, mais on avait réalisé, les seuls avancées
possibles demandaient le nouveau domaine qui allait s’ouvrir :
l’espace.
Y.B.
Espace astronomique (5).
Le développement de l’astronomie spatiale a été bien plus lent que
prévu, on peut en dire autant de tout ce qui touche à l’astronautique,
les politiques, les militaires et les « autorités morales » s’étant
liguées pour étouffer ce domaine.
Les progrès sont venus non pas de l’espace, mais de l’électronique. A
la fin des années 60 est apparu le CCD ou Charged Coupled Device. Au
début, les surfaces étaient minimes et le nombre de points de l’image
ou pixels (picture element) limité. Par contre, le CCD avait deux
qualités extraordinaires : Il était linéaire et sa sensibilité
dépassait de loin celle des plaques photographiques. Dès les années
80, le bruit de fond électronique était tombé à quelques électrons par
seconde et la sensibilité atteignait 80%. Sur 10 photons, 8 étaient
détectés, contre 1 ou 2 sur 100 pour la photo. D’un seul coup, la
sensibilité des télescopes augmentait d’un facteur au moins 50.
La linéarité permettait aussi d’accumuler des centaines d’images, dont
les pauses pouvaient se répartir sur plusieurs nuits. La linéarité
permettait aussi de soustraire tout ce qui était continu comme la
luminosité de fond du ciel ou qui relevait du hasard comme le bruit
électronique. Il suffisait de multiplier le nombre d’images accumulées
pour améliorer le rapport signal sur bruit d’un facteur égal à la
racine carré du nombre d’images. Le seul défaut des CCD était leur
petite taille de quelques millimètres quand les plaques
photographiques atteignaient 30 cm.
Mais là aussi la loi de Moore se fit sentir et l’on passa de quelques
centaines de pixels à des milliers, des centaines de milliers, des
dizaines de millions,…Les dernières caméra astronomiques assemblent
une mosaïque de circuits et dépassent le milliard d’éléments, soit une
surface sensible d’environ 30 cm de côté, donc équivalente à celle des
anciennes plaques photos. La photographie argentique en astronomie
n’est plus qu’une activité historique ou amateur. Ces derniers sont
d’ailleurs presque tous reconvertis au CCD.
La monté en puissance des CCD permit à l’astronomie terrestre de
gagner énormément en puissance. Elle était toutefois toujours
tributaire, pour son pouvoir séparateur, de la turbulence
atmosphérique.
La première tentative sérieuse pour s’en affranchir sans aller dans
l’espace fut la spectrométrie des tavelures qu’expérimenta son
inventeur, Antoine Labeyrie, au Mont Palomar. L’idée était la
suivante : Il se forme dans l’atmosphère des cellules de convection
d’une vingtaine de centimètres de diamètre qui agissent comme autant
de lentilles indépendantes. Quand le diamètre d’un télescope dépasse
celui des cellules de convection, il voit simultanément plusieurs
images du même objet : Une image pour chaque cellule. Bien entendu,
ces cellules sont portées par le vent et défilent donc devant
l’ouverture du miroir primaire du télescope. Le raisonnement d’A.
Labeyrie était donc le suivant : Si on réalisait des pauses assez
courtes, de l’ordre du centième de seconde, on pourrait « geler » le
défilement des cellules. Avec un très fort grossissement, chaque
cellule individuelle pourrait être séparée des autres au lieu d’avoir
une image brouillée superposant toutes les images élémentaires.
Il ne reste plus alors qu’à superposer toutes ces images minuscules
pour produire une seule image débarrassée de la turbulence
atmosphérique. Cette superposition se réalise avec une transformation
de Fourier. On peut l’effectuer par le calcul sur ordinateur après
avoir numérisé l’image ou, mettre une plaque photo avec les tavelures
au foyer d’une lentille convergente et illuminer avec un faisceau de
lumière parallèle. De l’autre côté de la lentille, au foyer de celle-
ci, un écran recueille l’image par transformée de Fourier, c’est
simple !
La technique marche, mais elle a deux défauts : La nécessité de «
geler » les tavelure ne permet d’enregistrer que des objets brillants
susceptibles de laisser une trace photographique en un centième de
seconde. De plus, le très fort grossissement réduit énormément le
champ de vision.
Pour ces raisons, cette technique a été abandonnée. Elle pourrait
néanmoins revenir dans quelques années comme on le verra
ultérieurement.
Y.B.
Espace astronomique (6).
Dans les années 80, l’establishment militaire étas-unien poussa pour
un programme anti-missile basé en partie sur de puissants lasers
capables d’abattre un missile offensif dans l’espace. La technique
n’était pas au point et la « Guerre des étoiles » de Reagan fut un
flop. Le projet revient maintenant, avec des objectifs moins
ambitieux.
Une des raisons de pousser cette technologie à l’époque, était une
invention secrète, monopole des laboratoires militaires : Le contrôle
dynamique de phase. Lorsque le dispositif fut réinventé dans le
domaine civil, mais seulement décrit comme une possibilité théorique,
un foisonnement de texte démontrant l’impossibilité du concept s’en
suivi. Les chercheurs militaires ne dirent rien, eux, savaient que
c’était possible, ils avaient mêmes des prototypes.
J’ai dit précédemment, qu’une image des tavelures placée au foyer
d’une lentille convergente donnait une image unique, on dit
déconvoluée, au second foyer. Cette image unique étant la transformée
de Fourier de celle des tavelures. La proposition théorique des
astronomes était de remplacer la lentille convergente par un miroir.
Le système était constitué des éléments suivants : Au lieu de
recueillir l’image des tavelures sur une plaque photographique comme
l’avait fait Antoine Labeyrie, l’idée était d’employer le procédé plus
moderne d’un capteur CCD. L’image électronique produite par les CCD
était alors traité par un ordinateur qui en produisait la transformée
de Fourrier par un moyen mathématique.
On pouvait en tirer une image unique, mais surtout, le contraire des
lentilles qui avaient engendré les tavelures à partir d’une image
originellement unique. Ainsi, on avait les déformations d’un miroir
plan permettant de compenser les déformations optiques induites par
l’atmosphère.
Avec ce dispositif, les militaires résolvait leur problème, par
contre, les astronomes n’étaient pas au bout du chemin. Pour l’armée,
la première difficulté était de localiser très précisément dans
l’espace la position d’une charge nucléaire offensive. Les radars
n’offraient pas une précision suffisante pour une attaque par laser,
il était donc nécessaire d’employer un télescope. Mais une tête
nucléaire à des centaines de kilomètres de distance est juste un point
lumineux éclairé par des lasers guidés vers leur cible par des radars.
Cette illumination de la cible ne demande pas une grande précision,
les radars sont donc suffisant à ce stade, comme le pointage des
lasers. Mais détruire la cible est une autre affaire, là, il faut une
grande puissance laser très concentrée.
Un laser en orbite dans l’espace ou porté par un avion à haute
altitude n’était pas assez puissant, compte tenu des contraintes de
masse pour abattre la cible. Un laser au sol pouvait avoir une taille
suffisante, mais il devait vaincre la turbulence atmosphérique. Il
devait même la vaincre deux fois : une pour localiser précisément sa
cible à quelques centimètres près et donc savoir où tirer et une pour
éviter la dispersion de son faisceau avant qu’il n’atteigne son
objectif.
Observer les tavelures de la cible, calculer l’image unique par
ordinateur, cela répondait au premier objectif de localisation.
Restait la question d’empêcher la dispersion du rayon destructif.
C’est là qu’intervenait le miroir déformable : Il déformait à
l’origine, donc à la sortie du laser, le rayon de façon à avoir le
contraire de la déformation atmosphérique sur le trajet vers la cible.
L’atmosphère détruisait alors la déformation initiale et produisait
finalement un faisceau parfaitement collimaté, capable d’abattre la
charge attaquante.
Grâce à l’illumination par les lasers, la cible était un objectif
assez lumineux, par contre, pour la suivre à la vitesse de plus de 6
km/s, il était nécessaire de réagir très vite, donc d’effectuer les
calculs de correction atmosphérique le long de la trajectoire en un
temps particulièrement court, de l’ordre du dix millième de seconde.
Les astronomes, eux, pouvaient se contenter du centième de seconde,
mais ils avaient d’autres problèmes.
Y.B.
Espace astronomique (7).
Allez, encore une petite louche pour nos banquiers:
Bien que le diamètre des miroirs utilisés dans les systèmes d’armes
laser soient un secret, on sait d’après certaines photos générales,
qu’ils sont de l’ordre du mètre. Comme les cellules de convexion
atmosphériques mesurent une vingtaine de centimètres de diamètre, il
en va cinq dans un diamètre de miroir. En gros, il faut donc corriger
environ 25 cellules pour couvrir le miroir. Si l’on compte trois
actuateur pour déformer le miroir par cellule, cela donne un total de
75 actuateurs à commander. A noter que le système agit sur un grand
miroir métrique, ce qui ne sera pas le cas en astronomie.
Pour les astronomes, la situation est plus favorable au niveau de la
vitesse de réaction : 100 corrections par seconde sont suffisantes et
même moins si l’on se contente de travailler dans l’infrarouge où
l’effet de la turbulence est moindre du fait de la plus faible
dispersion de l’ indice de réfraction. Les télescopes astronomiques ne
se heurtent pas à des questions comme la puissance par centimètre
carré qui exige d’effectuer la correction sur une grande surface pour
les dispositifs militaires. Le miroir correcteur en astronomie est
donc limité à quelques centimètres de diamètre ou un peu plus, même si
le miroir primaire atteint plusieurs mètres, 8 ou 10.
Par contre, le grand diamètre du miroir primaire implique qu’il « voit
» un grand nombre de cellules de convection, environ 1600 pour 8m de
diamètre. C’est donc près de 5000 actuateurs qu’il faut envisager sur
ces systèmes. La génération des 30 m contemplée actuellement en
nécessitera 16 fois plus, soit 80 000 ! Pour l’instant, cette
technologie encore récente en est à quelques centaines d’actuateurs,
c’est dire que la correction des télescopes existants est loin d’être
parfaite. En réalité, elle n’est acceptable que dans le domaine
infrarouge pour l’instant.
Une autre limitation des premiers systèmes a été de trouver dans le
champ de vision une étoile assez brillante pour mesurer à l’échelle du
centième de seconde la correction à effectuer. Comme on l’a vu
précédemment, la première étape de l’analyse consiste à obtenir une
image des tavelures produites par la turbulence. Or, cela exige un
très fort grossissement, donc une longue focale car le grossissement
est le quotient de la focale du primaire par celle de « l’oculaire ».
Evidemment, il n’y a pas à proprement parler d’oculaire ici, mais il y
a un dispositif optique qui joue le même rôle. Le résultat de cette
exigence de fort grossissement est que l’on a un champ réduit. Trouver
dans ces conditions une étoile assez brillante ne va pas de soit,
seule environ 1% du ciel répond à cette exigence et peut donc être
traité par ces systèmes de correction adaptative.
L’évolution suivante a été de créer des « étoiles artificielles » avec
des lasers produisant une fluorescence des atomes de sodium de la
haute atmosphère vers 80 km d’altitude. La lumière renvoyée vers le
sol par ces dispositifs est faible et correspond à une étoile de
magnitude 8 tout au plus (6,25 fois moins lumineuse que les plus
faibles visibles à l’œil nu). Toutefois, cela suffit pour les CCD,
ainsi la totalité du ciel devient observable. Par contre, le champ
reste réduit. La dernière évolution en date consiste à tirer plusieurs
faisceaux lasers et à observer la turbulence avec autant de
dispositifs de correction dans des directions un peu différentes afin
de couvrir un champ plus grand.
On part d’un champ très étroit d’une fraction de minute d’arc (le
diamètre apparent de la Lune est de 30 minutes en comparaison) il faut
donc un très grand nombre de dispositifs pour gagner plusieurs minutes
voir plusieurs degrés. Or, justement, ce qui est intéressant sur les
gros télescopes, ce sont les études statistiques sur des objets
lointains et nombreux. Il faut donc de grands champs, ce qui est loin
d’être le cas actuellement.
Ainsi, les télescopes au sol de grand diamètre, nettement plus grand
que celui du Mont Palomar sont possibles, mais ils peuvent aussi
s’affranchir de la turbulence atmosphérique avec toutefois deux
limitations : l’angle du champ observable et le domaine spectral
limité pour l’instant à l’infrarouge. Tout n’est pas possible au sol
mais pour certaines observations, celles visant un objet particulier,
« l’offre au sol » est plus compétitive que celle de l’espace. Par
contre, pour les grands champs en spectre visible et ultraviolet,
l’espace n’a pas de concurrence actuellement.
Y.B.
Espace astronomique (8).
Les dispositifs militaires demandent de grandes surfaces correctrices,
une grande vitesse d’action, mais peuvent se contenter de l’infrarouge
moins exigeant que le domaine optique. La luminosité de la cible n’est
pas non plus pour eux un facteur limitatif, puisque l’illumination par
les lasers donne autant de brillance que l’on peut en souhaiter ou
presque.
L’astronomie, pour sa part, est moins exigeante en terme de vitesse et
de surface active de correction, mais beaucoup plus en ce qui concerne
le nombre d’actuateurs, le domaine spectrale à couvrir et le champ
d’observation. Si, après une vingtaine d’années d’efforts les
exigences du secteur militaire semblent en voie d’être satisfaites, il
n’en va pas de même pour l’astronomie qui a encore de gros progrès à
accomplir pour tirer le parti maximum des télescopes de la génération
des 8 m. Or, la course est entamée pour l’étape suivante, celle des 30
m avec les télescopes Magellan, Moore et OWL.
Le dernier projet en matière de 8m est un instrument de « survey »
avec un champ de 7 degrés, ce qui est énorme. A ce niveau, il est
impossible d’éviter les déformations de l’image. Les télescopes
d’amateurs ont généralement un miroir parabolique ou sphérique si le
rapport focale sur diamètre dépasse 7 ou 8 pour 20 cm de diamètre. En
effet, dans ces conditions, il n’y a plus de différence significative
entre calotte sphérique et parabole. Toutefois, ces télescopes
souffrent d’un défaut optique : l’aberration de coma (ou chevelure)
qui montre les objets ponctuels comme les étoiles, à la périphérie du
champ sous forme de « comètes ».
En réalité, ce n’est pas un défaut du miroir primaire parabolique,
mais du capteur. Le plan focal n’est pas un plan, mais une surface
courbe. Si l’on insiste pour avoir un capteur fonctionnant dans un
plan, plus on s’écarte de l’axe de l’instrument, plus l’écart entre le
« plan focal » et la surface focale réelle devient grand. C’est cet
écart qui crée l’aberration de coma. Les télescopes professionnels
exploitent des miroirs primaires plus complexes : les Ritchey-
Chrétient avec des surfaces hyperboliques aussi bien au primaire qu’au
secondaire. Le but est d’avoir une surface focale plus plane et donc
de pouvoir exploiter un plus grand diamètre à peu près plan dans le
secteur. Plus le diamètre exploitable est grand, plus le champ est
grand. Pour augmenter le champ, il faut réduire le rapport focale/
diamètre du miroir primaire en le creusant plus. C’est devenu
techniquement acceptable avec le « spin cast » ou moulage rotatif des
miroirs, mais plus le rapport F/D diminue, plus la surface focale
devient courbe et génère des aberrations. La technologie optique pour
limiter cet effet devient de plus en plus difficile.
Au temps des plaques photographiques, les astronomes avaient pris
l’habitude de déformer quelque peu leurs plaques quand c’était
possible ( Si les distances angulaires n’étaient pas de première
importance, donc si l’on pouvait se passer d’un support rigide plan en
verre). Cela permettait de gagner en champ utile. Dans ce domaine, les
CCD n’ont pas été un progrès : fabriqués à partir de tranches de
monocristaux de silicium, leur rigidité est extrêmement élevée, de
plus le silicium est cassant et ne peut être courbé . La technique du
découpage en tranche du cristal initial interdit la production de
surfaces courbes.
Donc, même si l’on dispose de CCD aussi grands que l’on veut, le champ
d’un télescope donné est plus faible pour les CCD que pour la photo.
Cette situation est du moins valable pour l’image brute. Actuellement,
la puissance de calcul des ordinateurs a changé quelque peu la
situation : Même si l’image CCD dépasse le domaine sans grandes
aberrations, la déconvolution des images permet de récupérer une image
nette. Cela se fait toutefois avec une certaine baisse de sensibilité,
les détails les plus faibles sont perdus. On peut donc avoir de
grandes images nettes avec les CCD, mais elles perdent en sensibilité
sur le bord, tout se passe comme si le diamètre du télescope diminuait
près du bord de l’image. On voit ici un autre compromis à réaliser
avec les instruments actuels. Cette situation s’impose aussi bien pour
les appareils au sol que dans l’espace.
Y.B.
--
Allez, une lampée pour nos politiciens, une!
Espace astronomique (9).
Nous en sommes, au sol, à la génération des 8 m. Quatre technologies
ont été mises en œuvre pour ces télescopes, chacune ayant permis de
dépasser la limite que l’on croyait infranchissable du Hale au Mont
Palomar :
La première à été celle des multi-miroirs avec un plan focal commun,
c’est, historiquement la première à avoir été mise en œuvre. Le seul
télescope construit à ce jour sur ce modèle à été le MMT ou Multi
Mirrors Telescope comportant 6 miroirs circulaires donnant une surface
totale égale à celle d’un miroir unique de 6 m. Depuis, ces miroirs
ont été remplacés par un miroir unique de 6m en nids d’abeilles
produit par spin cast au laboratoire d’optique de l’université
d’Arizona. La technique du MMT a été la première à mettre en œuvre le
positionnement dynamique des miroirs pour garder un plan focal commun
à une fraction de longueur d’onde près. Cette technique est maintenant
reprise dans le projet Magellan avec des miroirs élémentaires de 8 m.
La seconde technique, reprend les miroirs en nids d’abeilles du Hale
avec un seul miroir en verre borosilicate. L’ancienne limite provenait
du fait que le disque brut était moulé au repos, sa surface était
plane et il était donc nécessaire de le creuser. Evidemment, au
centre, à la profondeur maximum, on ne devait pas dépasser l’épaisseur
de la partie compacte. La partie évidée en nids d’abeilles ne pouvait
commencer qu’en dessous. Même au centre, on devait garder une bonne
épaisseur compacte pour assurer la rigidité et éviter trop de
déformation. Sur les bords, on retrouvait donc le maximum d’épaisseur
et ainsi la plus grande masse et la plus grande inertie thermique.
C’est cette inertie thermique qui limitait la taille du miroir comme
on l’a vu pour le 6m de Zelentchouk.
L’idée de Robert Angel de l’Université d’Arizona a été de fabriquer le
disque initial dans un four tournant, la force centrifuge imposant une
surface parabolique. Il devenait possible de « suivre » cette courbure
avec les nids d’abeilles et donc de maintenir une épaisseur compacte
identique du centre vers les bords. Le miroir était plus léger, il
n’était plus nécessaire de le creuser à l’ébauchage et surtout, son
inertie thermique était réduite. A priori, on aurait pu couler un
disque de surface plane avec des nids d’abeilles de différentes
hauteur du centre vers les bords, mais on n’évitait pas ainsi le
creusement à l’ébauchage qui en retirant une grande masse de verre
aurait libéré des contraintes amenant presque sûrement la casse du
miroir trop fragile pour supporter cette opération.
La troisième technique a été d’employer un nouveau matériau à très
faible coefficient de dilatation thermique, la céramique. Il existe
plusieurs produits similaires plus ou moins connus sous leur nom
commercial, le plus célèbre étant le Zerodur (qui est une marque
enregistrée, comme Frigidaire de GM, mais qui sert souvent de nom
commun). Le Zerodur et assimilé ne peut être produit actuellement en
grandes surface, la dimension maximum est de l’ordre de 2m de
diamètre. L’idée à donc été de découper ces disques en hexagones et de
les assembler à chaud dans un four tournant pour, là aussi, donner la
forme initiale du miroir sans avoir à le creuser. La technique à été
employée par Schott en Allemagne pour les disques des miroirs des
télescopes du Paranal. Leur épaisseur est très faible pour leur
diamètre : Une vingtaine de centimètres pour des disques de 8m. Malgré
la rigidité des céramiques, ils se déforment considérablement suivant
leur position. Ce type de miroirs n’est donc possible qu’avec une
monture dynamique corrigeant continuellement les déformations.
La quatrième technique est celle des miroirs mosaïque formés
d’hexagones de moins de 2 m en général. Là, il faut assurer à la fois
un plan focal commun comme dans la première version du MMT, mais aussi
compenser les déformations dynamiques et statiques comme dans les
miroirs fins en céramique. C’est donc la solution techniquement la
plus avancée et celle qui demande le plus de puissance de calcul et de
précision dans les actuateurs mécaniques. La mise au point de la
version civile a demandé quelques années, mais les deux Keck de Hawaï
construits sur ce principe sont maintenant pleinement opérationnels.
Les moyens de transport ne permettent pas de déplacer des miroirs
nettement plus grands que la génération des 8m actuels, seuls donc les
miroirs mosaïques et les multimiroirs comme le MMT permettent d’aller
plus loin.
La différence essentielle entre ces télescopes de 8 – 10 m actuels et
le Hale est que la génération actuelle est perçue non comme une fin,
mais comme les prototypes de télescopes beaucoup plus grands. La
planification actuelle est celle de la génération des 30 m.
L’astronomie au sol n’est donc pas au terme de son évolution.
Y.B.
« Modifié: 03 novembre 2008, 11:24:39 am par Jacques »
IP archivée