Bienvenue, Invité. Merci de vous connecter ou de vous inscrire.
Avez-vous perdu votre e-mail d'activation ?

27 avril 2024, 02:04:56 pm

Login with username, password and session length

Shoutbox

Membres
Stats
  • Total des messages: 5084
  • Total des sujets: 2368
  • En ligne aujourd'hui: 76
  • Record de connexion total: 138
  • (14 novembre 2018, 09:31:35 pm)
Membres en ligne
Membres: 0
Invités: 63
Total: 63

Auteur Sujet: L'espace astronomique selon YB :  (Lu 2031 fois)

JacquesL

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 4 595
L'espace astronomique selon YB :
« le: 13 octobre 2008, 08:33:45 am »
L'espace astronomique selon YB :

Citation de: YB
Espace astronomique (1)

Je commence ici une  série de réflexions sur l’espace avec, pour
thème, l’astronomie spatiale et terrestre, vue plus particulièrement
du côté de l’instrumentation.Pour l'essentiel, ce texte a été publié
sur Fr.sci.astronautique, mais peut intéresser les "astronomes".

Dès l’invention du télescope, il devint rapidement évident que la
turbulence atmosphérique posait un problème. Celui-ci n’a jamais
cessé.

En 1948, les Etats-Unis inaugurèrent le plus grand télescope du monde,
le Hale du Mont Palomar en Californie. Doté d’un miroir primaire de
5,08 m de diamètre, construit avec une structure en nids d’abeilles
pour gagner en poids et inertie thermique, il était un chef-d’œuvre
qui paraissait impossible à surpasser. Ses concepteurs savaient par
exemple qu’un télescope plus grand aurait une inertie thermique telle
qu’il ne pourrait jamais être mis convenablement en température, ce
qui provoquerait des mouvements de convexion atmosphérique près du
miroir, ce qui dégraderait les images.

Plus d’un quart de siècle plus tard, les bureaucrates soviétiques
décidèrent de passer outre et de construire pour la gloriole le plus
grand télescope du monde : Le Zelentchouk de 6m de diamètre avec un
miroir massif. Le premier miroir cassa lors du polissage car on avait
oublier de mélanger du TritonX (un puissant détergent très toxique) au
liquide servant de solvant à l’abrasif. Ils utilisaient de l’eau
déminéralisée au lieu de kérosène additionné de TritonX, la poussière
de verre s’accumulât alors dans les rayures du verre, ce qui finit par
provoquer une tension de surface suffisante pour casser le disque de
verre.

Le second miroir fut traité plus correctement et arriva jusqu’à la
finition, mais son inertie thermique ne lui permit jamais, sur un site
de qualité douteuse, d’obtenir de bon résultats. La démonstration
était faite, rien ne pouvait surpasser le Mont Palomar. Et pourtant,
ce télescope, avec son pouvoir collecteur de lumière unique au monde,
n’avait pas une capacité de séparation optique supérieure à celle d’un
bon 20 cm amateur !

Evidemment, tous les astronomes le savaient, mais ils savait aussi qu’il
n’y avait pas de solution au problème… A moins d’aller dans l’espace,
au-dessus de l’atmosphère.

A Londres, dès 1944, sous les bombes des V2, certains se réjouirent de
ce qui arrivait : Ils savaient la fin de la guerre proche, quelques
mois, un ou deux ans tout au plus. Ils savaient aussi que leur camp
gagnerait et pourrait bénéficier de la technologie de l’adversaire, en
particulier ces bombes lancées par fusée qui arrivaient plus vite que
le son. Quelques calculs rapides leur montrait que les fusées qui
lançaient ces bombes devait atteindre 70 km d’altitude, presque la
limite de l’espace. Un autre calcul du type « dos d’enveloppe » leur
montrait qu’avec la technique des étages multiples, il serait possible
d’atteindre la vitesse orbitale et donc de créer un satellite
artificiel de la Terre. De là à y mettre un télescope, il n’y avait
qu’un pas.

Y.B.


Citation de: YB
Espace astronomique (2).

A la fin des années 40 et pendant les années 50, la situation était
claire : Avec le télescope du Mont Palomar, le plus puissant engin
possible avait été construit, on ne ferait jamais mieux, les calculs
montraient qu’un télescope plus gros serait en fait moins performant
en raison des problèmes de mise en température du miroir et de flexion
de la monture.

Par contre, la technique des fusées rendait possible la conception
d’observatoires spatiaux. Le rêve était alors de mettre les «
demoiselles des téléphones » en orbite à bord d’une station spatiale,
on disait alors une lune artificielle, pour qu’elles puissent brancher
les communications téléphoniques intercontinentales. Les chefs
militaires, dans une autre section de la même mini-Lune, équipés de
puissantes jumelles devaient observer les batailles et donner des
ordres en direct. Encore une autre partie de la station et là les
météorologues pouvaient voir le déplacement des nuages et prédire le
temps une semaine à l’avance. Il ne restait plus qu’à rajouter une
section pour les astronomes et leur télescope spatial. On était en
plein dans les histoires de Tom Swift de Victor Appleton, le
pseudonyme d’un groupe d’auteurs dont certains avec un bon bagage
scientifique.

On sait ce qu’il est advenu des demoiselles du téléphone et des
satcoms, un marché inimaginable à l’époque. L’électronique à laissé
les militaires au sol, comme les météorologues d’ailleurs. Les
astronomes ne vont guère dans l’espace pour l’instant, ce qui
n’empêche pas les satellites astronomiques. Ainsi, l’idée à survécu.

Vers 1955, le développement des fusées, pour les besoins militaires,
rendait évident la prochaine réalisation d’un satellite artificiel de
la Terre, ce n’était plus un rêve, mais un programme dont l’échéance
était fixé à 1958, déclarée année géophysique internationale. Entre
temps, les astronomes s’étaient rendu compte qu’un satellite
astronomique avec des hommes à bord n’était guère concevable : les
mouvements à l’intérieur de l’appareil détruirait immanquablement
toute tentative de pointage un peu précis. L’idée était donc qu’un
satellite astronomique devait être automatique, ce qui dispensait
d’attendre jusqu’à ce que l’homme puisse aller dans l’espace. Le
projet devenait d’autant plus crédible.

Pendant cette période de réflexion, le domaine encore inexistant de
l’astronomie spatiale s’étendit considérablement. Il ne s’agissait
plus seulement de se débarrasser du trouble de l’atmosphère terrestre,
mais aussi d’observer dans des domaines  impossibles au sol.
L’atmosphère est opaque à la majorité des longueurs d’ondes, elle ne
laisse passer que la lumière et une partie des ondes radio. Rien dans
le domaine de l’ultraviolet, rien pour les rayons X, rien pour les
gammas, rien ou presque, pour l’infrarouge. On ne parlait pas des
ondes millimétriques, car on ne savait pas les détecter.

Les physiciens des particules détectaient les rayons cosmiques, ou du
moins ce qu’il en restait, au sommet de hautes montagnes. Eux aussi
souhaitaient mettre leurs détecteurs dans l’espace. Ils rejoignaient
les astronomes sur les domaines  et gamma, mais en ajoutant les
particules matérielles de haute énergie.

Lorsque vint le temps de choisir la charge utile du premier satellite
américain, la suggestion retenue fut de placer à bord un détecteur de
particules, cela ne nécessitait pas de pointages précis comme un
télescope et un compteur Geiger était un instrument plus simple qu’un
observatoire automatique. C’est ainsi que le Pr. Van Allen découvrit
les ceintures de radiations qui portent maintenant son nom.

Y.B.


Citation de: YB
Espace astronomique (3).

Pour les impatients, voilà la suite du sujet, il est assez vaste pour
une analyse en profondeur qui nécessite plus que quelques messages:


Le Hale du Mont Palomar, avec son miroir de 5,08 m de diamètre, soit
200 pouces, régna sans partage pendant plus de 40 ans, son concurrent
russe de Zelentchouk, construit dans les années 70, soit 30 ans après,
ne fit que confirmer que l’engin californien était le meilleurs
possible et restait de fait insurpassable.

Le seul chemin restant ouvert était l’espace. Dès les années 60, les
satellites astronomiques se succédèrent, le premier, dans le domaine
optique aux USA fut OAO : Orbital Astronomical Observatory. Il fut
suivi par beaucoup d’autres, la série culminant avec le Hubble Space
Telescope, devenu une mascotte qu’il devient impossible d’arrêter pour
des raisons morales : On ne tue pas un ami que tout le monde connaît !

Le service de public relations du HST Hubble à été à la mesure de ses
résultats : gigantesques. Pour le monde entier, Hubble est LE
télescope, l’emblème de l’astronomie. A ce jour, il n’a pas de
successeur dans le domaine visible. Le James Webb Space Telescope
(JWST), prévu pour 2013 exploitera l’infrarouge, Herschel
l’ultraviolet, mais rien n’est prévu dans la fenêtre optique. Dans
l’IR comme l’UV, rien n’est encore en place d’ailleurs.

Au cour des années 60, l’astronomie des particules de haute énergie
passa du petit détecteur d’Explorer 1, mis en place par van Allen, au
géant de 13 t soviétique lancé par une nouvelle fusée. Comme le
détecteur avait pour mission d’observer les protons de haute énergie,
le satellite fut baptisé Proton. Le nom fut pris également pour la
fusée, qui devint pour tout le monde « La » Proton. 40 ans plus tard,
le lanceur Proton continue sa carrière sous ce nom.

En 2008, les télescopes spatiaux ont fait beaucoup de progrès depuis
les années 60, ils ont grossi comme l’avait fait avant eux leurs
prédécesseurs au sol. Ils atteignent maintenant environ 2,5 m de
diamètre. C’est beaucoup et peu à la fois, ce n’est que la moitié de
ce qu’offre le Mont Palomar, juste 60 ans après celui-ci. Le progrès a
été beaucoup plus lent que prévu. Le prix de l’astronomie spatiale, la
volonté de « super-technologie » et le diamètre des lanceurs, tout à
contribué à une progression lente.

Dans ces circonstances, on se prend à se demander pourquoi ne pas
avoir cherché à développer les techniques au sol, nettement moins
chères, même si leur productivité est moindre. Il faut analyser un peu
plus l’état de la technologie des années 50 pour comprendre le barrage
qui s’est instauré dans les esprits à cette époque.

Y.B.


Citation de: YB
Espace astronomique (4).

Au 19ème siècle, les astronomes étaient l’œil rivé à l’oculaire de
leur lunette, comme on les représentent encore dans les bandes
dessinées, les auteurs littéraires n’ayant pas évolué depuis 150 ans.
Au début de 20ème siècle, la plaque photographie remplaça l’œil, le
crayon et le papier. A la fin des années 40, cette technique était à
son sommet.

Le télescope Hale permettait de prendre des cliché de 30 cm de large à
son foyer primaire. La maîtrise photographique n’avait plus grand
chose à découvrir. La gélatine des plaques, imprégnée de cristaux
d’iodure d’argent n’avait plus de secret.

On savait par exemple qu’il était nécessaire d’absorber un certain
nombre de photons par cristal pour permettre de déclencher une
réaction catalytique autorisant le développement. Plus les cristaux
étaient petits, meilleure était la finesse de l’image, mais plus il
était nécessaire d’avoir de lumière pour les impressionner. Les
émulsions à gros grain étaient donc les plus sensibles, mais donnaient
la plus basse définition. Pour voir des détails fins en astronomie, il
restait la solution d’augmenter le grossissement, ce qui permettait de
voir des objets rapprochés avec des émulsion à gros grains.
Evidemment, on perdait en champ de vision. Ce n’était pas grave pour
voir une objet particulier, par contre cela devenait fâcheux pour des
opérations de « survey » devant photographier une large part du ciel.

On savait aussi que lors des longues poses, les derniers photons
arrivés étaient plus efficaces que les premiers, la « mémoire » des
grains d’iodure d’argent étant faible. Une solution connue à ce
problème de perte de sensibilité avec le temps était de refroidir la
plaque à la température de la glace carbonique, soit –79°C.
évidemment, il était nécessaire de placer l’ensemble dans une boîte
étanche remplie de gaz sec, car à cette température, l’humidité de
l’air aurait vite fait de couvrir la plaque d’une couche de givre.

On savait aussi augmenter l’instabilité des cristaux de l’émulsion,
donc leur sensibilité à la lumière, par un traitement chimique avec
des gaz. On savait aussi pré-voiler les plaques, pour que les cristaux
d’iodure d’argent aient une dose de photons juste en dessous de ce qui
était nécessaire pour permettre leur révélation. Ainsi, il suffisait
de très peu de photons venus des étoiles pour former une image. Bref,
on connaissait tout de la photo, Kodak avait même préparé un type
spécial d’émulsion adapté à la photo astronomique, il ne restait plus
rien à découvrir.

Un gros défaut de la photo, est qu’elle n’est pas du tout linéaire,
deux fois plus de photons ne produisent pas deux fois plus de grains
sensibilisés. Il est donc impossible d’ajouter des photos les unes aux
autres, on sature très vite les objets donnant une image, quant à ceux
un peu plus faible qui ne franchissent pas le seuil, il ne sert à rien
d’ajouter des sensibilités nulles. On ne peut pas non plus soustraire
la luminosité de fond du ciel et récupérer l’image d’objets bien moins
lumineux que ce fond. Le seul moyen de se débarrasser de ce problème,
c’est d’avoir cette luminosité atmosphérique au-dessous de soit, donc
d’être dans l’espace.

Ainsi, au début des années 50, on savait tout sur la construction des
télescopes et sur les techniques photographiques pour les exploiter.
Non seulement on savait, mais on avait réalisé, les seuls avancées
possibles demandaient le nouveau domaine qui allait s’ouvrir :
l’espace.


Y.B.


Citation de: YB
Espace astronomique (5).

Le développement de l’astronomie spatiale a été bien plus lent que
prévu, on peut en dire autant de tout ce qui touche à l’astronautique,
les politiques, les militaires et les « autorités morales » s’étant
liguées pour étouffer ce domaine.

Les progrès sont venus non pas de l’espace, mais de l’électronique. A
la fin des années 60 est apparu le CCD ou Charged Coupled Device. Au
début, les surfaces étaient minimes et le nombre de points de l’image
ou pixels (picture element) limité. Par contre, le CCD avait deux
qualités extraordinaires : Il était linéaire et sa sensibilité
dépassait de loin celle des plaques photographiques. Dès les années
80, le bruit de fond électronique était tombé à quelques électrons par
seconde et la sensibilité atteignait 80%. Sur 10 photons, 8 étaient
détectés, contre 1 ou 2 sur 100 pour la photo. D’un seul coup, la
sensibilité des télescopes augmentait d’un facteur au moins 50.

La linéarité permettait aussi d’accumuler des centaines d’images, dont
les pauses pouvaient se répartir sur plusieurs nuits. La linéarité
permettait aussi de soustraire tout ce qui était continu comme la
luminosité de fond du ciel ou qui relevait du hasard comme le bruit
électronique. Il suffisait de multiplier le nombre d’images accumulées
pour améliorer le rapport signal sur bruit d’un facteur égal à la
racine carré du nombre d’images. Le seul défaut des CCD était leur
petite taille de quelques millimètres quand les plaques
photographiques atteignaient 30 cm.

Mais là aussi la loi de Moore se fit sentir et l’on passa de quelques
centaines de pixels à des milliers, des centaines de milliers, des
dizaines de millions,…Les dernières caméra astronomiques assemblent
une mosaïque de circuits et dépassent le milliard d’éléments, soit une
surface sensible d’environ 30 cm de côté, donc équivalente à celle des
anciennes plaques photos. La photographie argentique en astronomie
n’est plus qu’une activité historique ou amateur. Ces derniers sont
d’ailleurs presque tous reconvertis au CCD.

La monté en puissance des CCD permit à l’astronomie terrestre de
gagner énormément en puissance. Elle était toutefois toujours
tributaire, pour son pouvoir séparateur, de la turbulence
atmosphérique.

La première tentative sérieuse pour s’en affranchir sans aller dans
l’espace fut la spectrométrie des tavelures qu’expérimenta son
inventeur, Antoine Labeyrie, au Mont Palomar. L’idée était la
suivante : Il se forme dans l’atmosphère des cellules de convection
d’une vingtaine de centimètres de diamètre qui agissent comme autant
de lentilles indépendantes. Quand le diamètre d’un télescope dépasse
celui des cellules de convection, il voit simultanément plusieurs
images du même objet : Une image pour chaque cellule. Bien entendu,
ces cellules sont portées par le vent et défilent donc devant
l’ouverture du miroir primaire du télescope. Le raisonnement d’A.
Labeyrie était donc le suivant : Si on réalisait des pauses assez
courtes, de l’ordre du centième de seconde, on pourrait « geler » le
défilement des cellules. Avec un très fort grossissement, chaque
cellule individuelle pourrait être séparée des autres au lieu d’avoir
une image brouillée superposant toutes les images élémentaires.

Il ne reste plus alors qu’à superposer toutes ces images minuscules
pour produire une seule image débarrassée de la turbulence
atmosphérique. Cette superposition se réalise avec une transformation
de Fourier. On peut l’effectuer par le calcul sur ordinateur après
avoir numérisé l’image ou, mettre une plaque photo avec les tavelures
au foyer d’une lentille convergente et illuminer avec un faisceau de
lumière parallèle. De l’autre côté de la lentille, au foyer de celle-
ci, un écran recueille l’image par transformée de Fourier, c’est
simple !

La technique marche, mais elle a deux défauts : La nécessité de «
geler » les tavelure ne permet d’enregistrer que des objets brillants
susceptibles de laisser une trace photographique en un centième de
seconde. De plus, le très fort grossissement réduit énormément le
champ de vision.

Pour ces raisons, cette technique a été abandonnée. Elle pourrait
néanmoins revenir dans quelques années comme on le verra
ultérieurement.

Y.B.


Citation de: YB
Espace astronomique (6).

Dans les années 80, l’establishment militaire étas-unien poussa pour
un programme anti-missile basé en partie sur de puissants lasers
capables d’abattre un missile offensif dans l’espace. La technique
n’était pas au point et la « Guerre des étoiles » de Reagan fut un
flop. Le projet revient maintenant, avec des objectifs moins
ambitieux.
Une des raisons de pousser cette technologie à l’époque, était une
invention secrète, monopole des laboratoires militaires : Le contrôle
dynamique de phase. Lorsque le dispositif fut réinventé dans le
domaine civil, mais seulement décrit comme une possibilité théorique,
un foisonnement de texte démontrant l’impossibilité du concept s’en
suivi. Les chercheurs militaires ne dirent rien, eux, savaient que
c’était possible, ils avaient mêmes des prototypes.

J’ai dit précédemment, qu’une image des tavelures placée au foyer
d’une lentille convergente donnait une image unique, on dit
déconvoluée,  au second foyer. Cette image unique étant la transformée
de Fourier de celle des tavelures. La proposition théorique des
astronomes était de remplacer la lentille convergente par un miroir.
Le système était constitué des éléments suivants : Au lieu de
recueillir l’image des tavelures sur une plaque photographique comme
l’avait fait Antoine Labeyrie, l’idée était d’employer le procédé plus
moderne d’un capteur CCD. L’image électronique produite par les CCD
était alors traité par un ordinateur qui en produisait la transformée
de Fourrier par un moyen mathématique.

On pouvait en tirer une image unique, mais surtout, le contraire des
lentilles qui avaient engendré les tavelures à partir d’une image
originellement unique. Ainsi, on avait les déformations d’un miroir
plan permettant de compenser les déformations optiques induites par
l’atmosphère.

Avec ce dispositif, les militaires résolvait leur problème, par
contre, les astronomes n’étaient pas au bout du chemin. Pour l’armée,
la première difficulté était de localiser très précisément dans
l’espace la position d’une charge nucléaire offensive. Les radars
n’offraient pas une précision suffisante pour une attaque par laser,
il était donc nécessaire d’employer un télescope. Mais une tête
nucléaire à des centaines de kilomètres de distance est juste un point
lumineux éclairé par des lasers guidés vers leur cible par des radars.
Cette illumination de la cible ne demande pas une grande précision,
les radars sont donc suffisant à ce stade, comme le pointage des
lasers. Mais détruire la cible est une autre affaire, là, il faut une
grande puissance laser très concentrée.

Un laser en orbite dans l’espace ou porté par un avion à haute
altitude n’était pas assez puissant, compte tenu des contraintes de
masse pour abattre la cible. Un laser au sol pouvait avoir une taille
suffisante, mais il devait vaincre la turbulence atmosphérique. Il
devait même la vaincre deux fois : une pour localiser précisément sa
cible à quelques centimètres près et donc savoir où tirer et une pour
éviter la dispersion de son faisceau avant qu’il n’atteigne son
objectif.

Observer les tavelures de la cible, calculer l’image unique par
ordinateur, cela répondait au premier objectif de localisation.
Restait la question d’empêcher la dispersion du rayon destructif.
C’est là qu’intervenait le miroir déformable : Il déformait à
l’origine, donc à la sortie du laser, le rayon de façon à avoir le
contraire de la déformation atmosphérique sur le trajet vers la cible.
L’atmosphère détruisait alors la déformation initiale et produisait
finalement un faisceau parfaitement collimaté, capable d’abattre la
charge attaquante.

Grâce à l’illumination par les lasers, la cible était un objectif
assez lumineux, par contre, pour la suivre à la vitesse de plus de 6
km/s, il était nécessaire de réagir très vite, donc d’effectuer les
calculs de correction atmosphérique le long de la trajectoire en un
temps particulièrement court, de l’ordre du dix millième de seconde.

Les astronomes, eux, pouvaient se contenter du centième de seconde,
mais ils avaient d’autres problèmes.

Y.B.


Citation de: YB
Espace astronomique (7).

Allez, encore une petite louche pour nos banquiers:

Bien que le diamètre des miroirs utilisés dans les systèmes d’armes
laser soient un secret, on sait d’après certaines photos générales,
qu’ils sont de l’ordre du mètre. Comme les cellules de convexion
atmosphériques mesurent une vingtaine de centimètres de diamètre, il
en va cinq dans un diamètre de miroir. En gros, il faut donc corriger
environ 25 cellules pour couvrir le miroir. Si l’on compte trois
actuateur pour déformer le miroir par cellule, cela donne un total de
75 actuateurs à commander. A noter que le système agit sur un grand
miroir métrique, ce qui ne sera pas le cas en astronomie.

Pour les astronomes, la situation est plus favorable au niveau de la
vitesse de réaction : 100 corrections par seconde sont suffisantes et
même moins si l’on se contente de travailler dans l’infrarouge où
l’effet de la turbulence est moindre du fait de la  plus faible
dispersion de l’ indice de réfraction. Les télescopes astronomiques ne
se heurtent pas à des questions comme la puissance par centimètre
carré qui exige d’effectuer la correction sur une grande surface pour
les dispositifs militaires. Le miroir correcteur en astronomie est
donc limité à quelques centimètres de diamètre ou un peu plus, même si
le miroir primaire atteint plusieurs mètres, 8 ou 10.

Par contre, le grand diamètre du miroir primaire implique qu’il « voit
» un grand nombre de cellules de convection, environ 1600 pour 8m de
diamètre.  C’est donc près de 5000 actuateurs qu’il faut envisager sur
ces systèmes. La génération des 30 m contemplée actuellement en
nécessitera 16 fois plus, soit 80 000 ! Pour l’instant, cette
technologie encore récente en est à quelques centaines d’actuateurs,
c’est dire que la correction des télescopes existants est loin d’être
parfaite. En réalité, elle n’est acceptable que dans le domaine
infrarouge pour l’instant.

Une autre limitation des premiers systèmes a été de trouver dans le
champ de vision une étoile assez brillante pour mesurer à l’échelle du
centième de seconde la correction à effectuer. Comme on l’a vu
précédemment, la première étape de l’analyse consiste à obtenir une
image des tavelures produites par la turbulence. Or, cela exige un
très fort grossissement, donc une longue focale car le grossissement
est le quotient de la focale du primaire par celle de « l’oculaire ».
Evidemment, il n’y a pas à proprement parler d’oculaire ici, mais il y
a un dispositif optique qui joue le même rôle. Le résultat de cette
exigence de fort grossissement est que l’on a un champ réduit. Trouver
dans ces conditions une étoile assez brillante ne va pas de soit,
seule environ 1% du ciel répond à cette exigence et peut donc être
traité par ces systèmes de correction adaptative.

L’évolution suivante a été de créer des « étoiles artificielles » avec
des lasers produisant une fluorescence des atomes de sodium de la
haute atmosphère vers 80 km d’altitude. La lumière renvoyée vers le
sol par ces dispositifs est faible et correspond à une étoile de
magnitude 8 tout au plus (6,25 fois moins lumineuse que les plus
faibles visibles à l’œil nu). Toutefois, cela suffit pour les CCD,
ainsi la totalité du ciel devient observable. Par contre, le champ
reste réduit. La dernière évolution en date consiste à tirer plusieurs
faisceaux lasers et à observer la turbulence avec autant de
dispositifs de correction dans des directions un peu différentes afin
de couvrir un champ plus grand.

On part d’un champ très étroit d’une fraction de minute d’arc (le
diamètre apparent de la Lune est de 30 minutes en comparaison) il faut
donc un très grand nombre de dispositifs pour gagner plusieurs minutes
voir plusieurs degrés. Or, justement, ce qui est intéressant sur les
gros télescopes, ce sont les études statistiques sur des objets
lointains et nombreux. Il faut donc de grands champs, ce qui est loin
d’être le cas actuellement.

Ainsi, les télescopes au sol de grand diamètre, nettement plus grand
que celui du Mont Palomar sont possibles, mais ils peuvent aussi
s’affranchir de la turbulence atmosphérique avec toutefois deux
limitations : l’angle du champ observable et le domaine spectral
limité pour l’instant à l’infrarouge. Tout n’est pas possible au sol
mais pour certaines observations, celles visant un objet particulier,
« l’offre au sol » est plus compétitive que celle de l’espace. Par
contre, pour les grands champs en spectre visible et ultraviolet,
l’espace n’a pas de concurrence actuellement.

Y.B.


Citation de: YB
Espace astronomique (8).

Les dispositifs militaires demandent de grandes surfaces correctrices,
une grande vitesse d’action, mais peuvent se contenter de l’infrarouge
moins exigeant que le domaine optique. La luminosité de la cible n’est
pas non plus pour eux un facteur limitatif, puisque l’illumination par
les lasers donne autant de brillance que l’on peut en souhaiter ou
presque.

L’astronomie, pour sa part, est moins exigeante en terme de vitesse et
de surface active de correction, mais beaucoup plus en ce qui concerne
le nombre d’actuateurs, le domaine spectrale à couvrir et le champ
d’observation. Si, après une vingtaine d’années d’efforts les
exigences du secteur militaire semblent en voie d’être satisfaites, il
n’en va pas de même pour l’astronomie qui a encore de gros progrès à
accomplir pour tirer le parti maximum des télescopes de la génération
des 8 m. Or, la course est entamée pour l’étape suivante, celle des 30
m avec les télescopes Magellan, Moore et OWL.

Le dernier projet en matière de 8m est un instrument de « survey »
avec un champ de 7 degrés, ce qui est énorme. A ce niveau, il est
impossible d’éviter les déformations de l’image. Les télescopes
d’amateurs ont généralement un miroir parabolique ou sphérique si le
rapport focale sur diamètre dépasse 7 ou 8 pour 20 cm de diamètre. En
effet, dans ces conditions, il n’y a plus de différence significative
entre calotte sphérique et parabole. Toutefois, ces télescopes
souffrent d’un défaut optique : l’aberration de coma (ou chevelure)
qui montre les objets ponctuels comme les étoiles, à la périphérie du
champ sous forme de « comètes ».

En réalité, ce n’est pas un défaut du miroir primaire parabolique,
mais du capteur. Le plan focal n’est pas un plan, mais une surface
courbe. Si l’on insiste pour avoir un capteur fonctionnant dans un
plan, plus on s’écarte de l’axe de l’instrument, plus l’écart entre le
« plan focal » et la surface focale réelle devient grand. C’est cet
écart qui crée l’aberration de coma. Les télescopes professionnels
exploitent des miroirs primaires plus complexes : les Ritchey-
Chrétient avec des surfaces hyperboliques aussi bien au primaire qu’au
secondaire. Le but est d’avoir une surface focale plus plane et donc
de pouvoir exploiter un plus grand diamètre à peu près plan dans le
secteur. Plus le diamètre exploitable est grand, plus le champ est
grand. Pour augmenter le champ, il faut réduire le rapport focale/
diamètre du miroir primaire en le creusant plus. C’est devenu
techniquement acceptable avec le « spin cast » ou moulage rotatif des
miroirs, mais plus le rapport F/D diminue, plus la surface focale
devient courbe et génère des aberrations. La technologie optique pour
limiter cet effet devient de plus en plus difficile.

Au temps des plaques photographiques, les astronomes avaient pris
l’habitude de déformer quelque peu leurs plaques quand c’était
possible ( Si les distances angulaires n’étaient pas de première
importance, donc si l’on pouvait se passer d’un support rigide plan en
verre). Cela permettait de gagner en champ utile. Dans ce domaine, les
CCD n’ont pas été un progrès : fabriqués à partir de tranches de
monocristaux de silicium, leur rigidité est extrêmement élevée, de
plus le silicium est cassant et ne peut être courbé . La technique du
découpage en tranche du cristal initial interdit la production de
surfaces courbes.

Donc, même si l’on dispose de CCD aussi grands que l’on veut, le champ
d’un télescope donné est plus faible pour les CCD  que pour la photo.
Cette situation est du moins valable pour l’image brute. Actuellement,
la puissance de calcul des ordinateurs a changé quelque peu la
situation : Même si l’image CCD dépasse le domaine sans grandes
aberrations, la déconvolution des images permet de récupérer une image
nette. Cela se fait toutefois avec une certaine baisse de sensibilité,
les détails les plus faibles sont perdus. On peut donc avoir de
grandes images nettes avec les CCD, mais elles perdent en sensibilité
sur le bord, tout se passe comme si le diamètre du télescope diminuait
près du bord de l’image. On voit ici un autre compromis à réaliser
avec les instruments actuels. Cette situation s’impose aussi bien pour
les appareils au sol que dans l’espace.

Y.B.
--
Allez, une lampée pour nos politiciens, une!



Citation de: YB
Espace astronomique (9).

Nous en sommes, au sol, à la génération des 8 m. Quatre technologies
ont été mises en œuvre pour ces télescopes, chacune ayant permis de
dépasser la limite que l’on croyait infranchissable du Hale au Mont
Palomar :

La première à été celle des multi-miroirs avec un plan focal commun,
c’est, historiquement la première à avoir été mise en œuvre. Le seul
télescope construit à ce jour sur ce modèle à été le MMT ou Multi
Mirrors Telescope comportant 6 miroirs circulaires donnant une surface
totale égale à celle d’un miroir unique de 6 m. Depuis, ces miroirs
ont été remplacés par un miroir unique de 6m en nids d’abeilles
produit par spin cast au laboratoire d’optique de l’université
d’Arizona.  La technique du MMT a été la première à mettre en œuvre le
positionnement dynamique des miroirs pour garder un plan focal commun
à une fraction de longueur d’onde près. Cette technique est maintenant
reprise dans le projet Magellan avec des miroirs élémentaires de 8 m.

La seconde technique, reprend les miroirs en nids d’abeilles du Hale
avec un seul miroir en verre borosilicate. L’ancienne limite provenait
du fait que le disque brut était moulé au repos, sa surface était
plane et il était donc nécessaire de le creuser. Evidemment, au
centre, à la profondeur maximum, on ne devait pas dépasser l’épaisseur
de la partie compacte. La partie évidée en nids d’abeilles ne pouvait
commencer qu’en dessous. Même au centre, on devait garder une bonne
épaisseur compacte pour assurer la rigidité et éviter trop de
déformation. Sur les bords, on retrouvait donc le maximum d’épaisseur
et ainsi la plus grande masse et la plus grande inertie thermique.
C’est cette inertie thermique  qui limitait la taille du miroir comme
on l’a vu pour le 6m de Zelentchouk.

L’idée de Robert Angel de l’Université d’Arizona a été de fabriquer le
disque initial dans un four tournant, la force centrifuge imposant une
surface parabolique. Il devenait possible de « suivre » cette courbure
avec les nids d’abeilles et donc de maintenir une épaisseur compacte
identique du centre vers les bords. Le miroir était plus léger, il
n’était plus nécessaire de le creuser à l’ébauchage et surtout, son
inertie thermique était réduite. A priori, on aurait pu couler un
disque de surface plane avec des nids d’abeilles de différentes
hauteur du centre vers les bords, mais on n’évitait pas ainsi le
creusement à l’ébauchage qui en retirant une grande masse de verre
aurait libéré des contraintes amenant presque sûrement la casse du
miroir trop fragile pour supporter cette opération.

La troisième technique a été d’employer un nouveau matériau à très
faible coefficient de dilatation thermique, la céramique. Il existe
plusieurs produits similaires plus ou moins connus sous leur nom
commercial, le plus célèbre étant le Zerodur (qui est une marque
enregistrée, comme Frigidaire de GM, mais qui sert souvent de nom
commun). Le Zerodur et assimilé ne peut être produit actuellement en
grandes surface, la dimension maximum est de l’ordre de 2m de
diamètre. L’idée à donc été de découper ces disques en hexagones et de
les assembler à chaud dans un four tournant pour, là aussi, donner la
forme initiale du miroir sans avoir à le creuser. La technique à été
employée par Schott en Allemagne pour les disques des miroirs des
télescopes du Paranal. Leur épaisseur est très faible pour leur
diamètre : Une vingtaine de centimètres pour des disques de 8m. Malgré
la rigidité des céramiques, ils se déforment considérablement suivant
leur position. Ce type de miroirs n’est donc possible qu’avec une
monture dynamique corrigeant continuellement les déformations.

La quatrième technique est celle des miroirs mosaïque formés
d’hexagones de moins de 2 m en général. Là, il faut assurer à la fois
un plan focal commun comme dans la première version du MMT, mais aussi
compenser les déformations dynamiques et statiques comme dans les
miroirs fins en céramique. C’est donc la solution techniquement la
plus avancée et celle qui demande le plus de puissance de calcul et de
précision dans les actuateurs mécaniques. La mise au point de la
version civile a demandé quelques années, mais les deux Keck de Hawaï
construits sur ce principe sont maintenant pleinement opérationnels.

Les moyens de transport ne permettent pas de déplacer des miroirs
nettement plus grands que la génération des 8m actuels, seuls donc les
miroirs mosaïques et les multimiroirs comme le MMT permettent d’aller
plus loin.

 La différence essentielle entre ces télescopes de 8 – 10 m actuels et
le Hale est que la génération actuelle est perçue non comme une fin,
mais comme les prototypes de télescopes beaucoup plus grands. La
planification actuelle est celle de la génération des 30 m.
L’astronomie au sol n’est donc pas au terme de son évolution.

Y.B.
« Modifié: 03 novembre 2008, 11:24:39 am par Jacques »

JacquesL

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 4 595
Re : L'espace astronomique selon YB :
« Réponse #1 le: 03 novembre 2008, 11:29:51 am »

Citation de: YB
Espace astronomique (10).

L’évolution des CCD.

Si les CCD ont atteint ou presque, en matière de champ visuel, la
capacité des plaques photographiques et on renvoyé celles-ci au
magasin des accessoires. Leur évolution n’est pas terminée pour
autant.

Commercialement, les appareil photos grand public ont des capteurs CCD
ou C-MOS de l’ordre de 10 millions de pixels. Les caméras
astronomiques, produites à l’unité pour un télescope donné, sont des
projets longs en raison du mode archaïque de décision et de la
faiblesse des budgets. La plus grosse caméra actuellement en cour de
réalisation disposera de 1 milliard de pixels. Il n’existe aucun CCD
de cette taille, les plus grands actuellement fabriqués ont 120
millions de pixels.

Cette caméra astronomique est donc constituée d’une mosaïque de
quelques 400 circuits élémentaires de 2,5 millions de pixels chacun.
On note qu’on est là en retard d’une génération par rapport aux
capteurs commerciaux. Le plus important toutefois est que ces
mosaïques permettent de couvrir une surface focale courbe. Chaque CCD
est plan et rigide, mais le nombre  employé permet une bonne
approximation d’une courbe. Un tel assemblage est évidemment beaucoup
de travail au niveau des connexions, mais la surface courbe permet
d’envisager des télescopes à grand champ et avec une optique
simplifiée, par exemple parabolique au lieu de Ritchey-Chrétient, on y
reviendra.

Le dernier programme de télescope de la classe des 8 m, le Large
Synoptics Survey Telescope (LSST) dispose d’un miroir de 8,4 m de
diamètre. Le disque de borosilicate en nids d’abeilles est sorti du
four début septembre 2008.  Le télescope sera opérationnel seulement
en 2015. Sa caméra comportera 3 milliards de pixels pour 64 cm de
diamètre, ce qui implique des pixels de l’ordre de 10 microns, une
taille classique pour cette technologie. Là aussi, il s’agira d’une
caméra réalisée à partir d’une mosaïque de composant. Ceux-ci seront
par contre des hybrides de CCD et C-MOS. Cette dernière technique est
moins chère, mais jusqu’à présent elle était en retard en matière de
performances par rapport aux CCD. Ce n’est plus réellement le cas
aujourd’hui, d’où son choix dans ce projet. Chaque composant aura
entre une vingtaine et une trentaine de millions de pixels. C’est le
projet le plus avancé techniquement actuellement.

En électronique, les choses évoluent vite et la technique à encore
progressé depuis la définition de la caméra du LSST. D’abord, les
caméras des téléphones portables commencent à afficher plusieurs
millions de pixels pour des composants C-MOS avec une définition de 3
microns au lieu de 10. On peut donc décupler la finesse de l’image
avec eux. C’est important pour un télescope, puisque, pour une
définition donnée, cela permet de tripler le champ observable. A ce
niveau, le C-MOS atteint la définition des plaques photos à grain fin,
haute définition et faible sensibilité. Par contre, ici, le composant
électronique garde sa très haute sensibilité, cette technique dépasse
donc tout ce qui s’est fait en matière photographique en étant
supérieure sur tous les critères.

Dernière avancée : Le CCD souple. Il est maintenant possible de créer
par les techniques de la micro-mécanique un circuit constitué d’un
damier d’éléments reliés par des ponts de silicium assez fins pour
permettre une certaine souplesse au circuit complet. Il devient alors
possible d’exploiter des circuits de grande taille de 100 millions de
pixels sans affronter le problème de la rigidité de grandes surfaces
planes. Des caméras avec plus de pixels deviennent possibles. Avec un
champ d’un mètre sur un télescope de 8m, il est possible d’envisager
les 100 milliards de pixels de 3 microns sur une surface largement
courbe. Une telle caméra, avec 30 fois la définition de celle du LSST
comporterait un millier de circuits dans sa mosaïque, ce qui constitue
pratiquement la limite exploitable.

Le constat que l’on peut tirer de cette évaluation est qu’il y a
encore de la place pour améliorer les performances des télescopes de
la génération des 8 m. Pousser la technique au maximum est évidemment
encore plus critique pour les télescopes spatiaux, puisque, étant
donné leur coût et la quasi impossibilité de les améliorer après leur
lancement, il faut prévoir d’emblée la performance maximum.

Y.B.


Citation de: YB
Espace astronomique (11) Les montures.

La génération des 8 m touche à sa fin, du moins pour les projets. Le
dernier sera probablement le LSSt, après la mise en service du « bino
» du Mont Graham. Logiquement, l’étape suivante devrait être une série
d’engins de 16 m de diamètre. Magellan appartient plus ou moins à
cette catégorie, il est le seul programme dans cet ordre de dimensions
à ce jour. On peut penser que des pays comme la Chine, qui a inauguré
récemment son premier projet de télescope, pourrait d’ici quelques
années s’inscrire dans ce domaine. La France, avec le Canada et
l’Université d’Hawaï a depuis longtemps un projet de « super CFHT »
dans cet ordre de dimensions, mais on connaît l’aversion profonde du
pays bidochon pour tout ce qui est sciences et techniques. Les chances
de réalisation sont donc quasiment nulles.

Le domaine suivant est celui des 30 m. Du fait de la rareté des
possibilités de lancer des projets, les constructeurs ont tendance à
pousser chaque opportunité au maximum des possibilités techniques. Or,
le diamètre de 30 m apparaît comme une limite en raison des
contraintes sur la monture. Avec les miroirs segmentés, ce n’est plus
le diamètre  du miroir primaire qui pose une limite technique, mais
c’est bien plutôt la rigidité de la monture.

Classiquement, les montures de télescopes se divisent en deux
catégories : les alt-azimutales et les équatoriales. Puisque la Terre
tourne, même si l’église chrétienne, par la bouche du pape, regrette
d’avoir réhabilité Galilée, il faut compenser cette rotation pour
obtenir de longues pauses.

Dans les montures « Alt-Az », on combine deux rotations : une autour
d’un axe vertical, qui permet de changer l’azimut, l’autre, suivant un
axe horizontal qui permet de faire varier l’altitude. Dans le ciel, la
rotation de la planète, fait décrire aux astres une trajectoire
courbe. Il faut donc agir simultanément sur les deux axes pour suivre
une cible. La monture « alt-az » est mécaniquement la plus simple et
la moins chère, c’est traditionnellement, pour cette raison, le choix
préféré des amateurs pour qui les questions budgétaires sont
primordiales. Les amateurs cherchent aussi à viser un objet pour
l’observer à l’œil nu et ensuite le suive « à la force du poignet » en
manœuvrant à la main le télescope.

Pour les télescopes d’observatoires, qui ne font pas d’observations
visuelles, le suivi d’un objet pose un problème mécanique complexe. De
plus, ce suivi est ponctuel, dès que l’on considère un champ étendu,
la vitesse de déplacement apparent des astres varie suivant leur
position. Il en résulte une rotation globale de l’image qu’il faut
aussi compenser par une rotation des instruments. Ce n’est pas
forcément chose facile lorsqu’on utilise un spectrographe de plusieurs
tonnes.

Ainsi, la monture alt-az apparaît simple au premier abord, mais
demande, pour le suivi la combinaison de trois mouvements dont la
vitesse est variable suivant la région du ciel qui est observée.
Historiquement, ce problème a éliminé ce type de monture de tous les
projets de gros télescopes. La situation n’est toutefois pas figée, ce
ne sont plus des dispositifs mécaniques qui commandent les télescopes
modernes, mais des ordinateurs. Commander des mouvements variables en
fonction de la région du ciel observée ne pose aucun problème
particulier pour eux. Les caméras CCD faites d’une mosaïque de
capteurs peuvent même ajuster la direction de lecture de leurs «
pixels » pour compenser la rotation de champ, il n’est donc même plus
nécessaire de prévoir une rotation physique de l’instrument.

Dans ces conditions, la simplification du « gros œuvre » de la monture
avec la réduction de prix qui l’accompagne reprend tout son sens. Mais
plus que le prix, c’est la rigidité de ce type de montage qui est
intéressante.  Ainsi, la monture alt-az refait surface comme une
solution intéressante dans de nombreux grands projets. Toutefois,
l’équatoriale classique, n’est pas encore battue.

Y.B.


Citation de: YB
Espace astronomique (12) Les montures.

Les montures équatoriales ont régnées pendant 150 ans dans le domaine
des télescopes professionnels de grande dimension. Leur principe est
simple : On prend un axe parallèle à l’axe de rotation de la Terre.
Cet axe fait un angle avec l’horizontale locale égal à la latitude :
zéro degré à l’équateur, 90° au pôle. Perpendiculairement à cet axe
polaire, on a un autre axe qui permet de balayer le ciel dans la
direction Nord-Sud. Une fois que l’on a visé un astre, il suffit, pour
le suivre, de faire tourner l’axe polaire d’un tour par 24 h. il n’y a
pas de rotation de champ, puisque la vitesse de déplacement est la
même pour toutes les régions du ciel. On conçoit que mécaniquement, le
système soit beaucoup plus simple que pour une monture alt-az.

Le gros défaut de ce type de monture est la présence d’un axe polaire
long qui engendre des flexions parasites sur les gros engins. Il
existe toutefois des conceptions plus compactes des montures
équatoriales, comme les « fer à cheval » employés sur les gros
télescopes. On gagne alors en compacité, donc en rigidité, mais aussi
en volume de la coupole servant d’abris.

Ces avantages ont été décisifs jusqu’ici, mais ils le sont de moins en
moins avec les très grands télescopes. Même une monture équatoriale
compacte est moins compacte qu’une monture alt-az, elle est donc plus
sujette aux flexions.

On pourrait penser qu’avec les miroirs en mosaïque qui impliquent
n’importe comment un alignement dynamique par ordinateur, on peut tout
aussi bien compenser les déformation de la monture. En fait, la
réponse est non, car ce n’est pas la flexion statique qui pose
problème, celle-là peut effectivement être compensée, mais la flexion
dynamique. Autrement dit, les grandes montures vibrent et cela on ne
sait pas ni l’empêcher ni le compenser. C’est cela qui pose les
exigences en matière de rigidité.

La limite, pour des montures en acier est de 30 m environ, au-delà les
vibrations sont de plus en plus difficiles à maîtriser. Pour 50% de
longueur en plus, la situation échappe à tout contrôle. Le projet OWL
européen avec 40 de diamètre est à l’extrême limite du réalisable. Le
projet de la fondation Moore vise un engin de 30m de diamètre environ,
donc le maximum dans la sécurité.

Les télescopes traditionnels mesuraient il y a une génération 4 m de
diamètre. On est passé aux 8 m, l’étape logique suivante aurait donc
du se situer vers les 16 m. Magellan est dans cette catégorie, mais il
n’apparaît pas comme le précurseur d’une lignée mais juste comme une
étape intermédiaire. La majorité des projets visent les 30m, cela en
raison de la rareté des occasions de construire de nouveaux
instruments. Il faut donc chaque fois aller au maximum possible.

Y.B.


Citation de: YB
Espace astronomique (13) : le flambage.

Pour les montures, la rigidité est un facteur essentiel,.. On comprend
cela facilement dans un design classique, purement mécanique : S’il y
a flexion de la monture, le miroir primaire suit et il n’a plus la
bonne forme, il engendre donc des aberrations. Dans les constructions
modernes, informatisées, c’est moins évident.

N’importe comment, le miroir primaire n’est plus construit d’un seul
bloc, mais se voit divisé en un grand nombre de miroirs formant une
mosaïque. Leur alignement demande un contrôle actif dynamique avec un
asservissement piloté par informatique. Dans ce cas, pourquoi ne pas
aussi compenser par le même moyen les déformations de la monture ?

C’est bien en effet ce qui se pratique sur les instruments modernes,
mais cela ne résout pas le problème, contrairement à ce que l’on
pourrait penser. Les systèmes de compensation actuels corrigent les
déformations statiques. Or, lorsqu’une monture perd sa rigidité, elle
devient sujette aux vibrations, c’est-à-dire aux déformations
dynamiques.

Pour l’instant, les dispositifs compensateurs se révèlent incapables
de compenser les vibrations dont les fréquences  vont d’une fraction
de hertz à plusieurs dizaines de hertz. Cette difficulté est
comparable à celle concernant la compensation de la turbulence
atmosphérique. Il est possible dans l’avenir que l’on puisse annuler
les vibrations de la monture de façon dynamique par des moyens
électroniques, mais on en est pas encore là.

Il faut donc vivre avec la notion de montures rigides, ou du moins,
aussi rigides que possibles. Les aciers atteignent leur limite vers 30
m de diamètre. Après, le « flambage » des structures les rend trop
mous. Cette situation est l’une des raisons principales pour viser
cette dimension sur les projets actuels : C’est le maximum que l’on
peut faire avec la technique classique de construction.

Initialement, le projet OWL devait concerner un télescope de 100 m de
diamètre. Il pariait sur un progrès en matière à la fois de structures
rigides et sur la capacité à compenser les déformations
électroniquement. Malheureusement, on ne vend pas un tel projet sur
des paris technologiques. On en est donc revenu à un instrument plus
modeste de 42 m de diamètre, donc à l’extrême limite de ce qui est
possible avec l’acier.

La question est évidemment : peut-on aller plus loin ? On peut
répondre oui de deux façons : soit disposer de systèmes correcteurs
dynamiques capables de compenser les vibrations, c’était l’idée des
promoteurs de la version de 100 m de diamètre de OWL, soit trouver de
nouveaux matériaux plus rigides que l’acier.

Finalement, c’est cette seconde option qui semble la plus probable.
Ces matériaux existent, ce sont les fibres de carbone en matrice
carbone ou époxy.  La matrice carbone demande un recuit à chaud dans
un four à température élevé. La difficulté est que la pièce doit être
cuite d’un seul bloc. Il n’y a pas de four dans le monde capable de
traiter une monture de télescope de 100 m de diamètre et au moins
autant de haut. Même s’il y en avait un, il serait ensuite impossible
de transporter une telle pièce sur son site.

La matrice en carbone est produite en calcinant à plus de 1000°C une
résine époxy. La technique de la matrice époxy est donc la même que
celle de la matrice en carbone, à ceci près que la résine n’est pas
calcinée à haute température. Mais il faut tout de même un four, car
les résines à haute résistance ne polymérisent complètement que vers
200°C. On se retrouve donc avec le problème du four, même si la
température est plus basse.

Au cours des années 2007-2008, deux solutions semblent avoir été
trouvées : D’abord, il semble qu’il soit maintenant possible de
boulonner des pièces en carbone-époxy, c’est la technologie employée
sur l’Airbus A350. Toutefois, il n’est pas sûr que l’on atteigne ainsi
une haute rigidité. L’autre progrès vient de nouvelles résines qui
polymérisent convenablement à température ambiante. C’est la solution
employée par Burt Rutan pour la construction du WK-2.

Ainsi, il existe des solutions pour employer des matériaux trois fois
plus rigides que l’acier et qui permettraient donc, dès maintenant de
concevoir des télescopes de 100 m de diamètre.

Y.B.


Citation de: YB
Espace astronomique (14) Les sites au sol.

Choisir un site astronomique au sol paraît simple : Il suffit de
trouver une région où le ciel est clair. Accessoirement, on demande
qu’il n’y ait pas trop de pollution optique par l’éclairage d’une
ville voisine.

En fait ce n’est pas cela du tout. Par exemple le télescope du Digital
Sloan Sky Survey, un engin de la classe des 2m, à été mis en place
près du sommet d’une montagne dont une face est très sèche avec un
ciel clair et l’autre beaucoup plus humide avec nombre de nuits de
brouillard. Le télescope a été mis sur le flanc brumeux !

Un ciel dégagé presque toutes les nuits est évidemment un « plus »,
mais ce n’est pas le critère le plus important, la stabilité
atmosphérique, donc une faible turbulence est un critère plus
important. Dans le cas évoqué ci-dessus, le côté de la montagne avec
un ciel clair doit cette clarté à une forte turbulence qui balaie les
nuages. Au contraire, l’autre face a souvent du brouillard justement
parce que le ciel est calme. La turbulence brouille les images et
disperse le flux lumineux sur une plus grande surface. Pour les objets
faibles, cela peut faire passer en dessous du seuil de détection des
CCD. La magnitude maximum de détection est donc fonction de la
stabilité atmosphérique, c’est la raison pour laquelle cette stabilité
prime sur le nombre d’heures d’observation utiles qu’offre un site.

Un désert semblerait un bon choix, on imagine par exemple que les
sommets de l’Atlas au Maroc seraient une bonne solution. Ce n’est
probablement pas le cas, ce qui est en cause là est la quantité de
poussière en suspension dans l’air qui réfléchit les lumières des
villes situées à des centaines de kilomètres. Bien que le ciel
paraisse noir à l’œil nu, il est très lumineux pour les télescopes
d’un certain diamètre. Un diamètre d’un mètre est probablement le
maximum possible dans un zone désertique.

La turbulence qui affecte les télescopes se divise  grossièrement en
trois zones : La première est proche du sol et s’étende jusqu’à 300m
environ, elle est largement conditionnée par le relief local. Elle
comporte une sous-couche  de quelques dizaines de mètres à partir du
sol qui dépend de la rugosité et des propriétés thermiques du sol. La
seconde couche va de 300m à 4 ou 5 km et constitue la turbulence de
moyenne altitude. Enfin, dans les zones tempérées, on trouve les
couches limites des courants jets qui séparent la troposphère de la
stratosphère. La séparation inférieure est vers 10 000 m et la
séparation supérieure vers 13 000 m.

Si l’on prend comme exemple le Pic du Midi, le relief local est
extrême, ce qui engendre beaucoup de turbulence de proximité sur
quelques dizaines de mètres. La turbulence à 300m est forte également,
mais ses effets sont un peu réduit par l’altitude qui diminue la
densité atmosphérique. La turbulence de moyenne altitude est également
forte, comme celle des courants jets. En bref, le site est mauvais, il
ne gagne que par son altitude qui réduit la densité atmosphérique et
donc la diffraction associée à cette turbulence. Il ne fait aucun
doute qu’un tel site ne serait pas choisi aujourd’hui pour un
observatoire, il ne l’a été historiquement qu’en raison de sa
proximité des centres habités.

Hawaï est un autre cas : On est à basse latitude, les courants jets y
sont faibles, ce qui limite la turbulence qui leur est associée.
Malgré l’altitude, il n’y a pas de relief prononcé, on est sur un
volcan bouclier qui offre des pentes douces, cela limite la turbulence
dans la bande des 300m. La turbulence de moyenne altitude se situe ici
vers  7 000 m, donc dans une densité d’air faible qui réduit ses
effets. Finalement, il n’y a que la turbulence près du sol qui est
extrêmement défavorable en raison du sol nu soumis à d’importantes
variations de températures.

En Australie, le site d’Alice Spring est installé dans une « montagne
à vaches » avec de nombreux arbres tout autour des coupoles. La faible
latitude réduit les courants jets, la turbulence d’altitude moyenne et
basse est relativement importante, mais la turbulence près du sol est
extrêmement faible en raison du couvert végétal. Il ne fait pas de
doute que les sites d’Hawaï gagneraient en qualité s’ils arrosaient
leur environnement et plantaient des buissons.

Dernièrement, la mode est aux hauts plateaux Antarctiques qui
combinent altitude élevée, atmosphère particulièrement stable à
moyenne altitude, proximité de la stratosphère qui descend  là vers
6000 m, donc 3 000 m au-dessus du sol et froid intense qui réduit la
capacité de l’air à contenir de la vapeur d’eau. Celle-ci arrête
l’infrarouge et les instruments modernes effectuent une bonne partie
de leurs observations dans ce domaine spectral. Il y a aussi la
possibilité d’effectuer un suivi en continu pendant plusieurs mois
durant l’hiver austral où règne une nuit permanente.

Finalement, je suggèrerai un type de site jamais envisagé
actuellement : La forêt tropicale Amazonienne ou africaine. Il existe,
particulièrement dans le bassin de l’Amazone, des étendues plates de
plusieurs milliers de kilomètres qui annulent pratiquement par temps
calme la turbulence de moyenne et basse altitude. La position près de
l’équateur élimine les courants jets et le couvert végétal supprime la
turbulence associée au sol. Il doit se trouver là certains sites parmi
les meilleurs du monde dans le domaine visible, du moins tant que la
déforestation ne les a pas détruits comme c’est le cas dans le Sud Est
asiatique.

Y.B.


Citation de: YB
Espace astronomique (15) La limite des géants.

Jusqu’où peuvent aller les télescopes classiques au sol ? J’entends
par « classiques » les télescopes exploitant un miroir primaire
mosaïque supporté par une seule monture rigide, donc sans système de
compensation dynamique des vibrations.

J’ai montré que les composites carbone-époxy avec polymérisation par
ultra-violet plutôt que par la chaleur d’un four permettaient
l’assemblage in-situ de vastes structures. La rigidité de ces
matériaux permet actuellement de concevoir des télescopes de la classe
100 m de diamètre.

Au-delà, il n’y a plus de produit industriellement disponibles pour
garder une rigidité suffisante. On est tenté de dire que, comme dans
la première version de OWL avec une monture en acier de 100 m, il faut
compenser les vibrations.

C’est négliger les matériaux qui travaillent en extension. L’acier est
les fibres composites ne sont pas la limite de résistance ni de
rigidité. La résistance d’un matériau dépend en effet s’il est soumis
à une force de compression ou d’étirement. Dans une monture de
télescope, la force qui s’exerce est du type compression. Or, les
matériaux qui résistent le mieux à la compression sont le béton et le
verre, les deux sont bien trop cassants pour servir dans ce genre
d’application, du moins pour l’instant.

Il existe en effet des bétons additionnés de fibre et de résines,
moulés sous pression qui pourraient s’avérer intéressants, mais la
technique n’est pas industrialisée. Pour le verre, on retrouve la même
structure dans les céramiques, dont certaines sont aujourd’hui très
résistantes à la cassure au point de pouvoir servir dans les moteurs
de voiture. Par contre, obtenir de grandes pièces et les assembler
rigidement reste encore du domaine de la R&D.

On mettra donc de côté les « super-bétons » et les céramiques pour
l’instant. Reste les matériaux travaillant en extension. Ils sont
intéressant, car leur résistance, comme les fibres d’aramides, la plus
connue est le Kevlar, de DuPont de Nemours, ont des résistances bien
supérieures à celles des produits travaillant en compression
actuellement sur le marché.

L’idée est alors de transformer la force de compression subie par une
monture en force d’élongation. Cela peut se faire avec des tubes dans
lesquels on comprime un fluide sous pression. Si la pression, qui
exerce une force d’extension sur le tube dépasse la force de
compression qui agit sur la monture, il est possible d’avoir une
monture « gonflée ». Puisque la pression exploitable représente
plusieurs fois la limite de rigidité des matériaux composites, il est
possible par ce moyen de gagner un facteur au moins de trois sur les
dimensions de la monture. Cela donne une génération de télescopes de
300 m de diamètre.

Et ce n’est pas fini ! Si le fluide circule à grande vitesse dans les
tubes, il s’exerce une inertie dynamique qui rigidifie encore la
structure. C’est ce phénomène qui nécessite qu’une lance d’incendie
soit tenue par trois ou quatre pompiers alors que son poids pourrait
parfaitement être soutenu par un seul homme. En principe, l’inertie
dynamique peut atteindre l’infini et donc des rigidités à toutes les
échelles possibles. Par contre, les grandes valeurs sont de plus en
plus instables. Ici, je suppose qu’aucun effort de stabilisation de
l’écoulement n’est fait pour approcher les limites théoriques du
procédé, en bref, je me place dans le cadre d’un dispositif de
première génération. Le gain est alors seulement d’un facteur 3 ou 4
par rapport à la pression statique. On est donc limité à des montures
de l’ordre du kilomètre de diamètre.

Cette limite n’a rien d’absolu : elle suppose que l’on ne fait pas
beaucoup d’effort pour optimiser l’inertie dynamique et surtout que
l’on reste dans le cadre des montures rigides sans compensation
dynamique des vibrations. Ce dernier point est certainement très
restrictif à cette échelle. Un télescope kilométrique n’est pas pour
demain et d’ici quelques dizaines d’années la compensation dynamique
peut devenir parfaitement acceptable avec les progrès de
l’électronique.

Mon objectif n’est pas ici de proposer un tel télescope, mais
simplement de montrer que les possibilités d’expansions sont
pleinement ouvertes.

Y.B.


« Modifié: 18 novembre 2008, 03:58:13 pm par Jacques »

JacquesL

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 4 595
Re : L'espace astronomique selon YB :
« Réponse #2 le: 18 novembre 2008, 03:59:38 pm »
Suite (et j'ignore toujours qui est Y.B. !)  :

Citation de: YB
Espace astronomique (16) Instrumentation des 30m

La nouvelle génération des télescopes au sol, qui devrait apparaître
juste avant les années 2020, va nécessiter de nouveaux instruments. Il
est évident que ces engins vont être conçu avec un champ important
pour avoir une rentabilité scientifique maximum. Je pense que l’on
peut estimer le diamètre de leur surface focale à 10% de celui du
miroir primaire, soit 3 m pour un 30 m comme le « télescope Moore »,
le Thirty Meter Telescope.

Avec des CCD dotés de pixels de 3 microns, cela donne un million de
pixels dans le diamètre d’une caméra couvrant la surface focale. Il
faut donc compter quelques 7,5 trillions de pixels pour la surface
entière. C’est 8 000 fois ce qui se construit actuellement, donc, avec
la loi de Moore (que l’on retrouve ici) 13 périodes de doublement. En
comptant un temps de doublement de 2 ans, cela met ce type de caméra
26 ans dans l’avenir au minimum. En effet, une caméra franchissant le
milliard de pixel ne devrait pas entrer en service avant 2014.

Cette génération de télescope va donc entrer en service une bonne
vingtaine d’années avant  qu’une instrumentation adaptée soit
disponible. Encore, le choix des pixels de 3 microns reflète la taille
actuelle de ces éléments sur les téléphones portables alors que la R&D
vise les 1,8 micron, ce qui demanderait donc pratiquement deux
générations de plus de circuits électroniques. On atteindrait alors 30
ans. Le TMT pourrait alors donner sa pleine capacité vers 2050. il en
va de même pour les autres projets similaires.

Mais pourquoi tant de pixels ? pourquoi réduire à ce point leurs
dimensions ? La réponse tient dans les techniques de compensation de
la turbulence atmosphérique. J’ai dit que ce procédé consistait à
créer une étoile artificielle dans la haute atmosphère par la
fluorescence des atomes de sodium vers 80 km d’altitude excités par un
laser. Il existe une autre technique basée sur la diffusion vers 30
km, mais cela ne change rien au principe. Pour corriger les
distorsions du front d’onde, il faut pouvoir voir les « speckles » ou
tavelures que produit l’étoile artificielle et cela nécessite un très
fort grossissement, donc un faible champ.

Réduire la taille des pixels des CCD de détection augmente la finesse
de l’image, ce qui permet de réduire le grossissement pour voir un
détail donné. Moins de grossissement se traduit par plus de champ.
Plus les pixels sont petits, plus le champ d’observation augmente, ce
qui permet de visualiser des objets plus étendus ou plus nombreux. Le
TMT va disposer de 6 lasers formant autant d’étoiles de référence pour
6 dispositifs de correction. Un seul ne pouvant et de loin, couvrir
tout le champ du télescope. Même avec ses – lasers, le TMT ne pourra
corriger qu’un champ de l’ordre de quelques minutes d’arc alors qu’il
pourrait atteindre plusieurs degrés d’un simple point de vue optique.

Un autre progrès à attendre est l’imagerie bolométrique, un bolomètre
ne mesure pas les cravates comme on pourrait le penser, mais l’énergie
des radiations reçues qu’il convertit en chaleur. La nouveauté dans ce
domaine est qu’il devient possible de mesurer assez précisément
l’énergie d’un seul photon sur un pixel d’une caméra. Lorsqu’un photon
arrive sur un tel pixel, il ne donne pas simplement une information «
arrivée d’un photon », mais une mesure de son énergie, donc de sa
couleur. La caméra est donc « en couleur » et plus que cela : elle
agit comme un spectrographe pour chaque objet dans son champ. Les
premières réalisations seront certainement plus proches de l’analyse
des bandes photométriques que de la spectrographie haute résolution.

On a coutume de penser que les progrès de l’électronique sont
fulgurants, pourtant, dans le domaine astronomique, ce sont les
instruments de détection électronique qui sont en retard par rapport
aux possibilités optiques et mécaniques. A tel point que si l’on avait
actuellement les financements pour un télescope de la génération des
cent mètres de diamètre, qui est techniquement réalisable, cela ne
servirait pas à grand chose, car l’instrumentation serait incapable de
suivre.

Y.B.


Citation de: YB
Espace astronomique (17) Corriger la turbulence.

J’ai parlé des possibilités techniques de construction de très grands
télescopes, aussi bien au niveau du miroir primaire que de la monture,
des solutions existent, même en se limitant aux actuelles montures «
sans vibrations ». J’ai parlé aussi de l’instrumentation
d’observation, les capacités actuelles de l’électronique ne permettent
guère d’aller au-delà de 30 m de diamètre, mais les perspectives dans
ce secteur ne sont pas non plus limitées. Il reste à voir les systèmes
de correction de la turbulence atmosphérique dont il a été question au
plan qualitatif. Voici donc le côté quantitatif.

Admettons que l’on ne soit ni aux pôles ni proche de l’équateur. On
doit donc tenir compte de la turbulence induite par les courants jets.
Le scintillement des étoiles, tel qu’il est vu à l’œil nu est
essentiellement lié à la turbulence de basse altitude, dans la bande
des 300 m. Du fait de leur diamètre, les télescopes y sont peu
sensibles.

En général, les télescopes sont placés en hauteur sur des sommets de
montagnes pour limiter la turbulence de moyenne altitude. Ce qui
reste, c’est donc les perturbations apportées par les courants jets.
La vitesse de ces vents est de plusieurs centaines de km/h, les
cellules de convection mesurent, dans le domaine optique, entre 10 et
20 cm. Trois cent km/h, cela représente 100 m/s, pour  des cellules de
20 cm, il faut donc des temps de pose de l’ordre de la milli-seconde
afin de les « figer ». Comme les temps de pause actuels sont de
l’ordre de 10 ms, il est pour le moins « difficile » de s’affranchir
de ces perturbations dans le domaine optique, c’est pourquoi les
réalisations actuelles concernent essentiellement l’infrarouge où les
cellules sont plus grandes, de l’ordre du mètre.

Ces cellules défilent à environ 12 000m d’altitude. Pour avoir un
champ d’observation corrigé de un degré à cette distance, il faut
considérer un cercle de 200 m de diamètre (1° vaut sensiblement
1/60ème de radiant, le champ vaut donc 12 000 /60 = 200m). Dans cette
longueur, il y a place pour 2000 cellules de 10cm. Si, pour
simplifier, on considère un carré de 200 m de côté, il y a 4 millions
de cellules présentes à chaque instant dans le champ.

Admettons que le miroir déformable correcteur consacre 100 microns à
chaque cellule, il devra avoir un diamètre de  20 cm. Cela ne paraît
pas énorme, mais en raison de trois actuateurs de déformation par
cellule présente, il en faut 12 millions. Les réalisations actuelles
sont loin de ce chiffre, il y a donc beaucoup de progrès à réaliser en
ce domaine. Comme je l’ai dit, les réalisations présentes se
concentrent sur l’infrarouge qui divise ce chiffre par 25 et l’on se
contente de champs bien plus restreint que le degré. Avec 1200
actuateurs, on peut corriger 400 cellules, donc un carré de 20 x 20,
soit 20 m de côté à 12 000 m ou 0,1 degré d’angle.

En optique on en serait à 2 m de champ soit un centième de degré, en
gros, une demi minute d’arc ou 2% du diamètre de la Lune ! Un autre
problème est que si le champ devient plus petit que le diamètre du
miroir du télescope, il y a un gros effet de parallaxe entre les bords
opposés du miroir : Ils ne voient pas le même champ. Il faut alors
multiplier les systèmes de correction, comme c’est le cas du TMT avec
6 « étoiles artificielles ».

Trois actuateurs par cellule de convection permettent tout juste une
compensation en tout ou rien. Si l’on veut agir au niveau du dixième
de longueur d’onde, il faut aussi agir à une échelle dix fois plus
petite et donc avec cent fois plus d’actuateurs. Il en faut maintenant
trois par micron carré et au total, quelque 1,2 milliards. Ce n’est
évidemment pas possible si l’on doit les assembler un par un comme des
systèmes mécaniques macroscopiques, par contre, c’est envisageable
pour des leviers produits par photolithographie sur une plaque de
silicium. Les « dies » actuels de silicium atteignent 35 cm de
diamètre, un panneau d’actuateurs de 20 cm de diamètre est donc
envisageable. Sa commande ressemblerait à celle d’un écran TFT
d’ordinateur ou, compte tenu de la taille élémentaire des composants,
à celle d’un CCD.

En assemblant une centaine de modules indépendants, une telle
réalisation semble possible, elle existe peut-être déjà au niveau
militaire. Un dernier problème est celui de la vitesse de réaction :
Il faut calculer la correction et l’appliquer pour 1,2 milliards
d’éléments en moins d’une milli-seconde. Au bas mot, la puissance de
calcul nécessaire se situe donc dans les téraflops. Je vais y revenir…

Y.B.


Citation de: YB
Contrôleur de La Poste retraité, syndicaliste, je fais du conseil
juridique prud'homal, astronome amateur, j'étudie l'économie, le
marxisme et Bakounine, ce qui ne plait pas à tout le monde.
YB


Citation de: YB
Espace astronomique (18) Corriger la turbulence.

Dans un système minimum de correction de la turbulence, le champ est
zéro : on ne corrige qu’un point. Dans ce cas, le nombre de cellules
de convexion à compenser est égal à ce qu’il faut pour couvrir la
surface du miroir primaire. Pour un 8m, soit 50m², il faut compter
6250 cellules. Le champ n’est pas réellement nul, car la turbulence ne
se situe pas à l’infini, elle est à 12 000m (pour une visée
verticale). A cette distance, un disque de 8 m est vu sous un angle de
2,4 minutes d’arc. C’est le champ minimum d’observation, une condition
qui est vérifiée par les systèmes actuels de correction.

Comme je l’ai calculé dans l’épisode précédent, il faut corriger
beaucoup plus de cellules pour avoir un champ important. J’avais basé
mon exemple précédent sur un degré. On devait alors corriger les
perturbations sur un disque de 200 m de diamètre. Pour l’instant, de
tels performances sont inaccessibles pour plusieurs raisons :
-   Impossibilité de lire assez vite un capteur CCD de la dimension
requise.
-   Impossibilité de transmettre les informations.
-   Impossibilité de les traiter en temps réel.
-   Impossibilité de trouver sur le marché un miroir déformable de
correction avec assez d’éléments.

Ce sont ces différents point que je veux étudier ici. Je vais faire
l’hypothèse que l’on s’est débarrassé de la turbulence de basse
altitude et que celle de moyenne altitude est relativement
négligeable. En moyenne altitude, on a souvent des vents de direction
différente suivant l’altitude, ici on supposera que cette
configuration ne se produit pas : il n’existe qu’une turbulence liée
aux courants-jets avec une direction et une vitesse bien définie. Les
cellules de convexions défilent donc comme sur un tapis. Leur durée de
vie est grande par rapport à leur temps de passage dans le champ du
télescope.

Ce dernier élément permet de concevoir un type d’instrument jamais
proposé à ce jour : la paire de télescopes couplés. C’est ce que fait
le binocular  telescope du Mont Graham, mais pas pour de
l’interférométrie. Il s’agit d’aligner les télescopes dans le sens du
vent et de se servir du premier pour mesurer la turbulence qui sera
corrigée sur le second.
Admettons que les télescopes soient distant de 10 m, avec des courants-
jets lancés à 300 km/h, la vitesse de défilement de la turbulence est
de 100 m/s. Il faut donc un dixième de seconde pour passer d’un
télescope à l’autre. Pour un ordinateur qui effectue le calcul de la
transformée de Fourier de l’image du premier instrument pour
l’appliquer au correcteur du second, c’est une durée considérable.

Si la turbulence défile en ne venant que d’une direction, il n’est
plus nécessaire de prendre une image chaque milliseconde. Il suffit
d’avoir un CCD en une dimension qui mesure cette turbulence à son
entrée dans le champ. Pour 200 m de largeur d’observation à 12 000 m
cela représente 2 000 pixels sur la barrette pour une résolution de 10
cm, soit deux pixels par cellule de 20 cm. Cela satisfait le théorème
de Shannon sur la digitalisation d’un signal sans perte. Or, on trouve
commercialement de telles barrettes CCD dans le commerce actuellement.
On peut même accepter d’en mettre 4 ou 5 bout à bout pour augmenter la
résolution. Le temps de déchargement de ces barrettes est bien dans le
domaine de la milliseconde, ce qui résout la question de la rapidité
de collecte de l’information.

En admettant un codage sur deux bytes (octets) de l’information de
chaque pixel, on a 4 000 bytes à décharger à chaque séquence, soit 32
Kb. Il faut multiplier ce chiffre par mille  pour avoir le débit par
seconde, soit 32 Mo/s. Pour mémoire, les  liaisons Ethernet standard
sont actuellement à 100 Mb/s et il en existe à 1 Gb/s. La transmission
des informations par les réseaux informatiques actuels ne pose donc
aucune difficulté.

Reste la puissance de calcul qui doit prendre en compte mille fois par
seconde la totalité du champ soit au moins 12 millions d’actuateurs
comme dit précédemment. C’est donc 12 milliards de points qu’il faut
calculer par seconde. En admettant que l’on a 100 flops par point, le
calculateur doit avoir une puissance de 1,2 tera flops. On trouve
depuis peu sur le marché des processeurs 300 fois plus rapides que les
Itanium de Intel, le « processeur d’avenir » qui a fait un « flop »
commercial depuis deux ou trois ans. Les cartes les plus performantes
sur le marché permettent d’assembler deux processeurs de ce type,
chacun avec une puissance de calcul soutenu de 450 Giga flops. On
annonce pour la fin de l’année des processeurs à 1Tera flops, avec des
cartes en comportant jusqu’à 4. La puissance de calcul est donc en
passe d’être résolue, à la limite, on pourrait avoir la mise en réseau
de deux ordinateurs, chacun avec 900 Giga flops de puissance de
calcul, même en tenant compte d’une perte de puissance globale dans
cette configuration, on atteindrait 1,2 tera flops.

Il reste à réaliser le miroir déformable, qui ne se trouve pas dans le
commerce. Il n’est pas près de s’y trouver en raison de ses
applications dans les armes lasers. Il faut donc le faire fabriquer
spécialement. Employer des pièces mécaniques, même en nano-mécanique,
ne paraît pas constituer une bonne solution. Il semble plus
intéressant de reprendre les idées des années 60 concernant la photo
électronique avec des membranes électriquement déformable. L’idée
d’origine était de déformer une feuille de plastique avec des charges
apportées par un pinceau d’électron comme dans les tubes vidicons des
caméras TV de l’époque. Actuellement, on prendrait plutôt des réseaux
TFT similaires à ceux des écrans plats pour charger des « grilles »
agissant sur une membrane souple aluminisée dotée d’électrets
(composants à charges électrique statique).

Il serait ainsi possible de réaliser des télescopes au sol avec une
correction sur un champ d’un degré ou plus dans le domaine optique.

Y.B.
« Modifié: 24 novembre 2008, 04:37:40 pm par Jacques »

JacquesL

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 4 595
Re : L'espace astronomique selon YB :
« Réponse #3 le: 01 décembre 2008, 08:18:37 am »
Citation de: YB
Espace astronomique (19) Les avions.

Dans les années 60, faute de satellites et de correcteurs
électroniques de front d’ondes, les astronomes avaient imaginé une
solution de rechange : l’avion. En volant dans la stratosphère, au-
dessus des courants jet, on trouve une couche à la fois ténue et très
stable de l’atmosphère, avec très peu de distorsion. Ce n’est pas la
qualité spatiale, mais presque. L’atmosphère sèche permet aussi une
bonne observation dans l’infrarouge qui est absorbé par la vapeur
d’eau.

La première idée qui vient à l’esprit, c’est qu’un avion en vol, ça
vibre, on est donc à l’opposé d’une plate-forme d’observation stable.
Avec un pilote automatique et une atmosphère stable, on peut toutefois
pratiquement éliminer les mouvements intempestifs. Les conditions sont
idéales pour cela dans la stratosphère.

Il ne reste plus que les vibrations des moteurs. Toutefois, celles-ci
sont de haute fréquence et donc relativement faciles à filtrer sur un
petit télescope. Les ondes sont de deux sortes : les « p » pour
pression qui influent sur la pression locale dans l’axe de propagation
et les « s » pour shear ou cisaillement qui imposent un déplacement
perpendiculaire au sens du mouvement de l’onde. Les ondes « s » ne se
propagent pas dans les liquides, les « p » se propagent à la fois dans
les liquides et les solides.

L’idée est d’éliminer d’abord les ondes « p » avec un sandwich de
plusieurs couches de métal dense comme l’acier et de mousse rigide
synthétique ou de bois comme le peuplier doté d’une structure très
aérée. La vitesse du son est très grande dans le métal et très faible
dans le bois ou la mousse. On passe de plusieurs milliers de m/s à 50
m/s par exemple. Cette différence de vitesse rend la transition d’un
matériau à l’autre très difficile, on ajoute pour faire bonne mesure
du caoutchouc comme celui des pneus de voiture pour dissiper l’énergie
acoustique des vibration réfléchies par le bois.

Ce dispositif est efficace contre les ondes « p » mais beaucoup moins
contre les ondes « s ». On emploie alors des supports en sorbotane,
une sorte de caoutchouc de synthèse qui se comporte acoustiquement
comme un liquide et filtre les ondes de cisaillement. Il est ainsi
possible d’isoler un télescope sur un avion des vibrations des moteurs
ou simplement des personnes qui marchent à proximité.
La première réalisation de ce type, fut le télescope Planck de la NASA
monté sur un avion cargo militaire réformé. L’instrument n’avait rien
de spectaculaire avec un diamètre de 80 cm. Bien des amateurs
disposent de télescopes de plus grande ouverture. Par contre, observer
dans l’infrarouge et dans le visible à la limite de résolution
théorique changeait tout. Pendant de nombreuses années, Planck fut le
champion de la haute résolution optique, jusqu’au lancement du HST
Hubble.

Finalement, Planck fut remisé, non par manque d’intérêt de la part des
astronomes, mais par manque de ressources budgétaires. Les fonds
furent redirigés vers la transformation d’un Boeing 747 SP devant
transporter un télescope de 2,5 m de diamètre, un « Hubble aérien »
donc, construit par le DLR allemand. Cet instrument, SOFIA a connu
bien des vicissitudes financières et s’est trouvé au bord de
l’annulation par la NASA. La protestation du DLR l’a sauvé. Il en est
maintenant aux essais et devrait commencer sa carrière astronomique en
2009.

Puisque l’on a presque les performances d’un télescope spatial,
l’ultraviolet en moins, et que SOFIA a été conçu comme l’équivalent de
Hubble, pourquoi ne pas envisager une famille d’instruments de ce type
de plus en plus gros ?

Les constructeurs aéronautiques ont créé des dérivés de leur avions
avec des carlingues surdimensionnées pour transporter des éléments de
fuselage, un appareil de ce genre pourrait abriter un télescope de  6
à 8 m de diamètre. Il reste évidemment le problème de garder une
rigidité suffisante de l’avion avec une porte ouverte en vol
permettant la visée d’un instrument de ce diamètre.

Une autre solution permettrait de ne pas payer la transformation
profonde d’un avion : exploiter un « pod » contenant le télescope
accroché sous l’aile centrale de l’avion à double fuselage WK-2 de
Scaled. Virgin Galactic souhaite effectivement louer ses WK-2 Eve pour
des usages autres que le lancements en altitude du SpaceShipTwo.
Fabriquer un « pod » en composite est bien moins onéreux que l’achat
et la transformation d’un gros avion. Le WK-2 pourrait transporter un
télescope de la classe des 4 m, sans équivalent actuel dans le domaine
spatial.

On peut même imaginer un alignement de deux, voir quatre miroirs de
cette dimension en ligne renvoyant leur lumière à un foyer commun en
utilisant le principe de la pupille densifiée des hypertélescopes. Je
reviendrais évidemment sur le concept d’hypertélescope inventé par
Antoine Labeyrie. Le pouvoir de résolution serait, dans le sens de la
longueur du « pod », déterminé par la distance maximale entre les
bords les plus éloignés des miroirs opposés. Pour quatre miroirs de 4
m chacun, on serait vraisemblablement dans les 20 m.

Un tel télescope n’est certainement pas le plus performant que la
technologie actuelle soit capable de concevoir ou même, techniquement
de produire, mais il constituerait une avancée considérable dans le
domaine du « financièrement acceptable ».

Y.B.