Les missions interplanétaires utilisent principalement des capteurs digitaux de type CCD. Les capteurs digitaux CCD à bord d'une mission sont constitués essentiellement d'une puce électronique -un "charge coupled device" en anglais- qui sert de capteur, de filtres couleur et d'un objectif. Un capteur CCD peut capturer un certain nombre de pixels, un nombre qui correspond à tant de lignes et chaque ligne étant divisée plus avant. Un capteur CCD, ainsi, peut avoir une définition de 1024 x 1024 pixels. Chaque pixel capture une valeur qui se définit sur une échelle allant de 0 (noir) à 4.096 (blanc). Ces valeurs sont traduites en valeurs de code informatique (en 0 et en 1, où 0 est noir et 255 blanc). Une même vue est capturée à travers divers filtres. Les filtres de base sont rouge, vert et bleu (système dit "RGB" pour "red, green, blue" en anglais). La plupart des capteurs CCD utilisés dans les missions interplanétaires ont également des filtres additionnels, dont le nombre peut être aussi important, par exemple, que 18 ou 24 et qui sont spécialement conçus pour capturer une longueur d'onde donnée (ainsi dans l'infra-rouge ou l'ultra-violet). A titre d'exemple de comment les possibilités techniques ont évolué, la mission MESSENGER, une mission à Mercure qui a été lancée en 2004, est équipée d'une caméra grand-angle qui utilise 11 filtres couleurs à bande étroite. La mission Mariner 10, qui était passée à Mercure en 1974, utilisait une caméra vidicon qui n'utilisait que 2 filtres dans le visible et un filtre ultra-violet. Le dispositif de prise de vue, spécifiquement, consiste en ce qui est, techniquement, une lunette astronomique ou un télescope (ceux-ci, de plus, peuvent être à grand champ ou avoir, par rapport au capteur, une valeur, au contraire, de télé-objectif). Certaines missions peuvent également utiliser un appareil de prise de vue qui "traite" lui-même en rouge-vert-bleu, comme un appareil du commerce; une roue de filtres peut être utilisé devant des appareils de ce type. D'une façon plus générale, une technique dite, en anglais "push-frame" (littéralement: "poussée d'images") permet de compenser la faible résolution, en termes de pixels, des instruments d'une mission: elle consiste à exposer une série d'images au fur et à mesure que le vaisseau progresse sur son orbite
Une fois les vues acquises, elles sont encodées digitalement par l'ordinateur de bord. Celui-ci, de plus, les compresse de façon à éliminer les données redondantes ou de moindre valeur. Les valeurs, ensuite, sont transmises en direction de la Terre. Chaque pixel d'une image a une valeur informatique de 12 bits. Le taux de transmission d'une mission interplanétaire varie entre 40 et 165 ko par seconde. Les données, à l'arrivée, sont captées par les antennes du Deep Space Network de la NASA, ce réseau mondial de trois sites d'antennes géantes -à Goldstone (Californie), Madrid (Espagne) et Canberra (Australie)- utilisé pour communiquer avec les missions spatiales. C'est le célèbre JPL qui supervise, pour la NASA, en tant que division du California Institute of Technology -le Caltech- le fonctionnement du Deep Space Network. Le fait que le Deep Space Network soit constitué de ces trois sites répartis sur le globe fait que toute mission interplanétaire reste joignable ou atteignable 24 heures sur 24, toute l'année. Les données reçues sont ensuite relayées, par divers moyens de communication et liaisons, jusqu'au JPL, qui se trouve à Pasadena, en Californie
Au JPL, c'est alors le "Multimission Image Processing Laboratory", "MIPL" ("laboratoire multi-mission de traitement d'images") qui prend en charge le traitement des images reçues. La mission principale du laboratoire consiste à reconstruire les données qui sont arrivées, depuis la mission, sous forme de "bits" -de données codées sous forme informatique. Le laboratoire pour produire les images, utilise des techniques informatiques. C'est ce laboratoire du JPL qui conçut, dès les années 1960, les premiers appareils-photo et capteurs digitaux ainsi que le traitement des images digitales dans la perspective de convertir en 0 et en 1 les signaux TV qu'utilisaient alors les satellites et missions planétaires, de sorte qu'elles puissent plus facilement être transmises vers la Terre. Une fois traitées, les images du JPL sont ensuite réparties soit aux équipes scientifiques et aux techniciens des missions, soit vers des systèmes d'archives, soit, enfin, au public par le biais des différents sites Internet de la NASA
Le principe de base du traitement des images digitales est le système RGB ("red, green, blue" en anglais, "rouge, vert, bleu"). Chaque image d'origine -si elle n'est pas prise en-dehors de la gamme du visible- est prise trois fois, en noir-et-blanc: une fois à travers un filtre rouge, une fois à travers un filtre vert, et une fois à travers un filtre bleu. Le principe des filtres, pour les prises de vue, est qu'ils ne laissent passer que la lumière dans leur propre couleur et qu'ils filtrent la lumière dans les autres couleurs. Un filtre vert, par exemple, ne laissera passer que le vert, à l'exclusion de toute autre couleur. Lorsque l'équipe de traitement d'images reçoit les trois "clichés", elle ré-assigne, tout simplement, une teinte rouge, verte ou bleue à la vue noir-et-blanc concernée. La fusion des trois clichés redonne, finalement, la vue, dans le visible, de l'objet qui a été observé. Ces images, qui sont prises dans la partie visible du spectre lumineux, peuvent être également améliorées de diverses manières: on peut ainsi, par exemple, ré-assigner différemment les valeurs rouge, verte et bleue aux trois vues noir-et-blanc. Ces techniques sont utilisées pour mettre en valeur certaines caractéristiques d'un objet, d'un paysage donnés. Les célèbres vues avec mention "images en couleurs améliorées" (en anglais: "enhanced color pictures") sont de ce type. Les images cataloguées "images en fausses couleurs" (en anglais: "false color pictures") se rattachent également à ces techniques de manipulation des données brutes. Les termes "fausses couleurs" s'opposent aux images traitées simplement RGB, de façon classique, appelées, elles, "images en vraies couleurs" ou "images dans le visible" (en anglais: "true color pictures"). Plus spécifiquement, les termes "en fausses couleurs" visent des images dont les trois images de bases sont d'abord prises dans des longueurs d'onde hors le spectre visible (dans l'infra-rouge, ou l'ultra-violet, par exemple). Dans ce cas, les trois valeurs -rouge, vert, bleu- sont alors ré-assignées arbitrairement; le résultat est donc une image couleur qui ne correspond pas à ce que l'oeil pourrait voir. Ces images prises, à l'origine, dans des valeurs hors du visible, peuvent également être soumises, de plus, à diverses autres manipulations lors de la ré-assignation des valeurs. Le système des fausses couleurs, pour l'anecdote, peut être daté de William Smith, le fondateur de la géologie anglaise dans les années 1800: il coda en couleur, sur une carte de la Grande-Bretagne, les différentes roches du sous-sol. Un exemple de ré-attribution de couleurs peut être le suivant: une image est prise, par exemple, à Mercure, par le biais de 3 filtres dans les bandes des 1000, 700 et 430 nanomètres, soit l'infra-rouge, le rouge extrême et le violet. Ces trois images sont, au cours du traitement sur Terre, replacées dans les canaux rouge, vert et bleu, ce qui redonne une image finale. Ces choix, par exemple, permettent d'accentuer les différences existant à la surface de la planète. Autre exemple: les atomes d'hydrogène, ceux d'oxygène ainsi que les ions d'azote peuvent être captés par le biais de trois bandes étroites dans la partie rouge du spectre visible
"Couleurs naturelles", pour ce qui est des images prises par un rover sur une planète, peut aussi signifier que l'image va montrer ce que seraient les couleurs vues par un observateur situé sur celle-ci. La "balance des blancs" est une technique de traitement d'image qui aboutit à une estimation de ce que seraient les couleurs sous la lumière terrestre
Les images infra-rouges sont prises, comme leur nom l'indique, dans la partie infra-rouge du spectre de la lumière -soit les longeurs d'onde les plus longues. Les images dans l'infra-rouges se basent sur la chaleur qu'émet une surface planétaire et se différencient en images infra-rouges de jour et images infra-rouges de nuit. Les images infra-rouges de jour permettent essentiellement de distinguer les pentes échauffées ou réchauffées par le Soleil et celles qui ne le sont pas (les premières sont plus brillantes car plus chaudes; les secondes sont plus foncées car plus froides). Elles permettent également de faire la différence entre les surfaces constituées de poussière ou de sable et les surfaces rocheuses (le jour, sous la lumière du solaire, les surfaces non-rocheuses s'échauffent plus rapidement que les surfaces de roches et, donc, elles apparaissent plus brillantes dans l'infra-rouge). Les images infra-rouges de nuit montrent seulement le dernier aspect des choses: la distinction que l'on peut faire entre pentes exposées au Soleil et pentes non-exposées se dissipe en effet très vite dès la nuit venue. La technique infra-rouge, de nuit, permet de distinguer les matériaux d'une surface selon leurs vitesse de refroidissement: les surfaces rocheuses, alors, apparaissent brillantes car elles se refroidissent plus lentement, retenant la chaleur de la journée; les surfaces de poussière ou de matériau à grains fins apparaissent sombres car elles se refroidissent plus vite. Les instruments qui travaillent dans l'infra-rouge permettent à une mission de distinguer les éléments chimiques d'un site observé. Le CO2 et l'eau, par exemple, absorbent et réfléchissent des longueurs d'onde infra-rouge typiquement différentes. Aussi l'instrument dans l'infra-rouge recherche quelles sont les parties manquantes de spectre reçues de telle ou telle partie de la zone observée. image sur la base de matériaux NASA/JPL/Arizona State University
Website Manager: G. Guichard, site 'Amateur Astronomy,' http://stars5.6te.net. Page Editor: G. Guichard. last edited: 12/28/2010. contact us at ggwebsites@outlook.com