Deine Daten. Deine Wahl.

Wenn du nur das Nötigste wählst, erfassen wir mit Cookies und ähnlichen Technologien Informationen zu deinem Gerät und deinem Nutzungsverhalten auf unserer Website. Diese brauchen wir, um dir bspw. ein sicheres Login und Basisfunktionen wie den Warenkorb zu ermöglichen.

Wenn du allem zustimmst, können wir diese Daten darüber hinaus nutzen, um dir personalisierte Angebote zu zeigen, unsere Webseite zu verbessern und gezielte Werbung auf unseren und anderen Webseiten oder Apps anzuzeigen. Dazu können bestimmte Daten auch an Dritte und Werbepartner weitergegeben werden.

Bild: NASA / Samuel Buchmann
Hintergrund

Ich habe versucht schönere Bilder als die NASA zu entwickeln und bin gescheitert

Letzte Woche hat die NASA eine neue Aufnahme des James-Webb-Weltraumteleskops veröffentlicht. Sie zeigt die Cartwheel Galaxy. Ich will wissen, wie solche Bilder entstehen und ob ich aus den Rohdaten ein besseres Bild als das offizielle zaubern kann.

Mich als Kamera-Nerd interessieren aber andere Fragen: Wie nimmt das JWST diese Bilder auf? Wie sehen die Rohdaten aus? Wie werden sie entwickelt? Und: Kann ich das auch? Die Antwort zur letzten Frage schon vorweg: Ja, aber niemals so gut wie die NASA.

Fängt da an, wo unsere Augen aufhören: Die Near-Infrared Camera (NIRCam)

Wie du in der Grafik siehst, zeichnet der Sensor der NIRCam Wellenlängen von etwa 0,6 μm bis 5 μm auf. Die Abkürzung «μm» steht für Mikrometer, ein Tausendstel eines Millimeters. Die Wellen von sichtbarem Rot sind bis etwa 0,7 μm lang. Die NIRCam schiesst kein einzelnes Bild, in dem all diese «Farben» kombiniert enthalten sind, wie wir es von unseren Kameras kennen. Sie hat nur einen monochromen Sensor – es ist eine Schwarz-Weiss-Kamera.

Um trotzdem die verschiedenen Wellenlängen zu unterscheiden, macht die NIRCam mehrere Belichtungen vom selben Bildausschnitt. Dabei wird jedes Mal ein anderer Filter vorgeschoben, der nur eine spezifische Wellenlänge an Licht (oder eben: Infrarot-Farbe) durchlässt. Wie das mechanisch aussieht, siehst du im folgenden Video des MIRI-Filterrads.

Fängt auch die längsten Wellen ein: Das Mid-Infrared Instrument (MIRI)

Ein Puzzle aus Rohdaten

Ich öffne die zehn Bilder in PixInsight. Ein paar Youtube-Tutorials und verzweifelte Google-Suchen später habe ich daraus TIFFs exportiert. Schon besser. Falls dich dieser Prozess genauer interessiert oder du es nachmachen willst, zeige ich dir in folgendem Video, welche Knöpfe du dafür drücken musst.

Welche Farbe darf’s denn sein?

Mit den zehn Bildern im Format für Normalsterbliche wechsle ich zu Photoshop, das eher in meiner Komfortzone liegt. Hier lege ich sie erstmal alle in einem einzigen Dokument als Ebenen übereinander. Das Ziel ist nun, alle zehn Ebenen zu einem einzelnen, farbigen Bild zu verschmelzen. Dazu muss ich sie durchlässig machen und gleichzeitig einfärben. Wie das im Detail funktioniert, erkläre ich dir wieder im Video.

Fazit: Ich überlasse das den Profis

Titelbild: Bild: NASA / Samuel Buchmann

85 Personen gefällt dieser Artikel


User Avatar
User Avatar

Mein Fingerabdruck verändert sich regelmässig so stark, dass mein MacBook ihn nicht mehr erkennt. Der Grund: Wenn ich nicht gerade vor einem Bildschirm oder hinter einer Kamera hänge, dann an meinen Fingerspitzen in einer Felswand.


Hintergrund

Interessantes aus der Welt der Produkte, Blicke hinter die Kulissen von Herstellern und Portraits von interessanten Menschen.

Alle anzeigen

Diese Beiträge könnten dich auch interessieren

  • Hintergrund

    Wofür taugen Objektive ohne Autofokus?

    von David Lee

  • Hintergrund

    Warum ich in den Ferien künftig analog fotografiere

    von Samuel Buchmann

  • Hintergrund

    6 Fragen und Antworten zu Sonys Global Shutter

    von Samuel Buchmann