Astrofotografie: Welche Probleme kann ich mit Stacking lösen?

Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia

Was ist Stacking, was ist Calibration?

Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.

Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).

Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:

  • Mittelwert
  • Summe
  • Median
  • Sigma-Clipping (Outlier Rejection)
  • Maximum
  • etc.

“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).

Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?

Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).

Welche Probleme hat der Astrofotograf?

Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.

  1. Stör-Objekte (z.B. Flugzeuge) im Bild
  2. Hot Pixel  -> Dithern, Dark-Abzug
  3. Vignettierung, Donuts, Amp Glow -> Flats
  4. Himmelshintergrund zu hell  (Lichtverschmutzung)
  5. Schlechte Nachführung
  6. Beobachtungsobjekt zu dunkel auf dem Foto
  7. Rauschen, Farbrauschen (schlechtes SNR) -> Kühlung, lange Gesamtbelichtungszeit (dann Stacken)
  8. Geringer Kontrast -> Stretchen
  9. Geringe Dynamik -> Histogramm analysieren, gute Belichtungszeit wählen dann Einzelbilder aufnehmen und Stacken
  10. Helle Bildteile “ausgebrannt”
  11. Luftunruhe (“Seeing”)

(1) Problem: Stör-Objekte z.B. Flugzeuge, Erdsatelliten etc.

Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.

Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken

(2) Problem: Hot Pixel

Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.

Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(3) Problem: Vignettierung

Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.

Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(4) Problem: Donuts

Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…

Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(5) Problem: Amp Glow

Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…

Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen

Die Software Astro Pixel Processor (APP) versucht auch  “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.

(6) Problem: Himmelshintergrund zu hell

Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.

Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.

(7) Problem: Schlechte Nachführung

Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.

Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.

(8) Problem: Beobachtungsobjekte zu dunkel (kaum sichtbar) auf dem Foto

Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.

Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.

Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.

Lösung: längere Belichtungszeit, ggf mit Stacking

(9) Problem: Rauschen (schlechtes SNR)

Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:

  • Photonen-Rauschen (Schrotrauschen)
  • Sensor-Rauschen (Dunkelstrom, Thermisches Rauschen)
  • Ausleserauschen

Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..

Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)

Poisson-Verteilung (Copyright Wikipedia)

Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:

\(\sigma = \sqrt{\mu} \)

Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.

In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:

\(SNR =  \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)

Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.

In Dezibel gemessen ist das:

\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\)   [Dezibel]

Also Lösung: Lange belichten und ggf. Stacken

Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.

Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken

Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.

Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.

Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.

(10) Geringer Kontrast

Lösung: RAW-Format, Stretchen, S-Kurve

(11) Geringe Dynamik

Lösung: RAW-Format, geringeres ISO/Gain

(12) Helle Bildteile “ausgebrannt”

Lösung: HDR und/oder Postprocessing

(13) Luftunruhe “Seeing”

Lösung: Lucky Imaging

(14) …