Astronomie: ASIAIR Kalibrieren und Stacken

Gehört zu: ASIAIR Plus
Siehe auch: Meine Beobachtungsobjekte, Fokussieren der ASIAIRFotografieren mit der ASIAIR
Stand: 13.9.2024

Warnung / Disclaimer

Diesen Blog-Artikel schreibe ich ausschließlich zu meiner persönlichen Dokumentation; quasi als mein elektronisches persönliches Notizbuch.
Wenn Andere es nützlich finden, freue ich mich, übernehme aber kleinerlei Garantie für die Richtigkeit bzw. die Fehlerfreiheit meiner Notizen. Insbesondere weise ich darauf hin, dass jeder, der diese meine Notizen benutzt, das auf eigene Gefahr tut.
Wenn Podukteigenschaften beschrieben werden, sind dies ausschließlich meine persönlichen Erfahrungen als Laie mit dem einen Gerät, welches ich bekommen habe.

Meine Schritte zum Kalibrieren und Stacken mit der ASIAIR Plus

Nachdem wir mit der ASIAIR einen sog. Plan mit einem ein Zielobjekt (Target) und Sequenz-Daten erstellt hatten und dann diesen Plan in einer sternklaren Nacht ausführen (also fotografieren) konnten, haben wir nun die Fotos als sog. “Light Frames” im Speicher der ASIAIR.

Wir können diese Light Frames nun auf der ASIAIR “stacken”, wofür wir aber noch sog. Calibration Frames benötigen:

  • Dark Frames
  • Flat Frames
  • Bias Frames

Erstellen eines Autorun zur Erstellung die Calibration Frames

Die Calibration Frames können wir ebenfalls mit der ASIAIR erstellen. Dafür brauchen wir kein Zielobjekt (Target), also können wir auf dem ASIAIR den Modus “Autorun” verwenden.

Im “Autorun” gibt es nur ein “fiktives” Target (d.h. ohne Goto), welchem wir dann mehrere “Sequences” hinzufügen können in dem wir auf den Kasten mit dem großen Plus-Symbol drücken. Diese Sequences werden auch “Shooting Schedules” genannt.

Abbildung 1: Erstellen Flat Frames (Google Drive: ASIAIR Autorun Flat.jpg)

Daten für Flat-Sequenz eingeben. Klicken auf OK

Abbildung 2: Erstellen Bias Frames (Google Drive: ASIAIR Autorun Bias.jpg)

Daten für Bias-Sequenz eingeben. Klicken auf OK

Abbildung 3: Erstellen Dark Frames (Google Drive: ASIAIR Autorun Dark.jpg)

Daten für Dark-Sequenz eingeben. Klicken auf OK

Abbildung 4: Erstellen Calibration Frames (Google Drive: ASIAIR Autorun Calibration.jpg)

Die Detail-Daten, die ich für die einzelnen Sequences (Flat, Bias, Dark) eingegeben hatten sehen wir, wenn wir eine Sequenz anklicken.
Soweit ist der Autorun ersteinmal auf dem ASIAIR gespeichert aber noch nicht ausgeführt.

Erstellen der Calibration Frames per Autorun

Die so in einem Autorun definierten Sequenzen für die Erstellung der Calibration Frames können wir nun ablaufenlassen indem wir diesen Autorun starten. Aber einzeln Sequenz für Sequenz, da wir das Teleskop jeweils unterschiedlich herrichten müssen.

Abbildung 5: Autorun starten (Google Drive: ASIAIR Autorun Start.jpg)

Diesen Autorun starten nur nachdem wir eine bestimmte einzelne Sequenz (Flat, Bias, Dark) selektiert haben.

Flat Frames

Zum Erstellen der Flat Frames gehe ich nach draußen an mein Teleskop, stelle das Fernrohr nach oben auf den Zenith und lege mein Pegasus Flatmaster oben auf die Öffnung der Taukappe. Das Flatmaster ist per USB angeschaltet und die ASIAIR ermittelt automatisch eine passende Belichtungszeit.

Gain wie bei den Light Frames.

Im Autorun nur die Sequenz “Flat” selektieren. Autorun starten.

Bias Frames

Objektiv komplett abgedunkelt. Belichtungszeit auf Minimum. Gain wie bei den Light Frames.

Im Autorun nur die Sequenz “Bias” selektieren. Autorun starten.

Dark Frames

Objektiv komplett abgedunkelt. Belichtungszeit wie bei den Light Frames. Gain wie bei den Light Frames. Sensor-Temperatur wie bei den Light Frames.

Im Autorun nur die Sequenz “Dark” selektieren. Autorun starten.

Kalibrieren und Stacken der Einzelaufnahmen mit der ASIAIR

Wenn wir unsere Calibration Frames fertig haben, können wir zur Hauptsache kommen: Das Stacken unserer Light Frames.
Dazu klicken wir in der ASIAIR-App in der oberen Leiste auf das Symbol “eMMC”. Dadurch öffnet sich ein Dialog-Feld “Files” wo wir im Bereich “POST STACKING” auf das kleinere Bildchen “DSO Stacking” klicken.

Abbildung 6: Post Stacking (Google Drive: ASIAIR Post Stacking.jpg)

Wenn wir hier auf DSO Stacking klicken kommen wir auf das Haupfenster für DSO Stacking.

Abbildung 7: DSO Stacking (Google Drive: ASIAIR DSO Stacking.jpg)

Hier müssen wir nun den Input für das gewünschte Stacking angeben:

  • Welche Light Frames?
  • Welche Dark Frames (die müssen zu einem Master Dark zusammengefasst werden) ?
  • Welche Flat Frames (die müssen zu einem Master Flat zusammengefasst werden) ?
  • Welche Bias Frames (die müssen zu einem Master Bias zusammengefasst werden) ?

Erst wenn das alles richtig wunschgemäß ausgefüllt wurde, sollten wir ein Stacking (Process) starten.

Select Light Frames

Wenn bei den Light Frames noch alte Sachen stehen, drücken wir auf “Clear” und dann auf das Plus-Symbol.

Abbildung 8: Select Light Frames (Google Drive: ASIAIR Stacking Lights.jpg)

Als Light Frames nehmen wir unsere 60 Aufnahmen aus dem Plan von M45. Danach klicken wir oben links auf “Done” (blauer Pfeil).

Select Master Dark

Bei den Master Darks können wir ein vorhandenes auswählen, einzelne Master Darks löschen oder ein neues Master Dark erstellen.

Select Master Flat

Bei den Master Flats können wir ein vorhandenes auswählen, einzelne Master Flats löschen oder ein neues Master Flat erstellen.

Select Master Bias

Bei den Master Biases können wir ein vorhandenes auswählen, einzelne Master Biases löschen oder ein neues Master Bias erstellen.

Stacking Prozess starten

Erst jetzt macht es Sinn den Stacking-Prozess zu starten.

Abbildung 9: Start Stacking-Prozess (Google Drive: ASIAIR Stacking Start.jpg)

Nachdem nun Lights, Master Darks, Master Flats und Master Biases zugeordnet sind, klicken wir auf den Knopf “Process” (gelber Pfeil). Der Prozess dauert eine Weile. Nach einigen Minuten erscheint schließlich “Stacking Finised”.

Abbildung 10: Stacking Finished (Google Drive: ASIAIR Stack Finished Check.jpg

Wir Klicken auf “OK” oder “Check” (blauer Pfeil).
Das Ergebnis ist die Summendatei (FITS) im ASIAIR-Ordner eMMC\Stacked\DSO\Processed.

Weiterbearbeiten auf dem Windows-Computer

Nun ist die ASIAIR fertig. Ich möchte die Summendatei noch weiterbearbeiten und transferriere sie deshalb auf meinen Windows-Computer, wo das eMMC-Memory der ASIAIR als Netzwerk-Laufwerk eingebunden ist.

Abbildung 11: Transfer auf Windows-Computer (Google Drive: ASIAIR Stack Result Windows.jpg)

Als Weiterbearbeitung auf dem Windows-Computer denke ich an:

  • Zuschneiden (Stacking-Ränder)
  • Gradienten entfernen
  • Rauschen entfernen
  • Farbkalibrierung
  • Farbsättigung erhöhen
  • Stretchen

Ich mache das mit GraXpert, Siril  und Fitswork wie folgt:

  • GraXpert: Bild laden und zuschneiden, sodass Stacking Artefakte am Bildrand weg sind
  • GraXpert Gradienten entfernen mit AI-Model und Hardware-Beschleunigung=Ein (Smooth-Faktor = 0,5)
  • GraXpert Rauschen entfernen mit AI-Modell und Hardware-Beschleuingung=Aus
  • GraXpert Bild speichern (Farbsättigung=0, FITS16)
  • Siril: Photometric Colour Calibration
  • Fitswork: Open Datei
  • Fitswork: Farbsättigung=150
  • Fitswork: Histogramm Stretchen
  • Fitswork: Übertragen auf Bildwerte
  • Fitswork: Spechern als FITs 16 Bit Ganzzahl
  • Fitswork: Evtl. noch speichern als JPG mit 95%

Astronomie: Der Plan für 2023

Gehört zu: Astrofotografie
Siehe auch: Stacking, SharpCap, N.I.N.A., SirL

Stand: 10.04.2023

Astro-Motivation 2023

Da für mich persönlich die Astronomie so langsam immer langweiliger wird (2021 Narrowband von Zuhause, 2022 Wide Fields aus Namibia) überlege ich mir, worauf ich in 2023 meinen Schwerpunkt setzen könnte.

Ich müsste endlich einmal professionelle Astro-Fotos machen, soll heißen: mit Kalibrierung durch Darks, Flats, Biases und mit Dithering. Das will ich in 2023 mal durchexerzieren. Die Software SiriL steht dann als “Belohnung” bereit…

Astro-Plan 2023

Mein Astro-Szenario 2023

Ein solches Ziel (s.o.) setzt voraus, dass ich oft die Sterne fotografiere. Das funktioniert am besten mit leichtem Gerät an einem bequemen Ort. Alles “lazy”.
Allerdings sollte das Geübte dann später auch unter anderen Bedingungen anwendbar sein.

  • Ort: Zuhause (da “lazy”) – auch wenn Bortle 7
  • Montierung: AZ-GTi auf Fotostativ mit SkyWatcher Wedge  (kleine, leichte Montierung aber mit allen “Schikanen”)
  • Kamera: ASI294MC Pro (Farb-Kamera, da “lazy”)
  • Optik:  Fotoobjektiv 135mm (in Namibia 2022 hatte ich 24mm und 50mm)
  • Heizmanschette, falls erforderlich gegen Tau-Beschlag
  • Computer: Kleiner Windows-Computer mit EQdir-Kabel-Verbindung zu Montierung und Kamera; evtl. mit Remote-Steuerung (so geht “lazy”)
  • Software zum Fokussieren: SharpCap (schöner Video-Mode, gute Vergrößerungsmöglichkeiten)
  • Software zum Einnorden: N.I.N.A.  (kein extra Scope, da “lazy”)
  • Nachführung: Nur Tracking durch Montierung (kein Autoguiding, da “lazy”)
  • Software zum Fotografieren: N.I.N.A.
  • Software zum Platesolving: ???
  • Software zum Stacken: SiriL

Mein Master-Plan 2023

1. Schritt:  Laufend Voraussetzungen klären
Wetterbericht, Dämmerung, Mond

2. Schritt: Aufbauen (wenn klare Astro-Nacht erwartet wird)

a) Montierung rausbringen und anschließen (Strom und Windows-Computer)
b) Kamera und Optik zusammenbauen, grob fokussieren auf Horizont-Objekte
b) Fein fokussieren auf Sterne (mit  UV-IR-Block-Filter in Filterschublade)
c) Gut Einnorden (wegen Nachführgenauigkeit)

3. Schritt: Maximale Belichtungszeit ermitteln

Belichtungszeiten versuchen:  30 sec, 60 sec, 120 sec

Dabei realistische Blende z.B. 5,6 statt 3,5 damit eine gute Abbildungsqualität erzielt werden kann

Gain-Einstellung (aka ISO): 120, 240

Sensortemperatur: -10° Celsius

a) Ab welcher Belichtungszeit wird das Tracking durch die Montierung zu ungenau?
b) Ab welcher Belichtungszeit wird der Himmel zu hell (Histogramm)?

Schlussfolgerungen:

  • Belichtungszeit bis 120 Sekunden (Tracking der Montierung AZ GTi mit f=135mm ist gut)
  • Bei Gain 200 ist der Himmelshintergrund noch dunkel

4. Schritt: Dark-Bilbliothek aufbauen

Nachdem jetzt die Belichtungszeiten (120 s) und die Gain-Einstellung (200) feststehen, kann ich eine Bibliothek von Dark-Frames aufbauen

  • Kamera auf -10°C herunter kühlen
  • Objektiv mit Deckel und schwarzem Tuch bedecken
  • Gleiche Einstellungen für Belichtungszeit und Gain

Die Dark-Frames nehme ich mit APT auf: je 20 einzelne je Belichtungszeit.
Ein Master-Dark erstelle ich dann mit Fitswork (Menü-Leiste -> Datei -> Masterdark/-flat erstellen).

Insgesamt habe ich jetzt folgende Dark-Library für meine Astro-Kamera ASI294MC Pro:

Belichtungszeit Gain Sensor Temperatur Anzahl Darks Ordner für Dark Frames Master Dark
30 s 200 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\030s200G D_Masterdark_030G200.fit
60 s 200 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\060s200G D_Masterdark_060G200.fit
120 s 200 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\120s200G D_Masterdark_120G200.fit
120 s 300 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\120s300G D_Masterdark_120G300.fit

5. Schritt: Echtes Astro-Foto; d.h. kalibriert

Objekt aussuchen, das in das Gesichtsfeld passt und das noch 1-2 Stunden an meinem Ort sichtbar bleibt

Light-Frames aufnehmen: mit der Software N.I.N.A.

Flat-Frames aufnehmen: Wie?

Stacken mit Kalibrierung durch Dark-Frames und Flat-Frames mit der Software  SiriL

6. Schritt: Bias-Frames

Wozu Bias-Fames?

Wie mache ich Bias-Frames?

 

 

 

Astrofotografie: Die Software Siril

Gehört zu: Astrofotografie, Stacking
Siehe auch: Deep Sky Stacker, PixInsight, Astro Pixel Processor, ComputerAcerBaer, Bildbearbeitung, StarNet, Plate Solving
Benutzt: Fotos aus Google Drive

Stand: 13.10.2024

Quellen

Ein Youtube-Tutorial von Frank Sackenheim: https://www.youtube.com/watch?v=qMD2QQUtxYs
Das Youtube-Video von Cuiv “The Lazy Geek”: https://youtu.be/dEX9KbbzALc
Das YouTube-Video von “Deep Space Astro”: https://youtu.be/s3TJduagxrw

Astrofotografie mit der kostenlosen Software Siril

Siril ist eine kostenlose Software mit dem Schwerpunkt Stacking, kann aber noch einiges anderes mehr (Bildbearbeitung)…

Aufmerksam geworden bin ich auf Siril durch das unten angegebene YouTube-Video von Frank Sackenheim im März 2020. Dann hat Cuiv “The Lazy Geek” aus Tokio im August 2020 auch das Thema Siril aufgegriffen. Deswegen machte ich einen zweiten Versuch, Siril zu verstehen…

Dann bin ich bei der Beschäftigung mit Smart Telescopes im September 2023 erneut auf Siril gestossen, wobei mich die Möglichkeiten der Bildbearbeitung besonders beeindruckt haben, beispielsweise die Integration von StarNet.

Als Alternative zum traditionellen Deep Sky Stacker ist das modernere Siril vielleicht ganz interessant. Auch als kostenlose Alternative zu PixInsight kann Siril mit Background Extraction und fotometrischer Farbkalibrierung punkten.

Zusammenfassung Bildbearbeitung mit Siril (aus SuW 6/2024)

  1. Stacken
    1. Registrieren
    2. Kalibrieren
  2. Lineares Bild
    1. Hintergrund extrahieren
    2. Platesolving
    3. Farbkalibrierung
    4. Farbsättigung
  3. Stretching
    1. Asinh-Transformation (etwas)
    2. Histogramm-Stretching

Vorteile von Siril

  • kostenlos
  • Für Windows und Linux und MacOS
  • Stacking mit vielen manuellen Einflussmöglichkeiten, aber auch “vollautomatisch” per Skript
  • Nach dem Stacken: Bildnachbearbeitung:
    • 1: Zuschneiden (Cropping)
    • 2: Background Extraction
    • 3. Platesolving
    • 4: Color Calibration (auch photometrisch)   <— Dazu Bild-Koordinaten erforderlich
    • 5. Color Saturation
    • 6. Sterne separieren (StarNet++)
    • 7. Stretching the Histogram
    • 8: Green Noise Reduction
    • 9: Annotations
    • 10: Deconvolution
    • 11: Saving as TIFF, FITS, JPG oder PNG

Besonderheiten von Siril

Im Gegensatz zu anderer Stacking-Software gibt es bei Siril zu beachten:

  • Es sollte mit den Unterordnern: lights, darks, flats und biases gearbeitet werden (damit die Scripte zum Stacken funktionieren)
  • Siril untersützt automatische Abläufe durch ausgeklügelte Scripts
  • Siril kann sehr gut mit Narrowband-Filtern bei Farbkameras (OSC) umgehen
  • Siril unterstützt photometrische Farbkalibrierung
  • Siril hat starke Funktionen zur Nachbearbeitung von Astro-Fotos
  • Siril hat eine integrierte StarNet-Funktion

Installation und Konfiguration

Software Download: https://www.siril.org/download/#Windows

Versionen:

  • Version 1.2.1 (Jan 26, 2024)
  • Version 1.2.0 (Sep 15, 2023)
  • Version 1.2.0-beta2 (March 12, 2023)
  • Version 1.2.0-beta1 (Feb 24, 2023)
  • Version 1.0.6 (18. Oct 2022)
  • Version 1.0.3 (28. June 2022)
  • Beta-Version: 0.99.8.1 (13. Februar 2021). Diese Beta-Version für die geplante Version 1.0 hat ein komplett verändertes GUI – deshalb helfen ältere Tutorials im Moment kaum noch.

Die Konfigurationsdatei ist: c:\users\<name>\AppData\Local\siril\config.ini

In dieser Config-Datei speichert SiriL auch den Namen des letzten Working Directory, was man hier oder später auf der Siril-Komandozeile mit dem Befehl “cd” ändern kann (oder durch klicken auf das Symbol “Häuschen” – oben links).

Einstellen des “Themes“:  Hamburger Menü -> Preferences -> User Interface -> Aussehen (Look and Feel): Dort können wir z.B. das “Dark Theme” auswählen.

Auch die Sprache können wir hier einstellen. Deutsch mögen viele da gern, aber dann muss man mit zum Teil komischen Übersetzungen leben und Tipps und Tricks aus der SiriL-Community sind mit “Englisch” meist besser zu verstehen…

Einstellen der “Language“:  Hamburger Menü -> Preferences -> User Interface -> Language: Dort können wir z.B. “English [en]” auswählen.

Auch der Pfad zur Software StarNet muss hier eingebeben werden.

Siril Skripts

Skripts in SiriL sind einfach Dateien mit der Endung *.ssf

Die ersten Schritte mit Siril: Bildbearbeitung

Man kann Siril auch nur zur Bildbearbeitung (mit bereits gestackten Fotos) einsetzen. Dazu kann man so ein gestacktes Foto einfach in Siril laden (Links oben “OPEN”) und dann mit “Image Processing” bearbeiten.

Die Anzeige des Bildes kann man einstellen als “Linear”, “Autostretch” u.a. mit einem kleinen Drop-Down in der Mitte unteren Fensterleiste. Das wirkt nur auf die Anzeige, das Foto selbst bleibt unverändert.

Zum Speichern des Bildes als Bilddatei gibt oben rechts auf der Leiste zwei Symbole:

  • Kleine Schaltfläche “Save”
  • Rechts davon das Symbol “Pfeil nach unten”; das bedeutet: “Speichern unter”  (quasi ein “Download”)

Bildnachbearbeitung: Zuschneiden

Durch das Stacken (speziell wenn man beim Fotografieren Dithering eingestellt hat) gibt es meist schmale dunkle Ränder, die wir jetzt abschneiden wollen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Mit der Maus auf einem Graubild (Red, Green, Blue) oder einem RGB-Bild ein Rechteck ziehen (wie Markieren),
  • Klick mit der rechten Maustaste und auf “Zuschneiden” (“Crop”) klicken
  • das zugeschnittene Bild wird von Siril automatisch gespeichert und im Fenster neu angezeigt
  • Output: Dieselbe Bilddatei wie Input  (Achtung: destruktiv!!!)

Bildnachbearbeitung: Hintergrund-Extraktion

Ähnlich wie in PixInsight kann auch SiriL den Bildhintergrund ermitteln und dann abziehen. Das macht man gerne um z.B. Gradienten zu entfernen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Hintergrund-Extraktion
  • Samples für den Hintergrund manuell setzen  (dahin wo kein Nutzsignal ist)
  • Schaltfläche: “Compute Background”
  • Korrektur: Drop-Down “Subtraktion” (oder, falls gewünscht: “Division”)
  • Schaltfläche  “Apply”
  • Output: dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Schließen (Close)

Bildnachbearbeitung: Farb-Kalibrierung

Um schöne Sternfarben zu bekommen sollte man unbedingt eine Farb-Kalibrierung machen. Siril bietet dafür zwei Möglichkeiten an: “Farbkalibrierung” und “Photometrische Farbkalibrierung”.

Für die Photometrischen Farbkalibrierung muss Siril wissen, welche Sterne auf dem Bild zu sehen sind. Dazu versucht Siril im FITS-Header WCS-Koordinaten zu finden. Wenn die Kamera bereits Bilder im FITS-Format liefert (z.B. bei ASI-Kameras) muss nur noch die Bild-Aufnahme-Software (z.B. APT, N.I.N.A.) die Aufnahme-Koordinaten in den FITS-Header schreiben.

Wenn wir im FITS-Header (noch) keine Bild-Koordinaten haben, hat Siril zwei Wege diese nachträglich zu ermitteln:

  1. SIMBAD
  2. Platesolving: Dazu wird das Bild von Siril “ge-platesolved” (astrometrische Lösung)

Das Ganze läuft so:

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farb-Kalibrierung -(Color Calibration) > Photometrische Farb-Kalibrierung (Photometric Color Calibration)
  • Wenn noch keine Bild-Koordinaten (aus dem FITS-Header) gefunden wurden
    • SIMBAD: Image Parameters: Eingabe Objektname (z.B. NGC281) gefundene Koordinaten aus einem Katalog übernehmen
    • Wenn das Objekt nicht in SIMBAD-Katalog  gefunden wurde: Plate Solving
      • Brennweite (Focal distance): 510 mm
      • Pixel Größe (Pixel Size): 4,6 µ
  • Photometrischer Sternkatalog: NOMAD oder APASS anhand eines Sternkatalogs  werden die sog. B-V-Indices der Sterne benutzt.
  • Sternerkennung: Automatisch
  • Hintergrund-Referenz: automatic detection (besser: selbst angeben)
  • Normalisierung ja Kanal: On Lowest
  • Schaltfläche: OK
  • Output: Dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Grünrauschen entfernen

Bei DSLRs und auch bei Astrokameras mit Farb-Sensor (“OSC”) haben wir oft eine Überbetonung der grünen Farbe.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Grün-Rauschen entfernen (Remove Green Noise)
  • Protection Method: Average Neutral
  • Amount:  1.00
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Farbsättigung anheben

Vor dem “Stretchen” soll man die Farbsättigung anheben.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farbsättigung (Color Saturation)…
  • Hue: Global
  • Amount: + 0.66
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)

Bildnachbearbeitung: Histogramm-Transformation (Stretchen)

Menüleiste -> Bildbearbeitung

Hierzu hat SiriL mehrere Methoden:

  • Arcsinh Transformation
  • Generalized Hyperbolic Stretch Tranformation  (“GHS”)
  • Histogramm Transformation

Allgemein wird GHS empfohlen, wobei man sich da ersteinmal richtig einarbeiten muss (z.B. Tutorial https://siril.org/tutorials/ghs/).
Der Schwarzwert wird in einem separaten Vorgang verstellt…

Bildnachbearbeitung: Annotationen

Voraussetzung ist, dass das Bild vom Platesolving her WCS-Metadaten enthält.

In Siril sieht man in der Leiste unten rechts mehrere Symbole. Nach einem erfolgreichen Platesolving ist dort das Symbol “Kugel mit Koordinaten” aktiv (nicht mehr ausgegraut). Da kann man ja mal ausprobieren wie ein Koordinatennetz auf dem Bild dann aussieht. Das brauchen wir aber jetzt eigentlich noch nicht.

Rechte von diesem Symbol “Kugel mit Koordinaten” steht auf der Leiste ein Symbol “Konzentrische Kreise” damit schalten wir den Photometrie-Modus von Siril an. Wenn wir dann auf einen Stern im Bild klicken erscheint ein Fenster “PSF and quick photometry results” dort klicken wir unten auf “More Details…”. Dadurch werden wir auf eine externe Web-Seite geführt, wo wir den offiziellen Namen unseres Stern sehen und ins Clippboad kopieren. Mehr wollten wir hier nicht, nur den Namen.

Im nächsten Schritt gehen wir zurück zu unserem Bild in Siril und schalten photometrischen Modus aus. Dann können wir mit der rechten Maustaste in das Bild klicken und erhalten so ein Kontextmenü. Dort wählen wir aus “Search Object…” wo wir dann den oben gefundenen offiziellen Namen unseres Objekt eingeben….

Dies wir von Siril gespeichet in einem “User-DSO catalog”…

Bildnachbearbeitung: Speichern

Beim Speichern des bearbeiteten Bilden muss man aufpassen.

Obere Leiste -> Speichern als… (Symbol: “Pfeil nach unten”)

Erste Schritte mit Siril: Stacken (Kalibrieren, Registrieren,…)

Einstellen des Arbeits-Ordners (Arbeitsverzeichnis, Working Directory).

Wenn man später mit Scripts arbeiten will (was sehr empfehlenswert ist), müssen im Arbeits-Ordner die Unter-Ordner: biases, lights, darks, flats angelegt sein.
Dazu ordnet man seine Fotos eben in Ordner mit diesen Namen ein und gibt den übergeordneten Ordner als Arbeitsordner bei Siril an (Symbol “Häuschen” links oben).

Als erstes müssen in Siril unsere Bild-Dateien in das FITS-Format umgewandelt werden und in die genannten Unter-Ordner (denn wir wollen mit Scripts arbeiten) gelegt werden. Wenn die Bilder bereits im FITS-Format sind, versucht Siril mit SymLinks zu arbeiten.

Generell geschieht das Bearbeiten unserer Bilder päckchenweise. Diese “Päckchen” heißen bei Siril “Sequences” und müssen einen Sequence-Namen bekommen.

Beispiel Nummer 1:  Farb-Kamera (OSC) mit Lights und Darks – ohne Flats und ohne Biases

Damit ich selber mal lerne, wie das mit dieser für mich neuen Software funktioniert, versuche ich es  mit einem eigenen Fall. Ich habe gerade kürzlich (am 20.9.2020) eine Aufnahme vom Pacman-Nebel mit 60 Lights á 120 sec und 30 Darks (keine Flats und keine Biases) gemacht.

Wie man unten sieht, ist der ganze manuelle Ablauf sehr langwierig und fehleranfällig; deshalb sollte man für so einen immer wiederkehrenden Ablauf ein Siril-Script benutzen. Leider setzen die mitgelieferten Scripts immer voraus, dass man sowohl, Darks, als auch Light, Flats und Bias-Frames gemacht hat, was nicht immer der Fall ist. Das Zusatz-Programm “SiriL IC” sollte dabei helfen... Andererseits ist die Siril-Skriptspache auch recht einfach und man könnte da schnell etwas modifizieren…

Meine Pacman-Dateien befinden sich im Ordner: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman, dieser wird also als erster Schritt als “Home” eingestellt.

Dark-Frames in eine Sequenz umwandeln

Zuerst müssen die Dark-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Darks”.
Auch wenn die Dateien schon im richtigen Format (FITS) vorhanden sind (weil meine ASI294MC Pro sie als FITs erstellt hat), muss diese “Umwandlung” in SiriL erfolgen, weil SiriL dann eine SEQ-Datei benötigt. Da die Dateien schon im (für SiriL) richtigen Format sind, werden sie lediglich kopiert.

Man kann beim “Umwandeln” auch “Symbolic Link” anhaken, dann werden die Dateien nicht echt kopiert, sondern es werden SymLinks erstellt. SymLinks funktionieren aber nur, wenn in Windows der “Developer Mode” eingestellt ist…

  • Reiter: “Conversion”
  • Input: Meine original Dark Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\Darks)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Darks”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Darks.seq

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Darks im Arbeitsordner unter den Dateinamen  Pacman_Darks_00001.fit, Pacman_Darks_00002.fit etc.  kopiert (wobei “Pacman_Darks” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Darks.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark erstellen

Ich mache dann aus diesen Darks ein sog. Master-Dark.
Das geht über den Reiter “Stacking” –  wobei ein vorheriges Registrieren nicht erforderlich ist, da auf den Darks keine Sterne sind.

Für das Stacking machen wir folgende Einstellungen (wobei vom vorigen Schritt schon die richtige Sequenz ausgewählt bleibt):

  • Input: Sequence Pacman_Darks.seq     (sollte schon die aktuelle Arbeits-Sequenz sein)
  • Reiter “Stacking”
  • Stacking-Methode: Median-Stacking
  • Normalisierung: Keine Normalisierung
  • Schaltfläche: “Starte Stacking”
  • Output: Das Ergebnis ist die Datei Pacman_Darks_stacked.fit im Arbeitsordner

Light Frames in eine Sequenz umwandeln

Dann müssen die Light-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Lights”

  • Reiter: Conversion
  • Input: Meine original Light Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\lights)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Lights”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Lights.seq

Die “umgewandeten” Lights stehen nun im Arbeitsordner unter den Dateinamen Pacman_Lights_00001.fit, Pacman_Lights_00002.fit,…

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Lights in Arbeitsordner unter den Dateinamen  Pacman_Lights_00001.fit, Pacman_Lights_00002.fit etc.  kopiert (wobei “Pacman_Lights” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Lights.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark von den Light Frames abziehen

Nun folgt das “Pre Processing” der Lights: Es wird das Master Dark abgezogen, wir haben keine Flats und auch keine Offsets/Biases…

  • Input: Sequence Pacman_Lights.seq
  • Reiter “Pre Processing”:
  • Use Offset: Nein
  • Use Dark: Ja   und den Namen eintippen: Pacman_Darks_stacked.fit  (sonst erscheint eine Meldung: “master.dark.fit.[Datei-Erweiterung]” nicht gefunden. / KEINE Dark-Frame-Benutzung: kann Datei nicht öffnen)
  • Use Flat: Nein
  • Ausgabe-Präfix: pp_
  • Schaltfläche: “Starte Pre-Processing”
  • Output: Sequence pp_Pacman_Lights.seq

Die pre-prozessierten Lights stehen nun im Arbeitsordner unter den Dateinamen: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…  (wobei pp_ ja der Präfix der Ausgabe-Sequenz ist).

Es wird eine SEQ-Datei namens “pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz pp_Pacman_Lights.seq wird geladen.

De-Bayering der Light Frames

Das Debayering darf nicht zu früh im Workflow erfolgen. Unmittelbar vor dem Registrieren ist gut.

Vorher sollten wir noch einen Blick auf die Einstellungen für das De-Bayering werfen, welche man unter dem “Hamburger Menü” bei “Einstellungen” (Preferences) findet. Dort klicke ich “FITS/SER Debayer” an…

Das De-Bayering wird manchmal auch “De-Mosacing” genannt, weil das Bayer-Pattern z.B. RGGB auch gerne Mosaik genannt wird.

Also  erfolgt das “Debayering” der Lights jetzt. In Siril steht die Funktion “Debayering” leider nur beim Reiter “Umwandeln (Convert)” zur Verfügung. Deshalb geht das so:

  • Input: Die Light-Frames von denen das Master-Dark bereits abgezogen wurde
  • Reiter: Umwandeln (Convert)
  • Laden der Dateien: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…,
  • Schaltfläche “ADD” (Hinzufügen)  (unten links)
  • Sequenz-Namen vergeben: “db_pp_Pacman_Lights”
  • Häckchen bei Debayering setzen
  • Destination – Sequence Name – eintippen: db_pp_Pacman_Light
  • Schaltfläche “Umwandeln” klicken
  • Output: Sequence db_pp_Pacman_Light

Die “be-bayerten” Lights stehen nun als RGB-Dateien im Arbeitsordner unter den Dateinamen db_pp_Pacman_Lights_00001.fit, db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz db_pp_Pacman_Lights.seq wird geladen.

Registrieren der Light Frames

Das Registrieren legt alle Einzelbilder passgenau übereinander. Das ist als Vorbereitung für das Stacking erforderlich.
Dazu wird eines der Bilder als “Referenzbild” genommen und aus allen Bildern die Sterne identifiziert, welche dann mit denen im Referenzbild verglichen werden.

Als Referenzbild wird standardmäßig das erste Bild der Sequenz genommen, es sei denn, man bestimmt in der “Frame List” der Sequenz ein anderes als Referenzbild.

Das Registriren erfolgt im Einzelnen so:

  • Input: Sequence db_pp_Pacman_Lights.seq
  • Reiter “Registrieren”
  • Registrieren alle Bilder der Sequenz
  • Registrierungsmethode: “Allgemeine Sternausrichtung (Global Star Alignment) Deep Sky”
  • Registrierungs-Layer: Grün
  • Praefix: r_
  • Algorithmus: bikubisch
  • Schaltfläche:  “Führe Registrierung aus”
  • Output: Sequence r_db_pp_Pacman_Lights.seq

Die registrierten Bilder stehen nun im Arbeitsordner unter den Dateinamen: r_db_pp_Pacman_Lights_00001.fit, r_db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “r_db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz r_db_pp_Pacman_Lights.seq wird geladen.

Stacken der Light Frames

Die registrierten Light Frames werden nun “gestapelt” englisch: stacked mit folgenden Einstellungen:

  • Input: Sequence r_db_pp_Pacman_Lights.seq
  • Reiter: Stacking
  • Stacking-Methode: Durchschnittswert-Stacking mit Ausschleusung
  • Normalisierung: Additiv mit Skalierung
  • Ausschleusung: Wisorized Sigma Clipping
  • Save in:  r_db_pp_Pacman_Lights_stacked.fit
  • Schaltfläche: “Starte Stacking”
  • Output: Ergebnisdatei r_db_pp_Pacman_Lights_stacked.fit im Arbeitsordner (diese wird im SiriL-Fenster gleich angezeigt)

Abbildung 1: So sieht das in Siril dann aus (Google Drive: Siril-Stacking-Ergebnis.jpg)

Astrofotografie: Welche Probleme kann ich mit Stacking lösen?

Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia

Was ist Stacking, was ist Calibration?

Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.

Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).

Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:

  • Mittelwert
  • Summe
  • Median
  • Sigma-Clipping (Outlier Rejection)
  • Maximum
  • etc.

“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).

Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?

Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).

Welche Probleme hat der Astrofotograf?

Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.

  1. Stör-Objekte (z.B. Flugzeuge) im Bild
  2. Hot Pixel  -> Dithern, Dark-Abzug
  3. Vignettierung, Donuts, Amp Glow -> Flats
  4. Himmelshintergrund zu hell  (Lichtverschmutzung)
  5. Schlechte Nachführung
  6. Beobachtungsobjekt zu dunkel auf dem Foto
  7. Rauschen, Farbrauschen (schlechtes SNR) -> Kühlung, lange Gesamtbelichtungszeit (dann Stacken)
  8. Geringer Kontrast -> Stretchen
  9. Geringe Dynamik -> Histogramm analysieren, gute Belichtungszeit wählen dann Einzelbilder aufnehmen und Stacken
  10. Helle Bildteile “ausgebrannt”
  11. Luftunruhe (“Seeing”)

(1) Problem: Stör-Objekte z.B. Flugzeuge, Erdsatelliten etc.

Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.

Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken

(2) Problem: Hot Pixel

Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.

Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(3) Problem: Vignettierung

Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.

Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(4) Problem: Donuts

Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…

Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(5) Problem: Amp Glow

Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…

Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen

Die Software Astro Pixel Processor (APP) versucht auch  “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.

(6) Problem: Himmelshintergrund zu hell

Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.

Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.

(7) Problem: Schlechte Nachführung

Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.

Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.

(8) Problem: Beobachtungsobjekte zu dunkel (kaum sichtbar) auf dem Foto

Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.

Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.

Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.

Lösung: längere Belichtungszeit, ggf mit Stacking

(9) Problem: Rauschen (schlechtes SNR)

Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:

  • Photonen-Rauschen (Schrotrauschen)
  • Sensor-Rauschen (Dunkelstrom, Thermisches Rauschen)
  • Ausleserauschen

Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..

Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)

Poisson-Verteilung (Copyright Wikipedia)

Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:

\(\sigma = \sqrt{\mu} \)

Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.

In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:

\(SNR =  \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)

Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.

In Dezibel gemessen ist das:

\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\)   [Dezibel]

Also Lösung: Lange belichten und ggf. Stacken

Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.

Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken

Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.

Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.

Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.

(10) Geringer Kontrast

Lösung: RAW-Format, Stretchen, S-Kurve

(11) Geringe Dynamik

Lösung: RAW-Format, geringeres ISO/Gain

(12) Helle Bildteile “ausgebrannt”

Lösung: HDR und/oder Postprocessing

(13) Luftunruhe “Seeing”

Lösung: Lucky Imaging

(14) …

 

Astrofotografie: Bildbearbeitung: Stacking – Calibration

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung , Belichtungszeit, DSS, Probleme Lösen mit Stacking, Mein Aufnahmeverfahren, Astro Pixel Processor
Benutzt: Fotos aus Google Archiv

Stand: 10.05.2023

Warum Stacking?

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.

Die Vorteile des Stackings sind:

  • Vermeidung von Nachführungsfehlern (Sterne werden Striche)
  • Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
  • Begrenzung des Effekts der Lichtverschmutzung
  • sonst noch was?  — Signal-Rausch-Verhältnis (SNR) —

Die beliebteste Software zum Stacken ist der Deep Sky Stacker “DSS” und der Astro Pixel Processor “APP”.

Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.

Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.

Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…

Z.B. die Software SharpCap beherrscht ein solches Live Stacking.

Links

http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

Welche Software kann Stacking?

Umgangssprachlich spricht man gerne vom “Stacking”;  eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.

Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:

  • Deep Sky Stacker
  • Sequator   (Windows only)
  • Fitswork   (eingestellt – Windows only)
  • PixInsight
  • MaxIm DL
  • Regim (Dank Java auch für Linux)
  • Siril   (Linux, Windows, MacOS)
  • Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
  • u.a.

Welche Kalibrierungs-Frames brauche ich?

Das Wichtigste sind die Flat Frames.

Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.

Welche Aufnahmen (“Frames”) muss ich machen?

Light Frames

So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.

Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.

Dark Frames

Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.

Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.

So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.

Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.

Darkframes – Dunkelbildabzug

Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45  Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.

Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.

Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:

Abbildung 1 und 2: DSS Dunkelbildabzug (Google Drive: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)


Calibration: Lights without Darks

Calibration: Lights with Darks

Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:

  • Die Hotpixel werden eliminiert
  • Das Dunkelstrom-Signal wird eliminiert (abgezogen)
  • Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)

Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).

Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg

Flat Frames

Was ist ein “Flat Frame”?

Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.

Wofür benötigt man Flat Frames?

Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.

Wie fertigt man ein Flat Frame an?

Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.

Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.

Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).

Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.

Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.

Wie macht man Flat Frames mit APT?

Bias Frames (auch Offset Frames genannt)

Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.

Wofür benötigen wir Bias Frames?

Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.

Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.

Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.

Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.

Der Rat von Frank zum Thema Stacking:

Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!

So sieht Franks Zusammenfassung aus:

Wie werden die Aufnahmen (Frames) richtig “gestackt”?

Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.