Astronomie: Der Plan für 2023

Gehört zu: Astrofotografie
Siehe auch: Stacking, SharpCap, N.I.N.A., SirL

Stand: 10.04.2023

Astro-Motivation 2023

Da für mich persönlich die Astronomie so langsam immer langweiliger wird (2021 Narrowband von Zuhause, 2022 Wide Fields aus Namibia) überlege ich mir, worauf ich in 2023 meinen Schwerpunkt setzen könnte.

Ich müsste endlich einmal professionelle Astro-Fotos machen, soll heißen: mit Kalibrierung durch Darks, Flats, Biases und mit Dithering. Das will ich in 2023 mal durchexerzieren. Die Software SiriL steht dann als “Belohnung” bereit…

Astro-Plan 2023

Mein Astro-Szenario 2023

Ein solches Ziel (s.o.) setzt voraus, dass ich oft die Sterne fotografiere. Das funktioniert am besten mit leichtem Gerät an einem bequemen Ort. Alles “lazy”.
Allerdings sollte das Geübte dann später auch unter anderen Bedingungen anwendbar sein.

  • Ort: Zuhause (da “lazy”) – auch wenn Bortle 7
  • Montierung: AZ-GTi auf Fotostativ mit SkyWatcher Wedge  (kleine, leichte Montierung aber mit allen “Schikanen”)
  • Kamera: ASI294MC Pro (Farb-Kamera, da “lazy”)
  • Optik:  Fotoobjektiv 135mm (in Namibia 2022 hatte ich 24mm und 50mm)
  • Heizmanschette, falls erforderlich gegen Tau-Beschlag
  • Computer: Kleiner Windows-Computer mit EQdir-Kabel-Verbindung zu Montierung und Kamera; evtl. mit Remote-Steuerung (so geht “lazy”)
  • Software zum Fokussieren: SharpCap (schöner Video-Mode, gute Vergrößerungsmöglichkeiten)
  • Software zum Einnorden: N.I.N.A.  (kein extra Scope, da “lazy”)
  • Nachführung: Nur Tracking durch Montierung (kein Autoguiding, da “lazy”)
  • Software zum Fotografieren: N.I.N.A.
  • Software zum Platesolving: ???
  • Software zum Stacken: SiriL

Mein Master-Plan 2023

1. Schritt:  Laufend Voraussetzungen klären
Wetterbericht, Dämmerung, Mond

2. Schritt: Aufbauen (wenn klare Astro-Nacht erwartet wird)

a) Montierung rausbringen und anschließen (Strom und Windows-Computer)
b) Kamera und Optik zusammenbauen, grob fokussieren auf Horizont-Objekte
b) Fein fokussieren auf Sterne (mit  UV-IR-Block-Filter in Filterschublade)
c) Gut Einnorden (wegen Nachführgenauigkeit)

3. Schritt: Maximale Belichtungszeit ermitteln

Belichtungszeiten versuchen:  30 sec, 60 sec, 120 sec

Dabei realistische Blende z.B. 5,6 statt 3,5 damit eine gute Abbildungsqualität erzielt werden kann

Gain-Einstellung (aka ISO): 120, 240

Sensortemperatur: -10° Celsius

a) Ab welcher Belichtungszeit wird das Tracking durch die Montierung zu ungenau?
b) Ab welcher Belichtungszeit wird der Himmel zu hell (Histogramm)?

Schlussfolgerungen:

  • Belichtungszeit bis 120 Sekunden (Tracking der Montierung AZ GTi mit f=135mm ist gut)
  • Bei Gain 200 ist der Himmelshintergrund noch dunkel

4. Schritt: Dark-Bilbliothek aufbauen

Nachdem jetzt die Belichtungszeiten (120 s) und die Gain-Einstellung (200) feststehen, kann ich eine Bibliothek von Dark-Frames aufbauen

  • Kamera auf -10°C herunter kühlen
  • Objektiv mit Deckel und schwarzem Tuch bedecken
  • Gleiche Einstellungen für Belichtungszeit und Gain

Die Dark-Frames nehme ich mit APT auf: je 20 einzelne je Belichtungszeit.
Ein Master-Dark erstelle ich dann mit Fitswork (Menü-Leiste -> Datei -> Masterdark/-flat erstellen).

Insgesamt habe ich jetzt folgende Dark-Library für meine Astro-Kamera ASI294MC Pro:

Belichtungszeit Gain Sensor Temperatur Anzahl Darks Ordner für Dark Frames Master Dark
30 s 200 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\030s200G D_Masterdark_030G200.fit
60 s 200 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\060s200G D_Masterdark_060G200.fit
120 s 200 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\120s200G D_Masterdark_120G200.fit
120 s 300 -10° C 20 Stück C:\Archiv\Pictures\Library\Darks\120s300G D_Masterdark_120G300.fit

5. Schritt: Echtes Astro-Foto; d.h. kalibriert

Objekt aussuchen, das in das Gesichtsfeld passt und das noch 1-2 Stunden an meinem Ort sichtbar bleibt

Light-Frames aufnehmen: mit der Software N.I.N.A.

Flat-Frames aufnehmen: Wie?

Stacken mit Kalibrierung durch Dark-Frames und Flat-Frames mit der Software  SiriL

6. Schritt: Bias-Frames

Wozu Bias-Fames?

Wie mache ich Bias-Frames?

 

 

 

Astrofotografie: Die Software SiriL

Gehört zu: Astrofotografie, Stacking
Siehe auch: Deep Sky Stacker, PixInsight, Astro Pixel Processor, ComputerAcerBaer, Bildbearbeitung, StarNet
Benutzt: Fotos aus Google Archiv

Stand: 22.09.2023

Quellen

Ein Youtube-Tutorial von Frank Sackenheim: https://www.youtube.com/watch?v=qMD2QQUtxYs
Das Youtube-Video von Cuiv “The Lazy Geek”: https://youtu.be/dEX9KbbzALc
Das YouTube-Video von “Deep Space Astro”: https://youtu.be/s3TJduagxrw

Astrofotografie mit der kostenlosen Software SiriL

SiriL ist eine kostenlose Software mit dem Schwerpunkt Stacking, kann aber noch einiges anderes mehr (Bildbearbeitung)…

Aufmerksam geworden bin ich auf SiriL durch das unten angegebene YouTube-Video von Frank Sackenheim im März 2020. Dann hat Cuiv “The Lazy Geek” aus Tokio im August 2020 auch das Thema SiriL aufgegriffen. Deswegen machte ich einen zweiten Versuch, SiriL zu verstehen…

Dann bin ich bei der Beschäftigung mit Smart Telescopes im September 2023 erneut auf SiriL gestossen, wobei mich die Möglichkeiten der Bildbearbeitung besonders beeindruckt haben, beispielsweise die Integration von StarNet.

Als Alternative zum traditionellen Deep Sky Stacker ist das modernere SiriL vielleicht ganz interessant. Auch als kostenlose Alternative zu PixInsight kann SiriL mit Fotometrischer Farbkalibrierung und Background Extraction punkten.

Vorteile von SiriL

  • kostenlos
  • Für Windows und Linux und MacOS
  • Stacking mit vielen manuellen Einflussmöglichkeiten, aber auch “vollautomatisch” per Skript
  • Nach dem Stacken: Bildnachbearbeitung:
    • 1: Zuschneiden (Cropping)
    • 2: Background Extraction
    • 3: Color Calibration (auch photometrisch)   <— Dazu Bild-Koordinaten erforderlich
    • 4. Sterne separieren (StarNet++)
    • 5. Stretching the Histogram
    • 6: Green Noise Reduction
    • 7: Color Saturation
    • 8: Platesolving
    • 9: Annotations
    • 10: Deconvolution
    • 11: Saving as TIFF, FITS, JPG oder PNG

Besonderheiten von SiriL

Im Gegensatz zu anderer Stacking-Software gibt es bei SiriL zu beachten:

  • Es sollte mit den Unterordnern: lights, darks, flats und biases gearbeitet werden (damit die Scripte zum Stacken funktionieren)
  • SiriL untersützt automatische Abläufe durch ausgeklügelte Scripts
  • Siril kann sehr gut mit Narrowband-Filtern bei Farbkameras (OSC) umgehen
  • SiriL unterstützt photometrische Farbkalibrierung
  • SiriL hat starke Funktionen zur Nachbearbeitung von Astro-Fotos
  • SiriL hat eine integrierte StarNet-Funktion

Installation und Konfiguration

Software Download: https://www.siril.org/download/#Windows

Versionen:

  • Version 1.2.0 (Sep 15, 2023)
  • Version 1.2.0-beta2 (March 12, 2023)
  • Version 1.2.0-beta1 (Feb 24, 2023)
  • Version 1.0.6 (18. Oct 2022)
  • Version 1.0.3 (28. June 2022)
  • Beta-Version: 0.99.8.1 (13. Februar 2021). Diese Beta-Version für die geplante Version 1.0 hat ein komplett verändertes GUI – deshalb helfen ältere Tutorials im Moment kaum noch.

Die Konfigurationsdatei ist: c:\users\<name>\AppData\Local\siril\config.ini

In dieser Config-Datei speichert SiriL auch den Namen des letzten Working Directory, was man hier oder später auf der SiriL-Komandozeile mit dem Befehl “cd” ändern kann (oder durch klicken auf das Symbol “Häuschen” – oben links).

Einstellen des “Themes“:  Hamburger Menü -> Preferences -> User Interface -> Aussehen (Look and Feel): Dort können wir z.B. das “Dark Theme” auswählen.

Auch die Sprache können wir hier einstellen. Deutsch mögen viele da gern, aber dann muss man mit zum Teil komischen Übersetzungen leben und Tipps und Tricks aus der SiriL-Community sind mit “Englisch” meist besser zu verstehen…

Einstellen der “Language“:  Hamburger Menü -> Preferences -> User Interface -> Language: Dort können wir z.B. “English [en]” auswählen.

Auch der Pfad zur Software StarNet muss hier eingebeben werden.

Siril Skripts

Skripts in SiriL sind einfach Dateien mit der Endung *.ssf

Die ersten Schritte mit SiriL: Bildbearbeitung

Man kann SiriL auch nur zur Bildbearbeitung (mit bereits gestackten Fotos) einsetzen. Dazu kann man so ein gestacktes Foto einfach in SiriL laden (Links oben “OPEN”) und dann mit “Image Processing” bearbeiten.

Die Anzeige des Bildes kann man einstellen als “Linear”, “Autostretch” u.a. mit einem kleinen Drop-Down in der Mitte unteren Fensterleiste. Das wirkt nur auf die Anzeige, das Foto selbst bleibt unverändert.

Zum Speichern des Bildes als Bilddatei gibt oben rechts auf der Leiste zwei Symbole:

  • Kleine Schaltfläche “Save”
  • Rechts davon das Symbol “Pfeil nach unten”; das bedeutet: “Speichern unter”  (quasi ein “Download”)

Bildnachbearbeitung: Zuschneiden

Durch das Stacken (speziell wenn man beim Fotografieren Dithering eingestellt hat) gibt es meist schmale dunkle Ränder, die wir jetzt abschneiden wollen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Mit der Maus auf einem Graubild (Red, Green, Blue) oder einem RGB-Bild ein Rechteck ziehen (wie Markieren),
  • Klick mit der rechten Maustaste und auf “Zuschneiden” (“Crop”) klicken
  • das zugeschnittene Bild wird von Siril automatisch gespeichert und im Fenster neu angezeigt
  • Output: Dieselbe Bilddatei wie Input  (Achtung: destruktiv!!!)

Bildnachbearbeitung: Hintergrund-Extraktion

Ähnlich wie in PixInsight kann auch SiriL den Bildhintergrund ermitteln und dann abziehen. Das macht man gerne um z.B. Gradienten zu entfernen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Hintergrund-Extraktion
  • Samples für den Hintergrund manuell setzen  (dahin wo kein Nutzsignal ist)
  • Schaltfläche: “Compute Background”
  • Korrektur: Drop-Down “Subtraktion” (oder, falls gewünscht: “Division”)
  • Schaltfläche  “Apply”
  • Output: dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Schließen (Close)

Bildnachbearbeitung: Farb-Kalibrierung

Um schöne Sternfarben zu bekommen sollte man unbedingt eine Farb-Kalibrierung machen. SiriL bietet dafür zwei Möglichkeiten an: “Farbkalibrierung” und “Photometrische Farbkalibrierung”.

Für die Photometrischen Farbkalibrierung muss SiriL wissen, welche Sterne auf dem Bild zu sehen sind. Dazu versucht SiriL im FITS-Header WCS-Koordinaten zu finden. Wenn die Kamera bereits Bilder im FITS-Format liefert (z.B. bei ASI-Kameras) muss nur noch die Bild-Aufnahme-Software (z.B. APT, N.I.N.A.) die Aufnahme-Koordinaten in den FITS-Header schreiben.

Wenn wir im FITS-Header (noch) keine Bild-Koordinaten haben, hat SiriL zwei Wege diese nachträglich zu ermitteln:

  1. SIMBAD
  2. Platesolving: Dazu wird das Bild von SiriL “ge-platesolved” (astrometrische Lösung)

Das Ganze läuft so:

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farb-Kalibrierung -(Color Calibration) > Photometrische Farb-Kalibrierung (Photometric Color Calibration)
  • Wenn noch keine Bild-Koordinaten (aus dem FITS-Header) gefunden wurden
    • SIMBAD: Image Parameters: Eingabe Objektname (z.B. NGC281) gefundene Koordinaten aus einem Katalog übernehmen
    • Wenn das Objekt nicht in SIMBAD-Katalog  gefunden wurde: Plate Solving
      • Brennweite (Focal distance): 510 mm
      • Pixel Größe (Pixel Size): 4,6 µ
  • Photometrischer Sternkatalog: NOMAD oder APASS anhand eines Sternkatalogs  werden die sog. B-V-Indices der Sterne benutzt.
  • Sternerkennung: Automatisch
  • Hintergrund-Referenz: automatic detection
  • Normalisierung ja Kanal: On Lowest
  • Schaltfläche: OK
  • Output: Dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Grünrauschen entfernen

Bei DSLRs und auch bei Astrokameras mit Farb-Sensor (“OSC”) haben wir oft eine Überbetonung der grünen Farbe.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Grün-Rauschen entfernen (Remove Green Noise)
  • Protection Method: Average Neutral
  • Amount:  1.00
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Farbsättigung anheben

Vor dem “Stretchen” soll man die Farbsättigung anheben.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farbsättigung (Color Saturation)…
  • Hue: Global
  • Amount: + 0.66
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)

Bildnachbearbeitung: Histogramm-Transformation (Stretchen)

Menüleiste -> Bildbearbeitung

Hierzu hat SiriL mehrere Methoden:

  • Arcsinh Transformation
  • Generalized Hyperbolic Stretch Tranformation  (“GHS”)
  • Histogramm Transformation

Allgemein wird GHS empfohlen, wobei man sich da ersteimal richtig einarbeiten muss (z.B. Tutorial https://siril.org/tutorials/ghs/).
Der Schwarzwert wird in einem separaten Vorgang verstellt…

Bildnachbearbeitung: Speichern

Beim Speichern des bearbeiteten Bilden muss man aufpassen.

Obere Leiste -> Speichern als… (Symbol: “Pfeil nach unten”)

Erste Schritte mit SiriL: Stacken (Kalibrieren, Registrieren,…)

Einstellen des Arbeits-Ordners (Arbeitsverzeichnis, Working Directory).

Wenn man später mit Scripts arbeiten will (was sehr empfehlenswert ist), müssen im Arbeits-Ordner die Unter-Ordner: biases, lights, darks, flats angelegt sein.
Dazu ordnet man seine Fotos eben in Ordner mit diesen Namen ein und gibt den übergeordneten Ordner als Arbeitsordner bei SiriL an (Sybol “Häuschen” links oben).

Als erstes müssen in SiriL unsere Bild-Dateien in das FITS-Format umgewandelt werden und in die genannten Unter-Ordner (denn wir wollen mit Scripts arbeiten) gelegt werden. Wenn die Bilder bereits im FITS-Format sind, versucht Siril mit SymLinks zu arbeiten.

Generell geschieht das Bearbeiten unserer Bilder päckchenweise. Diese “Päckchen” heißen bei SiriL “Sequences” und müssen einen Sequence-Namen bekommen.

Beispiel Nummer 1:  Farb-Kamera (OSC) mit Lights und Darks – ohne Flats und ohne Biases

Damit ich selber mal lerne, wie das mit dieser für mich neuen Software funktioniert, versuche ich es  mit einem eigenen Fall. Ich habe gerade kürzlich (am 20.9.2020) eine Aufnahme vom Pacman-Nebel mit 60 Lights á 120 sec und 30 Darks (keine Flats und keine Biases) gemacht.

Wie man unten sieht, ist der ganze manuelle Ablauf sehr langwierig und fehleranfällig; deshalb sollte man für so einen immer wiederkehrenden Ablauf ein SirL-Script benutzen. Leider setzen die mitgelieferten Scripts immer voraus, dass man sowohl, Darks, als auch Light, Flats und Bias-Frames gemacht hat, was nicht immer der Fall ist. Das Zusatz-Programm “SiriL IC” sollte dabei helfen... Andererseits ist die SiriL-Skriptspache auch recht einfach und man könnte da schnell etwas modifizieren…

Meine Pacman-Dateien befinden sich im Ordner: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman, dieser wird also als erster Schritt als “Home” eingestellt.

Dark-Frames in eine Sequenz umwandeln

Zuerst müssen die Dark-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Darks”.
Auch wenn die Dateien schon im richtigen Format (FITS) vorhanden sind (weil meine ASI294MC Pro sie als FITs erstellt hat), muss diese “Umwandlung” in SiriL erfolgen, weil SiriL dann eine SEQ-Datei benötigt. Da die Dateien schon im (für SiriL) richtigen Format sind, werden sie lediglich kopiert.

Man kann beim “Umwandeln” auch “Symbolic Link” anhaken, dann werden die Dateien nicht echt kopiert, sondern es werden SymLinks erstellt. SymLinks funktionieren aber nur, wenn in Windows der “Developer Mode” eingestellt ist…

  • Reiter: “Conversion”
  • Input: Meine original Dark Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\Darks)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Darks”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Darks.seq

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Darks im Arbeitsordner unter den Dateinamen  Pacman_Darks_00001.fit, Pacman_Darks_00002.fit etc.  kopiert (wobei “Pacman_Darks” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Darks.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark erstellen

Ich mache dann aus diesen Darks ein sog. Master-Dark.
Das geht über den Reiter “Stacking” –  wobei ein vorheriges Registrieren nicht erforderlich ist, da auf den Darks keine Sterne sind.

Für das Stacking machen wir folgende Einstellungen (wobei vom vorigen Schritt schon die richtige Sequenz ausgewählt bleibt):

  • Input: Sequence Pacman_Darks.seq     (sollte schon die aktuelle Arbeits-Sequenz sein)
  • Reiter “Stacking”
  • Stacking-Methode: Median-Stacking
  • Normalisierung: Keine Normalisierung
  • Schaltfläche: “Starte Stacking”
  • Output: Das Ergebnis ist die Datei Pacman_Darks_stacked.fit im Arbeitsordner

Light Frames in eine Sequenz umwandeln

Dann müssen die Light-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Lights”

  • Reiter: Conversion
  • Input: Meine original Light Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\lights)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Lights”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Lights.seq

Die “umgewandeten” Lights stehen nun im Arbeitsordner unter den Dateinamen Pacman_Lights_00001.fit, Pacman_Lights_00002.fit,…

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Lights in Arbeitsordner unter den Dateinamen  Pacman_Lights_00001.fit, Pacman_Lights_00002.fit etc.  kopiert (wobei “Pacman_Lights” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Lights.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark von den Light Frames abziehen

Nun folgt das “Pre Processing” der Lights: Es wird das Master Dark abgezogen, wir haben keine Flats und auch keine Offsets/Biases…

  • Input: Sequence Pacman_Lights.seq
  • Reiter “Pre Processing”:
  • Use Offset: Nein
  • Use Dark: Ja   und den Namen eintippen: Pacman_Darks_stacked.fit  (sonst erscheint eine Meldung: “master.dark.fit.[Datei-Erweiterung]” nicht gefunden. / KEINE Dark-Frame-Benutzung: kann Datei nicht öffnen)
  • Use Flat: Nein
  • Ausgabe-Präfix: pp_
  • Schaltfläche: “Starte Pre-Processing”
  • Output: Sequence pp_Pacman_Lights.seq

Die pre-prozessierten Lights stehen nun im Arbeitsordner unter den Dateinamen: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…  (wobei pp_ ja der Präfix der Ausgabe-Sequenz ist).

Es wird eine SEQ-Datei namens “pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz pp_Pacman_Lights.seq wird geladen.

De-Bayering der Light Frames

Das Debayering darf nicht zu früh im Workflow erfolgen. Unmittelbar vor dem Registrieren ist gut.

Vorher sollten wir noch einen Blick auf die Einstellungen für das De-Bayering werfen, welche man unter dem “Hamburger Menü” bei “Einstellungen” (Preferences) findet. Dort klicke ich “FITS/SER Debayer” an…

Das De-Bayering wird manchmal auch “De-Mosacing” genannt, weil das Bayer-Pattern z.B. RGGB auch gerne Mosaik genannt wird.

Also  erfolgt das “Debayering” der Lights jetzt. In Siril steht die Funktion “Debayering” leider nur beim Reiter “Umwandeln (Convert)” zur Verfügung. Deshalb geht das so:

  • Input: Die Light-Frames von denen das Master-Dark bereits abgezogen wurde
  • Reiter: Umwandeln (Convert)
  • Laden der Dateien: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…,
  • Schaltfläche “ADD” (Hinzufügen)  (unten links)
  • Sequenz-Namen vergeben: “db_pp_Pacman_Lights”
  • Häckchen bei Debayering setzen
  • Destination – Sequence Name – eintippen: db_pp_Pacman_Light
  • Schaltfläche “Umwandeln” klicken
  • Output: Sequence db_pp_Pacman_Light

Die “be-bayerten” Lights stehen nun als RGB-Dateien im Arbeitsordner unter den Dateinamen db_pp_Pacman_Lights_00001.fit, db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz db_pp_Pacman_Lights.seq wird geladen.

Registrieren der Light Frames

Das Registrieren legt alle Einzelbilder passgenau übereinander. Das ist als Vorbereitung für das Stacking erforderlich.
Dazu wird eines der Bilder als “Referenzbild” genommen und aus allen Bildern die Sterne identifiziert, welche dann mit denen im Referenzbild verglichen werden.

Als Referenzbild wird standardmäßig das erste Bild der Sequenz genommen, es sei denn, man bestimmt in der “Frame List” der Sequenz ein anderes als Referenzbild.

Das Registriren erfolgt im Einzelnen so:

  • Input: Sequence db_pp_Pacman_Lights.seq
  • Reiter “Registrieren”
  • Registrieren alle Bilder der Sequenz
  • Registrierungsmethode: “Allgemeine Sternausrichtung (Global Star Alignment) Deep Sky”
  • Registrierungs-Layer: Grün
  • Praefix: r_
  • Algorithmus: bikubisch
  • Schaltfläche:  “Führe Registrierung aus”
  • Output: Sequence r_db_pp_Pacman_Lights.seq

Die registrierten Bilder stehen nun im Arbeitsordner unter den Dateinamen: r_db_pp_Pacman_Lights_00001.fit, r_db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “r_db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz r_db_pp_Pacman_Lights.seq wird geladen.

Stacken der Light Frames

Die registrierten Light Frames werden nun “gestapelt” englisch: stacked mit folgenden Einstellungen:

  • Input: Sequence r_db_pp_Pacman_Lights.seq
  • Reiter: Stacking
  • Stacking-Methode: Durchschnittswert-Stacking mit Ausschleusung
  • Normalisierung: Additiv mit Skalierung
  • Ausschleusung: Wisorized Sigma Clipping
  • Save in:  r_db_pp_Pacman_Lights_stacked.fit
  • Schaltfläche: “Starte Stacking”
  • Output: Ergebnisdatei r_db_pp_Pacman_Lights_stacked.fit im Arbeitsordner (diese wird im SiriL-Fenster gleich angezeigt)

Abbildung 1: So sieht das in SiriL dann aus (Google Archiv: Siril-Stacking-Ergebnis.jpg)

Siril-Stacking-Ergebnis.jpg

Astrofotografie: Welche Probleme kann ich mit Stacking lösen?

Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia

Was ist Stacking, was ist Calibration?

Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.

Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).

Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:

  • Mittelwert
  • Summe
  • Median
  • Sigma-Clipping (Outlier Rejection)
  • Maximum
  • etc.

“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).

Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?

Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).

Welche Probleme hat der Astrofotograf?

Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.

  1. Stör-Objekte (z.B. Flugzeuge) im Bild
  2. Hot Pixel  -> Dithern, Dark-Abzug
  3. Vignettierung, Donuts, Amp Glow -> Flats
  4. Himmelshintergrund zu hell  (Lichtverschmutzung)
  5. Schlechte Nachführung
  6. Beobachtungsobjekt zu dunkel auf dem Foto
  7. Rauschen, Farbrauschen (schlechtes SNR) -> Kühlung, lange Gesamtbelichtungszeit (dann Stacken)
  8. Geringer Kontrast -> Stretchen
  9. Geringe Dynamik -> Histogramm analysieren, gute Belichtungszeit wählen dann Einzelbilder aufnehmen und Stacken
  10. Helle Bildteile “ausgebrannt”
  11. Luftunruhe (“Seeing”)

(1) Problem: Stör-Objekte z.B. Flugzeuge, Erdsatelliten etc.

Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.

Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken

(2) Problem: Hot Pixel

Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.

Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(3) Problem: Vignettierung

Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.

Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(4) Problem: Donuts

Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…

Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(5) Problem: Amp Glow

Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…

Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen

Die Software Astro Pixel Processor (APP) versucht auch  “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.

(6) Problem: Himmelshintergrund zu hell

Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.

Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.

(7) Problem: Schlechte Nachführung

Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.

Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.

(8) Problem: Beobachtungsobjekte zu dunkel (kaum sichtbar) auf dem Foto

Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.

Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.

Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.

Lösung: längere Belichtungszeit, ggf mit Stacking

(9) Problem: Rauschen (schlechtes SNR)

Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:

  • Photonen-Rauschen (Schrotrauschen)
  • Sensor-Rauschen (Dunkelstrom, Thermisches Rauschen)
  • Ausleserauschen

Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..

Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)

Poisson-Verteilung (Copyright Wikipedia)

Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:

\(\sigma = \sqrt{\mu} \)

Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.

In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:

\(SNR =  \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)

Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.

In Dezibel gemessen ist das:

\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\)   [Dezibel]

Also Lösung: Lange belichten und ggf. Stacken

Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.

Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken

Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.

Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.

Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.

(10) Geringer Kontrast

Lösung: RAW-Format, Stretchen, S-Kurve

(11) Geringe Dynamik

Lösung: RAW-Format, geringeres ISO/Gain

(12) Helle Bildteile “ausgebrannt”

Lösung: HDR und/oder Postprocessing

(13) Luftunruhe “Seeing”

Lösung: Lucky Imaging

(14) …

 

Astrofotografie: Bildbearbeitung: Stacking – Calibration

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung , Belichtungszeit, DSS, Probleme Lösen mit Stacking, Mein Aufnahmeverfahren, Astro Pixel Processor
Benutzt: Fotos aus Google Archiv

Stand: 10.05.2023

Warum Stacking?

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.

Die Vorteile des Stackings sind:

  • Vermeidung von Nachführungsfehlern (Sterne werden Striche)
  • Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
  • Begrenzung des Effekts der Lichtverschmutzung
  • sonst noch was?  — Signal-Rausch-Verhältnis (SNR) —

Die beliebteste Software zum Stacken ist der Deep Sky Stacker “DSS” und der Astro Pixel Processor “APP”.

Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.

Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.

Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…

Z.B. die Software SharpCap beherrscht ein solches Live Stacking.

Links

http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

Welche Software kann Stacking?

Umgangssprachlich spricht man gerne vom “Stacking”;  eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.

Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:

  • Deep Sky Stacker
  • Sequator   (Windows only)
  • Fitswork   (eingestellt – Windows only)
  • PixInsight
  • MaxIm DL
  • Regim (Dank Java auch für Linux)
  • Siril   (Linux, Windows, MacOS)
  • Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
  • u.a.

Welche Kalibrierungs-Frames brauche ich?

Das Wichtigste sind die Flat Frames.

Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.

Welche Aufnahmen (“Frames”) muss ich machen?

Light Frames

So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.

Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.

Dark Frames

Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.

Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.

So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.

Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.

Darkframes – Dunkelbildabzug

Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45  Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.

Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.

Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:

Abbildung 1 und 2: DSS Dunkelbildabzug (Google Archiv: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)

Calibration: Lights without Darks

Calibration: Lights without Darks

Calibration: Lights with Darks

Calibration: Lights with Darks

Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:

  • Die Hotpixel werden eliminiert
  • Das Dunkelstrom-Signal wird eliminiert (abgezogen)
  • Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)

Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).

Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg

Flat Frames

Was ist ein “Flat Frame”?

Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.

Wofür benötigt man Flat Frames?

Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.

Wie fertigt man ein Flat Frame an?

Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.

Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.

Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).

Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.

Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.

Wie macht man Flat Frames mit APT?

Bias Frames (auch Offset Frames genannt)

Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.

Wofür benötigen wir Bias Frames?

Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.

Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.

Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.

Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.

Der Rat von Frank zum Thema Stacking:

Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!

So sieht Franks Zusammenfassung aus:  https://www.youtube.com/watch?v=rgZ5MTSHClU

Wie werden die Aufnahmen (Frames) richtig “gestackt”?

Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.