Astrofotografie: Die Software Siril

Gehört zu: Astrofotografie, Stacking
Siehe auch: Deep Sky Stacker, PixInsight, Astro Pixel Processor, ComputerAcerBaer, Bildbearbeitung, StarNet, Plate Solving
Benutzt: Fotos aus Google Drive

Stand: 19.11.2024

Quellen

Ein Youtube-Tutorial von Frank Sackenheim: https://www.youtube.com/watch?v=qMD2QQUtxYs
Das Youtube-Video von Cuiv “The Lazy Geek”: https://youtu.be/dEX9KbbzALc
Das YouTube-Video von “Deep Space Astro”: https://youtu.be/s3TJduagxrw

Astrofotografie mit der kostenlosen Software Siril

Siril ist eine kostenlose Software mit dem Schwerpunkt Stacking, kann aber noch einiges anderes mehr (Bildbearbeitung)…

Aufmerksam geworden bin ich auf Siril durch das unten angegebene YouTube-Video von Frank Sackenheim im März 2020. Dann hat Cuiv “The Lazy Geek” aus Tokio im August 2020 auch das Thema Siril aufgegriffen. Deswegen machte ich einen zweiten Versuch, Siril zu verstehen…

Dann bin ich bei der Beschäftigung mit Smart Telescopes im September 2023 erneut auf Siril gestossen, wobei mich die Möglichkeiten der Bildbearbeitung besonders beeindruckt haben, beispielsweise die Integration von StarNet.

Als Alternative zum traditionellen Deep Sky Stacker ist das modernere Siril vielleicht ganz interessant. Auch als kostenlose Alternative zu PixInsight kann Siril mit Background Extraction und fotometrischer Farbkalibrierung punkten.

Zusammenfassung Bildbearbeitung mit Siril (aus SuW 6/2024)

  1. Stacken
    1. Registrieren
    2. Kalibrieren
  2. Lineares Bild
    1. Hintergrund extrahieren
    2. Platesolving
    3. Farbkalibrierung
    4. Farbsättigung
  3. Stretching
    1. Asinh-Transformation (etwas)
    2. Histogramm-Stretching

Vorteile von Siril

  • kostenlos
  • Für Windows und Linux und MacOS
  • Stacking mit vielen manuellen Einflussmöglichkeiten, aber auch “vollautomatisch” per Skript
  • Nach dem Stacken: Bildnachbearbeitung:
    • 1: Zuschneiden (Cropping)
    • 2: Background Extraction
    • 3. Platesolving
    • 4: Color Calibration (auch photometrisch)   <— Dazu Bild-Koordinaten erforderlich
    • 5. Color Saturation
    • 6. Sterne separieren (StarNet++)
    • 7. Stretching the Histogram
    • 8: Green Noise Reduction
    • 9: Annotations
    • 10: Deconvolution
    • 11: Saving as TIFF, FITS, JPG oder PNG

Besonderheiten von Siril

Im Gegensatz zu anderer Stacking-Software gibt es bei Siril zu beachten:

  • Es sollte mit den Unterordnern: lights, darks, flats und biases gearbeitet werden (damit die Scripte zum Stacken funktionieren)
  • Siril untersützt automatische Abläufe durch ausgeklügelte Scripts
  • Siril kann sehr gut mit Narrowband-Filtern bei Farbkameras (OSC) umgehen
  • Siril unterstützt photometrische Farbkalibrierung
  • Siril hat starke Funktionen zur Nachbearbeitung von Astro-Fotos
  • Siril hat eine integrierte StarNet-Funktion (erfordert eine Intel CPU mit AVX Advanced Vector Extensions)

Installation und Konfiguration

Software Download: https://www.siril.org/download/#Windows

Versionen:

  • Version 1.2.1 (Jan 26, 2024)
  • Version 1.2.0 (Sep 15, 2023)
  • Version 1.2.0-beta2 (March 12, 2023)
  • Version 1.2.0-beta1 (Feb 24, 2023)
  • Version 1.0.6 (18. Oct 2022)
  • Version 1.0.3 (28. June 2022)
  • Beta-Version: 0.99.8.1 (13. Februar 2021). Diese Beta-Version für die geplante Version 1.0 hat ein komplett verändertes GUI – deshalb helfen ältere Tutorials im Moment kaum noch.
  • Version 1.2.4 (11. Sep 2024)

Die Konfigurationsdatei ist: c:\users\<name>\AppData\Local\siril\config.ini

In dieser Config-Datei speichert SiriL auch den Namen des letzten Working Directory, was man hier oder später auf der Siril-Komandozeile mit dem Befehl “cd” ändern kann (oder durch klicken auf das Symbol “Häuschen” – oben links).

Einstellen des “Themes“:  Hamburger Menü -> Preferences -> User Interface -> Aussehen (Look and Feel): Dort können wir z.B. das “Dark Theme” auswählen.

Auch die Sprache können wir hier einstellen. Deutsch mögen viele da gern, aber dann muss man mit zum Teil komischen Übersetzungen leben und Tipps und Tricks aus der SiriL-Community sind mit “Englisch” meist besser zu verstehen…

Einstellen der “Language“:  Hamburger Menü -> Preferences -> User Interface -> Language: Dort können wir z.B. “English [en]” auswählen.

Auch der Pfad zur Software StarNet muss hier eingebeben werden.

Siril Skripts

Skripts in SiriL sind einfach Dateien mit der Endung *.ssf

Die ersten Schritte mit Siril: Bildbearbeitung

Man kann Siril auch nur zur Bildbearbeitung (mit bereits gestackten Fotos) einsetzen. Dazu kann man so ein gestacktes Foto einfach in Siril laden (Links oben “OPEN”) und dann mit “Image Processing” bearbeiten.

Die Anzeige des Bildes kann man einstellen als “Linear”, “Autostretch” u.a. mit einem kleinen Drop-Down in der Mitte unteren Fensterleiste. Das wirkt nur auf die Anzeige, das Foto selbst bleibt unverändert.

Zum Speichern des Bildes als Bilddatei gibt oben rechts auf der Leiste zwei Symbole:

  • Kleine Schaltfläche “Save”
  • Rechts davon das Symbol “Pfeil nach unten”; das bedeutet: “Speichern unter”  (quasi ein “Download”)

Bildnachbearbeitung: Zuschneiden

Durch das Stacken (speziell wenn man beim Fotografieren Dithering eingestellt hat) gibt es meist schmale dunkle Ränder, die wir jetzt abschneiden wollen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Mit der Maus auf einem Graubild (Red, Green, Blue) oder einem RGB-Bild ein Rechteck ziehen (wie Markieren),
  • Klick mit der rechten Maustaste und auf “Zuschneiden” (“Crop”) klicken
  • das zugeschnittene Bild wird von Siril automatisch gespeichert und im Fenster neu angezeigt
  • Output: Dieselbe Bilddatei wie Input  (Achtung: destruktiv!!!)

Bildnachbearbeitung: Hintergrund-Extraktion

Ähnlich wie in PixInsight kann auch SiriL den Bildhintergrund ermitteln und dann abziehen. Das macht man gerne um z.B. Gradienten zu entfernen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Hintergrund-Extraktion
  • Samples für den Hintergrund manuell setzen  (dahin wo kein Nutzsignal ist)
  • Schaltfläche: “Compute Background”
  • Korrektur: Drop-Down “Subtraktion” (oder, falls gewünscht: “Division”)
  • Schaltfläche  “Apply”
  • Output: dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Schließen (Close)

Bildnachbearbeitung: Farb-Kalibrierung

Um schöne Sternfarben zu bekommen sollte man unbedingt eine Farb-Kalibrierung machen. Siril bietet dafür zwei Möglichkeiten an: “Farbkalibrierung” und “Photometrische Farbkalibrierung”.

Für die Photometrischen Farbkalibrierung muss Siril wissen, welche Sterne auf dem Bild zu sehen sind. Dazu versucht Siril im FITS-Header WCS-Koordinaten zu finden. Wenn die Kamera bereits Bilder im FITS-Format liefert (z.B. bei ASI-Kameras) muss nur noch die Bild-Aufnahme-Software (z.B. APT, N.I.N.A.) die Aufnahme-Koordinaten in den FITS-Header schreiben.

Wenn wir im FITS-Header (noch) keine Bild-Koordinaten haben, hat Siril zwei Wege diese nachträglich zu ermitteln:

  1. SIMBAD
  2. Platesolving: Dazu wird das Bild von Siril “ge-platesolved” (astrometrische Lösung)

Das Ganze läuft so:

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farb-Kalibrierung -(Color Calibration) > Photometrische Farb-Kalibrierung (Photometric Color Calibration)
  • Wenn noch keine Bild-Koordinaten (aus dem FITS-Header) gefunden wurden
    • SIMBAD: Image Parameters: Eingabe Objektname (z.B. NGC281) gefundene Koordinaten aus einem Katalog übernehmen
    • Wenn das Objekt nicht in SIMBAD-Katalog  gefunden wurde: Plate Solving
      • Brennweite (Focal distance): 510 mm
      • Pixel Größe (Pixel Size): 4,6 µ
  • Photometrischer Sternkatalog: NOMAD oder APASS anhand eines Sternkatalogs  werden die sog. B-V-Indices der Sterne benutzt.
  • Sternerkennung: Automatisch
  • Hintergrund-Referenz: automatic detection (besser: selbst angeben)
  • Normalisierung ja Kanal: On Lowest
  • Schaltfläche: OK
  • Output: Dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Grünrauschen entfernen

Bei DSLRs und auch bei Astrokameras mit Farb-Sensor (“OSC”) haben wir oft eine Überbetonung der grünen Farbe.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Grün-Rauschen entfernen (Remove Green Noise)
  • Protection Method: Average Neutral
  • Amount:  1.00
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Farbsättigung anheben

Vor dem “Stretchen” soll man die Farbsättigung anheben.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farbsättigung (Color Saturation)…
  • Hue: Global
  • Amount: + 0.66
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)

Bildnachbearbeitung: Histogramm-Transformation (Stretchen)

Menüleiste -> Bildbearbeitung

Hierzu hat SiriL mehrere Methoden:

  • Arcsinh Transformation
  • Generalized Hyperbolic Stretch Tranformation  (“GHS”)
  • Histogramm Transformation

Allgemein wird GHS empfohlen, wobei man sich da ersteinmal richtig einarbeiten muss (z.B. Tutorial https://siril.org/tutorials/ghs/).
Der Schwarzwert wird in einem separaten Vorgang verstellt…

Bildnachbearbeitung: Annotationen

Voraussetzung ist, dass das Bild vom Platesolving her WCS-Metadaten enthält.

In Siril sieht man in der Leiste unten rechts mehrere Symbole. Nach einem erfolgreichen Platesolving ist dort das Symbol “Kugel mit Koordinaten” aktiv (nicht mehr ausgegraut). Da kann man ja mal ausprobieren wie ein Koordinatennetz auf dem Bild dann aussieht. Das brauchen wir aber jetzt eigentlich noch nicht.

Rechte von diesem Symbol “Kugel mit Koordinaten” steht auf der Leiste ein Symbol “Konzentrische Kreise” damit schalten wir den Photometrie-Modus von Siril an. Wenn wir dann auf einen Stern im Bild klicken erscheint ein Fenster “PSF and quick photometry results” dort klicken wir unten auf “More Details…”. Dadurch werden wir auf eine externe Web-Seite geführt, wo wir den offiziellen Namen unseres Stern sehen und ins Clippboad kopieren. Mehr wollten wir hier nicht, nur den Namen.

Im nächsten Schritt gehen wir zurück zu unserem Bild in Siril und schalten photometrischen Modus aus. Dann können wir mit der rechten Maustaste in das Bild klicken und erhalten so ein Kontextmenü. Dort wählen wir aus “Search Object…” wo wir dann den oben gefundenen offiziellen Namen unseres Objekt eingeben….

Dies wir von Siril gespeichet in einem “User-DSO catalog”…

Bildnachbearbeitung: Speichern

Beim Speichern des bearbeiteten Bilden muss man aufpassen.

Obere Leiste -> Speichern als… (Symbol: “Pfeil nach unten”)

Erste Schritte mit Siril: Stacken (Kalibrieren, Registrieren,…)

Einstellen des Arbeits-Ordners (Arbeitsverzeichnis, Working Directory).

Wenn man später mit Scripts arbeiten will (was sehr empfehlenswert ist), müssen im Arbeits-Ordner die Unter-Ordner: biases, lights, darks, flats angelegt sein.
Dazu ordnet man seine Fotos eben in Ordner mit diesen Namen ein und gibt den übergeordneten Ordner als Arbeitsordner bei Siril an (Symbol “Häuschen” links oben).

Als erstes müssen in Siril unsere Bild-Dateien in das FITS-Format umgewandelt werden und in die genannten Unter-Ordner (denn wir wollen mit Scripts arbeiten) gelegt werden. Wenn die Bilder bereits im FITS-Format sind, versucht Siril mit SymLinks zu arbeiten.

Generell geschieht das Bearbeiten unserer Bilder päckchenweise. Diese “Päckchen” heißen bei Siril “Sequences” und müssen einen Sequence-Namen bekommen.

Beispiel Nummer 1:  Farb-Kamera (OSC) mit Lights und Darks – ohne Flats und ohne Biases

Damit ich selber mal lerne, wie das mit dieser für mich neuen Software funktioniert, versuche ich es  mit einem eigenen Fall. Ich habe gerade kürzlich (am 20.9.2020) eine Aufnahme vom Pacman-Nebel mit 60 Lights á 120 sec und 30 Darks (keine Flats und keine Biases) gemacht.

Wie man unten sieht, ist der ganze manuelle Ablauf sehr langwierig und fehleranfällig; deshalb sollte man für so einen immer wiederkehrenden Ablauf ein Siril-Script benutzen. Leider setzen die mitgelieferten Scripts immer voraus, dass man sowohl, Darks, als auch Light, Flats und Bias-Frames gemacht hat, was nicht immer der Fall ist. Das Zusatz-Programm “SiriL IC” sollte dabei helfen... Andererseits ist die Siril-Skriptspache auch recht einfach und man könnte da schnell etwas modifizieren…

Meine Pacman-Dateien befinden sich im Ordner: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman, dieser wird also als erster Schritt als “Home” eingestellt.

Dark-Frames in eine Sequenz umwandeln

Zuerst müssen die Dark-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Darks”.
Auch wenn die Dateien schon im richtigen Format (FITS) vorhanden sind (weil meine ASI294MC Pro sie als FITs erstellt hat), muss diese “Umwandlung” in SiriL erfolgen, weil SiriL dann eine SEQ-Datei benötigt. Da die Dateien schon im (für SiriL) richtigen Format sind, werden sie lediglich kopiert.

Man kann beim “Umwandeln” auch “Symbolic Link” anhaken, dann werden die Dateien nicht echt kopiert, sondern es werden SymLinks erstellt. SymLinks funktionieren aber nur, wenn in Windows der “Developer Mode” eingestellt ist…

  • Reiter: “Conversion”
  • Input: Meine original Dark Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\Darks)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Darks”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Darks.seq

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Darks im Arbeitsordner unter den Dateinamen  Pacman_Darks_00001.fit, Pacman_Darks_00002.fit etc.  kopiert (wobei “Pacman_Darks” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Darks.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark erstellen

Ich mache dann aus diesen Darks ein sog. Master-Dark.
Das geht über den Reiter “Stacking” –  wobei ein vorheriges Registrieren nicht erforderlich ist, da auf den Darks keine Sterne sind.

Für das Stacking machen wir folgende Einstellungen (wobei vom vorigen Schritt schon die richtige Sequenz ausgewählt bleibt):

  • Input: Sequence Pacman_Darks.seq     (sollte schon die aktuelle Arbeits-Sequenz sein)
  • Reiter “Stacking”
  • Stacking-Methode: Median-Stacking
  • Normalisierung: Keine Normalisierung
  • Schaltfläche: “Starte Stacking”
  • Output: Das Ergebnis ist die Datei Pacman_Darks_stacked.fit im Arbeitsordner

Light Frames in eine Sequenz umwandeln

Dann müssen die Light-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Lights”

  • Reiter: Conversion
  • Input: Meine original Light Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\lights)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Lights”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Lights.seq

Die “umgewandeten” Lights stehen nun im Arbeitsordner unter den Dateinamen Pacman_Lights_00001.fit, Pacman_Lights_00002.fit,…

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Lights in Arbeitsordner unter den Dateinamen  Pacman_Lights_00001.fit, Pacman_Lights_00002.fit etc.  kopiert (wobei “Pacman_Lights” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Lights.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark von den Light Frames abziehen

Nun folgt das “Pre Processing” der Lights: Es wird das Master Dark abgezogen, wir haben keine Flats und auch keine Offsets/Biases…

  • Input: Sequence Pacman_Lights.seq
  • Reiter “Pre Processing”:
  • Use Offset: Nein
  • Use Dark: Ja   und den Namen eintippen: Pacman_Darks_stacked.fit  (sonst erscheint eine Meldung: “master.dark.fit.[Datei-Erweiterung]” nicht gefunden. / KEINE Dark-Frame-Benutzung: kann Datei nicht öffnen)
  • Use Flat: Nein
  • Ausgabe-Präfix: pp_
  • Schaltfläche: “Starte Pre-Processing”
  • Output: Sequence pp_Pacman_Lights.seq

Die pre-prozessierten Lights stehen nun im Arbeitsordner unter den Dateinamen: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…  (wobei pp_ ja der Präfix der Ausgabe-Sequenz ist).

Es wird eine SEQ-Datei namens “pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz pp_Pacman_Lights.seq wird geladen.

De-Bayering der Light Frames

Das Debayering darf nicht zu früh im Workflow erfolgen. Unmittelbar vor dem Registrieren ist gut.

Vorher sollten wir noch einen Blick auf die Einstellungen für das De-Bayering werfen, welche man unter dem “Hamburger Menü” bei “Einstellungen” (Preferences) findet. Dort klicke ich “FITS/SER Debayer” an…

Das De-Bayering wird manchmal auch “De-Mosacing” genannt, weil das Bayer-Pattern z.B. RGGB auch gerne Mosaik genannt wird.

Also  erfolgt das “Debayering” der Lights jetzt. In Siril steht die Funktion “Debayering” leider nur beim Reiter “Umwandeln (Convert)” zur Verfügung. Deshalb geht das so:

  • Input: Die Light-Frames von denen das Master-Dark bereits abgezogen wurde
  • Reiter: Umwandeln (Convert)
  • Laden der Dateien: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…,
  • Schaltfläche “ADD” (Hinzufügen)  (unten links)
  • Sequenz-Namen vergeben: “db_pp_Pacman_Lights”
  • Häckchen bei Debayering setzen
  • Destination – Sequence Name – eintippen: db_pp_Pacman_Light
  • Schaltfläche “Umwandeln” klicken
  • Output: Sequence db_pp_Pacman_Light

Die “be-bayerten” Lights stehen nun als RGB-Dateien im Arbeitsordner unter den Dateinamen db_pp_Pacman_Lights_00001.fit, db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz db_pp_Pacman_Lights.seq wird geladen.

Registrieren der Light Frames

Das Registrieren legt alle Einzelbilder passgenau übereinander. Das ist als Vorbereitung für das Stacking erforderlich.
Dazu wird eines der Bilder als “Referenzbild” genommen und aus allen Bildern die Sterne identifiziert, welche dann mit denen im Referenzbild verglichen werden.

Als Referenzbild wird standardmäßig das erste Bild der Sequenz genommen, es sei denn, man bestimmt in der “Frame List” der Sequenz ein anderes als Referenzbild.

Das Registriren erfolgt im Einzelnen so:

  • Input: Sequence db_pp_Pacman_Lights.seq
  • Reiter “Registrieren”
  • Registrieren alle Bilder der Sequenz
  • Registrierungsmethode: “Allgemeine Sternausrichtung (Global Star Alignment) Deep Sky”
  • Registrierungs-Layer: Grün
  • Praefix: r_
  • Algorithmus: bikubisch
  • Schaltfläche:  “Führe Registrierung aus”
  • Output: Sequence r_db_pp_Pacman_Lights.seq

Die registrierten Bilder stehen nun im Arbeitsordner unter den Dateinamen: r_db_pp_Pacman_Lights_00001.fit, r_db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “r_db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz r_db_pp_Pacman_Lights.seq wird geladen.

Stacken der Light Frames

Die registrierten Light Frames werden nun “gestapelt” englisch: stacked mit folgenden Einstellungen:

  • Input: Sequence r_db_pp_Pacman_Lights.seq
  • Reiter: Stacking
  • Stacking-Methode: Durchschnittswert-Stacking mit Ausschleusung
  • Normalisierung: Additiv mit Skalierung
  • Ausschleusung: Wisorized Sigma Clipping
  • Save in:  r_db_pp_Pacman_Lights_stacked.fit
  • Schaltfläche: “Starte Stacking”
  • Output: Ergebnisdatei r_db_pp_Pacman_Lights_stacked.fit im Arbeitsordner (diese wird im SiriL-Fenster gleich angezeigt)

Abbildung 1: So sieht das in Siril dann aus (Google Drive: Siril-Stacking-Ergebnis.jpg)

Astronomie: Teilchenphysik

Gehört zu: Physik
Siehe auch: Quantenphysik, SVG, Kosmologie, Quantenfeldtheorie, Gravitation, Grundkräfte, Gruppentheorie
Benötigt:  Bilder von Wikipedia
Stand: 12.05.2024

Teilchenphysik

In der Teilchenphysik unterscheidet man Elementarteilchen und zusammengesetzte Teilchen. Wobei es sich im Laufe der Jahrhunderte immer etwas geändert hat, was als “elementar” angesehen wurde.

Die Teilchenphysik wurde von Murray Gell-Mann (1929-2019) sehr befruchtet. Er gilt als Entdecker der Quarks und schaffte Ordnung bei den Elementarteilchen.

Im Jahr 1969 wurde Gell-Mann im Alter von 40 Jahren für seine „Beiträge und Entdeckungen zur Ordnung der Elementarteilchen und ihrer Wechselwirkungen“ mit dem Nobelpreis für Physik ausgezeichnet.
Das heutige (2020) Verständnis dieser Elementarteilchen wird zusammenfassend dargestellt im sog. “Standardmodell”.

Standardmodell der Teilchenphysik

Die bekannten Elementarteilchen und ihre Wechselwirkungen (Kräfte) beschreibt man im sog. Standardmodell der Teilchenphysik. Aber es scheint darüber hinaus noch weitere Elementarteilchen zu geben: man spricht dann von Neue Physik.

Wie gesagt, dieses “Standardmodell” beschreibt einerseits, welche Elementarteilchen es gibt (siehe Abbildung) und andererseits, welche Kräfte (Wechselwirkungen) zwischen diesen Teilchen wirken. Letzteres kann man beispielsweise mit Feynman-Diagrammen beschreiben und berechnen.

Abbildung 1: Standard Model of Elementary Particles (Wikipedia: Standard_Model_of_Elementary_Particles.svg)

Insert from URL

Symbole für Teilchen

Tabelle 2: Symbole für Teilchen

Teilchen Symbol Bemerkungen
Photon γ Austauschteilchen der Elektromagnetischen Kraft
Gluon g Austauschteilchen der Starken Kernkraft (Farbladungen)
W-Boson W Austauschteilchen der Schwachen Kernkraft
Z-Boson Z Austauschteilchen der Schwachen Kernkraft
Up-Quark u
Down-Quark d
Charme-Quark c
Strange-Quark s
Top-Quark t
Bottom-Quark b
Elektron e
Myon μ schwereres Elektron
Tauon τ noch schwereres Elektron
Neutrino νe Elektron-Neutrino
μ-Neutrino νμ μ-Neutrino
τ-Neutrino ντ τ-Neutrino

Statt “Kraft” sagen wir auch gerne “Wechselwirkung” – also z.B. “Starke Wechselwirkung”

Anti-Teilchen

Zu jedem Teilchen kann es auch ein Anti-Teilchen geben. Anti-Teilchen werden im Allgemeinen mit einen “Quer-Symbol” versehen, z.B.  u und ū.

Antiteilchen haben die entgegengesetzte elektrische Ladung wie ihr “normales” Teilchen z.B.   e und e+ (hier benutzen wir das Quer-Symbol nicht).

Zusammengesetzte Teilchen

Danach sind Protonen und Neutronen (sog. Hadronen) sowie Mesonen keine Elementarteilchen mehr, sondern setzen sich aus Quarks zusammen:

Protonen und Neutronen bestehen aus drei Quarks:

  • Proton p: up up down
  • Neutron: n: up down down

Mesonen bestehen aus zwei Quarks:

  • Meson: ein Quark & ein Anti-Quark

Die vier Grundkräfte

In der Physik kennen wir vier Grundkräfte (die vier fundamentalen Wechselwirkungen). Das Standardmodell der Elementatteilchenphysik erklärt drei der Grundkräfte durch sog. Wechselwirkungen mit sog. Austauschteilchen.
Die vier Grundkräfte sind:

  1. Gravitation
  2. Elektromagnetismus
  3. Starke Kernkaft  (Starke Wechselwirkung) – Sie bindet die Quarks aneinander und hält so z.B. die drei Quarks eines Protons zusammen; ebenso die drei Quarks eines Neutrons
  4. Schwache Kernkaft  (Schwache Wechselwirkung) – kann ein Up-Quark in ein Down-Quark umwandeln und somit Protonen (uud) und Neutronen (udd) vertauschen und so beispielsweise den Beta-Zerfall (Fermi) bewirken; also Radioaktivität…

Die Gravitation ist insofern anders als die anderen drei Kräfte (Wechselwirkungen) weil:

  • Sie ist sehr viel schwächer als die anderen
  • Die Gravitation lässt sich nicht abschirmen  (in sofern gibt es real keine sog. Inertialsysteme)
  • Die Gravitation ist immer anziehend, nie abstossend

Heutzutage (2021) ordnet man drei dieser vier  Gundkräfte sog. Austauschteilchen (das sind virtuelle Teilchen) zu und beschreibt die Wechselwirkungen durch Felder,

Diese Austauschteilcjen sollen sog. “virtuelle” Teilchen sein. Damit meint man Teilchen, die in einer Paarerzeugung im Rahmen der Heisenbergschen Zeit-Energie-Unbestimmtheit für ganz kurze Zeit entstehen.

Tabelle 3: Grundkräfte und Austauschteilchen

Grundkraft Wechselwirkung zwischen Teilchen Austauschteilchen Quantenfeldtheorie Ladung / Gruppe
Gravitation unbekannt fehlt zur Zeit (2023)
Elektromagnetismus Proton, Neutron, Elektron Photon Quantenelektrodynamik Elektrische Ladung – U(1)
Schwache Kernkraft W-Boson und Z-Boson Quantenflavourdynamik xyz – SU(2)L
Starke Kernkraft Quarks Gluonen Quantenchromodynamik Farbladungen – SU(3)

Die Gravitation und auch die Elektrostatische Kraft sind sehr anschauliche Gundkräfte (Wechselwirkungen) im Standardmodell der Teilchenphysik.

Bei den Elementarteilchen unterscheidet man Fermionen (Materie) und Bosonen (Austauschteilchen für Wechselwirkungen). Die Bosonen stehen in der vierten Spalte des Standardmodells:

  • Photonen (γ) vermitteln die Elektromagnetische Kraft  (Wechselwirkung)
  • Gluonen (g) vermitteln die sog. Starke Kernkraft (Wechselwirkung), die hält beispielsweise die Protonen in einem Atomkern zusammen.
  • W-Bosonen vermitteln die sog. Schwache Kernkraft (Wechselwirkung), die kann beispielsweise aus einem Proton ein Neutron machen und umgekehrt, indem aus einem Up-Quark ein Down-Quark wird bzw. umgekehrt.

Die Stärke einer Kraft (Wechselwirkung) hängt ab von einer Art “Ladung“. Zur genauen Beschreibung wird die mathematische Gruppentheorie verwendet,

Feynman-Diagramme

Zur Bescheibung von Wechselwirkungen zwischen Elementarteilchen hat Richard Feynman eine spzezielle Diagramm-Art entwickelt.
Im Feynman-Diagram läuft die Zeit von unten nach oben und der Raum von links nach rechts (wie in einem Raum-Zeit-Diagramm)- allerdings ist dies nicht standardisiert.

Materie-Teilchen werden als Pfeile mit ausgezogener Linie dargestellt.
Wechselwirkungs-Teilchen werden anders dargestellt:

  • Photonen als Welle
  • Gluonen als Schraubfeder
  • Bosonen mit einer gestrichelten Linie

Zerfall bzw. Kollision zweier Objekte bilden einen sog. “Vertex”.

Abbildung 2: Beispiel eines Feynman Diagrams: Electron absorbs a Photon (Wikipedia: Basic_Feynman_diagram_-_electron_absorbs_photon.svg)

Feynman Diagram: Electron absorbs a Photon

Abbildung 3: Beispiel eines Feynman-Diagramms: Beta-Zerfall (Wikipedia: BetaDecay.svg)

Feynman-Diagramm: Betazerfall (Halbwertzeit 10 Minuten)

Astrofotografie: Welche Probleme kann ich mit Stacking lösen?

Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia

Was ist Stacking, was ist Calibration?

Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.

Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).

Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:

  • Mittelwert
  • Summe
  • Median
  • Sigma-Clipping (Outlier Rejection)
  • Maximum
  • etc.

“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).

Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?

Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).

Welche Probleme hat der Astrofotograf?

Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.

  1. Stör-Objekte (z.B. Flugzeuge) im Bild
  2. Hot Pixel  -> Dithern, Dark-Abzug
  3. Vignettierung, Donuts, Amp Glow -> Flats
  4. Himmelshintergrund zu hell  (Lichtverschmutzung)
  5. Schlechte Nachführung
  6. Beobachtungsobjekt zu dunkel auf dem Foto
  7. Rauschen, Farbrauschen (schlechtes SNR) -> Kühlung, lange Gesamtbelichtungszeit (dann Stacken)
  8. Geringer Kontrast -> Stretchen
  9. Geringe Dynamik -> Histogramm analysieren, gute Belichtungszeit wählen dann Einzelbilder aufnehmen und Stacken
  10. Helle Bildteile “ausgebrannt”
  11. Luftunruhe (“Seeing”)

(1) Problem: Stör-Objekte z.B. Flugzeuge, Erdsatelliten etc.

Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.

Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken

(2) Problem: Hot Pixel

Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.

Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(3) Problem: Vignettierung

Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.

Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(4) Problem: Donuts

Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…

Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(5) Problem: Amp Glow

Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…

Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen

Die Software Astro Pixel Processor (APP) versucht auch  “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.

(6) Problem: Himmelshintergrund zu hell

Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.

Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.

(7) Problem: Schlechte Nachführung

Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.

Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.

(8) Problem: Beobachtungsobjekte zu dunkel (kaum sichtbar) auf dem Foto

Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.

Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.

Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.

Lösung: längere Belichtungszeit, ggf mit Stacking

(9) Problem: Rauschen (schlechtes SNR)

Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:

  • Photonen-Rauschen (Schrotrauschen)
  • Sensor-Rauschen (Dunkelstrom, Thermisches Rauschen)
  • Ausleserauschen

Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..

Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)

Poisson-Verteilung (Copyright Wikipedia)

Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:

\(\sigma = \sqrt{\mu} \)

Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.

In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:

\(SNR =  \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)

Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.

In Dezibel gemessen ist das:

\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\)   [Dezibel]

Also Lösung: Lange belichten und ggf. Stacken

Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.

Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken

Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.

Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.

Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.

(10) Geringer Kontrast

Lösung: RAW-Format, Stretchen, S-Kurve

(11) Geringe Dynamik

Lösung: RAW-Format, geringeres ISO/Gain

(12) Helle Bildteile “ausgebrannt”

Lösung: HDR und/oder Postprocessing

(13) Luftunruhe “Seeing”

Lösung: Lucky Imaging

(14) …

 

Astronomie: Sphärische Trigonometrie

Gehört zu: Mathematik
Siehe auch: Tägliche Bewegung der Gestirne, Diagramme, Tageslänge, Koordinatensystem
Benötigt: WordPress Latex-Plugin, WordPress Plugin Google Drive Embedder

Was ist Sphärische Trigonometrie?

Die Ebene Trigonometrie ist die Lehre von den Dreiecken in der Ebene.

Die Sphärische Trigonometrie ist die Lehre von den Dreiecken auf einer Kugeloberfläche. Solche Dreiecke werden durch Abschnitte von Großkreisen gebildet.

Das Polar-Dreieck auf der Himmelskugel

Zur Umrechnung eines Koordinatensystems in ein anderes zeichnet man sich ein sog. Polar-Dreieck, in dem die “Pole” (“Drehpunkte”) beider Koordinatensysteme vorkommen.

Zur Umrechnung der äquatorialen Koordinaten Deklination (δ) und Stundenwinkel (t) in die horizontalen Koordinaten Höhe (h) und Azimuth (A) wird das sog. Polar-Dreieck wird gebildet durch den Himmelspol (N), den Zenit (Z) und ein Himmelsobjekt (O).

Im Polardreieck sind die Abstände (Bogenlängen):

  • vom Himmelspol zum Zenit: 90° – φ
  • vom Himmelspol zum Himmelsobjekt: 90° – δ
  • vom Zenit zum HImmelsobjekt: z = 90° – h

Im Polardreieck sind die Winkel an den Ecken des Dreiecks:

  • Winkel am Himmelspol: Stundenwinkel t (oder τ)
  • Winkel am Zenith: 180°  – A   (A = Azimuth von Süden)

Abbildung 1: Das Polardreieck (Google Drive: polardreieck.svg)

polardreieck.svg

Polardreieck

Link: https://de.wikibooks.org/wiki/Astronomische_Berechnungen_f%C3%BCr_Amateure/_Druckversion#Koordinatentransformationen

MIt dem Seiten-Cosinussatz errechnet man den Cosinus der Länge einer Seite aus den Längen der beiden anderen Seiten und dem gegenüberliegenden Winkel:
\(\cos z = \cos (90° – \phi) \cos (90° – \delta) + \sin (90° – \phi) \sin (90° – \delta) \cos t\)

Was schließlich heisst:
\(\sin h = \sin \phi \sin \delta + \cos \phi \cos \delta \cos t \)

Der Cotangens-Satz im Polardreieck sagt:

\(   \cos (90° – \phi)  \cos t = \sin(90° – \phi) \cot (90° – \delta) – \sin t \cot(180° – A)  \)

Trigonometrisch umgeformt ergibt das:
\(  \sin \phi \cos t = \cos \phi \tan \delta – \Large\frac{\sin t}{\tan A}  \)

Aufgelöst nach A ergibt sich:

\(   \tan A = \Large\frac{\sin t}{\sin \phi \cos t – \cos \phi \tan \delta} \)

MIt Hilfe dieser Koordinatentransformation kann man für jedes bekannte Himmelsobjekt (Deklination und Rektaszension) die scheinbare tägliche Bewegung am Himmel berechnen – siehe dazu: Die scheinbare tägliche Bewegung der Gestirne.

Großkreise auf einer Kugel

Wenn ich im obigen Polardreieck h=0 setze, erhalte ich einen gekippten Großkreis (oBdA setze ich t = λ).

\(\Large \frac{\sin{\delta}}{\cos{\delta}} = – \frac{\cos{\varphi}}{sin{\varphi}} \cdot \cos{\lambda}  \)

Abbildung 2: Beispiel eines Großkreises auf der Erde (Google: xyz)

grosskreis-01.svg

Großkreis auf der Erdoberfläche

Bei der Seefahrt bezeichnet man die Navigation auf einem Kurs entlang eines Großkreises als “Orthodrome” (Gegensatz: Loxodrome).

Mehr dazu: https://www.navigareberlin.de/onewebmedia/Grosskreisnavigation%20Ver%C3%B6ffentlichung.pdf

Metrik auf einer Kugeloberfläche

Für eine Kugel mit dem Radius r kann ich auf der Kugeloberfläche (z.B. Erdoberfläche) ein Koordinatensystem (s.o.) benutzen:

  • Koordinatensystem (λ, \( \varphi \))
  • wobei im Bogenmass: \( \Large -\frac{\pi}{2} < \varphi < \frac{\pi}{2} \)
  • und auch im Bogenmass: \( \Large 0 \leq \lambda < 2\pi \)

Zur Messung von Abständen (Längen) benötige ich ein LInienelement:

\(\Large ds^2 = r^2 d \varphi^2 + r^2 \cos{\varphi}^2 d\lambda^2 \)

Die kürzeste Verbindung zweier Punkte liegt dann auf einem sog. “Großkreis” (s.o.).

Beispiel 1 (gerade)

Die Strecke von (0.0) nach (π, 0); das ist ein halber Erdumfang am Äquator) müsste eine Länge von π r haben. Da auf der ganzen Strecke φ konstant =0 ist, ist auch dφ = 0 und es  ergibt sich als Längenintegral:

\( \Large s = r \int\limits_{0}^{\pi} d \lambda = r \cdot \left[ \lambda \right]_0^\pi  = \pi \cdot r\)

Beispiel 2 (gerade)

Die Strecke von (0,0) nach (0, π/2) ist ein Viertel Erdumfang vom Äquator zum Nordpol (ein sog. Quadrant) die Länge müsste also \(r \frac{\pi}{2} \) sein. Da auf der ganzen Strecke λ konstant =0 ist, ist auch dλ=0 und es ergibt sich als Längenintegral:

\( \Large s = r \int\limits_{0}^{\frac{\pi}{2}} d \varphi = r \cdot \left[ \varphi \right]_0^{\frac{\pi}{2}}  = r \cdot \frac{\pi}{2}\)

Beispiel 3 (schräg)

Aus dem obigen “Polardreieck” wird das “nautische Grunddreick“, wo wir wieder den Seiten-Cosinussatz anwenden können, um die Distanz zu berechnen. Die Distanz d zwischen einem Ausgangspunkt \( A = (\lambda_A, \varphi_A) \) zu einem Endpunkt \( B = (\lambda_B, \varphi_B) \) können wir also berechnen als:

\(\Large \cos{d} = \sin{\varphi_A} \sin{\varphi_B} + \cos{\varphi_A} \cos{\varphi_B} \cos{(\lambda_B – \lambda_A)} \ \\ \)

Die Strecke von (0, π/3) nach (π, 0) läuft jetzt “schräg” über unser Koordinatensystem…

\(\Large \cos{d} = \sin{\frac{\pi}{3}} \sin{0} + \cos{\frac{\pi}{3}} \cos{0} \cos{\pi}\)

Das ergibt: \( \Large \cos{d} = \frac{1}{2}\sqrt{3} \cdot 0 + \frac{1}{2} \cdot 1 \cdot (-1) = -\frac{1}{2} \\\ \)

und damit ist die gesuchte Distanz  \( d = \frac{2}{3} \pi \)

Um diese Distanz aus unserem Linienelement zu ermitteln, müssen wir das Linienelement entlang des Bogens von A nach B integrieren.

Dafür wollen wir den Weg zuerst als Funktion \( \varphi = f(\lambda) \) aufschreiben.

Astronomie: Tägliche Bewegung der Himmelsobjekte

Gehört zu: Sonnensystem
Siehe auch: Tageslänge, Sphärische Trigonometrie
Benötigt: WordPress Latex-Plugin, Grafiken von Github

Tägliche scheinbare Bewegung der Gestirne

Wenn wir wissen wollen, wie sich ein Himmelobjekt mit bekannter Rektaszension und Deklination im Laufe des Tages über den Himmel bewegt, so ist die einfache Formel:

  • Stundenwinkel = Sternzeit – Rektaszension
  • Deklination = const.

Damit haben wir die äquatorialen Koordinaten Stundenwinkel (t) und Deklination (δ) als Funktion der Sternzeit.

Wenn wir die azmutalen Koordinaten Höhe (h) und Azimuth (A) haben wollen, so müssen wir das wie folgt umrechnen:

(Quelle: https://de.wikibooks.org/wiki/Astronomische_Berechnungen_f%C3%BCr_Amateure/_Druckversion#Koordinatentransformationen )

\( \sin h = \sin \phi \cdot \sin \delta + \cos \phi \cdot \cos \delta \cdot \cos t \)

und

\( \tan A = \Large \frac{\sin t}{\sin \phi \cdot \cos t – \cos \phi \cdot \tan \delta}  \)

Beispiel Wega in Hamburg:

Abbildung 1: Scheinbare tägliche bewegung der Wega (Github: TaeglicheBewegung.svg)

TaeglicheBewegung.svg

Scheinbare tägliche Bewegung der Wega

 

Astrofotografie: Galaxien (Deep Sky Objekte)

Gehört zu: Welche Objekte?
Siehe auch: Sternhaufen, Nebel, Liste meiner Fotos

Galaxien (Deep Sky Objekte)

Was ich mit meiner Ausrüstung ganz gut fotografieren kann, sind Galaxien.

Galaxien zählen zu den sog. DSO’s also den Deep Sky Objekten.
Zu den DSO’s gehören insgesamt:

  • Galaxien
  • Emissionsnebel / Reflexionsnebel
  • Planetarische Nebel
  • Supernova-Überreste
  • Sternhaufen (offene und Kugel-)  ja auch die gehören zu den DSOs, da ausserhalb des Sonnensystems

Als Gegensatz zu DSO wird gerne “planetary” genannt. Da würde man mit Videos arbeiten.

Galaxien

In diesem Artikel konzentriere ich mich auf Galaxien. Wobei ich Galaxien vorrangig aus dem Hamburger Raum (einschließlich Handeloh) beobachte.

Datum von/bis bedeutet eine Höhe von mehr als 70 Grad um 23 Uhr in Hamburg.

Objekt Name Ausdehnung Flächen-helligkeit Helligkeit Sternbild Datum ab Datum bis Neumond-1 Neumond-2 Bemerkung / Standort
M31 Andromeda-Nebel 189′ x 62′ 13,35 3,4 mag 12.10. 20.11. 16.10.2020 14.11.2020 Der Klassiker – sehr groß
M33 Dreiecks-Nebel 70′ x 40′ 5,7 mag Tri Drittgrößte Galaxie der Lokalen Gruppe nach M31 und uns.
M51 Whirlpool 12,56 18.4. 17.6. 20.4.2020 22.5.2020
M64 Black Eye 12,4
M65 Leo 12,4
M66 Leo 12,5
M81 Bode Galaxie 27′ x 14′ 13,13 7,0 mag UMa 10.2. 6.4. 24.2.2020 24.3.2020 eine der hellsten Galaxien
M82 Zigarren-Galaxie 11,2′ x 4,3′ 8,6 mag UMa
M83 Southern Pinwheel 12,9′ x 11,5′ 13,2 7,5 mag Hydra Große Balkenspirale
M85 Com 13,0
M88 Com 12,6
M96 Leo 12,9
M99 Com 13,0
M100 Com 13,0
M101 Feuerrad 14,82 21.4. 28.6. 20.4.2020
M102 Dra 11,9
M105 Leo 12,1
NGC 247 19,9’x5,4′ 8,9 mag Cetus Gute Sichtbarkeit: Sept-Jan
NGC 253 Silver Dollar 12,8 Namibia Sculptor
NGC891 Edge-on Andromeda 13,1
NGC7606 10,8
NGC2146 Dusty Hand 12,1
NGC4449 Box Galaxy 12,8
NGC5005 Virgo 12,6
NGC6951 Face-on 13.5
NGC157 Cet 12,4
NGC908 Cet 13,0
NGC936 Cet 13,2
NGC4274 Com 13,4
NGC4278 Com 13,1
NGC4314 Com 13,3
NGC4565 Needle 12,9
NGC5907 Dra 13,4

 

Astrofotografie: M31 Andromeda Galaxis

Gehört zu: Welche Objekte?
Siehe auch: Galaxien, Deep Sky Objekte, Liste meiner Astro-Fotos, Kalibrieren
Benutzt: Fotos von Google Drive

Stand: 30.12.2022

Die Andromeda Galaxis

M31 ist die uns am nächsten gelegene “große” Galaxie (d.h. abgesehen von Zwerggalaxien wie z.B. LMC).

M31 gehört zur sog. “lokalen Gruppe”.

M31 ist das klassische “Anfängerobjekt” für die Deep-Sky-Fotografie.

Edwin Hubble konnte 1933/1934 am Mount Wilson Observatorium M31 in teilweise einzelne Sterne auflösen und dabei auch sog. Delta-Cephei-Sterne finden. Die scheinbare Helligkeit des “H1” genannten Cepheiden in M31 schwankte zwischen 18,3 und 19,7 mag. Mit Hilfe der bekannten Periode-Leuchtkraft-Beziehung konnte er die absolute Helligkeit und damit die Entfernung von M31 bestimmen. Die Entfernungsbestimmung ergab seinerzeit zunächst knapp 1 Million Lichtjahre.

Bis damals war die allgemeine Überzeugung, dass es ausser unserer Galaxis, der “Milchstraße”, keine anderen Galaxien geben würde und die allerseits zu beobachtenden “Nebel” (wie M31) wohl zur Milchstraße gehören müssten.

Als Walter Baade Anfang der 1950er Jahre am gerade fertiggestellten 5m-Spiegel auf dem Mount Palomar zwei verschiedene Typen von Cepheiden nachweisen konnte (mit zwei verschiedenen Periode-Leuchtkraft-Beziehungen), musste die Entfernung auf 2,5 Mio Lichtjahre korrigiert werden.

Generelle Vorbereitungen für das Fotografieren von M31

Wann ist der günstigste Zeitpunkt; d.h. wann steht M31 schön hoch am Himmel?

  • In 2018 in Hamburg:  12. Oktober – 20. November  (h>70°)

Dann brauchen wir noch eine günstige Mondphase z.B. Neumond und gutes Wetter. Als Neumond-Daten haben wir:

  • 2018:   08. Okt.
  • 2019:   27. Okt.
  • 2020:   16. Okt.
  • 2021:   4. Nov.

Als günstigen Standort für die Beobachtung habe ich Handeloh gewählt.

  • geringere Lichtverschmutzung  (Bortle 4 /  SQM 21,0)
  • freies Sichtfeld
  • gute Erreichbarkeit per Auto

Welche Ausrüstung soll eingesetzt werden?

Mit welchen Einstellungen sollen die Fotos geschossen werden?

  • Geplante Belichtungszeit: 10 x 300 Sekunden bei ISO 800
  • Probefotos ergaben, dass bei dieser Belichtung das Histogramm der Einzelfotos “gut” aussah; d.h. deutlich vom linken Rand abgesetzt und von rechten Rand noch sehr weit entfernt
  • Aufnahmeformat: Raw d.h. CR2
  • Auto Guiding mit PHD2 Guiding

Das Foto am 14.10.2018

Im Jahre 2018 war ich mit meinen astrofotografischen Übungen dann so weit und konnte folgende Aufnahme gewinnen:

Abbildung 1: M31 in der Andromeda (Google Drive: 20181014_Autosave_0239-0248_16_CI_RGB.jpg)

Die Bildbearbeitung (Post Processing)

Als all die schönen Bilder “im Kasten” waren ging es erst einmal nach Hause, wo dann in den nächsten Tagen, Wochen und Monaten die Bildbearbeitung begann.

  • Stacking mit Deep Sky Stacker. Dabei erwies sich eines der zehn Lights als verwackelt und wurde ausgeschieden. Zehn Darks wurden ebenfalls gemacht. Mit Deep Sky Stacker entstand dann das kalibrierte Summenbild im TIFF-Format.
  • Mit Regim erfolgte dann die Background Extraktion (auch Gradient Removal ganannt).
  • Weiterhin wurde mit Regim eine B-V-Farbkalibrierung vorgenommen.
  • Schließlich erfolgte mit Adobe Photoshop das Stretching durch “Tonwertkorrektur” und “Gradationskurven”.
  • Mit Noel Carboni’s Action Set “Astronomy Tools” in Photoshop wurden dann noch die Actions  “Local Contrast Enhancedment”, “Increase Star Color” ausprobiert.
  • Zum Schluss wurde der sehr helle Kern von M31 noch mit “Bild -> Korrekturen -> Tiefen/Lichter” 10% dunkler gemacht.

 

Computer: 3D-Druckverfahren

Gehört zu: Computer, Drucken
Siehe auch: Bahtinov-Maske, FreeCAD

3D-Drucken

Was braucht man alles zum “3D-Drucken”?

  • Einen 3D-Drucker
  • Material zum Drucken das sog. Filament z.B. PLA-Pulver, PLA-Draht,…
  • Ein Computer-Modell des Gegenstands, der gedruckt werden soll  (z.B. mit CAD-Programm)
  • Eingabedatei für den 3D-Drucker (aus dem 3D-Computermodell muss ein Slicing gemacht werden)

So einem 3D-Drucker muss man sagen welches Material er zum “Drucken” verwenden soll z.B. PLA-Pulver.

Eine Eingabedatei sagt dem 3D-Drucker dann genau, was er da “drucken” soll.

Computer-Modell als CAD

Zum Design eines Bauteils für den 3D-Drucker braucht man eine spezielle CAD-Software, mit der man das Bauteil in 3D interaktiv maßgerecht zeichnen kann und die das für 3D-Drucker erforderliche Datei-Format (z.B. STL) erzeugen kann.

Beispiel: TinkerCAD

  • Beispiel: http://www.tinkercad.com
  • Mit TinkerCAD kann man im Internet schöne 3D-Modelle entwerfen und diese dann z.B. als STL-Datei ausgeben (“Export”).
  • MIt TinkerCAD kann man auch fertige Zeichnungen von Bauteilen (z.B. als SVG-Datei) importieren.

Beispiel: FreeCAD

3D-Drucker als Hardware

3D-Drucker können sich in vielen Einzelheiten unterscheiden:

  • Die Größe des Bauraums
  • Steppermotoren (Schrittgröße, Lautstärke,…)
  • Schnittstellen (SD-Karte, USB-Anschluss)
  • Der Extruder (Düsendurchmesser, Heizleistung)
  • Den Tisch (das Druckbett)

Ein Astro-Kollege von der GvA berichtete einmal über seine Erfahrungen mit kostengünstigen 3D-Druckern.

In Youtube wurde empfohlen (Juni 2021):

Slicing

Aus einem CAD-Computermodell wird das Objekt in feine Scheiben (slices) zerlegt, was dann zum Drucker geschickt werden kann (Am besten via Speicherkarte, da der Druckvorgang mehrere Stnden dauern kann).

Der Slicer muss dan genau wissen, was für einen 3D-Drucker wir haben.

Als Slicer sind bekannt etwas “Ultimaker Cura“,  https://ultimaker.com/

Dienstleister zum 3D-Drucken

Es gibt viele Dienstleister, bei denen man eine STL-Datei einreichen kann, die dann dort “ausgedruckt” wird.

  • z.B. im Internet: Thingiverse
  • z.B.  Universitäten und Bibliotheken

Web-Links

Nico Carver:   https://www.youtube.com/watch?v=a0Qk5jzsZfc

Astrofotografie: ZWO ASI294MC Pro

Gehört zu: Astrofotografie
Siehe auch: Liste meiner Geräte, Belichtungszeiten, SharpCap, Stromversorgung, ASCOM , Backfokus, Gewinde, AZ-GTi
Verwendet: SVG-Zeichnungen von GitHub, Fotos von Google Drive

Stand: 31.12.20212   (added: Full Well Capacity, Google Archiv)

Eine neue Kamera: ZWO ASI294MC Pro

Ich wollte nun (Jan. 2020) meine Astrofotografie auf eine neue Ebene heben und statt mit meiner DSLR Canon EOS 600D nun mit einer gekühlten Astro-Kamera arbeiten.

Da das in meinen Augen schon recht teuer wird, habe ich mich nach etwas Gebrauchtem umgesehen.
Anfang Januar 2020 wurde ich fündig auf forum.astronomie.de und habe mit eine ZWO ASI294MC Pro gegönnt.

Alternativ wird auch das Modell ASI533MC Pro angeboten.

Fakten zur ZWO ASI294MC Pro

Und das gehört zur ASI294MC Pro:

  • ASI294MC Pro  (mit Anschlüssen: T2 = M42*0,75, 1,25″ und 2″)
  • Gekauft am 2. Januar 2020 für EURO 850,– gebraucht
  • Sensor: Sony 4/3″ CMOS Color Sensor IMX294CJK – “Back illuminated”
  • Pixelgröße: 4,63 µm – 4144 x 2822 Pixel  – 4/3″ = 19,1 x 13,0 mm
  • ADC 14 Bit  (ADC = Analog to Digital Converter)
  • Full Well Capacity:
    • 63700e- bei Gain 0
    • ca. 20000e- bei Gain 100
    • ca.  6000e- bei Gain 200
    • ca.  2000e- bei Gain 300
  • Leistungsstarke Peltierkühlung bis 45 °C unter Umgebungstemperatur (dafür wird eine 12V Stromversorgung benötigt, die bis zu 3 Ampere zieht).
  • Heizmanschette…
  • Gehäusedurchmesser 78 mm
  • Back Focus: 6.5mm (from camera front)
  • Back Focus: 17.5mm (from front of 11mm reverse thread adapter)

Link: https://astronomy-imaging-camera.com/product/asi294mc-pro-color

Link: https://teleskop-austria.at/ASI294MCP_ZWO-ASI294MC-Pro-Farbkamera-Diagonale-232mm-Auflosung

Sampling: https://astronomy.tools/calculators/ccd_suitability

Back illuminated

Auf einem klassichen CMOS-Sensor ist die Schicht mit metallischen Schaltungen die “Vorderseite” und die Schicht mit den photoelektischen Dioden die “Rückseite”. Ganz vorne liegt eine Schicht mit den Microlinsen der Bayermatrix. Bei dieser klassichen Anordnung müssen die Photonen bevor sie auf die Photodioden treffen durch die metallische Schicht hindurch.
“Back illuminated” beudeutet nun, dass man Vorder- und Rückseite vertauscht. Dann können die Photonen ohne die störende metallische Schicht “gefiltert” zu werden direkt auf die Photodioden treffen. Das erhöht die Empfindlichkeit durch bessere QE, was für die Astrofotografie vorteilhaft ist.

Einstellungen bei der ASI294MC Pro

Bei so einer Astro-Kamera gibt es einige besondere Einstllungen, die man wenn man von der DSLR kommt, nicht sofort versteht:

Gain: Ist soetwas ähniches wie ISO bei der DSLR – aber warum ist “Unity Gain” so etwas besonderes und evtl. auch erstrebenswert?

Offset: kann man irgendwo einstellen (wo?) und welche Einstellung sollte man wählen?

Treiber für die ASI294 und das Amp Glow

Der neueste ASCOM-Treiber Version 6.5.1 vom 20. Nov 2020 benötigt die ASCOM-Platform 6.5

Das bei der ASI294MC Pro deutlich vorhandene Amp Glow soll mit den neuen ASCOM-Treibern reduziert sein.

Der aktuelle Windows-Treiber “native”  Version 3.0.0.11 released 11. Sept. 2020 zeigt jedenfalls immer (unverändert?) starkes Amp Glow.

Link: https://astronomy-imaging-camera.com/software-drivers

Das Amp Glow ist bei der ASI294MC Pro immer noch sehr deutlich zu sehen. Das finde ich bei einer Kamera für Euro 1000,– völlig unmöglich.

Hier ein Dark aufgenommen mit APT und dem o.g. “native” Treiber bei Kühlung auf 0° C (bei Umgebungstemperatur 23°), Belichtungszeit 960 sec, Gain 120, Offset 30

Abbildung 1: AmpGlow auf einem Dark-Frame mit der ASI294MC Pro (Google Drive: RGB_D_2020-12-09_17-39-54_Bin1x1_960s__0C_AmpGlow-01.jpg)

Anschlüsse der ASI294MC Pro

Die Kamera ASI294MC Pro mit ihrem Sensor ist ja das “Endstück” einer Optik. Sie muss “hinten” an ein Teleskop oder ein Foto-Objektiv “angeschraubt” werden.

Dabei ist der richtige Abstand vom Ende des Teleskops, der sog. Backfokus, sehr wichtig.

Anschluss der Kamera per Vixen-Schiene oder Arca-Swiss

Die Kamera ZWO ASI294MC Pro hat einen Gehäusedurchmesser von 78 mm.

Dafür gibt es spezielle Rohrschellen (auch Holder Ring, genannt), mit denen man die Kamera auf einer Vixen-Schiene, einer Arca-Swiss-Schnellkupplung oder auch einfach mit einer 1/4-Zoll-Fotoschraube auf einem Stativ oder einer Montierung befestigen kann.

Beispiel Rohrschellen bei TS: https://www.teleskop-express.de/shop/product_info.php/language/en/info/p8771_ZWO-Photo-Tripod-Adapter—Holder-for-ASI-Cameras-with-D-78-mm.html So einen Holderring habe ich mir im November 2020 bei Teleskop Service gekauft (ASIHOLDERRING78).

Anschluss an Foto-Objektive

Für Foto-Objektive mit Canon EF Bajonet empfiehlt sich der AstroMechanics-Adapter (Fokussieren per ASCOM/Software, falls AF).

Speziell für Canon-Objektive (EF und EF-S) gibt es einen tollen Adapter z.B. bei https://astromechanics.org/downloads/ascom_ef/en/manual/controller_m42.pdf

Meine alternative Lösung ist der Adapter ZWO-FD-EOS, den ich bei Teleskop-Service gekauft habe (s.u.)

Um ein Foto-Objektiv an der Kamera zu befestigen, benötigt man einen Adapter mit kameraseitigem M42-Aussengewinde (das wird auch T2 genannt) und objektivseitig das was das Objektiv eben benötigt (z.B. Canon-Bajonet, M42-Innengewinde oder…). Wenn man zusätzlich zu so einem Adapter noch eine Filterschublade benötigt, wird es knapp mit dem Backfokus. Daher habe ich den Adapter zurückgegeben und gleich eine Filterschublade gekauft, die auch die Adapter-Funktion erfüllt und exakt den richtigen Backfokus bietet (Teleskop Service ZWO-FD-EOS).

Dabei ist der richtige Abstand sehr wichtig, um noch gut in den Fokus zu kommen z.B. Link: https://www.bresser.de/Astronomie/Zubehoer/BRESSER-T2-Verlaengerungshuelsen-Set.html

Anschluss an das Teleskop ggf. den Flattener/Reducer des Teleskops

Die Kamera ASI294MC Pro selbst hat einen M42*0.75-Gewinde (das wird auch T2-Gewinde genannt) als primären Anschluss.

Mit der Kamera kommen folgende Verlängerungsstücke bzw. Adapter mit:

  • M42/M42 Verlängerung um 11 mm (vor-eingebaut)
  • M42*0,75/M42*0,75 Verlängerung um 21 mm
  • M48/M42 Verlängerung um 16,5 mm

Backfocus der Kamera ohne alle Adapter: 6,5 mm
Insgesamt also 6,5 + 11 + 21 + 16,5  = 55 mm

Achtung bei M42-Gewinden muss man unterscheiden zwischen T2-Gewinde das ist M42*0,75 und einem metrischen Gewinde, das ist M42*1,0

Der Flattener/Reducer hat am kameraseitigen Ende ein M48*0,75 Aussengewinde…

Abbildung 2: Zusammenbau ASI294 mit Flattener (Datei: GitHub Flattener02.svg)

 

Kamera ASI294MC Pro an Flattener/Reducer

Es gibt einen Adapter speziell für Canon-Objektive (EF und EF-S) z.B. bei https://astromechanics.org/downloads/ascom_ef/en/manual/controller_m42.pdf

Steuerung von Foto-Aufnahmen über Software

Foto-Steuerung über ASIair (Linux)

Angeregt durch das Youtube-Video von Trevor Jones (AstroBackyard

) spielte ich damals auch mit dem Gedanken dazu eine ASIair zu kaufen; das habe ich aber später verworfen, weil es nur noch die viel teuere ASIair Pro (EUR 359,– statt EUR 199,–) gab, welche auch erst irgendwann in der Zukunft geliefert werden sollte. Aber ich habe mal begonnen mich mit Linux und INDI-Treibern auseinanderzusetzen. Für die ASI294MC Pro gibt es sowohl INDI-Treiber als auch ASCOM-Treiber.

Wenn man über INDI geht (primär: Linux), benutzt man als Software KStars mit dem eingebauten EKOS.

Ich hatte dann mal die kleine Linux-Kiste “StellarMate” ausprobiert, hatte da aber Probleme, sie über mein LAN/WLAN zu erreichen.
Deshalb: Kommando zurück: Steuerung ggf. remote über meine Windows-Computer.

Foto-Steuerung über APT (Windows)

Die bewährte Software APT funktioniert mit der neuen Kamera ASI294MC Pro genau so gut wie vorher mit der DSLR Canon EOS 600Da.

In APT muss man den Kameratyp einstellen: Im Reiter “Camera” macht man “Shift Click” auf den Connect-Button, damit man zu den Kamera-Einstellungen von APT kommt. Um die ZWO ASI294MC Pro zu verwenden,  klickt man dort nicht auf “Canon” und auch nicht auf “Nikon”, sondern auf “CCD”. Im CCD-Drop-Down kann man dann auswählen:

  • ASCOM Camera
  • SBIG Camera
  • Altair Camera
  • INDI Camera
  • ZWO Camera

Wenn ich “ASCOM Camera” auswähle brauche/benutze ich also die ASCOM-Treiber meiner ASI294MC Pro. Ich wähle aber “ZWO Camera” damit APT ohne ASCOM direkt mit den “native” Treibern der ASI-Karera arbeitet – so geht es mit APT etwas besser (LiveView, Zoom,…)

Foto-Steuerung über SharpCap (Windows)

Alternativ kann ich zum Fotografieren mit der neuen Kamera ASI294MC Pro auch die Software ShapCap einsetzen.

Astronomie: Software Regim

Gehört zu: Bildverarbeitung
Siehe auch: PixInsight, Fitswork

Die Astro-Software Regim

Was ist Regim?

Regim ist eine kostenlose Software des Entwicklers Andreas Röring.

Regim benötigt die Java Runtime Umgebung und läuft damit auf Windows, Linux und MacOS.

Allerdings ist die Benutzeroberfläche nach heutigen Maßstäben recht schlicht.

Auch ist Regim insgesamt recht langsam.

Probleme gibt es auch bei einigen Varianten der Bildformate TIFF und auch FITS.

Download der Software: https://www.andreasroerig.de/regim/regim.xhtml

Download der Dokumentation: https://www.andreasroerig.de/content/regim/regim.pdf

Version: 3.8 (5.1.2019)

Besondere Funktionen von Regim

Installation und Aufruf von Regim

xyz

Bekannte Probleme mit Regim

Bildformate TIFF und FITS

Java Heap Space

Links zu Regim

AstroHardy 23.01.2014: Vorbereitung von FITS-Dateien in Fitswork für Regim

AstroHardy 20.01.2014:  Automatische Farbkalibrierung mit Regim  Remove Gradient & B-V-Color Calibration

AstroHardy 19.01.2014: Farbkalibrierung mit Regim und Gimp

AstroCologne 09.09.2019: Richtige Farben in Deep-Sky-Bildern

AstroCologne 01.09.2011: Regim Tutorial Teil 1  Stacking

AstroCologne 01.09.2011: Regim Tutorial Teil 2 Fortsetzung des Stacking von Teil 1

Funktionen von Regim

Die wichtigsten Funktionen von Regim sind:

  • Stacking
  • Background Extraction / Gradient Removal
  • B-V Color Calibration / B-V-Farbkalibrierung
  • Plate Solving

Stacking mit Regim

Regim starten und in der Menüleiste “Preprocessing” anklicken. Dann im Drop-Down-Menü nochmals “Preprocessing” auswählen….

Eingabe für das Stacking sind:

  • LIght Frames  (Format FIT oder RAW,…)
  • Dark Frames
  • Flat Frames
  • “Flat Darks” sagt Regim. DSS nennt das “Bias Frames”

Ausgabe beim Stacken ist:

  • Ergebnisdatei FIT
  • Save as: Ergebnisdatei 16 Bit TIFF

Background Extraction / Gradient Removal mit Regim

Wir haben nun das Stacking bereits durchgeführt und haben also eine sog. “Summendatei”.

Als nächsten Schritt glätten wie den Hintergrund d.h. “Background Extraction” bzw. “Gradient Removal”. Der übernächste Schritt behandelt dann die Farben.

Als Eingabe benötigen wir eine Summendatei, die noch nicht gestretched ist, sich also noch in linearem Zustant befidet. Am Besten im Format TIFF.

Dann rufen wir die Funktion Gradient Removal auf indem wir in der Regim-Menüleiste auf “Edit” klicken und dann im Drop-Down-Menü “Remove Gradient” auswählen.

Daraufhin escheint eine kleine Dialogbox (Titel Remove Gradient) mit den Schaltflächen “Generate”, “Execute” und “Exit”.

Bevor wir auf “Generate” klicken füllen wir die Eingabefelder:

  • Number of Samples:   z.B. 21
  • Blur Radius: z.B. 11
  • Background: auto/Manuell

Wenn diese Eingabefelder gefüllt sind, können wir auf die Schaltfläche “Generate” klicken. Es werden dann etsprechend den Eingaben Messpunkte für den Hintergrund (Background) gesetzt.

Wenn die Messpunkte für den Hintergrund O.K. sind, können wir auf “Execute” klicken. Das dauert ein klein wenig und am Ende haben wir drei Fenster (Originalbild, Bild nur mit dem Hintergrund, Bild mit dem entfernten Hintergrund). Die Bilder sind noch linear; d.h. zum Betrachten müssen wir den rechten Regler ziehmlich weit aufdrehen.

Wir klicken nun auf die Schaltfläche “Exit” (sonst geht’s nicht weiter).

Wir können dann die nicht benötigten Fenster schießen und das Ergebnis als 16 Bit TIFF abspeichern.

Da Regim nicht so wahnsinnig stabil läuft, ist das Abspeichern eines solchen Zwischenergebnisses immer sehr zu empfehlen.

Farbkalibrierung mit Regim

Auf der Regim-Menüleiste klicken wir auf “Color” und in dem Dropdown-Menü dann auf “Automatic B-V Color Calibration” oder “Manual B-V Color Calibration”…

Die Idee ist, den Farb-Index (B-V-Index) eines oder mehrerer Sterne im Feld heranzuziehen für die Farbkalibrierung des Bildes.

Bei der “Automatic”-Variante ermittelt Regim zunächst per Plate Solving, welche Sterne im Bild vorhanden sind und kann dann zu den identifizierten Sternen die B-V-Indices aus einem Sternkatalog abrufen.