Computer: Astrofotografie (aus Wiki)

Astrofotografie (aus Wiki)

Gehört zu: Astronomie
Siehe auch: DSLR, Belichtungszeiten

Übersicht zur Astrofotografie

Wenn man Interesse für Astronomie hat, kommt ganz schnell der Moment, wo man Beobachtungen auch fotografisch festhalten möchte

Was benötigt man, um Fotografien des Sternenhimmels zu machen?

  • Eine geeignete Kamera
  • Einen Himmelsatlas, um interessante Objekte und deren zeitliche Sichtbarkeit heraus zu finden
  • Ein Stativ
  • Software zum bearbeiten der Bilder (addieren von Einzelbildern = Stacking) z.B. Deep Sky Stacker (DSS)

Meine Kameras

Ich habe zur Zeit (April 2021) folgende Kameras, die ich für astronomische Zwecke benutze:

Dateiformate

Beim Fotografieren (egal ob per Hand oder mit Hilfe einer Software) entstehen die Fotos als Dateien auf einer Speicherkarte oder gleich in einem Ordner auf der Festplatte meines Computers.

Dabei werden in diesen Dateien nicht nur die eigentlichen Bilder gespeichert, sondern auch sog. Metadaten, z.B. Datum und Uhrzeit der Aufnahme, verwendete Belichtungszeit etc.

Bei der Astrofotografie unterscheiden wir bewegte Bilder (Filmchen, Videos) und “normale” Einzelfotos (Still Images). Datei-Formate für “normale” Fotos sind:

  • JPG
  • FITS
  • RAW (Kamera-spezifisch, z.B. CR2 bei Canon)

Das bekannte FITS wird sehr häufig in der Astrofotografie verwendet. Dabei steht FITS für “Flexible Image Transport System” und wurde offiziel von der IAU FITS Working Group verabschiedet. Das FITS-Format ist z.B. in der Wikipedia https://en.wikipedia.org/wiki/FITS beschrieben.

Das Auslesen der Metadaten bei JPG-Dateien funktioniert gut mit dem Exif-Tool.

Zum Auslesen der Metadaten bei FITS-Dateien versuche ich es mit Python.

Belichtungszeiten

Erste Ideen:

  • Weitwinkel (dann ist die Lichtstärke maximal und die Brennweite minimal und man kann länger belichten, ohne dass die Sterne zu Strichen werden)
  • Belichtungszeit: ca. 10 sec (ausrechnen wann die Erdrotation von einem Pixel zum nächsten springt)

Software

Ein Baumstativ

— Dkracht 23:10, 19 July 2009 (CEST)

Astrofotografie: Die Software Siril

Gehört zu: Astrofotografie, Stacking
Siehe auch: Deep Sky Stacker, PixInsight, Astro Pixel Processor, ComputerAcerBaer, Bildbearbeitung, StarNet, Plate Solving
Benutzt: Fotos aus Google Drive

Stand: 19.11.2024

Quellen

Ein Youtube-Tutorial von Frank Sackenheim: https://www.youtube.com/watch?v=qMD2QQUtxYs
Das Youtube-Video von Cuiv “The Lazy Geek”: https://youtu.be/dEX9KbbzALc
Das YouTube-Video von “Deep Space Astro”: https://youtu.be/s3TJduagxrw

Astrofotografie mit der kostenlosen Software Siril

Siril ist eine kostenlose Software mit dem Schwerpunkt Stacking, kann aber noch einiges anderes mehr (Bildbearbeitung)…

Aufmerksam geworden bin ich auf Siril durch das unten angegebene YouTube-Video von Frank Sackenheim im März 2020. Dann hat Cuiv “The Lazy Geek” aus Tokio im August 2020 auch das Thema Siril aufgegriffen. Deswegen machte ich einen zweiten Versuch, Siril zu verstehen…

Dann bin ich bei der Beschäftigung mit Smart Telescopes im September 2023 erneut auf Siril gestossen, wobei mich die Möglichkeiten der Bildbearbeitung besonders beeindruckt haben, beispielsweise die Integration von StarNet.

Als Alternative zum traditionellen Deep Sky Stacker ist das modernere Siril vielleicht ganz interessant. Auch als kostenlose Alternative zu PixInsight kann Siril mit Background Extraction und fotometrischer Farbkalibrierung punkten.

Zusammenfassung Bildbearbeitung mit Siril (aus SuW 6/2024)

  1. Stacken
    1. Registrieren
    2. Kalibrieren
  2. Lineares Bild
    1. Hintergrund extrahieren
    2. Platesolving
    3. Farbkalibrierung
    4. Farbsättigung
  3. Stretching
    1. Asinh-Transformation (etwas)
    2. Histogramm-Stretching

Vorteile von Siril

  • kostenlos
  • Für Windows und Linux und MacOS
  • Stacking mit vielen manuellen Einflussmöglichkeiten, aber auch “vollautomatisch” per Skript
  • Nach dem Stacken: Bildnachbearbeitung:
    • 1: Zuschneiden (Cropping)
    • 2: Background Extraction
    • 3. Platesolving
    • 4: Color Calibration (auch photometrisch)   <— Dazu Bild-Koordinaten erforderlich
    • 5. Color Saturation
    • 6. Sterne separieren (StarNet++)
    • 7. Stretching the Histogram
    • 8: Green Noise Reduction
    • 9: Annotations
    • 10: Deconvolution
    • 11: Saving as TIFF, FITS, JPG oder PNG

Besonderheiten von Siril

Im Gegensatz zu anderer Stacking-Software gibt es bei Siril zu beachten:

  • Es sollte mit den Unterordnern: lights, darks, flats und biases gearbeitet werden (damit die Scripte zum Stacken funktionieren)
  • Siril untersützt automatische Abläufe durch ausgeklügelte Scripts
  • Siril kann sehr gut mit Narrowband-Filtern bei Farbkameras (OSC) umgehen
  • Siril unterstützt photometrische Farbkalibrierung
  • Siril hat starke Funktionen zur Nachbearbeitung von Astro-Fotos
  • Siril hat eine integrierte StarNet-Funktion (erfordert eine Intel CPU mit AVX Advanced Vector Extensions)

Installation und Konfiguration

Software Download: https://www.siril.org/download/#Windows

Versionen:

  • Version 1.2.5 (22. Nov 2024)
  • Version 1.2.4 (11. Sep 2024)
  • Version 1.2.1 (Jan 26, 2024)
  • Version 1.2.0 (Sep 15, 2023)
  • Version 1.2.0-beta2 (March 12, 2023)
  • Version 1.2.0-beta1 (Feb 24, 2023)
  • Version 1.0.6 (18. Oct 2022)
  • Version 1.0.3 (28. June 2022)
  • Beta-Version: 0.99.8.1 (13. Februar 2021). Diese Beta-Version für die geplante Version 1.0 hat ein komplett verändertes GUI – deshalb helfen ältere Tutorials im Moment kaum noch.

Die Konfigurationsdatei ist: c:\users\<name>\AppData\Local\siril\config.ini

In dieser Config-Datei speichert Siril auch den Namen des letzten Working Directory, was man hier oder später auf der Siril-Komandozeile mit dem Befehl “cd” ändern kann (oder durch klicken auf das Symbol “Häuschen” – oben links).

Einstellen des “Themes“:  Hamburger Menü -> Preferences -> User Interface -> Aussehen (Look and Feel): Dort können wir z.B. das “Dark Theme” auswählen.

Auch die Sprache können wir hier einstellen. Deutsch mögen viele da gern, aber dann muss man mit zum Teil komischen Übersetzungen leben und Tipps und Tricks aus der SiriL-Community sind mit “Englisch” meist besser zu verstehen…

Einstellen der “Language“:  Hamburger Menü -> Preferences -> User Interface -> Language: Dort können wir z.B. “English [en]” auswählen.

Auch der Pfad zur Software StarNet muss hier eingebeben werden.

Siril Skripts

Skripts in SiriL sind einfach Dateien mit der Endung *.ssf

Die ersten Schritte mit Siril: Bildbearbeitung

Man kann Siril auch nur zur Bildbearbeitung (mit bereits gestackten Fotos) einsetzen. Dazu kann man so ein gestacktes Foto einfach in Siril laden (Links oben “OPEN”) und dann mit “Image Processing” bearbeiten.

Die Anzeige des Bildes kann man einstellen als “Linear”, “Autostretch” u.a. mit einem kleinen Drop-Down in der Mitte unteren Fensterleiste. Das wirkt nur auf die Anzeige, das Foto selbst bleibt unverändert.

Zum Speichern des Bildes als Bilddatei gibt oben rechts auf der Leiste zwei Symbole:

  • Kleine Schaltfläche “Save”
  • Rechts davon das Symbol “Pfeil nach unten”; das bedeutet: “Speichern unter”  (quasi ein “Download”)

Bildnachbearbeitung: Zuschneiden

Durch das Stacken (speziell wenn man beim Fotografieren Dithering eingestellt hat) gibt es meist schmale dunkle Ränder, die wir jetzt abschneiden wollen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Mit der Maus auf einem Graubild (Red, Green, Blue) oder einem RGB-Bild ein Rechteck ziehen (wie Markieren),
  • Klick mit der rechten Maustaste und auf “Zuschneiden” (“Crop”) klicken
  • das zugeschnittene Bild wird von Siril automatisch gespeichert und im Fenster neu angezeigt
  • Output: Dieselbe Bilddatei wie Input  (Achtung: destruktiv!!!)

Bildnachbearbeitung: Hintergrund-Extraktion

Ähnlich wie in PixInsight kann auch SiriL den Bildhintergrund ermitteln und dann abziehen. Das macht man gerne um z.B. Gradienten zu entfernen.

  • Input: Die aktive Bilddatei  z.B. r_db_pp_Pacman_Lights_stacked.fit
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Hintergrund-Extraktion
  • Samples für den Hintergrund manuell setzen  (dahin wo kein Nutzsignal ist)
  • Schaltfläche: “Compute Background”
  • Korrektur: Drop-Down “Subtraktion” (oder, falls gewünscht: “Division”)
  • Schaltfläche  “Apply”
  • Output: dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Schließen (Close)

Bildnachbearbeitung: Farb-Kalibrierung

Um schöne Sternfarben zu bekommen sollte man unbedingt eine Farb-Kalibrierung machen. Siril bietet dafür zwei Möglichkeiten an: “Farbkalibrierung” und “Photometrische Farbkalibrierung”.

Für die Photometrischen Farbkalibrierung muss Siril wissen, welche Sterne auf dem Bild zu sehen sind. Dazu versucht Siril im FITS-Header WCS-Koordinaten zu finden. Wenn die Kamera bereits Bilder im FITS-Format liefert (z.B. bei ASI-Kameras) muss nur noch die Bild-Aufnahme-Software (z.B. APT, N.I.N.A.) die Aufnahme-Koordinaten in den FITS-Header schreiben.

Wenn wir im FITS-Header (noch) keine Bild-Koordinaten haben, hat Siril zwei Wege diese nachträglich zu ermitteln:

  1. SIMBAD
  2. Platesolving: Dazu wird das Bild von Siril “ge-platesolved” (astrometrische Lösung)

Das Ganze läuft so:

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farb-Kalibrierung -(Color Calibration) > Photometrische Farb-Kalibrierung (Photometric Color Calibration)
  • Wenn noch keine Bild-Koordinaten (aus dem FITS-Header) gefunden wurden
    • SIMBAD: Image Parameters: Eingabe Objektname (z.B. NGC281) gefundene Koordinaten aus einem Katalog übernehmen
    • Wenn das Objekt nicht in SIMBAD-Katalog  gefunden wurde: Plate Solving
      • Brennweite (Focal distance): 510 mm
      • Pixel Größe (Pixel Size): 4,6 µ
  • Photometrischer Sternkatalog: NOMAD oder APASS anhand eines Sternkatalogs  werden die sog. B-V-Indices der Sterne benutzt.
  • Sternerkennung: Automatisch
  • Hintergrund-Referenz: automatic detection (besser: selbst angeben)
  • Normalisierung ja Kanal: On Lowest
  • Schaltfläche: OK
  • Output: Dieselbe Bilddatei wie Input   (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Grünrauschen entfernen

Bei DSLRs und auch bei Astrokameras mit Farb-Sensor (“OSC”) haben wir oft eine Überbetonung der grünen Farbe.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Grün-Rauschen entfernen (Remove Green Noise)
  • Protection Method: Average Neutral
  • Amount:  1.00
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)
  • Schaltfläche: Close

Bildnachbearbeitung: Farbsättigung anheben

Vor dem “Stretchen” soll man die Farbsättigung anheben.

  • Input: Die aktive Bilddatei
  • Menüleiste -> Bildbearbeitung (Image Processing) -> Farbsättigung (Color Saturation)…
  • Hue: Global
  • Amount: + 0.66
  • Output: Schaltfläche “Apply” also dieselbe Bilddatei    (Achtung: destruktiv!!!)

Bildnachbearbeitung: Histogramm-Transformation (Stretchen)

Menüleiste -> Bildbearbeitung

Hierzu hat SiriL mehrere Methoden:

  • Arcsinh Transformation
  • Generalized Hyperbolic Stretch Tranformation  (“GHS”)
  • Histogramm Transformation

Allgemein wird GHS empfohlen, wobei man sich da ersteinmal richtig einarbeiten muss (z.B. Tutorial https://siril.org/tutorials/ghs/).
Der Schwarzwert wird in einem separaten Vorgang verstellt…

Bildnachbearbeitung: Annotationen

Voraussetzung ist, dass das Bild vom Platesolving her WCS-Metadaten enthält.

In Siril sieht man in der Leiste unten rechts mehrere Symbole. Nach einem erfolgreichen Platesolving ist dort das Symbol “Kugel mit Koordinaten” aktiv (nicht mehr ausgegraut). Da kann man ja mal ausprobieren wie ein Koordinatennetz auf dem Bild dann aussieht. Das brauchen wir aber jetzt eigentlich noch nicht.

Rechte von diesem Symbol “Kugel mit Koordinaten” steht auf der Leiste ein Symbol “Konzentrische Kreise” damit schalten wir den Photometrie-Modus von Siril an. Wenn wir dann auf einen Stern im Bild klicken erscheint ein Fenster “PSF and quick photometry results” dort klicken wir unten auf “More Details…”. Dadurch werden wir auf eine externe Web-Seite geführt, wo wir den offiziellen Namen unseres Stern sehen und ins Clippboad kopieren. Mehr wollten wir hier nicht, nur den Namen.

Im nächsten Schritt gehen wir zurück zu unserem Bild in Siril und schalten photometrischen Modus aus. Dann können wir mit der rechten Maustaste in das Bild klicken und erhalten so ein Kontextmenü. Dort wählen wir aus “Search Object…” wo wir dann den oben gefundenen offiziellen Namen unseres Objekt eingeben….

Dies wir von Siril gespeichet in einem “User-DSO catalog”…

Bildnachbearbeitung: Speichern

Beim Speichern des bearbeiteten Bilden muss man aufpassen.

Obere Leiste -> Speichern als… (Symbol: “Pfeil nach unten”)

Erste Schritte mit Siril: Stacken (Kalibrieren, Registrieren,…)

Einstellen des Arbeits-Ordners (Arbeitsverzeichnis, Working Directory).

Wenn man später mit Scripts arbeiten will (was sehr empfehlenswert ist), müssen im Arbeits-Ordner die Unter-Ordner: biases, lights, darks, flats angelegt sein.
Dazu ordnet man seine Fotos eben in Ordner mit diesen Namen ein und gibt den übergeordneten Ordner als Arbeitsordner bei Siril an (Symbol “Häuschen” links oben).

Als erstes müssen in Siril unsere Bild-Dateien in das FITS-Format umgewandelt werden und in die genannten Unter-Ordner (denn wir wollen mit Scripts arbeiten) gelegt werden. Wenn die Bilder bereits im FITS-Format sind, versucht Siril mit SymLinks zu arbeiten.

Generell geschieht das Bearbeiten unserer Bilder päckchenweise. Diese “Päckchen” heißen bei Siril “Sequences” und müssen einen Sequence-Namen bekommen.

Beispiel Nummer 1:  Farb-Kamera (OSC) mit Lights und Darks – ohne Flats und ohne Biases

Damit ich selber mal lerne, wie das mit dieser für mich neuen Software funktioniert, versuche ich es  mit einem eigenen Fall. Ich habe gerade kürzlich (am 20.9.2020) eine Aufnahme vom Pacman-Nebel mit 60 Lights á 120 sec und 30 Darks (keine Flats und keine Biases) gemacht.

Wie man unten sieht, ist der ganze manuelle Ablauf sehr langwierig und fehleranfällig; deshalb sollte man für so einen immer wiederkehrenden Ablauf ein Siril-Script benutzen. Leider setzen die mitgelieferten Scripts immer voraus, dass man sowohl, Darks, als auch Light, Flats und Bias-Frames gemacht hat, was nicht immer der Fall ist. Das Zusatz-Programm “SiriL IC” sollte dabei helfen... Andererseits ist die Siril-Skriptspache auch recht einfach und man könnte da schnell etwas modifizieren…

Meine Pacman-Dateien befinden sich im Ordner: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman, dieser wird also als erster Schritt als “Home” eingestellt.

Dark-Frames in eine Sequenz umwandeln

Zuerst müssen die Dark-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Darks”.
Auch wenn die Dateien schon im richtigen Format (FITS) vorhanden sind (weil meine ASI294MC Pro sie als FITs erstellt hat), muss diese “Umwandlung” in SiriL erfolgen, weil SiriL dann eine SEQ-Datei benötigt. Da die Dateien schon im (für SiriL) richtigen Format sind, werden sie lediglich kopiert.

Man kann beim “Umwandeln” auch “Symbolic Link” anhaken, dann werden die Dateien nicht echt kopiert, sondern es werden SymLinks erstellt. SymLinks funktionieren aber nur, wenn in Windows der “Developer Mode” eingestellt ist…

  • Reiter: “Conversion”
  • Input: Meine original Dark Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\Darks)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Darks”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Darks.seq

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Darks im Arbeitsordner unter den Dateinamen  Pacman_Darks_00001.fit, Pacman_Darks_00002.fit etc.  kopiert (wobei “Pacman_Darks” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Darks.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark erstellen

Ich mache dann aus diesen Darks ein sog. Master-Dark.
Das geht über den Reiter “Stacking” –  wobei ein vorheriges Registrieren nicht erforderlich ist, da auf den Darks keine Sterne sind.

Für das Stacking machen wir folgende Einstellungen (wobei vom vorigen Schritt schon die richtige Sequenz ausgewählt bleibt):

  • Input: Sequence Pacman_Darks.seq     (sollte schon die aktuelle Arbeits-Sequenz sein)
  • Reiter “Stacking”
  • Stacking-Methode: Median-Stacking
  • Normalisierung: Keine Normalisierung
  • Schaltfläche: “Starte Stacking”
  • Output: Das Ergebnis ist die Datei Pacman_Darks_stacked.fit im Arbeitsordner

Light Frames in eine Sequenz umwandeln

Dann müssen die Light-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Lights”

  • Reiter: Conversion
  • Input: Meine original Light Frames
  • Auf das Symbol “+” klicken und dann die gewünschten Dateien an ihrem Platz aussuchen (bei mir: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman\lights)
  • Schaltfläche “Add” (unten rechts)
  • Namen für die Sequenz angeben: “Pacman_Lights”
  • Kästchen Symbolischer Link: anhaken
  • Kästchen Debayern: nicht anhaken
  • Schaltfläche “Umwandeln” klicken  (Kästchen Symbolischer Link, Debayern nicht anhaken)
  • Output: Sequence Pacman_Lights.seq

Die “umgewandeten” Lights stehen nun im Arbeitsordner unter den Dateinamen Pacman_Lights_00001.fit, Pacman_Lights_00002.fit,…

Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Lights in Arbeitsordner unter den Dateinamen  Pacman_Lights_00001.fit, Pacman_Lights_00002.fit etc.  kopiert (wobei “Pacman_Lights” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Lights.seq” im Arbeitsordner angelegt.

Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.

Master Dark von den Light Frames abziehen

Nun folgt das “Pre Processing” der Lights: Es wird das Master Dark abgezogen, wir haben keine Flats und auch keine Offsets/Biases…

  • Input: Sequence Pacman_Lights.seq
  • Reiter “Pre Processing”:
  • Use Offset: Nein
  • Use Dark: Ja   und den Namen eintippen: Pacman_Darks_stacked.fit  (sonst erscheint eine Meldung: “master.dark.fit.[Datei-Erweiterung]” nicht gefunden. / KEINE Dark-Frame-Benutzung: kann Datei nicht öffnen)
  • Use Flat: Nein
  • Ausgabe-Präfix: pp_
  • Schaltfläche: “Starte Pre-Processing”
  • Output: Sequence pp_Pacman_Lights.seq

Die pre-prozessierten Lights stehen nun im Arbeitsordner unter den Dateinamen: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…  (wobei pp_ ja der Präfix der Ausgabe-Sequenz ist).

Es wird eine SEQ-Datei namens “pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz pp_Pacman_Lights.seq wird geladen.

De-Bayering der Light Frames

Das Debayering darf nicht zu früh im Workflow erfolgen. Unmittelbar vor dem Registrieren ist gut.

Vorher sollten wir noch einen Blick auf die Einstellungen für das De-Bayering werfen, welche man unter dem “Hamburger Menü” bei “Einstellungen” (Preferences) findet. Dort klicke ich “FITS/SER Debayer” an…

Das De-Bayering wird manchmal auch “De-Mosacing” genannt, weil das Bayer-Pattern z.B. RGGB auch gerne Mosaik genannt wird.

Also  erfolgt das “Debayering” der Lights jetzt. In Siril steht die Funktion “Debayering” leider nur beim Reiter “Umwandeln (Convert)” zur Verfügung. Deshalb geht das so:

  • Input: Die Light-Frames von denen das Master-Dark bereits abgezogen wurde
  • Reiter: Umwandeln (Convert)
  • Laden der Dateien: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,…,
  • Schaltfläche “ADD” (Hinzufügen)  (unten links)
  • Sequenz-Namen vergeben: “db_pp_Pacman_Lights”
  • Häckchen bei Debayering setzen
  • Destination – Sequence Name – eintippen: db_pp_Pacman_Light
  • Schaltfläche “Umwandeln” klicken
  • Output: Sequence db_pp_Pacman_Light

Die “be-bayerten” Lights stehen nun als RGB-Dateien im Arbeitsordner unter den Dateinamen db_pp_Pacman_Lights_00001.fit, db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz db_pp_Pacman_Lights.seq wird geladen.

Registrieren der Light Frames

Das Registrieren legt alle Einzelbilder passgenau übereinander. Das ist als Vorbereitung für das Stacking erforderlich.
Dazu wird eines der Bilder als “Referenzbild” genommen und aus allen Bildern die Sterne identifiziert, welche dann mit denen im Referenzbild verglichen werden.

Als Referenzbild wird standardmäßig das erste Bild der Sequenz genommen, es sei denn, man bestimmt in der “Frame List” der Sequenz ein anderes als Referenzbild.

Das Registriren erfolgt im Einzelnen so:

  • Input: Sequence db_pp_Pacman_Lights.seq
  • Reiter “Registrieren”
  • Registrieren alle Bilder der Sequenz
  • Registrierungsmethode: “Allgemeine Sternausrichtung (Global Star Alignment) Deep Sky”
  • Registrierungs-Layer: Grün
  • Praefix: r_
  • Algorithmus: bikubisch
  • Schaltfläche:  “Führe Registrierung aus”
  • Output: Sequence r_db_pp_Pacman_Lights.seq

Die registrierten Bilder stehen nun im Arbeitsordner unter den Dateinamen: r_db_pp_Pacman_Lights_00001.fit, r_db_pp_Pacman_Lights_00002.fit,…

Es wird eine SEQ-Datei namens “r_db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz r_db_pp_Pacman_Lights.seq wird geladen.

Stacken der Light Frames

Die registrierten Light Frames werden nun “gestapelt” englisch: stacked mit folgenden Einstellungen:

  • Input: Sequence r_db_pp_Pacman_Lights.seq
  • Reiter: Stacking
  • Stacking-Methode: Durchschnittswert-Stacking mit Ausschleusung
  • Normalisierung: Additiv mit Skalierung
  • Ausschleusung: Wisorized Sigma Clipping
  • Save in:  r_db_pp_Pacman_Lights_stacked.fit
  • Schaltfläche: “Starte Stacking”
  • Output: Ergebnisdatei r_db_pp_Pacman_Lights_stacked.fit im Arbeitsordner (diese wird im SiriL-Fenster gleich angezeigt)

Abbildung 1: So sieht das in Siril dann aus (Google Drive: Siril-Stacking-Ergebnis.jpg)

Astronomie: Teilchenphysik

Gehört zu: Physik
Siehe auch: Quantenphysik, SVG, Kosmologie, Quantenfeldtheorie, Gravitation, Grundkräfte, Gruppentheorie
Benötigt:  Bilder von Wikipedia
Stand: 12.05.2024

Teilchenphysik

In der Teilchenphysik unterscheidet man Elementarteilchen und zusammengesetzte Teilchen. Wobei es sich im Laufe der Jahrhunderte immer etwas geändert hat, was als “elementar” angesehen wurde.

Die Teilchenphysik wurde von Murray Gell-Mann (1929-2019) sehr befruchtet. Er gilt als Entdecker der Quarks und schaffte Ordnung bei den Elementarteilchen.

Im Jahr 1969 wurde Gell-Mann im Alter von 40 Jahren für seine „Beiträge und Entdeckungen zur Ordnung der Elementarteilchen und ihrer Wechselwirkungen“ mit dem Nobelpreis für Physik ausgezeichnet.
Das heutige (2020) Verständnis dieser Elementarteilchen wird zusammenfassend dargestellt im sog. “Standardmodell”.

Standardmodell der Teilchenphysik

Die bekannten Elementarteilchen und ihre Wechselwirkungen (Kräfte) beschreibt man im sog. Standardmodell der Teilchenphysik. Aber es scheint darüber hinaus noch weitere Elementarteilchen zu geben: man spricht dann von Neue Physik.

Wie gesagt, dieses “Standardmodell” beschreibt einerseits, welche Elementarteilchen es gibt (siehe Abbildung) und andererseits, welche Kräfte (Wechselwirkungen) zwischen diesen Teilchen wirken. Letzteres kann man beispielsweise mit Feynman-Diagrammen beschreiben und berechnen.

Abbildung 1: Standard Model of Elementary Particles (Wikipedia: Standard_Model_of_Elementary_Particles.svg)

Insert from URL

Symbole für Teilchen

Tabelle 2: Symbole für Teilchen

Teilchen Symbol Bemerkungen
Photon γ Austauschteilchen der Elektromagnetischen Kraft
Gluon g Austauschteilchen der Starken Kernkraft (Farbladungen)
W-Boson W Austauschteilchen der Schwachen Kernkraft
Z-Boson Z Austauschteilchen der Schwachen Kernkraft
Up-Quark u
Down-Quark d
Charme-Quark c
Strange-Quark s
Top-Quark t
Bottom-Quark b
Elektron e
Myon μ schwereres Elektron
Tauon τ noch schwereres Elektron
Neutrino νe Elektron-Neutrino
μ-Neutrino νμ μ-Neutrino
τ-Neutrino ντ τ-Neutrino

Statt “Kraft” sagen wir auch gerne “Wechselwirkung” – also z.B. “Starke Wechselwirkung”

Anti-Teilchen

Zu jedem Teilchen kann es auch ein Anti-Teilchen geben. Anti-Teilchen werden im Allgemeinen mit einen “Quer-Symbol” versehen, z.B.  u und ū.

Antiteilchen haben die entgegengesetzte elektrische Ladung wie ihr “normales” Teilchen z.B.   e und e+ (hier benutzen wir das Quer-Symbol nicht).

Zusammengesetzte Teilchen

Danach sind Protonen und Neutronen (sog. Hadronen) sowie Mesonen keine Elementarteilchen mehr, sondern setzen sich aus Quarks zusammen:

Protonen und Neutronen bestehen aus drei Quarks:

  • Proton p: up up down
  • Neutron: n: up down down

Mesonen bestehen aus zwei Quarks:

  • Meson: ein Quark & ein Anti-Quark

Die vier Grundkräfte

In der Physik kennen wir vier Grundkräfte (die vier fundamentalen Wechselwirkungen). Das Standardmodell der Elementatteilchenphysik erklärt drei der Grundkräfte durch sog. Wechselwirkungen mit sog. Austauschteilchen.
Die vier Grundkräfte sind:

  1. Gravitation
  2. Elektromagnetismus
  3. Starke Kernkaft  (Starke Wechselwirkung) – Sie bindet die Quarks aneinander und hält so z.B. die drei Quarks eines Protons zusammen; ebenso die drei Quarks eines Neutrons
  4. Schwache Kernkaft  (Schwache Wechselwirkung) – kann ein Up-Quark in ein Down-Quark umwandeln und somit Protonen (uud) und Neutronen (udd) vertauschen und so beispielsweise den Beta-Zerfall (Fermi) bewirken; also Radioaktivität…

Die Gravitation ist insofern anders als die anderen drei Kräfte (Wechselwirkungen) weil:

  • Sie ist sehr viel schwächer als die anderen
  • Die Gravitation lässt sich nicht abschirmen  (in sofern gibt es real keine sog. Inertialsysteme)
  • Die Gravitation ist immer anziehend, nie abstossend

Heutzutage (2021) ordnet man drei dieser vier  Gundkräfte sog. Austauschteilchen (das sind virtuelle Teilchen) zu und beschreibt die Wechselwirkungen durch Felder,

Diese Austauschteilcjen sollen sog. “virtuelle” Teilchen sein. Damit meint man Teilchen, die in einer Paarerzeugung im Rahmen der Heisenbergschen Zeit-Energie-Unbestimmtheit für ganz kurze Zeit entstehen.

Tabelle 3: Grundkräfte und Austauschteilchen

Grundkraft Wechselwirkung zwischen Teilchen Austauschteilchen Quantenfeldtheorie Ladung / Gruppe
Gravitation unbekannt fehlt zur Zeit (2023)
Elektromagnetismus Proton, Neutron, Elektron Photon Quantenelektrodynamik Elektrische Ladung – U(1)
Schwache Kernkraft W-Boson und Z-Boson Quantenflavourdynamik xyz – SU(2)L
Starke Kernkraft Quarks Gluonen Quantenchromodynamik Farbladungen – SU(3)

Die Gravitation und auch die Elektrostatische Kraft sind sehr anschauliche Gundkräfte (Wechselwirkungen) im Standardmodell der Teilchenphysik.

Bei den Elementarteilchen unterscheidet man Fermionen (Materie) und Bosonen (Austauschteilchen für Wechselwirkungen). Die Bosonen stehen in der vierten Spalte des Standardmodells:

  • Photonen (γ) vermitteln die Elektromagnetische Kraft  (Wechselwirkung)
  • Gluonen (g) vermitteln die sog. Starke Kernkraft (Wechselwirkung), die hält beispielsweise die Protonen in einem Atomkern zusammen.
  • W-Bosonen vermitteln die sog. Schwache Kernkraft (Wechselwirkung), die kann beispielsweise aus einem Proton ein Neutron machen und umgekehrt, indem aus einem Up-Quark ein Down-Quark wird bzw. umgekehrt.

Die Stärke einer Kraft (Wechselwirkung) hängt ab von einer Art “Ladung“. Zur genauen Beschreibung wird die mathematische Gruppentheorie verwendet,

Feynman-Diagramme

Zur Bescheibung von Wechselwirkungen zwischen Elementarteilchen hat Richard Feynman eine spzezielle Diagramm-Art entwickelt.
Im Feynman-Diagram läuft die Zeit von unten nach oben und der Raum von links nach rechts (wie in einem Raum-Zeit-Diagramm)- allerdings ist dies nicht standardisiert.

Materie-Teilchen werden als Pfeile mit ausgezogener Linie dargestellt.
Wechselwirkungs-Teilchen werden anders dargestellt:

  • Photonen als Welle
  • Gluonen als Schraubfeder
  • Bosonen mit einer gestrichelten Linie

Zerfall bzw. Kollision zweier Objekte bilden einen sog. “Vertex”.

Abbildung 2: Beispiel eines Feynman Diagrams: Electron absorbs a Photon (Wikipedia: Basic_Feynman_diagram_-_electron_absorbs_photon.svg)

Feynman Diagram: Electron absorbs a Photon

Abbildung 3: Beispiel eines Feynman-Diagramms: Beta-Zerfall (Wikipedia: BetaDecay.svg)

Feynman-Diagramm: Betazerfall (Halbwertzeit 10 Minuten)

Astrofotografie: Welche Probleme kann ich mit Stacking lösen?

Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia

Was ist Stacking, was ist Calibration?

Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.

Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).

Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:

  • Mittelwert
  • Summe
  • Median
  • Sigma-Clipping (Outlier Rejection)
  • Maximum
  • etc.

“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).

Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?

Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).

Welche Probleme hat der Astrofotograf?

Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.

  1. Stör-Objekte (z.B. Flugzeuge) im Bild
  2. Hot Pixel  -> Dithern, Dark-Abzug
  3. Vignettierung, Donuts, Amp Glow -> Flats
  4. Himmelshintergrund zu hell  (Lichtverschmutzung)
  5. Schlechte Nachführung
  6. Beobachtungsobjekt zu dunkel auf dem Foto
  7. Rauschen, Farbrauschen (schlechtes SNR) -> Kühlung, lange Gesamtbelichtungszeit (dann Stacken)
  8. Geringer Kontrast -> Stretchen
  9. Geringe Dynamik -> Histogramm analysieren, gute Belichtungszeit wählen dann Einzelbilder aufnehmen und Stacken
  10. Helle Bildteile “ausgebrannt”
  11. Luftunruhe (“Seeing”)

(1) Problem: Stör-Objekte z.B. Flugzeuge, Erdsatelliten etc.

Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.

Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken

(2) Problem: Hot Pixel

Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.

Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(3) Problem: Vignettierung

Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.

Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(4) Problem: Donuts

Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…

Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(5) Problem: Amp Glow

Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…

Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen

Die Software Astro Pixel Processor (APP) versucht auch  “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.

(6) Problem: Himmelshintergrund zu hell

Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.

Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.

(7) Problem: Schlechte Nachführung

Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.

Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.

(8) Problem: Beobachtungsobjekte zu dunkel (kaum sichtbar) auf dem Foto

Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.

Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.

Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.

Lösung: längere Belichtungszeit, ggf mit Stacking

(9) Problem: Rauschen (schlechtes SNR)

Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:

  • Photonen-Rauschen (Schrotrauschen)
  • Sensor-Rauschen (Dunkelstrom, Thermisches Rauschen)
  • Ausleserauschen

Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..

Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)

Poisson-Verteilung (Copyright Wikipedia)

Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:

\(\sigma = \sqrt{\mu} \)

Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.

In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:

\(SNR =  \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)

Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.

In Dezibel gemessen ist das:

\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\)   [Dezibel]

Also Lösung: Lange belichten und ggf. Stacken

Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.

Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken

Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.

Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.

Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.

(10) Geringer Kontrast

Lösung: RAW-Format, Stretchen, S-Kurve

(11) Geringe Dynamik

Lösung: RAW-Format, geringeres ISO/Gain

(12) Helle Bildteile “ausgebrannt”

Lösung: HDR und/oder Postprocessing

(13) Luftunruhe “Seeing”

Lösung: Lucky Imaging

(14) …

 

Astronomie: Sphärische Trigonometrie

Gehört zu: Mathematik
Siehe auch: Tägliche Bewegung der Gestirne, Diagramme, Tageslänge, Koordinatensystem
Benötigt: WordPress Latex-Plugin, WordPress Plugin Google Drive Embedder

Was ist Sphärische Trigonometrie?

Die Ebene Trigonometrie ist die Lehre von den Dreiecken in der Ebene.

Die Sphärische Trigonometrie ist die Lehre von den Dreiecken auf einer Kugeloberfläche. Solche Dreiecke werden durch Abschnitte von Großkreisen gebildet.

Das Polar-Dreieck auf der Himmelskugel

Zur Umrechnung eines Koordinatensystems in ein anderes zeichnet man sich ein sog. Polar-Dreieck, in dem die “Pole” (“Drehpunkte”) beider Koordinatensysteme vorkommen.

Zur Umrechnung der äquatorialen Koordinaten Deklination (δ) und Stundenwinkel (t) in die horizontalen Koordinaten Höhe (h) und Azimuth (A) wird das sog. Polar-Dreieck wird gebildet durch den Himmelspol (N), den Zenit (Z) und ein Himmelsobjekt (O).

Im Polardreieck sind die Abstände (Bogenlängen):

  • vom Himmelspol zum Zenit: 90° – φ
  • vom Himmelspol zum Himmelsobjekt: 90° – δ
  • vom Zenit zum HImmelsobjekt: z = 90° – h

Im Polardreieck sind die Winkel an den Ecken des Dreiecks:

  • Winkel am Himmelspol: Stundenwinkel t (oder τ)
  • Winkel am Zenith: 180°  – A   (A = Azimuth von Süden)

Abbildung 1: Das Polardreieck (Google Drive: polardreieck.svg)

polardreieck.svg

Polardreieck

Link: https://de.wikibooks.org/wiki/Astronomische_Berechnungen_f%C3%BCr_Amateure/_Druckversion#Koordinatentransformationen

MIt dem Seiten-Cosinussatz errechnet man den Cosinus der Länge einer Seite aus den Längen der beiden anderen Seiten und dem gegenüberliegenden Winkel:
\(\cos z = \cos (90° – \phi) \cos (90° – \delta) + \sin (90° – \phi) \sin (90° – \delta) \cos t\)

Was schließlich heisst:
\(\sin h = \sin \phi \sin \delta + \cos \phi \cos \delta \cos t \)

Der Cotangens-Satz im Polardreieck sagt:

\(   \cos (90° – \phi)  \cos t = \sin(90° – \phi) \cot (90° – \delta) – \sin t \cot(180° – A)  \)

Trigonometrisch umgeformt ergibt das:
\(  \sin \phi \cos t = \cos \phi \tan \delta – \Large\frac{\sin t}{\tan A}  \)

Aufgelöst nach A ergibt sich:

\(   \tan A = \Large\frac{\sin t}{\sin \phi \cos t – \cos \phi \tan \delta} \)

MIt Hilfe dieser Koordinatentransformation kann man für jedes bekannte Himmelsobjekt (Deklination und Rektaszension) die scheinbare tägliche Bewegung am Himmel berechnen – siehe dazu: Die scheinbare tägliche Bewegung der Gestirne.

Großkreise auf einer Kugel

Wenn ich im obigen Polardreieck h=0 setze, erhalte ich einen gekippten Großkreis (oBdA setze ich t = λ).

\(\Large \frac{\sin{\delta}}{\cos{\delta}} = – \frac{\cos{\varphi}}{sin{\varphi}} \cdot \cos{\lambda}  \)

Abbildung 2: Beispiel eines Großkreises auf der Erde (Google: xyz)

grosskreis-01.svg

Großkreis auf der Erdoberfläche

Bei der Seefahrt bezeichnet man die Navigation auf einem Kurs entlang eines Großkreises als “Orthodrome” (Gegensatz: Loxodrome).

Mehr dazu: https://www.navigareberlin.de/onewebmedia/Grosskreisnavigation%20Ver%C3%B6ffentlichung.pdf

Metrik auf einer Kugeloberfläche

Für eine Kugel mit dem Radius r kann ich auf der Kugeloberfläche (z.B. Erdoberfläche) ein Koordinatensystem (s.o.) benutzen:

  • Koordinatensystem (λ, \( \varphi \))
  • wobei im Bogenmass: \( \Large -\frac{\pi}{2} < \varphi < \frac{\pi}{2} \)
  • und auch im Bogenmass: \( \Large 0 \leq \lambda < 2\pi \)

Zur Messung von Abständen (Längen) benötige ich ein LInienelement:

\(\Large ds^2 = r^2 d \varphi^2 + r^2 \cos{\varphi}^2 d\lambda^2 \)

Die kürzeste Verbindung zweier Punkte liegt dann auf einem sog. “Großkreis” (s.o.).

Beispiel 1 (gerade)

Die Strecke von (0.0) nach (π, 0); das ist ein halber Erdumfang am Äquator) müsste eine Länge von π r haben. Da auf der ganzen Strecke φ konstant =0 ist, ist auch dφ = 0 und es  ergibt sich als Längenintegral:

\( \Large s = r \int\limits_{0}^{\pi} d \lambda = r \cdot \left[ \lambda \right]_0^\pi  = \pi \cdot r\)

Beispiel 2 (gerade)

Die Strecke von (0,0) nach (0, π/2) ist ein Viertel Erdumfang vom Äquator zum Nordpol (ein sog. Quadrant) die Länge müsste also \(r \frac{\pi}{2} \) sein. Da auf der ganzen Strecke λ konstant =0 ist, ist auch dλ=0 und es ergibt sich als Längenintegral:

\( \Large s = r \int\limits_{0}^{\frac{\pi}{2}} d \varphi = r \cdot \left[ \varphi \right]_0^{\frac{\pi}{2}}  = r \cdot \frac{\pi}{2}\)

Beispiel 3 (schräg)

Aus dem obigen “Polardreieck” wird das “nautische Grunddreick“, wo wir wieder den Seiten-Cosinussatz anwenden können, um die Distanz zu berechnen. Die Distanz d zwischen einem Ausgangspunkt \( A = (\lambda_A, \varphi_A) \) zu einem Endpunkt \( B = (\lambda_B, \varphi_B) \) können wir also berechnen als:

\(\Large \cos{d} = \sin{\varphi_A} \sin{\varphi_B} + \cos{\varphi_A} \cos{\varphi_B} \cos{(\lambda_B – \lambda_A)} \ \\ \)

Die Strecke von (0, π/3) nach (π, 0) läuft jetzt “schräg” über unser Koordinatensystem…

\(\Large \cos{d} = \sin{\frac{\pi}{3}} \sin{0} + \cos{\frac{\pi}{3}} \cos{0} \cos{\pi}\)

Das ergibt: \( \Large \cos{d} = \frac{1}{2}\sqrt{3} \cdot 0 + \frac{1}{2} \cdot 1 \cdot (-1) = -\frac{1}{2} \\\ \)

und damit ist die gesuchte Distanz  \( d = \frac{2}{3} \pi \)

Um diese Distanz aus unserem Linienelement zu ermitteln, müssen wir das Linienelement entlang des Bogens von A nach B integrieren.

Dafür wollen wir den Weg zuerst als Funktion \( \varphi = f(\lambda) \) aufschreiben.

Astronomie: Tägliche Bewegung der Himmelsobjekte

Gehört zu: Sonnensystem
Siehe auch: Tageslänge, Sphärische Trigonometrie
Benötigt: WordPress Latex-Plugin, Grafiken von Github

Tägliche scheinbare Bewegung der Gestirne

Wenn wir wissen wollen, wie sich ein Himmelobjekt mit bekannter Rektaszension und Deklination im Laufe des Tages über den Himmel bewegt, so ist die einfache Formel:

  • Stundenwinkel = Sternzeit – Rektaszension
  • Deklination = const.

Damit haben wir die äquatorialen Koordinaten Stundenwinkel (t) und Deklination (δ) als Funktion der Sternzeit.

Wenn wir die azmutalen Koordinaten Höhe (h) und Azimuth (A) haben wollen, so müssen wir das wie folgt umrechnen:

(Quelle: https://de.wikibooks.org/wiki/Astronomische_Berechnungen_f%C3%BCr_Amateure/_Druckversion#Koordinatentransformationen )

\( \sin h = \sin \phi \cdot \sin \delta + \cos \phi \cdot \cos \delta \cdot \cos t \)

und

\( \tan A = \Large \frac{\sin t}{\sin \phi \cdot \cos t – \cos \phi \cdot \tan \delta}  \)

Beispiel Wega in Hamburg:

Abbildung 1: Scheinbare tägliche bewegung der Wega (Github: TaeglicheBewegung.svg)

TaeglicheBewegung.svg

Scheinbare tägliche Bewegung der Wega

 

Astrofotografie: Galaxien (Deep Sky Objekte)

Gehört zu: Welche Objekte?
Siehe auch: Sternhaufen, Nebel, Liste meiner Fotos

Galaxien (Deep Sky Objekte)

Was ich mit meiner Ausrüstung ganz gut fotografieren kann, sind Galaxien.

Galaxien zählen zu den sog. DSO’s also den Deep Sky Objekten.
Zu den DSO’s gehören insgesamt:

  • Galaxien
  • Emissionsnebel / Reflexionsnebel
  • Planetarische Nebel
  • Supernova-Überreste
  • Sternhaufen (offene und Kugel-)  ja auch die gehören zu den DSOs, da ausserhalb des Sonnensystems

Als Gegensatz zu DSO wird gerne “planetary” genannt. Da würde man mit Videos arbeiten.

Galaxien

In diesem Artikel konzentriere ich mich auf Galaxien. Wobei ich Galaxien vorrangig aus dem Hamburger Raum (einschließlich Handeloh) beobachte.

Datum von/bis bedeutet eine Höhe von mehr als 70 Grad um 23 Uhr in Hamburg.

Objekt Name Ausdehnung Flächen-helligkeit Helligkeit Sternbild Datum ab Datum bis Neumond-1 Neumond-2 Bemerkung / Standort
M31 Andromeda-Nebel 189′ x 62′ 13,35 3,4 mag 12.10. 20.11. 16.10.2020 14.11.2020 Der Klassiker – sehr groß
M33 Dreiecks-Nebel 70′ x 40′ 5,7 mag Tri Drittgrößte Galaxie der Lokalen Gruppe nach M31 und uns.
M51 Whirlpool 12,56 18.4. 17.6. 20.4.2020 22.5.2020
M64 Black Eye 12,4
M65 Leo 12,4
M66 Leo 12,5
M81 Bode Galaxie 27′ x 14′ 13,13 7,0 mag UMa 10.2. 6.4. 24.2.2020 24.3.2020 eine der hellsten Galaxien
M82 Zigarren-Galaxie 11,2′ x 4,3′ 8,6 mag UMa
M83 Southern Pinwheel 12,9′ x 11,5′ 13,2 7,5 mag Hydra Große Balkenspirale
M85 Com 13,0
M88 Com 12,6
M96 Leo 12,9
M99 Com 13,0
M100 Com 13,0
M101 Feuerrad 14,82 21.4. 28.6. 20.4.2020
M102 Dra 11,9
M105 Leo 12,1
NGC 247 19,9’x5,4′ 8,9 mag Cetus Gute Sichtbarkeit: Sept-Jan
NGC 253 Silver Dollar 12,8 Namibia Sculptor
NGC891 Edge-on Andromeda 13,1
NGC7606 10,8
NGC2146 Dusty Hand 12,1
NGC4449 Box Galaxy 12,8
NGC5005 Virgo 12,6
NGC6951 Face-on 13.5
NGC157 Cet 12,4
NGC908 Cet 13,0
NGC936 Cet 13,2
NGC4274 Com 13,4
NGC4278 Com 13,1
NGC4314 Com 13,3
NGC4565 Needle 12,9
NGC5907 Dra 13,4

 

Astrofotografie: M31 Andromeda Galaxis

Gehört zu: Welche Objekte?
Siehe auch: Galaxien, Deep Sky Objekte, Liste meiner Astro-Fotos, Kalibrieren
Benutzt: Fotos von Google Drive

Stand: 30.12.2022

Die Andromeda Galaxis

M31 ist die uns am nächsten gelegene “große” Galaxie (d.h. abgesehen von Zwerggalaxien wie z.B. LMC).

M31 gehört zur sog. “lokalen Gruppe”.

M31 ist das klassische “Anfängerobjekt” für die Deep-Sky-Fotografie.

Edwin Hubble konnte 1933/1934 am Mount Wilson Observatorium M31 in teilweise einzelne Sterne auflösen und dabei auch sog. Delta-Cephei-Sterne finden. Die scheinbare Helligkeit des “H1” genannten Cepheiden in M31 schwankte zwischen 18,3 und 19,7 mag. Mit Hilfe der bekannten Periode-Leuchtkraft-Beziehung konnte er die absolute Helligkeit und damit die Entfernung von M31 bestimmen. Die Entfernungsbestimmung ergab seinerzeit zunächst knapp 1 Million Lichtjahre.

Bis damals war die allgemeine Überzeugung, dass es ausser unserer Galaxis, der “Milchstraße”, keine anderen Galaxien geben würde und die allerseits zu beobachtenden “Nebel” (wie M31) wohl zur Milchstraße gehören müssten.

Als Walter Baade Anfang der 1950er Jahre am gerade fertiggestellten 5m-Spiegel auf dem Mount Palomar zwei verschiedene Typen von Cepheiden nachweisen konnte (mit zwei verschiedenen Periode-Leuchtkraft-Beziehungen), musste die Entfernung auf 2,5 Mio Lichtjahre korrigiert werden.

Generelle Vorbereitungen für das Fotografieren von M31

Wann ist der günstigste Zeitpunkt; d.h. wann steht M31 schön hoch am Himmel?

  • In 2018 in Hamburg:  12. Oktober – 20. November  (h>70°)

Dann brauchen wir noch eine günstige Mondphase z.B. Neumond und gutes Wetter. Als Neumond-Daten haben wir:

  • 2018:   08. Okt.
  • 2019:   27. Okt.
  • 2020:   16. Okt.
  • 2021:   4. Nov.

Als günstigen Standort für die Beobachtung habe ich Handeloh gewählt.

  • geringere Lichtverschmutzung  (Bortle 4 /  SQM 21,0)
  • freies Sichtfeld
  • gute Erreichbarkeit per Auto

Welche Ausrüstung soll eingesetzt werden?

Mit welchen Einstellungen sollen die Fotos geschossen werden?

  • Geplante Belichtungszeit: 10 x 300 Sekunden bei ISO 800
  • Probefotos ergaben, dass bei dieser Belichtung das Histogramm der Einzelfotos “gut” aussah; d.h. deutlich vom linken Rand abgesetzt und von rechten Rand noch sehr weit entfernt
  • Aufnahmeformat: Raw d.h. CR2
  • Auto Guiding mit PHD2 Guiding

Das Foto am 14.10.2018

Im Jahre 2018 war ich mit meinen astrofotografischen Übungen dann so weit und konnte folgende Aufnahme gewinnen:

Abbildung 1: M31 in der Andromeda (Google Drive: 20181014_Autosave_0239-0248_16_CI_RGB.jpg)

Die Bildbearbeitung (Post Processing)

Als all die schönen Bilder “im Kasten” waren ging es erst einmal nach Hause, wo dann in den nächsten Tagen, Wochen und Monaten die Bildbearbeitung begann.

  • Stacking mit Deep Sky Stacker. Dabei erwies sich eines der zehn Lights als verwackelt und wurde ausgeschieden. Zehn Darks wurden ebenfalls gemacht. Mit Deep Sky Stacker entstand dann das kalibrierte Summenbild im TIFF-Format.
  • Mit Regim erfolgte dann die Background Extraktion (auch Gradient Removal ganannt).
  • Weiterhin wurde mit Regim eine B-V-Farbkalibrierung vorgenommen.
  • Schließlich erfolgte mit Adobe Photoshop das Stretching durch “Tonwertkorrektur” und “Gradationskurven”.
  • Mit Noel Carboni’s Action Set “Astronomy Tools” in Photoshop wurden dann noch die Actions  “Local Contrast Enhancedment”, “Increase Star Color” ausprobiert.
  • Zum Schluss wurde der sehr helle Kern von M31 noch mit “Bild -> Korrekturen -> Tiefen/Lichter” 10% dunkler gemacht.