PhpKalender (aus Wiki)
Dies ist leider eine Dublette. Hier ist der richtige Artikel.
Astro-Notizen
Wenn man Interesse für Astronomie hat, kommt ganz schnell der Moment, wo man Beobachtungen auch fotografisch festhalten möchte
Was benötigt man, um Fotografien des Sternenhimmels zu machen?
Ich habe zur Zeit (April 2021) folgende Kameras, die ich für astronomische Zwecke benutze:
Beim Fotografieren (egal ob per Hand oder mit Hilfe einer Software) entstehen die Fotos als Dateien auf einer Speicherkarte oder gleich in einem Ordner auf der Festplatte meines Computers.
Dabei werden in diesen Dateien nicht nur die eigentlichen Bilder gespeichert, sondern auch sog. Metadaten, z.B. Datum und Uhrzeit der Aufnahme, verwendete Belichtungszeit etc.
Bei der Astrofotografie unterscheiden wir bewegte Bilder (Filmchen, Videos) und “normale” Einzelfotos (Still Images). Datei-Formate für “normale” Fotos sind:
Das bekannte FITS wird sehr häufig in der Astrofotografie verwendet. Dabei steht FITS für “Flexible Image Transport System” und wurde offiziel von der IAU FITS Working Group verabschiedet. Das FITS-Format ist z.B. in der Wikipedia https://en.wikipedia.org/wiki/FITS beschrieben.
Das Auslesen der Metadaten bei JPG-Dateien funktioniert gut mit dem Exif-Tool.
Zum Auslesen der Metadaten bei FITS-Dateien versuche ich es mit Python.
Erste Ideen:
Ein Baumstativ
— Dkracht 23:10, 19 July 2009 (CEST)
Diese Seite ist umgezogen nach: Astronomie-2
Gehört zu: Astrofotografie, Stacking
Siehe auch: Deep Sky Stacker, PixInsight, Astro Pixel Processor, ComputerAcerBaer, Bildbearbeitung, StarNet, Plate Solving
Benutzt: Fotos aus Google Drive
Stand: 19.11.2024
Ein Youtube-Tutorial von Frank Sackenheim: https://www.youtube.com/watch?v=qMD2QQUtxYs
Das Youtube-Video von Cuiv “The Lazy Geek”: https://youtu.be/dEX9KbbzALc
Das YouTube-Video von “Deep Space Astro”: https://youtu.be/s3TJduagxrw
Siril ist eine kostenlose Software mit dem Schwerpunkt Stacking, kann aber noch einiges anderes mehr (Bildbearbeitung)…
Aufmerksam geworden bin ich auf Siril durch das unten angegebene YouTube-Video von Frank Sackenheim im März 2020. Dann hat Cuiv “The Lazy Geek” aus Tokio im August 2020 auch das Thema Siril aufgegriffen. Deswegen machte ich einen zweiten Versuch, Siril zu verstehen…
Dann bin ich bei der Beschäftigung mit Smart Telescopes im September 2023 erneut auf Siril gestossen, wobei mich die Möglichkeiten der Bildbearbeitung besonders beeindruckt haben, beispielsweise die Integration von StarNet.
Als Alternative zum traditionellen Deep Sky Stacker ist das modernere Siril vielleicht ganz interessant. Auch als kostenlose Alternative zu PixInsight kann Siril mit Background Extraction und fotometrischer Farbkalibrierung punkten.
Im Gegensatz zu anderer Stacking-Software gibt es bei Siril zu beachten:
Software Download: https://www.siril.org/download/#Windows
Die Konfigurationsdatei ist: c:\users\<name>\AppData\Local\siril\config.ini
In dieser Config-Datei speichert Siril auch den Namen des letzten Working Directory, was man hier oder später auf der Siril-Komandozeile mit dem Befehl “cd” ändern kann (oder durch klicken auf das Symbol “Häuschen” – oben links).
Einstellen des “Themes“: Hamburger Menü -> Preferences -> User Interface -> Aussehen (Look and Feel): Dort können wir z.B. das “Dark Theme” auswählen.
Auch die Sprache können wir hier einstellen. Deutsch mögen viele da gern, aber dann muss man mit zum Teil komischen Übersetzungen leben und Tipps und Tricks aus der SiriL-Community sind mit “Englisch” meist besser zu verstehen…
Einstellen der “Language“: Hamburger Menü -> Preferences -> User Interface -> Language: Dort können wir z.B. “English [en]” auswählen.
Auch der Pfad zur Software StarNet muss hier eingebeben werden.
Skripts in SiriL sind einfach Dateien mit der Endung *.ssf
Man kann Siril auch nur zur Bildbearbeitung (mit bereits gestackten Fotos) einsetzen. Dazu kann man so ein gestacktes Foto einfach in Siril laden (Links oben “OPEN”) und dann mit “Image Processing” bearbeiten.
Die Anzeige des Bildes kann man einstellen als “Linear”, “Autostretch” u.a. mit einem kleinen Drop-Down in der Mitte unteren Fensterleiste. Das wirkt nur auf die Anzeige, das Foto selbst bleibt unverändert.
Zum Speichern des Bildes als Bilddatei gibt oben rechts auf der Leiste zwei Symbole:
Durch das Stacken (speziell wenn man beim Fotografieren Dithering eingestellt hat) gibt es meist schmale dunkle Ränder, die wir jetzt abschneiden wollen.
Ähnlich wie in PixInsight kann auch SiriL den Bildhintergrund ermitteln und dann abziehen. Das macht man gerne um z.B. Gradienten zu entfernen.
Um schöne Sternfarben zu bekommen sollte man unbedingt eine Farb-Kalibrierung machen. Siril bietet dafür zwei Möglichkeiten an: “Farbkalibrierung” und “Photometrische Farbkalibrierung”.
Für die Photometrischen Farbkalibrierung muss Siril wissen, welche Sterne auf dem Bild zu sehen sind. Dazu versucht Siril im FITS-Header WCS-Koordinaten zu finden. Wenn die Kamera bereits Bilder im FITS-Format liefert (z.B. bei ASI-Kameras) muss nur noch die Bild-Aufnahme-Software (z.B. APT, N.I.N.A.) die Aufnahme-Koordinaten in den FITS-Header schreiben.
Wenn wir im FITS-Header (noch) keine Bild-Koordinaten haben, hat Siril zwei Wege diese nachträglich zu ermitteln:
Das Ganze läuft so:
Bei DSLRs und auch bei Astrokameras mit Farb-Sensor (“OSC”) haben wir oft eine Überbetonung der grünen Farbe.
Vor dem “Stretchen” soll man die Farbsättigung anheben.
Menüleiste -> Bildbearbeitung
Hierzu hat SiriL mehrere Methoden:
Allgemein wird GHS empfohlen, wobei man sich da ersteinmal richtig einarbeiten muss (z.B. Tutorial https://siril.org/tutorials/ghs/).
Der Schwarzwert wird in einem separaten Vorgang verstellt…
Voraussetzung ist, dass das Bild vom Platesolving her WCS-Metadaten enthält.
In Siril sieht man in der Leiste unten rechts mehrere Symbole. Nach einem erfolgreichen Platesolving ist dort das Symbol “Kugel mit Koordinaten” aktiv (nicht mehr ausgegraut). Da kann man ja mal ausprobieren wie ein Koordinatennetz auf dem Bild dann aussieht. Das brauchen wir aber jetzt eigentlich noch nicht.
Rechte von diesem Symbol “Kugel mit Koordinaten” steht auf der Leiste ein Symbol “Konzentrische Kreise” damit schalten wir den Photometrie-Modus von Siril an. Wenn wir dann auf einen Stern im Bild klicken erscheint ein Fenster “PSF and quick photometry results” dort klicken wir unten auf “More Details…”. Dadurch werden wir auf eine externe Web-Seite geführt, wo wir den offiziellen Namen unseres Stern sehen und ins Clippboad kopieren. Mehr wollten wir hier nicht, nur den Namen.
Im nächsten Schritt gehen wir zurück zu unserem Bild in Siril und schalten photometrischen Modus aus. Dann können wir mit der rechten Maustaste in das Bild klicken und erhalten so ein Kontextmenü. Dort wählen wir aus “Search Object…” wo wir dann den oben gefundenen offiziellen Namen unseres Objekt eingeben….
Dies wir von Siril gespeichet in einem “User-DSO catalog”…
Beim Speichern des bearbeiteten Bilden muss man aufpassen.
Obere Leiste -> Speichern als… (Symbol: “Pfeil nach unten”)
Einstellen des Arbeits-Ordners (Arbeitsverzeichnis, Working Directory).
Wenn man später mit Scripts arbeiten will (was sehr empfehlenswert ist), müssen im Arbeits-Ordner die Unter-Ordner: biases, lights, darks, flats angelegt sein.
Dazu ordnet man seine Fotos eben in Ordner mit diesen Namen ein und gibt den übergeordneten Ordner als Arbeitsordner bei Siril an (Symbol “Häuschen” links oben).
Als erstes müssen in Siril unsere Bild-Dateien in das FITS-Format umgewandelt werden und in die genannten Unter-Ordner (denn wir wollen mit Scripts arbeiten) gelegt werden. Wenn die Bilder bereits im FITS-Format sind, versucht Siril mit SymLinks zu arbeiten.
Generell geschieht das Bearbeiten unserer Bilder päckchenweise. Diese “Päckchen” heißen bei Siril “Sequences” und müssen einen Sequence-Namen bekommen.
Damit ich selber mal lerne, wie das mit dieser für mich neuen Software funktioniert, versuche ich es mit einem eigenen Fall. Ich habe gerade kürzlich (am 20.9.2020) eine Aufnahme vom Pacman-Nebel mit 60 Lights á 120 sec und 30 Darks (keine Flats und keine Biases) gemacht.
Wie man unten sieht, ist der ganze manuelle Ablauf sehr langwierig und fehleranfällig; deshalb sollte man für so einen immer wiederkehrenden Ablauf ein Siril-Script benutzen. Leider setzen die mitgelieferten Scripts immer voraus, dass man sowohl, Darks, als auch Light, Flats und Bias-Frames gemacht hat, was nicht immer der Fall ist. Das Zusatz-Programm “SiriL IC” sollte dabei helfen... Andererseits ist die Siril-Skriptspache auch recht einfach und man könnte da schnell etwas modifizieren…
Meine Pacman-Dateien befinden sich im Ordner: P:\Alben\Album_Astronomie\20200920_Bundesstrasse_Pacman, dieser wird also als erster Schritt als “Home” eingestellt.
Zuerst müssen die Dark-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Darks”.
Auch wenn die Dateien schon im richtigen Format (FITS) vorhanden sind (weil meine ASI294MC Pro sie als FITs erstellt hat), muss diese “Umwandlung” in SiriL erfolgen, weil SiriL dann eine SEQ-Datei benötigt. Da die Dateien schon im (für SiriL) richtigen Format sind, werden sie lediglich kopiert.
Man kann beim “Umwandeln” auch “Symbolic Link” anhaken, dann werden die Dateien nicht echt kopiert, sondern es werden SymLinks erstellt. SymLinks funktionieren aber nur, wenn in Windows der “Developer Mode” eingestellt ist…
Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Darks im Arbeitsordner unter den Dateinamen Pacman_Darks_00001.fit, Pacman_Darks_00002.fit etc. kopiert (wobei “Pacman_Darks” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Darks.seq” im Arbeitsordner angelegt.
Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.
Ich mache dann aus diesen Darks ein sog. Master-Dark.
Das geht über den Reiter “Stacking” – wobei ein vorheriges Registrieren nicht erforderlich ist, da auf den Darks keine Sterne sind.
Für das Stacking machen wir folgende Einstellungen (wobei vom vorigen Schritt schon die richtige Sequenz ausgewählt bleibt):
Dann müssen die Light-Frames geladen und umgewandelt werden und einen Sequenz-Namen bekommen. Als Sequenz-Namen nehmen wir “Pacman_Lights”
Die “umgewandeten” Lights stehen nun im Arbeitsordner unter den Dateinamen Pacman_Lights_00001.fit, Pacman_Lights_00002.fit,…
Die Ergebnisse einer solchen “Umwandlung” (auch “Konvertieren” genannt) werden oben im Arbeitsordner abgelegt. Zum Beispiel werden meine Lights in Arbeitsordner unter den Dateinamen Pacman_Lights_00001.fit, Pacman_Lights_00002.fit etc. kopiert (wobei “Pacman_Lights” der Sequenzname war) und es wird eine SEQ-Datei namens “Pacman_Lights.seq” im Arbeitsordner angelegt.
Die neu erstellte Sequenz wird von SiriL automatisch als “aktuelle Arbeits-Sequenz” geladen.
Nun folgt das “Pre Processing” der Lights: Es wird das Master Dark abgezogen, wir haben keine Flats und auch keine Offsets/Biases…
Die pre-prozessierten Lights stehen nun im Arbeitsordner unter den Dateinamen: pp_Pacman_Lights_00001.fit, pp_Pacman_Lights_00002.fit,… (wobei pp_ ja der Präfix der Ausgabe-Sequenz ist).
Es wird eine SEQ-Datei namens “pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz pp_Pacman_Lights.seq wird geladen.
Das Debayering darf nicht zu früh im Workflow erfolgen. Unmittelbar vor dem Registrieren ist gut.
Vorher sollten wir noch einen Blick auf die Einstellungen für das De-Bayering werfen, welche man unter dem “Hamburger Menü” bei “Einstellungen” (Preferences) findet. Dort klicke ich “FITS/SER Debayer” an…
Das De-Bayering wird manchmal auch “De-Mosacing” genannt, weil das Bayer-Pattern z.B. RGGB auch gerne Mosaik genannt wird.
Also erfolgt das “Debayering” der Lights jetzt. In Siril steht die Funktion “Debayering” leider nur beim Reiter “Umwandeln (Convert)” zur Verfügung. Deshalb geht das so:
Die “be-bayerten” Lights stehen nun als RGB-Dateien im Arbeitsordner unter den Dateinamen db_pp_Pacman_Lights_00001.fit, db_pp_Pacman_Lights_00002.fit,…
Es wird eine SEQ-Datei namens “db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz db_pp_Pacman_Lights.seq wird geladen.
Das Registrieren legt alle Einzelbilder passgenau übereinander. Das ist als Vorbereitung für das Stacking erforderlich.
Dazu wird eines der Bilder als “Referenzbild” genommen und aus allen Bildern die Sterne identifiziert, welche dann mit denen im Referenzbild verglichen werden.
Als Referenzbild wird standardmäßig das erste Bild der Sequenz genommen, es sei denn, man bestimmt in der “Frame List” der Sequenz ein anderes als Referenzbild.
Das Registriren erfolgt im Einzelnen so:
Die registrierten Bilder stehen nun im Arbeitsordner unter den Dateinamen: r_db_pp_Pacman_Lights_00001.fit, r_db_pp_Pacman_Lights_00002.fit,…
Es wird eine SEQ-Datei namens “r_db_pp_Pacman_Lights.seq” im Arbeitsordner angelegt. Die neue Sequenz r_db_pp_Pacman_Lights.seq wird geladen.
Die registrierten Light Frames werden nun “gestapelt” englisch: stacked mit folgenden Einstellungen:
Abbildung 1: So sieht das in Siril dann aus (Google Drive: Siril-Stacking-Ergebnis.jpg)
Gehört zu: Physik
Siehe auch: Quantenphysik, SVG, Kosmologie, Quantenfeldtheorie, Gravitation, Grundkräfte, Gruppentheorie
Benötigt: Bilder von Wikipedia
Stand: 12.05.2024
In der Teilchenphysik unterscheidet man Elementarteilchen und zusammengesetzte Teilchen. Wobei es sich im Laufe der Jahrhunderte immer etwas geändert hat, was als “elementar” angesehen wurde.
Die Teilchenphysik wurde von Murray Gell-Mann (1929-2019) sehr befruchtet. Er gilt als Entdecker der Quarks und schaffte Ordnung bei den Elementarteilchen.
Die bekannten Elementarteilchen und ihre Wechselwirkungen (Kräfte) beschreibt man im sog. Standardmodell der Teilchenphysik. Aber es scheint darüber hinaus noch weitere Elementarteilchen zu geben: man spricht dann von Neue Physik.
Wie gesagt, dieses “Standardmodell” beschreibt einerseits, welche Elementarteilchen es gibt (siehe Abbildung) und andererseits, welche Kräfte (Wechselwirkungen) zwischen diesen Teilchen wirken. Letzteres kann man beispielsweise mit Feynman-Diagrammen beschreiben und berechnen.
Insert from URL
Tabelle 2: Symbole für Teilchen
Teilchen | Symbol | Bemerkungen |
Photon | γ | Austauschteilchen der Elektromagnetischen Kraft |
Gluon | g | Austauschteilchen der Starken Kernkraft (Farbladungen) |
W-Boson | W | Austauschteilchen der Schwachen Kernkraft |
Z-Boson | Z | Austauschteilchen der Schwachen Kernkraft |
Up-Quark | u | |
Down-Quark | d | |
Charme-Quark | c | |
Strange-Quark | s | |
Top-Quark | t | |
Bottom-Quark | b | |
Elektron | e– | |
Myon | μ | schwereres Elektron |
Tauon | τ | noch schwereres Elektron |
Neutrino | νe | Elektron-Neutrino |
μ-Neutrino | νμ | μ-Neutrino |
τ-Neutrino | ντ | τ-Neutrino |
Statt “Kraft” sagen wir auch gerne “Wechselwirkung” – also z.B. “Starke Wechselwirkung”
Zu jedem Teilchen kann es auch ein Anti-Teilchen geben. Anti-Teilchen werden im Allgemeinen mit einen “Quer-Symbol” versehen, z.B. u und ū.
Antiteilchen haben die entgegengesetzte elektrische Ladung wie ihr “normales” Teilchen z.B. e– und e+ (hier benutzen wir das Quer-Symbol nicht).
Danach sind Protonen und Neutronen (sog. Hadronen) sowie Mesonen keine Elementarteilchen mehr, sondern setzen sich aus Quarks zusammen:
Protonen und Neutronen bestehen aus drei Quarks:
Mesonen bestehen aus zwei Quarks:
In der Physik kennen wir vier Grundkräfte (die vier fundamentalen Wechselwirkungen). Das Standardmodell der Elementatteilchenphysik erklärt drei der Grundkräfte durch sog. Wechselwirkungen mit sog. Austauschteilchen.
Die vier Grundkräfte sind:
Die Gravitation ist insofern anders als die anderen drei Kräfte (Wechselwirkungen) weil:
Heutzutage (2021) ordnet man drei dieser vier Gundkräfte sog. Austauschteilchen (das sind virtuelle Teilchen) zu und beschreibt die Wechselwirkungen durch Felder,
Diese Austauschteilcjen sollen sog. “virtuelle” Teilchen sein. Damit meint man Teilchen, die in einer Paarerzeugung im Rahmen der Heisenbergschen Zeit-Energie-Unbestimmtheit für ganz kurze Zeit entstehen.
Tabelle 3: Grundkräfte und Austauschteilchen
Grundkraft | Wechselwirkung zwischen Teilchen | Austauschteilchen | Quantenfeldtheorie | Ladung / Gruppe |
Gravitation | unbekannt | fehlt zur Zeit (2023) | ||
Elektromagnetismus | Proton, Neutron, Elektron | Photon | Quantenelektrodynamik | Elektrische Ladung – U(1) |
Schwache Kernkraft | W-Boson und Z-Boson | Quantenflavourdynamik | xyz – SU(2)L | |
Starke Kernkraft | Quarks | Gluonen | Quantenchromodynamik | Farbladungen – SU(3) |
Die Gravitation und auch die Elektrostatische Kraft sind sehr anschauliche Gundkräfte (Wechselwirkungen) im Standardmodell der Teilchenphysik.
Bei den Elementarteilchen unterscheidet man Fermionen (Materie) und Bosonen (Austauschteilchen für Wechselwirkungen). Die Bosonen stehen in der vierten Spalte des Standardmodells:
Die Stärke einer Kraft (Wechselwirkung) hängt ab von einer Art “Ladung“. Zur genauen Beschreibung wird die mathematische Gruppentheorie verwendet,
Zur Bescheibung von Wechselwirkungen zwischen Elementarteilchen hat Richard Feynman eine spzezielle Diagramm-Art entwickelt.
Im Feynman-Diagram läuft die Zeit von unten nach oben und der Raum von links nach rechts (wie in einem Raum-Zeit-Diagramm)- allerdings ist dies nicht standardisiert.
Materie-Teilchen werden als Pfeile mit ausgezogener Linie dargestellt.
Wechselwirkungs-Teilchen werden anders dargestellt:
Zerfall bzw. Kollision zweier Objekte bilden einen sog. “Vertex”.
Abbildung 2: Beispiel eines Feynman Diagrams: Electron absorbs a Photon (Wikipedia: Basic_Feynman_diagram_-_electron_absorbs_photon.svg)
Feynman Diagram: Electron absorbs a Photon
Abbildung 3: Beispiel eines Feynman-Diagramms: Beta-Zerfall (Wikipedia: BetaDecay.svg)
Feynman-Diagramm: Betazerfall (Halbwertzeit 10 Minuten)
Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia
Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.
Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).
Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:
“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).
Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?
Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).
Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.
Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.
Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken
Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.
Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)
Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…
Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.
Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren
Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…
Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…
Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…
Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…
Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…
Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen
Die Software Astro Pixel Processor (APP) versucht auch “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.
Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.
Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.
Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.
Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.
Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.
Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”
Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.
Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.
Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.
Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.
Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.
Lösung: längere Belichtungszeit, ggf mit Stacking
Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:
Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..
Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)
Poisson-Verteilung (Copyright Wikipedia)
Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:
\(\sigma = \sqrt{\mu} \)Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.
In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:
\(SNR = \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.
In Dezibel gemessen ist das:
\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\) [Dezibel]
Also Lösung: Lange belichten und ggf. Stacken
Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.
Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken
Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.
Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.
Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.
Lösung: RAW-Format, Stretchen, S-Kurve
Lösung: RAW-Format, geringeres ISO/Gain
Lösung: HDR und/oder Postprocessing
Lösung: Lucky Imaging
Gehört zu: Mathematik
Siehe auch: Tägliche Bewegung der Gestirne, Diagramme, Tageslänge, Koordinatensystem
Benötigt: WordPress Latex-Plugin, WordPress Plugin Google Drive Embedder
Die Ebene Trigonometrie ist die Lehre von den Dreiecken in der Ebene.
Die Sphärische Trigonometrie ist die Lehre von den Dreiecken auf einer Kugeloberfläche. Solche Dreiecke werden durch Abschnitte von Großkreisen gebildet.
Zur Umrechnung eines Koordinatensystems in ein anderes zeichnet man sich ein sog. Polar-Dreieck, in dem die “Pole” (“Drehpunkte”) beider Koordinatensysteme vorkommen.
Zur Umrechnung der äquatorialen Koordinaten Deklination (δ) und Stundenwinkel (t) in die horizontalen Koordinaten Höhe (h) und Azimuth (A) wird das sog. Polar-Dreieck wird gebildet durch den Himmelspol (N), den Zenit (Z) und ein Himmelsobjekt (O).
Im Polardreieck sind die Abstände (Bogenlängen):
Im Polardreieck sind die Winkel an den Ecken des Dreiecks:
Abbildung 1: Das Polardreieck (Google Drive: polardreieck.svg)
Polardreieck
MIt dem Seiten-Cosinussatz errechnet man den Cosinus der Länge einer Seite aus den Längen der beiden anderen Seiten und dem gegenüberliegenden Winkel:
\(\cos z = \cos (90° – \phi) \cos (90° – \delta) + \sin (90° – \phi) \sin (90° – \delta) \cos t\)
Was schließlich heisst:
\(\sin h = \sin \phi \sin \delta + \cos \phi \cos \delta \cos t \)
Der Cotangens-Satz im Polardreieck sagt:
\( \cos (90° – \phi) \cos t = \sin(90° – \phi) \cot (90° – \delta) – \sin t \cot(180° – A) \)Trigonometrisch umgeformt ergibt das:
\( \sin \phi \cos t = \cos \phi \tan \delta – \Large\frac{\sin t}{\tan A} \)
Aufgelöst nach A ergibt sich:
\( \tan A = \Large\frac{\sin t}{\sin \phi \cos t – \cos \phi \tan \delta} \)MIt Hilfe dieser Koordinatentransformation kann man für jedes bekannte Himmelsobjekt (Deklination und Rektaszension) die scheinbare tägliche Bewegung am Himmel berechnen – siehe dazu: Die scheinbare tägliche Bewegung der Gestirne.
Wenn ich im obigen Polardreieck h=0 setze, erhalte ich einen gekippten Großkreis (oBdA setze ich t = λ).
\(\Large \frac{\sin{\delta}}{\cos{\delta}} = – \frac{\cos{\varphi}}{sin{\varphi}} \cdot \cos{\lambda} \)Abbildung 2: Beispiel eines Großkreises auf der Erde (Google: xyz)
Großkreis auf der Erdoberfläche
Bei der Seefahrt bezeichnet man die Navigation auf einem Kurs entlang eines Großkreises als “Orthodrome” (Gegensatz: Loxodrome).
Mehr dazu: https://www.navigareberlin.de/onewebmedia/Grosskreisnavigation%20Ver%C3%B6ffentlichung.pdf
Für eine Kugel mit dem Radius r kann ich auf der Kugeloberfläche (z.B. Erdoberfläche) ein Koordinatensystem (s.o.) benutzen:
Zur Messung von Abständen (Längen) benötige ich ein LInienelement:
\(\Large ds^2 = r^2 d \varphi^2 + r^2 \cos{\varphi}^2 d\lambda^2 \)Die kürzeste Verbindung zweier Punkte liegt dann auf einem sog. “Großkreis” (s.o.).
Die Strecke von (0.0) nach (π, 0); das ist ein halber Erdumfang am Äquator) müsste eine Länge von π r haben. Da auf der ganzen Strecke φ konstant =0 ist, ist auch dφ = 0 und es ergibt sich als Längenintegral:
\( \Large s = r \int\limits_{0}^{\pi} d \lambda = r \cdot \left[ \lambda \right]_0^\pi = \pi \cdot r\)Die Strecke von (0,0) nach (0, π/2) ist ein Viertel Erdumfang vom Äquator zum Nordpol (ein sog. Quadrant) die Länge müsste also \(r \frac{\pi}{2} \) sein. Da auf der ganzen Strecke λ konstant =0 ist, ist auch dλ=0 und es ergibt sich als Längenintegral:
\( \Large s = r \int\limits_{0}^{\frac{\pi}{2}} d \varphi = r \cdot \left[ \varphi \right]_0^{\frac{\pi}{2}} = r \cdot \frac{\pi}{2}\)Aus dem obigen “Polardreieck” wird das “nautische Grunddreick“, wo wir wieder den Seiten-Cosinussatz anwenden können, um die Distanz zu berechnen. Die Distanz d zwischen einem Ausgangspunkt \( A = (\lambda_A, \varphi_A) \) zu einem Endpunkt \( B = (\lambda_B, \varphi_B) \) können wir also berechnen als:
\(\Large \cos{d} = \sin{\varphi_A} \sin{\varphi_B} + \cos{\varphi_A} \cos{\varphi_B} \cos{(\lambda_B – \lambda_A)} \ \\ \)Die Strecke von (0, π/3) nach (π, 0) läuft jetzt “schräg” über unser Koordinatensystem…
\(\Large \cos{d} = \sin{\frac{\pi}{3}} \sin{0} + \cos{\frac{\pi}{3}} \cos{0} \cos{\pi}\)Das ergibt: \( \Large \cos{d} = \frac{1}{2}\sqrt{3} \cdot 0 + \frac{1}{2} \cdot 1 \cdot (-1) = -\frac{1}{2} \\\ \)
und damit ist die gesuchte Distanz \( d = \frac{2}{3} \pi \)
Um diese Distanz aus unserem Linienelement zu ermitteln, müssen wir das Linienelement entlang des Bogens von A nach B integrieren.
Dafür wollen wir den Weg zuerst als Funktion \( \varphi = f(\lambda) \) aufschreiben.
…
Gehört zu: Sonnensystem
Siehe auch: Tageslänge, Sphärische Trigonometrie
Benötigt: WordPress Latex-Plugin, Grafiken von Github
Wenn wir wissen wollen, wie sich ein Himmelobjekt mit bekannter Rektaszension und Deklination im Laufe des Tages über den Himmel bewegt, so ist die einfache Formel:
Damit haben wir die äquatorialen Koordinaten Stundenwinkel (t) und Deklination (δ) als Funktion der Sternzeit.
Wenn wir die azmutalen Koordinaten Höhe (h) und Azimuth (A) haben wollen, so müssen wir das wie folgt umrechnen:
\( \sin h = \sin \phi \cdot \sin \delta + \cos \phi \cdot \cos \delta \cdot \cos t \)und
\( \tan A = \Large \frac{\sin t}{\sin \phi \cdot \cos t – \cos \phi \cdot \tan \delta} \)Abbildung 1: Scheinbare tägliche bewegung der Wega (Github: TaeglicheBewegung.svg)
Scheinbare tägliche Bewegung der Wega
Gehört zu: Welche Objekte?
Siehe auch: Sternhaufen, Nebel, Liste meiner Fotos
Was ich mit meiner Ausrüstung ganz gut fotografieren kann, sind Galaxien.
Galaxien zählen zu den sog. DSO’s also den Deep Sky Objekten.
Zu den DSO’s gehören insgesamt:
Als Gegensatz zu DSO wird gerne “planetary” genannt. Da würde man mit Videos arbeiten.
In diesem Artikel konzentriere ich mich auf Galaxien. Wobei ich Galaxien vorrangig aus dem Hamburger Raum (einschließlich Handeloh) beobachte.
Datum von/bis bedeutet eine Höhe von mehr als 70 Grad um 23 Uhr in Hamburg.
Objekt | Name | Ausdehnung | Flächen-helligkeit | Helligkeit | Sternbild | Datum ab | Datum bis | Neumond-1 | Neumond-2 | Bemerkung / Standort |
M31 | Andromeda-Nebel | 189′ x 62′ | 13,35 | 3,4 mag | 12.10. | 20.11. | 16.10.2020 | 14.11.2020 | Der Klassiker – sehr groß | |
M33 | Dreiecks-Nebel | 70′ x 40′ | 5,7 mag | Tri | Drittgrößte Galaxie der Lokalen Gruppe nach M31 und uns. | |||||
M51 | Whirlpool | 12,56 | 18.4. | 17.6. | 20.4.2020 | 22.5.2020 | ||||
M64 | Black Eye | 12,4 | ||||||||
M65 | Leo | 12,4 | ||||||||
M66 | Leo | 12,5 | ||||||||
M81 | Bode Galaxie | 27′ x 14′ | 13,13 | 7,0 mag | UMa | 10.2. | 6.4. | 24.2.2020 | 24.3.2020 | eine der hellsten Galaxien |
M82 | Zigarren-Galaxie | 11,2′ x 4,3′ | 8,6 mag | UMa | ||||||
M83 | Southern Pinwheel | 12,9′ x 11,5′ | 13,2 | 7,5 mag | Hydra | Große Balkenspirale | ||||
M85 | Com | 13,0 | ||||||||
M88 | Com | 12,6 | ||||||||
M96 | Leo | 12,9 | ||||||||
M99 | Com | 13,0 | ||||||||
M100 | Com | 13,0 | ||||||||
M101 | Feuerrad | 14,82 | 21.4. | 28.6. | 20.4.2020 | |||||
M102 | Dra | 11,9 | ||||||||
M105 | Leo | 12,1 | ||||||||
NGC 247 | 19,9’x5,4′ | 8,9 mag | Cetus | Gute Sichtbarkeit: Sept-Jan | ||||||
NGC 253 | Silver Dollar | 12,8 | Namibia Sculptor | |||||||
NGC891 | Edge-on Andromeda | 13,1 | ||||||||
NGC7606 | 10,8 | |||||||||
NGC2146 | Dusty Hand | 12,1 | ||||||||
NGC4449 | Box Galaxy | 12,8 | ||||||||
NGC5005 | Virgo | 12,6 | ||||||||
NGC6951 | Face-on | 13.5 | ||||||||
NGC157 | Cet | 12,4 | ||||||||
NGC908 | Cet | 13,0 | ||||||||
NGC936 | Cet | 13,2 | ||||||||
NGC4274 | Com | 13,4 | ||||||||
NGC4278 | Com | 13,1 | ||||||||
NGC4314 | Com | 13,3 | ||||||||
NGC4565 | Needle | 12,9 | ||||||||
NGC5907 | Dra | 13,4 | ||||||||
Gehört zu: Welche Objekte?
Siehe auch: Galaxien, Deep Sky Objekte, Liste meiner Astro-Fotos, Kalibrieren
Benutzt: Fotos von Google Drive
Stand: 30.12.2022
M31 ist die uns am nächsten gelegene “große” Galaxie (d.h. abgesehen von Zwerggalaxien wie z.B. LMC).
M31 gehört zur sog. “lokalen Gruppe”.
M31 ist das klassische “Anfängerobjekt” für die Deep-Sky-Fotografie.
Edwin Hubble konnte 1933/1934 am Mount Wilson Observatorium M31 in teilweise einzelne Sterne auflösen und dabei auch sog. Delta-Cephei-Sterne finden. Die scheinbare Helligkeit des “H1” genannten Cepheiden in M31 schwankte zwischen 18,3 und 19,7 mag. Mit Hilfe der bekannten Periode-Leuchtkraft-Beziehung konnte er die absolute Helligkeit und damit die Entfernung von M31 bestimmen. Die Entfernungsbestimmung ergab seinerzeit zunächst knapp 1 Million Lichtjahre.
Bis damals war die allgemeine Überzeugung, dass es ausser unserer Galaxis, der “Milchstraße”, keine anderen Galaxien geben würde und die allerseits zu beobachtenden “Nebel” (wie M31) wohl zur Milchstraße gehören müssten.
Als Walter Baade Anfang der 1950er Jahre am gerade fertiggestellten 5m-Spiegel auf dem Mount Palomar zwei verschiedene Typen von Cepheiden nachweisen konnte (mit zwei verschiedenen Periode-Leuchtkraft-Beziehungen), musste die Entfernung auf 2,5 Mio Lichtjahre korrigiert werden.
Wann ist der günstigste Zeitpunkt; d.h. wann steht M31 schön hoch am Himmel?
Dann brauchen wir noch eine günstige Mondphase z.B. Neumond und gutes Wetter. Als Neumond-Daten haben wir:
Als günstigen Standort für die Beobachtung habe ich Handeloh gewählt.
Welche Ausrüstung soll eingesetzt werden?
Mit welchen Einstellungen sollen die Fotos geschossen werden?
Im Jahre 2018 war ich mit meinen astrofotografischen Übungen dann so weit und konnte folgende Aufnahme gewinnen:
Abbildung 1: M31 in der Andromeda (Google Drive: 20181014_Autosave_0239-0248_16_CI_RGB.jpg)
Als all die schönen Bilder “im Kasten” waren ging es erst einmal nach Hause, wo dann in den nächsten Tagen, Wochen und Monaten die Bildbearbeitung begann.