Bei den Astros kann man zwei “Lager” unterscheiden:
visuelle
fotografische
Ich persönlich möchte meine astronomischen Beobachtungen unbedingt festhalten, sprich als Foto dokumentieren.
Bei der Astrofotografie benötigt man deutlich mehr Technik als für die “nur” visuelle Astronomie.
Technik bedeutet hier: Gerätschaften (meine Geräteliste), Computer-Software (meine Softwareliste) und die zweckmäßige Vorgehensweise (Image Capturing).
Welche Websites können helfen?
Im Internet gibt es viele Quellen, die bei der Astrofotografie helfen können z.B.
Wenn man lange belichtet, muss man evtl. nachführen, um die Erdrotation zu kompensieren.
Wie groß ist das Beobachtungsobjekt?
Das Beobachtungsobjekt muss in das Gesichtsfeld (Field of View = FoV) passen.
Bei der Astrofotografie macht es keinen Sinn von “Vergrößerung” zu sprechen. Das Bild entsteht auf dem elektronischen Sensor und kann dann in verschiedener Größe angezeigt werden. Wir haben ja kein Okular, mit dem wir das Bild betrachten (visuelle Astronomie). Bei Betrachtung durch ein Okular kann man von einer Vergrößerung sprechen und diese berechnen als f1/f2.
Womit kann ich fotografieren?
Zum Fotografieren benötigt man eine bildgebende Optik (Fotoobjektiv oder Teleskop) und einen bildaufnehmenden Sensor (DSLR oder Astro-Kamera CCD/CMOS).
Als Optiken für die Astrofotografie kommen infrage:
Das sog. Auflösungsvermögen eines Teleskops bedeutet, welche kleinen Einzelheiten noch getrennt dargestellt werden können (deswegen auch “Trennschärfe” genannt). Das hängt von der Öffnung des Teleskops ab.
Das Abbild einer punktförmigen Lichtquelle (ein Stern) ist im Teleskop ein Beugungsmuster mit einem Beugungsscheibchen in der Mitte das Maximum.
Der Radius des Beugungsscheibchens, gemessen bis zum ersten Minimum, ist (in Bogensekunden) ist nach George Airy:
(1) α = 1,22 * (λ /D) * 206265 [arcsec]
wobei
206265 = 360 * 60 * 60 / 2π
λ die Wellenlänge des Lichts [nm],
D die Öffnung des Teleskops [mm] ist
Die 1,22 ergibt sich aber als die erste Nullstelle der Besselfunktion (s.u.), die für den Radius des ersten Beugungsminimums zuständig ist.
Zur sich daraus ergebenden Berechnung des Auflösungsvermögens (s.u.) lassen Teleskop-Verkäufer gern den Faktor 1,22 weg, um zu besser aussehenden Werten zu kommen.
Abbildung 1: Ein Beugungsscheibchen (Google Archiv: Diffraction_disc_calculated.jpg)
Beugungsscheibchen (Wikimedia KaiMartin CC BY-SA 3.0)
Auflösungsvermögen: Rayleigh-Kriterium
Die Frage ist nun, wie dicht dürfen zwei solche Beugungscheibchen zueinander stehen, sodass wir sie immer noch als zwei getrennte Objekte erkennen können?
Das sog. Rayleigh-Kriterium besagt, dass der minimale Abstand zweier Lichtpunkte, der noch eine Trennung ermöglicht, dann erreicht ist, wenn der Mittelpunkt des zweiten Lichtpunkts genau im ersten Minimum des Beugungsmusters des ersten Lichtpunkts liegt.
Dieses Rayleikriterium ist physikalisch nicht wirklich begründet. Wenn ich die Lichtpunkte ein klein wenig näher aneinander rücke, wird die Trennbarkeit ja nicht plötzlich aufhören. Aber so Pi mal Daumen passt es schon.
Abbildung 2: Zwei Beugungsscheibchen (Google Drive: Airydisks_rayleigh_sqrt.jpg)
Rayleigh Kriterium – Copyright WikiMedia Geek3 CC BY-SA 3.0
Wenn wir als Lichtwellenlänge λ annehmen 550 nm (grün), ergibt sich als Faktor
1,22 * 550 nm * 206265 = 138403815 nm
und damit folgende (theoretische) Faustformel für den Radius des Beugungsscheibchens und damit (nach Rayleigh) für das Auflösungsvermögen:
(2) Auflösungsvermögen [“] = 138 / D [mm]
Gerechnet mit dieser Faustformel ergibt sich:
Tabelle 1: Auflösungsvermögen
Teleskop
Öffnung in mm
Auflösungsvermögen in “
GuideScope50
50
2,76″
LidlScope
70
1,98″
Orion ED 80/600
80
1,73″
APM APO 107
107
1,29″
Vixen 114/900
114
1,21″
Abtast-Theorem von Nyquist und Shannon
Nun fällt dieses analoge Bild (s.o.) ja auf den Sensor unserer Kamera. Der Sensor besteht aus (diskreten) Pixeln. Der Sensor ist also digital.
Wir haben es also mit der Wandlung eines analogen Signals in ein digitales Signal zu tun.
Die digitale Pixel-Matrix tastet sozusagen das analoge Bild ab.
Hier wird immer gern das Abtast-Theorem (= Sampling Theorem) von Nyquist und Shannon herangezogen. Das sagt, im Prinzip sollte die Abtastfrequenz mindestens 2-mal so groß sein, wie das kleinste Detail im analogen Signal, sprich also wie die Auflösung.
Oft wird die Frage gestellt, welche Pixelgröße die Aufnahmekamera (der Sensor) bei gegebener Teleskopbrennweite haben sollte. Hierzu folgende Betrachtung: Zwei Objekte lassen sich auf dem Sensor nur dann trennen, wenn zwischen ihnen ein weiterer Pixel liegt. Der Abstand dieser Objekte auf dem Sensor-Chip beträgt also das Zweifache der Pixelgröße (2 x p).
Bei der Astrofotografie muss man die absolute Größe des Beugungsscheibchen (von der Optik) in Relation zur Pixelgröße des Sensors setzten. Die absolute Größe des Beugungsscheibchenes hängt dabei von der Brennweite (f) und der Öffnung (D) des Teleskops ab, bzw. bei längerer Belichtung vom Seeing. Das Sternenscheibchen durch Seeing kann je nach Luftunruhe 2″ bis 5″ (FWHM) betragen (Link: https://sternen-surfer.jimdo.com/tipps/pixelgr%C3%B6%C3%9Fe-und-brennweite/).
Um die Durchmesser des Beugungsscheibchens mit der Pixelgröße der Kamera vergleichen zu können, rechnen wir den Winkel (Formel (1) oben) in Länge um,
Also spielt das Öffnungsverhältnis f/D die entscheidende Rolle:
Tabelle 2: Optimale Pixelgröße
Teleskop
Öffnung in mm
Auflösungs-vermögen in “
Brennweite in mm
Radius Beugungs-scheibchen in μ
Optimale Pixelgröße in μ
GuideScope50
50
2,76 “
180
2,42 μ
1,2 μ
LidelScope
70
1,98 “
700
6,71 μ
3,3 μ
Orion ED 80/600
80
1,73 “
600
5,03 μ
2,6 μ
Orion ED 80/510
mit Reducer
80
1,73″
510
4,28 μ
2,1 μ
Orion ED 80/1200
mit Barlowlinse
80
1,73″
1200
10,07 μ
5,0 μ
APM APO 107/700 mit Reducer
107
1,29″
525
3,29 μ
1,6 μ
Vixen 114/900
114
1,21 “
900
5,30 μ
2,6 μ
Seeing FWHM
2,00″
510
4,95 μ
2,5 μ
Oversampling und Undersampling
Die Pixelgröße des Sensors ist so etwas wie die Abtastrate (sampling rate).
Abgetastet wird dabei das Beugungscheibchen.
Bei einer zu hohen Abtastrate (kleine Pixel) spricht man von Oversampling; bei zu geringer Abstatrate (große Pixel) von Undersampling.
Abbildung 4: Tabellenblatt zum Sampling (Google Drive: Oversampling.xls)
Für Deep Sky Astrofotografie führt ein leichtes Undersampling oftmals zu besseren Aufnahmen durch ein besseres Signal-Rausch-Verhältnis und detaillierterer Darstellung als bei Oversampling.
Für Planetenfotografie wird man je nach Teleskop versuchen, in klaren Nächten mit gutem Seeing das Auflösungsvermögen des Teleskops zu nutzen um so eher im Bereich Oversampling zu besseren Aufnahmen zu gelangen als beim Undersampling.
Wie passt die Digitalkamera mit ihrem Sensor und dessen Pixelgröße nun zu dem Teleskop?
Nach dem Nyquist-Shannon-Sampling-Theorem brauche ich einen Abstand von 2 Pixeln (also einen leeren Pixel dazwischen) um zwei Punkte zu unterscheiden. Der Abstand zwischen den Abbildungsscheibchen darf der Radius eines Scheibchens sein. Ist die Pixelgröße (viel) kleiner, spricht man von Oversampling, ist die Pixelgröße größer, spricht man von Undersampling.
Welches Öffungsverhältnis sollte ich anstreben, wenn Öffnung und Pixelgröße gegeben sind?
Mit dieser Fomel kann man auch bei gegebener Pixelgröße und Öffnung die optimale Brennweite d.h. das Öffnungsverhältnis berechnen.
(wenn man als Radius des Beugungsscheibchens die Pixelgröße nimmt)
Die Besselfunktion
Die Beugung an einer kreisrunden Öffnung (Lochblende) wird durch die Besselfunktion erster Art (also J) von der Ordnung 1 (also J1) beschrieben.
Die Intensität ist:
Bei der elektronischen Bildbearbeitung wird man zunächst Techniken anwenden, die auf das ganze Bild wirken, wie z.B. Stacking, Stretchen, Schärfen etc. Bei manchen Objekten möchte man nur Teile eines Fotos bearbeiten. Dazu arbeitet man mit sog. Masken.
Grundlagen für Masken
Masken sind im standardmäßig im Fenster “Ebenen- Kanäle Pfade” (Einblenden über Menü -> Fenster -> Ebenen).
Abbildung 1: Einblenden der Ebenen-Palette (Google Drive: photoshop-ebenen-05.jpg)
Zu einer Ebene kann eine Maske “Ebenenmaske” angelegt werden.
Abbildung 2: Anlegen einer Ebenenmaske (Google Drive: photoshop-ebenen-06.jpg)
Photoshop: Anlegen einer Ebenenmaske
Eine Maske ist ein Graustufenbild.
Wirkung einer Ebenenmaske: Schwarz verdeckt (=schützt) (d.h. 0% Wirkung), Weiß lässt durch (d.h. 100% Wirkung).
Bearbeiten einer Ebenenmaske: Durch “Alt-Klick” auf das Miniaturbild der Maske wird die Maske im Hauptfester angezeigt und kann bearbeitet werden.
Arbeitsschritte zur Erstellung einer Luminanzmaske: (“Work Flow”)
Das Bild als neue Ebene kopieren (damit das Original erhalten bleibt “non-destructive”)
Kontrast erhöhen z.B. durch Menü -> Bild -> Korrekturen -> Helligkeit/Kontrast: Beide auf 100%
Auswahl erstellen z.B. durch Menü -> Auswahl -> Farbbereich
Drop-Down “Auswahl” bleibt auf “Aufgenommene Farben”
Wir klicken mit der Pipette auf den hellen Bereich und sehen das jetzt alles gleich helle selektiert wird.
Mir “Shift-Click” können wir zusätzliche Helligkeitsbereiche zu der Auswahl hinzufügen.
Drop-Down “Auswahl” geht auf “Lichter”
Dann wird ja auch alles Helle selektiert
Durch die Schieberegler “Bereich” und “Toleranz” können wir die Auswahl noch leicht verändern
Nun aus der Auswahl eine Maske machen:
Während die Auswahl aktiv ist (“marching ants”) klicken wir im Ebenen-Fenster auf das Symbol in der unteren Leiste “Ebenenmaske hinzufügen”
Dann die Maske verfeinern:
Alt-Klick auf die Maske
Rechte Maustaste – Im Kontextmeü erscheinen eine eine Reihe von Tools für Ebenenmasken
In diesem Kontext-Menü: Auswählen und Maskieren
Kantenerkennung:
Smart Radius anhaken
Radius vergrößern: Schieberegler nach rechts auf Maximum 250 Px
Globale Verbesserungen
Kante verschieben (Shift Edge)
Weiche Kante (Feather)
Abrunden (Smooth)
Output: Ebenenmaske
Nun den Hintergrund (Sterne etc.) komplett auf Schwarz setzen
Mit dem Lasso-Tool das Objekt vorsichtig umfahren
Auswahl umkehren
Hintergrundfarbe auf Schwarz setzten
Taste “Backspace”: Dies löscht den ausgewählten Bereich (auf die Hintergrundfarbe)
Nun die Maske abspeichern (für weiteren Gebrauch)
Da es sich um eine Ebenenmaske handelt, erscheint diese Maske im “Kanäle”-Fenster
Eine Ebenenmaske ist nur ein temporärer Kanal
Durch Rechts-Klick auf die Maske und im Kontextmenü dann auswählen: “Kanal duplizieren” kann der Kanal (die Maske) permanent gespeichert werden
Luminanzmasken I: Photoshop
26.8.2018
Das Bild laden
Menü -> Fenster -> Kanäle
Den Kanal, der gut ist, auf das Symbol (Rechteck mit Bogen unten links) ziehen ==> Kopie
Den Kanal aufhellen
Tonwertkorrektur: menü Bild -> Korrekturen -> Tonwert
Schattenbereiche aufhellen
OK
Kanal invertieren: Strg-I
Auswahl: Strg-Klick auf kanal auf die Miniaturen
Ebenen RGB
Reiter “Ebenen”
Erstellen Gradationskurve
Menü Fenster -> Korrekturen (die Auswahl wird automatisch als Maske hinzugefügt)
Die Software “Nebulosity” wird von Stark Labs angeboten.
Nebulosity ist eine Aufnahme-Software (Capturing) und unterstützt auch meine DSLR Canon EOS 600D.
Nebulosity ist kostet $95.
Belichtungszeiten länger als 30 Sekunden gehen nur mit einem zusätzlichen Shoestring-Adapter.
Nebulosity hat auch eine Fokussierhilfe.
Ich habe mich für gegen Nebulosity und für die Software APT entschieden. APT ist billiger und kann von sich aus Belichtungszeiten länger als 30 Sekunden.
Allerdings kann man bei einer totalen Mondfinsternis nicht gut auf dem Mond selber fokussieren; denn auf dem Mond selber ist die Beleuchtung direkt “von oben” und die Schattengrenze (Erdschatten) ist sehr diffus. Es empfiehlt sich also, vor der Mondfinsternis auf sichtbare helle Fixsterne zu fokussieren – notfalls auch während der Finsternis..
Aufnahmedaten
ISO 100
Blende 6,8
Belichtungszeiten:
Totalität 5-1 sec,
Partielle Phase: 1 sec für den dunklen Teil, 1/100 für den hellen Teil
Nachbearbeitung der Fotos
Serie von Einzelfotos:
Auswahl einiger weniger Einzelfotos im zeitlichen Abstand von etwa 20 Minuten
Etwas vergrößert, dabei alle Fotos in genau dem gleichen Maßstab vergrößert
Histogramm und Gamma so dass die Einzelfotos ungefähr gleich aussehen
Ergebnis: Meine Fotos vom 27.7.2018 habe ich in einem Google-Fotos-Album zusammengestellt.
Video
Aus den vielen Einzelbildern kann man leicht mit z.B. Microsoft Movie Maker ein Video machen
Allerdings sind trotz Lunar Tracking einige Bildsprünge in der Aufnahmeserie, die über fast 1,5 h Stunden ging
Wenn der Mond am Abend des 07.08.2017 (ein Montag) um 18h 43m aufgeht, ist das Maximum dieser bescheidenen partiellen Finsternis bereits vorbei (18h 21m, 25%). Noch in der hellen bürgerlichen Dämmerung endet die Kernschattenphase (19h 19m). Doch bis dahin bieten sich reizvolle Fotomotive, wenn der “angeknabberte” Mond knapp über dem Horizont in der Gegendämmerung steht, die im angelsächsischen Raum als “Belt of Venus” (Gürtel der Venus) bezeichnet wird. Um in den Genuss dieses Schauspiels zu kommen, benötigen Sie unbedingt einen Standort mit freiem Blick zum Südost-Horizont, denn selbst am Sichtbarkeitsende der Halbschattenphase steht der Mond gerade einmal 10 Grad hoch.
Totale Mondfinsternis am 27.7.2018 (Handeloh)
Die Totale Mondfinsternis am 27.07.2018 gehört zweifelsohne zu den ganz großen astronomischen Ereignissen unserer Zeit. Mit einer Totalitätsdauer von 103 Minuten ist sie die längste totale MoFi des 21. Jahrhunderts.
Meine Meinung: ob die Totalität 5 Minuten länger oder kürzer ist, interessiert mich nicht die Bohne.
Da der Mond in Mitteleuropa während der einleitenden partiellen Phase aufgeht, kann die Totalität am dunkelblauen Dämmerungshimmel in voller Länge verfolgt werden
Das ist ziehmlicher Blödsinn: beim Anfang der Totalität steht der Mond 1 Grad über dem Horizont und der Himmel ist ganz hell
Etwa 6 Grad unterhalb des Roten Mondes steht Mars, der Rote Planet. Wenn ein Planet sich in der Nähe des Vollmonds befindet, dann steht er zwangsläufig in Opposition zur Sonne und erreicht mithin seine maximale Helligkeit. Diese fällt bei Marsoppositionen wegen der stark schwankenden Abstände zur Erde sehr unterschiedlich aus. Am 27.07.2018 haben wir es mit einer außerordentlich günstigen Marsopposition zu tun; der Rote Planet erreicht mit -2.8 mag fast seine größte überhaupt mögliche Helligkeit und übertrifft sogar den Jupiter an Glanz. Da sich das gesamte Geschehen horizontnah in der Dämmerung abspielt, kommen auch Naturfotografen voll auf ihre Kosten.
Astro-Fotografen finden die Horizont-Nähe sehr negativ.
Selbst der Kalender meint es diesmal gut mit den Beobachtern, denn die Jahrhundert-Finsternis findet an einem Freitagabend statt.
Totale Mondfinsternis am 21.01.2019 (Eimsbüttel)
Zur totalen Mondfinsternis habe ich folgende Daten für Hamburg (UTC+1):
04:33:54 Beginn der partiellen Phase, h Mond =32°10′ (h Sonne = -33° 17′ d.h. vor Beginn der astronomischen Dämmerung – also echt dunkel)
05:41:17 Beginn Totalität, h Mond = 22° 30′ ( h Sonne = -23° 15′ d.h. vor Beginn der astronomischen Dämmerung – also echt dunkel)
06:43:15 Ende Totalität, h Mond = 13° 44′ (h Sonne = -14° 10′ d.h. vor Beginn der nautischen Dämmerung – also noch gut dunkel)
07:50:39 Ende der partiellen Phase, h Mond = 4° 38′ (h Sonne = -4° 52′ d.h. in der bürgerliche Dämmerung – also Morgengrauen)
Die Totale Mondfinsternis am Freitag, 14.03.2025, ist auf dem amerikanischen Doppelkontinent in ihrem ganzen Verlauf sichtbar. Bei uns geht der Mond bereits während der einleitenden partiellen Phase unter. Frühaufsteher können die horizontnahe Position des teilweise verfinsterten Mondes für interessante Bildkompositionen nutzen.
Totale Modfinsternis am 07.09.2025
Der Mond geht am 07.09.2025 – ein Sonntag – in Mitteleuropa kurz nach Beginn der totalen Phase der Mondfinsternis auf, wird aber zunächst am noch hellen Himmel wahrscheinlich nicht sichtbar sein. Da es nur sehr allmählich dunkler wird, der Mond immer tiefer in den Kernschatten eindringt und dabei nur wenig Höhe über dem Horizont gewinnt, kann es durchaus sein, dass man ihn erst gegen Ende der totalen Phase erspäht. Die zweite partielle Phase am jetzt dunkelblauen Dämmerungshimmel wird – in einer vielleicht milden Spätsommernacht – reizvolle Fotomotive bieten.
Genau genommen werden Bilder nicht schärfer, sondern es wird der lokale Kontrast an Grenzen erhöht, indem lokal dunkle Pixel noch weiter abgedunkelt und helle Pixel noch weiter aufgehellt werden. Unserem Gehirn wird damit vorgegaukelt, das die Fotos schärfer sind, da die Konturen prägnanter heraustreten.
Die Methode, die hier von den meisten Bildbearbeitungsprogrammen angewendet wird, heißt „Unsharpen Mask“ (=unscharfe Maske). Dieser seltsame Name kommt noch aus den Zeiten der Analogfotografie, da damals tatsächlich eine unscharfe Maske zum Schärfen verwendet wurde.
Da es sich um eine Kontrasterhöhung handelt, kann man es mit dem Bilderschärfen auch übertreiben…
Anwendungsbereiche
Bei Planetenfotos wird man zuerst mit “Lucky Imaging” die Luftunruhe (das schlechte Seeing) überlisten. Das Ergebnis muss dann aber noch häufig etwas geschärft werden; d.h. man möchte die Details noch besser im Foto sichtbar machen…
Voraussetzungen für das Schärfen
Das Bild bzw. der Bildbereich muss ein gutes Signal-Rausch-Verhältnis haben.
Das Bild bzw. der Bildbereich muss “Kanten” zeigen, können dann geschärft werden; d.h. der Kontrast wird lokal erhöht.
Den dunklen Hintergrund mit dem “Magic Wand”-Werkzeug selektieren
Erweitern der Selektion ein bisschen in den Mond hinein: Select -> Modify -> Expand mit ein paar Pixeln in den Mond hinein
Auf gleichem Wege “Feather” die Auswahl mit einem Betrag, der halb so groß ist wie beim “Expand”
Rechts-KLick und die Auswahl als neue Ebene kopieren
Schärfen des restlichen Mondes nach Geschmack (aufpassen: nicht den abgemilderten Rand schärfen). Das geschärfe Bild als Ebene einfügen.
Den abgemilderten Mond als Ebene oberhalb der Ebene des geschärften Mondes legen
Die obere (abgemilderte) Ebene sichtbar machen und mit der Opazität spielen. Sodaß einerseits die geschärften inneren teile sichtbar sind und andererseits ein natürlicher aussehener Rand entsteht.
Wenn man seine Astro-Aufnahmen gemacht hat, beginnt die sog. Bildbearbeitung – dafür braucht man oft ein Vielfaches der Zeit, die man für die eigentlichen Aufnahmen in der Nacht investiert hatte.
Bei Planeten sowie Sonne und Mond macht man meist ein Video oder eine Serie von kurzbelichteten Einzelfotos. Soetwas können wir gut mit Autostakkert bearbeiten und bearbeitet diese nach der Methode “Lucky Imaging”.
Siehe dazu die Youtube-Videos von AstroHardy
Ich habe die Autostakkert Version 3.1.4 (x64)
Lucky Imaging
Das sog. Lucky Imaging bedeutet, dass wir, um die Luftunruhe “Seeing” zu überlisten, sehr viele kurzbelichtete Aufnahmen unseres Beobachtungsobjekts (typisch: Planeten, Mond, Sonne,…) machen und davon dann die zufällig besten “lucky” auswählen…
Die Astro-Spezis machen also Videos z.B. vom Jupiter und benutzen dann eine spezielle Software für “Lucky Imaging”, nämlich AutoStakkert (oder RegiStax).
Erfunden hat das Georg Dittie und seine erste Software dafür war Giotto.
Nachdem man die besten Einzelaufnahmen “lucky” zu einem Summenbild “gestackt” hat, ist der nachste Schritt das Schärfen. AutoStakkert selbst bietet eine rudimentäre Schärfungsfunktion, die aber typisch nur zur optischen Kontrolle der Summenbilder eingesetzt wird. Die Astro-Spezis verwenden zum Schärfen gerne die kostenlose Software RegiStax.
Erste Schritte mit Autostakkert
Wenn man Autostakkert startet, öffnen sich zwei Fenster: ein Hauptfenster und ein Nebenfenster in welchem man die Aufnahme sieht.
AutoStakkert unterstützt eine sog. Multi-Punkt-Ausrichtung d.h. die einzelnen Fotos bzw. Frames des Videos werden so übereinander gelegt, dass nicht nur ein Punkt sondern mehrere Punkte zur Deckung gebracht werden.
Ich habe am 10.3.2017 mit meinem iPhone ein Mond-Video aufgenommen. Dies habe ich dann mit AutoStakkert wie folgt bearbeitet:
Programm aufrufen: Hauptfenster und Nebenfenster von Autostakkert erscheinen
Schaltfläche “1) Open“: AVI-Video bzw. Foto-Sequenz laden
Im Nebenfenster “Frame View” erscheint nun der erste Frame des Videos (bzw. das erste Foto der Serie)
Bei Image Stabilization (unterhalb der Schaltfläche “Open”). wählen wir “Surface” oder “Planet”
Wenn ganzes Objekt, dann “Planet” – Autostakkert zentriert dann auf das ganze Objekt
Wenn nur Teil der Oberfläche eines Objekts “Surface” (typisch bei Sonne oder Mond)
Falls “Surface” dann erscheint im Nebenfenster auf dem ersten Bild ein kleines Quadrat, was Autostakkert zum Vorzentrieren benutzen will (denn wir haben ja keine ganze Planetenscheibe im Bild). Diesen sog. Image Stabilization Anchor können wir auf ein Bilddetail verschieben, das auf allen Einzelbildern gut zu sehen ist. Auf den von uns gewünschten Bildpunkt klicken wir mit der Maus und drücken gleichzeitig die Strg-Taste.
Im Nebenfenster sollte man jetzt ggf. noch die Bildgröße reduzieren, um die Rechenzeit zu vermindern.
Schaltfläche “2) Analyse”
Nun macht Autostakkert die Vorzentrierung (“Surface Image Stabilization”) und anschließend die “Image Analysis”
“Image Analysis” bedeutet, dass die Frames nach Qualität sortiert werden.
Parameter setzen: Prozentsatz der “guten” bestimmen und eingeben ( s.u. Frame Percentage)
Alignment Points (AP) setzen (s.u.)
Schaltfläche “3) Stack”
Solange noch keine APs gesetzt sind, ist die Schaltfläche “Stack” ausgegraut
Wenn “Stack” nicht mehr ausgegraut ist, kann man durch Maus-Klick den Prozess “Stack” starten und während “Stack” arbeitet ist die Schaltfläche wieder ausgegraut.
Wann ist der Prozess “Stack” fertig? Das kann man nach Stunden daran sehen, dass die Schaltfläche “Stack” nicht mehr ausgegraut ist. Also: Geduld!
Welche Ergebnis-Bilder gibt es wo? (s.u.: Egebnis-Bilder)
Setzen der “Frame Percentage”
Abbildung 1: AutoStakkert: Wählen der sog. “Frame Percentage” vor dem “Stack” (vorher müssen noch die “Alignment Points” gesetzt werden) (Google Drive: AutoStakkert-01.jpg)
AutoStakkert produziert so zwei Bilder als Ergebnis: Ein geschärftes (“Sharpened”) und ein ungeschärftes. Wir werden das ungeschärfte Bild nehmen und dieses dann in einer anderen Software richtig schön schärfen. Das von AutoStakkert geschärfte Bild benutzen wir nur zur ersten visuellen Beurteilung unserer Fotos.
Zum separaten Schärfen verwenden wir gerne die Software “RegiStax” mit den dort unterstützten feinen Wavelet-Filtern.
Möglichkeiten zur Video-Konversion
Als Eingabe für Autostakkert benötigt man Video-Dateien im Format AVI uncompressed oder eine Serie von Einzelbildern z.B. eine Serie von FITS-Dateien.
Heutige Digitalkameras erstellen häufig Videoformate MP4 oder MOV. Solche Videos müssen wir also konvertieren.
Zu den verschiedenen Möglichkeiten der Konversion, siehe weiter unten.
Als Beispiel haben wir ein Video im MP4-Format: Saturn_Original.mp4. Dieses wollen wir in AVI uncompressed konvertieren. Früher hatte ich dafür ein Utility namens “SUPER” verwendet, was ich aber zur Zeit nicht mehr zur Verfügung habe.
Umgehung Nr. 1
Als erste ganz einfache Idee versuche ich:
zuerst mit MediaCoder in ein schönes AVI konvertieren (Container=AVI, Video Format = Copy Video, Audio=Enabled=No)
und dieses dann mit VirtualDub “uncompressed” abspeichern –
Dadurch werden die Dateien sehr viel größer als im Original. Autostakkert kann so große Dateien (> 4 GB) nicht verarbeiten.
Auswählen Version für: Windows, 32-Bit oder 64-Bit, Static
Aus dem ZIP-File ffmpeg-20180831-3ad0e67-win64-static.zip ffmpeg.exe kopieren…
Abbildung 3: FFmpeg für AutoStakkert installieren (Google Drive: autostakkert-04.jpg)
…in den Autostakkert-Ordner (bei mir: C:/bin/AutoStakkert, bzw. C:/bin/AutoStakkert )
Abbildung 4: Der Ordner Autostakkert mit FFmpeg (Google Drive: Autostakkert-03.jpg)
Wenn ich nun Autostakkert aufrufe und das MP4-Video (odr auch MOV-Video) öffne, startet die Konversion des Videos tatsächlich automatisch. Das konvertierte Video kann dann sehr groß werden (weil uncompressed) d.h. der Ausgabe-Ordner muss genügend freien Speicherplatz haben. Als Ausgabe-Ordner nimmt Autostakkert immmer den selben Ordner wie für die Eingabe. An den Original-Dateinamen hängt die Konversion “.avi” an.
Im Testfall wird das Ausgabe-Video größer als 4 Gigabyte und Autostatkkert kann das nicht verarbeiten.
Zu Nr. 3: Konversion mit PIPP
Wenn AutoStakkert ein Video nicht lesen will, wird als Abhilfe auch die Konversion des Videos mit der Software PIPP empfohlen. PIPP steht für “Planetary Imaging PreProcessor”.
Mit PIPP bekommen wir eine kleinere Ausgabedatei, wenn wir im Reiter “Processing Options” “Enable Cropping” anhaken.
Abbildung 9: PIPP Do Processing (Google Drive: pipp-05.jpg)
PIPP Do Processing
Konversion mit MediaCoder
Laut MediaCoder hat die Video-Datei Saturn_Original.mp4 folgendes Format:
Container: MP4 = MPEG-4
Video-Codec: AVC1
Bitrate: 2411 kbps
Resolution: 1920 x 1080
Framerate: 30 FPS
Wir konvertieren dies mit MediaCoder in das Video-Format:
Container: AVI
Video-Stream
Codec: H.264 / x.264
Bitrate: 2500 kbps
Audio-Stream
egal, aber nicht VBR
VitualDub kann das erzeugte Video noch nicht lesen, weil VirtualDub kein Codec für x.264 von sich aus hat – und der gute alte VirtualDub benötigt ein VfW-Codec für x.264.
(Autostakkert kann auch MOV-Formate ohne vorherige Konversion als Input verarbeiten, wenn FFmpeg vorher installiert wurde. FFmpeg kann man z.B. bei Heise downloaden.)
Wavelet-Filter zum Schärfen und zur Rauschunterdrückung mit RegiStax
Wavelet-Filter spielen eine wichtige Rolle beim sog. Post Processing von Astrofotos.
Mit einem Wavelet-Filter kann man auf der einen Seite ein Bild schärfen und gleichzeitig das (durch das Schärfen verstärkte) Rauschen und andere “Schärfungsartefakte” unterdrücken.
Im Vordergrund steht das Schärfen. Das braucht man z.B. bei Planetenbildern, Mondbildern u.ä. Durch das Schärfen wird häufig das Rauschen erhöht, weshalb man das im gleichen Arbeitsgang gleich mitbeseitigt.
Update 2023
Die Software Registax wird vom Autor Cor Berrevoets nicht mehr aktiv weiterentwickelt. Er hat aber in 2023 eine neue Software namens “waveSharp” entwickelt.
Wavelets in Registax
Eine kostenlose Software, die Wavelet-Filter gut unterstützt ist RegiStax.
Wenn man garnicht Schärfen will, sondern nur das Rauschen reduzieren will, gibt es andere, einfachere Möglichkeiten.
Der Wavelet Filter bei RegiStax bietet folgendes Bild:
Eine der grundsätzlichen Einstellungen für die Wavelet-Filter ist “Default” oder “Gaussian“. Wir arbeiten immer mit “Gaussian”, da werden die Wavelets mit einer Gauss’schen Glockenkurve gebildet.
Der Wavelet-Filter hat verschiedene Ebenen Im Bild: Layer 1 bis Layer 6. Ich weiss leider nicht, was diese Ebenen bedeuten.
RegiStax bietet zwei Waveletschemas an.
Linear bedeutet, dass die Filterbreite von Ebene zu Ebene linear zunimmt.
Bei Dyadic nimmt die Filterbreite in einer geometrischen Reihe zu, d.h. sie verdoppelt sich von Ebene zu Ebene.
Diese Einstellung ist besonders bei der Bearbeitung von DeepSky-Objekten wie Nebeln vorteilhaft.
Im Falle der Einstellung “Gaussian” sind die Wavelet-Filter der sechs Ebenen (Layer) unabhängig von einander.
Für jeden Layer kann man einstellen:
Wert (Größe? Durchmesser?) für “Denoise”
Wert (Größe? Durchmesser?) für “Sharpen”
Häckchen setzen für Layer anzeigen/Layer nicht anzeigen
Schieberegler zur Einstellung der Stärke der Filter auf einer Ebene (Layer). Zahlenmäßig wird das als Wert “Preview” ganz rechts angezeigt.
Es wird gesagt, dass das Schärfen in den verschiedenen Layern verschieden große Details im Bild hervorherheben soll. Parallel dazu kann auch das Rauschen hervorgehoben bzw. unterdrückt werden.
“Größe” der Filter
Nun besteht das Rauschen aus Bilddetails in der Größe von einzelnen Pixeln; aber die Schärfung bezieht sich auf Bilddetails, die in der Regel mindestens zwei Pixel groß sind (Nyström).
Die Ideen ist nun, das Schärfen auf den Ebenen 2, 3, 4, 5 und 6 vorzunehmen und das Rauschen auf Ebene 1 zu unterdrücken. Dazu muss man die Ebenen so einstellen, dass auf Ebene 1 die Filter auf Pixelgröße arbeiten (Rauschen) und die Filter auf den Ebenen 2 ff. auf größere Details (Schärfen) ansprechen.
Ein “Kochrezept” für Wavelets bei Registax
Von Astro-Hardy gibt es ein gutes Youtube-Video zu diesem Thema:
Dieses Youtube-Video benutzt als Beispiel ein Foto vom Jupiter – bei anderen Fotos könnten die Einstellungen ganz andere sein.
Wir stellen auf der linken Seite den Radio-Button “Wavelet Filter” von “Default” auf “Gaussian” um. Dann bekommen wir darunter zwei Spalten mit den Überschriften “”Denoise” und “Sharpen”.
Unter “Use Linked Wavelets” setzt man ein Häckchen, dann wirken die darunter stehenden Layer additiv, was gute Ergebnisse liefert aber auch große Vorsicht erfordert…
In der rechten Spalte (d.h. Überschrift “Sharpen”) ist als Voreinstellung für die Werte auf allen Layers 0,1 eingetragen. Wir stellen als Werte ein:
Layer 1: Wert 0,07 oder 0,08 (Auf diesem Layer wollen wir nicht Schärfen, sondern eigentlich nur das Rauschen bekämpfen.
Der Wert muss so klein gewählt werden, dass auf diesem Layer nur entrauscht und nicht geschärft wird.
Das kann je nach Bild leicht unterschiedlich werden…)
Layer 2: Wert 0,1 (das ist der voreingestellte Standardwert)
Layer 3: Wert ,12
Layer 4: Wert 0,14
Layer 5: Wert 0,16
…
Mit den obigen Einstellungen passiert ersteinmal noch garnichts – wir haben ja hiermit nur die Filtergrößen eingestellt.
Erst mit den Schieberglern stellen wir die Stärke der Filter (Schärfungsfilter) auf den einzelnen Ebenen ein.
In der linken Spalte (d.h. Überschrift “Denoise”) sind als Voreinstellung für die Werte Nullen eingetragen. Das lassen wir so wie es ist. Also haben wir die Werte:
Layer 1: Wert 0
Layer 2: Wert 0
Layer 3: Wert 0
Layer 4: Wert 0
Layer 5: Wert 0
…
Nun kommen wir zu den Schiebereglern. Auf jeder Ebene (Layer) gibt es Schieberegler, die die Stärke der Filter (Denoise und Sharpen) auf dieser Ebene einstellen.
Als Voreinstellung stehen die Schiebergler alle sehr weit links auf einem Wert von 1, diese Zahl wird auch rechts vom Schiebergler in Feld “Preview” angezeigt. Wenn wir einen Schieberegler ganz nach rechts schieben, steigt der Wert im Feld Preview auf 100. Wenn wir einen Schieberegler jedoch nach links bewegen, bekommen wir kleinere Werte (kleiner 1) angezeigt.
Da wir nur Schärfung (Sharpen) und nicht Entrauschen (Denoise) in den Filtergrößen eingestellt haben, beeinflussen wir mit den Schiebereglern also nur das Schärfen. Zum Entrauschen kommen wir später.
Layer 1: Schieberegler noch so lassen (auf dieser Ebene wollen wir ja später entrauschen)
Layer 2: Schieberegler ganz viel nach rechts (90% oder so)
Layer 3: Schieberegler so ungefähr auf 20%
Layer 4: Schieberegler so bei 10%
…
Wir können die Regler der Layer 2-3-4 immer ein bisschen weiter aufdrehen (nach rechts), bis das Rauschen hässlich wird – was nicht so schrecklich ist, denn wir werden das Rauschen ja gleich bekämpfen.
Immer wenn durch das obige Aufdrehen eines Schiebereglers ein starkes Rauschen erscheint, sollten wir gleich zum Punkt “Entrauschen” (unten) gehen und vorsichtig entrauschen. So werden wir zwischen Schärfen auf einer Ebene und Entrauschen hin- und her gehen und dann vielleicht die nächste Ebene schärfen usw.
Durch das Schärfen kommt natürlich das Rauschen wieder hoch; das ist aber kein Drama, denn das Rauschen bekämpfen wir auch noch s. unten. Letztlich müssen wir eine Balance zwschichen guter Schärfung und vernünftigem Entrauschen finden.
Die Qualität seines Ergebnisses kann man zwischendurch durch die Function (rechts) “View Zoom” optisch beurteilen…
Das Entrauschen machen wir auf Layer 1.
Auf Layer 1 erhöhen wir die Größe des Rauschfilters so lange bis das Rauschen (fast ganz) verschwunden ist.
Iterativ abwechselnd mit dem Schärfen je Ebene beispielsweise:
Nach Schärfen auf Ebene 2: Größe des Rauschfilters (d.h. Ebene 1) = 0,35
Nach Schärfen auf Ebene 3: Größe des Rauschfilters (d.h. Ebene 1) = 0,50
…
Die Stärke unseres Rauschfilters (Layer 1) können wir auch durch den Schieberegler auf Layer 1 fein einstellen.
Wenn am Ende ein zufriedenstellendes Ergebnis erreicht ist. drückt man in der dicken oberen Leiste auf “Do All” um die Wavelets auf das ganze Bild anzuwenden und schießlich “Save Image” um das Bild abzuspeichern.
Besonders bei der Astrofotografie fällt es unangenehm auf, wenn bei einem mühsam erarbeiteteten Foto die Scharfstellung (Fokussierung) nicht hundertprozentig ist.
Es gibt ja mehrere Methoden, wie man den genauen Fokuspunkt findet; z.B. Live View mit Bildschirmlupe, Hartmann-Maske, Bahtinov-Maske. Es bleibt aber das Problem, dass jede Berührung des Einstellrades am Okularauszug (OAZ) das Teleskop ein wenig (oder mehr) zum Wackeln bringt. Um dieses Wackeln zu vermeiden, gibt es Motoren, die man am Stellrad des OAZ befestigt…
Einfache Lösung: Live View
Mit der Canon EOS 600DA: Einen hellen Stern ins Gesichtsfeld einstellen – zum Finden eines solchen Sterns muss der Sucher vorher gut justiert werden. Fokussieren im Live View z.B. mit APT. Dabei sollte man das Live-View-Bild elektronisch 10-fach vergrößern.
Mit der ZWO ASI294MC Pro bekomme das Bild ja ausschließlich per Software auf meinem Computer. Bei der Software APT bekomme ich kein richtiges “Live View”. Aber die Software SharpCap liefert ein akzeptables “Life View”, was man auch vergrößern kann.
Warum Motor-Fokus?
Erstens ist es eine komfortable Lösung zum feinfühligen Fokusieren (s.u.).
Zweitens brauche ich einen ASCOM-fähigen Motor-Fokussierer wenn ich mein Teleskop Remote steuern will.
Komfortable Lösung: Motor-Fokus
Eine Motor-Fokus-Lösung besteht aus einem Motor (Schrittmotor oder Gleichstrommotor), dessen Drehachse irgendwie an die Drehachse des OAZ (Okularauszug) gekoppelt wird, sowie einer Steuerbox (Controller) die manuelles Betätigen des Motors erlaubt bzw. auch mit dem Computer verbunden werden kann und dann per ASCOM gesteuert werden kann. Contine reading →
Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.
In vielen Fällen sind längere Belichtungszeiten sinnvoll, sodass man sich mit der Kunst der Nachführung auseinandersetzen muss; wobei die Lichtverschmutzung der Belichtungszeit auch Grenzen setzen wird.
Die Ausbeute an Bildern einer Astro-Nacht wird man tags darauf sichten, speichern und bearbeiten (“stacking” und “post processing”) müssen; d.h. wir können dann verschiedene Funktionen und Techniken der elektronischen Bildverarbeitung anwenden.
Generelles
Farbtiefe – 8 Bit – 16 Bit – 32 Bit
Wenn eine Kamera das Signal nur mit 8 Bit digitalisiert, wären das 2 hoch 8 = 256 verschiedene Stufen. Das ist sehr wenig. Bei einer Digitalisierung von 16 Bit hätte man 2 hoch 16 = 65536 verschiedene Stufen. Das wäre sehr viel besser, um die Feinheiten eines Astro-Fotos darzustellen.
Das JPEG-Format hat leider nur 8 Bit; es ist also sehr zu raten, die Kamera so einzustellen dass die Bilder im RAW-Format abgespeichert werden; dann ist die Farbtiefe z.B. bei der Canon EOS 600D schon 14 Bit (also 2 hoch 14 = 16385 Stufen). Das ist in jedem Fall besser als JPEG.
Wenn ich ein Bild per Software bearbeite, sollte in den einzelnen Bearbeitungsschritten keine Information verloren gehen; daher sollten Bildverarbeitungsprogramme mindestens 16 Bit unterstützen – besser noch 32 Bit (4294967296 Stufen). Wenn das Bild am Ende der Bearbeitung in 16 Bit gespeichert wird, ist das schon OK.
Aufnehmen von Planeten vs. Deep Sky Objekten (“DSOs”)
Grundsätzlich wird man unterschiedliche Anforderungen an die Astrofotografie haben bei
Nebel und Galaxien (sog. “Deep Sky Objekte” = “DSO”) –> Aufnahme mit Software APT oder N.I.N.A.
Bei ersterem (Mond, Planeten, Sonne) geht es eher um Detailverstärkung ( = Schärfen) evtl. auch um Kontrastreduzierung
Bei letzterem (Nebel und Galaxien) wird man nach einer Kontrastvertärkung (durch Stretchen und eine S-Kurve) besonders das Rauschen wieder unterdrücken wollen und vielleicht in Teilbereichen (dazu brauchen wir Masken) feine Strukturen besser herausarbeiten wollen.
Funktionen der Bildbearbeitung für Planeten
Da die Objekte eigentlich hell sind aber klein, wird ein Öffnungsverhältnis von f/20 empfohlen. Die kleinsten Details sollen 2 Pixel groß sein. Wenn die Pixel ganz klein sind, käme man auch mit f/10 oder so aus.
Bei Planeten und Mond ist ganz besonders die Luftunruhe (das sog. “Seeing“) ein Hauptproblem.
Die gängige Technik gegen schlechtes Seeing ist das sog. “Lucky Imaging“, wobei man ein Video aufnimmt (also viele Einzelbilder mit kurzer Belichtungszeit) und dann später aus dem Video diejenigen Einzelaufnahmen “Frames” benutzt, die am wenigsten durch schlechtes Seeing (Luftunruhe) beeinträchtigt sind.
Beliebte Software für dieses Lucky Imaging ist AutoStakkert. Auch Registax könnte man dafür nehmen.
Pionier auf diesem Gebiet war Georg Dittie mit seiner bahnbrechenden Software Giotto (Version 1.0 im Jahre 2000).
Nachdem man dem schlechten Seeing soweit ein Schnäppchen geschlagen hat, wird man das Bild dann häufig noch etwas Schärfen wollen.
Funktionen der Bildbearbeitung für DSOs
Ich bin durch Videos von Nico Carver auf Youtube darauf gekommen, mal etwas ausführlicher die Vorgehensweise (Workflow) bei meiner DSO-Astro-Fotografie zu beschreiben.
1. Stacking – Summenbild – Signal Noise Ratio (SNR)
Bei der Astrofotografie von DSOs macht man viele Einzelaufnahmen (“Frames”, “Sub-Exposures”), die man dann “Stacken” muss.
Die Summe der Einzelbelichtungszeiten addiert sich dann zur Gesamtzeit, der sog. Integrationszeit. Effektiv erhält man also eine längere Belichtungszeit. Das ist hilfreich z.B. wenn:
Ich nur kurze Zeit nachführen kann, aber eigentlich eine längere Belichtungszeit benötige
die Himmelshelligkeit die maximale Belichtungszeit für eine Einzelaufnahme begrenzt
Eine längere Belichtungszeit erhöht vordergründig das Lichtsammelvermögen (durch Addition). Tatsächlich ist es aber das Signal-Rauschverhältnis (Signal Noise Ratio =SNR) was verbessert wird, weil das Rauschen stochastisch ist und damit “weggemittelt” werden kann.
Zusätzlich zu den eigentlichen Einzelbildern des Beobachtungsobjekts (den sog. Light Frames) nimmt man zur Optimierung und Korrektur noch sog. Kalibrierungsbilder auf: Dark Frames, Flat Frames und Bias Frames, welche alle von der Stacking-Software zu einem Summenbild verarbeitet werden.
Nach dem Stacking hat man oft einen kleinen schwarzen Rand um das Bild, weil vielleicht eine kleine Verschiebung der Bilder mit im Spiel war. Diesen kleine Rand sollten wir abschneiden, da er nicht zum “Nutzsignal” gehört und z.B. das Histogramm auf der linken Seite verfälscht.
Sehr einfach kann man das mit der kostenlosen Software Fitswork machen oder auch mit Photoshop. (Werkzeug “Crop”)
3. Farbkorrektur / Color Calibration
Wenn das Histogramm unterschiedliche Spitzen für die Farbkanäle (Rot, Grün oder Gelb) anzeigt, kann man diese zur Deckung bringen und so grobe Farbstiche korrigieren.
Das kann man sehr einfach mit der Software Fitswork machen.
Bei der Farbkalibrierung kommt es darauf an, was man als Bezugspunkt nimmt. Als Bezugspunkt nimmt man im einfachsten Fall eine “neutrale” Stelle im Hintergrund. Der Hintergrund selbst könnte aber schon verfälscht sein. Die bessere Farbkalibrierung geht deswegen vom sog. B-V-Index der Sterne aus, das kann entweder ein manuell im Bild identifizierter Stern sein, dessen B-V-Index man kennt oder man identifiziert die Sterne im Bild durch Plate Solving und holt sich dazu die B-V-Indices als Sternkatalogen herunter. Software mit sog. “astrometrischer” Farbkalibrierung; d.h. über Platesolving und B-V-Indices:
Das gestackte Farb-Bild muss zunächst farblich bearbeitet werden (so etwas wie Farbkalibrierung) und dann können wir den Hintergrund (d.h. die Lichtverschmutzung und ggf. Gradienten) entfernen.
Mit Adobe Photoshop geht das so:
Um genau zu sehen, was wir da machen, zeigen wir erst einmal das Histogramm mit den RGB-Kanälen an. Voraussetzung für die Farbkalibrierung ist, das alle drei Farbkanäle im Histogramm gut vom linken Rand abgelöst sind (also: lange genug belichten).
Dann stretchen wir die einzelnen RGB-Farbkanäle so, dass sie alle in etwa gleich breit sind und an der gleichen Stelle im Histogramm stehen (abgelöst vom linken Rand). Das machen wir in Adobe Photoshop mit dem Befehl “Bild (Image) -> Korrekturen (Adjustments) -> Tonwertkorrektur (Levels)” aussehen.
Ausschnitt: Croppen und nochmals Farben korrigieren
Im ganzen Bild können jetzt sehr hässliche Gradienten erscheinen. Wenn wir nun den interessanten Bildausschnitt “croppen”, werden die Gradienten weniger werden und auch die Vignettierung wird weniger schlimm. Durch das “croppen” werden sich die RGB-Kanäle im Histogramm wieder verändern. Wir müssen erneut durch Levels die RGB-Kanäle anpassen (wie oben).
Hintergrund extrahieren
Das so erzielte Bild können wir nun benutzen, um den Hintergrund zu extrahieren und dann abzuziehen. Das geht so:
Kopieren des gegenwärtigen Fotos als separates Foto: Select All, Edit Copy, File New, Edit Paste. Somit haben wir ein neues Foto, dass wir auf den Hintergrund reduzieren können.
Nun bearbeiten wir dieses neue Foto so, dass die Sterne entfernt werden und nur noch der Hintergrund sichtbar ist. Das geht in Adobe Photoshop mit: Filter -> Noise -> Dust & Scratches. Dabei nehmen wir als Radius 128 und als Threshold 0. In der Mitte des Bildes ist durch das Objekt noch eine leichte Aufhellung vorhanden, die wir aber gleich separat entfernen. Das machen wir mit dem Klone Stamp Tool (Opacity 85%) auf Taste “Alt” drücken, um einen kleinen repräsentativen Bereich aufzunehmen und diesen dann mit einigen Klicks über dem Objekt bringen, um dieses auszublenden.
Wenn das noch nicht schön glatt aussieht, können wir noch den Filter “Gaussian Blur” mit einem großen Radius (z.B. 160) darüber laufen lassen. Nun haben wir ein schönes weiches Bild von unserem Hintergrund. Dieses Bild vom Hintergrund müssen wir nun abspeichern: File -> Save As…
Hintergrund abziehen:
Nun zurück zum eigentlichen Foto. Dort wollen wir nun von unserem Foto den Hintergrund (also: Lichtverschmutzung, Gradienten, Vignettierung) abziehen.
Zur Sicherheit machen wir im eigentlichen Foto eine Kopie als Layer
Dann gehen wir auf “Image -> Apply Image”
Dabei müssen wir als “Source” das zweite Bild (das mit dem geglätteten Hintergrund) angeben.
Und den “Blending Mode” müssen wir auf “Subtract” umstellen.
Dann setzten wir “Scale” auf 1 (Empfehlung von Nico Carver)
und “Offset” zwischen 30 und 100 z.B. auf 60 ( Null ergibt ein sehr dunkles Bild, 200 ein sehr helles Bild). IM Zweifelsfall sollte das Bild ruhig etwas heller (grauer) als was als schön empfunden wird eingestellt werden. Es ist ja “nur” ein Zwischenschritt wobei hier keine Details verloren gehen sollten.
Nun lösen wir die Subtraktion aus durch die Schaltfläche “OK”
Wir kontrollieren nocheinmal die RGB-Farben im Histogramm (“Levels”); ggf. machen wir kleine Anpassungen
Dann setzen wir den Blacklevel im RGB-Histogramm (linker Schieber) leicht an den Beginn des Gebirges heran.
Fertig
Luminanzmaske
Mit einer Luminanzmaske kann man selektiv “Vordergrund” und “Hintergrund” unterschiedlich bearbeiten.
Z.B. einerseits die Farbsättigung und Helligkeiten der Sterne und des Objekts “hochziehen” ohne das der Background noch schrecklicher wird; andererseits, wenn man sie invertiert, gerade beim Background die Farben “Entsättigen”, ohne den “Vordergrund” zu beeinträchtigen.
Wie erstellen wir zu unserem Bild nun in Adobe Photoshop eine Luminanzmaske?
Wir duplizieren den Layer (Ebene) nochmals (Ctrl J)
Umwandeln in Graustufen: Image -> Adjustments -> Black & White -> OK
Agressiv die Grautöne abstufen, bis der Hintergrund ganz schwarz ist und die Sterne und die Galaxis ganz weiss sind.
Nun können wir dieses Bild als Maske verwenden.
Wir fügen zur obersten Ebene einen “Adjustment Layer” hinzu und zwar “Hue/Saturation”. Dadurch entsteht im obersten Layer eine Maske, die aber ganz weiss ist.
5. Vignettierung entfernen
Sehr einfach kann man eine Vignettierung mit der kostenlosen Software Fitswork entfernen.
Der Bildhintergrund sollte im Idealfall einen gleichmäßig dunklen Himmel zeigen. Wenn es da aber einen Helligkeitsverlauf gibt (z.B. oben dunkler, unten heller), spricht man von einem Gradienten (Farbverlauf).
Mit Fitswork lässt sich so ein Gradient relativ leicht entfernen.
Wenn der Helligkeitsverlauf im Himmelshintergrund etwas komplexer ist, reicht es nicht aus mit Gradienten zu arbeiten. Dann ist eine sog. “Background Extraction” angezeigt. Auch das kann oft ganz leicht mit der Software Fitswork gemacht werden.
Die Bearbeitung des Histogramms kann durch Software wie Fitswork, GIMP, Photoshop o.ä. erfolgen. Wichtig ist, dass die Software dafür eine 16 Bit Digitalisierung benutzt.
Der Sensor einer Digitalkamera hat eine gut lineare Charakteristik d.h. wenn doppelt soviele Photonen eintreffen, werden doppelt so viele Elektronen erzeugt. Wenn man nun das Histogramm bearbeitet, unterscheidet man zwischen linearem Stretching und nicht-linerarem Stretching. Solange die Linearität erhalten bleibt sind wissenschaftliche Auswertungen möglich, wenn nicht-linear gearbeitet wird, kommen wir in den Bereich der “Pretty Pictures“.
Alles, was man im Histogramm manipuliert, kann auch mit einer Manipulation der Gradationskurve erreichen.
Der linke Regler beim Histogramm setzt “fast schwarze” Pixel auf “ganz schwarz”; d.h. es wird links abgeschnitten (“geclippt”).
Der rechte Regler schneidet die ganz hellen Pixel ab, sodass das verbleibende Bild heller und kontrastreicher wird. Gravierender Nachteil ist, dass im Bereich der helleren Sterne Information verloren geht; man sieht ein “Ausblühen” der Sterne. Im Normalfall muss der rechte Regler also völlig Tabu sein.
Der mittlere Regler beim Histogramm ist etwas dubios. Man kann damit die Gradationskurve anheben oder absenken.
Wenn man nur diesen mittleren Regler bewegt (und nicht den linken und nicht den rechten), dann sieht man, dass dadurch die Gradationskurve genau in der Mitte angehoben (Fitswork: Regler nach rechts) oder abgesenkt (Fitswork: Regler nach links) wird.
Experten empfehlen folgende Vorgehensweise:
Linken Regler nach rechts an das “Gebirge” vorsichtig heranfahren (Achtung: nichts abschneiden)
Rechten Regler so lassen, wie er ist.
Mittleren Regler etwas “aufdrehen” (Fitswork: nach rechts) so etwa in den rechten Anfang des “Gebirges” fahren
Abspeichern
Punkte 1-2-3 wiederholen, ggf. mehrfach…
8. Kontrastverstärkung – Gamma-Kurve
Am Anfang liefert unsere Kamera eine lineare Kontrastkurve. Kontrastverstärkung kann durch eine leichte S-Kurve im “Curves Tool” (Adobe Photoshop) erfolgen.
Rauschfilterung wird auch als “Glätten” (z.B. bei Fitswork) oder auch als “Weichzeichner” bezeichnet.
Das Rauschen bedeutet Helligkeitsunterschiede in Flächen, die eigentlich einfarbig sein sollten, und ist in dunklen Bereichen meist am deutlichsten wahrnehmbar.
Bildrauschen entsteht, wenn das Licht nicht ausreicht, um das Bild ausreichend zu belichten.
Man kann dann den sogenannten ISO-Wert erhöhen. Dieser hellt das Bild auf, verursacht aber seinerseits auch Bildrauschen.
Deep Sky Objekte (DSO)
Bei Deep-Sky-Aufnahmen ist es ja eigentlich immer so, dass “das Licht nicht ausreicht” – man hat also immer irgendwie mit “Rauschen” zu tun.
Allerdings wird man sich bei DSOs als erstes mal mit dem Stretchen beschäftigen, um mehr Detail aus den lichtschwachen Objekten herauszubekommen (was hat Stretchen mit dem Begriff “Kontrastverstärkung” zu tun? Mir hat das noch keiner erklärt.).
Durch das Stretchen hat man auch das Rauschen verstärkt, was man im zweiten Schritt dann “entfernen” oder Reduzieren möchte.
Ich habe das in einem ersten Anlauf mal mit Adobe Photoshop versucht:
Ein DSO-Bild nach dem Stacken und Stretchen als 16-Bit in Photoshop geladen
Dann: Menüleiste –> Filter –> Camera Raw-Filter…
Bei den “Grundeinstellungen” auf das dritte Symbol von links (zwei Dreiecke) klicken
Dort gibt es “Schärfen” und Rauschreduzierung”. Schärfen will ich nicht;
bei Rauschreduzierung drehe ich den Luminanz-Schieber sehr weit nach rechts. Das bewirkt eine starke Rauschreduzierung
Luminanzdetails bedeutet, welcher welcher Luminanzbereich von der Rauschreduzierung verschont bleiben soll. Den stelle ich auf Null, weil ich die volle Wirkung der Rauschreduzierung sehen möchte.
In einem Dialogfeld mit Miniaturansicht nehmen Sie Ihre Einstellungen mithilfe von Schiebereglern oder der Eingabe von Werten vor. Dabei haben Sie folgende Optionen:
“Stärke”: Sie reduzieren das Luminanzrauschen gleichzeitig auf den drei Bildkanälen “Rot”, “Blau” und “Grün”.
“Details erhalten”: Sie können möglichst viele Bilddetails und Kanten bewahren. Je höher dabei der Wert eingestellt wird, umso mehr Details bleiben erhalten.
“Farbrauschen reduzieren”: Mit diesem Regler passen Sie das chromatische Rauschen an.
“Details scharfzeichnen”: Durch die Rauschreduzierung treten Schärfeverluste auf, die Sie hier anpassen können.
Wenn Sie die Checkbox “JPEG-Artefakt entfernen” aktivieren, versucht Photoshop, pixelige Bildfehler automatisch zu reparieren.
Geübte Photoshop-Nutzer können in der Registerkarte “Pro Kanal” ihre Einstellungen kanalweise vornehmen. Für die nächste Bearbeitung speichern Sie Ihre Einstellungen optional im Dialogfenster mit Klick auf das Laufwerkssymbol neben “Einstellungen”.
Weichzeichner
Die beiden Filter “Selektiver Weichzeichner” und “Gaußscher Weichzeichner” verringern Bildfehler durch das Weichzeichnen, eine spezielle Art der Kontraständerung. Mit diesen Filtern arbeiten Sie differenzierter als mit “Rauschen reduzieren” und bewahren mehr Bilddetails. Sie finden beide Filter im Menü unter “Filter” → “Weichzeichnungsfilter”.
Im Dialogfeld des Gaußschen Weichzeichners senken Sie mit dem Schieberegler unter “Radius” den Kontrast benachbarter Pixel. Das Bild wirkt glatter. Stellen Sie jedoch den Radius nicht zu hoch ein, da das die Bildschärfe mindert.
Mit dem selektiven Weichzeichner können Sie neben dem Radius auch den Schwellenwert einstellen. Gehen Sie jedoch auch hierbei behutsam vor. Bei zu starker Weichzeichnung “verschwimmen” die Kanten.
Die Entfernung des Bildrauschens geht immer ein bisschen mit der Reduzierung der Bildschärfe einher. Sie müssen daher je nach Bild entscheiden, inwieweit die Rauschentfernung angewendet werden soll.
Schärfen
Quelle: Erik Wischnewski: Astronomie in Theorie und Praxis, 7. Auflage, S. 172
Unscharf bedeutet, dass Hell-Dunkel-Übergänge sanft verlaufen. Scharf bedeutet, dass diese Übergänge härter (schneller und auf kurzer Strecke) erfolgen.
Schärfungsalgorithmen versuchen also aus einem weichen Übergang einen harten zu machen.
Schärfung darf nicht übertrieben werden. Was im Original nicht scharf ist, kann auch nicht mehr im nachhinein scharf gemacht werden.
Zum Schärfen gibt es spezielle Schärfungsfilter z.B. Iterative Gauß-Schärfung.
Schärfen erhöht das Bildrauschen….
Der Schwellwert des Schärfefilters sollte so klein eingestellt werden, das kleinere Helligkeitsunterschiede beim Schärfen ignoriert werden.
Gezielt nur Teile eines Bildes bearbeiten: Ebenen und Masken
Bei Deep-Sky-Objekten wird man auch das Bedürfnis haben, bestimmte Teile eines Fotos anders zu bearbeiten als andere Teile. Dazu gibt es einen Ansatz von Ron Wodaski, der sich Vier-Zonen-System nennt:
Der Hintergrund “Zone 1” soll – ohne Rauschen – sehr dunkel sein
Gebiete mit schwachen Nebeln “Zone 2” haben ein schlechtes Signal-Rausch-Verhältnis (SNR) und können nicht geschäft, sondern nur entrauscht werden.
Gebiete mit stärkeren Nebeln “Zone 3” haben ein gutes Signal-Rausch-Verhältnis (SNR) und sollten geschärft werden.
Die ganz hellen Bereiche “Zone 4” haben ein super-gutes SNR und sollten ebenfalls nicht entrauscht werden…