Astrofotografie: Überblick

Gehört zu: Astronomie
Siehe auch: Aufnahmeverfahren – Image Capturing

Astrofotografie

Bei den Astros kann man zwei “Lager” unterscheiden:

  • visuelle
  • fotografische

Ich persönlich möchte meine astronomischen Beobachtungen unbedingt festhalten, sprich als Foto dokumentieren.

Bei der Astrofotografie benötigt man deutlich mehr Technik als für die “nur” visuelle Astronomie.
Technik bedeutet hier: Gerätschaften (meine Geräteliste), Computer-Software (meine Softwareliste) und die zweckmäßige Vorgehensweise (Image Capturing).

Welche Websites können helfen?

Im Internet gibt es viele Quellen, die bei der Astrofotografie helfen können z.B.

Welche Objekte will ich fotografieren?

Da gibt es ganz unterschiedliche Motive/Beobachtungsobjekte:

  • Weitwinkel: Sternbilder, Milchstraße, Strichspuren, Zodikallicht, Erdschattenbogen, Halo-Erscheinungen, Leuchtende Nachtwolken,…
  • Objekte im Sonnensystem, wie Planeten/Kleinplaneten/Mond/Sonne
  • Deep Sky Objekte (“DSO”) Galaxien
  • Deep Sky Objekte: Sternhaufen, Asterismen
  • Deep Sky Objekte: Planetarische Nebel
  • Deep Sky Objekte: Emmissionsnebel, Absoptionsnebel

Wie ziele ich auf mein Beobachtungsobjekt?

Um das Beobachtungsobjekt in das Gesichtsfeld zu bekommen (“Framing”) gibt es verschiedene Methoden:

Wie hell ist das Beobachtungsobjekt?

Wenn es hell ist, kann man sehr kurz belichen

Wenn es dunkel ist, muss man sehr lange belichten

Wenn man lange belichtet, muss man evtl. nachführen, um die Erdrotation zu kompensieren.

Wie groß ist das Beobachtungsobjekt?

Das Beobachtungsobjekt muss in das Gesichtsfeld (Field of View = FoV) passen.

Bei der Astrofotografie macht es keinen Sinn von “Vergrößerung” zu sprechen. Das Bild entsteht auf dem elektronischen Sensor und kann dann in verschiedener Größe angezeigt werden. Wir haben ja kein Okular, mit dem wir das Bild betrachten (visuelle Astronomie). Bei Betrachtung durch ein Okular kann man von einer Vergrößerung sprechen und diese berechnen als f1/f2.

Womit kann ich fotografieren?

Zum Fotografieren benötigt man eine bildgebende Optik (Fotoobjektiv oder Teleskop) und einen bildaufnehmenden Sensor (DSLR oder Astro-Kamera CCD/CMOS).

Als Optiken für die Astrofotografie kommen infrage:

Bei Fotografieren entseht das Bild auf einem sog. Sensor:

  • Fotoapparate (DSLR)
  • Astro-Kameras (CCD/CMOS)

Linse und Sensor müssen zusammenpassen, um die beste Auflösung zu erzielen.

Aufnahmeverfahren (Image Capturing)

Wie gehe ich nun konkret vor beim Fotografieren von astronomischen Objekten? Das habe ich in diesem gesonderten Artikel beschrieben.

Astronomie: Auflösungsvermögen und Sampling

Gehört zu: Teleskope
Siehe auch: Nachführung, Aufnahmeverfahren, Orion ED80/600, Barlow-LinseZWO ASI 294MC
Benutzt: Fotos von Google Drive, Tabellenblatt von Google Drive

Stand: 14.10.2023

Auflösungsvermögen eines Teleskops

Das sog. Auflösungsvermögen eines Teleskops bedeutet, welche kleinen Einzelheiten noch getrennt dargestellt werden können (deswegen auch “Trennschärfe” genannt). Das hängt von der Öffnung des Teleskops ab.

Siehe: http://www.clearskyblog.de/2009/09/22/mathematik-in-der-astronomie-teil-4-das-aufloesungsvermoegen-von-teleskopen/

Beugungsscheibchen (Airy-Scheibe)

Das Abbild einer punktförmigen Lichtquelle (ein Stern) ist im Teleskop ein Beugungsmuster mit einem Beugungsscheibchen in der Mitte das Maximum.

Der Radius des Beugungsscheibchens, gemessen bis zum ersten Minimum, ist (in Bogensekunden) ist nach George Airy:

(1) α = 1,22 * (λ /D) * 206265 [arcsec]

wobei

  • 206265 = 360 * 60 * 60 / 2π
  • λ die Wellenlänge des Lichts [nm],
  • D die Öffnung des Teleskops [mm] ist

Die 1,22 ergibt sich aber als die erste Nullstelle der Besselfunktion (s.u.), die für den Radius des ersten Beugungsminimums zuständig ist.

Zur sich daraus ergebenden Berechnung des Auflösungsvermögens (s.u.) lassen Teleskop-Verkäufer gern den Faktor 1,22 weg, um zu besser aussehenden Werten zu kommen.

Abbildung 1: Ein Beugungsscheibchen (Google Archiv: Diffraction_disc_calculated.jpg)


Beugungsscheibchen (Wikimedia KaiMartin CC BY-SA 3.0)

Auflösungsvermögen: Rayleigh-Kriterium

Die Frage ist nun, wie dicht dürfen zwei solche Beugungscheibchen zueinander stehen, sodass wir sie immer noch als zwei getrennte Objekte erkennen können?

Das sog. Rayleigh-Kriterium besagt, dass der minimale Abstand zweier Lichtpunkte, der noch eine Trennung ermöglicht, dann erreicht ist, wenn der Mittelpunkt des zweiten Lichtpunkts genau im ersten Minimum des Beugungsmusters des ersten Lichtpunkts liegt.
Dieses Rayleikriterium ist physikalisch nicht wirklich begründet. Wenn ich die Lichtpunkte ein klein wenig näher aneinander rücke, wird die Trennbarkeit ja nicht plötzlich aufhören. Aber so Pi mal Daumen passt es schon.

Abbildung 2: Zwei Beugungsscheibchen (Google Drive: Airydisks_rayleigh_sqrt.jpg)


Rayleigh Kriterium – Copyright WikiMedia Geek3 CC BY-SA 3.0

Wenn wir als Lichtwellenlänge λ annehmen 550 nm (grün), ergibt sich als Faktor

1,22 * 550 nm * 206265 = 138403815 nm

und damit folgende (theoretische) Faustformel für den Radius des Beugungsscheibchens und damit (nach Rayleigh) für das Auflösungsvermögen:

(2) Auflösungsvermögen [“] = 138 / D [mm]

Gerechnet mit dieser Faustformel ergibt sich:

Tabelle 1: Auflösungsvermögen

Teleskop Öffnung in mm Auflösungsvermögen in “
GuideScope50 50 2,76″
LidlScope 70 1,98″
Orion ED 80/600 80 1,73″
APM APO 107 107 1,29″
Vixen 114/900 114 1,21″

Abtast-Theorem von Nyquist und Shannon

Nun fällt dieses analoge Bild (s.o.) ja auf den Sensor unserer Kamera. Der Sensor besteht aus (diskreten) Pixeln. Der Sensor ist also digital.

Wir haben es also mit der Wandlung eines analogen Signals in ein digitales Signal zu tun.

Die digitale Pixel-Matrix tastet sozusagen das analoge Bild ab.

Hier wird immer gern das Abtast-Theorem (= Sampling Theorem) von Nyquist und Shannon herangezogen. Das sagt, im Prinzip sollte die Abtastfrequenz mindestens 2-mal so groß sein, wie das kleinste Detail im analogen Signal, sprich also wie die Auflösung.

Siehe dazu etwa: http://www.nightskyimages.co.uk/sampling_rate.htm

Das ist intuitiv ja auch klar, wie folgendes Bild veranschaulicht:

Abbildung 3: Nyquist Sampling Theorem (Google Drive: Nyquist-01.jpg)


Nyquist Abtasttheorem

Nyquist

Pixelgröße und Brennweite

Oft wird die Frage gestellt, welche Pixelgröße die Aufnahmekamera (der Sensor) bei gegebener Teleskopbrennweite haben sollte. Hierzu folgende Betrachtung: Zwei Objekte lassen sich auf dem Sensor nur dann trennen, wenn zwischen ihnen ein weiterer Pixel liegt. Der Abstand dieser Objekte auf dem Sensor-Chip beträgt also das Zweifache der Pixelgröße (2 x p).

Bei der Astrofotografie muss man die absolute Größe des Beugungsscheibchen (von der Optik) in Relation zur Pixelgröße des Sensors setzten. Die absolute Größe des Beugungsscheibchenes hängt dabei von der Brennweite (f) und der Öffnung (D) des Teleskops ab, bzw. bei längerer Belichtung vom Seeing. Das Sternenscheibchen durch Seeing kann je nach Luftunruhe 2″ bis 5″ (FWHM) betragen (Link: https://sternen-surfer.jimdo.com/tipps/pixelgr%C3%B6%C3%9Fe-und-brennweite/).

Um die Durchmesser des Beugungsscheibchens mit der Pixelgröße der Kamera vergleichen zu können, rechnen wir den Winkel (Formel (1) oben) in Länge um,

Radius Beugungsscheibchen [µm] = Brennweite [mm] * 1000 * Auflösungsvermögen [arcsec] * π / (60*60*180)

Radius Beugungsscheibchen [µm] = Brennweite [mm] * 1000 * 1,22 * (λ [nm] / D [mm])

Mit der Wellenlänge λ = 550 nm bekommen wir dann:

(3) Radius Beugungsscheibchen [µm] = (f/D) * 0,671

Also spielt das Öffnungsverhältnis f/D die entscheidende Rolle:

Tabelle 2: Optimale Pixelgröße

Teleskop Öffnung in mm Auflösungs-vermögen in “ Brennweite in mm Radius Beugungs-scheibchen in μ Optimale Pixelgröße in μ
GuideScope50 50 2,76 “ 180 2,42 μ 1,2 μ
LidelScope 70 1,98 “ 700 6,71 μ 3,3 μ
Orion ED 80/600 80 1,73 “ 600 5,03 μ 2,6 μ
Orion ED 80/510
mit Reducer
80 1,73″ 510 4,28 μ 2,1 μ
Orion ED 80/1200
mit Barlowlinse
80 1,73″ 1200 10,07 μ 5,0 μ
APM APO 107/700 mit Reducer 107 1,29″ 525 3,29 μ 1,6 μ
Vixen 114/900 114 1,21 “ 900 5,30 μ 2,6 μ
Seeing FWHM 2,00″ 510 4,95 μ 2,5 μ

Oversampling und Undersampling

Die Pixelgröße des Sensors ist so etwas wie die Abtastrate (sampling rate).
Abgetastet wird dabei das Beugungscheibchen.
Bei einer zu hohen Abtastrate (kleine Pixel) spricht man von Oversampling; bei zu geringer Abstatrate (große Pixel) von Undersampling.

Abbildung 4: Tabellenblatt zum Sampling (Google Drive: Oversampling.xls)

Für Deep Sky Astrofotografie führt ein leichtes Undersampling oftmals zu besseren Aufnahmen durch ein besseres Signal-Rausch-Verhältnis und detaillierterer Darstellung als bei Oversampling.

Für Planetenfotografie wird man je nach Teleskop versuchen, in klaren Nächten mit gutem Seeing das Auflösungsvermögen des Teleskops zu nutzen um so eher im Bereich Oversampling zu besseren Aufnahmen zu gelangen als beim Undersampling.

Wie passt die Digitalkamera mit ihrem Sensor und dessen Pixelgröße nun zu dem Teleskop?

Nach dem Nyquist-Shannon-Sampling-Theorem brauche ich einen Abstand von 2 Pixeln (also einen leeren Pixel dazwischen) um zwei Punkte zu unterscheiden. Der Abstand zwischen den Abbildungsscheibchen darf der Radius eines Scheibchens sein. Ist die Pixelgröße (viel) kleiner, spricht man von Oversampling, ist die Pixelgröße größer, spricht man von Undersampling.

Welches Öffungsverhältnis sollte ich anstreben, wenn Öffnung und Pixelgröße gegeben sind?

Mit dieser Fomel kann man auch bei gegebener Pixelgröße und Öffnung die optimale Brennweite d.h. das Öffnungsverhältnis berechnen.

(4) f/D = Pixelgröße [μ] / (1000 * 1,22 * λ [nm] )

(wenn man als Radius des Beugungsscheibchens die Pixelgröße nimmt)

Die Besselfunktion

Die Beugung an einer kreisrunden Öffnung (Lochblende) wird durch die Besselfunktion erster Art (also J) von der Ordnung 1 (also J1) beschrieben.
Die Intensität ist:

I(x)  = I0 (2*J1(x)/x)2

Die ersten Nullstellen sind:

J1(3,8317)=0   und J1(7,0156)=0

Quelle: https://de.wikipedia.org/wiki/Beugungsscheibchen

Astronomie: Photoshop – Luminanzmasken

Gehört zu: Bildbearbeitung
Siehe auch Adobe Photoshop, Photoshop Grundlagen, Photoshop Ebenen
Benutzt: Fotos aus Google Drive

Stand: 29.11.2022

Luminanzmasken mit Photoshop

Link: http://www.imagingdeepsky.com/Tutorials/Masks/Masks.htm

Bei der elektronischen Bildbearbeitung wird man zunächst Techniken anwenden, die auf das ganze Bild wirken, wie z.B. Stacking, Stretchen, Schärfen etc. Bei manchen Objekten möchte man nur Teile eines Fotos bearbeiten. Dazu arbeitet man mit sog. Masken.

Grundlagen für Masken

Masken sind im standardmäßig im Fenster “Ebenen- Kanäle  Pfade” (Einblenden über Menü -> Fenster -> Ebenen).

Abbildung 1: Einblenden der Ebenen-Palette (Google Drive: photoshop-ebenen-05.jpg)

Zu einer Ebene kann eine Maske “Ebenenmaske” angelegt werden.

Abbildung 2: Anlegen einer Ebenenmaske (Google Drive: photoshop-ebenen-06.jpg)


Photoshop: Anlegen einer Ebenenmaske

Eine Maske ist ein Graustufenbild.

Wirkung einer Ebenenmaske: Schwarz verdeckt (=schützt) (d.h. 0% Wirkung), Weiß lässt durch (d.h. 100% Wirkung).

Bearbeiten einer Ebenenmaske: Durch “Alt-Klick” auf das Miniaturbild der Maske wird die Maske im Hauptfester angezeigt und kann bearbeitet werden.

Arbeitsschritte zur Erstellung einer Luminanzmaske:   (“Work Flow”)

Das Bild als neue Ebene kopieren (damit das Original erhalten bleibt “non-destructive”)

Kontrast erhöhen z.B. durch Menü -> Bild -> Korrekturen -> Helligkeit/Kontrast: Beide auf 100%

Auswahl erstellen z.B. durch Menü -> Auswahl -> Farbbereich

Drop-Down “Auswahl” bleibt auf “Aufgenommene Farben”

Wir klicken mit der Pipette auf den hellen Bereich und sehen das jetzt alles gleich helle selektiert wird.

Mir “Shift-Click” können wir zusätzliche Helligkeitsbereiche zu der Auswahl hinzufügen.

Drop-Down “Auswahl” geht auf “Lichter”

Dann wird ja auch alles Helle selektiert

Durch die Schieberegler “Bereich” und “Toleranz” können wir die Auswahl noch leicht verändern

Nun aus der Auswahl eine Maske machen:

Während die Auswahl aktiv ist (“marching ants”) klicken wir im Ebenen-Fenster auf das Symbol in der unteren Leiste “Ebenenmaske hinzufügen”

Dann die Maske verfeinern:

Alt-Klick auf die Maske

Rechte Maustaste – Im Kontextmeü erscheinen eine eine Reihe von Tools für Ebenenmasken

In diesem Kontext-Menü: Auswählen und Maskieren

Kantenerkennung:

Smart Radius anhaken

Radius vergrößern: Schieberegler nach rechts auf Maximum 250 Px

Globale Verbesserungen

Kante verschieben (Shift Edge)

Weiche Kante (Feather)

Abrunden (Smooth)

Output: Ebenenmaske

Nun den Hintergrund (Sterne etc.) komplett auf Schwarz setzen

Mit dem Lasso-Tool das Objekt vorsichtig umfahren

Auswahl umkehren

Hintergrundfarbe auf Schwarz setzten

Taste “Backspace”: Dies löscht den ausgewählten Bereich (auf die Hintergrundfarbe)

Nun die Maske abspeichern (für weiteren Gebrauch)

Da es sich um eine Ebenenmaske handelt, erscheint diese Maske im “Kanäle”-Fenster

Eine Ebenenmaske ist nur ein temporärer Kanal

Durch Rechts-Klick auf die Maske und im Kontextmenü dann auswählen: “Kanal duplizieren” kann der Kanal (die Maske) permanent gespeichert werden

Luminanzmasken I: Photoshop

26.8.2018

  1. Das Bild laden
  2. Menü -> Fenster -> Kanäle
  3. Den Kanal, der gut ist, auf das Symbol (Rechteck mit Bogen unten links) ziehen ==> Kopie
  4. Den Kanal aufhellen
    Tonwertkorrektur: menü Bild -> Korrekturen -> Tonwert
    Schattenbereiche aufhellen
    OK
  5. Kanal invertieren: Strg-I
  6. Auswahl: Strg-Klick auf kanal auf die Miniaturen
    Ebenen RGB
    Reiter “Ebenen”
  7. Erstellen Gradationskurve
    Menü Fenster -> Korrekturen (die Auswahl wird automatisch als Maske hinzugefügt)

Luminanzmasken II

Aus: http://www.kitea.de

Auswahl -> Farbbereich -> Lichter 40%

( Kanäle, Maskensymbol)

Werkzeuigleiste  — Symbolleiste — rechte Maustaste

Auswahl: Farbe, Luminanz, Lasso,….

Auswahl  —–> (erzeugt)  —>  Maske

Maske   —-> erstellt —-> Auswahl

Astronomie Software Nebulosity

Gehört zu: Astro-Software
Siehe auch: Digitalkameras

Astronomy Software Nebulosity

Die Software “Nebulosity” wird von Stark Labs angeboten.

Nebulosity ist eine Aufnahme-Software (Capturing) und unterstützt auch meine DSLR Canon EOS 600D.

Nebulosity ist kostet $95.

Belichtungszeiten länger als 30 Sekunden gehen nur mit einem zusätzlichen Shoestring-Adapter.

Nebulosity hat auch eine Fokussierhilfe.

Ich habe mich für gegen Nebulosity und für die Software APT entschieden. APT ist billiger und kann von sich aus Belichtungszeiten länger als 30 Sekunden.

 

Astrofotografie: Mondfinsternisse

Gehört zu: Das Sonnensystem
Siehe auch: Astrofotografie: Der Mond
Benutzt: Videos von Google Drive

Stand: 29.11.2022

Mondfinsternisse

Mondfinsternisse sind besonders spektakulär und können (ähnlich wie die Sonne) leicht beobachtet und fotografiert werden.

  • Halbschattenfinsternisse geben zum Fotografieren nicht viel her.
  • Eine partielle Mondfinsternis ist gut zu fotografieren.
  • Eine totale Mondfinsternis ist gut zu fotografieren und ist auch sehr beeindruckend.

Fotografieren einer Mondfinsternis

Beispiele: Mondfinsternis Videos

Mondfinsternis 27.7.2018 in Handeloh:

Mondfinsternis 21.1.2019 in Eimsbüttel:

Fotografische Gerätschaften (mobil)

Ich habe die Mondfinsternis vom 27.7.2018 wie folgt fotografiert:

  • Teleskop: Orion ED 80/600 mit Reducer 0,85x; d.h. f=510 mm und damit Blende f/6,8
  • Kamera: Canon EOS 600D mit APS-C CMOS, 5184 x 3456 Pixel, Pixelgröße 4,3 μ
  • Montierung: SkyWatcher HEQ5 Pro mit “Lunar Tracking” (bei sauberem Polar Alignment)
  • Aufnahme-Software: APT auf Windows 10

Fokussieren bei Mondfinsternissen

Allerdings kann man bei einer totalen Mondfinsternis nicht gut auf dem Mond selber fokussieren; denn auf dem Mond selber ist die Beleuchtung direkt “von oben” und die Schattengrenze (Erdschatten) ist sehr diffus. Es empfiehlt sich also, vor der Mondfinsternis auf sichtbare helle Fixsterne zu fokussieren – notfalls auch während der Finsternis..

Aufnahmedaten

  • ISO 100
  • Blende 6,8
  • Belichtungszeiten:
    • Totalität 5-1 sec,
    • Partielle Phase: 1 sec für den dunklen Teil, 1/100 für den hellen Teil

Nachbearbeitung der Fotos

  • Serie von Einzelfotos:
    • Auswahl einiger weniger Einzelfotos im zeitlichen Abstand von etwa 20 Minuten
    • Etwas vergrößert, dabei alle Fotos in genau dem gleichen Maßstab vergrößert
    • Histogramm und Gamma so dass die Einzelfotos ungefähr gleich aussehen
    • Ergebnis: Meine Fotos vom 27.7.2018 habe ich in einem Google-Fotos-Album zusammengestellt.
  • Video
    • Aus den vielen Einzelbildern kann man leicht mit z.B. Microsoft Movie Maker ein Video machen
    • Allerdings sind trotz Lunar Tracking einige Bildsprünge in der Aufnahmeserie, die über fast 1,5 h Stunden ging
    • Ergebnis: YouTube

Auf der Suche nach einer Software, die meine Bildserie schön ausrichtet, sodaß die “Bildsprünge” verschwinden, bin ich gestossen auf:

  • PIPP Planetary Imaging PreProcessor “center planet in the frames”
  • https://sites.google.com/site/astropipp/example-uasge/example5
  • http://stargazerslounge.com/topic/184192-full-disc-lunar-imaging-with-a-dslr/

Wann sind die nächsten Mondfinsternisse?

Quelle: http://www.mondfinsternis.net/wann.htm

Partielle MoFi am 7.8.2017

Wenn der Mond am Abend des 07.08.2017 (ein Montag) um 18h 43m aufgeht, ist das Maximum dieser bescheidenen partiellen Finsternis bereits vorbei (18h 21m, 25%). Noch in der hellen bürgerlichen Dämmerung endet die Kernschattenphase (19h 19m). Doch bis dahin bieten sich reizvolle Fotomotive, wenn der “angeknabberte” Mond knapp über dem Horizont in der Gegendämmerung steht, die im angelsächsischen Raum als “Belt of Venus” (Gürtel der Venus) bezeichnet wird. Um in den Genuss dieses Schauspiels zu kommen, benötigen Sie unbedingt einen Standort mit freiem Blick zum Südost-Horizont, denn selbst am Sichtbarkeitsende der Halbschattenphase steht der Mond gerade einmal 10 Grad hoch.

Totale Mondfinsternis am 27.7.2018 (Handeloh)

Die Totale Mondfinsternis am 27.07.2018 gehört zweifelsohne zu den ganz großen astronomischen Ereignissen unserer Zeit. Mit einer Totalitätsdauer von 103 Minuten ist sie die längste totale MoFi des 21. Jahrhunderts.

Meine Meinung: ob die Totalität 5 Minuten länger oder kürzer ist, interessiert mich nicht die Bohne.

Da der Mond in Mitteleuropa während der einleitenden partiellen Phase aufgeht, kann die Totalität am dunkelblauen Dämmerungshimmel in voller Länge verfolgt werden

Das ist ziehmlicher Blödsinn: beim Anfang der Totalität steht der Mond 1 Grad über dem Horizont und der Himmel ist ganz hell

Etwa 6 Grad unterhalb des Roten Mondes steht Mars, der Rote Planet. Wenn ein Planet sich in der Nähe des Vollmonds befindet, dann steht er zwangsläufig in Opposition zur Sonne und erreicht mithin seine maximale Helligkeit. Diese fällt bei Marsoppositionen wegen der stark schwankenden Abstände zur Erde sehr unterschiedlich aus. Am 27.07.2018 haben wir es mit einer außerordentlich günstigen Marsopposition zu tun; der Rote Planet erreicht mit -2.8 mag fast seine größte überhaupt mögliche Helligkeit und übertrifft sogar den Jupiter an Glanz. Da sich das gesamte Geschehen horizontnah in der Dämmerung abspielt, kommen auch Naturfotografen voll auf ihre Kosten.

Astro-Fotografen finden die Horizont-Nähe sehr negativ.

Selbst der Kalender meint es diesmal gut mit den Beobachtern, denn die Jahrhundert-Finsternis findet an einem Freitagabend statt.

Totale Mondfinsternis am 21.01.2019 (Eimsbüttel)

Zur totalen Mondfinsternis habe ich folgende Daten für Hamburg (UTC+1):

04:33:54 Beginn der partiellen Phase,   h Mond =32°10′   (h Sonne = -33° 17′ d.h. vor Beginn der astronomischen Dämmerung – also echt dunkel)

05:41:17 Beginn Totalität,    h Mond = 22° 30′    ( h Sonne = -23° 15′ d.h. vor Beginn der astronomischen Dämmerung – also echt dunkel)

06:43:15 Ende Totalität,   h Mond =  13° 44′    (h Sonne = -14° 10′  d.h. vor Beginn der nautischen Dämmerung – also noch gut dunkel)

07:50:39  Ende der partiellen Phase,  h Mond = 4° 38′  (h Sonne = -4° 52′  d.h. in der bürgerliche Dämmerung – also Morgengrauen)

Wann sind die nächsten Mondfinsternisse?

Quelle: http://www.mondfinsternis.net/wann.htm

Partielle Mondfinsternis am 18.09.2024

Nur PARTIELL

Totale Mondfinsternis am 14.03.2025

Die Totale Mondfinsternis am Freitag, 14.03.2025, ist auf dem amerikanischen Doppelkontinent in ihrem ganzen Verlauf sichtbar. Bei uns geht der Mond bereits während der einleitenden partiellen Phase unter. Frühaufsteher können die horizontnahe Position des teilweise verfinsterten Mondes für interessante Bildkompositionen nutzen.

Totale Modfinsternis am 07.09.2025

Der Mond geht am 07.09.2025 – ein Sonntag – in Mitteleuropa kurz nach Beginn der totalen Phase der Mondfinsternis auf, wird aber zunächst am noch hellen Himmel wahrscheinlich nicht sichtbar sein. Da es nur sehr allmählich dunkler wird, der Mond immer tiefer in den Kernschatten eindringt und dabei nur wenig Höhe über dem Horizont gewinnt, kann es durchaus sein, dass man ihn erst gegen Ende der totalen Phase erspäht. Die zweite partielle Phase am jetzt dunkelblauen Dämmerungshimmel wird – in einer vielleicht milden Spätsommernacht – reizvolle Fotomotive bieten.

Astrofotografie Bildbearbeitung: Schärfen

Gehört zu: Bildbearbeitung,
Siehe auch: The Astro Zone System, Ent-Rauschen, Wavlets

Schärfen meiner Astro-Fotos

Was bedeutet “Schärfen”?

Quelle: Erik Wischnewski: Astronomie in Theorie und Praxis, 7. Auflage, S. 172

  • Unscharf bedeutet, dass Hell-Dunkel-Übergänge sanft verlaufen.
  • Scharf bedeutet, dass diese Übergänge härter (schneller und auf kurzer Strecke) erfolgen.

Schärfungsalgorithmen versuchen also aus einem weichen Übergang einen harten zu machen.

Schärfung darf nicht übertrieben werden. Was im Original nicht scharf ist, kann auch nicht mehr im nachhinein scharf gemacht werden.

Zum Schärfen gibt es spezielle Schärfungsfilter z.B. Iterative Gauß-Schärfung.

Schärfen erhöht das Bildrauschen….

Der Schwellwert des Schärfefilters sollte so klein eingestellt werden, das kleinere Helligkeitsunterschiede beim Schärfen ignoriert werden.

Siehe auch: http://www.photomonda.de/bilder-schaerfen

Genau genommen werden Bilder nicht schärfer, sondern es wird der lokale Kontrast an Grenzen erhöht, indem lokal dunkle Pixel noch weiter abgedunkelt und helle Pixel noch weiter aufgehellt werden. Unserem Gehirn wird damit vorgegaukelt, das die Fotos schärfer sind, da die Konturen prägnanter heraustreten.
Die Methode, die hier von den meisten Bildbearbeitungsprogrammen angewendet wird, heißt „Unsharpen Mask“ (=unscharfe Maske). Dieser seltsame Name kommt noch aus den Zeiten der Analogfotografie, da damals tatsächlich eine unscharfe Maske zum Schärfen verwendet wurde.

Da es sich um eine Kontrasterhöhung handelt, kann man es mit dem Bilderschärfen auch übertreiben…

Anwendungsbereiche

Bei Planetenfotos wird man zuerst mit “Lucky Imaging” die Luftunruhe (das schlechte Seeing) überlisten. Das Ergebnis muss dann aber noch häufig etwas geschärft werden; d.h. man  möchte die Details noch besser im Foto sichtbar machen…

Voraussetzungen für das Schärfen

Das Bild bzw. der Bildbereich muss ein gutes Signal-Rausch-Verhältnis haben.

Das Bild bzw. der Bildbereich muss “Kanten” zeigen, können dann geschärft werden; d.h. der Kontrast wird lokal erhöht.

Techniken zum Schärfen

Bildbearbeitungssoftware unterstützt unterschiedliche Techniken z.B:

  • sog. Wavelet-Filter, wie z.B. in RegiStax
  • Unscharfe Maskierung  (wird klassisch zum Schärfen benutzt)
  • Gauss schärfen  (z.B. in Fitswork)
  • Adobe Photoshop
  • etc.

Problem beim Schärfen des Mondes: Der Rand des Mondes wird eine helle Kante.

Link: https://www.reddit.com/r/astrophotography/Comments/7vsif7/the_moon_242018_processing_stages/

Es läßt sich nicht leicht vermeiden, aber es kann wie folgt abgemildert werden:

  • Das ungeschärfte Mondfoto in Photoshop laden.
  • Den dunklen Hintergrund mit dem “Magic Wand”-Werkzeug selektieren
  • Erweitern der Selektion ein bisschen in den Mond hinein: Select -> Modify -> Expand  mit ein paar Pixeln in den Mond hinein
  • Auf gleichem Wege “Feather” die Auswahl mit einem Betrag, der halb so groß ist wie beim “Expand”
  • Rechts-KLick und die Auswahl als neue Ebene kopieren
  • Schärfen des restlichen Mondes nach Geschmack (aufpassen: nicht den abgemilderten Rand schärfen). Das geschärfe Bild als Ebene einfügen.
  • Den abgemilderten Mond als Ebene oberhalb der Ebene des geschärften Mondes legen
  • Die obere (abgemilderte) Ebene sichtbar machen und mit der Opazität spielen. Sodaß einerseits die geschärften inneren teile sichtbar sind und andererseits ein natürlicher aussehener Rand entsteht.

Astrofotografie mit Autostakkert – Bildbearbeitung – Lucky Imaging

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung, Mediacoder, Video-Formate
Benutzt: Fotos aus Google Drive

Stand: 08.12.2022

Bildbearbeitung mit Autostakkert

Wenn man seine Astro-Aufnahmen gemacht hat, beginnt die sog. Bildbearbeitung – dafür braucht man oft ein Vielfaches der Zeit, die man für die eigentlichen Aufnahmen in der Nacht investiert hatte.

Bei Planeten sowie Sonne und Mond macht man meist ein Video oder eine Serie von kurzbelichteten Einzelfotos. Soetwas können wir gut mit Autostakkert bearbeiten und bearbeitet diese nach der Methode “Lucky Imaging”.

Siehe dazu die Youtube-Videos von AstroHardy

Ich habe die Autostakkert Version 3.1.4 (x64)

Lucky Imaging

Das sog. Lucky Imaging bedeutet, dass wir, um die Luftunruhe “Seeing” zu überlisten, sehr viele kurzbelichtete Aufnahmen unseres Beobachtungsobjekts (typisch: Planeten, Mond, Sonne,…) machen und davon dann die zufällig besten “lucky” auswählen…

Die Astro-Spezis machen also Videos z.B. vom Jupiter und benutzen dann eine spezielle Software für “Lucky Imaging”, nämlich AutoStakkert (oder RegiStax).

Erfunden hat das Georg Dittie und seine erste Software dafür war Giotto.

Download AutoStakkert:  http://www.astrokraai.nl/software/latest.php

Nachdem man die besten Einzelaufnahmen “lucky” zu einem Summenbild “gestackt” hat, ist der nachste Schritt das Schärfen. AutoStakkert selbst bietet eine rudimentäre Schärfungsfunktion, die aber typisch nur zur optischen Kontrolle der Summenbilder eingesetzt wird. Die Astro-Spezis verwenden zum Schärfen gerne die kostenlose Software RegiStax.

Erste Schritte mit Autostakkert

Wenn man Autostakkert startet, öffnen sich zwei Fenster: ein Hauptfenster und ein Nebenfenster in welchem man die Aufnahme sieht.

AutoStakkert unterstützt eine sog. Multi-Punkt-Ausrichtung d.h. die einzelnen Fotos bzw. Frames des Videos werden so übereinander gelegt, dass nicht nur ein Punkt sondern mehrere Punkte zur Deckung gebracht werden.

Ich habe am 10.3.2017 mit meinem iPhone ein Mond-Video aufgenommen. Dies habe ich dann mit AutoStakkert wie folgt bearbeitet:

  1. Programm aufrufen: Hauptfenster und Nebenfenster von Autostakkert erscheinen
  2. Schaltfläche “1) Open“: AVI-Video bzw. Foto-Sequenz laden
    1. Im Nebenfenster “Frame View” erscheint nun der erste Frame des Videos (bzw. das erste Foto der Serie)
    2. Bei Image Stabilization (unterhalb der Schaltfläche “Open”). wählen wir “Surface” oder “Planet”
    3. Wenn ganzes Objekt, dann “Planet” – Autostakkert zentriert dann auf das ganze Objekt
    4. Wenn nur Teil der Oberfläche eines Objekts “Surface” (typisch bei Sonne oder Mond)
    5. Falls “Surface” dann erscheint im Nebenfenster auf dem ersten Bild ein kleines Quadrat, was Autostakkert zum Vorzentrieren benutzen will (denn wir haben ja keine ganze Planetenscheibe im Bild). Diesen sog. Image Stabilization Anchor können wir auf ein Bilddetail verschieben, das auf allen Einzelbildern gut zu sehen ist. Auf den von uns gewünschten Bildpunkt klicken wir mit der Maus und drücken gleichzeitig die Strg-Taste.
    6. Im Nebenfenster sollte man jetzt ggf. noch die Bildgröße reduzieren, um die Rechenzeit zu vermindern.
  3. Schaltfläche “2) Analyse
    1. Nun macht Autostakkert die Vorzentrierung (“Surface Image Stabilization”) und anschließend die “Image Analysis”
    2. “Image Analysis” bedeutet, dass die Frames nach Qualität sortiert werden.
    3. Parameter setzen: Prozentsatz der “guten” bestimmen und eingeben ( s.u. Frame Percentage)
    4. Alignment Points (AP) setzen (s.u.)
  4. Schaltfläche “3) Stack
    1. Solange noch keine APs gesetzt sind, ist die Schaltfläche “Stack” ausgegraut
    2. Wenn “Stack” nicht mehr ausgegraut ist, kann man durch Maus-Klick den Prozess “Stack” starten und während “Stack” arbeitet ist die Schaltfläche wieder ausgegraut.
    3. Wann ist der Prozess “Stack” fertig? Das kann man nach Stunden daran sehen, dass die Schaltfläche “Stack” nicht mehr ausgegraut ist. Also: Geduld!
    4. Welche Ergebnis-Bilder gibt es wo? (s.u.: Egebnis-Bilder)

Setzen der “Frame Percentage”

Abbildung 1: AutoStakkert: Wählen der sog. “Frame Percentage” vor dem “Stack” (vorher müssen noch die “Alignment Points” gesetzt werden) (Google Drive: AutoStakkert-01.jpg)

Alignment Points setzen

Abbildung 2: AutoStakkert Alignment Points (Google Drive: AutoStakkert-02.jpg)

Ergebnis-Bilder

Wo finde ich die Ergebnis-Bilder???

AutoStakkert produziert so zwei Bilder als Ergebnis: Ein geschärftes (“Sharpened”) und ein ungeschärftes. Wir werden das ungeschärfte Bild nehmen und dieses dann in einer anderen Software richtig schön schärfen. Das von AutoStakkert geschärfte Bild benutzen wir nur zur ersten visuellen Beurteilung unserer Fotos.
Zum separaten Schärfen verwenden wir gerne die Software “RegiStax” mit den dort unterstützten feinen Wavelet-Filtern.

Möglichkeiten zur Video-Konversion

Als Eingabe für Autostakkert benötigt man Video-Dateien im Format AVI uncompressed oder eine Serie von Einzelbildern z.B. eine Serie von FITS-Dateien.

Heutige Digitalkameras erstellen häufig Videoformate MP4 oder MOV. Solche Videos müssen wir also konvertieren.

Zu den verschiedenen Möglichkeiten der Konversion, siehe weiter unten.

Als Beispiel haben wir ein Video im MP4-Format:  Saturn_Original.mp4. Dieses  wollen wir in AVI uncompressed konvertieren.  Früher hatte ich dafür ein Utility namens “SUPER” verwendet, was ich aber zur Zeit nicht mehr zur Verfügung habe.

Umgehung Nr. 1

Als erste ganz einfache Idee versuche ich:

  • zuerst mit MediaCoder in ein schönes AVI konvertieren (Container=AVI, Video Format = Copy Video, Audio=Enabled=No)
  • und dieses dann mit VirtualDub “uncompressed” abspeichern –

Dadurch werden die Dateien sehr viel größer als im Original. Autostakkert kann so große Dateien (> 4 GB) nicht verarbeiten.

Umgehung Nr.2

Ein weiterer Versuch zur “automatischen” Konversion wäre FFmpeg, was viel einfacher wäre – wenn es funktionieren würde. https://www.heise.de/download/product/ffmpeg-53902

Umgehung Nr.3

Ein dritter Versuch zur Konversion wäre PIPP, wo man zur Reduktion der Dateigröße einen Ausschnitt wählen kann “Enable Cropping”.

Zu Nr 2: Konversion mit FFmpeg

Download FFmpeg von: https://ffmpeg.org/download.html#build-windows

Auswählen Version für: Windows, 32-Bit oder 64-Bit, Static

Aus dem ZIP-File ffmpeg-20180831-3ad0e67-win64-static.zip ffmpeg.exe kopieren…

Abbildung 3: FFmpeg für AutoStakkert installieren (Google Drive: autostakkert-04.jpg)

…in den Autostakkert-Ordner (bei mir: C:/bin/AutoStakkert, bzw. C:/bin/AutoStakkert )

Abbildung 4: Der Ordner Autostakkert mit FFmpeg (Google Drive: Autostakkert-03.jpg)

Wenn ich nun Autostakkert aufrufe und das MP4-Video (odr auch MOV-Video) öffne,  startet die Konversion des Videos tatsächlich automatisch. Das konvertierte Video kann dann sehr groß werden (weil uncompressed) d.h. der Ausgabe-Ordner muss genügend freien Speicherplatz haben. Als Ausgabe-Ordner nimmt Autostakkert immmer den selben Ordner wie für die Eingabe. An den Original-Dateinamen hängt die Konversion “.avi” an.

Im Testfall wird das Ausgabe-Video größer als 4 Gigabyte und Autostatkkert kann das nicht verarbeiten.

Zu Nr. 3: Konversion mit PIPP

Wenn AutoStakkert ein Video nicht lesen will, wird als Abhilfe auch die Konversion des Videos mit der Software PIPP empfohlen. PIPP steht für “Planetary Imaging PreProcessor”.

Mit PIPP bekommen wir eine kleinere Ausgabedatei, wenn wir im Reiter “Processing Options”  “Enable Cropping” anhaken.

Download PIPP: https://sites.google.com/site/astropipp/downloads

Abbildung 5: PIPP 1: File -> Add Source Files (Google Drive: PIPP-01.jpg)

Abbildung 6: PIPP  Source File (Google Drive: pipp-02.jpg)

Abbildung 7: PIPP  Processing Options (Google Drive: pipp-03.jpg)


PIPP Processing Options

Abbildung 8: PIPP Output Options (Google Drive: pipp-04.jpg)


PIPP Output Options

Abbildung 9: PIPP  Do Processing (Google Drive: pipp-05.jpg)


PIPP Do Processing

Konversion mit MediaCoder

Laut MediaCoder hat die Video-Datei Saturn_Original.mp4 folgendes Format:

  • Container: MP4  = MPEG-4
  • Video-Codec: AVC1
  • Bitrate: 2411 kbps
  • Resolution: 1920 x 1080
  • Framerate: 30 FPS

Wir konvertieren dies mit MediaCoder in das Video-Format:

  • Container: AVI
  • Video-Stream
    • Codec:   H.264 / x.264
    • Bitrate: 2500 kbps
  • Audio-Stream
    • egal, aber nicht VBR

VitualDub kann das erzeugte Video noch nicht lesen, weil VirtualDub kein Codec für x.264 von sich aus hat – und der gute alte VirtualDub benötigt ein VfW-Codec für x.264.

(Autostakkert kann auch MOV-Formate ohne vorherige Konversion als Input verarbeiten, wenn FFmpeg vorher installiert wurde. FFmpeg kann man z.B. bei Heise downloaden.)

Das x.264 Codec muss man also noch mal schnell installieren. Das gibt es z.B. auf SourceForge unter: https://sourceforge.net/projects/x264vfw/

Nach der Installation dieses VfW-Codecs kann VirtualDub die Video-Datei lesen und wir können dort einstellen:

  • Video: Full Processing Mode & Compression = Uncompressed
  • Audio:  No Audio
  • File: Save as AVI…

Astrofotografie: Bildbearbeitung – Wavelets mit der Software RegiStax

Gehört zu: Bildverarbeitung
Siehe auch: AutoStakkert, Astro-Software
Benutzt: Fotos von Google Archiv

Stand: 03.12.2023

Wavelet-Filter zum Schärfen und zur Rauschunterdrückung mit RegiStax

Wavelet-Filter spielen eine wichtige Rolle beim sog. Post Processing von Astrofotos.

Mit einem Wavelet-Filter kann man auf der einen Seite ein Bild schärfen und gleichzeitig das (durch das Schärfen verstärkte)  Rauschen und andere “Schärfungsartefakte” unterdrücken.

Im Vordergrund steht das Schärfen. Das braucht man z.B. bei Planetenbildern, Mondbildern u.ä. Durch das Schärfen wird häufig das Rauschen erhöht, weshalb man das im gleichen Arbeitsgang gleich mitbeseitigt.

Update 2023

Die Software Registax wird vom Autor Cor Berrevoets nicht mehr aktiv weiterentwickelt. Er hat aber in 2023 eine neue Software namens “waveSharp” entwickelt.

Wavelets in Registax

Eine kostenlose Software, die Wavelet-Filter gut unterstützt ist RegiStax.

Wenn man garnicht Schärfen will, sondern nur das Rauschen reduzieren will, gibt es andere, einfachere Möglichkeiten.

Der Wavelet Filter bei RegiStax bietet folgendes Bild:

Abbildung 1: RegiStax Menüleiste –> Select –> Reiter “Wavelet”  (Google Drive: Registax-01.jpg)


RegiStax Wavelets

Eine der grundsätzlichen Einstellungen für die Wavelet-Filter ist “Default” oder “Gaussian“. Wir arbeiten immer mit “Gaussian”, da werden die Wavelets mit einer Gauss’schen Glockenkurve gebildet.

Der Wavelet-Filter hat verschiedene Ebenen Im Bild: Layer 1 bis Layer 6. Ich weiss leider nicht, was diese Ebenen bedeuten.

RegiStax bietet zwei Waveletschemas an.
Linear bedeutet, dass die Filterbreite von Ebene zu Ebene linear zunimmt.
Bei Dyadic nimmt die Filterbreite in einer geometrischen Reihe zu, d.h. sie verdoppelt sich von Ebene zu Ebene.
Diese Einstellung ist besonders bei der Bearbeitung von DeepSky-Objekten wie Nebeln vorteilhaft.

Im Falle der Einstellung “Gaussian” sind die Wavelet-Filter der sechs Ebenen (Layer) unabhängig von einander.

Für jeden Layer kann man einstellen:

  • Wert (Größe? Durchmesser?) für “Denoise”
  • Wert (Größe? Durchmesser?) für “Sharpen”
  • Häckchen setzen für Layer anzeigen/Layer nicht anzeigen
  • Schieberegler zur Einstellung der Stärke der Filter auf einer Ebene (Layer).  Zahlenmäßig wird das als Wert “Preview” ganz rechts angezeigt.

Es wird gesagt, dass das Schärfen in den verschiedenen Layern verschieden große Details im Bild hervorherheben soll. Parallel dazu kann auch das Rauschen hervorgehoben bzw. unterdrückt werden.

“Größe” der Filter

Nun besteht das Rauschen aus Bilddetails in der Größe von einzelnen Pixeln; aber die Schärfung bezieht sich auf Bilddetails, die in der Regel mindestens zwei Pixel groß sind (Nyström).

Die Ideen ist nun, das Schärfen auf den Ebenen 2, 3, 4, 5 und 6 vorzunehmen und das Rauschen auf Ebene 1 zu unterdrücken. Dazu muss man die Ebenen so einstellen, dass auf Ebene 1 die Filter auf Pixelgröße arbeiten (Rauschen) und die Filter auf den Ebenen 2 ff. auf größere Details (Schärfen) ansprechen.

Ein “Kochrezept” für Wavelets bei Registax

Von Astro-Hardy gibt es ein gutes Youtube-Video  zu diesem Thema:

Dieses Youtube-Video benutzt als Beispiel ein Foto vom Jupiter – bei anderen Fotos könnten die Einstellungen ganz andere sein.

Wir stellen auf der linken Seite den Radio-Button “Wavelet Filter” von “Default” auf “Gaussian” um. Dann bekommen wir darunter zwei Spalten mit den Überschriften “”Denoise” und “Sharpen”.

Unter “Use Linked Wavelets” setzt man ein Häckchen, dann wirken die darunter stehenden Layer additiv, was gute Ergebnisse liefert aber auch große Vorsicht erfordert…

In der rechten Spalte (d.h. Überschrift “Sharpen”) ist als Voreinstellung für die Werte auf allen Layers 0,1 eingetragen.  Wir stellen als Werte ein:

  • Layer 1: Wert 0,07 oder 0,08     (Auf diesem Layer wollen wir nicht Schärfen, sondern eigentlich nur das Rauschen bekämpfen.
    Der Wert muss so klein gewählt werden, dass auf diesem Layer nur entrauscht und nicht geschärft wird.
    Das kann je nach Bild leicht unterschiedlich werden…)
  • Layer 2: Wert 0,1                       (das ist der voreingestellte Standardwert)
  • Layer 3: Wert ,12
  • Layer 4: Wert 0,14
  • Layer 5: Wert 0,16

Mit den obigen Einstellungen passiert ersteinmal noch garnichts – wir haben ja hiermit nur die Filtergrößen eingestellt.
Erst mit den Schieberglern stellen wir die Stärke der Filter (Schärfungsfilter) auf den einzelnen Ebenen ein.

In der linken Spalte (d.h. Überschrift “Denoise”) sind als Voreinstellung für die Werte Nullen eingetragen. Das lassen wir so wie es ist. Also haben wir die Werte:

  • Layer 1: Wert 0
  • Layer 2: Wert 0
  • Layer 3: Wert 0
  • Layer 4: Wert 0
  • Layer 5: Wert 0

Nun kommen wir zu den Schiebereglern. Auf jeder Ebene (Layer) gibt es Schieberegler, die die Stärke der Filter (Denoise und Sharpen) auf dieser Ebene einstellen.

Als Voreinstellung stehen die Schiebergler alle sehr weit links auf einem Wert von 1, diese Zahl wird auch rechts vom Schiebergler in Feld “Preview” angezeigt. Wenn wir einen Schieberegler ganz nach rechts schieben, steigt der Wert im Feld Preview auf 100. Wenn wir einen Schieberegler jedoch nach links bewegen, bekommen wir kleinere Werte (kleiner 1) angezeigt.

Da wir nur Schärfung (Sharpen) und nicht Entrauschen (Denoise) in den Filtergrößen eingestellt haben, beeinflussen wir mit den Schiebereglern also nur das Schärfen. Zum Entrauschen kommen wir später.

  • Layer 1: Schieberegler noch so lassen (auf dieser Ebene wollen wir ja später entrauschen)
  • Layer 2: Schieberegler ganz viel nach rechts  (90% oder so)
  • Layer 3: Schieberegler so ungefähr auf 20%
  • Layer 4: Schieberegler so bei 10%

Wir können die Regler der Layer 2-3-4  immer ein bisschen weiter aufdrehen (nach rechts), bis das Rauschen hässlich wird – was nicht so schrecklich ist, denn wir werden das Rauschen ja gleich bekämpfen.

Immer wenn durch das obige Aufdrehen eines Schiebereglers ein starkes Rauschen erscheint, sollten wir gleich zum Punkt “Entrauschen” (unten) gehen und vorsichtig entrauschen. So werden wir zwischen Schärfen auf einer Ebene und Entrauschen hin- und her gehen und dann vielleicht die nächste Ebene schärfen usw.

Durch das Schärfen kommt natürlich das Rauschen wieder hoch; das ist aber kein Drama, denn das Rauschen bekämpfen wir auch noch s. unten. Letztlich müssen wir eine Balance zwschichen guter Schärfung und vernünftigem Entrauschen finden.

Die Qualität seines Ergebnisses kann man zwischendurch durch die Function (rechts) “View Zoom” optisch beurteilen…

Das Entrauschen machen wir auf Layer 1.

Auf Layer 1 erhöhen wir die Größe des Rauschfilters so lange bis das Rauschen (fast ganz) verschwunden ist.
Iterativ abwechselnd mit dem Schärfen je Ebene beispielsweise:

  • Nach Schärfen auf Ebene 2: Größe des Rauschfilters (d.h. Ebene 1) = 0,35
  • Nach Schärfen auf Ebene 3: Größe des Rauschfilters (d.h. Ebene 1) =  0,50

Die Stärke unseres Rauschfilters (Layer 1) können wir auch durch den Schieberegler auf Layer 1 fein einstellen.

Wenn am Ende ein zufriedenstellendes Ergebnis erreicht ist. drückt man in der dicken oberen Leiste auf “Do All” um die Wavelets auf das ganze Bild anzuwenden und schießlich “Save Image” um das Bild abzuspeichern.

 

 

Astronomie: Fokussieren mit dem Motor-Fokus

Gehört zu: TeleskopeMeine Geräteliste
Siehe auch: Fokussieren mit N.I.N.A., PegasusAstro Motor Focusser, USB-Focus_Heavy, ZWO EAF, AstroMechanics, Fokussierung, ASCOM-Treiber, OAZ, Remote Control
Benutzt: Fotos von Google Drive

Stand: 29.04.2023

Patriot Astro:

Das Problem: Optimales Fokussieren ggf. Remote

Besonders bei der Astrofotografie fällt es unangenehm auf, wenn bei einem mühsam erarbeiteteten Foto die Scharfstellung (Fokussierung) nicht hundertprozentig ist.

Es gibt ja mehrere Methoden, wie man den genauen Fokuspunkt findet; z.B. Live View mit Bildschirmlupe, Hartmann-Maske, Bahtinov-Maske. Es bleibt aber das Problem, dass jede Berührung des Einstellrades am Okularauszug (OAZ) das Teleskop ein wenig (oder mehr) zum Wackeln bringt. Um dieses Wackeln zu vermeiden, gibt es Motoren, die man am Stellrad des OAZ befestigt…

Einfache Lösung: Live View

Mit der Canon EOS 600DA: Einen hellen Stern ins Gesichtsfeld einstellen – zum Finden eines solchen Sterns muss der Sucher vorher gut justiert werden. Fokussieren im Live View z.B. mit APT. Dabei sollte man das Live-View-Bild elektronisch 10-fach vergrößern.

Mit der ZWO ASI294MC Pro bekomme das Bild ja ausschließlich per Software auf meinem Computer. Bei der Software APT bekomme ich kein richtiges “Live View”. Aber die Software SharpCap liefert ein akzeptables “Life View”, was man auch vergrößern kann.

Warum Motor-Fokus?

Erstens ist es eine komfortable Lösung zum feinfühligen Fokusieren (s.u.).

Zweitens brauche ich einen ASCOM-fähigen Motor-Fokussierer wenn ich mein Teleskop Remote steuern will.

Komfortable Lösung: Motor-Fokus

Eine Motor-Fokus-Lösung besteht aus einem Motor (Schrittmotor oder Gleichstrommotor), dessen Drehachse irgendwie an die Drehachse des OAZ (Okularauszug) gekoppelt wird, sowie einer Steuerbox (Controller) die manuelles Betätigen des Motors erlaubt bzw. auch mit dem Computer verbunden werden kann und dann per ASCOM gesteuert werden kann. Contine reading

Astrofotografie: Bildbearbeitung

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung mit Photoshop, Bildbearbeitung mit GIMP, Schärfen, Wavlets, Lucky Imaging
Benutzt: Fotos von Google Archiv

Stand: 06.06.2021

Elektronische Bildbearbeitung (EBV) – Image Processing

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

In vielen Fällen sind längere Belichtungszeiten sinnvoll, sodass man sich mit der Kunst der Nachführung auseinandersetzen muss; wobei die Lichtverschmutzung der Belichtungszeit auch Grenzen setzen wird.

Die Ausbeute an Bildern einer Astro-Nacht wird man tags darauf sichten, speichern und bearbeiten (“stacking” und “post processing”) müssen; d.h. wir können dann verschiedene Funktionen und Techniken der elektronischen Bildverarbeitung anwenden.

Generelles

Farbtiefe – 8 Bit – 16 Bit – 32 Bit

Wenn eine Kamera das Signal nur mit 8 Bit digitalisiert, wären das 2 hoch 8 = 256 verschiedene Stufen. Das ist sehr wenig. Bei einer Digitalisierung von 16 Bit hätte man 2 hoch 16 = 65536 verschiedene Stufen. Das wäre sehr viel besser, um die Feinheiten eines Astro-Fotos darzustellen.

Das JPEG-Format hat leider nur 8 Bit; es ist also sehr zu raten, die Kamera so einzustellen dass die Bilder im RAW-Format abgespeichert werden; dann ist die Farbtiefe z.B. bei der Canon EOS 600D schon 14 Bit (also 2 hoch 14 = 16385 Stufen). Das ist in jedem Fall besser als JPEG.

Wenn ich ein Bild per Software bearbeite, sollte in den einzelnen Bearbeitungsschritten keine Information verloren gehen; daher sollten Bildverarbeitungsprogramme mindestens 16 Bit unterstützen – besser noch 32 Bit (4294967296 Stufen). Wenn das Bild am Ende der Bearbeitung in 16 Bit gespeichert wird, ist das schon OK.

Aufnehmen von Planeten vs. Deep Sky Objekten (“DSOs”)

Grundsätzlich wird man unterschiedliche Anforderungen an die Astrofotografie haben bei

  • Mond und Planeten (und Sonne)                                              –> Aufnahme mit Software FireCapture oder SharpCap
  • Nebel und Galaxien  (sog. “Deep Sky Objekte” = “DSO”)     –> Aufnahme mit Software APT oder N.I.N.A.

Bei ersterem (Mond, Planeten, Sonne) geht es eher um Detailverstärkung ( = Schärfen) evtl. auch um Kontrastreduzierung

Bei letzterem (Nebel und Galaxien) wird man nach einer Kontrastvertärkung (durch Stretchen und eine S-Kurve) besonders das Rauschen wieder unterdrücken wollen und vielleicht in Teilbereichen (dazu brauchen wir Masken) feine Strukturen besser herausarbeiten wollen.

Funktionen der Bildbearbeitung für Planeten

Da die Objekte eigentlich hell sind aber klein, wird ein Öffnungsverhältnis von f/20 empfohlen. Die kleinsten Details sollen 2 Pixel groß sein. Wenn die Pixel  ganz klein sind, käme man auch mit f/10 oder so aus.

Bei Planeten und Mond ist ganz besonders die Luftunruhe (das sog. “Seeing“) ein Hauptproblem.

Die gängige Technik gegen schlechtes Seeing ist das sog. “Lucky Imaging“, wobei man ein Video aufnimmt (also viele Einzelbilder mit kurzer Belichtungszeit)  und dann später aus dem Video diejenigen Einzelaufnahmen “Frames” benutzt, die am wenigsten durch schlechtes Seeing (Luftunruhe) beeinträchtigt sind.

Beliebte Software für dieses Lucky Imaging ist AutoStakkert. Auch Registax könnte man dafür nehmen.
Pionier auf diesem Gebiet war Georg Dittie mit seiner bahnbrechenden Software Giotto (Version 1.0 im Jahre 2000).

Nachdem man dem schlechten Seeing soweit ein Schnäppchen geschlagen hat, wird man das Bild dann häufig noch etwas Schärfen wollen.

Funktionen der Bildbearbeitung für DSOs

Ich bin durch Videos von Nico Carver auf Youtube darauf gekommen, mal etwas ausführlicher die Vorgehensweise (Workflow) bei meiner DSO-Astro-Fotografie zu beschreiben.

  • Trevor Jones: Astrophotography Image Processing Tutorial (Photoshop

1. Stacking – Summenbild – Signal Noise Ratio (SNR)

Bei der Astrofotografie von DSOs macht man viele Einzelaufnahmen (“Frames”, “Sub-Exposures”), die man dann “Stacken” muss.
Die Summe der Einzelbelichtungszeiten addiert sich dann zur Gesamtzeit, der sog. Integrationszeit. Effektiv erhält man also eine längere Belichtungszeit. Das ist hilfreich z.B. wenn:

  • Ich nur kurze Zeit nachführen kann, aber eigentlich eine längere Belichtungszeit benötige
  • die Himmelshelligkeit die maximale Belichtungszeit für eine Einzelaufnahme begrenzt

Eine längere Belichtungszeit erhöht vordergründig das Lichtsammelvermögen (durch Addition). Tatsächlich ist es aber das Signal-Rauschverhältnis (Signal Noise Ratio =SNR)  was verbessert wird, weil das Rauschen stochastisch ist und damit “weggemittelt” werden kann.

Zusätzlich zu den eigentlichen Einzelbildern des Beobachtungsobjekts (den sog. Light Frames) nimmt man zur Optimierung und Korrektur noch sog. Kalibrierungsbilder auf: Dark Frames, Flat Frames und Bias Frames, welche alle von der Stacking-Software zu einem Summenbild verarbeitet werden.

Software zum Stacken:

Was sollte man beim Stacken beachten?

  • Wie werden die Aufnahmen (Frames) richtig “gestackt”?
  • Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.
  • Wie das mit der Software SiriL geht, beschreibe ich im separaten Artikel über SiriL
  • Wie das mit Astro Pixel Prozessor geht, beschriebe ich im separaten Artikel über APP
  • Links zum Stacking:  http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

2. Rand abschneiden

Nach dem Stacking hat man oft einen kleinen schwarzen Rand um das Bild, weil vielleicht eine kleine Verschiebung der Bilder mit im Spiel war. Diesen kleine Rand sollten wir abschneiden, da er nicht zum “Nutzsignal” gehört und z.B. das Histogramm auf der linken Seite verfälscht.

Sehr einfach kann man das mit der kostenlosen Software Fitswork machen oder auch mit Photoshop.  (Werkzeug “Crop”)

3. Farbkorrektur / Color Calibration

Wenn das Histogramm unterschiedliche Spitzen für die Farbkanäle (Rot, Grün oder Gelb) anzeigt, kann man diese zur Deckung bringen und so grobe Farbstiche korrigieren.
Das kann man sehr einfach mit der Software Fitswork machen.

Bei der Farbkalibrierung kommt es darauf an, was man als Bezugspunkt nimmt. Als Bezugspunkt nimmt man im einfachsten Fall eine “neutrale” Stelle im Hintergrund. Der Hintergrund selbst könnte aber schon verfälscht sein. Die bessere Farbkalibrierung geht deswegen vom sog. B-V-Index der Sterne aus, das kann entweder ein manuell im Bild identifizierter Stern sein, dessen B-V-Index man kennt oder man identifiziert die Sterne im Bild durch Plate Solving und holt sich dazu die B-V-Indices als Sternkatalogen herunter. Software mit sog. “astrometrischer” Farbkalibrierung; d.h. über Platesolving und B-V-Indices:

4. Lichtverschmutzung entfernen – Background Extraction – Gradienten entfernen

Das gestackte Farb-Bild muss zunächst farblich bearbeitet werden (so etwas wie Farbkalibrierung) und dann können wir den Hintergrund (d.h. die Lichtverschmutzung und ggf. Gradienten) entfernen.
Mit Adobe Photoshop geht das so:

Quelle: Nico Carver: How to capture a Galaxy with your DSLR

Stretchen und RGB-Farben kalibrieren

Um genau zu sehen, was wir da machen, zeigen wir erst einmal das Histogramm mit den RGB-Kanälen an. Voraussetzung für die Farbkalibrierung ist, das alle drei Farbkanäle im Histogramm gut vom linken Rand abgelöst sind (also: lange genug belichten).

Dann stretchen wir die einzelnen RGB-Farbkanäle so, dass sie alle in etwa gleich breit sind und an der gleichen Stelle im Histogramm stehen (abgelöst vom linken Rand). Das machen wir in Adobe Photoshop mit dem Befehl “Bild (Image) -> Korrekturen (Adjustments) -> Tonwertkorrektur (Levels)” aussehen.

Ausschnitt: Croppen und nochmals Farben korrigieren

Im ganzen Bild können jetzt sehr hässliche Gradienten erscheinen. Wenn wir nun den interessanten Bildausschnitt “croppen”, werden die Gradienten weniger werden und auch die Vignettierung wird weniger schlimm. Durch das “croppen” werden sich die RGB-Kanäle im Histogramm wieder verändern.  Wir müssen erneut durch Levels die RGB-Kanäle anpassen (wie oben).

Hintergrund extrahieren

Das so erzielte Bild können wir nun benutzen, um den Hintergrund zu extrahieren und dann abzuziehen. Das geht so:

  • Kopieren des gegenwärtigen Fotos als separates Foto: Select All, Edit Copy, File New, Edit Paste. Somit haben wir ein neues Foto, dass wir auf den Hintergrund reduzieren können.
  • Nun bearbeiten wir dieses neue Foto so, dass die Sterne entfernt werden und nur noch der Hintergrund sichtbar ist. Das geht in Adobe Photoshop mit: Filter -> Noise -> Dust & Scratches. Dabei nehmen wir als Radius 128 und als Threshold 0. In der Mitte des Bildes ist durch das Objekt noch eine leichte Aufhellung vorhanden, die wir aber gleich separat entfernen. Das machen wir mit dem Klone Stamp Tool (Opacity 85%) auf Taste “Alt” drücken, um einen kleinen repräsentativen Bereich aufzunehmen und diesen dann mit einigen Klicks über dem Objekt bringen, um dieses auszublenden.
  • Wenn das noch nicht schön glatt aussieht, können wir noch den Filter “Gaussian Blur” mit einem großen Radius (z.B. 160) darüber laufen lassen. Nun haben wir ein schönes weiches Bild von unserem Hintergrund. Dieses Bild vom Hintergrund müssen wir nun abspeichern: File -> Save As…

Hintergrund abziehen:

Nun zurück zum eigentlichen Foto. Dort wollen wir nun von unserem Foto den Hintergrund (also: Lichtverschmutzung, Gradienten, Vignettierung) abziehen.

  • Zur Sicherheit machen wir im eigentlichen Foto eine Kopie als Layer
  • Dann gehen wir auf “Image -> Apply Image”
    • Dabei müssen wir als “Source” das zweite Bild (das mit dem geglätteten Hintergrund) angeben.
    • Und den “Blending Mode” müssen wir auf “Subtract” umstellen.
    • Dann setzten wir “Scale” auf 1  (Empfehlung von Nico Carver)
    • und “Offset” zwischen 30 und 100 z.B. auf 60   ( Null ergibt ein sehr dunkles Bild, 200 ein sehr helles Bild). IM Zweifelsfall sollte das Bild ruhig etwas heller (grauer) als was als schön empfunden wird eingestellt werden. Es ist ja “nur” ein Zwischenschritt wobei hier keine Details verloren gehen sollten.
    • Nun lösen wir die Subtraktion aus durch die Schaltfläche “OK”
  • Wir kontrollieren nocheinmal die RGB-Farben im Histogramm (“Levels”); ggf. machen wir kleine Anpassungen
  • Dann setzen wir den Blacklevel im RGB-Histogramm (linker Schieber) leicht an den Beginn des Gebirges heran.
  • Fertig

Luminanzmaske

Mit einer Luminanzmaske kann man selektiv “Vordergrund” und “Hintergrund” unterschiedlich bearbeiten.
Z.B. einerseits die Farbsättigung und Helligkeiten der Sterne und des Objekts “hochziehen” ohne das der Background noch schrecklicher wird; andererseits, wenn man sie invertiert, gerade beim Background  die Farben “Entsättigen”, ohne den “Vordergrund” zu beeinträchtigen.

Wie erstellen wir zu unserem Bild nun in Adobe Photoshop eine Luminanzmaske?

Wir duplizieren den Layer (Ebene) nochmals (Ctrl J)

Umwandeln in Graustufen: Image -> Adjustments -> Black & White -> OK

Agressiv die Grautöne abstufen, bis der Hintergrund ganz schwarz ist und die Sterne und die Galaxis ganz weiss sind.

Nun können wir dieses Bild als Maske verwenden.

Wir fügen zur obersten Ebene einen “Adjustment Layer” hinzu und zwar “Hue/Saturation”. Dadurch entsteht im obersten Layer eine Maske, die aber ganz weiss ist.

5. Vignettierung entfernen

Sehr einfach kann man eine Vignettierung mit der kostenlosen Software Fitswork entfernen.

6. Gradienten entfernen – Hintergrund ebnen – Background Extraction

Der Bildhintergrund sollte im Idealfall einen gleichmäßig dunklen Himmel zeigen. Wenn es da aber einen Helligkeitsverlauf gibt (z.B. oben dunkler, unten heller), spricht man von einem Gradienten (Farbverlauf).

Mit Fitswork lässt sich so ein Gradient relativ leicht entfernen.

Wenn der Helligkeitsverlauf im Himmelshintergrund etwas komplexer ist, reicht es nicht aus mit Gradienten zu arbeiten. Dann ist eine sog. “Background Extraction” angezeigt. Auch das kann oft ganz leicht mit der Software Fitswork gemacht werden.

7. Stretching – Histogramm

Spreizen – Streckung – Abschneiden – Gradationskurve – Gamma

Die Bearbeitung des Histogramms kann durch Software wie Fitswork, GIMP, Photoshop o.ä. erfolgen. Wichtig ist, dass die Software dafür eine 16 Bit Digitalisierung benutzt.

Der Sensor einer Digitalkamera hat eine gut lineare Charakteristik d.h. wenn doppelt soviele Photonen eintreffen, werden doppelt so viele Elektronen erzeugt. Wenn man nun das Histogramm bearbeitet, unterscheidet man zwischen linearem Stretching und nicht-linerarem Stretching. Solange die Linearität erhalten bleibt sind wissenschaftliche Auswertungen möglich, wenn nicht-linear gearbeitet wird, kommen wir in den Bereich der “Pretty Pictures“.

Alles, was man im Histogramm manipuliert, kann auch mit einer Manipulation der Gradationskurve erreichen.

Der linke Regler beim Histogramm setzt “fast schwarze” Pixel auf “ganz schwarz”; d.h. es wird links abgeschnitten (“geclippt”).

Der rechte Regler schneidet die ganz hellen Pixel ab, sodass das verbleibende Bild heller und kontrastreicher wird. Gravierender Nachteil ist, dass im Bereich der helleren Sterne Information verloren geht; man sieht ein “Ausblühen” der Sterne. Im Normalfall muss der rechte Regler also völlig Tabu sein.

Der mittlere Regler beim Histogramm ist etwas dubios. Man kann damit die Gradationskurve anheben oder absenken.
Wenn man nur diesen mittleren Regler bewegt (und nicht den linken und nicht den rechten), dann sieht man, dass dadurch die Gradationskurve genau in der Mitte angehoben (Fitswork: Regler nach rechts) oder abgesenkt (Fitswork: Regler nach links) wird.

Experten empfehlen folgende Vorgehensweise:

  1. Linken Regler nach rechts an das “Gebirge” vorsichtig heranfahren  (Achtung: nichts abschneiden)
  2. Rechten Regler so lassen, wie er ist.
  3. Mittleren Regler etwas “aufdrehen” (Fitswork: nach rechts)  so etwa in den rechten Anfang des “Gebirges” fahren
  4. Abspeichern
  5. Punkte 1-2-3 wiederholen, ggf. mehrfach…

8. Kontrastverstärkung – Gamma-Kurve

Am Anfang liefert unsere Kamera eine lineare Kontrastkurve. Kontrastverstärkung kann durch eine leichte S-Kurve im “Curves Tool” (Adobe Photoshop) erfolgen.

9. Rauschunterdrückung – Rauschreduzierung – Glättung

Siehe auch: Wavelets

Rauschfilterung wird auch als “Glätten” (z.B. bei Fitswork) oder auch als “Weichzeichner” bezeichnet.

Das Rauschen bedeutet Helligkeitsunterschiede in Flächen, die eigentlich einfarbig sein sollten, und ist in dunklen Bereichen meist am deutlichsten wahrnehmbar.

Bildrauschen entsteht, wenn das Licht nicht ausreicht, um das Bild ausreichend zu belichten.

Man kann dann den sogenannten ISO-Wert erhöhen. Dieser hellt das Bild auf, verursacht aber seinerseits auch Bildrauschen.

Deep Sky Objekte (DSO)

Bei Deep-Sky-Aufnahmen ist es ja eigentlich immer so, dass “das Licht nicht ausreicht” – man hat also immer irgendwie mit “Rauschen” zu tun.

Allerdings wird man sich bei DSOs als erstes mal mit dem Stretchen beschäftigen, um mehr Detail aus den lichtschwachen Objekten herauszubekommen (was hat Stretchen mit dem Begriff “Kontrastverstärkung” zu tun? Mir hat das noch keiner erklärt.).

Durch das Stretchen hat man auch das Rauschen verstärkt, was man im zweiten Schritt dann “entfernen” oder Reduzieren möchte.

Ich habe das in einem ersten Anlauf mal mit Adobe Photoshop versucht:

Quelle: https://praxistipps.chip.de/photoshop-bildrauschen-entfernen-die-besten-tipps_38993

  • Ein DSO-Bild nach dem Stacken und Stretchen als 16-Bit in Photoshop geladen
  • Dann: Menüleiste –> Filter –> Camera Raw-Filter
  • Bei den “Grundeinstellungen” auf das dritte Symbol von links (zwei Dreiecke) klicken
  • Dort gibt es “Schärfen” und Rauschreduzierung”. Schärfen will ich nicht;
    • bei Rauschreduzierung drehe ich den Luminanz-Schieber sehr weit nach rechts. Das bewirkt eine starke Rauschreduzierung
    • Luminanzdetails bedeutet, welcher welcher Luminanzbereich von der Rauschreduzierung verschont bleiben soll. Den stelle ich auf Null, weil ich die volle Wirkung der Rauschreduzierung sehen möchte.

Zweiter Versuch mit Photoshop

Quelle: https://www.netzwelt.de/news/108131_2-photoshop-so-entfernen-bildrauschen.html

Die besten Ergebnisse erreichen Sie mit dem Filter “Rauschen reduzieren”. Diesen finden Sie im Menü unter “Filter” → “Rauschfilter”.

Abbildung 1: Photoshop-Menüleiste – Filter – Rauschfilter (Google Drive: photoshop-01.jpg)


Photoshop Rauschfilter

In einem Dialogfeld mit Miniaturansicht nehmen Sie Ihre Einstellungen mithilfe von Schiebereglern oder der Eingabe von Werten vor. Dabei haben Sie folgende Optionen:

  • “Stärke”: Sie reduzieren das Luminanzrauschen gleichzeitig auf den drei Bildkanälen “Rot”, “Blau” und “Grün”.
  • “Details erhalten”: Sie können möglichst viele Bilddetails und Kanten bewahren. Je höher dabei der Wert eingestellt wird, umso mehr Details bleiben erhalten.
  • “Farbrauschen reduzieren”: Mit diesem Regler passen Sie das chromatische Rauschen an.
  • “Details scharfzeichnen”: Durch die Rauschreduzierung treten Schärfeverluste auf, die Sie hier anpassen können.
  • Wenn Sie die Checkbox “JPEG-Artefakt entfernen” aktivieren, versucht Photoshop, pixelige Bildfehler automatisch zu reparieren.

Abbildung 2: Photoshop – Filter – Rauschen reduzieren – Einstellungen (Google Drive: photoshop-02.jpg)


Photoshop-02: Rauschen reduzieren

Geübte Photoshop-Nutzer können in der Registerkarte “Pro Kanal” ihre Einstellungen kanalweise vornehmen. Für die nächste Bearbeitung speichern Sie Ihre Einstellungen optional im Dialogfenster mit Klick auf das Laufwerkssymbol neben “Einstellungen”.

Weichzeichner

Die beiden Filter “Selektiver Weichzeichner” und “Gaußscher Weichzeichner” verringern Bildfehler durch das Weichzeichnen, eine spezielle Art der Kontraständerung. Mit diesen Filtern arbeiten Sie differenzierter als mit “Rauschen reduzieren” und bewahren mehr Bilddetails. Sie finden beide Filter im Menü unter “Filter” → “Weichzeichnungsfilter”.

Im Dialogfeld des Gaußschen Weichzeichners senken Sie mit dem Schieberegler unter “Radius” den Kontrast benachbarter Pixel. Das Bild wirkt glatter. Stellen Sie jedoch den Radius nicht zu hoch ein, da das die Bildschärfe mindert.

Mit dem selektiven Weichzeichner können Sie neben dem Radius auch den Schwellenwert einstellen. Gehen Sie jedoch auch hierbei behutsam vor. Bei zu starker Weichzeichnung “verschwimmen” die Kanten.

Die Entfernung des Bildrauschens geht immer ein bisschen mit der Reduzierung der Bildschärfe einher. Sie müssen daher je nach Bild entscheiden, inwieweit die Rauschentfernung angewendet werden soll.

Schärfen

Quelle: Erik Wischnewski: Astronomie in Theorie und Praxis, 7. Auflage, S. 172

Unscharf bedeutet, dass Hell-Dunkel-Übergänge sanft verlaufen. Scharf bedeutet, dass diese Übergänge härter (schneller und auf kurzer Strecke) erfolgen.

Schärfungsalgorithmen versuchen also aus einem weichen Übergang einen harten zu machen.

Schärfung darf nicht übertrieben werden. Was im Original nicht scharf ist, kann auch nicht mehr im nachhinein scharf gemacht werden.

Zum Schärfen gibt es spezielle Schärfungsfilter z.B. Iterative Gauß-Schärfung.

Schärfen erhöht das Bildrauschen….

Der Schwellwert des Schärfefilters sollte so klein eingestellt werden, das kleinere Helligkeitsunterschiede beim Schärfen ignoriert werden.

Gezielt nur Teile eines Bildes bearbeiten: Ebenen und Masken

Bei Deep-Sky-Objekten wird man auch das Bedürfnis haben, bestimmte Teile eines Fotos anders zu bearbeiten als andere Teile. Dazu gibt es  einen Ansatz von Ron Wodaski, der sich Vier-Zonen-System nennt:

  1. Der Hintergrund “Zone 1” soll – ohne Rauschen – sehr dunkel sein
  2. Gebiete mit schwachen Nebeln  “Zone 2” haben ein schlechtes Signal-Rausch-Verhältnis (SNR) und können nicht geschäft, sondern nur entrauscht werden.
  3. Gebiete mit stärkeren Nebeln “Zone 3” haben ein gutes Signal-Rausch-Verhältnis (SNR) und sollten geschärft werden.
  4. Die ganz hellen Bereiche “Zone 4” haben ein super-gutes SNR und sollten ebenfalls nicht entrauscht werden…

Hierzu gibt es auf Youtube ein einführendes Video von Frank Sackenheim. Ich habe dann versucht, das Ganze in einem separaten Artikel zu beschreiben.

Man kann das alles sehr gut mit Adobe Photoshop machen.