Astrofotografie mit der Software qDslrDashboard 2016

Gehört zu: Astrofotografie

Astrofotografie: Fernbedienung der Kamera vom Windows-Computer

Als Amatuer-Astrofotograf mit beschränkten Mitteln möchte ich Astrofotografien mit meiner Digitalkamera (Sony-NEX-5R , Canon EOS 600Da) per Fernsteuerung über meinen Windows-Computer machen, um Fotos zu erhalten, die das Beobachtungsobjekt mittig im Bild (“Framing”), scharfeinstellt (“Focussing”) und richtig belichtet auf meinem Windows-Computer zeigen.

Das bedeuet im Einzelnen:

  • Das Beobachtungsobjekt muss in die Mitte des Gesichtsfelds eingestellt werden   (-> Goto, -> Alignment, -> Sucher -> Live View)
  • Das Beobachtungsobjekt muss scharf gestellt werden  (-> Fokussierung)
  • Belichtungszeit und ISO-Empfindlichkeit müssen gut eingestellt werden (-> Fernbedienung)
  • Ein Wakeln beim Auslösen soll vermieden werden (-> Fernbedienung)
  • Das fertige Foto muss auf den Windows-Computer transferriert werden

Fernbedienung /Fernauslöser für die Astrofotografie

qDslrDashboard ist eine Software, mit der man Digital-Kameras (Nikon, Canon, Sony) fernsteuern kann.

Eine Besonderheit ist die Unterstützung von Sony, die sonst kaum zu finden ist. Wobei die Sony-Unterstützung ausschließlich über WLAN (WiFi) möglich ist und nicht über USB-Kabel.

qDlsrDashboard gibt es für  iOS, Android und für Windows; d.h. ich kann es auf meinem normalen Notebook laufenlassen, wo ich auch andere Astro-Software drauf habe und auch die Bildqualität schnell und gut prüfen kann.

Angefangen habe ich das Thema Fernbedienung mit der von Sony gelieferten Software “Play Memories Mobile” (App für iPad).

Stromversorgung für das Notebook

Für die mobile Astrofotografie muss ich dann allerdings auch mein Notebook mitnehmen und ggf.  für eine Stromversorgung über längere Zeit sorgen; entweder mit Ersatzakku oder mit entsprechendem Netzteil.

Stichworte: Kfz Notebook Netzteil 19V 3,4 A / Firstcom Universal 12-19 V /  https://www.amazon.de/Firstcom-Universal-Notebook-Netzteil-Fujitsu/dp/B016KN9Q96

Die wichtigsten Astro-Funktionen von qDslrDashboard

  • Verbinden von qDslrDashboard mit der Sony-Kamera über WLAN: Klicken auf “Sony”
  • Einstellen eines Gitternetzes mit Kreuz im Bildmittelpunkt  (z.B. für Alignment)
  • Live View
  • Einstellen ISO, Belichtungszeit, Fokus
  • Einzel-Fotos
  • Foto-Serie
  • Kontrolle der Fotos auf dem Notebook

Mein Kochbuch für qDslrDashboard

  1. Verbindung Kamera-Notebook per WLAN herstellen
    1. Andere evtl. störende WLANs in der Nähe ausschalten
    2. Sony NEX-5R WLAN Access Point anschalten
    3. Auf Windows-Notebook WLAN-Verbindung zu diesem Access Point herstellen (Achtung: “Kein Internet” ist richtig hier)
  2. qDslrDashboard starten
    1. Mit Sony-Kamera verbinden:   Leiste oben -> auf “Sony” drücken
    2. Live View einschalten: Leiste links -> oberstes Symbol “LV”
    3. Belichtungszeit und ISO-Wert ungefähr einstellen (bis ein Bild sichtbar wird)  -> unterer Bildrand links
    4. Grid 2×2 anschalten: Leiste links, 2. Symbol von oben “Einstellungen”; dann in Zeile “Live View Display” auf “Grid 2:2” klicken
    5. Ordner für Speicherung der Fotos (JPG) definieren: Rechte Leiste: Oberes Symbol (3 Schieberegler), Leiste oben: zweites Symbol von rechts (Hammer und Schraubendreher gekreuzt)  “Folder for local images”… d:\var\pictures
  3. Ein Foto mit qDslrDashboard schießen
    1. Linke Leiste, zweites Symbol von oben klicken (abwarten bis Belichtungszeit abgelaufen, erst dann macht es “klick”)
  4. Foto mit der Software “All Sky Plate Solver” analysieren…

Astrofotografie: Bildbearbeitung: Stacking – Calibration

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung , Belichtungszeit, DSS, Probleme Lösen mit Stacking, Mein Aufnahmeverfahren, Astro Pixel Processor
Benutzt: Fotos aus Google Archiv

Stand: 10.05.2023

Warum Stacking?

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.

Die Vorteile des Stackings sind:

  • Vermeidung von Nachführungsfehlern (Sterne werden Striche)
  • Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
  • Begrenzung des Effekts der Lichtverschmutzung
  • sonst noch was?  — Signal-Rausch-Verhältnis (SNR) —

Die beliebteste Software zum Stacken ist der Deep Sky Stacker “DSS” und der Astro Pixel Processor “APP”.

Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.

Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.

Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…

Z.B. die Software SharpCap beherrscht ein solches Live Stacking.

Links

http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

Welche Software kann Stacking?

Umgangssprachlich spricht man gerne vom “Stacking”;  eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.

Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:

  • Deep Sky Stacker
  • Sequator   (Windows only)
  • Fitswork   (eingestellt – Windows only)
  • PixInsight
  • MaxIm DL
  • Regim (Dank Java auch für Linux)
  • Siril   (Linux, Windows, MacOS)
  • Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
  • u.a.

Welche Kalibrierungs-Frames brauche ich?

Das Wichtigste sind die Flat Frames.

Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.

Welche Aufnahmen (“Frames”) muss ich machen?

Light Frames

So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.

Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.

Dark Frames

Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.

Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.

So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.

Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.

Darkframes – Dunkelbildabzug

Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45  Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.

Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.

Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:

Abbildung 1 und 2: DSS Dunkelbildabzug (Google Archiv: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)

Calibration: Lights without Darks

Calibration: Lights without Darks

Calibration: Lights with Darks

Calibration: Lights with Darks

Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:

  • Die Hotpixel werden eliminiert
  • Das Dunkelstrom-Signal wird eliminiert (abgezogen)
  • Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)

Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).

Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg

Flat Frames

Was ist ein “Flat Frame”?

Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.

Wofür benötigt man Flat Frames?

Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.

Wie fertigt man ein Flat Frame an?

Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.

Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.

Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).

Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.

Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.

Wie macht man Flat Frames mit APT?

Bias Frames (auch Offset Frames genannt)

Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.

Wofür benötigen wir Bias Frames?

Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.

Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.

Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.

Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.

Der Rat von Frank zum Thema Stacking:

Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!

So sieht Franks Zusammenfassung aus:  https://www.youtube.com/watch?v=rgZ5MTSHClU

Wie werden die Aufnahmen (Frames) richtig “gestackt”?

Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.

 

Astronomie: Planetarium-Software: Meine Anforderungen – Stellarium – Cartes du Ciel – Guide

Gehört zu: Beobachtungsplanung
Gehört zu: Astro-Software

Planetarium-Software

Mit einer guten Planetarium-Software kann ich schnell den Himmel für die abendliche Beobachtungsplanung abchecken oder für einen Urlaub astronomische Aktivitäten planen.

Wenn die Anforderungen steigen,  muss man etwas genauer vergleichen, welche Planetariums-Software (zunächst für Microsoft Windows) was bietet.  In meine nähere Auswahl (“Short List”) sind gekommen:

Ausserdem habe ich:

Meine Anforderungen sind

  • Günstige Kosten
  • Zukunftssicherheit
  • Leicht beherschbare Benutzeroberfläche
  • Einstellen des Beobachtungsorts (speichern mehrerer Orte)
  • Einstellen des Zeitpunkts der Beobachtung
  • Einfaches Navigieren und Orientieren am (virtuellen) Sternhimmel
  • Auswahl der Himmelsobjekte, die angezeigt werden sollen
    • Selektion nach Grenzhelligkeit und Objekttypen
    • Namen von Objekten
    • Erdsatelliten
    • Kometen
    • Gradnetze
  • Suchen eines Beobachtungsojekts
  • Messen von Winkelabständen
  • Gesichtsfeld-Rahmen (Sensorfeld bzw. Okular)
  • Liste von Beobachtungsobjekten
  • Sternkataloge einbinden
  • Sternkarten ausdrucken
  • ASCOM-Teleskopsteuerung
  • Skripting

Astrofotografie: Plate Solving: Welche Sterne sind auf meinem Bild?

Gehört zu: Astro-Software
Siehe auch: APT, All Sky Plate Solving, PlateSolve2, Mindmap Astrofotografie

Astrofotografie: Plate Solving Software

Was ist Plate Solving?

Unter “Plate Solving” versteht man eigentlich nur die Funktion, dass eine Software einem sagt, was auf einem Astrofoto eigentlich zu sehen ist; also welche Sterne und sonstige Objekte (DSO) mit ihren Koordinaten (R.A. und Dekl.).

Das Solving ermittelt immer die Koordinaten des Bildmittelpunkts, den Drehwinkel und weitere Daten; sehr nützlich wäre es, wenn zusätzlich noch die Sterne und DSOs mit ihren Namen beschriftet würden.

Ein wesentlicher Unterschied bei Plate-Solving-Lösungen ist, ob man einen ungefähren Anfangspunkt für das Solving angeben muss oder nicht. Wenn nicht, spricht man vom sog. “Blind Solving”; was natürlich einfacher zu handhaben ist – wenn es trotzdem schnell genug ist.

Ein weiterer Unterschied bei Plate-Solving-Lösungen ist, ob das Plate Solving im Nachhinein (Stunden oder Tage nach der Aufnahmes des Bildes) oder “near real time” möglicht ist; z.B. kann etwa APT ein Bild aufnehmen (mit verbundener Kamera), dieses sofort Plate Solven und dann der per ASCOM verbundenen Montierung sofort Befehle schicken, wie z.B. SYNC oder GOTO für ein Alignment oder eine Bewgung auf ein Objekt etc. etc.

Anwendungsbereiche von Plate Solving

  • Bestimmung welche Sterne, DSOs etc. sind auf meinem Bild; optional mit entsprechender Beschriftung des Bildes.
  • Messung der Genauigkeit einer Bildpositionierung (Pointing) z.B. einer Goto-Montierung.
  • Messung der Genauigkeit einer Nachführung (Zeitreihe bei laufender Nachführung).
  • Feinpositionierung auf ein Beobachtungsojekt bzw. einen Bildausschnitt  ( sog. Framing)

Wenn es gelungen ist, die Sterne auf einem Astrofoto zu identifiziern, wäre eine nächste Frage etwa die Frage nach der Grenzgröße. Dazu dieses.

Lösungen zum Plate Solving

Plate Solving Software kann entweder “stand alone” (also ganz alleine ohne eine weitere Software) oder “eingebaut” von einer anderen (führenden), sog. Host-Software aufgerufen werden (z.B. von APT aus oder von SGP aus).

Im einfachsten Fall, dem “stand alone” Plate Solving können die Bildquellen ganz einfach JPG-Bilder oder FITS-Bilder sein, die irgendwo auf dem Notebook liegen (also keine Kamera, kein ASCOM, kein garnichts, eben einfach “Stand Alone”). Als Ergebnis des Solven werden die Koordinaten des Bildmittelpunkts der Drehwinkel und einige weitere Daten ermittelt.

Zum Plate Solving gibt es zwei Software-Lösungen, die sehr verbreitet sind:

Ausserdem gibt es eine sehr beliebte Web-Lösung zum Plate Solving, die mit geringstem Aufwand schöne Ergebnisse liefert:

Als Software, die angeblich Plate Solving kann, wird genannt:

Meine eigenen Erfahrungen mit Plate Solving habe ich hier aufgeschrieben:

Mein Weg zum Plate Solving

Mein Einstieg in das Plate Solving war (natürlich) erst einmal die einfachste Möglichkeit, nämlich der Web-Dienst nova.astrometry.net, der mir sehr schön für einzelne Bilder im Nachhinein zeigen konnte, was da alles auf meinem Bild drauf war.

Um ein Plate Solving auch unabhängig vom Internet und auch in größeren Mengen vornehmen zu können, bin ich dann auf den  All Sky Plate Solver gekommen. Damit konnte ich z.B. die Genauigkeit meiner Goto-Montierung im Nachhinein messen. APT kann auch Bilder mit ASCOM-Kameras aufnehmen, aber nicht mit meiner Canon EOS 600D.

Später, als ich mich mit APT beschäftigte (weil das die Canon EOS 600D steuern kann), habe ich mich auch näher mit PlateSolve2 beschäftigt. Über APT kann ich nun Aufnahmen mit meiner Canon schießen und dann innerhalb von Sekunden ein Plate Solving durchführen, was sofort zur genaueren Ausrichtung der Kamera (sog. framing) auf das gewünsche Objekt benutzt werden kann.  Der Vorteil von APT war demnach: Mit ein und derselben Software ein Bild aufnehmen und damit gleich ein Plate Solving vornehmen. Erst in einem späteren Schritt will ich meine Goto-Montierung mit APT verbinden.

Plate Solving: Welche Sterne sind auf meinem Bild?

Leider wird die simple Funktion des Plate Solving von Software oft mit einer Vielzahl anderer komplexer Funktionen verbandelt, sodass man am Ende ASCOM-Treiber braucht (wofür eigentlich?), eine GoTo-Montierung mit ST4-Schnittstelle ist angeblich auch erforderlich (wozu eigentlich, wenn man nur zeitnah wissen will, was auf einem Foto drauf ist?).

Tabelle 1: Software zum Plate Solving

Software Kosten Blind Solving Bildformate Beschriftung
DSOs
Beschriftung
Sterne
Schnelligkeit Internet Sonstiges
nova.astrometry frei ja  jpg, gif, png, fits  ja  ja  4 Minuten  nur mit  Gutes Blind Solving. Sterne werden benannt und beschriftet.
All Sky Plate Solver frei ja  jpg, fits  ja  nein  20 Sekunden  ohne  Sehr guter Stand-Alone-Plate-Solver.
In APT integrierbar.
Soll Kamera über ASCOM steuern. Funktioniert aber nicht.
Platesolver2 frei nein  nein  nein  wenige Sekunden  ohne  Ist in APT integrierbar
AstroTortilla frei nein
PixInsight 278,30 Eur nein  ja  ja

Astrofotografie und Fitswork

Gehört zu: Astro-Software
Siehe auch: Elektronische Bildbearbeitung (Image processing), Aufnahmeverfahren Workflow , FITS-Bildformat, Signal-Rausch-Verhältnis, Google Fotos
Benutzt: Fotos von Google Drive

Stand: 27.9.2022

Warum Fitswork?

Das FITS-Bildformat (Flexible Image Transport System) ist in der Astrofotografie der Standard. Es wurde 1981 von der NASA entwickelt und ist auch u.a. von der IAU und der ESA anerkannt. Bei den Bildern des Hubble Space Telescope kommt beispielsweise der “Fits Libarator” zum Einsatz.

Amateurastronomen verwenden gern die Software Fitswork. Das ist ein kostenloses Programm, was sich bei Sternfreunden großer Beliebtheit erfreut.

Als Eingabe werden 8-Bit-Formate (JPG, BMP, PNG) unterstützt sowie auch FITS- und TIFF-Formate mit 16 oder 32 Bit Farbtiefe.
Auch die meisten Kamera-RAW-Bilder können direkt in Fitswork eingelesen werden (dazu benötigt man eine spezielle DLL s.u.).

Ich kann also mit Fitswork sehr gut Summenbilder, die mit DeepSkyStacker (DSS) erstellt wurden (“gestackt” wurden), weiterbearbeiten; d.h. Fitswork-Input: autosave.fit von DSS, Fitswork-Output: Save as TIF 16 Bit.

Ich arbeite mit der Fitswork-Version 4.47.
Leider wird Fitswork nicht mehr weiterentwickelt, lediglich die DLL zum Einlesen von RAW-Bildern wird ab und zu verbessert (dcrawfw1477.zip).

Bezugsquelle: https://www.fitswork.de/software/

Aktuelle Version: 4.47 (Okt. 2018)

Weiterführende Links

Hohmann EDV:  http://astrofotografie.hohmann-edv.de/fitswork/arbeitsfenster.psfmodus.php

Fitswork Anleitung: https://www.fitswork.de/anleitung/speziell.php

Einzelbilder “Stacken”

Man kann mit Fitswork auch Bilder “stacken”, was man aber normalerweise mit DeepSkyStacker oder mit Theli macht.

Bildbearbeitung mit Fitswork

Nach dem Stacken mit DeepSkyStacker (DSS) kann man das Ergebnis des DSS sehr schön mit Fitswork weiter bearbeiten.

Z.B.

  • Bildrand beschneiden
  • Farbkorrektur
  • Bildstatistik mit Fitswork
  • Stretchen
  • Vignettierung entfernen
  • Gradienten entfernen – Background Extraction
  • PSF Messungen – Deconvolution – Schärfen – Rauschen
  • PSF Anwendungen (Filter etc.)
  • Farbtrennung RGB
  • Speichern als 16 Bit oder 32 Bit

Bildrand beschneiden mit Fitswork

Als erstes sollte man den Bildrand beschneiden, da meistens vom Stacken kleine Verschiebungen da sein können.

Wenn ich Einzelbilder mit DeepSkyStacker summiere, hat das Summenbild “autosave.fit” oft einen kleinen schwarzen Rand. So ein ganz schwarzer Rand macht sich auch im Histogramm bemerkbar durch ein kleines Gebirge ganz links im Histogramm, wo noch gar keine Bild-Pixel liegen.

Abbildung 1: Fitswork Histogramm Bildrand abschneiden (Google Drive: Fitswork_Histogramm-03.jpg)

Fitswork Histogramm 03: Bildrand abschneiden

Einen solchen Rand schneiden wir als allererstes ab: Mit der Maus das Nutz-Bild markieren und dann auf das Icon “Schere” klicken. Im Histogramm ist nun das kleine Gebirge der dunkelen Rand-Pixel verschwunden.

Abbildung 2: Fitswork Histogramm Bildrand abschneiden (Google Drive: Fitswork_Histogramm-04.jpg)

Fitswork Histogramm 04: Bildrand abschneiden

Farbkorrektur mit Fitswork  / Color Calibration

Meine Astrofotos, die ich mit meiner Kamera Sony NEX-5R bzw. Canon EOS 600D aufnehme, zeigen häufig in den drei Fraben (Rot, Grün, Blau) unterschiedliche Spitzen im Histogramm. Das kann ich mit Fitswork sehr leicht korrigieren indem ich mit der Maus auf einen neutral grauen Bereich klicke und im sich dann öffnenden Kontextmenü “Umgebung (15×15) als Grauwert” anklicke. Das Ergebnis kann ich im Histogramm kontrollieren (aber nicht nocheinmal übertragen!).

Fitswork Farben im Histogramm: Vorher – Nachher

Abbildung 3: Farben im Histogramm – Vorher (Google Drive: Fitswork_Histogramm-01.jpg)

Fitswork Histogramm 01: Farben vorher

Abbildung 4: Farben im Histogramm – Nachher (Google Drive: Fitswork_Histogramm-02.jpg)

Fitswork Histogramm: Farben nachher

Bildstatistik mit Fitswork

Ein mit einem digitalen Sensor gemachtes Bild besteht aus vielen Pixeln und jeder Pixel hat einen Helligkeitswert (ADU), den der ADC für das jeweilige Pixel ausgegeben hat.

Als Signal kann man nun den Mittelwert und als Rauschen die Standardabweichung dieser ADU-Werte nehmen. Dies können wir z.B. mit der Software Fitswork folgendermassen messen:

  1. Wir öffnen das betreffende Foto in Fitswork
  2. Wir markieren den zu messenden Bereich durch ziehen mit der rechten Maustaste (bzw. wir messen das ganze Bild)
  3. Rechtsklick öffnet ein Kontextmenü, wo wir “Statistik für den Bereich” auswählen…

In der Astrofotografie definiert man den Signal to Noise Ratio (SNR) nun einfach als:

\(SNR = \frac{Average ADU}{Standard Deviation ADU}\)

Stretchen mit Fitswork

Mit Stretchen bezeichnet man eine Bearbeitung des Histogramms mit dem Ziel in interessanten Bereichen des Bildes mehr sehen zu können. Dazu wird man das Histogramm spreitzen (= stretchen) wollen. Der Sensor einer modernen Digitalkamera bildet die Helligkeitsstufen sehr gut linear ab. Je nachdem ob diese Linearität bei Stretchen erhalten bleibt oder nicht spricht man von

  • linearem Stretchen
  • nicht-linearen Stretchen

Mir einem linearen Bild kann man immer noch Photometrie betreiben; wir werden aber häufig zum nicht-lineraren Stretchen greifen müssen und haben danach “nur noch” sog. Pretty Pictures.

Welche Objekte sollte man “Stretchen”?

  • Deep Sky Objekte (Galaxien, Planetarische Nebel,…)
  • Aurora Borealis (Polarlicht, Nordlicht) ?
  • Milchstraße ?
  • Sternfelder ?

Die Bearbeitung des Histogramms kann durch Software wie Fitswork, GIMP, Photoshop o.ä. erfolgen. Wichtig ist, dass die Software dafür eine 16 Bit Digitalisierung benutzt.

Allerdings muss man beim Fitswork-Histogramm aufpassen. Fitswork schlägt beim Öffnen eines Bildes (und des Histogramms) bereits Reglerpositionen für links (Schwarzpunkt) und rechts (Weißpunkt) “automatisch” vor. Wenn man die Histogramm-Bearbeitung (Stretchen) erst später in einem anderen Programm machen will, darf man die von Fitswork “vorgeschlagenen” Werte nicht übernehmen; d.h. nicht in das Histogramm klicken und dort nicht “Übertragen” wählen. Evtl sicherheitshalber den rechten Regler weiter nach rechtsschieben…

Fitswork-Einstellungen

Dieses Verhalten von Fitswork kann man unter Einstellungen -> Bilddarstellung beeinflussen:

Abbildung 5: Fitswork Einstellungen – Bilddarstellung (Google Drive: Fitswork_Einstellungen.jpg)

Fitswork Einstellungen für automatisches Stretchen

Wie funktioniert das “Stretchen” im Histogramm?

Der linke Regler beim Histogramm setzt “fast schwarze” Pixel auf “ganz schwarz”; d.h. es wird links abgeschnitten (“geclippt”).

Der rechte Regler schneidet die ganz hellen Pixel ab, sodass das verbleibende Bild heller und kontrastreicher wird. Gravierender Nachteil ist, dass im Bereich der helleren Sterne Information verloren geht; man sieht ein “Ausblühen” der Sterne. Im Normalfall muss der rechte Regler also völlig Tabu sein.

Der mittlere Regler beim Histogramm ist etwas dubios. Man kann damit die Gradationskurve anheben oder absenken.
Wenn man nur diesen mittleren Regler bewegt (und nicht den linken und nicht den rechten), dann sieht man, dass dadurch die Gradationskurve genau in der Mitte angehoben (Fitswork: Regler nach rechts) oder abgesenkt (Fitswork: Regler nach links) wird.

Experten empfehlen folgende Vorgehensweise:

  1. Linken Regler nach rechts an das “Gebirge” vorsichtig heranfahren  (Achtung: nichts abschneiden)
  2. Rechten Regler so lassen, wie er ist.
  3. Mittleren Regler etwas “aufdrehen” (Fitswork: nach rechts)  so etwa in den rechten Anfang des “Gebirges” fahren
  4. Abspeichern
  5. Punkte 1-2-3 wiederholen, ggf. mehrfach…

Vignettierung entfernen mit Fitswork

Was sich in Fitswork elegant und einfach machen lässt ist z.B.

  • Entfernen einer Vignettierung: Bearbeiten -> Ebenen -> Hintergrund ebnen Sterne
  • Bearbeiten > Ebenen > Hintergrund ebenen Nebel
  • Bearbeiten > Ebenen > Zeilen gleichhell

Vorsicht: Bei einem Foto was sowieso “echte” Gradienten enthält (z.B. M31), erzeugt dieses Glätten des Hintergrunds unschöne Artefakte. Also dann nicht anwenden.

Gradienten entfernen – Hintergrund entfernen – Background Extraction

Am 27.9.2014 habe ich im Niendorfer Gehege Wide-Field-Aufnahmen machen wollen und dabei das Problem bekommen, dass ich bei horzontnahen Objekten (im Beispiel die Schildwolke) einen starken Helligkeitsverlauf hatte (zum Horizont hin wurde es immer heller). Bei einen solchen starken Gradienten habe ich zu einer “brutalen” Methode gegriffen: Subtrahieren des Hintergrunds.

  • Fotos Stacken
  • Daraus den Hintergrund ableiten: Bearbeiten -> Glätten -> Gauss glätten  Radius=100, Stärke=100%
  • Die beiden Bilder subtrahieren: Bilder kombinieren: Substrahieren (gestacktes Bild minus Hintergrundbild)

Fitswork PSF Messungen

PSF steht für “Point Spread Function” und bedeutet wie ein Lichtpunkt (mal als Original angenommen) auf dem Foto “verwischt” wird (durch Seeing etc.). Das wird so eine Art Gauss’sche Glockenkurve sein. Von dieser “Verwisch-Funktion” interessiert z.B. der sog. FWHM-Wert (Full Width Half Maximum).

Mit Fitswork kann man einerseits solche PSF-Daten ausmessen, andererseits eine PSF-Funktion anwenden in einem Filter.

Zum Ausmessen fährt man mit der Maus über das Bild auf einen Stern und drückt dann die Taste “L” (L = Lock). Damit friert die Anzeige in der rechten Werkzeugleiste ein und man kann die Fitswork “Messwerte” ablesen. Bei jedem Drücken der Taste “L” erscheinen Fitswork-Messwerte, die man auch in einer Tabelle sammeln kann. Dazu setzt man bei Menü -> Einstellungen -> Verschiedenes den zweiten Haken bei “<L> PSF zusätzlich in einem separaten Fenster anzeigen.”

Abbildung 6: Fitswork PSF Messung (Google Drive: Fitswork_PSF_02.jpg)

Fitswork PSF Infos

Später kann man durch Drücken der Taste “Esc” diesen Lock-Modus wieder verlassen.

Abbildung 7: Fitswork PSF in Farben (Google Drive: Fitswork_PSF.jpg)

Fitswork PSF Messung

Man kann so die Position (X und Y in Pixeln), die Halbwertsbreiten (fwhmA und fwhmB), sowie Flux und Mag ablesen, wobei Fitswork diese Werte für die drei Farben Rot, Grün, Blau separat anbietet. Um die Farbe zu wechseln muss man auf den Text “Grün” (s. Bild) klicken.

Erik Wischnewski beschreibt in seinem Buch “Astronomie in Theorie und Praxis”, wie man mit den drei Werten von fwhmB eine Einschätzung des Restfarbfehlers einer Optik vornehmen kann:

Man geht auf einen Stern und notiert die Werte für fwhmB für Rot, Grün und Blau als bRot, bGrün und bBlau und vergleicht diese als bRot/bGrün, bGrün/bGrün und bBlau/bGrün. Damit hat man einen sog. RGB-Chromasietest.

Wenn man eine PSF Verwischungsfunktion ermittelt hat (wie auch immer), kann man diese anwenden bei bestimmten Schärfungsfiltern, im Prinzip zum “Entfalten”

Fitswork PSF Anwendungen (Filter etc.)

xyz

Farbtrennung mit Fitswork

Mit Fitswork kann man auch ein Farbfoto (z.B. RGB) aufstplitten in drei schwarz/weiß-Bilder: eins für Rot, eins für Grün eins für Blau….

Das geht so: Menü -> Bearbeiten -> Farb-Bild in 3 s/w Bilder aufteilen.

Man erhält dann drei s/w Bilder:

  • Blau_von_<Dateiname>
  • Gruen_von_<Dateiname>
  • Rot_von_<Dateiname>

die man dann separat bearbeiten könnte.

Zum Schluss könnte man die drei s/w Bilder wieder zu einem Farbbild (RGB) zusammensetzen mit: Menü -> Bilder kombinieren -> 3 s/w Bilder zu RGB Bild…

Speichen mit Fitswork

Wenn man das Bild noch weiterbearbeiten möchte, ist es sinnvoll das Bild in einem 16-Bit-Format zu speichern; z.B. TIFF 16 Bit Ganzzahl mit Komprimierung.

Astronomie: Apps für Smartphone und Tablet

Gehört zu: Astro-Software
Siehe auch: Tablets, Smartphone

Astro-Apps für Smartphone und Tablet

Ein Smartphone oder Tablet kann man ja heutzutage immer mit sich führen und hat so auch die Gelegenheit einiges an für die Hobby-Astronomie Nützlichem immer dabei zuhaben.

Solche Apps können einem bei den verschiedensten Fragestellungen helfen:
  • Wo finde ich einen dunklen Beobachtungsort?  (Lichtverschmutzung)
  • Wie dunkel ist der Himmel hier wo ich stehe?  (Sky Quality Meter)
  • Wann wird es heute Abend richtig dunkel?   (Astronomische Dämmerung)
  • Werde ich heute Abend eine sternklare Nacht haben?  (Wetter)
  • Wann wird mich der Mond in der Nacht stören?
  • Wo stehen heute die Planeten, Kleinplaneten, Kometen etc. ?
  • Wann kann ich den Merkur beobachten?
  • Welcher Stern ist das?   (z.B. Universe2Go)
  • Wo ist Norden bzw. Süden?
  • Wie hoch steht dieses Objekt über dem Horizont?
  • Wie steil verläuft eigentlich die Ekliptik morgen früh? (Zodiakallicht)
  • Wie richte ich meine Nachführung auf die Erdachse aus?  (parallaktisch: z.B. PolarFinder)
  • Wie kann ich meine Digitalkamera per Smartphone-App fernsteuern?

Die Problematik

Es gibt keine App, die alle diese Fragen beantworten kann.
Man muss dafür auch seine eigenen  Rahmenbedingungen klären:
  • Habe ich Apple (iOS) oder Android?
  • Habe ich eine Internetverbindung oder will ich “offline” arbeiten?
  • Welche Sensoren hat/benötigt mein Smartphone?
  • Soll es kostenfrei sein oder wieviel kann ich investieren?
  • Will ich selber etwas basteln oder bevorzuge ich fertige Teile?
  • Bevorzuge ich die deutsche Sprache?

Begriffsklärungen

Generell gibt es “Planetarium”-Apps, die einem den Himmel für verschiedene Standorte und Zeiten auf dem Display zeigen können.
Viele dieser Planetarium-Apps unterstützen die sog. “Virtual Reality”; d.h. man kann mit seinem Smartphone auf eine Stelle am Himmel zeigen und die App kann diese Himmelsstelle anhand der Sensoren des Smartphones identifizieren und zeigt auf dem Display genau das an, was da am Himmel jetzt stehen sollte – meist mit einigen erklärenden Zusatzinformationen (die Standortkoordinaten und die Uhrzeit kennt das Smartphone/Tablet ja sowieso).
Dieses Benutzen der Lagesensoren, um den virtuellen Himmel anzuzeigen wird manchmal auch “Sky Tracking” genannt.
Die Sensoren des Smartphone müssen hierzu “kalibriert” sein/werden. Die Kamera des Smartphones wird bei “Virtual Reality” nicht benutzt.
Einen Schritt weiter geht die “Augmented Reality”: hier wird durch die Kamera des Smartphones die echte Realität angezeigt (z.B. der Ausschnitt des Sternenhimmels auf den ich mein Smartphone gerade gerichtet habe) und dieses Bild wird dann per App überlagert von der “errechneten” Soll-Darstellung der Planetariums-Funktion. Wenn meine App schlau genug ist, kann ich jetzt eine Fein-Kalibrierung der Sensoren vornehmen indem ich reales Bild und virtuelles Bild durch leichtes Verschieben zur Deckung bringe (sog. Star Alignment oder auch Star Calibration genannt).  Beispiel: Universe2Go
Bei einer App mit Virtual Reality kann man eine Art Zielfernrohr (sog. Telrad oder Bullseye) haben. Das bedeutet, dass in der Mitte des Smartphone-Displays eine Zielvorrichtung angezeigt wird. Das kann ein kleiner Kreis sein (sog. Bullseye) oder auch ein Fadenkreuz (sog. Cross Hairs) oder beides evtl. mit mehren konzentrischen Kreisen (sog Telrad)

Liste einiger untersuchter Astro-Apps

Tabelle 1: Astro-Apps

App OS Stichworte
DSM PRO iPhone Messen der Himmelshelligkeit in mag/arcsec²
Dark Sky Finder iPad Himmelshelligkeit / Lichtverschmutzung als Google-Overlay
Stellarium Android Schönes Planetarium, aber ohne Sensoren d.h. keine Virtual Reality
p.m. Planetarium iOS Virtual Reality, Äquatoriales Koordinatennetz, “Bullseye”
SkyView iOS Virtual Reality, “Bullseye”, nummerische Koordinatenanzeige aber kein Koordinatennetz.
Google Sky Map Android Virtual Reality
SkEye Android Virtual Reality, Äquatoriales Koordinatennetz, “Telrad”   (aber Samsung Tablet hat keine Sensoren)
Night Sky 2 iOS Virtual Reality, Sky Tracking an- und abschaltbar, Augmented Reality an- und abschaltbar. Kein Koordinatennetz, kein Telrad/Bullseye.
LunaSolCal Android, iOS Astronomische Dämmerung, Mond etc. – Für iOS 1,99 EUR
PolarFinder Android Auffinden der Himmelspole  (geografische Länge erforderlich)
PlayMemories Mobile iOS, Android Sony Smart Remote Control
qDLSR Dashboard iOS, Android, Windows Fernsteuerung von Digitalkameras (Canon, Nikon, Sony,…)

Noch ‘ne Liste aus http://www.astrotreff.de/topic.asp?TOPIC_ID=201346

Auf meinem Android Telefon habe ich:

SkySafari 5 Plus          <— empfehlenswert
– Mobile Observatory    <— empfehlenswert
– Stellarium Mobile
– Heavens Above          <— gut für Satelliten etc.
– ISS Detector Pro
– Cosmic Watch
– Lunar Map HD      <– guter Mondatlas
– Night Sky Tools    <– Ephemeriden
– PlanetDroid          <– Ephemeriden
– LunarSolCal Mobile       <— Viele wichtige Tabellen
– Aurora Alert        <– Polarlicht auf Telefon
– PolarFinder         <— empfehlenswert
– APOD
– ISS onLive
– Verlust der Nacht

Sowie:

  • Clear Outside
  • Syncsaninit