Astronomie: Software Regim

Gehört zu: Bildverarbeitung
Siehe auch: PixInsight, Fitswork

Was ist Regim?

Regim ist eine kostenlose Software des Entwicklers Andreas Röring.

Regim benötigt die Java Runtime Umgebung und läuft damit auf Windows, Linux und MacOS.

Allerdings ist die Benutzeroberfläche nach heutigen Maßstäben recht schlicht.

Auch ist Regim insgesamt recht langsam.

Probleme gibt es auch bei einigen Varianten der Bildformate TIFF und auch FITS.

Download der Software: https://www.andreasroerig.de/regim/regim.xhtml

Download der Dokumentation: https://www.andreasroerig.de/content/regim/regim.pdf

Version: 3.8 (5.1.2019)

Besondere Funktionen von Regim

Installation und Aufruf von Regim

xyz

Bekannte Probleme mit Regim

Bildformate TIFF und FITS

Java Heap Space

Links zu Regim

AstroHardy 23.01.2014: Vorbereitung von FITS-Dateien in Fitswork für Regim

AstroHardy 20.01.2014:  Automatische Farbkalibrierung mit Regim  Remove Gradient & B-V-Color Calibration

AstroHardy 19.01.2014: Farbkalibrierung mit Regim und Gimp

AstroCologne 09.09.2019: Richtige Farben in Deep-Sky-Bildern

AstroCologne 01.09.2011: Regim Tutorial Teil 1  Stacking

AstroCologne 01.09.2011: Regim Tutorial Teil 2 Fortsetzung des Stacking von Teil 1

Funktionen von Regim

Die wichtigsten Funktionen von Regim sind:

  • Stacking
  • Background Extraction / Gradient Removal
  • B-V Color Calibration / B-V-Farbkalibrierung
  • Plate Solving

Stacking mit Regim

Regim starten und in der Menüleiste “Preprocessing” anklicken. Dann im Drop-Down-Menü nochmals “Proprocessing” auswählen….

Eingabe für das Stacking sind:

  • LIght Frames  (Format FIT oder RAW,…)
  • Dark Frames
  • Flat Frames
  • “Flat Darks” d.h. Bias Frames

Ausgabe beim Stacken ist:

  • Ergebnisdatei FIT
  • Save as: Ergebnisdatei 16 Bit TIFF

Background Extraction / Gradient Removal mit Regim

Wir haben nun das Stacking bereits durchgeführt und haben also eine sog. “Summendatei”.

Als nächsten Schritt glätten wie den Hintergrund d.h. “Background Extraction” bzw. “Gradient Removal”. Der übernächste Schritt behandelt dann die Farben.

Als Eingabe benötigen wir eine Summendatei, die noch nicht gestretched ist, sich also noch in linearem Zustant befidet. Am Besten im Format TIFF.

Dann rufen wir die Funktion Gradient Removal auf indem wir in der Regim-Menüleiste auf “Edit” klicken und dann im Drop-Down-Menü “Remove Gradient” auswählen.

Daraufhin escheint eine kleine Dialogbox (Titel Remove Gradient) mit den Schaltflächen “Generate”, “Execute” und “Exit”.

Bevor wir auf “Generate” klicken füllen wir die Eingabefelder:

  • Number of Samples:   z.B. 21
  • Blur Radius: z.B. 11
  • Background: auto/Manuell

Wenn diese Eingabefelder gefüllt sind, können wir auf die Schaltfläche “Generate” klicken. Es werden dann etsprechend den Eingaben Messpunkte für den Hintergrund (Background) gesetzt.

Wenn die Messpunkte für den Hintergrund O.K. sind, können wir auf “Execute” klicken. Das dauert ein klein wenig und am Ende haben wir drei Fenster (Originalbild, Bild nur mit dem Hintergrund, Bild mit dem entfernten Hintergrund). Die Bilder sind noch linear; d.h. zum Betrachten müssen wir den rechten Regler ziehmlich weit aufdrehen.

Wir klicken nun auf die Schltfläche “Exit” (sonst geht’s nicht weiter).

Wir können dann die nicht benötigten Fenster schießen und das Ergebnis als 16 Bit TIFF abspeichern.

Da Regim nicht so wahnsinnig stabil läuft, ist das Abspeichern eines solchen Zwischenergebnisses immer sehr zu empfehlen.

Farbkalibrierung mit Regim

Auf der Regim-Menüleiste klicken wir auf “Color” und in dem Dropdown-Menü dann auf “Automatic B-V Color Calibration” oder “Manual B-V Color Calibration”…

Die Idee ist, den Farb-Index (B-V-Index) eines oder mehrerer Sterne im Feld heranzuziehen für die Farbkalibrierung des Bildes.

Bei der “Automatic”-Variante ermittelt Regim zunächst per Plate Solving, welche Sterne im Bild vorhanden sind und kann dann zu den identifizierten Sternen die B-V-Indices aus einem Sternkatalog abrufen.

 

Astronomie Software KStars

Gehört zu: Astro-Software
Siehe auch: INDI, StellarMate, ASIair

KStars was ist das?

KStars ist eine Astronomie-Software, die einerseits als schönes Planetarium-Programm fungiert, andererseits die astronomischen Geräte (Montierung, Kameras, …) steuern kann und dabei diverse nützliche Zusatz-Funktionen hat, wie beispielsweise

  • Plate Solving
  • Polar Alignment
  • Fokussierung

Zu diesem Behufe enthält KStars ein Module names Ekos, welche als INDI-Client mit einem INDI-Server spechen kann.

KStars gibt es für Windows, MacOS und Linux.

Die aktuelle Version von KStars ist 3.3.9 (Jan 2020).

Erste Schritte mit KStars

Die Sprache von KStars ist manchmal komisch bis gewöhnungsbedüftig. Beispielsweise gibt es in der deutsche Version so etwas wie “STF” auf das ich mir so überhaupt keinen Reim machen konnte. Im Englischen heist das “FoV” – aha: “Field of View”, also “Gesichtsfeld”- aber KStars denkt “Sichtfeld”. abgekürzt “STF”.

Wie schalten wir die Sprachen bei KStars um?????

Große Frage – nicht bei den KStars-Einstellungen, sondern im Menü “Help -> Switch Application Language”

Ekos

Eine wesentliche Funktion von KStars auf dem Windows-Computer ist ja, das Modul “Ekos” aufzurufen und damit das Astro-Equipment zu steuern. Das setzt voraus, das wir unsere Astro-Geräte mit einem INDI-Server verbunden haben.

 

 

Astronomie: Computer StellarMate

Gehört zu: Astrofotografie
Siehe auch: Polar Alignment, ASIAir, INDI, KStars

Kleine Astrofotografie-Computer

Anstelle von ausgewachsenen Windows-Computersn hört man in letzter Zeit (heute ist Juli 2019) immer öfter von kleinen Geräten, wie “StellarMate” (von der Firma Ikarus Technologies), die den “großen” Windows-Computer ablösen sollen..

StellarMate ist eine kleine Kiste (ein Rasberry Pi Computer), den man an seine Monierung bzw. das Teleskop hängt, und der einiges kann…..

Ähnliche Produkte sind u.a.

  • Celestron StarSense
  • ASIair
  • Prima Luce Eagle (mit Windows 10 Pro)

StellarMate ist ein kleiner Computer, mit dem man ohne traditionelle Computer Astrofotografie betreiben können soll – das Ding wird als “Astrofotografie-Computer” bezeichnet.

Eigenschaften des StellarMate

  • Computer: Der StellarMate-Computer basiert auf einem Raspberry PI 3B+,
  • Betriebssystem: StellerMate OS auf der Basis von LINUX
  • Astro-Plattform: INDI   (nicht ASCOM)
  • Stromversorgung des StellarMate: 5 V
    USB: Der StellarMate hat 4 USB 2.0 Anschlüsse und fungiert so also als USB-Hub
  • 1 HDMI Anschluss
  • 1 Ethernet-Anschluss
  • WiFi/WLAN: StellarMate spannt einen WLAN Access Point auf, über den sich ein Tablet mit dem StellarMate verbinden kann. Auf dem Tablet läuft dann eine StellarMate-App.
    • StellarMate kann sich auch als WLAN-Client in ein vorhandenes WLAN einmelden.
  • Kameras: StellarMate unterstützt neben ASI-Kamerasauch viele andere Kameras inkl. DSLRs.
  • Montierungen: StellarMate unterstützt und viele gängige Montierungen (siehe INDI Driver).
  • Steuerung der primären Kamera (am Teleskop) z.B. DSLR Canon EOS 600D
    Speicherung der Fotos auf der SD-Karte der Canon
  • Plate Solving:
    • Welcher Platesolver soll benutzt werden: Einstellbar: “online” d.h. über das Internet auf astromertry.net bzw. ANSVR, “offline”d.h. der Solver auf MacOS oder LINUX oder “remote” d.h. der Solver auf dem StellarMate
    • Was soll nach einem erfolgreichen Platesolving gemacht werden? (wird “Solver Action” genannt): Einstellbar: SYNC, Slew to Target, Nothing
  • Polar Alignment ….
  • Autoguiding wahlweise über ST4 oder Pulse Guiding  – mit den “internen Guider” oder auch einem externen…. (PHD2 Guiding???)
    Als Guiding-Kamera dient meine vorhandene Altair-Cam….

Offene Fragen zum StellarMate

WLAN/WiFi: nicht nur als Access Point, sondern auch als Client?  JA so ist es.

StellarMate-App: nicht nur für iOS und Android, sondern auch für Windows?

Moter Focusser: not supported

Erste Schritte mit StellarMate

Die Steuerung erfolgt ber eine App auf dem SmartPhone. Dazu muss das Smartphone per WLAN mit der ASIair verbunden werden.

Als Kameras werden Astro-Kameras (nur ASI-Kameras) und einige DSLRs (Canon) unterstützt.

  • ASI USB 3.0 cameras, ASI Mini series cameras

Das Polar Alignment konnte in früheren Versionen ausschließlich mit der “Main Camera” vorgenommen werden. Jetzt geht es auch mit der “Guide Camera”

Plate Solving

Autoguiding wird auch direkt von der ASIair gemacht es sieht so ähnlich aus wie PHD2 Guiding Vor jedem Guding wird Kalibriert.

Als “Montierung” kann man bei ASIair angeben:

  • “On Camera” wenn man über ST4 Guiden will und keine eigentliche Verbindung zur Montierung hat.
  • Der ASIair wird mit der Montierung mit Hilfe eines mitgelieferten seriellen Kabels (Montierung) mit USB an der ASIair verbunden. Man gibt dann als Monitierung nicht “On Camera” an sondern “Synscan” oder “EQMOD” (beides wird von INDI unterstützt.
  • ASIAIR control the mount through INDI. iOptron, Sky-Watcher are all tested with ASAIR by us.
  • INDI Mount support list: http://indilib.org/devices/telescopes.html

Einrichten von Stellarmate

Heute am 18.1.2020 kam der StellarMate bei mir per DHL an.

  1. Einen Account eröffnen bei stellarmate.com   (mit E-Mail Verification)
  2. Das Stellarmate-Gerät registrieren: /support/licences.html (dazu muss man die Seriennummer des Geräts eingeben)
  3. Kstars auf dem Windows-Computer aufrufen
  4. Innerhalb von KStars Ekos aufrufen: KStars-Menüleiste: Tools -> Ekos
  5. Im Ekos ein Profil einrichten; dabei
    1. INDI-Server “remote host” und dann nicht “localhost”, sondert die IP-Adresse des Stellarmate-Geräts (bei mir: 192.168.1.140)
    2. Select Devices: ….
    3. Select Telescops: ….

Ekos zeigt immer diese drei Reiter: “Select Profile”, “Start & Stop Ekos” und “Connect & Disconnect Devices”.
Im Ersten Reiter “Select Profile” legen wir ein neues Ekos-Profil an, indem wir au das “+” klicken (s. Bild)

Stellarmate-03

 

Das neue Ekos-Profil bekommt einen Namen “HEQ5” unter dem wir es später abspeichern und danach aus dem Drop-Down einfach auswählen können.

Wichtig ist. dass wir als “Mode” “Remote Host” auswählen, wenn wir von einem Windows-Computer über das Netzwerk auf den StellarMate-Computer zugreifen wollen.

Weiterhin können wir in dem Profile unsere “Devices” und “Telescops” angeben.

Stellarmate-04

Nachdem wir Ekos-Profile eingerichtet haben, wählen wir eines aus, mit dem wir jetzt arbeiten wollen und klicken unter dem Reiter “Start & Stop Ekos” auf das Start-Symbol (Dreck mit Spitze nach rechts).

Stellarmate-05

Jetzt versucht das Programm eine Verbindung zum INDI-Server auf dem StellarMate-Gerät herzustellen. Dau muss das StellarMate über unser Netzwert per TCP/IP erreichbar sein (Testen mit einem Ping) und der INDI-Server muss mit dem Ekos als INDI-Client über das INDI-Protokoll “sprechen” können (Test, ob der INDI-Server läuft).

Wie das Bild unten zeigt, funktioniert das leider nicht immer…..   “Failed to connect to remote INDI server”

Stellarmate-06

Nach vier Stunden probieren funktionierte es manchmal lokal (mit VNC sichtbar gemacht), aber “remote” ging niemals etwas; weder mit dem StellarMate als WLAN Access Point noch wenn der StellarMate sich in mein heimisches WLAN eingeloggt hatte.

Nun könnte man noch weitere Stunden herumprobieren z.B. mit einen Bildschirm über HDMI am StellarMate etc. etc. pp. Oder….

Also RETOURE an astroshop.de

Astrofotografie: Belichtungszeiten

Gehört zu: Astrofotografie
Siehe auch: Stacking, Nachführung, Lichtverschmutzung, SQM Sky Quality Meter

Wie lange sollten die einzelnen Sub-Exposures belichtet werden?

Wir haben ja gelernt, dass wir sehr lange Belichtungszeiten für die so lichtschwachen Objekte der Astrofotografie brauchen.

Lange Belichtungszeit heisst hier aber nicht notwendig, dass ein einzelnes Foto lange belichtet werden muss, sondern wir können auch viele Einzelaufnahmen (Sub Exposures) machen und die dann aufaddieren (Stacken). Es kommt auf die Summe der Einzelbelichtungen an. Man sagt, die gesammte “Integrationszeit” ist das Wesentliche.

Diese Integrationszeit sollte in der Tat lang sein; d.h. mindestens 1 Stunde, besser 2 Stunden, besser 4 Stunden… Die Gesamtzeit (Integrationszeit) kann man ja Planen für die Bobachtungsnacht. Nehmen wir mal an, wir hätten 2 Stunden (also 120 Minuten) angesetzt. Die Frage wäre dann ja, wie lang man jedes Einzelfoto (Sub Exposure) belichten soll. Also ist 120 x 60 sec gut oder 240 x 30 sec oder 24 x 5 min oder… besser?

Auf der “Practical Astronomy Show” am 9.  März 2019 hat Dr. Robin Glover (SharpCap) dazu einen interessanten Vortrag gehalten. Der Titel des Vortrags war “Deep Sky CMOS Imaging” und er ist als Youtube-Video verfügbar.
Youtube:   https://www.youtube.com/watch?v=3RH93UvP358

Zusammenfassung (Executive Summery)

Da die technischen Zusammenhänge doch sehr komplex und vielschichtig sind, hier die “wichtigsten” Erkenntnisse vorweg (für einen gegebenen Standort mit gegebener Lichtverschmutzung):

  • Die Gesamtbelichtungszeit (Integrationszeit) muss lang sein (z.B. 2 Stunden oder mehr)
  • Die Belichtungszeit eines Einzelfotos muss immer so gewählt werden, dass im Histogramm weder links noch rechts etwas abgeschnitten (“geclippt”) wird
  • Die Einzelbelichtungszeit muss nur so groß sein, dass das Einzelbild “hintergrundlimitiert” ist; d.h.
    • Unter lichtverschmutztem Himmel die Einzelfotos (Subs) kurz belichten (z.B. 30 sec), dann aber ganz viele machen
    • Unter dunklerem Himmel können die Einzelfotos schon länger belichtet werden (z.B. 5 min), wenn das Guiding (oder: Autoguiding) das hergibt
  • Ruhig ISO bzw. Gain hochdrehen, dann wird das Ausleserauschen geringer (bei CMOS Sensoren) – aber der Dynamik-Umfang wird etwas sinken
  • Das thermische Rauschen ist häufig viel kleiner als das Rauschen aus anderen Quellen (z.B. Lichtverschmutzung). Deshalb ist extreme Kühlung manchmal garnicht so wichtig.

Haupteinflußfaktor ist die Lichtverschmutzung:

  • Das thermische Rauschen durch Kühlung reduzieren auf 10% der Lichtverschmutzung
  • Das Ausleserauschen wird irrelevant, wenn wir die Subs so lange belichten, das sie quasi “hintergrundlimitiert” werden; soll heissen dass im gestackten Bild das Ausleserauschen maximal 5% der Lichtverschmutzung ausmacht.
  • Das Dunkelstrom-Rauschen wird reduziert durch das Stacken vieler Dark-Frames zu einem Masterdark
  • Das  “Shot Noise” (Photonen-Rauschen) wird reduziert durch das Stacken vieler Light-Frames

Hintergrundlimitiert ???

Was meint man mit “hintergrundlimitiert” ?XYZ???

Mit “Hintergrund” meint man die HImmelshelligkeit (Lichtverschmutzung,  Airglow etc.). Unter “limitiert” durch den HIntergrund meint man, dass die anderen Rausch-Signale (Auslese-Rauschen und thermisches Rauschen) deutlich kleiner sind als das Signal vom Himmelshintergrund und damit vernachlässigt werden können.

Wenn man sich nach der nötigen Belichtungszeit für die Subs fragt, reicht es, wenn man gerade so lange belichtet, dass die Subs hintergrundlimitiert sind. Dann wird durch noch längere Belichtungszeiten das Signal-Rausch-Verhhältnis im Stack nicht mehr verbessert.

Signalstärke

Auf einem Astrofoto kommen verschiedene Signale zusammen:

  • Ein Signal vom eigentlichen Beobachtungsobjekt (Nutz-Signal)
  • Ein zusätzliches Signal vom Himmelshintergrund (Light Pollution)
  • Ein zusätzliches Signal durch den Dunkelstrom (abhängig von der Sensor-Temperatur)

Die Signalstärke ist eigentlich:  Anzahl Photonen pro Pixel pro Sekunde.
Die Photonen schlagen dann Elektronen aus dem Sensormaterial heraus und die Elektronen werden dann gemessen und in eine Zahl umgewandelt (ADU).
Die Quantum Efficiency (QE) ist dabei der Prozentsatz von Photonen, der ein Elektron auslöst.
Messen als Signalstärke im Sensor kann man dann:  Anzahl Elektronen pro Pixel pro Sekunde.

Rausch-Signale

Jedes Signal ist mit einem Rauschen behaftet.

Es gibt mehrere Quellen für Rausch-Signale die sich alle addieren.

  • Kamera-extern hat man (sog. Shot Noise, Photonenrauschen, Schrotrauschen):
    • Rauschen in den Light-Frames im eigentlichen, externen Signal vom Beobachtungsobjekt
    • Rauschen in den Light-Frames im Signal des Himmelshintergrunds (Lichtverschmutzung etc.)
  • Kamera-intern hat man (sog. Kamera-Rauschen):
    • Rauschen in den Light-Frames durch Wärme im Sensor (Thermisches Rauschen – nur Rauschen, kein Signal)
    • Rauschen in den Light Frames durch den Auslese-Vorgang (sog. Read Noise – nur Rauschen, kein Signal)
    • Rauschen in den Dark-Frames  (Rauschen im Dunkelstrom-Signal)
    • Rauschen in den Flat Frames

Rauschen bringt feine Details im Bild zum Verschwinden. Deshalb wollen wir das Rauschen insgesamt reduzieren.

Das Rausch-Signal ist meistens zufällig (stochastisch) und kann also dadurch bekämpft werden, dass man viele Aufnahmen macht und die dann mittelt (siehe: Stacken).

Addieren von Signalen über Stacks

Beim Stacken von Einzelaufnahmen (Sub Exposures) verhalten sich Signal und Rauschen unterschiedlich.

Konstante Signale, bei denen sich die Signalstärke von Sub zu Sub eigentlich nicht ändert, addieren sich einfach.

\((1) \hspace{1 em} S_{1+2} =  S_1 + S_2 \)

Rausch-Signale, die sich von Sub zu Sub zufällig (stochastisch) ändern, addieren sich mit einer “Quadratwurzel” ….    R 1 + R 2   = Wurzel aus (R 1 Quadrat + R 2 Quadrat)

\((2) \hspace{1 em} R_{1+2} =  \sqrt{ R_1^2 + R_2^2} \)

Das bedeutet z.B. dass bei der Addition stark unterschiedlicher Rauschsignale man das schächere “praktisch” vernachlässigen kenn.

Signal-Rausch-Verhältnis

MIt zunehmender Anzahl Subs steigt das Nutzsignal linear und das Rauschen “nur” mit der Quatradwurzel. Damit verbessert sich das Signal-Rausch-Verhältnis.

Näheres dazu weiter unten.

Dunkelstrom-Rauschen

Z.B. macht der sog. Dunkelstrom ein Dunkelstrom-Signal und ein Dunkelstrom-Rauschen.

Das Dunkelstrom-Signal kann man vom vom Nutzsignal (Light Frame) abziehen; das Dunkelstrom-Rauschen bleibt aber erhalten.

Bekämpfung: Das Dunkelstrom-Rauschen kann man nur bekämpfen indem man viele Dark Frames aufnimmt und dann das Dunkelstrom-Rauschen herausmittelt, weil das Rauschen stochastisch ist.

Auslese-Rauschen

Durch den Vorgang des Auslesen der Pixel-Informationen aus dem Sensor ensteht auch ein zusätzliches Auslese-Rauschen.

Wenn man statt ein paar wenigen Aufnahmen mit längerer Belichtung alternativ viele Aufnahmen mit kürzerer Belichtung macht, hat man auf jeder Einzelaufnahme das Ausleserauschen und das würde also bei “vielen kurzen Belichtungen” viel stärker ins Gewicht fallen. Allerdings ist das Auslese-Rauschen bei modernen CMOS-Kameras sehr gering, wenn man den Gain etwas hoch stellt, was die Dynamik evtl. herabsetzt.

Gain bzw. ISO

Das Aufdrehen des “Gain” bei CMOS-Sensoren ist einfach eine Verstärkung aller Bildsignale.

Das Ausleserauschen wird durch den Gain allerdings nicht verstärkt, da diese Verstärkung erst nach der Belichtung des Sensors stattfindet.

Zum Beispiel zeigt der Hersteller der ASI294 folgendes Diagramm:

RobinGlover-02

Bekämpfung: Das Auslese-Rauschen können wir bekämpfen einserseits durch Aufdrehen des Gain, andererseits durch Verlängern der Belichtungszeit der Subs soweit bis “Hintergrundlimitierung” (s. Lichtverschmutzung unten) erreicht ist.

Thermisches Rauschen

Im Sensor entstehen Elektronen nicht nur durch die ankommenden Photonen, sondern auch durch Wärme.

Thermisches Rauschen verdoppelt sich ungefähr bei Temperaturerhöhung um 6,5 Grad Celsius.

Je nach Sensor ergeben sich unterschiedliche Kurven für das thermische Rauschen (Copyright Dr. Robin Glover):

RobinGlover-01

Typisch für moderne CMOS-Sensoren wie Sony 294C sind 0,2 Elektronen pro Sekunde pro Pixel bei einer Sensor-Temperatur von 25 Grad Celsius.

Wenn man diese Kurven sieht, erkennt man, dass ein Herunterkühlen von 25 Grad auf 15 Grad völlig ausreicht, um das thermische Rauschen bedeutungslos zu machen.

Bekämpfung: Das thermische Rauschen bekämpfen wir durch Kühlung des Sensors.  Robin Glover empfiehlt, das thermische Rauschen auf 10% der Lichtverschmutzung zu limitieren. Bei besonders geringer Lichtverschmutzung wäre also eine entsprechende leichte Kühlung notwendig.

Unser “Standard Observer”

Da die optimale Belichtungszeit für unsere Sub Exposures von vielen Gegebenheiten abhängt, definieren wir zunächst einmal einen “Standard-Beobachter”, für den wir unsere Untersuchungen machen wollen.

Der Standard-Beobacher sei definiert durch:

  • Sensor: CMOS, monochrom, 50% QE, Pixelgröße 3,75µ, Temperatur 25 Grad Celsius
  • Öffnungsverhältnis: f/6
  • Lichtverschmutzung:  Bortle 5
  • Gesamtbelichtungszeit: 60 MInuten

Lichtverschmutzung

Die Signalstärke aus Lichtverschmutzung gemessen in Anzahl Elektronen pro Pixel pro Sekunde (nach Dr. Robin Glover) ist:

Bortle 9
Inner City
Bortle 8 City Sky Bortle 7
Urban
Bortle 5
Suburban
Bortle 3
Rural
Bortle 1
Excellent Dark
f/4 175 28 22 5,3 1,2 0,80
f/5 112 18 14 3,7 0,81 0,51
f/6 78 12,3 9,36 2,6 0,56 0,36
f/7 57 9,1 7,1 1,9 0,41 0,26
f/10 28 4,4 3,4 0,85 0,19 0,13

Dies sind Daten für einen Mono-Sensor mit 50% Quantum Efficiency und 3,75μ Pixelgröße (also für den Standard-Observer).
Für einen Colour-Sensor sind diese Zahlen durch 3 zu dividieren.
Link: https://tools.sharpcap.co.uk

Unser Standard-Observer hat demnach eine Lichtverschmutzung von:  2,6 Elektronen pro Pixel pro Sekunde

Beispiele für Lichtverschmutzung

An verschiedenen Orten haben wir ganz unterschiedliche Lichtverschmutzung:

  • Hamburg-Eimsbüttel: SQM 17,5 –> Bortle 7
  • Handeloh Aussensternwarte:  SQM 21,0 –> Bortle 4
  • Kiripotib, Namibia: SQM 21,9 –> Bortle 1
  • Elmshorn: xyz
Standort SQM Teleskop Imager Light Pollution Rate Thermal Noise Limit Erforderliche Sensor Temperatur
Eimsbüttel 17,5 ED80/510 Canon EOS 600D 3,00 0,30
Handeloh 21,0 ED80/510 Canon EOS 600D 0,30 0,03
Elmshorn
Kiripotib 21,9 APM APO 107/700 * 0,75 Canon EOS 600D 0,22 0,02

Lichtverschmutzung mit der DSLR Canon EOS 600D in Eimsbüttel

Bei einer Lichtverschmutzung von Bortle 7 hätte ich bei meiner Canon EOS 600D (Colour) an dem ED80/510 dann eine Lichtverschmutzung von 2,96 Electrons per Pixel per Second.
Robin Glover empfiehlt, das thermische Rauschen herunterzudrücken auf 10% der Lichtverschmutzung, also auf: 0,296 e

Lichtverschmutzung mit der Altair Hypercam 294 Pro Colour

Bei einer Lichtverschmutzung von Bortle 7 hätte ich mit dieser Cam an dem ED80/510 dann eine Lichtverschmutzung von 6,38 Electrons per Pixel per Second.
Robin Glover empfiehlt, das thermische Rauschen herunterzudrücken auf 10% der Lichtverschmutzung, also auf 0,638 e

Lichtverschmutzung mit der Altair GP-CAM

Für meine GP-CAM haben wir:

  • Pixelgröße: 3,75μ
  • Sensor: CMOS mono
  • Quantum Efficiency:   ca. 60%
  • Sensor: Mono

Bei einer Lichtverschmutzung von Bortle 7 hätte ich mit dieser Cam an dem ED80/510 dann eine Lichtverschmutzung von 9,88 Electrons per Pixel per Second.
Robin Glover empfiehlt, das thermische Rauschen herunterzudrücken auf 10% der Lichtverschmutzung, also auf 0,988 e

Lichtverschmutzung in Aussensternwarte Handeloh

Dort haben wir:

  • Lichtverschmutzung: SQM 21,0 –> Bortle 4
  • Sensor: CMOS colour
  • Pixelgröße: 4,3μ
  • Quantum Efficiency: 41%
  • Öffnungsverhältnis: f/6.4

In Handeloh hätte ich mit meiner Canon EOS 600D an dem ED80/510 dann eine Lichtverschmutzung von 0,30 Electrons per Pixel per Second.

Lichtverschmutzung in Kiripotib, Namibia

Dort haben wir:

  • Lichtverschmutzung: SQM 21,9 –> Bortle 1
  • Sensor: CMOS colour
  • Pixelgröße: 4,3μ
  • Quantum Efficiency: 41%
  • Öffnungsverhältnis: f/4,9   (APM APO 107/700 mit Reducer 0,75)

Auf Kiripotib hätte ich mit meiner Canon EOS 600D an einem APM APO 107/700 mit Reducer dann eine Lichtverschmutzung von 0,22 Electrons per Pixel per Second.

Das Shot-Noise

Auch im eigentlichen Nutz-Signal haben wir ja ein Rauschen, das sog. “Shot Noise”  (im Deutschen auch “Schrotrauschen” genannt). Die Ankommensrate der Photonen kann man inetwa mit Regentropfen vergleichen.

Wenn wir länger belichten, kommen mehr Photonen auf den Sensor, wenn wir kürzer belichten, kommen weniger Photonen auf den Sensor.

Bei einem schwächeren Signal ist das Shot Noise im Verhältnis größer   –   Poisson-Verteilung….

Umgekehrt: je länger wir belichten, desto geringer wird das Shot Noise im Verrhältnis. Shot Noise = k mal Wurzel aus Signalstärke

\((3) \hspace{1 em}  Shot Noise = k \cdot \sqrt{Signalstärke}  \)

Absolut gesehen, steigt das Shot Noise mit der Signalstärke, also der Belichtungszeit.
Aber relativ zum Signal wird das Shot Noise (prozentual) immer geringer:   Shot Noise / Signalstärke = k / Wurzel aus Signalstärke

\((4) \hspace{1 em}  \Large  \frac{Shot Noise}{Signalstärke} = \Large \frac{k}{\sqrt{Signalstärke}}  \)

Stacking and Noise

Wenn wir n Frames stacken verhält sich das Read Noise linear: ….

Wenn wir n Frames stacken verhält sich das Stack Noise wie folgt:

Stack Noise = Read Noise + Shot Noise   – wobei das Shot Noise praktisch gleich der Light Pullution ist

nach Robin Glover:

S1 S2 S3 S4
Frames stacked Increase in Image Signal Increase in Image Noise Increase in S/N Ratio
1 1 x 1 x 1 x
2 2 x 1,41 x 1,41 x
5 5 x 2,24 x 2,24 x
10 10 x 3,16 x 3,16 x
20 20 x 4,47 x 4,47 x
50 50 x 7,07 x 7,07 x
100 100 x 10 x 10 x

S2 = S1

\( \Large S_2 = S_1    \)

S3 = Wurzel aus S1

\( \Large S_3 = \sqrt{S_1}  \)

S4 = S2  /  S3  =    S1 / Wurzel aus S1   =   Wurzel aus S1

\( \Large S_4 = \Large\Large\frac{S_2}{S_3}  = \frac{S_1}{\sqrt{S_1}}  = \sqrt{S_1} \)

Die Schlußfolgerung

Wenn wir einfach einen gegebenen Ort, ein gegebenes Astro-Equippment und eine gegebene Zeit haben, was soll wir machen?

Dafür gibt es eine Formel. Wobei wir folgende Symbole benutzen:

R  = Read Noise    (typisch bei CMOS-Sensoren: 0,2 e pro Sekunde pro Pixel)

T = Total Imaging Time

S = Sub Exposure Time

n = Number of Subs      \(  n = \frac{T}{S}  \)

P = Light Pollution Rate   in Electrons per Sekunde per Pixel     (typisch: 2,6 für unseren Standard-Beobachter mit Bortle=5)

Single Frame

Wenn wir als “Shot Noise” einfach mal das Signal der Lichtverschmutzung nehmen (die anderen Rausch-Anteile vernachlässigen wir, da wir ja “hintergrundlimitiert” fotografieren).
dann ergibt sich:

\( SingleFrameShotNoise = \sqrt{S \cdot P} \)

und das ReadNoise in einem Sub ist:

\( SingleFrameReadNoise =  R \)

Damit ist das Gesamt-Rauschen in einem Frame:

\( SingleFrameTotalNoise = \sqrt{SingleFrameReadNoise^2 + SingleFrameShotNoise^2}    \)

Also:

\( SingleFrameTotalNoise = \sqrt{R^2 + S \cdot P}    \)

Total Stack

Dann ist das gesamte ReadNoise im gestackten BIld:

\( TotalStackReadNoise = \sqrt{n \cdot R^2} \)

und wenn wir als “Shot Noise” einfach mal das Signal der Lichtverschmutzung nehmen (die anderen Rausch-Anteile vernachlässigen wir, da wir ja “hintergrundlimitiert” fotografieren).
Dann ist das gesamte ShotNoise im gestackten Bild:

\( TotalStackShotNoise = \sqrt{T \cdot P} \)

Dann haben wir als “Stack Noise”:

\( TotalStackNoise = \sqrt{TotalStackReadNoise^2 + TotalStackShotNoise^2}    \)

also:

\(  TotalStackNoise = \sqrt{n \cdot R^2  + T \cdot P} \)

Wenn wir als “Shot Noise” einfach mal den Betrag der Lichtverschmutzung nehmen (die anderen Rausch-Anteile vernachlässigen wir, da wir ja “hintergrundlimitiert” fotografieren).

Grenzfall: “Perfekte Kamera” d.h.R=0

\( TotalStackNoise = \sqrt{T \cdot P}  \)

Grenzfall “Eine Aufnahme, ganz lang”  n=1

\( TotalStackNoise = \sqrt{R^2  + T \cdot P}  \)

Dieses stellt auch das Optimum (Minimum) für Aufnahmen mit der begrenzten Gesamtbelichtungszeit dar; also die 100%, die unten gebraucht werden.

Ergebnisse: Total Noise in the Stack Bortle=5

Diese Formel als Tabelle dargestellt ergibt:

Sub Exposure Length Total Stack Noise CMOS Total Stack   Noise
CCD
Total Stack Noise CMOS Total Stack Noise      CCD
[s] e/pixel/s e/pixel/s [%] [%]
1 178,5 431,0 184,4 444,3
2 143,6 312,3 148,3 322,0
5 117,7 211,3 121,6 217,8
10 107,7 164,3 111,3 169,4
23 101,6 130,0 105,0 134,0
30 100,5 123,5 103,9 127,3
60 98,7 110,9 101,9 114,3
100 97,9 105,5 101,2 108,7
174 97,4 101,9 100,7 105,0
1000 96,9 97,7 100,1 100,7
3600 96,8 97,0 100,0 100,0

und als grafische Darstellung:

RobinGlover-04

 

Wir sehen, dass sich das Total Stack Noise bei gegebener Gesamtbelichtungszeit (hier: 3600 Sekunden) jeweils einem Optimum (Minimum) annähert (im Beispiel: 96,8 bei CMOS und 97,0 bei CCD).

Die Kurven flachen sehr schnell ab, also können wir durchaus mit Sub Exposures arbeiten, die wesentlich kürzer sind und dabei das optimale (minimale) Rauschen nur ganz knapp erhöhen.

Wenn wir etwa ein 5% höheres Rauschen als das Minimum-Rauschen akzeptieren, landen wir bei Sub Exposures von: 30 Sekunden bei CMOS und 60 Sekunden bei CCD.

Im Beispiel sind das:

  • Standard-Beobachter CMOS 23 sec
  • Standard-Beobachter CCD 174 sec

Optimale Sub Exposures

Zum Schluss bleibt die Frage, wieviel zusätzliches Rauschen im Bild man akzeptieren will.  Wenn wir das akzeptierte zusätzliche Rauschen in Prozent des Minimum-Rauschens mit “E” bezeichnen, erhalten wir:

\( \Large S = C \cdot \frac{R^2}{P}   \)

wobei:

\( \Large C = \frac{1}{(\frac{100 + E}{100})^2 – 1}  \)

Bei E=5% ist C=10. Damit erhalten wir die Formel:

\(  S = 10 \cdot \frac{R^2}{P}   \)

 

Ergebnisse: Total Noise in the Stack Bortle=4 (Handeloh)

 

 

 

Ergebnisse: Total Noise in the Stack Bortle=1 (Namibia)

 

Astronomie: Checkliste für auswärtige Beobachtungen

Gehört zu: Astronomie
Siehe auch: Geräteliste, Mein Workflow

29491 Unique Visitors,  42196 Page-views

Was muss ich ins Auto packen, wenn ich nach auswärts zur Sternwarte fahre?

Stand: 31.10.2019

Generell

  • Schlüssel zur Sternwarte
  • Astro-Kladde und Bleistift
  • Rotlicht-Taschenlampe
  • Rotlicht-Stirnlampe
  • Camping-Stuhl
  • Camping-Tisch
  • Regenhaube für das Teleskop
  • Warme Kleidung (Handschuhe, Mütze, Stiefel,…)
  • Kabeltrommel
  • Mehrfach-Steckdose
  • Gummiband

Computer

  • Windows-Laptop-Computer
  • Netzteil für Laptop-Computer
  • Maus für Laptop-Computer
  • Maus-Pad für Laptop-Computer
  • USB-Winkelstecker
  • Rotlicht-Folie, Rotlicht-Scheibe für Laptop-Display
  • Laptop-Zelt 
  • Software: PoleMaster, DualMotorFocus, ASCOM-Platform, EQMOD, All Sky Plate Solver, APT, Cartes du Ciel, PHD2 Guiding
  • Mobil-Telefon

Montierung

  • Dreibein-Stativ für HEQ5 Pro
  • Spreitz-Scheibe mit Gewindestange und zwei Muttern für HEQ5 Pro
  • Wasserwaage
  • Polkopf HEQ5 Pro
  • Gegengewicht für HEQ5 Pro
  • 12 Volt Kabel für Polkopf
  • 12 Volt Steckernetzteil
  • Synscan-Handbox für HEQ5 Pro
  • Serielles Kabel mit USB-Adapter zur Verbindung der Handbox mit dem Laptop-Computer
  • PoleMaster mit USB-Kabel

Teleskop

  • Das OTA Orion ED80/600
  • Guiding-Rohr
  • Guiding-Kamera mit ST4-Kabel und USB-Kabel zum USB-Hub
  • Flattener/Reducer mit M48-Cannon-Adapter
  • Barlow-Linse und Verlängerungshülse
  • Taukappe für Orion ED80/600
  • Motor-Fokusser
  • optional: Sonnenfilter

DSLR

  • Den Kamera-Body: Canon EOS 600DA
  • T-Ring
  • Dummy-Akku zur Spannungsversorgung
  • Spezial-Netzteil zur Spannungsversorgung
  • USB-Kabel zum Anschluss an Hub bzw. Laptop-Computer
  • Speicherkarte mit viel Platz
  • Sucherfernrohr auf Blitzschuh
  • optional: Intervallometer

 

Astrofotografie: Platesolving mit ASTAP

Gehört zu: Plate Solving, Astronomie: Software-Liste
Siehe auch: Welche Sterne sind auf meinem Foto?

Die Software “ASTAP”

Zum Plate Solving benutze ich die Software “All Sky Plate Solver” und PlaneWave “PlateSolve2“, weil die beiden von APT unterstüzt werden.

Nun gibt es neu zum Plate Solving  “ASTAP” (Bestandteil von N.I.N.A.). ASTAP kann auch “stand alone”, verwendet werden. Die Bildquellen können ganz einfach JPG-Bilder oder FITS-Bilder sein, die irgendwo auf dem Notebook liegen (also keine Kamera, kein ASCOM, kein garnichts, einfach “Stand Alone”).

Das Plate Solving mit ASTAP leistet “near solving”, was die Angabe eines “ungefähren” Ausgangspunkts (R.A. und Dekl.) sowie die Angabe der  Bildgröße (Bildhöhe) in Grad  ( verlangt. Ebenfalls ist ein “blind solving” mit ASTAP möglich. Dafür ist die Angabe von Pixelsize und Focal Length erforderlich.

Als Ergebnis des Solven werden die Koordinaten des Bildmittelpunkts, der Drehwinkel und der Abbildungsmaßstab bzw. das Gesichtsfeld (FoV) ermittelt.

Bezugsquelle

ASTAP gibt es für Windows, Linux und MacOS

https://www.hnsky.org/astap.htm

Copyright (C) 2018, 2019 by Han Kleijn, www.hnsky.org.

  • ASTAP Version 0.9.275 (stand alone version)
  • Index Files

Kompatibilität mit PlateSolve2

Wenn man das EXE-File umbenennt in “Platesolve2.exe” kann man ASTAP identisch verwenden. Also:

  • PlateSolve2 mit APT
  • PlateSolve2 mit SGP
  • PlateSolve2 mt XYZ

Installation von ASTAP

ASTAP installiert man, indem man das Setup-Programm astap_setup.exe ausführt. Das ausführbare Programm ist dann “D:\bin\astap\astap.exe”.

Automatisch werden bei der Installation auch das Utility DCRAW.exe und die Index-Files in den Ordner “D:\bin\astap” kopiert.

Bildbeschreibung: ASTAP Setup

ASTAP_Setup_01.jpg

ASTAP Setup

Andere Stern-Kataloge?

Gibt es noch andere Stern-Kataloge als die mit gelieferten???

Erste Schritte zum Plate Solving mit ASTAP

Dann kann’s losgehen: Ich nehme (Menü -> File -> Load FITS or other format) ein vorhandenes Astrofoto: DK_20170708_01380.jpg, das ich am 8. Juli 2017 mit der Sony NEX-5R und einem 135mm Objektiv aufgenommen habe.

Dieses Foto wird zunächst in den sog. “Viewer” geladen – das kann einen Moment dauern.

ASTAP_Load_01

Um die Parameter für das Plate Solving einmal einzustellen, klicken wir auf die Schaltfläche mit dem Symbol “Großes Sigma”. Dadurch öffnet sich ein neues Dialogfeld wo wir auf den Reiter “Alignment” gehen:

ASTAP_Alignment_01

Hier gibt es jetzt vier Möglichkeiten (Radio Buttons), das “Alignment” durchzuführen:

  • Star Alignment
  • Astrometric Alignment
  • Use local Astrometry.net
  • Manual, one star

Wir probieren mal das “Astrometric Alignment” aus.

Dazu müssen wir angeben:

  • die “Field height image in Grad” angeben. also im Beispiel 6,6 Grad
  • die ungefähre Rektaszension (alpha) und Deklination (delta) – da wir hier ein “Near Solving” haben. Also: Alpha = 20h 51m, Delta = 46° 13′

Danach klicken wir ganz rechts auf die Schaltfläche “Solve current image”

ASTAP_Alignment_02

Und nach ganz kurzer Zeit erhält man das Ergebnis:

ASTAP_Alignment_03

Weitere Funktionen von ASTAP

  • Die Stand Alone Version selbst hat keine ASCOM Funktionen (z.B. Steuerung von Kameras und Montierungen).
  • Integration in Host-Software wie APT, SGP etc.
  • Nur in den eingebauten Versionen (z.B. Host-Software APT oder N.I.N.A.) werden Plate-Solving-Ergebnisse an die Host-Software zurückgegeben und können dort zeitnah weiterverwendet werden; z.B. zum genaueren Positionieren des Bildausschnitts (sog. “Framing”).

==========================================

=============================================

==========================================

Dies stammt aus dem Artikel über Platesolve2:

  • Gesichtsfeld ca. 9,9° x 6,6°
  • Bildmitte ca. 20h 51m, +46° 13′
PlateSolve2-01.jpg

Platesolve2-01: Plate Match Found

Bei den “Starting Parameters” muss das Gesichtsfeld (hier: 9×6 degrees) eingetragen werden.
Meine Astrofotos werden meist nach 5 bis 10 Sekunden “gesolved” d.h. Rektaszension und Deklination des Bildmittelpunkts sowie der Drehwinkel gegen die Nordrichtung werden angzeigt.

Edit Parameters

Hier gebe ich an, ob als Katalog der APM oder der UCAC3 benutzt werden soll und das dazu geltende Äquinoktikum (J2000).

Da bei Digitalkameras Sterne oft etwas gößere “Bobbels” werden, stelle ich die “Max Star Size” von 6 auf 12 hoch. Wenn dann andere Objekte als Sterne erkannt werden, war der Wert zu groß.

Die “Detection Threshold” sorgt dafür, das Rausch-Artefakte nicht als ganz schwache Sterne missverstanden werden. Da meine Digitalkamera deutlich rauscht, stelle ich den Wert von 6 auf 8 hoch. Dadurch werden weniger Sterne erkannt. Wenn es zu wenig werden, hat man den Wert zu groß eingestellt.

Wenn ich einen Haken bei “Highest Accuracy Plate Solution” setze, stürzt der PlateSolve2 ab.

Auch die Default Location (geografische Breite und Länge) des Beobachtungsorts können hier angegeben werden.

PlateSolve2-02.jpg

Platesolve2-02: Parameters

Was kann ich damit anfangen?

  1. Als unmittelbares Ergebnis des Plate Solving bekomme ich angezeigt:
    1. Koordinaten des Bildmittelpunkts (R.A. und Dekl.)
    2. Pixel Size
    3. Drehwinkel
    4. Gesichtsfeld 9,97° x 6,62°
    5. Anzahl der gefundenen Sterne: 12 (die haben auf dem Bild einen kleinen Kreis)
    6. Wurzel aus der Summe der quadratischen Abweichungen (RMS): 2.022″
  2. Wenn ich auf die Schaltfläche “Show Image” drücke, kann das Bild mit gewissen Zusatzinformationen betrachtet werden.
    1. Ich kann mit der Maus über das Bild fahren und sehe unten die Koordinaten
    2. Ich kann mir die im Bild erkannten Sterne als Kreuze (waagerecht/senkrecht) anzeigen lassen
    3. Ich kann die benutzen Katalog-Sterne als Kreuze (45°) anzeigen lassen
    4. Ich kann mir die “gematchten” Sterne mit kleinen Kreisen anzeigen lassen
PlateSolve2-03.jpg

Platesolve2-03: Show Image

Astronomie: The Astro Zone System

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung, Schärfen, Entrauschen

Quelle: Youtube-Video von Frank Sackenheim

Das Prinzip der vier Zonen

Ein typisches Astrofoto eines Deep-Sky-Objekts hat Bereiche verschiedener Qualität, die wir möglicherweise unterschiedlich bearbeiten wollen.

Sichtbar machen kann man diese “Zonen” z.B. mit Adobe Photoshop auf folgende Weise:

  • Wir öffnen ein geeignetes Astrofoto
  • Wir wandeln das Photo in Graustufen um ( Bild -> Modus -> Graustufen)
  • Wir machen eine sog. Tontrennung in vier Stufen (Bild -> Korrekturen -> Tontrennung)

Andere Photoshop-Versionen:

  • Die Funktion “Tontrennung” heist in der englischen Version “Posterize”
  • In Photoshop CS2 findet man das unter Bild -> Anpassen -> Tontrennung

Dann haben wir vier Bereiche “Zonen” in unserem Bild. Dieser Ansatz stammt von Ron Wodaski, der dies “Vier-Zonen-System” nennt. Die vier Zonen sind:

  1. Der Hintergrund “Zone 1 (Dunkelbereich)” soll – ohne Rauschen – sehr dunkel sein
  2. Gebiete mit schwachen Nebeln “Zone 2 (Dunkelgrau)” haben ein schlechtes Signal-Rausch-Verhältnis (SNR) und können nicht geschäft, sondern nur entrauscht werden.
  3. Gebiete mit stärkeren Nebeln “Zone 3 (Hellgrau)” haben ein gutes Signal-Rausch-Verhältnis (SNR) und sollten geschärft werden.
  4. Die ganz hellen Bereiche “Zone 4 (Hell)” das sind überwiegend die Sterne, die haben ein super-gutes SNR und sollten ebenfalls nicht entrauscht werden…

Die Bildbearbeitung

Nachdem wir uns das Prinzip der vier Zonen so klargemacht haben, geht es an die (ggf. unterschiedliche) Bearbeitung der vier Zonen. Dazu laden wir das ursprüngliche Astrofoto (in Farbe) in Photoshop.

Die vorbereitende Bildbearbeitung

Bevor wir die vorgestellten Zonen selektiv betrachten, beginnen wir die Bildbearbeitung ganz “konventionell”:

  • Die Einzelaufnahmen sollten im RAW-Format (d.h. 16 Bit Tiefe) vorliegen
  • Stacken der einzelnen Frames (mit Darks, Flats und Bias Frames)
  • Rand abschneiden (sonst haben wir möglicherweise einen komischen Effekt links im Histogramm)
  • Stretchen – dabei einen “weisen” Schwarzpunkt setzen (weise = nach rechts ans Gebirge heranfahren, aber etwas Abstand halten)

Die Bearbeitung der vier Zonen

Die Zonen 1 und 2 müssen im Wesentlichen entrauscht werden; Zone 2 vorsichtiger als Zone 1.
Die Zonen 3 und 4 müssen im Wesentlichen geschärft werden: Zone 3 klaro, Zone 4 wie ???

Um eine getrennte Bearbeitung von Zone 1 und 2 einerseits von Zone 3 und 4 andererseits zu erreichen, verwenden wie eine Luminanzmaske.

Als Luminanzmaske nehmen wir einfach das Bild selbst als Maske. Das machen wir so:

  • Das ganze Bild auswählen (Strg-A)
  • Das ausgewählte Bild in die Zwischenablage übertragen (Strg-C)
  • Eine leere Maske hinzufügen:  Unten das Symbol “Ebenenmaske hinzufügen”
  • In die leere Maske zum Bearbeiten hineingehen (Alt-Klick)
  • Die Zwischenablage in die leere Maske einfügen (Strg-V)

Bearbeiten von Zone 1 und Zone 2

Ebenenenmaske

Zum Entrauschen (für Zone 1 und 2) müssen wir die Lumanzmaske invertieren (Strg-I).
Die Luminanzmaske sollten wir durch manipulieren am Histogramm (Schwarzpunkt bzw. Weisspunkt verschieben) und durch Weichzeichnung (Gaußscher Weichzeichner) noch etwas verbessern, bevor wir sie zur Bildbearbeitung benutzen.

Entrauschen

Welchen Rauschfilter nehmen wir dazu? Es gibt viele Rauschfilter; alle arbeiten im Prinzip so, das sie die Auflösung verringern; d.h. also etwas “glätten”. Die Unterschiede bei den verschiedenen Rauschfiltern liegen im Wesentlichen bei den Argorithmen nach denen sie die Bildteile auswählen auf die sie wirken sollen. Da wir dafür extra eine schöne Ebenenmaske erstellt haben, genügt zunächt ein ganz einfacher Rauschfilter z.B,:

Photoshop Menüleiste -> Filter -> Rauschfilter -> Rauschen entfernen

Bearbeiten von Zone 3 und Zone 4

Ebenenmaske

Um Zone 3 und 4 isoliert zu bearbeiten, nehmen wie wiederum die Luminanzmaske; diesmal aber ohne sie zu invertieren. Ggf. wollen wir die Luminanzmaske noch leicht modifizieren indem wir im Histogramm die Schwarz- und Weisspunkte verschieben und schließlich einen Gaußschen Weichzeicher einsetzen.

Schärfen

Welchen Schärfungsfilter nehmen wir dazu?

Photoshop Menüleiste -> Filter -> Scharfzeichnungsfilter -> Unscharf maskieren…

Die abschließende Bildbearbeitung

Die entrauschten Zonen 1 und 2 müssen mit den geschärften Zonen 3 und 4 nun zusammengesetzt werden.

Astrofotografie: Mein Workflow mit Plate Solving und APT Schritt für Schritt

Gehört zu: Astrofotografie
Siehe auch: Plate Solving, APT, Checkliste: Ins Auto packen

29491 Unique Visitors,  42196 Page-views

Meine Arbeitsweise für Astrofotografie: Schritt für Schritt

Am Anfang: Die Planung

Am Anfang steht die Planung. Ich suche mir also ein Objekt als “Beobachtungsobjekt” (z.B. NGC 7000) aus, entscheide mich für dafür geeignete Geräte (speziell die Optik) und einen geeigneten Standort.

Für das One-Star-Alignment der Montierung, sollte ein heller Stern in der Nähe des geplanten Beobachtungsobjekt ausgesucht werden (hier: Deneb). Damit beim späteren Plate Solven die schnelle Methode “Near Solving” einfach funktioniert, sollte dieser auch in der APT-Objektliste stehen.

Damit das geplante Beobachtungsobjekt (hier: NGC 7000) später einfach angefahren werden kann, sollte es in der APT-Objektliste stehen. Dann können wir beim Plate Solving die schnelle Methode “Near Solving” verwenden und evtl. auch ein schönes “Goto++” zum automatischen zentrieren auf das Objekt machen.

Alle Teile ins Auto packen

Leicht kann man ein Teil vergessen, was vor Ort dann doch dringend benötigt wird. Deshalb habe ich mal eine Checkliste erstellt – vielleicht hilft das ja.

Meine Hardware für den Standardfall ist:

Meine Software für den Standardfall ist:

  • Windows 10 Pro
  • Windows-Treiber für Seriell-USB-Adapter von LogiLink (Chipsatz PL2303TA)
  • ASCOM Plattform
  • ASCOM-Treiber (EQASCOM) für die Montierung HEQ5 Pro   (enthält auch die EQMOD Toolbox)
  • Cartes du Ciel  für visuelle Gotos
  • APT  für die Steuerung der Kamera (Serienaufnahmen), das Platesolving mit SYNC und das Fokussieren
  • ASCOM-Treiber für den Motor-Fokusser (optional)
  • Software für den QHY PoleMaster (optional)

Der Aufbau bei Tageslicht

Am Standort angekommen, baue ich meine Gerätschaften auf (noch bei Tageslicht).

1) Die Montierung HEQ5 Pro wird mit HIlfe einer Wasserwaage waagerecht aufgestellt und grob eingenordet.

2) Stromversorgung herstellen

12V an die HEQ5 Pro Montierung und Motor-Fokusser, 7,6 Volt an die Cannon EOS, 19 V an den Laptop

3) SynScan-Handbox anschliessen und testen

  • Handbox per Kabel mit der Montierung verbinden
  • An der Handbox einstellen: Datum (MM/DD/YYYY), Uhrzeit, Zeitzone, geografische Breite, geografische Länge
  • An der Handbox die vier Pfeiltasten ausprobieren. Die Montierung muss sich dadurch in beiden Achsen bewegen

4) Kabelverbindung zwischen Montierung und Laptop herstellen und testen

  • Handbox: Modus “PC Direct Mode
  • Handbox per Kabel mit dem Laptop verbinden: Serielles Kabel (von Synscan) unten in die mittlere Buchse der Handbox; die andere Seite des Kabels mit Seriell-USB-Adapter (Chip-Satz PL2303TA) an Laptop anschließen
  • Im Geräte Manager nachschauen, welchen COM-Port der Seriell-USB-Adapter benutzt
  • EQMOD-Toolbox aufrufen
    • Dort diesen COM-Port im ASCOM-Treiber-Setup einstellen (Schaltfläche “Driver Setup“)
    • Dann die Schaltfläche “ASCOM Connect” klicken -> das EQMOD-ASCOM-Fenster muss dann aufgehen
    • Im EQMOD-ASCOM-Fenster die vier Pfeiltasten ausprobieren. Die Montierung muss sich dadurch in beiden Achsen bewegen (“Slew Controls”)
    • Schaltfläche “Disconnect” klicken
    • EQMOD Toolbox beenden

5) ASCOM-Verbindung zwischen Montierung und Cartes du Ciel errichten und testen

  • Menüleiste: Telekop -> Verbinden, Schaltfläche “Verbinden”, Schaltfläche “Ausblenden”
  • Einzelheiten dazu in meinem Artikel Cartes du Ciel

6) Kamera Canon EOS 600Da in Betrieb nehmen

  • Stromversorgung testen
  • Modus auf “Manuell” einstellen
  • Speicherkarte auf genügend freien Platz prüfen
  • Datum und Uhrzeit überprüfen
  • Kabelverbindung zwischen Kamera Canon EOS 600Da und Laptop herstellen (USB-Kabel)

7) Software APT testen

  • Cartes du Ciel starten; dann APT starten
  • Connect APT zu Cartes du Ciel   (bei mir automatisch)
  • Connect APT zur Montierung “Gear”; Test: Pfeiltasten
  • Connect APT zur Kamera; Test: Live View

8) Grobe Fokussierung des Teleskops auf ein Horizont-Objekt

Der Aufbau im Dunklen

1) Wenn es dunkel genug ist, mache ich die genaue Einnordung mit QHY PoleMaster.

2) Das Teleskop manuell auf die Home-Position stellen (einigermassen genau)

3) Nun das One-Star-Alignment

Zum One-Star-Alignment suchen wir uns einen hellen Stern in der Nähe unseres Beobachtungsobjekts, das wir planen zu fotografieren. Der Stern sollte als Objekt in der APT-Objektliste stehen, damit wir die Koordinaten später einfach für ein Near Solving verwenden können.

  • Auf dem Windows-Computer mit der Software Cartes du Ciel ein Goto auf (z.B.) Deneb (alpha Cyg) – das Telskop wird nicht genau auf Deneb zeigen, das macht aber nichts
  • mit APT ein Foto machen
  • Objekt für Near Solving aussuchen: Im Reiter “Gear” mit der Schaltfläche “Objekts” den Stern Deneb aussuchen
  • Nun dieses Foto in APT Platesolven, Schaltfläche “Point Craft”, dabei als Objekt
  • Nach erfolgreichem Platesolve  Objekt SYNC und SHOW
  • Im Cartes du Ciel erneut ein Goto auf Deneb (müsste ganz nahe sein)
  • mit APT ein Foto machen, dieses Foto in APT Platesolven, SYNC und SHOW
  • im Cartes du Ciel und im Live View von APT  müsste Deneb jetzt genau mittig im Gesichtsfeld stehen (wenn nicht, den vorletzten und den letzen Schritt wiederholen)

4) Nun haben wir einen hellen Stern (im Beispiel: Deneb) im Teleskop bzw. Live View von APT

  • das Sucherfernrohr darauf einjustieren
  • die Fein-Fokussierung des Teleskops in APT: Reiter “Tools”, dort Schaltfläche “Focus Aid” für FWHM (Full Width Half Maximum) oder HFD (Half Flux Diameter)

Schlussendlich: Das geplante Objekt fotografieren

1) Das geplante Beobachtungsobjekt ansteuern

  • Das geplante Beobachtungsobjekt in der Nähe von Deneb z.B. NGC 7000 mit Cartes du Ciel mit Goto ansteuern
  • Zur Sicherheit wieder ein Foto mit APT machen, dieses Foto Platesolven, SYNC und SHOW
  • Im Cartes du Ciel müsste das Beobachtungsobjekt (hier: NGC 7000) jetzt mittig im Gesichtsfeld stehen (wenn nicht: APT Goto++)

2) Belichtungszeit und ISO ausprobieren

  • Reicht die Nachführung?
  • Ist das Histogramm weder rechts noch links abgeschnitten?

3) Nun eine Serienaufnahme als APT “Plan” programmieren (ggf. Autoguiding aktivieren, ggf. Dithering aktivieren)

4) Den APT-Plan ausführen mit der Schaltfläche “Start”

Last but not Least

  • Beobachtungsbuch
  • Abbau
  • Heimreise

 

 

Astronomie – Computer: ASIair

Gehört zu: Astrofotografie
Siehe auch: Polar Alignment, StellarMate, INDI

Kleine Astrofotografie-Computer

Anstelle von ausgewachsenen Windows-Computersn hört man in letzter Zeit (heute ist Juli 2019) immer öfter von kleinen Geräten, wie “ASIair” (von der Firma ZWO), die den “großen” Windows-Computer ablösen sollen..

ASIair ist eine kleine Kiste (ein Rasberry Pi  Computer), den man an seine Monierung bzw. das Teleskop hängt, und der einiges kann…..

Ähnliche Produkte sind u.a.

  • Celestron StarSense
  • StellarMate
  • Prima Luce Eagle (mit Windows 10 Pro)

ASIair ist ein kleiner Computer, mit dem man ohne traditionelle Computer Astrofotografie betreiben können soll – das Ding wird als “Astrofotografie-Computer” bezeichnet.

Eigenschaften des ASIair

  • Computer: Der ASIair-Computer basiert auf einem Rasberry Pi basieren; also mit LINUX und INDI
  • Stromversorgung des ASIair:  5 V
    Falls man basismäßg 12V benutzt, kann man den mitgelieferten Konverter 12V -> 5V benutzen (3 A)
  • USB: Der ASIair hat 4 USB 2.0 Anschlüsse und fungiert so also als USB-Hub
  • 1 HDMI Anschluss
  • 1 Ethernet-Anschluss
  • WiFi/WLAN: Der ASIair spannt einen WLAN Access Point auf, über den sich ein Tablet mit dem ASIair verbinden kann. Auf dem Tablet läuft daan eine ASIair-App.
  • ASIair unterstützt ASI-Kameras und viele gängige Montierungen.
  • Steuerung der primären Kamera (am Teleskop)  z.B. ASI294MC Pro
    Speicherung der Fotos auf SD-Karte max. 32 GB
  • Autoguiding  (nur über ST4 ? – also Ersatz für PHD2 Guiding)
    Als Guiding-Kamera dient z.B. ASI 120 Mini
  • Plate Solving und SYNC zur Montierung  (wird “Analysis” genannt)
  • Polar Alignment ….

Offene Fragen zum ASIair

WLAN/WiFi:  nicht nur als Access Point, sondern auch als Client?

ASIair-App:  nicht nur für iOS und Android, sondern auch für Windows?

Moter Focusser: not supported

Erste Schritte mit ASIAir

Die Steuerung erfolgt ber eine App auf dem SmartPhone. Dazu muss das Smartphone per WLAN mit der ASIair verbunden werden.

Als Kameras werden Astro-Kameras  (nur ASI-Kameras) und einige DSLRs (Canon) unterstützt.

  • ASI USB 3.0 cameras, ASI Mini series cameras

Das Polar Alignment konnte in früheren Versionen ausschließlich mit der “Main Camera” vorgenommen werden. Jetzt geht es auch mit der “Guide Camera”

Plate Solving

Autoguiding wird auch direkt von der ASIair gemacht es sieht so ähnlich aus wie PHD2 Guiding Vor jedem Guding wird Kalibriert.

Als “Montierung” kann man bei ASIair angeben:

  • “On Camera” wenn man über ST4 Guiden will und keine eigentliche Verbindung zur Montierung hat.
  • Der ASIair wird mit der Montierung mit Hilfe eines mitgelieferten seriellen Kabels (Montierung) mit USB an der ASIair verbunden. Man gibt dann als Monitierung nicht “On Camera” an sondern “Synscan” oder “EQMOD” (beides wird von INDI unterstützt.
  • ASIAIR control the mount through INDI. iOptron, Sky-Watcher are all tested with ASAIR by us.
  • INDI Mount support list:  http://indilib.org/devices/telescopes.html

Goto-Funktion mit einer pre-loaded Objektlist (realisiert über INDI).

 

ASIair und SkySafari

 

und dann kann man über die Funktion “Sky Safari Bridge” die Montierung per Sky Sapari Plus steuern

 

 

 

 

 

Astronomie: Aufnahmeverfahren (Image Capturing)

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung

Historie

Früher als man noch keine digtalen Kameras (Sensoren) hatte und nur den chemischen Film, war klar: man muss lange belichten.
Link: http://www.astrotreff.de/topic.asp?TOPIC_ID=237847

Die ersten Digitalkameras hatten als Sensor CCD-Chips – heute findert man immer mehr CMOS-Chips.

Quellen und Links

Ich bin durch Videos von Nico Carver auf Youtube darauf gekommen, mal etwas ausführlicher die Vorgehensweise (Workflow) bei meiner Astro-Fotografie zu beschreiben.

Welche Geräte setze ich ein?

Hier behandele ich zuerst den Fall, dass eine Digitalkamera (One Shot Colour) fokal an einem Teleskop angebracht wurde und Fotos (keine Videos) geschossen werden sollen.

Einstellungen für die Digitalkamera

Wenn man die Geräte und den Plan zusammen hat und das Wetter mitspielt, geht es an das Fotografieren ansich, also das Aufnehmen eines Bildes (Image Capturing).

Dazu muss man das Beobachtungsobjekt richig ins Gesichtsfeld einstellen (Suchen, Framing), das Bild schön scharf stellen (Fokussieren) und dann belichten – aber mit welchen Einstellungen?

  • Welche Empfindlichkeit?    (ISO bzw. Gain)
  • Welche Blende?
  • Welche Belichtungszeit?
  • Wieviele Einzelbilder?

ISO Empfindlichkeit

Als ISO-Zahl für die Empfindlichkeit verwende ich bei meiner Digitalkamera Canon EOS 600Da meist 800 ISO oder 1600 ISO.
Höheres ISO (Gain) rauscht mehr, also vielleicht mal ISO 400 probieren…

Kamerasensoren können “ISO-invariant” sein oder auch nicht.
Link: https://www.stephanwiesner.de/blog/iso-invarianz-iso-loser-sensor/

Blende

Die Blende heisst in der Astrofotografie “Öffnungsverhältnis” und ist durch das Gerät praktisch vorgegeben. Mein kleiner Refraktor Orion ED 80/600 hat immer 600/80 = 7,5 oder mit dem Flattener/Reducer 510/80 = 6,375 – sprich also f/7,5 bzw. f/6,375.

Belichtungszeit

Prinzipiell gilt: Mit steigender Belichtungszeit sammelt man mehr Licht und das Nutzsignal hebt sich besser vom Hintergrund ab: sog. Signal-Noise-Ratio = SNR. Aber da kommen noch weitere Aspekte hinzu.

Mit steigender Belichtungszeit (ceteris paribus):

  • verbessert sich der Signal-Rausch-Abstand (SNR)
  • nimmt auch das Dunkelrauschen (des Sensors) zu; dieses kann man aber durch den Abzug von Dunkelbildern (s.o.) komplett eliminieren.
  • wird der Himmelshintergrund immer heller.  Das sieht man im Histogramm: dort wandert der “Berg” immer weiter nach rechts.
  • macht sich die (scheinbare) Bewegung der Himmelsobjekte durch die Erdrotation immer stärker bemerkbar; diesen Effekt können wir durch Nachführung eliminieren

Maximale Belichtungszeit limitiert durch Himmelshelligkeit

Um die maximale Belichtungszeit zu finden, mache ich bei konstantem ISO eine kleine Serie von Aufnahmen mit zunehmender Belichtungszeit und schaue dann die Histogramme an. Je länger ich belichte, um so mehr rückt das Histogramm an den rechten Rand d.h. das Bild wird heller und heller. Ich muss eine Belichtungszeit finden, bei das das Histogramm nicht ganz am linken und auch nicht ganz am rechten Rand steht. Das hängt näturlich von der Himmelshelligkeit ab, also von der Lichtverschmutzung am Standort (natürlich fotografiere ich erst nach Ende der astronomischen Dämmerung und wenn der Mond nicht da ist).

  • In Handeloh (Bortle 4) finde ich so: xyz
  • In Hamburg-Eimsbüttel (Bortle 7) habe ich: xyz

Diese Ergebnise können je nach ISO-Einstellung der Digitalkamera leicht unterschiedlich sein oder auch nicht s.o. ” ISO-Invarianz”.

Maximale Belichtungszeit limitiert durch Nachführung

Ab welcher Belichtungszeit werden die Sterne nicht mehr punktförmig, sondern Striche?

Als Fausregel gilt: Max. Beliechtungszeit in Sekunden = 500 / Brennweite in Millimetern

Siehe dazu: Nachführung

Rauschen bei der Digitalkamera

Ein elektronischer Sensor erzeugt auch immer einen “Dunkelstrom” der sich als leichtes Rauschen im gesamten Hintergrund zeigt. Dieser ist abhängig von der Dauer der Belichtung und von der eingestellten Empfindlichkeit (ISO bzw. Gain).
Dieses Dunkelrauschen können wir komplett eliminieren, indem wir Dunkelbilder mit gleicher Belichtungszeit und gleicher Empfindlichkeit bei gleicher Temperatur aufnehmen und so ein Dunkelbild vom Nutzbild subtrahieren. Das funktioniert, weil dieses Dunkelrauschen komplett zufällig verteilt ist.

Die Aufnahmesequenz für mein Beobachtungsobjekt

Ist das Beobachtungsobjekt scharfgestellt (Fokussieren) und schö in den gewünschten Ausschnitt eingestellt (Framing) wird man die eingentliche Fotoaufnahmen automatisiert durchfürhren wollen. Das geht beispielsweise so:

  • Ohne Computer im Felde: Intervallometer
  • Mit Computer im Felde: Software wie z.B. APT, BackyardEOS, Sequence generator Pro, MaximDL,…

Planung einer Aufnahmesequenz

Gesetzt den Fall, ich wollte für ein Beobachtungsobjekt eine Gesamtbelichtungszeit von 60 Minuten bei ISO 800 erreichen, so kann ich das durch Stacking ja auf verschiedenem Weg erreichem. beispielsweise:

  • 1 Aufnahme mit 60 Minuten (=3600 Sekunden)
  • 10 Aufnahmen mit je 6 Minuten (=360 Sekunden)
  • 100 Aufnahmen mit je 36 Sekunden
  • 720 Aufnahmen mit je 5 Sekunden
  • etc.

Was ist dann die richtige Wahl? Sicher muß ich berücksichtigen, was meine (oben ermittelte) maximale Belichtungszeit wegen Himmelshelligkeit ist.

  • Das ist in Hamburg-Eimsbüttel dann die 30 Sekunden bei ISO 800. Damit bräuchte ich also 3600:30=120 Einzelaufnahmen.
  • Das wäre in Handeloh dann 300 Sekunden bei ISO 800. Was 3600:300=12 Einzelaufnahmen bedeutet.

Nun gibt es noch zwei Dinge zu berücksichtigen:

  • Nachführung
  • Ausleserauschen

Das Ausleserauchen entseht bei jedem Einzelbild und soll proportional der Wurzel aus n, der Anzahl der Einzelbilder sein.
Link: http://www.astrotreff.de/topic.asp?TOPIC_ID=237847&whichpage=1#829591

Durchführung einer Aufnahmesequenz

Ist das Beobachtungsobjekt scharfgestellt (Fokussieren), schön in den gewünschten Ausschnitt eingestellt (Framing) und entschieden welche Aufnahmesequenz man machen möchte, dann wird man die eingentliche Fotoaufnahmen automatisiert durchführren wollen. Das geht beispielsweise so:

Nachbearbeitung der Bilder (Post Processing)

Sind die Aufnahmen im Kasten, beginnt die Bearbeitung im Computer: