Astronomie: Polar Alignment mit SharpCap

Gehört zu: Polar Alignment,
Siehe auch: SharpCap, Polar Alignment mit QHY PoleMaster

Polar Alignment – Einnorden – Einsüden

Wenn ich eine äquatoriale (parallaktische) Montierung habe, so muss diese “Eingenordet” werden, d.h. die Stundenachse der Montierung muss parallel zur Drehachse der Erde ausgerichtet werden.

Wenn die Montierung dauernd an einem festen Platz aufgestellt ist, d.h. “stationär“, muss man das vielleicht einmal im Jahr machen und es macht nichts aus, wenn das etwas dauert und evtl. auch einige Verrenkungen erfordert. Wenn die Montierung “mobil” ist, also Tag für Tag an wechselnden Orten neu aufgestellt wird, möchte man die Einnordung möglichst in kurzer Zeit und ohne körperliche Belastungen durchführen können.

Eine weitere Frage bei der Einnordung ist die anzustrebende Genauigkeit. Dabei wäre die Frage, welche Auswirkungen eine fehlerhafte Polausrichtung auf das geplante astronomische Vorhaben hätte.

  • Bei rein visueller Beobachtung muss die Genauigkeit nicht besonders groß sein.
  • Beim Fotografieren hängt die erforderliche Genauigkeit der Poljustierung von der Art der Nachführung (nur Rektaszension, auch Deklinaktion) sowie von Belichtungszeit, Brennweite, Pixelgröße, Sensor-Größe etc. ab.
    Beispiel: Ein Fehler in der Polausrichtung um 60 Bogenminuten ergibt für ein Objekt am Himmelsäquator (Dekl.=0 Grad) ohne Autoguiding nur mit dem Tracking der äquatorialen Motierung eine maximale mittlere Drift von 60 Bogenminuten in 6 Stunden; also 10 Bogensekunden pro Minute Belichtungszeit (bei anderen Deklinationen: Cosinus).

Einen Überblick über verschiedene Methoden zur Polausrichtung habe ich in einem separaten Beitrag versucht. Dort habe ich auch berechnet, welche Auswirkungen eine ungenaue Polausrichtung (also wie viele Bogenminuten zeigt die Drehachse meiner Montierung neben den Himmelspol) hat.

Begonnen habe ich mein Einnorden mit dem Polfernrohr meiner Montierung und der sog. Kochab-Methode, die ich von Hartwig Lüthen bei der GvA gelernt hatte.
Meine Montierung ist “mobil” und wird praktisch ausschließlich zur Astrofotografie benuzt. Deshalb muss die Genauigkeit meiner Polausrichtung schon recht gut sein (besser als 2′) und es sollte schnell und bequem gehen. Daher habe ich als zweiten Ansatz dann die Polausrichtung mit QHY PoleMaster gemacht – was hier im Norden sehr gut ging, aber teuer war.

Die QHY PoleMaster war nicht nur recht teuer, sondern beim Verfahren zur software-gestützten Polausrichtung musste man quasi manuell Sternmuster in der Polnähe erkennen – ein richtiges Plate Solving war das nicht. Als SharpCap mit einer echten Plate-Solving-Methode zum Polar Alignment heraus kam, habe ich das ausprobiert und bin jetzt dabei geblieben. Meinen QHY PoleMaster habe ich gebraucht verkauft.

Polar Alignment mit SharpCap

Polar Alignment ist ein neues Feature in SharpCap 2.9. Die Idee war inspiriert durch PhotoPolarAlign, eine Software von Themos Tsikas. Themos war so freundlich, beim Testen zu helfen und machte auch Verbesserungsvorschläge während der Entwicklung des Polar Alignment Featrures von ShapCap.

Ich verwende jetzt (Dezember 2019) die Version SharpCap 3.2 Pro. Diese ist kostenpflichtig mit Eur 12,– pro Jahr.

Mit der kostenlosen SharpCap-Version kann man das Polar Align “antesten” – für die Stufe “Final Step: Adjust Mount” (s.u.) ist dann aber die kostenpflichtige Lizenz erforderlich.

Wenn das Lizenz-Jahr abgelaufen ist, kann man seine Lizenz kostenpflichtig verlängern (dafür bekommt man in der Regel Freimonate) – ansonsten können die lizenzpflichtigen Features (wie Polar Alignment) nicht mehr benutzt werden.

Die kostenpflichtige Pro-Version hat ausser der Funktion “Polar Align” noch andere zusätzliche Funktionen, die für den Einen oder Anderen interessant sein könnten.

Link: http://www.sharpcap.co.uk/sharpcap/polar-alignment

Was benötigt man für Polar Alignment mit SharpCap?

  • kostenpflichtige Version der Software SharpCap Pro
  • einen Computer, auf dem SharpCap läuft –> ich nehme dafür meinen Windows Laptop
  • Äquatoriale Montierung (Goto nicht notwendig) –> Ich habe die HEQ5 Pro und die Star Adventurer Mini
  • Optik mit Brennweite f=200mm –> nehme da mein Guiding-Rohr GuideScope50
  • Kamera mit einem Gesichtsfeld (FoV) zwischen 1 Grad und etwa 5 Grad –> meine GPCAM hat ein FoV von 1,54 x 1,16 Grad
  • Grobes Polar Alignment der Montierung auf plus-minus 5 Grad
  • Etwa 10-15 Sterne im Gesichtsfeld der Kamera zu sehen (erforderlich ist also eine freie Sicht auf die Gegend des Himmelspols)
  • SharpCap mit eingerichtetem PlateSolving (die Funktion “Polar Alignment” sollte sogar ohne dieses allgemeine Plate Solving gehen)

In welchen Schritten läuft das Polar Alignment mit SharpCap ab?

Schritt 0: Montierung aufstellen

Die Montierung sollte schön waagerecht aufgestellt sein, dann würde nämlich die Azimut-Schraube wirklich nur das Azimut bewegen und nicht auch noch so nebenbei die Polhöhe…
Teleskop in “Home”-Position d.h. Gegengewicht nach unten, Teleskop nach oben, Deklination 90 Grad.
Eine grobe Ausrichtung (5 Grad genau) auf den Himmelspol sollte ebenfalls schon gemacht sein.

Das für die Polausrichtung verwendete kleine Teleskop (z.B. das Guiding-Rohr) muss nicht genau parallel zum Hauptrohr ausgerichtet sein. SharpCap verwendet ja die tatsächliche Rotationsachse der Montierung.

Schritt 1: SharpCap einrichten

Da SharpCap beim Polar Alignment ja ein funktionierendes Plate Solving voraussetzt, müssen wir dafür die richtigen Einstellungen überprüfen:

  • In der SharpCap-Menüleiste auf: “File –> SharpCap Settings” gehen.
  • Dort auf den Reiter “Plate Solving”
  • Dort unter “Options” die “Star Detection Noise Threshold” auf 10 oder kleiner einstellen.

Zur Sicherheit könnte man das Plate Solving mit SharpCap auch einmal so, also ohne Polar Alignment, ausprobieren.

Für das Polar Alingment benutzt SharpCap einen “eingebauten” Plate-Solving-Algorithmus, für den keine Internet-Verbindung und auch kein anderes Programm oder Datenbank installiert werden muss.

Schritt 2: SharpCap-Menüleiste: Tools -> Polar Align

SharpCap_PolarAlign00

Schritt 3: Introduction und erstes Bild aufnehmen

Wenn ich im SharpCap-Menü auf “Tools -> Polar Align” gehe, bekomme ich eine Erklärung (Introduction) . Diese Introduction sollte man ruhig mal durchlesen…

Bildbeschreibung: SharpCap Polar Alignment: Introduction

SharpCap21

Nachdem ich das alles gelesen habe klicke ich auf die Schaltfläche “Weiter” (Next).

Schritt 4: Erstes Bild aufnehmen

Bevor SharpCap die erste Aufnahme macht, sollten wir die Belichtungszeit und den Gain so gut einstellen, dass tatsächlich 10-15 Sterne im Gesichtsfeld zu sehen sind. Im Beispiel habe ich eingestellt: 3,5 Sekunden Belichtungszeit und den “Analogue Gain” auf Maximum.

Natürlich solle die Kamera einigermassen im Fokus sein.

Nachdem wir bei der “Introduction” auf “Next” geklickt haben startet die erste Aufnahme und das Plate Solving.

SharpCap23

Hier im “Step 1 – Capture First Image” haben wir noch die Möglichkeit, einige Parameter für das Plate Solving einzustellen. Beispielsweise Minimum und Maximum Star Width.

Die im Bild erkannten Sterne markiert SharpCap mit einem Kästchen (“detected stars”). Die Sterne mit einem gelben Kästchen werden dann zum Plate Solving verwendet (“used stars”).

Die Kreisbögen im Bild sind Deklinationskreise um den Himmelspol.

Dieser Schritt ist erfolgreich zu Ende, wenn unter Status das Wort “Working” in “Solved” umspringt.
Dann klicken wir auf die Schaltfläche “Next”.

Schritt 5: Stundenachse drehen und zweites Bild aufnehmen

Nachdem im vorigen Schritt das erste Bild erfolgreich aufgenommen und “gesolved” wurde, hatten wir dort auf die Schaltfläche “Next” geklickt und SharpCap möchte nun ein zweites Bild aufnehmen.
Aber vorher soll man die Montierung um ca. 90 Grad in der Stundenachse drehen.
SharpCap macht dann die zweite Aufnahme und davon wiederum ein Plate Solving.

SharpCap24

Aus dem ersten und dem zweiten Foto errechnet SharpCap die Position der Drehachse der Montierung und damit wissen wir (bzw. SharpCap), wie weit wir noch weg sind vom Himmelspol (“Polar Align Error”). Danach klicken wir auf die Schaltfläche “Next”.

Schritt 6: Pol-Ausrichtung durch Drehen an den Azimut- und Polhöhen-Schrauben

Jetzt müssen wir die Montierung durch Drehen an den “Schräubchen” für Azimut und Polhöhe (Altitude) so einstellen, dass die Drehachse der Montierung (die Stundenachse) parallel zu Erdachse ausgerichtet ist.
Dabei hilft SharpCap mit einer Darstellung auf dem Bildschirm wo ein Stern mit einem gelben Pfeil gezeigt wird, der durch das Drehen an den “Schräubchen” der Montierung in das Zielkästchen auf dem Bildschirm gebracht werden muss.

Diese optische Hilfe ist quasi eine Projektion der errechneten erforderlichen Korrektur auf einen Stern im Gesichtsfeld. Wer es lieber in Zahlen hätte, kann sich auch nach den numerisch ausgeworfenen erforderlichen Korrekturen “Move Polar Axis: Left/Up” richten.

SharpCap macht dabei laufend Aufnahmen und berechnet durch Plate Solving die noch bestehende Abweichung vom Himmelspol. Ggf. müssen wir uns in mehreren Schritten der gewünschten Genauigkeit annähern.

Man kann das also nicht “remote” machen, sondern muss physisch an der Montierung stehen und einen guten Blick auf den Computer-Bildschirm haben…

Das schöne ist, dass die Genauigkeit der Polausrichtung (Abweichung vom Himmelspol) exakt ausgeworfen wird; im Beispiel unten schließlich 1 Bogenminute und 34 Bogensekunden, was mir dann bei meiner Montierung HEQ5 Pro reichte.

Wenn die Abweichung unter 2′ ist, wird das als “Good” angesehen, eine Abweichung von weniger als 1′ würde als “Excellent” bewertet.

SharpCap25

SharpCap26

 

Polar Alignment meiner mobilen Montierungen mit SharpCap Pro

Im Folgenden illustriere ich dieses Verfahren zum Polar Alignment an meinen beiden Montierungen:

  • Star Adventurer Mini “SAM”
  • Skywatcher HEQ5 Pro

Polar Alignment der Montierung Star Adventurer Mini

Bei meiner kleinen Tracker-Montierung für Reise und für Wide-Field-Aufnahmen kann ich zum Polar Alignment die verschiedenen Methoden wählen:

  • Eingebautes Polfernrrohr
  • QHY PoleMaster
  • SharpCap Pro mit Guiding-Rohr

Da ich meinen QHY PoleMaster jetzt verkauft habe, muss ich nun auch für den Star Adventurer Mini (SAM) SharpCap zum Polar Alignment verwenden.
Dazu montiere ich mein GuideScope50 auf die Deklinationseinheit des Star Adventurer, wozu ich mir einen Sucherschuh mit flacher Auflage und Innengewinde für 1/4 Zoll Fotoschrauben gekauft habe.
Das Foto zeigt den ganzen Aufbau:

DK_20200117_111631

Das Gewicht beträgt:

  • Guidingrohr mit Kamera:  686g
  • Manfrotto Neiger: 417g
  • DSLR:   562 g

zusammen also 1,665 kg, was bei einer vom Hersteller angegebenen maximalen Traglast von 3 kg noch passen dürfte.

Polar Alignment der Montierung HEQ5 Pro

Auch meine “große” mobile Montierung HEQ5 Pro muss ich immer schön Einnorden.

Dafür gibts die üblichen Methoden:

  • Eingebautes Polfernrohr
  • QHY PoleMaster
  • SharpCap

Beim eingebauten Polfernrohr kann es schnell unbequem werden….

PolarScope_20170223_1 Kopie.jpg

Bild 1: Der Kniefall: So bequem schaut man durch das beleuchtete Polfernrohr

Den QHY PoleMaster habe ich im Januar 2020 verkauft.

In Zukunft will ich dann immer SharpCap einsetzen, wenn es genauer sein soll.

Dazu nehme ich meine Montierung HEQ5 Pro mit meinem Teleskop Orion ED80/600. und montiere mein GuideScope mit Guiding-Kamera ganz normal (wie beim Autoguiding) Huckepack drauf.
Der Aufbau sieht dann so aus:

20200120_114102a

Das Polar Alignment mit ShapCap pro läuft dann ganz bequem per Computer, wie oben beschrieben.

Astrofotografie: Belichtungszeiten

Gehört zu: Astrofotografie
Siehe auch: Stacking, Nachführung, Lichtverschmutzung, SQM Sky Quality Meter
Benötigt: WordPress Latex-Plugin

Wie lange sollten die einzelnen Sub-Exposures belichtet werden?

Wir haben ja gelernt, dass wir sehr lange Belichtungszeiten für die so lichtschwachen Objekte der Astrofotografie brauchen.

Lange Belichtungszeit heisst hier aber nicht notwendig, dass ein einzelnes Foto lange belichtet werden muss, sondern wir können auch viele Einzelaufnahmen (Sub Exposures) machen und die dann aufaddieren (Stacken). Es kommt auf die Summe der Einzelbelichtungen an. Man sagt, die gesammte “Integrationszeit” ist das Wesentliche.

Diese Integrationszeit sollte in der Tat lang sein; d.h. mindestens 1 Stunde, besser 2 Stunden, besser 4 Stunden… Die Gesamtzeit (Integrationszeit) kann man ja Planen für die Bobachtungsnacht. Nehmen wir mal an, wir hätten 2 Stunden (also 120 Minuten) angesetzt. Die Frage wäre dann ja, wie lang man jedes Einzelfoto (Sub Exposure) belichten soll. Also ist 120 x 60 sec gut oder 240 x 30 sec oder 24 x 5 min oder… besser?

Auf der “Practical Astronomy Show” am 9.  März 2019 hat Dr. Robin Glover (SharpCap) dazu einen interessanten Vortrag gehalten. Der Titel des Vortrags war “Deep Sky CMOS Imaging” und er ist als Youtube-Video verfügbar.
Youtube:   https://www.youtube.com/watch?v=3RH93UvP358

Digital Imaging Circuit

Zusammenfassung (Executive Summery)

Da die technischen Zusammenhänge doch sehr komplex und vielschichtig sind, hier die “wichtigsten” Erkenntnisse vorweg (für einen gegebenen Standort mit gegebener Lichtverschmutzung):

  • Die Gesamtbelichtungszeit (Integrationszeit) muss lang sein (z.B. 2 Stunden oder mehr)
  • Die Belichtungszeit eines Einzelfotos muss immer so gewählt werden, dass im Histogramm weder links noch rechts etwas abgeschnitten (“geclippt”) wird
  • Die Einzelbelichtungszeit muss nur so groß sein, dass das Einzelbild “hintergrundlimitiert” ist; d.h.
    • Unter lichtverschmutztem Himmel die Einzelfotos (Subs) kurz belichten (z.B. 30 sec), dann aber ganz viele machen
    • Unter dunklerem Himmel können die Einzelfotos schon länger belichtet werden (z.B. 5 min), wenn das Guiding (oder: Autoguiding) das hergibt
  • Ruhig ISO bzw. Gain hochdrehen, dann wird das Ausleserauschen geringer (bei CMOS Sensoren) – aber der Dynamik-Umfang wird etwas sinken
  • Das thermische Rauschen ist häufig viel kleiner als das Rauschen aus anderen Quellen (z.B. Lichtverschmutzung). Deshalb ist extreme Kühlung manchmal garnicht so wichtig.

Haupteinflußfaktor ist die Lichtverschmutzung:

  • Das thermische Rauschen durch Kühlung reduzieren auf 10% der Lichtverschmutzung
  • Das Ausleserauschen wird irrelevant, wenn wir die Subs so lange belichten, das sie quasi “hintergrundlimitiert” werden; soll heissen dass im gestackten Bild das Ausleserauschen maximal 5% der Lichtverschmutzung ausmacht.
  • Das Dunkelstrom-Rauschen wird reduziert durch das Stacken vieler Dark-Frames zu einem Masterdark
  • Das  “Shot Noise” (Photonen-Rauschen) wird reduziert durch das Stacken vieler Light-Frames

Hintergrundlimitiert ???

Was meint man mit “hintergrundlimitiert” ?XYZ???

Mit “Hintergrund” meint man die HImmelshelligkeit (Lichtverschmutzung,  Airglow etc.). Unter “limitiert” durch den HIntergrund meint man, dass die anderen Rausch-Signale (Auslese-Rauschen und thermisches Rauschen) deutlich kleiner sind als das Signal vom Himmelshintergrund und damit vernachlässigt werden können.

Wenn man sich nach der nötigen Belichtungszeit für die Subs fragt, reicht es, wenn man gerade so lange belichtet, dass die Subs hintergrundlimitiert sind. Dann wird durch noch längere Belichtungszeiten das Signal-Rausch-Verhhältnis im Stack nicht mehr verbessert.

Signalstärke

Auf einem Astrofoto kommen verschiedene Signale zusammen:

  • Ein Signal vom eigentlichen Beobachtungsobjekt (Nutz-Signal)
  • Ein zusätzliches Signal vom Himmelshintergrund (Light Pollution)
  • Ein zusätzliches Signal durch den Dunkelstrom (abhängig von der Sensor-Temperatur)

Die Signalstärke ist eigentlich:  Anzahl Photonen pro Pixel pro Sekunde.
Die Photonen schlagen dann Elektronen aus dem Sensormaterial heraus und die Elektronen werden dann gemessen und in eine Zahl umgewandelt (ADU).
Die Quantum Efficiency (QE) ist dabei der Prozentsatz von Photonen, der ein Elektron auslöst.
Messen als Signalstärke im Sensor kann man dann:  Anzahl Elektronen pro Pixel pro Sekunde.

Rausch-Signale

Jedes Signal ist mit einem Rauschen behaftet.

Es gibt mehrere Quellen für Rausch-Signale die sich alle addieren.

  • Kamera-extern hat man (sog. Shot Noise, Photonenrauschen, Schrotrauschen):
    • Rauschen in den Light-Frames im eigentlichen, externen Signal vom Beobachtungsobjekt
    • Rauschen in den Light-Frames im Signal des Himmelshintergrunds (Lichtverschmutzung etc.)
  • Kamera-intern hat man (sog. Kamera-Rauschen):
    • Rauschen in den Light-Frames durch Wärme im Sensor (Thermisches Rauschen – nur Rauschen, kein Signal)
    • Rauschen in den Light Frames durch den Auslese-Vorgang (sog. Read Noise – nur Rauschen, kein Signal)
    • Rauschen in den Dark-Frames  (Rauschen im Dunkelstrom-Signal)
    • Rauschen in den Flat Frames

Rauschen bringt feine Details im Bild zum Verschwinden. Deshalb wollen wir das Rauschen insgesamt reduzieren.

Das Rausch-Signal ist meistens zufällig (stochastisch) und kann also dadurch bekämpft werden, dass man viele Aufnahmen macht und die dann mittelt (siehe: Stacken).

Addieren von Signalen über Stacks

Beim Stacken von Einzelaufnahmen (Sub Exposures) verhalten sich Signal und Rauschen unterschiedlich.

Konstante Signale, bei denen sich die Signalstärke von Sub zu Sub eigentlich nicht ändert, addieren sich einfach.

\((1) \hspace{1 em} S_{1+2} =  S_1 + S_2 \)

Rausch-Signale, die sich von Sub zu Sub zufällig (stochastisch) ändern, addieren sich mit einer “Quadratwurzel” ….    R 1 + R 2   = Wurzel aus (R 1 Quadrat + R 2 Quadrat)

\((2) \hspace{1 em} R_{1+2} =  \sqrt{ R_1^2 + R_2^2} \)

Das bedeutet z.B. dass bei der Addition stark unterschiedlicher Rauschsignale man das schächere “praktisch” vernachlässigen kenn.

Signal-Rausch-Verhältnis

MIt zunehmender Anzahl Subs steigt das Nutzsignal linear und das Rauschen “nur” mit der Quatradwurzel. Damit verbessert sich das Signal-Rausch-Verhältnis.

Näheres dazu weiter unten.

Dunkelstrom-Rauschen

Z.B. macht der sog. Dunkelstrom ein Dunkelstrom-Signal und ein Dunkelstrom-Rauschen.

Das Dunkelstrom-Signal kann man vom vom Nutzsignal (Light Frame) abziehen; das Dunkelstrom-Rauschen bleibt aber erhalten.

Bekämpfung: Das Dunkelstrom-Rauschen kann man nur bekämpfen indem man viele Dark Frames aufnimmt und dann das Dunkelstrom-Rauschen herausmittelt, weil das Rauschen stochastisch ist.

Auslese-Rauschen

Durch den Vorgang des Auslesen der Pixel-Informationen aus dem Sensor ensteht auch ein zusätzliches Auslese-Rauschen.

Wenn man statt ein paar wenigen Aufnahmen mit längerer Belichtung alternativ viele Aufnahmen mit kürzerer Belichtung macht, hat man auf jeder Einzelaufnahme das Ausleserauschen und das würde also bei “vielen kurzen Belichtungen” viel stärker ins Gewicht fallen. Allerdings ist das Auslese-Rauschen bei modernen CMOS-Kameras sehr gering, wenn man den Gain etwas hoch stellt, was die Dynamik evtl. herabsetzt.

Gain bzw. ISO

Das Aufdrehen des “Gain” bei CMOS-Sensoren ist einfach eine Verstärkung aller Bildsignale.

Das Ausleserauschen wird durch den Gain allerdings nicht verstärkt, da diese Verstärkung erst nach der Belichtung des Sensors stattfindet.

Zum Beispiel zeigt der Hersteller der ASI294 folgendes Diagramm:

RobinGlover-02

Bekämpfung: Das Auslese-Rauschen können wir bekämpfen einserseits durch Aufdrehen des Gain, andererseits durch Verlängern der Belichtungszeit der Subs soweit bis “Hintergrundlimitierung” (s. Lichtverschmutzung unten) erreicht ist.

Thermisches Rauschen

Im Sensor entstehen Elektronen nicht nur durch die ankommenden Photonen, sondern auch durch Wärme.

Thermisches Rauschen verdoppelt sich ungefähr bei Temperaturerhöhung um 6,5 Grad Celsius.

Je nach Sensor ergeben sich unterschiedliche Kurven für das thermische Rauschen (Copyright Dr. Robin Glover):

RobinGlover-01

Typisch für moderne CMOS-Sensoren wie Sony 294C sind 0,2 Elektronen pro Sekunde pro Pixel bei einer Sensor-Temperatur von 25 Grad Celsius.

Wenn man diese Kurven sieht, erkennt man, dass ein Herunterkühlen von 25 Grad auf 15 Grad völlig ausreicht, um das thermische Rauschen bedeutungslos zu machen.

Bekämpfung: Das thermische Rauschen bekämpfen wir durch Kühlung des Sensors.  Robin Glover empfiehlt, das thermische Rauschen auf 10% der Lichtverschmutzung zu limitieren. Bei besonders geringer Lichtverschmutzung wäre also eine entsprechende leichte Kühlung notwendig.

Unser “Standard Observer”

Da die optimale Belichtungszeit für unsere Sub Exposures von vielen Gegebenheiten abhängt, definieren wir zunächst einmal einen “Standard-Beobachter”, für den wir unsere Untersuchungen machen wollen.

Der Standard-Beobacher sei definiert durch:

  • Sensor: CMOS, monochrom, 50% QE, Pixelgröße 3,75µ, Temperatur 25 Grad Celsius
  • Öffnungsverhältnis: f/6
  • Lichtverschmutzung:  Bortle 5
  • Gesamtbelichtungszeit: 60 MInuten

Lichtverschmutzung

Die Signalstärke aus Lichtverschmutzung gemessen in Anzahl Elektronen pro Pixel pro Sekunde (nach Dr. Robin Glover) ist:

Bortle 9
Inner City
Bortle 8 City Sky Bortle 7
Urban
Bortle 5
Suburban
Bortle 3
Rural
Bortle 1
Excellent Dark
f/4 175 28 22 5,3 1,2 0,80
f/5 112 18 14 3,7 0,81 0,51
f/6 78 12,3 9,36 2,6 0,56 0,36
f/7 57 9,1 7,1 1,9 0,41 0,26
f/10 28 4,4 3,4 0,85 0,19 0,13

Dies sind Daten für einen Mono-Sensor mit 50% Quantum Efficiency und 3,75μ Pixelgröße (also für den Standard-Observer).
Für einen Colour-Sensor sind diese Zahlen durch 3 zu dividieren.
Link: https://tools.sharpcap.co.uk

Unser Standard-Observer hat demnach eine Lichtverschmutzung von:  2,6 Elektronen pro Pixel pro Sekunde

Beispiele für Lichtverschmutzung

An verschiedenen Orten haben wir ganz unterschiedliche Lichtverschmutzung:

  • Hamburg-Eimsbüttel: SQM 17,5 –> Bortle 7
  • Handeloh Aussensternwarte:  SQM 21,0 –> Bortle 4
  • Kiripotib, Namibia: SQM 21,9 –> Bortle 1
  • Elmshorn: xyz
Standort SQM Teleskop Imager Light Pollution Rate Thermal Noise Limit Erforderliche Sensor Temperatur
Eimsbüttel 17,5 ED80/510 Canon EOS 600D 3,00 0,30
Handeloh 21,0 ED80/510 Canon EOS 600D 0,30 0,03
Elmshorn
Kiripotib 21,9 APM APO 107/700 * 0,75 Canon EOS 600D 0,22 0,02

Lichtverschmutzung mit der DSLR Canon EOS 600D in Eimsbüttel

Bei einer Lichtverschmutzung von Bortle 7 hätte ich bei meiner Canon EOS 600D (Colour) an dem ED80/510 dann eine Lichtverschmutzung von 2,96 Electrons per Pixel per Second.
Robin Glover empfiehlt, das thermische Rauschen herunterzudrücken auf 10% der Lichtverschmutzung, also auf: 0,296 e

Lichtverschmutzung mit der Altair Hypercam 294 Pro Colour

Bei einer Lichtverschmutzung von Bortle 7 hätte ich mit dieser Cam an dem ED80/510 dann eine Lichtverschmutzung von 6,38 Electrons per Pixel per Second.
Robin Glover empfiehlt, das thermische Rauschen herunterzudrücken auf 10% der Lichtverschmutzung, also auf 0,638 e

Lichtverschmutzung mit der Altair GP-CAM

Für meine GP-CAM haben wir:

  • Pixelgröße: 3,75μ
  • Sensor: CMOS mono
  • Quantum Efficiency:   ca. 60%
  • Sensor: Mono

Bei einer Lichtverschmutzung von Bortle 7 hätte ich mit dieser Cam an dem ED80/510 dann eine Lichtverschmutzung von 9,88 Electrons per Pixel per Second.
Robin Glover empfiehlt, das thermische Rauschen herunterzudrücken auf 10% der Lichtverschmutzung, also auf 0,988 e

Lichtverschmutzung in Aussensternwarte Handeloh

Dort haben wir:

  • Lichtverschmutzung: SQM 21,0 –> Bortle 4
  • Sensor: CMOS colour
  • Pixelgröße: 4,3μ
  • Quantum Efficiency: 41%
  • Öffnungsverhältnis: f/6.4

In Handeloh hätte ich mit meiner Canon EOS 600D an dem ED80/510 dann eine Lichtverschmutzung von 0,30 Electrons per Pixel per Second.

Lichtverschmutzung in Kiripotib, Namibia

Dort haben wir:

  • Lichtverschmutzung: SQM 21,9 –> Bortle 1
  • Sensor: CMOS colour
  • Pixelgröße: 4,3μ
  • Quantum Efficiency: 41%
  • Öffnungsverhältnis: f/4,9   (APM APO 107/700 mit Reducer 0,75)

Auf Kiripotib hätte ich mit meiner Canon EOS 600D an einem APM APO 107/700 mit Reducer dann eine Lichtverschmutzung von 0,22 Electrons per Pixel per Second.

Das Shot-Noise

Auch im eigentlichen Nutz-Signal haben wir ja ein Rauschen, das sog. “Shot Noise”  (im Deutschen auch “Schrotrauschen” genannt). Die Ankommensrate der Photonen kann man inetwa mit Regentropfen vergleichen.

Wenn wir länger belichten, kommen mehr Photonen auf den Sensor, wenn wir kürzer belichten, kommen weniger Photonen auf den Sensor.

Bei einem schwächeren Signal ist das Shot Noise im Verhältnis größer   –   Poisson-Verteilung….

Umgekehrt: je länger wir belichten, desto geringer wird das Shot Noise im Verrhältnis. Shot Noise = k mal Wurzel aus Signalstärke

\((3) \hspace{1 em}  Shot Noise = k \cdot \sqrt{Signalstärke}  \)

Absolut gesehen, steigt das Shot Noise mit der Signalstärke, also der Belichtungszeit.
Aber relativ zum Signal wird das Shot Noise (prozentual) immer geringer:   Shot Noise / Signalstärke = k / Wurzel aus Signalstärke

\((4) \hspace{1 em}  \Large  \frac{Shot Noise}{Signalstärke} = \Large \frac{k}{\sqrt{Signalstärke}}  \)

Stacking and Noise

Wenn wir n Frames stacken verhält sich das Read Noise linear: ….

Wenn wir n Frames stacken verhält sich das Stack Noise wie folgt:

Stack Noise = Read Noise + Shot Noise   – wobei das Shot Noise praktisch gleich der Light Pullution ist

nach Robin Glover:

S1 S2 S3 S4
Frames stacked Increase in Image Signal Increase in Image Noise Increase in S/N Ratio
1 1 x 1 x 1 x
2 2 x 1,41 x 1,41 x
5 5 x 2,24 x 2,24 x
10 10 x 3,16 x 3,16 x
20 20 x 4,47 x 4,47 x
50 50 x 7,07 x 7,07 x
100 100 x 10 x 10 x

S2 = S1

\( \Large S_2 = S_1    \)

S3 = Wurzel aus S1

\( \Large S_3 = \sqrt{S_1}  \)

S4 = S2  /  S3  =    S1 / Wurzel aus S1   =   Wurzel aus S1

\( \Large S_4 = \Large\Large\frac{S_2}{S_3}  = \frac{S_1}{\sqrt{S_1}}  = \sqrt{S_1} \)

Die Schlußfolgerung

Wenn wir einfach einen gegebenen Ort, ein gegebenes Astro-Equippment und eine gegebene Zeit haben, was soll wir machen?

Dafür gibt es eine Formel. Wobei wir folgende Symbole benutzen:

R  = Read Noise    (typisch bei CMOS-Sensoren: 0,2 e pro Sekunde pro Pixel)

T = Total Imaging Time

S = Sub Exposure Time

n = Number of Subs      \(  n = \frac{T}{S}  \)

P = Light Pollution Rate   in Electrons per Sekunde per Pixel     (typisch: 2,6 für unseren Standard-Beobachter mit Bortle=5)

Single Frame

Wenn wir als “Shot Noise” einfach mal das Signal der Lichtverschmutzung nehmen (die anderen Rausch-Anteile vernachlässigen wir, da wir ja “hintergrundlimitiert” fotografieren).
dann ergibt sich:

\( SingleFrameShotNoise = \sqrt{S \cdot P} \)

und das ReadNoise in einem Sub ist:

\( SingleFrameReadNoise =  R \)

Damit ist das Gesamt-Rauschen in einem Frame:

\( SingleFrameTotalNoise = \sqrt{SingleFrameReadNoise^2 + SingleFrameShotNoise^2}    \)

Also:

\( SingleFrameTotalNoise = \sqrt{R^2 + S \cdot P}    \)

Total Stack

Dann ist das gesamte ReadNoise im gestackten BIld:

\( TotalStackReadNoise = \sqrt{n \cdot R^2} \)

und wenn wir als “Shot Noise” einfach mal das Signal der Lichtverschmutzung nehmen (die anderen Rausch-Anteile vernachlässigen wir, da wir ja “hintergrundlimitiert” fotografieren).
Dann ist das gesamte ShotNoise im gestackten Bild:

\( TotalStackShotNoise = \sqrt{T \cdot P} \)

Dann haben wir als “Stack Noise”:

\( TotalStackNoise = \sqrt{TotalStackReadNoise^2 + TotalStackShotNoise^2}    \)

also:

\(  TotalStackNoise = \sqrt{n \cdot R^2  + T \cdot P} \)

Wenn wir als “Shot Noise” einfach mal den Betrag der Lichtverschmutzung nehmen (die anderen Rausch-Anteile vernachlässigen wir, da wir ja “hintergrundlimitiert” fotografieren).

Grenzfall: “Perfekte Kamera” d.h.R=0

\( TotalStackNoise = \sqrt{T \cdot P}  \)

Grenzfall “Eine Aufnahme, ganz lang”  n=1

\( TotalStackNoise = \sqrt{R^2  + T \cdot P}  \)

Dieses stellt auch das Optimum (Minimum) für Aufnahmen mit der begrenzten Gesamtbelichtungszeit dar; also die 100%, die unten gebraucht werden.

Ergebnisse: Total Noise in the Stack Bortle=5

Diese Formel als Tabelle dargestellt ergibt:

Sub Exposure Length Total Stack Noise CMOS Total Stack   Noise
CCD
Total Stack Noise CMOS Total Stack Noise      CCD
[s] e/pixel/s e/pixel/s [%] [%]
1 178,5 431,0 184,4 444,3
2 143,6 312,3 148,3 322,0
5 117,7 211,3 121,6 217,8
10 107,7 164,3 111,3 169,4
23 101,6 130,0 105,0 134,0
30 100,5 123,5 103,9 127,3
60 98,7 110,9 101,9 114,3
100 97,9 105,5 101,2 108,7
174 97,4 101,9 100,7 105,0
1000 96,9 97,7 100,1 100,7
3600 96,8 97,0 100,0 100,0

und als grafische Darstellung:

RobinGlover-04

 

Wir sehen, dass sich das Total Stack Noise bei gegebener Gesamtbelichtungszeit (hier: 3600 Sekunden) jeweils einem Optimum (Minimum) annähert (im Beispiel: 96,8 bei CMOS und 97,0 bei CCD).

Die Kurven flachen sehr schnell ab, also können wir durchaus mit Sub Exposures arbeiten, die wesentlich kürzer sind und dabei das optimale (minimale) Rauschen nur ganz knapp erhöhen.

Wenn wir etwa ein 5% höheres Rauschen als das Minimum-Rauschen akzeptieren, landen wir bei Sub Exposures von: 30 Sekunden bei CMOS und 60 Sekunden bei CCD.

Im Beispiel sind das:

  • Standard-Beobachter CMOS 23 sec
  • Standard-Beobachter CCD 174 sec

Optimale Sub Exposures

Zum Schluss bleibt die Frage, wieviel zusätzliches Rauschen im Bild man akzeptieren will.  Wenn wir das akzeptierte zusätzliche Rauschen in Prozent des Minimum-Rauschens mit “E” bezeichnen, erhalten wir:

\( \Large S = C \cdot \frac{R^2}{P}   \)

wobei:

\( \Large C = \frac{1}{(\frac{100 + E}{100})^2 – 1}  \)

Bei E=5% ist C=10. Damit erhalten wir die Formel:

\(  S = 10 \cdot \frac{R^2}{P}   \)

 

Ergebnisse: Total Noise in the Stack Bortle=4 (Handeloh)

 

 

 

Ergebnisse: Total Noise in the Stack Bortle=1 (Namibia)

 

Astrofotografie Software: SharpCap

Gehört zu: Astrofotografie Software, Plate Solving
Siehe auch: Polar Alignment mit SharpCap Pro, Geräteliste, Belichtungszeiten

Was ist SharpCap?

Software für die Astrofotografie kann unterschiedliche Kameratypen unterstützen: DSLR, Astro-Kamera etc.
Der Entwickler von SharpCap ist Dr. Robin Glover.

Die primäre Funktion von SharpCap ist sicherlich das Fotografieren von astronomischen Objekten. SharpCap hat sich aber stets weiter entwickelt und unterstützt nun (im Jahre 2020) die Astrofotografie in großem Umfang:

Astrofotografie mit SharpCap

Um meine Astro-Kameras ZWO ASI294MC Pro und Altair GPCAM zu betreiben, benötige ich eine Software auf meinem Windows-Computer, die mit der Kamera alle Funktionen (s.u.) durchführen kann.

  • Betrachtung des Bildes (“Life View”)
  • Einstellen von Belichtungszeit, Gain/ISO etc.
  • Aufnehmen von Einzelfotos (“image acquisition”, “capture”, “still images”)
  • Aufnehmen von Videos
  • Programmieren von Foto-Serien (“sequencing”)

Zu diesem Zweck gibt es verschiedene Windows-Software:

  • Altair Capture – mitgeliefert vom Hersteller meiner Kamera Altair GP-CAM.
  • SharpCap – allgemein bekannte Software, die auch vom Hersteller für meine Altair GPCAM empfohlen wird
  • FireCapture – unterstützt ab der Version 2.5 auch meine Altair GPCAM
  • APT Astronomy Photography Tool – das wird von einer großen Community benutzt
  • N.I.N.A. ist neu in 2019 dazugekommen…

Download und Installation von SharpCap

SharpCap ist eine kostenlose Software und kann bezogen werden von: http://www.sharpcap.co.uk/sharpcap/downloads

SharpCap benötigt das Microsoft .NET Framework. Falls das noch nicht auf dem Windows-Computer vorhanden ist, muss man es vorher installieren.

Ab der Version 2.9 wird Polar Alignment unterstützt.

Ab der Version 3.2 wird als Kamera “Folder Watch” unterstützt.

Die Pro-Version kostet Euro 12,– pro Jahr

Benutzung von SharpCap

Welche Kameras werden von SharpCap unterstützt?

  • Meine Altair GPCAM z.B. am GuideScope50 (f=180 mm, FoV 1,54° x 1,16° )
  • Meine QHY PoleMaster (Mit dem propritären Treiber von QHY) (f=25mm, FoV 11,0° x 8,3°)
  • Meine ASI294MC Pro
  • Meine Microsoft LiveCam HD 6000
  • Folder Watch (seit SharpCap Pro 3.2)

Besondere Funktionen von SharpCap

  • Polar Alignment
  • Plate Solving
  • Sensor Analysis & Smart Histogram
  • Life Stacking

Image Acquisition with SharpCap

  • Verbindung zur USB-Kamera herstellen: Connect
  • Belichtungszeit einstellen
  • Fokussierung: Drehen an der Kamera, Güte der Fokussierung per Software messen (Bahtinov)
  • Probeaufnahme
  • Einzelbilder: Format .fits oder .jpeg
  • Einzelbilder: Zusammensetzung der Dateinamen
  • Video-Aufnahmen
  • Live Stacking

Plate Solving mit SharpCap

Wie genau PlateSolving bei SharpCap funktioniert ist auf der WebSite https://www.sharpcap.co.uk/sharpcap/features/plate-solving vom Hersteller beschrieben.

Zur Zeit “unterstützt” SharpCap folgende PlateSolving Software:

Mit “unterstützt” ist gemeint, dass einer dieser drei PlateSolver zwingende Voraussetzung für das PlateSolving bei SharpCap ist.

Zum PlateSolving benutzt SharpCap immer eine lokale Version von astronomy.net (also AnSvr, sei es über All Sky Plate Solver oder anders), Dort muss dann auch Brennweite etc. eingestellt werden und die Index-Files für das FoV geuntergeladen werden. Sonst kann SharpCap auch nicht PlateSolven.

Einstellungen für Platesolving: mit GuideScope50 und GPCAM

  • Brennweite f=180 mm
  • Pixel size: 3,75 μ
  • Chip Array: 1280 x 960 Pixel

Einstellungen für Platesolving mit QHY Polemaster

  • Brennweite f=25 mm
  • Pixel size: 3,75 μ
  • Chip Array: 1280 x 960

Lustigerweise funktioniert das PlateSolving bei SharpCap nur, wenn auch eine ASCOM-Montierung verbunden ist, denn nach erfolgreichem PlateSolving will SharpCap zwangsweise auch sofort ein SYNC mit der Montierung durchführen und am liebsten noch ein “re-center target”.

Einstellungen in SharpCap für Platesolving:

SharpCap_Platesolving_2019-06-28.jpg

Einstellungen in SharpCap für Platesolving

PlateSolving funktioniert bei SharpCap ja nur in Verbindung mit einer Montierung / einem Teleskop (siehe oben: After Solving from Telescop Controls…).
Deshalb müssen wir unter dem Reiter “Hardware” immer auch eine Montierung auswählen – wenn wir gerade keine dran haben, also: “EQMOD ASCOM Simulator”.

SharpCap_Platesolving_02.jpg

SharpCap Settings Hadware Mount ASCOM

Starten von PlateSolving in SharpCap

In SharpCap gibt es zwei Möglichkeiten, PlateSolving zu starten:

  • Über die Menü-Leiste am oberen Fensterrand
  • Über das Panel “Mount Controls” in der rechten Spalte

Im Panel “Scope Controls” befindet sich rechts von der Deklinationsangabe eine Schaltfläche “Plate Solve and Sync” (Symbol: Zielscheibe mit dickem Mittelkreis).

SharpCap_PlateSolving_03.jpg

SharpCap Scope Controls

Polar Alignment with SharpCap

Polar Alignment is a new feature in SharpCap 2.9. The idea was inspired by the PhotoPolarAlign application created by Themos Tsikas. Themos has been kind enough to help with testing and suggestions during the development of the polar alignment feature in SharpCap.

Link: http://www.sharpcap.co.uk/sharpcap/polar-alignment

Polar Alignment mit SharpCap konnte ich im Dezember 2019 selbst ausprobieren und habe Einzelheiten dazu als separaten Beitrag gepostet.

Sensor Analysis & Smart Histogram

Link: https://www.youtube.com/watch?v=AidhxeAJJ3s

SharpCap kann dabei helfen, die besten Einstellungen (Belichtungszeit, Gain,…) für Einzelaufnahmen (Subexposures) zu ermitteln.

Diese Funktion heist “Smart Histogram“.

“Smart Histogram” kann nur benutzt werden, wenn vorher mit SharpCap eine sog. “Sensor Analysis” durgeführt wurde.

Die Sensor-Analysis kann man am Schreibtisch durchführen und läuft wie folgt ab:

1. “Flat”: Measuring e/ADU

Kamera-Objektiv auf gleichmäßig helles Light Panel positionieren z.B. Tablet-Display aber nicht zu hell (ggf. einen Bereich markieren)

Highest bit depth: e.g. Colour Space RAW16

Dabei “skip binning”

2. “Status Dark”: (der Objektivdeckel muss wie bei den “Darks” aufgesetzt werden)

2.1 Measuring Black Levels

2.2 Measuring Dark read noise

3. “Gain”: Measuring relative gains. (Kamera-Objektiv auf eine nicht zu helle Umgebung positionieren)

Dabei werden Aufnahmen mit bis 500 ansteigendem Gain gemacht; die Belichtungszeit geht dabei suksessive zurück (bei mir bis 0,29 ms). Daher darf das Objekt nicht zu hell sein.

Dies sind die Ergebnisse der Sensor-Analysis meiner ZWO ASI294MC Pro:

Gain Value e/ADU Read Noise (e) Full Well (e) Relative Gain Rel. Gain (db) Dynamic Range (Stops)
0 3,87 7,83 63410,70 1,00 0,00 12,98
50 2,88 9,22 47187,65 1,34 2,57 12,32
59 2,59 9,03 42413,90 1,50 3,49 12,20
61 2,55 9,06 41822,68 1,52 3,62 12,17
100 1,64 8,40 26830,66 2,36 7,47 11,64
119 1,33 8,20 21776,67 2,91 9,28 11,38
121 2,74 5,98 44930,03 1,41 2,99 12,88
150 1,96 5,58 32069,81 1,98 5,92 12,49
200 1,12 5,19 18378,45 3,45 10,76 11,79
250 0,63 4,83 10392,46 6,10 15,71 11,07
300 0,36 4,56 5851,92 10,84 20,70 10,33
350 0,20 4,43 3333,81 19,02 25,58 9,56
400 0,12 4,57 1924,82 32,94 30,36 8,72
450 0,07 4,49 1104,75 57,40 35,18 7,94
500 0,04 4,75 654,08 96,95 39,73 7,11

Die erste Spalte “Gain Value” ist die Gain-Zahl, die an der Kamera eingestellt ist. Die anderen Spalten sind Messwerte, die SharpCap ermittelt hat.

An diesen Messwerten sieht man z.B. den sog. Unity Gain bei einem Gain zwischen 200 und 250 – interpoliert also bei einem Gain von 212.

Der Gain ist ist die Signalverstärkung in einer Digitalen Kamera, also aus wieviel hereinkommenden Elektronen wird eine ADU-Einheiten gemacht.
Unity Gain” ist erreicht, wenn ein Elektron auch genau eine ADU-Einheit erzeugt.

Smart Histogram

Wir öffnen “Menü-Leiste -> Tools -> Histogram”. Beim Histogramm klicken wir links oben auf das Symbol “Gehirn.”

Grundvoraussetzung für diese Funktion ist, eine zuvor durchgeführte “Sensor Analysis”.

Nun sind wir in der Funktion “Smart Histogram”. Das erste, was wir brauchen ist eine Messung der Himmelshelligkeit (in Elektronen pro Pixel pro Sekunde). Dazu richten wir das Teleskop auf eine ganz dunkle Stelle im Himmel und starten die Messung durch Klicken auf die Schaltfläche “Measure“.

SharpCap_Histogram

In diesem “Smart Histogram” können wir den Gain hin und her schieben, um zu sehen, wo man in der “Sky Brightness” landet…