Astrofotografie: Welche Probleme kann ich mit Stacking lösen?

Gehört zu: Bildbearbeitung, Stacking
Siehe auch: Belichtungszeit, Mein Workflow, Flat Frames
Benutzt: Fotos aus Wikimedia

Was ist Stacking, was ist Calibration?

Für meine Astrofotografien will ich sehr häufig lange Belichtungszeiten haben; z.B. 2 oder auch 4 Stunden. Warum lange Belichtungszeiten häufig erforderlich sind, ist eine andere Geschichte. Siehe dazu: Belichtungszeiten.

Stacking bedeutet, nun dass man statt eines Fotos mit dieser langen Belichtungszeit (beispielsweise 1 Foto mit 240 Minuten), alternativ mehrere Fotos mit kürzerer Belichtungszeit macht, die in der Summe wieder der langen Belichtungszeit entsprechen (beispielsweise 120 Fotos mit 2 Minuten). Diese vielen “Einzelfotos” (sog. Subs oder Sub-Frames) werden dann per Software wieder zu einem einzigen Foto, dem Summenbild, zusammen “gestapelt” (stacking).

Beim Stacken richtet die Stacking-Software die Einzelbilder so aus, dass alles exakt übereinander passt – das wird von den Spezialisten “Registrieren” genannt. Stacking-Software unterstützt verschiedene Stacking-Methoden:

  • Mittelwert
  • Summe
  • Median
  • Sigma-Clipping (Outlier Rejection)
  • Maximum
  • etc.

“Mittelwert” und “Summe” führen zu identischen Ergebnissen, wenn die Helligkeitswerte genügend genau gerechnet werden (z.B. mit 32 Bit).

Was ist der Vorteil dieses “Stackings” bzw. welche Probleme, die bei langen Belichtungszeiten auftreten können, vermeidet man mit Stacking?

Software zum “Stacking” ist in aller Regel verbunden mit der sog. Kalibration (Calibration); d.h. bevor man “stackt” werden noch elektronische Korrekturen an den Bildern vorgenommen, wie z.B. Subtraktion bzw. Division mit Dark Frames, Flat Frames, Offset-Frames (s.u.).

Welche Probleme hat der Astrofotograf?

Bei der Astrofotografie gibt es eine Reihe von Problemen, die man durch verschiedene Techniken beheben bzw. reduzieren möchte.

  1. Stör-Objekte (z.B. Flugzeuge) im Bild
  2. Hot Pixel  -> Dithern, Dark-Abzug
  3. Vignettierung, Donuts, Amp Glow -> Flats
  4. Himmelshintergrund zu hell  (Lichtverschmutzung)
  5. Schlechte Nachführung
  6. Beobachtungsobjekt zu dunkel auf dem Foto
  7. Rauschen, Farbrauschen (schlechtes SNR) -> Kühlung, lange Gesamtbelichtungszeit (dann Stacken)
  8. Geringer Kontrast -> Stretchen
  9. Geringe Dynamik -> Histogramm analysieren, gute Belichtungszeit wählen dann Einzelbilder aufnehmen und Stacken
  10. Helle Bildteile “ausgebrannt”
  11. Luftunruhe (“Seeing”)

(1) Problem: Stör-Objekte z.B. Flugzeuge, Erdsatelliten etc.

Wenn wir irgendwelche “Störungen” im Bild haben z.B. Flugzeuge, Erdsatelliten, Verwacklung, Fremdlicht etc., ist das ganze (langbelichtete) Bild unbrauchbar.

Lösung: Viele Einzelbilder mit kürzerer Belichtungszeit, schlechte Einzelbilder aussortieren, gute Einzelbilder Stacken

(2) Problem: Hot Pixel

Fehlerhafte Pixel im Sensor unserer Kamera verfälschen unser Astrofoto.

Lösung A: Dunkelbild (“Dark”) machen und dieses vom Astrofoto subtrahieren
Lösung B: Dithering und Sigma Clipping (outlier rejection)

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(3) Problem: Vignettierung

Über die gesamte Fläche unseres Fotos fällt die Helligkeit zu den Rändern etwas ab, möglicherweise sind auch noch Staubteilchen auf dem Sensor, die dunkle Flecken (sog. Dognuts) im Bild erzeugen.

Lösung: Flat Frame machen und das Astrofoto durch dieses dividieren

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(4) Problem: Donuts

Möglicherweise sind dunkle runde Flecken (sog. Donuts) im Bild durch Staubteilchen auf dem Sensor…

Lösung A: Flat Frame machen und das Astrofoto durch dieses dividieren
Lösung B: Staubputzen…

Dies alleine hat mit “Stacking” eigentlich nichts zu tun. Aber…

(5) Problem: Amp Glow

Am Bildrand strahlenförmige Aufhellungen. Die Ursache sind interne Kamerateile in der Nähe des Sensors, die zu warm werden…

Lösung : Dark Frames machen und das Master Dark von den Light Frames abziehen

Die Software Astro Pixel Processor (APP) versucht auch  “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren.

(6) Problem: Himmelshintergrund zu hell

Je nach Beobachtungsort haben wir am Himmel mehr oder weniger Himmelshelligkeit, z.B. durch “Lichtverschmutzung“. Je länger ich belichte, desto heller wird der Himmelhintergrund auf meinem Bild.

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Wir können also ausprobieren wie lange wir maximal belichten können, ohne dass die Himmelhelligkeit das Bild überstrahlt – dazu ist ein Blick auf das Histogramm hilfreich. So ermitteln wir die Begrenzung der Belichtungszeit durch die Helligkeit des Himmelshintergrunds. Wir machen dann soviele Einzelbilder, bis das Summenbild die gewünschte “effektive” Belichtungszeit hat.

Bei bestimmten Objekten kann auch ein Tri-Narrowband-Filter helfen. Beispiel: Mein Foto vom Pacman-Nebel aus Hamburg-City.

(7) Problem: Schlechte Nachführung

Ohne irgend eine Nachführung kann man ja nur sehr kurz belichten, bevor die Sterne zu Strichen werden, was man meistens ja nicht will.

Wenn man auf irgendeine Art und Weise nachführt (“tracking”, “guiding”), ist die Frage nach der Qualität dieser Nachführung; schlussendlich stellt sich die Frage: “Wie lange kann ich maximal belichten und die Sterne bleiben noch punktförmig?”

Lösung: Mehrere Einzelbilder mit kürzerer Belichtungszeit, Einzelbilder Stacken zu einem Summenbild.

Die Qualität der Nachführung begrenzt also die Belichtungszeit nach oben.
Beispielsweise kann ich mit meiner Astro-Gerätschaft max. 5 Minuten belichten. Wenn ich eine Gesamtbelichtungszeit von 240 Minuten machen möchte, mache ich also 48 Fotos mit je 5 Minuten Belichtungszeit.

(8) Problem: Beobachtungsobjekte zu dunkel (kaum sichtbar) auf dem Foto

Auf dem Foto ist unser Beobachtungsobjekt nicht zu sehen oder nur sehr schwach.

Photonen aus unserem Gesichtsfeld fallen auf die Pixel unseres Sensors und werden dort in Elektronen gewandelt. Diese elektrische Ladung wird dann aus den Pixeln ausgelesen evtl. verstärkt (ISO, Gain) und durch den ADC (Analog Digital Converter) in ein digitales Signal umgesetzt. Diese digitalen Helligkeitswerte pro Pixel machen dann unser Foto aus.

Bei einer längeren Belichtungszeit fallen mehr Photonen auf ein Pixel, es werden mehr Elektronen gesammelt und es gibt damit höhere digitale Helligkeitswerte im Foto.

Lösung: längere Belichtungszeit, ggf mit Stacking

(9) Problem: Rauschen (schlechtes SNR)

Wir haben auf unserem Foto ein “Hintergrundrauschen” in dem feine Einzelheiten unseres Beobachtungsobjekts (“das Nutz-Signal”) untergehen.
Das Rauschen kommt aus mehreren Quellen:

  • Photonen-Rauschen (Schrotrauschen)
  • Sensor-Rauschen (Dunkelstrom, Thermisches Rauschen)
  • Ausleserauschen

Photonen-Rauschen: Auch Schrotrauschen oder Schottky-Rauschen genannt. Unser Nutzsignal vom Himmelsobjekt ist mit einem Rauschen verbunden. Die Photonen vom Himmelsobjekt kommen nicht gleichmäßig auf dem Pixel an (Anzahl Photonen pro Zeiteinheit), so ähnlich wie Regentropfen pro Quadratmeter und Sekunde. Diese Photonen-Rate ist “poisson-verteilt“, denn die mittlere Rate der Ereignisse (Photonen Ankünfte) ist konstant..

Abbildung 1: Poisson-Verteilung (Wikimedia: Poisson_pmf.svg)

Poisson-Verteilung (Copyright Wikipedia)

Die Standardabweichung einer Poisson-Verteilung mit einem Mittelwert von μ beträgt:

\(\sigma = \sqrt{\mu} \)

Das Nutzsignal ist die mittlere Ankunftsrate der Photonen μ – es ist ist proportional zur Belichtungszeit.
Das Störsignal (auch Rauschen genannt) ist proportional zu σ, also zu Wurzel aus μ; d.h. proportional zu Wurzel aus Belichtungszeit.

In Formeln ist das Signal-Rausch-Verhältnis (SNR = Signal Noise Ratio) also:

\(SNR =  \Large\frac{\mu}{\sigma} \large = \sqrt{\mu} \)

Das Signal-Rausch-Verhältnis ist also proportional zur Wurzel aus der Belichtungszeit. Beispielsweise verdoppelt sich das SNR bei einer Vervierfachung der Belichtungszeit.

In Dezibel gemessen ist das:

\(SNR = 10 \lg{\sqrt{\mu}} =5 \lg{\mu}\)   [Dezibel]

Also Lösung: Lange belichten und ggf. Stacken

Sensor-Rauschen: Elektronen in den Pixeln des Sensors werden nicht nur von den Photonen unseres “Nutzsignals” erzeugt, sondern auch durch Wärme im Sensor und bilden so ein “Störsignal”. Faustregel: Eine Kühlung um 7° halbiert dieses “thermische” Rauschen.

Dieses thermische Sensor-Rauschen verteilt sich aber zufällig auf die einzelnen Pixel des Sensors.
Dieses thermische Sensor-Rauschen ist tatsächlich zufällig und mittelt sich mit längeren Belichtungszeiten aus.
Also Lösung: Kühlen und länger belichten ggf. Stacken

Ausleserauschen: Der Ausleseverstärker soll aus der elektischen Ladung (Elektronen) eines jeden Pixels eine proportionale Spannung erzeugen, die dem ADC zugeführt wird. dabei entsteht auch ein gewisses Rauschen.

Dieses Ausleserauschen ist bei modernen digitalen Kameras zwar sehr gering, aber addiert sich mit jedem Einzelfoto, das ich mache.

Also Lösung: So belichten, dass das Ausleserauschen relativ zum sonstigen Rauschen vernachlässigt werden kann. Üblich ist etwa Ausleserauschen = 10% vom Himmelshintergrund. Man nennt das “hintergrundlimitiert”.

(10) Geringer Kontrast

Lösung: RAW-Format, Stretchen, S-Kurve

(11) Geringe Dynamik

Lösung: RAW-Format, geringeres ISO/Gain

(12) Helle Bildteile “ausgebrannt”

Lösung: HDR und/oder Postprocessing

(13) Luftunruhe “Seeing”

Lösung: Lucky Imaging

(14) …

 

Astrofotografie: Galaxien (Deep Sky Objekte)

Gehört zu: Welche Objekte?
Siehe auch: Sternhaufen, Nebel, Liste meiner Fotos

Galaxien (Deep Sky Objekte)

Was ich mit meiner Ausrüstung ganz gut fotografieren kann, sind Galaxien.

Galaxien zählen zu den sog. DSO’s also den Deep Sky Objekten.
Zu den DSO’s gehören insgesamt:

  • Galaxien
  • Emissionsnebel / Reflexionsnebel
  • Planetarische Nebel
  • Supernova-Überreste
  • Sternhaufen (offene und Kugel-)  ja auch die gehören zu den DSOs, da ausserhalb des Sonnensystems

Als Gegensatz zu DSO wird gerne “planetary” genannt. Da würde man mit Videos arbeiten.

Galaxien

In diesem Artikel konzentriere ich mich auf Galaxien. Wobei ich Galaxien vorrangig aus dem Hamburger Raum (einschließlich Handeloh) beobachte.

Datum von/bis bedeutet eine Höhe von mehr als 70 Grad um 23 Uhr in Hamburg.

Objekt Name Ausdehnung Flächen-helligkeit Helligkeit Sternbild Datum ab Datum bis Neumond-1 Neumond-2 Bemerkung / Standort
M31 Andromeda-Nebel 189′ x 62′ 13,35 3,4 mag 12.10. 20.11. 16.10.2020 14.11.2020 Der Klassiker – sehr groß
M33 Dreiecks-Nebel 70′ x 40′ 5,7 mag Tri Drittgrößte Galaxie der Lokalen Gruppe nach M31 und uns.
M51 Whirlpool 12,56 18.4. 17.6. 20.4.2020 22.5.2020
M64 Black Eye 12,4
M65 Leo 12,4
M66 Leo 12,5
M81 Bode Galaxie 27′ x 14′ 13,13 7,0 mag UMa 10.2. 6.4. 24.2.2020 24.3.2020 eine der hellsten Galaxien
M82 Zigarren-Galaxie 11,2′ x 4,3′ 8,6 mag UMa
M83 Southern Pinwheel 12,9′ x 11,5′ 13,2 7,5 mag Hydra Große Balkenspirale
M85 Com 13,0
M88 Com 12,6
M96 Leo 12,9
M99 Com 13,0
M100 Com 13,0
M101 Feuerrad 14,82 21.4. 28.6. 20.4.2020
M102 Dra 11,9
M105 Leo 12,1
NGC 247 19,9’x5,4′ 8,9 mag Cetus Gute Sichtbarkeit: Sept-Jan
NGC 253 Silver Dollar 12,8 Namibia Sculptor
NGC891 Edge-on Andromeda 13,1
NGC7606 10,8
NGC2146 Dusty Hand 12,1
NGC4449 Box Galaxy 12,8
NGC5005 Virgo 12,6
NGC6951 Face-on 13.5
NGC157 Cet 12,4
NGC908 Cet 13,0
NGC936 Cet 13,2
NGC4274 Com 13,4
NGC4278 Com 13,1
NGC4314 Com 13,3
NGC4565 Needle 12,9
NGC5907 Dra 13,4

 

Astrofotografie: M31 Andromeda Galaxis

Gehört zu: Welche Objekte?
Siehe auch: Galaxien, Deep Sky Objekte, Liste meiner Astro-Fotos
Benutzt: Fotos von Google Archiv

Stand: 30.12.2022

Die Andromeda Galaxis

M31 ist die uns am nächsten gelegene “große” Galaxie (d.h. abgesehen von Zwerggalaxien wie z.B. LMC).

M31 gehört zur sog. “lokalen Gruppe”.

M31 ist das klassische “Anfängerobjekt” für die Deep-Sky-Fotografie.

Edwin Hubble konnte 1933/1934 am Mount Wilson Observatorium M31 in teilweise einzelne Sterne auflösen und dabei auch sog. Delta-Cephei-Sterne finden. Die scheinbare Helligkeit des “H1” genannten Cepheiden in M31 schwankte zwischen 18,3 und 19,7 mag. Mit Hilfe der bekannten Periode-Leuchtkraft-Beziehung konnte er die absolute Helligkeit und damit die Entfernung von M31 bestimmen. Die Entfernungsbestimmung ergab seinerzeit zunächst knapp 1 Million Lichtjahre.

Bis damals war die allgemeine Überzeugung, dass es ausser unserer Galaxis, der “Milchstraße”, keine anderen Galaxien geben würde und die allerseits zu beobachtenden “Nebel” (wie M31) wohl zur Milchstraße gehören müssten.

Als Walter Baade Anfang der 1950er Jahre am gerade fertiggestellten 5m-Spiegel auf dem Mount Palomar zwei verschiedene Typen von Cepheiden nachweisen konnte (mit zwei verschiedenen Periode-Leuchtkraft-Beziehungen), musste die Entfernung auf 2,5 Mio Lichtjahre korrigiert werden.

Generelle Vorbereitungen für das Fotografieren von M31

Wann ist der günstigste Zeitpunkt; d.h. wann steht M31 schön hoch am Himmel?

  • In 2018 in Hamburg:  12. Oktober – 20. November  (h>70°)

Dann brauchen wir noch eine günstige Mondphase z.B. Neumond und gutes Wetter. Als Neumond-Daten haben wir:

  • 2018:   08. Okt.
  • 2019:   27. Okt.
  • 2020:   16. Okt.
  • 2021:   4. Nov.

Als günstigen Standort für die Beobachtung habe ich Handeloh gewählt.

  • geringere Lichtverschmutzung  (Bortle 4 /  SQM 21,0)
  • freies Sichtfeld
  • gute Erreichbarkeit per Auto

Welche Ausrüstung soll eingesetzt werden?

Mit welchen Einstellungen sollen die Fotos geschossen werden?

  • Geplante Belichtungszeit: 10 x 300 Sekunden bei ISO 800
  • Probefotos ergaben, dass bei dieser Belichtung das Histogramm der Einzelfotos “gut” aussah; d.h. deutlich vom linken Rand abgesetzt und von rechten Rand noch sehr weit entfernt
  • Aufnahmeformat: Raw d.h. CR2
  • Auto Guiding mit PHD2 Guiding

Das Foto am 14.10.2018

Im Jahre 2018 war ich mit meinen astrofotografischen Übungen dann so weit und konnte folgende Aufnahme gewinnen:

Abbildung 1: M31 in der Andromeda (Google Archiv: 20181014_Autosave_0239-0248_16_CI_RGb)

20181014_Autosave_0239-0248_16_CI_RGb

Die Bildbearbeitung (Post Processing)

Als all die schönen Bilder “im Kasten” waren ging es erst einmal nach Hause, wo dann in den nächsten Tagen, Wochen und Monaten die Bildbearbeitung begann.

  • Stacking mit Deep Sky Stacker. Dabei erwies sich eines der zehn Lights als verwackelt und wurde ausgeschieden. Zehn Darks wurden ebenfalls gemacht. Mit Deep Sky Stacker entstand dann das kalibrierte Summenbild im TIFF-Format.
  • Mit Regim erfolgte dann die Background Extraktion (auch Gradient Removal ganannt).
  • Weiterhin wurde mit Regim eine B-V-Farbkalibrierung vorgenommen.
  • Schließlich erfolgte mit Adobe Photoshop das Stretching durch “Tonwertkorrektur” und “Gradationskurven”.
  • Mit Noel Carboni’s Action Set “Astronomy Tools” in Photoshop wurden dann noch die Actions  “Local Contrast Enhancedment”, “Increase Star Color” ausprobiert.
  • Zum Schluss wurde der sehr helle Kern von M31 noch mit “Bild -> Korrekturen -> Tiefen/Lichter” 10% dunkler gemacht.

 

Computer: 3D-Druckverfahren

Gehört zu: Computer, Drucken
Siehe auch: Bahtinov-Maske, FreeCAD

3D-Drucken

Was braucht man alles zum “3D-Drucken”?

  • Einen 3D-Drucker
  • Material zum Drucken das sog. Filament z.B. PLA-Pulver, PLA-Draht,…
  • Ein Computer-Modell des Gegenstands, der gedruckt werden soll  (z.B. mit CAD-Programm)
  • Eingabedatei für den 3D-Drucker (aus dem 3D-Computermodell muss ein Slicing gemacht werden)

So einem 3D-Drucker muss man sagen welches Material er zum “Drucken” verwenden soll z.B. PLA-Pulver.

Eine Eingabedatei sagt dem 3D-Drucker dann genau, was er da “drucken” soll.

Computer-Modell als CAD

Zum Design eines Bauteils für den 3D-Drucker braucht man eine spezielle CAD-Software, mit der man das Bauteil in 3D interaktiv maßgerecht zeichnen kann und die das für 3D-Drucker erforderliche Datei-Format (z.B. STL) erzeugen kann.

Beispiel: TinkerCAD

  • Beispiel: http://www.tinkercad.com
  • Mit TinkerCAD kann man im Internet schöne 3D-Modelle entwerfen und diese dann z.B. als STL-Datei ausgeben (“Export”).
  • MIt TinkerCAD kann man auch fertige Zeichnungen von Bauteilen (z.B. als SVG-Datei) importieren.

Beispiel: FreeCAD

3D-Drucker als Hardware

3D-Drucker können sich in vielen Einzelheiten unterscheiden:

  • Die Größe des Bauraums
  • Steppermotoren (Schrittgröße, Lautstärke,…)
  • Schnittstellen (SD-Karte, USB-Anschluss)
  • Der Extruder (Düsendurchmesser, Heizleistung)
  • Den Tisch (das Druckbett)

Ein Astro-Kollege von der GvA berichtete einmal über seine Erfahrungen mit kostengünstigen 3D-Druckern.

In Youtube wurde empfohlen (Juni 2021):

Slicing

Aus einem CAD-Computermodell wird das Objekt in feine Scheiben (slices) zerlegt, was dann zum Drucker geschickt werden kann (Am besten via Speicherkarte, da der Druckvorgang mehrere Stnden dauern kann).

Der Slicer muss dan genau wissen, was für einen 3D-Drucker wir haben.

Als Slicer sind bekannt etwas “Ultimaker Cura“,  https://ultimaker.com/

Dienstleister zum 3D-Drucken

Es gibt viele Dienstleister, bei denen man eine STL-Datei einreichen kann, die dann dort “ausgedruckt” wird.

  • z.B. im Internet: Thingiverse
  • z.B.  Universitäten und Bibliotheken

Web-Links

Nico Carver:   https://www.youtube.com/watch?v=a0Qk5jzsZfc

Astrofotografie: ZWO ASI294MC Pro

Gehört zu: Astrofotografie
Siehe auch: Liste meiner Geräte, Belichtungszeiten, SharpCap, Stromversorgung, ASCOM , Backfokus, Gewinde, AZ-GTi
Verwendet: SVG-Zeichnungen von GitHub, Fotos aus Google Archiv

Stand: 31.12.20212   (added: Full Well Capacity, Google Archiv)

Eine neue Kamera: ZWO ASI294MC Pro

Ich wollte nun (Jan. 2020) meine Astrofotografie auf eine neue Ebene heben und statt mit meiner DSLR Canon EOS 600D nun mit einer gekühlten Astro-Kamera arbeiten.

Da das in meinen Augen schon recht teuer wird, habe ich mich nach etwas Gebrauchtem umgesehen.
Anfang Januar 2020 wurde ich fündig auf forum.astronomie.de und habe mit eine ZWO ASI294MC Pro gegönnt.

Alternativ wird auch das Modell ASI533MC Pro angeboten.

Fakten zur ZWO ASI294MC Pro

Und das gehört zur ASI294MC Pro:

  • ASI294MC Pro  (mit Anschlüssen: T2 = M42*0,75, 1,25″ und 2″)
  • Gekauft am 2. Januar 2020 für EURO 850,– gebraucht
  • Sensor: Sony 4/3″ CMOS Color Sensor IMX294CJK – “Back illuminated”
  • Pixelgröße: 4,63 µm – 4144 x 2822 Pixel  – 4/3″ = 19,1 x 13,0 mm
  • ADC 14 Bit  (ADC = Analog to Digital Converter)
  • Full Well Capacity:
    • 63700e- bei Gain 0
    • ca. 20000e- bei Gain 100
    • ca.  6000e- bei Gain 200
    • ca.  2000e- bei Gain 300
  • Leistungsstarke Peltierkühlung bis 45 °C unter Umgebungstemperatur (dafür wird eine 12V Stromversorgung benötigt, die bis zu 3 Ampere zieht).
  • Heizmanschette…
  • Gehäusedurchmesser 78 mm
  • Back Focus: 6.5mm (from camera front)
  • Back Focus: 17.5mm (from front of 11mm reverse thread adapter)

Link: https://astronomy-imaging-camera.com/product/asi294mc-pro-color

Link: https://teleskop-austria.at/ASI294MCP_ZWO-ASI294MC-Pro-Farbkamera-Diagonale-232mm-Auflosung

Sampling: https://astronomy.tools/calculators/ccd_suitability

Back illuminated

Auf einem klassichen CMOS-Sensor ist die Schicht mit metallischen Schaltungen die “Vorderseite” und die Schicht mit den photoelektischen Dioden die “Rückseite”. Ganz vorne liegt eine Schicht mit den Microlinsen der Bayermatrix. Bei dieser klassichen Anordnung müssen die Photonen bevor sie auf die Photodioden treffen durch die metallische Schicht hindurch.
“Back illuminated” beudeutet nun, dass man Vorder- und Rückseite vertauscht. Dann können die Photonen ohne die störende metallische Schicht “gefiltert” zu werden direkt auf die Photodioden treffen. Das erhöht die Empfindlichkeit durch bessere QE, was für die Astrofotografie vorteilhaft ist.

Einstellungen bei der ASI294MC Pro

Bei so einer Astro-Kamera gibt es einige besondere Einstllungen, die man wenn man von der DSLR kommt, nicht sofort versteht:

Gain: Ist soetwas ähniches wie ISO bei der DSLR – aber warum ist “Unity Gain” so etwas besonderes und evtl. auch erstrebenswert?

Offset: kann man irgendwo einstellen (wo?) und welche Einstellung sollte man wählen?

Treiber für die ASI294 und das Amp Glow

Der neueste ASCOM-Treiber Version 6.5.1 vom 20. Nov 2020 benötigt die ASCOM-Platform 6.5

Das bei der ASI294MC Pro deutlich vorhandene Amp Glow soll mit den neuen ASCOM-Treibern reduziert sein.

Der aktuelle Windows-Treiber “native”  Version 3.0.0.11 released 11. Sept. 2020 zeigt jedenfalls immer (unverändert?) starkes Amp Glow.

Link: https://astronomy-imaging-camera.com/software-drivers

Das Amp Glow ist bei der ASI294MC Pro immer noch sehr deutlich zu sehen. Das finde ich bei einer Kamera für Euro 1000,– völlig unmöglich.

Hier ein Dark aufgenommen mit APT und dem o.g. “native” Treiber bei Kühlung auf 0° C (bei Umgebungstemperatur 23°), Belichtungszeit 960 sec, Gain 120, Offset 30

Abbildung 1: AmpGlow auf einem Dark-Frame mit der ASI294MC Pro (Google Archiv: RGB_D_2020-12-09_17-39-54_Bin1x1_960s__0C_AmpGlow-01.jpg)

RGB_D_2017-12-09-17-39-54_Bin1x1_960s__0C_AmpGlow-01.jpg

Anschlüsse der ASI294MC Pro

Die Kamera ASI294MC Pro mit ihrem Sensor ist ja das “Endstück” einer Optik. Sie muss “hinten” an ein Teleskop oder ein Foto-Objektiv “angeschraubt” werden.

Dabei ist der richtige Abstand vom Ende des Teleskops, der sog. Backfokus, sehr wichtig.

Anschluss der Kamera per Vixen-Schiene oder Arca-Swiss

Die Kamera ZWO ASI294MC Pro hat einen Gehäusedurchmesser von 78 mm.

Dafür gibt es spezielle Rohrschellen (auch Holder Ring, genannt), mit denen man die Kamera auf einer Vixen-Schiene, einer Arca-Swiss-Schnellkupplung oder auch einfach mit einer 1/4-Zoll-Fotoschraube auf einem Stativ oder einer Montierung befestigen kann.

Beispiel Rohrschellen bei TS: https://www.teleskop-express.de/shop/product_info.php/language/en/info/p8771_ZWO-Photo-Tripod-Adapter—Holder-for-ASI-Cameras-with-D-78-mm.html So einen Holderring habe ich mir im November 2020 bei Teleskop Service gekauft (ASIHOLDERRING78).

Anschluss an Foto-Objektive

Für Foto-Objektive mit Canon EF Bajonet empfiehlt sich der AstroMechanics-Adapter (Fokussieren per ASCOM/Software, falls AF).

Speziell für Canon-Objektive (EF und EF-S) gibt es einen tollen Adapter z.B. bei https://astromechanics.org/downloads/ascom_ef/en/manual/controller_m42.pdf

Meine alternative Lösung ist der Adapter ZWO-FD-EOS, den ich bei Teleskop-Service gekauft habe (s.u.)

Um ein Foto-Objektiv an der Kamera zu befestigen, benötigt man einen Adapter mit kameraseitigem M42-Aussengewinde (das wird auch T2 genannt) und objektivseitig das was das Objektiv eben benötigt (z.B. Canon-Bajonet, M42-Innengewinde oder…). Wenn man zusätzlich zu so einem Adapter noch eine Filterschublade benötigt, wird es knapp mit dem Backfokus. Daher habe ich den Adapter zurückgegeben und gleich eine Filterschublade gekauft, die auch die Adapter-Funktion erfüllt und exakt den richtigen Backfokus bietet (Teleskop Service ZWO-FD-EOS).

Dabei ist der richtige Abstand sehr wichtig, um noch gut in den Fokus zu kommen z.B. Link: https://www.bresser.de/Astronomie/Zubehoer/BRESSER-T2-Verlaengerungshuelsen-Set.html

Anschluss an das Teleskop ggf. den Flattener/Reducer des Teleskops

Die Kamera ASI294MC Pro selbst hat einen M42*0.75-Gewinde (das wird auch T2-Gewinde genannt) als primären Anschluss.

Mit der Kamera kommen folgende Verlängerungsstücke bzw. Adapter mit:

  • M42/M42 Verlängerung um 11 mm (vor-eingebaut)
  • M42*0,75/M42*0,75 Verlängerung um 21 mm
  • M48/M42 Verlängerung um 16,5 mm

Backfocus der Kamera ohne alle Adapter: 6,5 mm
Insgesamt also 6,5 + 11 + 21 + 16,5  = 55 mm

Achtung bei M42-Gewinden muss man unterscheiden zwischen T2-Gewinde das ist M42*0,75 und einem metrischen Gewinde, das ist M42*1,0

Der Flattener/Reducer hat am kameraseitigen Ende ein M48*0,75 Aussengewinde…

Abbildung 2: Zusammenbau ASI294 mit Flattener (Datei: GitHub Flattener02.svg)

 

Kamera ASI294MC Pro an Flattener/Reducer

Es gibt einen Adapter speziell für Canon-Objektive (EF und EF-S) z.B. bei https://astromechanics.org/downloads/ascom_ef/en/manual/controller_m42.pdf

Steuerung von Foto-Aufnahmen über Software

Foto-Steuerung über ASIair (Linux)

Angeregt durch das Youtube-Video von Trevor Jones (AstroBackyard

) spielte ich damals auch mit dem Gedanken dazu eine ASIair zu kaufen; das habe ich aber später verworfen, weil es nur noch die viel teuere ASIair Pro (EUR 359,– statt EUR 199,–) gab, welche auch erst irgendwann in der Zukunft geliefert werden sollte. Aber ich habe mal begonnen mich mit Linux und INDI-Treibern auseinanderzusetzen. Für die ASI294MC Pro gibt es sowohl INDI-Treiber als auch ASCOM-Treiber.

Wenn man über INDI geht (primär: Linux), benutzt man als Software KStars mit dem eingebauten EKOS.

Ich hatte dann mal die kleine Linux-Kiste “StellarMate” ausprobiert, hatte da aber Probleme, sie über mein LAN/WLAN zu erreichen.
Deshalb: Kommando zurück: Steuerung ggf. remote über meine Windows-Computer.

Foto-Steuerung über APT (Windows)

Die bewährte Software APT funktioniert mit der neuen Kamera ASI294MC Pro genau so gut wie vorher mit der DSLR Canon EOS 600Da.

In APT muss man den Kameratyp einstellen: Im Reiter “Camera” macht man “Shift Click” auf den Connect-Button, damit man zu den Kamera-Einstellungen von APT kommt. Um die ZWO ASI294MC Pro zu verwenden,  klickt man dort nicht auf “Canon” und auch nicht auf “Nikon”, sondern auf “CCD”. Im CCD-Drop-Down kann man dann auswählen:

  • ASCOM Camera
  • SBIG Camera
  • Altair Camera
  • INDI Camera
  • ZWO Camera

Wenn ich “ASCOM Camera” auswähle brauche/benutze ich also die ASCOM-Treiber meiner ASI294MC Pro. Ich wähle aber “ZWO Camera” damit APT ohne ASCOM direkt mit den “native” Treibern der ASI-Karera arbeitet – so geht es mit APT etwas besser (LiveView, Zoom,…)

Foto-Steuerung über SharpCap (Windows)

Alternativ kann ich zum Fotografieren mit der neuen Kamera ASI294MC Pro auch die Software ShapCap einsetzen.

Astronomie: Software Regim

Gehört zu: Bildverarbeitung
Siehe auch: PixInsight, Fitswork

Die Astro-Software Regim

Was ist Regim?

Regim ist eine kostenlose Software des Entwicklers Andreas Röring.

Regim benötigt die Java Runtime Umgebung und läuft damit auf Windows, Linux und MacOS.

Allerdings ist die Benutzeroberfläche nach heutigen Maßstäben recht schlicht.

Auch ist Regim insgesamt recht langsam.

Probleme gibt es auch bei einigen Varianten der Bildformate TIFF und auch FITS.

Download der Software: https://www.andreasroerig.de/regim/regim.xhtml

Download der Dokumentation: https://www.andreasroerig.de/content/regim/regim.pdf

Version: 3.8 (5.1.2019)

Besondere Funktionen von Regim

Installation und Aufruf von Regim

xyz

Bekannte Probleme mit Regim

Bildformate TIFF und FITS

Java Heap Space

Links zu Regim

AstroHardy 23.01.2014: Vorbereitung von FITS-Dateien in Fitswork für Regim

AstroHardy 20.01.2014:  Automatische Farbkalibrierung mit Regim  Remove Gradient & B-V-Color Calibration

AstroHardy 19.01.2014: Farbkalibrierung mit Regim und Gimp

AstroCologne 09.09.2019: Richtige Farben in Deep-Sky-Bildern

AstroCologne 01.09.2011: Regim Tutorial Teil 1  Stacking

AstroCologne 01.09.2011: Regim Tutorial Teil 2 Fortsetzung des Stacking von Teil 1

Funktionen von Regim

Die wichtigsten Funktionen von Regim sind:

  • Stacking
  • Background Extraction / Gradient Removal
  • B-V Color Calibration / B-V-Farbkalibrierung
  • Plate Solving

Stacking mit Regim

Regim starten und in der Menüleiste “Preprocessing” anklicken. Dann im Drop-Down-Menü nochmals “Preprocessing” auswählen….

Eingabe für das Stacking sind:

  • LIght Frames  (Format FIT oder RAW,…)
  • Dark Frames
  • Flat Frames
  • “Flat Darks” sagt Regim. DSS nennt das “Bias Frames”

Ausgabe beim Stacken ist:

  • Ergebnisdatei FIT
  • Save as: Ergebnisdatei 16 Bit TIFF

Background Extraction / Gradient Removal mit Regim

Wir haben nun das Stacking bereits durchgeführt und haben also eine sog. “Summendatei”.

Als nächsten Schritt glätten wie den Hintergrund d.h. “Background Extraction” bzw. “Gradient Removal”. Der übernächste Schritt behandelt dann die Farben.

Als Eingabe benötigen wir eine Summendatei, die noch nicht gestretched ist, sich also noch in linearem Zustant befidet. Am Besten im Format TIFF.

Dann rufen wir die Funktion Gradient Removal auf indem wir in der Regim-Menüleiste auf “Edit” klicken und dann im Drop-Down-Menü “Remove Gradient” auswählen.

Daraufhin escheint eine kleine Dialogbox (Titel Remove Gradient) mit den Schaltflächen “Generate”, “Execute” und “Exit”.

Bevor wir auf “Generate” klicken füllen wir die Eingabefelder:

  • Number of Samples:   z.B. 21
  • Blur Radius: z.B. 11
  • Background: auto/Manuell

Wenn diese Eingabefelder gefüllt sind, können wir auf die Schaltfläche “Generate” klicken. Es werden dann etsprechend den Eingaben Messpunkte für den Hintergrund (Background) gesetzt.

Wenn die Messpunkte für den Hintergrund O.K. sind, können wir auf “Execute” klicken. Das dauert ein klein wenig und am Ende haben wir drei Fenster (Originalbild, Bild nur mit dem Hintergrund, Bild mit dem entfernten Hintergrund). Die Bilder sind noch linear; d.h. zum Betrachten müssen wir den rechten Regler ziehmlich weit aufdrehen.

Wir klicken nun auf die Schaltfläche “Exit” (sonst geht’s nicht weiter).

Wir können dann die nicht benötigten Fenster schießen und das Ergebnis als 16 Bit TIFF abspeichern.

Da Regim nicht so wahnsinnig stabil läuft, ist das Abspeichern eines solchen Zwischenergebnisses immer sehr zu empfehlen.

Farbkalibrierung mit Regim

Auf der Regim-Menüleiste klicken wir auf “Color” und in dem Dropdown-Menü dann auf “Automatic B-V Color Calibration” oder “Manual B-V Color Calibration”…

Die Idee ist, den Farb-Index (B-V-Index) eines oder mehrerer Sterne im Feld heranzuziehen für die Farbkalibrierung des Bildes.

Bei der “Automatic”-Variante ermittelt Regim zunächst per Plate Solving, welche Sterne im Bild vorhanden sind und kann dann zu den identifizierten Sternen die B-V-Indices aus einem Sternkatalog abrufen.

 

Astronomie Software KStars

Gehört zu: Astro-Software
Siehe auch: INDI, StellarMate, ASIair
Stand: 27.12.2022

Astronomie-Software KStars – was ist das?

KStars ist eine Astronomie-Software, die einerseits als schönes Planetarium-Programm fungiert, andererseits die astronomischen Geräte (Montierung, Kameras, …) steuern kann und dabei diverse nützliche Zusatz-Funktionen hat, wie beispielsweise

Zu diesem Behufe enthält KStars ein Module names Ekos, welche als INDI-Client mit einem INDI-Server spechen kann.

KStars gibt es für Windows, MacOS und Linux.

Die aktuelle Version von KStars ist 3.3.9 (Jan 2020).

Quellen: Youtube-Video von GalaxyGazer: “Die Alternative zum Laptop KStars & Ekos”

Installation von KStars

KStars gibt es für verschiedene Betriebssysteme (Plattformen): Android, Windows, Linux, MacOS

Download bei: https://edu.kde.org/kstars/

Installation unter Windows

Download: https://edu.kde.org/kstars/

Installation unter Linux – Ubuntu

Wenn wir KStars auf unserem Linux Ubuntu installieren, können wir leicht mit Ekos kontrollieren, ob der INDI-Server dort auch läuft.

Zur Installation geben wir im Terminal-Fenster ein:

sudo apt-add-repository ppa:mutlaqja/ppa
sudo apt-get update
sudo apt-get install kstars-bleeding

Die Applikation "KStars" findet man danach unter: Menüleiste -> Applications -> Education -> KStars
Rechte Maustaste: Add this launcher to desktop

Erste Schritte mit KStars

Als Erstes soll man bei KStars den Standort einrichten.

Die Sprache von KStars ist manchmal komisch bis gewöhnungsbedüftig. Beispielsweise gibt es in der deutsche Version so etwas wie “STF” auf das ich mir so überhaupt keinen Reim machen konnte. Im Englischen heist das “FoV” – aha: “Field of View”, also “Gesichtsfeld”- aber KStars denkt “Sichtfeld”. abgekürzt “STF”.

Wie schalten wir die Sprachen bei KStars um?????

Große Frage – nicht bei den KStars-Einstellungen, sondern im Menü “Help -> Switch Application Language”

Menüleiste Einstellungen -> “KStars einrichten…”  (Kataloge etc.)

Menüleiste Extras:  Rechner, Himmelskalender, Sonnensystem, Was ist los heute

Erste Schritte mit Ekos

Eine wesentliche Funktion von KStars auf dem Windows-Computer ist ja, das Modul “Ekos” aufzurufen und damit das Astro-Equipment zu steuern.

Der Aufruf geschieht in der KStars-Menüleiste: Extras -> Ekos

Das setzt voraus, das wir unsere Astro-Geräte mit einem INDI-Server verbunden haben,

Der INDI-Server kann auch remote auf einem anderen Computer laufen z.B. einem Raspberry Pi mit Linux.

In Ekos haben wir dann sog. Profile, in denen über einen INDI-Server die angeschlossenen Astro-Geräte zugeordnet werden.

Astronomie: Computer StellarMate

Gehört zu: Astrofotografie
Siehe auch: Polar Alignment, ASIAir, INDI, KStars, Linux, RasperryPi
Benutzt: Fotos aus Google Archiv

Stand: 1.1.2023

StellarMate: Ein kleiner Astrofotografie-Computer

Anstelle von ausgewachsenen Windows-Computern hört man in letzter Zeit (heute ist Juli 2019) immer öfter von kleinen Geräten, wie “StellarMate” (von der Firma Ikarus Technologies), die den “großen” Windows-Computer in der Astrofotografie ablösen sollen..

StellarMate ist eine kleine Kiste (ein Rasberry Pi Computer), den man an seine Montierung bzw. das Teleskop hängt, und der einiges kann…..

Ähnliche Produkte sind u.a.

StellarMate ist ein kleiner Computer, mit dem man ohne traditionelle Computer Astrofotografie betreiben können soll – das Ding wird als “Astrofotografie-Computer” bezeichnet.

Es geht ja um eine Lösung zur Astrofotografie, die aus Hardware und Software besteht. Zum Testen der Software verwende ich als ersteinmal in aller Ruhe eine Virtuelle Maschine mit Ubuntu MATE. Wenn das alles wirklich funktioniert, werde ich mich mit der Hardware-Plattform beschäftigen.

Am Ende meiner Weisheit (2020) bin ich reuemütig wieder bei einem kleinen Windows-Computer, der remote über WLAN bedient wird, gelandet.

Eigenschaften des StellarMate

  • Computer: Der StellarMate-Computer basiert auf einem Raspberry PI 3B+,
  • Betriebssystem: StellarMate OS auf der Basis von LINUX
  • Astro-Plattform: INDI   (nicht ASCOM)
  • Stromversorgung des StellarMate: 5 V
    USB: Der StellarMate hat 4 USB 2.0 Anschlüsse und fungiert so also auch als USB-Hub
  • 1 HDMI Anschluss
  • 1 Ethernet-Anschluss
  • WiFi/WLAN: StellarMate spannt einen WLAN Access Point auf, über den sich ein Tablet mit dem StellarMate verbinden kann. Auf dem Tablet läuft dann eine StellarMate-App.
    • StellarMate kann sich auch als WLAN-Client in ein vorhandenes WLAN einmelden.
  • Kameras: StellarMate unterstützt viele Astro-Kameras und auch DSLRs – letztere über INDI und USB
  • Montierungen: StellarMate unterstützt und viele gängige Montierungen (siehe INDI Driver).
  • Steuerung der primären Kamera (am Teleskop) z.B. DSLR Canon EOS 600D
    Speicherung der Fotos auf der SD-Karte der Canon
  • Plate Solving:
    • Welcher Platesolver soll benutzt werden: Einstellbar: “online” d.h. über das Internet auf astromertry.net bzw. Ansvr, “offline”d.h. der Solver auf MacOS oder LINUX oder “remote” d.h. der Solver auf dem StellarMate
    • Was soll nach einem erfolgreichen Platesolving gemacht werden? (wird “Solver Action” genannt): Einstellbar: SYNC, Slew to Target, Nothing
  • Polar Alignment: Das Polar Alignment konnte in früheren Versionen ausschließlich mit der “Main Camera” vorgenommen werden. Jetzt geht es auch mit der “Guide Camera”
  • Autoguiding wahlweise über ST4 oder Pulse Guiding  – mit den “internen Guider” oder auch einem externen…. (PHD2 Guiding???)
    Als Guiding-Kamera dient meine vorhandene Altair-Cam….
  • Motor Focusser: not supported

Erste Schritte mit StellarMate: Einrichten von Stellarmate

Heute am 18.1.2020 kam der StellarMate bei mir per DHL an.

Das StellarMate-Kästchen gehört lokal an das Teleskop; die Bedienung kann remote von einem Laptop über KStars und Ekos erfolgen.

  1. Einen Account eröffnen bei stellarmate.com   (mit E-Mail Verification)
  2. Das Stellarmate-Gerät registrieren: /support/licences.html (dazu muss man die Seriennummer des Geräts eingeben)
  3. KStars auf dem Windows-Computer aufrufen  (alternativ: StellarMate App auf Apple oder Android)
  4. Innerhalb von KStars Ekos aufrufen: KStars-Menüleiste: Tools -> Ekos
  5. Im Ekos ein Profil einrichten; dabei
    1. INDI-Server “remote host” und dann nicht “localhost”, sondert die IP-Adresse des Stellarmate-Geräts (bei mir: 192.168.1.140)
    2. Select Devices: ….
    3. Select Telescops: ….

Ekos zeigt immer diese drei Reiter: “Select Profile”, “Start & Stop Ekos” und “Connect & Disconnect Devices”.
Im Ersten Reiter “Select Profile” legen wir ein neues Ekos-Profil an, indem wir au das “+” klicken (s. Bild)

Abbildung 1: Software Ekos: Select Profile (Google Archiv: Stellarmate-03.jpg)

Stellarmate-03.jpg

Das neue Ekos-Profil bekommt einen Namen “HEQ5” unter dem wir es später abspeichern und danach aus dem Drop-Down einfach auswählen können.

Wichtig ist. dass wir als “Mode” “Remote Host” auswählen, wenn wir von einem Windows-Computer über das Netzwerk auf den StellarMate-Computer zugreifen wollen.

Weiterhin können wir in dem Profile unsere “Devices” und “Telescops” angeben.

Abbildung 2: Software Ekos: Profile Editor (Google Archiv: Stellarmate-04.jpg)

Stellarmate-04.jpg

Nachdem wir Ekos-Profile eingerichtet haben, wählen wir eines aus, mit dem wir jetzt arbeiten wollen und klicken unter dem Reiter “Start & Stop Ekos” auf das Start-Symbol (Dreck mit Spitze nach rechts).

Abbildung 3: Software Ekos: Start (Google Archiv: Stellarmate-05.jpg)

StellarMate-05.jpg

Jetzt versucht das Programm eine Verbindung zum INDI-Server auf dem StellarMate-Gerät herzustellen. Dazu muss das StellarMate über unser Netzwerk per TCP/IP erreichbar sein (Testen mit einem Ping) und der INDI-Server muss mit dem Ekos als INDI-Client über das INDI-Protokoll “sprechen” können (Test, ob der INDI-Server läuft).

Wie das Bild unten zeigt, funktioniert das leider nicht immer…   “Failed to connect to remote INDI server”

Abbildung 4: Software Ekos: Failed to connect (Google Archiv: Stellarmate-06.jpg)

StellarMate-06.jpg

Nach vier Stunden probieren funktionierte es manchmal lokal (mit VNC sichtbar gemacht), aber “remote” ging niemals etwas; weder mit dem StellarMate als WLAN Access Point noch wenn der StellarMate sich in mein heimisches WLAN eingeloggt hatte.

Nun könnte man noch weitere Stunden herumprobieren z.B. mit einen Bildschirm über HDMI am StellarMate etc. etc. pp. oder….

Also RETOURE an astroshop.de

Astrofotografie: Belichtungszeit, Lichtverschmutzung und Rauschen

Gehört zu: Astrofotografie
Siehe auch: Stacking, Nachführung Autoguiding, PHD2 Guiding, Lichtverschmutzung, SQM Sky Quality Meter, Hintergrundlimitiert, Fitswork, GeoGebra
Benötigt: WordPress Latex-Plugin , Fotos von Flickr, Grafiken von Github

Stand: 12.10.2022 (GeoGebra)

Wie erziele ich gute Astro-Fotos?

Das hier betrachtete Qualitätskriterium ist das “Signal-Rausch-Verhältnis” (Signal to Noise Ratio = SNR). Die Qualität von Astro-Fotos wird generell von vielen Faktoren beeinflusst. Darunter sind beispielsweise:

  • CCD- oder CMOS-Kamera
  • Farb-Sensor oder Mono-Sensor
  • Geregelte Kühlung des Sensors   (DSLR oder Dedizierte Astro-Kamera oder WebCam oder ?)
  • Belichtungszeit
  • Lichtverschmutzung am Beobachtungsort
  • Fokussierung
  • Nachführung (z.B. keine, nur Tracking, Autoguiding,…)
  • Filter

Dieser Artikel beschäftigt sich schwerpunktmäßig mit den Belichtungszeiten bei DSO-Aufnahmen und der Frage, wie dafür das Signal-Rausch-Verhältnis verbessert werden kann.

Wie lange sollten die einzelnen Sub-Exposures belichtet werden?

Wir haben ja gelernt, dass wir sehr lange Belichtungszeiten für die so lichtschwachen Objekte (DSOs) der Astrofotografie brauchen.

Lange Belichtungszeit heisst hier aber nicht notwendig, dass ein einzelnes Foto lange belichtet werden muss, sondern wir können auch viele Einzelaufnahmen (Sub Exposures) machen und die dann aufaddieren (Stacken). Es kommt auf die Summe der Einzelbelichtungen an. Man sagt, die gesammte “Integrationszeit” ist das Wesentliche.

Diese Integrationszeit sollte in der Tat lang sein; d.h. mindestens 1 Stunde, besser 2 Stunden, besser 4 Stunden… Die Gesamtzeit (Integrationszeit) kann man ja Planen für die Bobachtungsnacht. Nehmen wir mal an, wir hätten 2 Stunden (also 120 Minuten) angesetzt. Die Frage wäre dann ja, wie lang man jedes Einzelfoto (Sub Exposure) belichten soll. Also ist 120 x 60 sec gut oder 720 x 10 sec oder 24 x 5 min oder… besser?

Quellen

Auf der “Practical Astronomy Show” am 9. März 2019 hat Dr. Robin Glover (SharpCap) dazu einen interessanten Vortrag gehalten. Der Titel des Vortrags war “Deep Sky CMOS Imaging” und er ist als Youtube-Video verfügbar. Youtube:

Chris van den Berge hat auf DSLR Astrophotography gepostet: http://dslr-astrophotography.com/long-exposures-multiple-shorter-exposures/

Ich versuche in diesem Artikel, den Vortrag von Robin Glover nachzuvollziehen und dann zu sehen, wie ich die Schlussfolgerungen auf meine persönliche Situation anpassen kann/muss. Aus diesem Grund bin ich etwas formaler und detaillierter in den Formeln…

Was ist beeinflussbar?

Wenn vieles als gegeben hingenommen werden muss, wie z.B. der Standort (und damit die Lichtverschmutzung), die Kamera (und damit das Kamera-Rauschen, die Kühlungsmöglichkeiten, die Pixelgröße etc.), die nutzbare Zeit am Abend (und damit die Gesamtbelichtungszeit), die Nachführung (keine, Tracking, Guiding,…),  dann bleibt als Einflussmöglichkeit im wesentlichen die Entscheidung für die Belichtungszeit der Einzelfotos (Sub Exposures), die zum Gesamtbild zusammengeführt werden sollen (“Stacking”).

Wir gehen die Thematik in folgenden Schritten an

  1. Grundlagen der digitalen Astrofotografie
  2. Was beeinflusst die Qualität von Einzelfotos (Sub Exposures) ?
  3. Wie ergibt sich die Qualität des Summenfotos (gestacktes Bild) ?
  4. Welche Schlussfolgerungen/Empfehlungen ergeben sich daraus für den “Standard Observer”?
  5. Welche Schlussfolgerungen/Empfehlungen ergeben sich daraus für meine persönlich präferierten Beobachtungsorte?

Grundlagen: Signal und Rauschen

Der digitale Sensor – schematisch

Abbildung 1: Elektronische Bauelemente für digitales Fotografieren (Github: dslr.svg)

dslr.svg

Signalstärke

Auf einem Astrofoto kommen verschiedene Signale zusammen:

  • Ein Signal vom eigentlichen Beobachtungsobjekt (Nutz-Signal)
  • Ein zusätzliches Signal vom Himmelshintergrund (Light Pollution)
  • Ein zusätzliches Signal durch den Dunkelstrom (abhängig von der Sensor-Temperatur)

Die Signalstärke ist eigentlich:  Anzahl Photonen pro Pixel pro Sekunde. Das menschliche Auge speichert die Lichtteilchen nicht, der Helligkeitseindruck (die physiologische Signalstärke) wird durch die Anzahl Lichtteilchen pro Zeiteinheit bestimmt. Das Auge hat dabei eine quasi konstante “Belichtungszeit” von so etwa 1/18 Sekunde.

Der Sensor in unserer Kamera hat im Gegensatz zum menschlichen Auge ein beträchtliches Speichervermögen. Daher ist die Belichtungszeit relevant. Die Photonen schlagen Elektronen aus dem Sensormaterial heraus und diese werden über die Belichtungszeit gesammelt. Die gesammelten Elektronen werden dann gemessen und von einem Analog to Digital Converter (ADC) in eine Zahl umgewandelt (ADU). Die Quantum Efficiency (QE) ist dabei der Prozentsatz von Photonen, der ein Elektron auslöst.

Die Signalstärke im Sensor ergibt sich aus der Signalrate und der Belichtungszeit. Wenn wir die Signalrate messen in  Anzahl Elektronen pro Pixel pro Sekunde (e-/Pixel/s), ergibt sich die Signalstärke als:

Signalstärke = Signalrate * Belichtungszeit

Jedes Signal ist mit einem Rauschen behaftet. Die Signale vom Himmelshintergrund und vom Dunkelstrom können wir abziehen; es bleibt das Rauschen von Himmelshintergrund und Dunkelstrom; diese können wir durch Stacking der Light-Frames und Dark-Frames (s.u.) bekämpfen.

Messen von Signal und Rauschen

Ein mit einem digitalen Sensor gemachtes Bild besteht aus vielen Pixeln und jeder Pixel hat einen Helligkeitswert (ADU), den der ADC für das jeweilige Pixel ausgegeben hat.

Als Signal kann man nun den Mittelwert und als Rauschen die Standardabweichung dieser ADU-Werte nehmen. Dies können wir z.B. mit der Software Fitswork folgendermassen messen:

  1. Wir öffnen das betreffende Foto in Fitswork
  2. Wir markieren den zu messenden Bereich durch ziehen mit der rechten Maustaste (bzw. wir messen das ganze Bild)
  3. Rechtsklick öffnet ein Kontextmenü, wo wir “Statistik für den Bereich” auswählen…

In der Astrofotografie definiert man nun das Signal to Noise Ratio (SNR) einfach als:

\(SNR = \Large \frac{Average(ADUs)}{Standard Deviation(ADUs)}\)

Rauschen

Es gibt mehrere Beiträge für Rauschen in den Light-Frames (Einzelfotos, Sub Exposures), die sich pro Einzelfoto in bestimmter Art addieren (s. unten):

  • Kamera-extern hat man
    • Rauschen im eigentlichen, externen Signal vom Beobachtungsobjekt das sog. Shot Noise (auch Photonenrauschen oder Schrotrauschen genannt)
    • Rauschen im Signal des Himmelshintergrunds (Lichtverschmutzung etc.)
  • Kamera-intern hat man (sog. Kamera-Rauschen):
    • Rauschen durch den Auslese-Vorgang (sog. Read Noise – nur Rauschen, kein Signal)
    • Rauschen durch Wärme im Sensor (sog. Thermisches Rauschen, also Rauschen im Dunkelstrom-Signal, deshalb auch Dunkelstrom-Rauschen genannt)
    • Quantisierungsrauschen durch den ADC (dieses ist so gering. dass wir es in dieser Betrachtung komplett ignorieren)

Rauschen bringt feine Details im Bild zum Verschwinden. Deshalb wollen wir das Rauschen insgesamt reduzieren.

Das Rauschen ist meistens zufällig (stochastisch) und kann also dadurch bekämpft werden, dass man viele Aufnahmen macht und die dann mittelt (siehe: Stacken).

Ausser in den Einzelfotos (Light Frames) hat man auch noch Rauschen:

  • Rauschen in den Dark-Frames
  • Rauschen in den Flat-Frames

Dieses betrachten wir zunächst ebenfalls nicht.

Zusammenfassung (Executive Summary)

Da die technischen Zusammenhänge doch sehr komplex und vielschichtig sind, hier die “wichtigsten” Erkenntnisse vorweg (für einen gegebenen Standort mit gegebener Lichtverschmutzung):

  • Die Gesamtbelichtungszeit (Integrationszeit) muss lang sein (z.B. 2 Stunden oder mehr)
  • Die Belichtungszeit eines Einzelfotos muss immer so gewählt werden, dass im Histogramm weder links noch rechts etwas abgeschnitten (“geclippt”) wird
  • Die Einzelbelichtungszeit muss nur so groß sein, dass das Einzelbild “hintergrundlimitiert” ist; d.h.
    • Unter lichtverschmutztem Himmel die Einzelfotos (Subs) kurz belichten (z.B. 30 sec), dann aber ganz viele machen (und man braucht vielleicht garkein Autoguiding)
    • Unter dunklerem Himmel können die Einzelfotos schon länger belichtet werden (z.B. 5 min), wenn das Guiding (oder: Autoguiding) das hergibt
  • Ruhig ISO bzw. Gain hochdrehen, dann wird das Ausleserauschen geringer (bei CMOS Sensoren) – aber der Dynamik-Umfang wird etwas sinken
  • Das thermische Rauschen ist häufig viel kleiner als Stör-Signale aus anderen Quellen. Deshalb ist extreme Kühlung manchmal garnicht so wichtig.

Folgende Rausch-Anteile werden wir im Folgenden ignorieren:

  • Das thermische Rauschen im Light-Frame: Durch ausreichende Kühlung des Sensors werden wir es auf 10% der Lichtverschmutzung begrenzen
  • Das Dunkelstrom-Rauschen im Dark-Frame: Wird reduziert durch das Stacken vieler Dark-Frames zu einem Masterdark

Die verbleibenden Rauschanteile wollen wir durch geeignete Wahl der Belichtungszeiten soweit reduzieren, dass sie unterhalb einer persönlichen Qualitätsgrenze liegen. Dabei werden wir die Größe der Lichtverschmutzung als Massstab nehmen.

  • Das Ausleserauschen (Read Noise) wird irrelevant, wenn wir die Subs so lange belichten, das sie quasi “hintergrundlimitiert” werden; soll heissen dass im gestackten Bild das Ausleserauschen maximal 5% der Lichtverschmutzung ausmacht.
  • Das  “Shot Noise” (Photonen-Rauschen) wird reduziert durch das Stacken vieler Light-Frames

Was bedeutet “hintergrundlimitiert” ?

Mit “Hintergrund” meint man die Himmelshelligkeit (Lichtverschmutzung,  Airglow etc.). Unter “limitiert” durch den Hintergrund meint man, dass man nicht länger belichten sollte da bei längerer Belichtung die Lichtverschmutzung dominieren würde.  Bleibt man knapp unter dieser Grenze so sind die anderen Rausch-Signale (Auslese-Rauschen und thermisches Rauschen) deutlich kleiner sind als das Signal vom Himmelshintergrund und sie können damit vernachlässigt werden. Effektiv ergibt also der Himmelshintergrund das Limit für die Belichtungszeit.

Wenn man sich nach der “optimalen” Belichtungszeit für die Subs fragt, reicht es, wenn man gerade so lange belichtet, dass die Subs hintergrundlimitiert sind. Dann wird durch noch längere Belichtungszeiten das Signal-Rausch-Verhhältnis im Stack (Summenbild) nicht mehr verbessert.

Signalkomponenten im Einzelfoto

Wir haben folgende Signalkomponeten in jedem Einzelfoto (Sub Exposure):

  • Signal vom eigentlichen Himmelsobjekt (ObjektSignal)
  • Signal vom Himmelshintergrund (LightPollutionSignal)
  • Signal vom Dunkelstrom

Wie addieren sich die Signalkomponenten im Einzelfoto?

Unahhängige Signale, die über die Zeit prinzipiell gleich bleiben, addieren sich “normal”.

\((1) \hspace{1 em} S_{1+2} =  S_1 + S_2 \)

Addieren wir alle Signale, die wir in unserem Einzelfotohaben kommen wir zu einem Gesamtsignal (ImageSignal) von:

\((2) \hspace{1 em} ImageSignal = ObjektSignal + LightPollutionSignal + DunkelstromSignal \)

Signal vom Himmelsobjekt

Das Himmelsobjekt, welches wir fotografieren, sendet einen Strom von Photonen, die über unsere Optik auf den Pixeln des Kamera-Sensors landen und dort als Elektronen über die Dauer unserer Belichtungszeit gesammelt werden. Durch die Ausleseelektronik der Kamera erhalten wir dann pro Pixel einen Zahlenwert für die Helligkeit.

\((3) \hspace{1 em} ObjektSignal = ObjektSignalRate * Belichtungszeit \)

Je nach anvisiertem Objekt kann die “ObjektSignalRate” ganz unterschiedlich sein. Beispiel: Wieviel Photonen fallen vom Andromedanebel pro Sekunde auf ein Pixel meiner Kamera? Vermutlich könnte man aus der Flächenhelligkeit eines Objekts diese “ObjektSignalRate” ermitteln – ähnlich wie im nächsten Abschnitt mit der Lichtverschmutzung…

Signal vom Himmelshintergrund

Die Helligkeit des Himmelshintergrunds hängt von der Lichtverschmutzung am Beobachtungsort ab. Hinzu kämen der Mond, möglicherweise Airglow u.a.
Die Signalrate, gemessen in Anzahl Elektronen per Pixel per Sekunde, hängt zusätzlich von der Optik (Öffnungsverhältnis) und dem Sensor (Mono/Colour, Pixelgröße, Quanteneffizienz) ab.

Wir definieren deshalb einen “Standard-Beobachter” (mit Standard Equipment), um zu vergleichbaren Zahlen zu kommen.

Der Standard-Beobacher sei definiert durch:

  • Sensor: CMOS, monochrom, 50% QE, Pixelgröße 3,75µ, Temperatur 25 Grad Celsius
  • Öffnungsverhältnis: f/6
  • Lichtverschmutzung:  Bortle 5
  • Gesamtbelichtungszeit: 60 Minuten

Die “LightPollutionRate” können wir mit dem “Sky Background Calculator” ermitteln. Link: https://tools.sharpcap.co.uk

Der Kniff dabei ist, die Himmelshelligkeit von Magnituden pro Quadratbogensekunde umzurechnen in Candela pro Quadratmeter (cd/m²). Dann haben wir einfache lineare Zusammenhänge. Die Umrechnung in cd/m² habe ich in meinem Blog-Artikel über SI-Einheiten beschrieben.

Tabelle 1: Signalrate aus Lichtverschmutzung in e- / Pixel /Sekunde (am 24.5.2021 der o.g. Website entnommen)

Bortle 9
16.0 mag
Inner City
Bortle 8
18.0 mag
City Sky
Bortle 7
18.3 mag
Urban
Bortle 6
18.8 mag
Bright Suburban
Bortle 5
19.8 mag
Suburban
Bortle 4
20.9 mag
Rural/Suburban
Bortle 3
21.4 mag
Rural
Bortle 2
21.6 mag
typical dark
Bortle 1
21.85 mag
Excellent Dark
f/4 175,25 27,78 21,07 13,29 5,29 1,92 1,21 1,01 0,80
f/5 112,16 17,78 13,48 8,51 3,39 1,23 0,78 0,65 0,51
f/6 77,89 12,34 9,36 5,91 2,35 0,85 0,54 0,45 0,36
f/7 57,23 9,07 6,88 4,34 1,73 0,63 0,41 0,33 0,26
f/10 28,04 4,44 3,37 2,13 0,85 0,31 0,19 0,16 0,13

Dies sind Daten für einen Mono-Sensor mit 50% Quantum Efficiency und 3,75μ Pixelgröße (für den sog.  Standard-Observer).
Für einen Colour-Sensor sind diese Zahlen durch 3 zu dividieren.

Unser Standard-Observer hat nach Tabelle 1 also eine Lichtverschmutzung von:

\((4) \hspace{1 em} LightPollutionRate = 2.35 \space Elektronen \space pro \space Pixel \space pro \space Sekunde \)

Das am Sensor gemessene Signal steigt mit der Belichtungszeit:

\((5) \hspace{1 em} LightPollutionSignal = 2.35 \cdot Belichtungszeit \)

Signal vom Dunkelstrom

Das Signal, was der Sensor ohne einkommende Photonen macht, – also “im Dunklen” – kann man sich in einem Dark-Frame betrachten. Darauf werden Hot Pixel und evtl. ein Amp Glow zu sehen sein…

Rauschkomponenten im Einzelfoto

Wir haben folgende Rauschkomponeten in jedem Einzelfoto (Sub Exposure):

  • Rauschen im Dunkelstrom (ThermalNoise)
  • Ausleserauschen (ReadNoise)
  • Schrot-Rauschen (ShotNoise)
  • Rauschen in der Lichtverschmutzung (SkyNoise)

Wie addieren sich Rauschkomponenten im Einzelfoto?

Unahhängige Rausch-Signale, die sich über die Zeit zufällig (stochastisch) verhalten, addieren sich mit einer “Quadratwurzel” ….    R1 + R2   = Wurzel aus (R1 Quadrat + R2 Quadrat)

\((6) \hspace{1 em} R_{1+2} =  \sqrt{ R_1^2 + R_2^2} \)

Wenn wir zwei zufällige und unabhängige Rauschsignale  R1=4 und R2=3 addieren, so erhalten wir R1 + R2 = 5
Das bedeutet, dass bei der Addition stark unterschiedlicher Rauschsignale man das schwächere “praktisch” vernachlässigen kann. Z.B. mit R1 = 10 und R2 =1 ergibt sich:

\((7) \hspace{1 em} R_{1+2} = \sqrt{ 10^2 + 1^2} = \sqrt{101} =  10,05 \\\ \)

Das Gesamtrauschen in einem Einzelfoto wäre also:

\((8) \hspace{1 em} ImageNoise = \sqrt{ThermalNoise^2 + ReadNoise^2 + ShotNoise^2 + SkyNoise^2} \)

Wir werden sehen, dass wir (unter bestimmten Bedingungen) das Thermische rauschen und das SkyNoise vernachlässigen können.

Thermal Noise (Dunkelstrom-Rauschen)

Im Sensor entstehen Elektronen nicht nur durch die ankommenden Photonen, sondern auch durch Wärme in der Kamera. Das nennt man “Dunkelstrom”. Dieser Dunkelstrom macht ein Dunkelstrom-Signal und ein Dunkelstrom-Rauschen (Thermal Noise). Das Dunkelstrom-Signal kann man durch Dark-Frames vom vom Nutzsignal (Light Frame) abziehen; das Dunkelstrom-Rauschen bleibt aber erhalten. Es ist von der Temperatur und der Dauer der Belichtung abhängig.

Dunkelstrom-Rauschen (Thermal Noise) verdoppelt sich ungefähr bei Temperaturerhöhung um 6,5 Grad Celsius.

Je nach Sensor ergeben sich unterschiedliche Kurven für dieses Thermal Noise (Copyright Dr. Robin Glover):

Abbildung 2: Dunkelstrom-Rauschen bei verschiedenen Temperaturen (Google Archiv: RobinGlover-01.jpg)

RobinGlover-01.jpg

Typisch für moderne CMOS-Sensoren wie Sony 294C sind 0,2 Elektronen pro Sekunde pro Pixel bei einer Sensor-Temperatur von 25 Grad Celsius. Wenn man diese Kurven sieht, erkennt man, dass ein Herunterkühlen von 25 Grad auf 15 Grad völlig ausreicht, um das thermische Rauschen bedeutungslos (von 0,2 auf 0,1 e/sec) zu machen.

Bekämpfung: Das thermische Rauschen bekämpfen wir durch Kühlung des Sensors.  Robin Glover empfiehlt, das thermische Rauschen auf 10% des Signals der Lichtverschmutzung zu limitieren. Bei besonders geringer Lichtverschmutzung wäre also eine entsprechende leichte Kühlung notwendig. Welche Signalstärke durch Lichtverschmutzung entsteht, ist unten beschrieben.

Erforderliche Kühlung

Um das “Thermal Noise” (das Dunkelstromrauschen) ignorieren zu könnne, wollen wir diese auf 10% der LightPollutionRate limitieren. Dazu müssen wir also wissen, wie stark die “LightPollutionRate” ist. Die Himmelshelligkeit an einen bestimmten Beobachtungsort messen wir mit dem Sky Quality Meter (SQM) in Magnituden pro Quadrat-Bogensekunde. Je nach Teleskop und Sensor ergibt sich daraus die “Light Pollution Rate” (in Elektronen pro Pixel pro Sekunde).

Erforderliche Kühlung beim Standard Observer

  • Light Pollution Rate = 2,35 e- /Pixel / s
  • Thermal Noise Limit (10%) = 0,235 e- /Pixel /s
  • Sensor: IMX294
  • Erforderliche Sensor Tempratur: 17-18 Grad Celsius

Read Noise (Auslese-Rauschen)

Durch den Vorgang des Auslesen der Pixel-Informationen aus dem Sensor ensteht auch ein zusätzliches Rauschen, das sog.  Auslese-Rauschen.

Wenn man statt ein paar wenigen Aufnahmen mit längerer Belichtung alternativ viele Aufnahmen mit kürzerer Belichtung macht, hat man auf jeder Einzelaufnahme das Ausleserauschen und das würde also bei “vielen kurzen Belichtungen” viel stärker ins Gewicht fallen. Allerdings ist das Auslese-Rauschen bei modernen CMOS-Kameras sehr gering, wenn man den Gain etwas hoch stellt, was die Dynamik evtl. herabsetzt.

Read Noise bei unterschiedlichem Gain bzw. ISO

Das Aufdrehen des “Gain” bei CMOS-Sensoren ist einfach eine Verstärkung aller Bildsignale.

Das Ausleserauschen (Read Noise) wird durch den Gain allerdings nicht verstärkt, da diese Verstärkung erst nach der Belichtung des Sensors stattfindet (wo genau entsteht das Ausleserauschen?).

Wichtige Kenngrößen des Sensors (Sony IMX294) sind also:

  • Ausleserauschen (bekommen wir durch Gain 120 auf unter 2.0 e/pix/sec)
  • Thermisches Rauschen (bei Kühlung auf -10 Grad praktisch Null)
  • Quantum Efficiency bei 75%

Abbildung 3: Read Noise in Abhängikeit vom Gain bei der ZWO ASI294MC Pro  (Google Archiv: RobinGlover-02.jpg)

RobinGlover-02.jpg

Bekämpfung des Ausleserauschens

  • Das Auslese-Rauschen können wir bei CMOS-Kameras bekämpfen durch Aufdrehen des Gains bis zu dem Punkt, wo das Ausleserauschen stark abfällt (Gain 120 im obigen Beispiel).
  • Andererseits ist das Ausleserauschen ja unabhängig von allen anderen Einstellungen und fällt eben genau einmal pro Einzelfoto an. Bei gegebener Gesamtbelichtungszeit sollten wir also mit möglicht wenigen Einzelfotos (Sub Exposures) auskommen. Die Belichtungszeit der Subs also soweit hochdrehen, bis “Hintergrundlimitierung” (s. Lichtverschmutzung unten) erreicht ist.

Schlussfolgerung für das Ausleserauschen

Das Ausleserauschen unseres Sensors pro Einzelbild ist ein unvermeidlicher Einflussfaktor; im Beispiel der ZWO ASI 294MC Pro:
R = 1,5 e-/pixel/sec

Shot Noise (Schrotrauschen)

Auch im eigentlichen Nutz-Signal haben wir ja ein Rauschen, das sog. “Shot Noise”  (im Deutschen auch “Schrotrauschen” genannt) – benannt nach Walter Schottky (1886-1976). Das Shot Noise haben wir weil die Photonen diskrete Teilchen sind, deren Ankommensrate auf einem Pixel zufällig ist und die man mit einer Poisson-Verteilung beschreiben kann.

Wenn wir länger belichten, kommen mehr Photonen auf den Sensor, wenn wir kürzer belichten, kommen weniger Photonen auf den Sensor. Bei einem schwächeren Signal ist das Shot Noise im Verhältnis zum Signal größer (Poisson-Verteilung). Umgekehrt: je länger wir belichten, desto geringer wird das Shot Noise im Verrhältnis zum Signal.

Shot Noise als Funktion des Signals

Das ShotNoise hängt von der Stärke des ObjektSignals ab, welches seinerseits durch die Helligkeit des Objekts und die Dauer der Belichtung gegeben ist.

\((9) \hspace{1 em}  ShotNoise =  \sqrt{ObjektSignal}  \)

Wobei die Stärke des ObjektSignals einfach die Anzahl Elektronen pro Pixel ist; was mit der Belichtungszeit ansteigen würde.

Siehe auch: GeoGebra

Abbildung 4: How Shot Noise varies with Brightness  (GitHub: Robin Glover Shot Noise 01.svg)

Robin Glover Shot Noise 01.svg

Shot Noise in Prozent des Signals

Absolut gesehen, steigt das Shot Noise mit der Signalstärke, also der Belichtungszeit.
Aber relativ zum Signal wird das Shot Noise (prozentual) immer geringer:

\((10) \hspace{1 em}  \Large  \frac{Shot Noise}{Signalstärke} = \Large \frac{ \sqrt{Signalstärke} }{Signalstärke} = \Large \frac{1}{\sqrt{Signalstärke}}  \)

Wobei auch hier die Signalstärke einfach die Anzahl Elektronen pro Pixel ist; was mit der Belichtungszeit ansteigen würde.

Siehe auch: GeoGebra

Abbildung 5: Shot Noise as a Percentage of Brightness (GitHub: Robin Glover Shot Noise 02.svg)

Robin Glover Shot Noise 02.svg

Shot Noise und Lichtverschmutzung

Das Shot Noise lässt die schwächsten (dunkelsten) Stellen im Bild quasi verschwinden. Das dunkelste im Bild ist aber das Signal der Lichtverschmutzung. Wir sollten das Shot Noise also in Relation zum Signal aus Lichtverschmutzung sehen. Unser “Standard Observer” hat (Gleichung (3)) eine Lichtverschmutzung von 2.35 Elektronen pro Pixel pro Sekunde.

In Abhängigkeit von der Belichtungszeit der Einzelaufnahme ergibt sich:

  • ShotNoise = Wurzel aus Nutzsignal = Wurzel aus (NutzsignalRate * Belichtungszeit)     (nach Gleichung (9) und (3))
  • LightPollutionSignal = 2.35 * Belichtungszeit                                                                       (nach Gleichung (5))

und damit

\( ShotNoisePercent = 100 \cdot \frac{ShotNoise}{LightPollutionSignal} = 100 \cdot \frac{\sqrt{Nutzsignal}}{2.35 \cdot Belichtungszeit} = 100 \cdot \frac{\sqrt{NutzsignalRate \cdot Belichtungszeit}}{2.35 \cdot Belichtungszeit} \)

und schließlich:

\( ShotNoisePercent = 100 \cdot \frac{\sqrt{NutzsignalRate}}{2.35 \cdot \sqrt{Belichtungszeit}} \)

Das ShotNoise selber hängt ja von der Stärke des Nutzsignals ab. Bei einer Nutzsignal-Rate von 243,36 Elektronen pro Pixel und Sekunde (243,36 = 15,62) kommen wir auf das gleiche Bild wie in Robin Glovers Präsentation.

Siehe auch: GeoGebra

Abbildung 6: Shot Noise in % der Lichtverschmutzung des Standard Observers (GitHub: Robin Glover Shot Noise 03.svg)

Robin Glover Shot Noise 02.svd

Dieses Bild sagt ja “Einzelbild länger belichten, ergibt weniger Rauschen”. Aber wenn wir das Stacken (s.u.) mit berücksichtigen, wird die Sache etwas anders.

Sky Noise (Rauschen in Lichtverschmutzung)

Das Rauschen in der Lichtverschmutzung ignorieren wir. Wohl aber ist die Stärke des Signals der Lichtverschmutzung ein wichtiger Massstab für die anderen Faktoren.

Summe des Rauschens im Einzelbild

Wenn wir, wie gesagt die Größe des Dunkelstrom-Rauschens (Thermal Noise) und das Rauschen in der Lichtverschmutzung (Sky Noise) vernachlässigen, da sie klein gegenüber den anderen Rauschkomponenten sind, bleibt also das Gesamt-Rauschsignal im Einzelbild, das “SingleFrameImageNoise” als Summe aus ReadNoise und ShotNoise:

\((11) \hspace{1 em}  SingleFrameImageNoise = \sqrt{ReadNoise^2 + ShotNoise^2} \)

Auch dieses Gesamtrauschen im Einzelbild wollen wir in Relation zum Signal aus Lichtverschmutzung (beim Standard Observer) sehen.

\( LightPollutionSignal = LightPollutionRate \cdot Belichtungszeit = 2.6 \cdot t \)

Dabei sehen wir den Einfluss des ReadNoise (Ausleserauschen) auf das Gesamtrauschen, nur bei kürzeren Belichtungszeiten. Bei längeren Belichtungszeiten verschwindet der Einfluss des ReadNoise ganz schnell. Um das in der Grafik sichtbar zu machen, müssen wir einen ganz anderen Massstab auf der x-Achse (Belichtungszeit) wählen.

Das ShotNoise ist \( ShotNoise = \sqrt{SignalRate} \cdot \sqrt{t} \)

Um das gleiche Bild wie in Robin Glovers Vortrag zu kommen, nehmen wir: SignalRate = 2 Elektronen per Pixel per Sekunde

Das ReadNoise hängt von der verwendeten Kamera ab. Wir nehmen für unsere Grafik mal ein paar typische Werte an:

  • typische CCD-Mono-Kamera habe ein Ausleserauschen (ReadNoise) von 7 Elektronen pro Pixel pro Sekunde
  • typische CMOS-Kamera habe ein Ausleserauschen (ReadNoise) von 2.5 Elektronen pro Pixel pro Sekunde
  • eine “ideale” Kamera ohne ReadNoise, also Null Elektronen pro Pixed pro Sekunde

Dann ist bei der typischen CCD-Mono-Kamera (R=7) und einer Belichtungszeit von t das Gesamtrauschen  im Einzelbild:

\( SingleFrameImageNoise = \sqrt{7^2 + 2 \cdot t} \)

Und als Prozent des Signals aus Lichtverschmutzung ergibt sich dann für den Standard Observer mit der CCD-Mono-Kamera:

\( ImageNoisePercent = 100 \cdot \frac{\sqrt{7^2 + 2 t}}{2.6 \cdot t} \)

Siehe auch: GeoGebra

Abbildung 7: Single Frame Noise als Prozentsatz vom Signal der Lichtverschmutzung (GitHub: Robin Glover Noise 04.svg)

Robin Glover Noise 04.svg

Stacking

In der Astrofotografie nehmen wir viele kürzer belichtete Fotos eines Objekts auf (sog. Sub Exposures oder Frames) und legen diese dann übereinander sog. Stacking, Dabei addieren sich die Signale in verschiedener Weise.

Signal und Rauschen beim Stacking

Beim Stacken von Einzelaufnahmen (Sub Exposures) verhalten sich Signal und Rauschen unterschiedlich.

Konstante Signale, bei denen sich die Signalstärke von Sub zu Sub eigentlich nicht ändert, addieren sich einfach.

\((12) \hspace{1 em} S =  S_1 + S_2 + S_3 + … \)

Rausch-Signale, die sich von Sub zu Sub zufällig (stochastisch) ändern, addieren sich mit der “Quadratwurzel”

\((13) \hspace{1 em} R =  \sqrt{ R_1^2 + R_2^2 + R_3^2 + …} \)

Mit zunehmender Anzahl Subs steigt also das Nutzsignal linear und das Rauschen “nur” mit der Quatradwurzel.

Wenn ich also n Subs mit einem Nutzsignal von S0 und einem Rauschsignal von R0 zu einem Summenbild stacke, erhalte ich ein Summenbild mit:

Nutzsignal \( S = n \cdot S_0 \)

Rauschsignal \( R = \sqrt{n \cdot R_0^2} \)

und damit eine Signal-Rauschverhältnis im Summenbild von:

\((14) \hspace{1 em}SNR = \frac{S}{R} = \frac{n \cdot S_0}{\sqrt{n \cdot R_0^2}} = \sqrt{n} \frac{S_0}{R_0} \)

Das ist die bekannte Aussage, dass bei einem Summenbild aus vier Subs das Signal-Rauschverhältnis sich verdoppelt etc.

Tabelle 2: Verbesserung des SNR durch Stacking

Spalte 1 Spalte 2 Spalte 3 Spalte 4
Anzahl Frames Multiplikator Rauschen Multiplikator Signal Multiplikator SNR
1 1,00 1 1
2 1,41 2 1,41
4 2,00 4 2,00
10 3,16 10 3,16
20 4,47 20 4,47
50 7,07 50 7,07
100 10 100 10

Wobei die Spalte 2 “Rauschen” noch detaillierter betrachtet werden muss, weil wir es mit mehren Rausch-Quellen zu tun haben, die sich addieren…

\( (15) \hspace{1 em} MultiplikatorRauschen = \sqrt{AnzahlFrames} \\  \\  \)

 

\( (16) \hspace{1 em}MultiplikatorSignal = AnzahlFrames   \\ \\ \)

 

\( (17) \hspace{1 em} MultiplikatorSNR = \frac{MultiplikatorSignal}{MultiplikatorRauschen}  = \frac{AnzahlFrames}{\sqrt{AnzahlFrames}}  = \sqrt{AnzahlFrames} \)

Effekt von Stacking auf den Speicherplatz

Andererseits nimmt bei zunehmendem Stacking (Anzahl Frames) der Speicherplatz für die Fotos auch linear zu. Beispielsweise bekomme ich eine Gesamtbelichtungszeit von 120 Minuten wenn ich 720 Fotos mit 10 Sekunden mache oder auch bei 60 Fotos mit 120 Sekunden; allerdings benötigt man in ersteren Fall 12 Mal so viel Speicher.

Die Schlußfolgerung für den Standard Observer

Wenn wir einfach einen gegebenen Ort, ein gegebenes Astro-Equipment und eine gegebene Zeit haben, was sollen wir machen?

Dafür gibt es eine Formel. Wobei wir folgende Symbole benutzen:

  • O = Object Signal Rate   in Electrons per Sekunde per Pixel  (abhängig von der Objekt-Helligkeit)
  • R  = Read Noise   (typisch bei CMOS-Sensoren: 0,2 e  pro Pixel)
  • T = Total Imaging Time
  • s = Sub Exposure Time
  • n = Number of Subs      \(  n = \frac{T}{s}  \)
  • P = Light Pollution Rate   in Electrons per Sekunde per Pixel     (typisch: 2,6 für unseren Standard Observer mit Bortle=5)

Noise im Single Frame

Wir wollen die Stärke des Rauschens im Einzelfoto ermitteln. Dafür gilt (Thermal Noise durch geeignete Kühlung vernachlässigt, SkyNoise vernachlässigt weil ganz gering):

\((18) \hspace{1 em} SingleFrameTotalNoise = \sqrt{SingleFrameReadNoise^2 + SingleFrameShotNoise^2}    \)

Das SingleFrameShotNoise hängt vom Objekt und von der Belichtungszeit ab:

\((19) \hspace{1 em}SingleFrameShotNoise = \sqrt{s \cdot O} \)

Wenn wir als Objekt einfach mal ein sehr dunkles Objekt nehmen, was eine ObjectSignalRate (O) hat, die genauso groß ist, wie die Rate der Lichtverschmutzung (P), dann ergibt sich:

\((20) \hspace{1 em}SingleFrameShotNoise = \sqrt{s \cdot P} \)

Wenn wir das oben in (18) einsetzen, erhalten wir das Gesamtrauschen im Einzelfoto (genau wie in Robin Glovers Vortrag) als:

\((21) \hspace{1 em} SingleFrameTotalNoise = \sqrt{R^2 + s \cdot P}    \)

Noise im Total Stack

Wenn wir jetzt “stacken”, haben wir (wenn wir wieder Thermal Noise und Sky Noise vernachlässigen) ein Gesamtrauschen (TotalStackNoise) von :

\((22) \hspace{1 em} TotalStackNoise = \sqrt{TotalStackReadNoise^2 + TotalStackShotNoise^2}    \)

Dabei ist das gesamte ReadNoise im gestackten BIld:

\((23) \hspace{1 em} TotalStackReadNoise = \sqrt{n \cdot R^2} \)

und das gesamte ShotNoise im gestackten Bild:

\((24) \hspace{1 em} TotalStackShotNoise = \sqrt{T \cdot O} \)

Wenn wir als Objekt einfach mal ein sehr dunkles Objekt nehmen, was eine ObjectSignalRate (O) hat, die genauso groß ist, wie die Rate der Lichtverschmutzung (P), dann ergibt sich:

\((25) \hspace{1 em} TotalStackShotNoise = \sqrt{T \cdot P} \)

Wenn wir das beides oben in (22) einsetzen, erhalten wir als Gesamtrauschen im gestackten Bild (genau wie in Robin Glovers Vortrag) als:

\((26) \hspace{1 em}TotalStackNoise = \sqrt{n \cdot R^2  + T \cdot P} \)

Wenn wir diese “trockene” Formel mal als Grafik darstellen, sehen wir besser, was da eigentlich passiert. Wir gehen von einer Gesamtbelichtungszeit von einer Stunde (3600 Sekunden) aus nehmen unseren “Standard Observer” und stellen dann die Werte für zwei Kameratypen (typische CCD mit 7.0 e Ausleserauschen und eine typische CMOS mit 2.5 e Ausleserauschen) dar:

Siehe auch: GeoGebra

Abbildung 8: Total Stack Noise in Abhängigkeit von der Einzel-Belichtungszeit

Robin Glover Noise 05.svg

 

Beim gesamten Störsignal (Rauschen) betrachten wir ja nur noch zwei Anteile: Ausleserauschen und Lichtverschmutzung.
Die Lichtverschmutzung hat an unserem Beobachtungsort eine gegebene konstante Rate. Die Lichtverschmutzung nimmt auf unseren Bildern also propotional der Belichtungszeit zu – dagegen können wir nichts machen.
Das Ausleserauschen haben wir einmal pro Einzelfoto. Also im Idealfall nur genau einmal. Wenn wir die Gesamtbelichtungszeit in mehrere Einzelfotos (Sub Exposures) aufteilen, haben wir das Ausleserauschen addiert für jedes Einzelfoto. Solange das Ausleserauschen sehr klein gegenüber er Lichtverschmutzung ist, können wir es (fast) vernachlässigen. Wenn wir zu sehr vielen Einzelfotos (d.h. sehr kurzen Belichtungszeiten) kommen wird irgendwann das Ausleserauschen relevant werden und schließlich auch deutlich mehr als die Lichtverschmutzung werden.

Wir sehen, dass sich das Total Stack Noise bei gegebener Gesamtbelichtungszeit (hier: 3600 Sekunden) jeweils einem Optimum (Minimum) annähert (im Beispiel: 96,8 bei CMOS und 97,0 bei CCD).

Die Kurven flachen sehr schnell ab, also können wir durchaus mit Sub Exposures arbeiten, die wesentlich kürzer sind und dabei das optimale (minimale) Rauschen nur ganz knapp erhöhen.

Das Minimum-Rauschen ist also für unseren Standard Observer (P=2.6) bei einer Stunde Gesamtbelichtungszeit:

\( (27) \hspace{1 em} TotalStackNoise_{min} = \sqrt{R^2 + T \cdot P} \)

Für unsere typische CMOS-Kameramit R=2.5 ergibt das:

Minimum-Rauschen CMOS = 96.8 e-/Pixel/s

Für unsere typische CCD-Kamera mit R=7 ergibt das:

Minimum-Rauschen CCD = 97.0 e-/Pixel/s

Wenn wir etwa ein 5% höheres Rauschen als das Minimum-Rauschen akzeptieren, landen wir bei Sub Exposures von: einer halben Minute bei CMOS und 3 Minuten bei CCD.

Im Beispiel sind das:

  • Standard-Beobachter CMOS 23 sec
  • Standard-Beobachter CCD 174 sec

Als tabellarische Darstellung haben wir:

Tabelle 3: Ergebnisse: Total Noise in the Stack Bortle=5

Spalte 1 Spalte 2 Spalte 3 Spalte 4 Spalte 5
Sub Exposure Length Total Stack Noise CMOS Total Stack   Noise
CCD
Total Stack Noise CMOS Total Stack Noise      CCD
[s] e/pixel/s e/pixel/s [%] [%]
1 178,5 431,0 184,4 444,3
2 143,6 312,3 148,3 322,0
5 117,7 211,3 121,6 217,8
10 107,7 164,3 111,3 169,4
23 101,6 130,0 105,0 134,0
30 100,5 123,5 103,9 127,3
60 98,7 110,9 101,9 114,3
100 97,9 105,5 101,2 108,7
174 97,4 101,9 100,7 105,0
1000 96,9 97,7 100,1 100,7
3600 96,8 97,0 100,0 100,0

Mit folgenden Annahmen

  • T = 3600 Sekunden
  • P = 2.6 e-/pixel/s
  • R CMOS = 2,5
  • R CCD = 7.0

ergibt sich Spalte 2

\( TotalStackNoiseCMOS = \sqrt{\frac{3600 \cdot R^2}{SubExposureLength} + 3600 \cdot P} \)

und Spalte 3:

\( TotalStackNoiseCCD = \sqrt{\frac{3600 \cdot R^2}{SubExposureLength} + 3600 \cdot P} \)

und Spalte 4:

Spalte 4 = Spalte 2 / Maximum von Spalte 2

und Spalte 5:

Spalte 5 = Spalte 3 / Maximum von Spalte 3

 

Optimale Sub Exposures

Die Idee ist nun, das Rauschen bei einer bestimmten (kürzeren) Belichtungszeit “s” in Relation zum erzielbaren Minimum (also ein lang belichtetes Foto) zu setzten.

Wenn man also einen bestimmten Prozentsatz zusätzlichen Rauschens im Bild akzeptieren will, kann man in der obigen Tabelle 3 für den “Standard Observer” ablesen, welche Einzelbelichtungszeiten dann im Minimum einzuhalten sind (damit das Ausleserauschen nicht zu groß wird). Beispielsweise bei 5% akzeptiertem Zusatzrauschen (also insgesamt 105%, entsprechend 1,05) hat man Einzelbelichtungszeiten von 23 bzw. 174 Sekunden.

Wir können das auch ausrechnen, indem wir unsere Formel nach s (Einzelbelichtungszeit) auflösen:

\( TotalStackNoisePercent(s) =100 \cdot \Large \frac{TotalStackNoise(s)}{TotalStackNoise(3600)} \\\\ \)

Eingesetzt ergibt das:

\( TotalStackNoisePercent(s) =100 \cdot \Large \frac{\sqrt{\frac{3600 \cdot R^2}{s} + 3600 \cdot P}}{\sqrt{R^2 + 3600 \cdot P}} \\\\ \)

Diese Gleichung lösen wir jetz nach s (Einzelbelichtungszeit) auf:

\( (TotalStackNoisePercent)^2 \cdot (R^2 + 3600 \cdot P) = \frac{3600 \cdot R^2}{s} + 3600 \cdot P \)

Wir bringen den Term mit s auf die linke Seite:

\(  \frac{3600 \cdot R^2}{s}  = (TotalStackNoisePercent)^2 \cdot (R^2 + 3600 \cdot P) – 3600 \cdot P  \)

und erhalten schließlich:

\(  s  = \frac{3600 \cdot R^2}{(TotalStackNoisePercent)^2 \cdot (R^2 + 3600 \cdot P) – 3600 \cdot P}  \)

Der Physiker in mir sagt, R (das Ausleserauschen) ist sehr klein. dann ist R2 erst recht klein und kann gegenüber 3600 * P ganz vernachlässigt werden. Wir können danach auch die 3600 herauskürzen und erhalten:

\( s = \frac{R^2}{(TotalStackNoisePercent)^2 \cdot P – P} \)

Wenn wir jetzt das TotalStackNoisePercent als “E” schreiben und P unten ausklammern, erhalten wir:

\( (28) \hspace{1 em} \Large s = \frac{1}{E^2 -1} \frac{R^2}{P}\)

Wenn wir 5% zusätzliches Rauschen akzeptieren, also E = 1,05 dann ist der Vorfaktor:

\(  \frac{1}{1,05^2 – 1} = 9,7561   \)

Bei E=5% erhalten wir die Formel:

\((29) \hspace{1 em}   S = 10 \cdot \frac{R^2}{P}   \)

Schlussfolgerungen für meine präferierten Beobachtungsorte

Meine präferierten Beobachtungsorte

An verschiedenen Orten haben wir ganz unterschiedliche Lichtverschmutzung:

  • Hamburg-Eimsbüttel: SQM 18,0 –> Bortle 8,0
  • Handeloh Aussensternwarte:  SQM 21,1 –> Bortle 3,6
  • Kiripotib, Namibia: SQM 21,9 –> Bortle 1
  • Elmshorn: SQM 20,5  –> Bortle 4,4

Meine Kamera

ZWO ASI294MC Pro

  • CMOS Colour
  • Pixelgröße: 4,63 μ
  • Quantum Efficiency: 75%
  • Ausleserauschen R = 1,5 e-/pixel/s

Quellen: https://astronomy-imaging-camera.com/product/asi294mc-pro-color

Meine Teleskope

  • Teleskop ED80/600 mit Reducer – Öffnungsverhältnis: f/6.4
  • Teleskop: APM APO 107/700 mit Reducer 0,75 – Öffnungsverhältnis: f/4,9

Meine Light Pollution Raten

An meinen Beobachtungsorten ist die Lichverschmutzung (in SQM) anders als beim angenommenen “Standard Observer” Bortle 5 (SQM=19,8 mag).
Auch habe ich andere Teleskope und andere Kameras bei mir zur Verfügung.

Tabelle 4: LightPollutioRate an meinen Standorten

Standort SQM Teleskop (f Ratio) Imager (Sensor) Imager (Pixelsize) Imager (QE) LightPollutionRate
Eimsbüttel 18,0 ED80/510 (f/6.375) Colour Canon EOS 600D (4.3μ) 41% 3,9
Eimsbüttel 18,0 ED80/510 (f/6.375) Colour ASI294MC Pro (4.63μ) 75% 8.27
Handeloh 21,1 ED80/510 (f/6.375) Colour Canon EOS 600D (4.3μ) 41% 0,41
Handeloh 21,1 ED80/510 (f/6.375) Colour ASI294MC Pro (4.63μ) 75% 0.48
Elmshorn 20,5 ED80/510 (f/6.375) Colour ASI294MC Pro (4.63μ) 75% 0,83
Kiripotib 21,9 APM APO 107/700 * 0,75 (f/4,9) Colour Canon EOS 600D (4.3μ) 41% 0,18
Kiripotib 21,9 APM APO 107/700 * 0.75 (f/4,9) Colour ASI294MC Pro (4.63μ) 75% 0,39

Diese “Light Pollution Rate” liefert also Elektronen pro Sekunde; also immer mehr (linear), je länger wir das Einzelfoto belichten.

Thermisches Rauschen

Das Thermische Rauschen können durch Kühlung des Sensors reduzieren.

Tabelle 5: Light Pollution Rate und erforderliche Kühlung für meine präferierten Beobachtungsorte

Standort SQM Teleskop (f Ratio) Imager (Sensor) Imager (Pixelsize) Imager (QE) Light Pollution Rate Thermal Noise Limit (10%) Erforderliche Sensor Temperatur
Eimsbüttel 18,0 ED80/510 (f/6.375) Canon EOS 600D (4.3μ) 41% 3,9 0,39
Eimsbüttel 18,0 ED80/510 (f/6.375) Sony IMX294 ASI294MC Pro (4.63μ) 75% 8.27 0.83 ca. +25°
Handeloh 21,1 ED80/510 (f/6.375) Canon EOS 600D (4.3μ) 41% 0,41 0,04
Handeloh 21,1 ED80/510 (f/6.375) Sony IMX294 ASI294MC Pro (4.63μ) 75% 0.48 0.05 ca. -15°
Elmshorn 20,5 ED80/510 (f/6.375) Sony IMX294 ASI294MC Pro (4.63μ) 75% 0,83 0,08 ca. -5°
Kiripotib 21,9 APM APO 107/700 * 0,75 (f/4,9) Canon EOS 600D (4.3μ) 41% 0,18 0,02
Kiripotib 21,9 APM APO 107/700 * 0.75 (f/4,9) Sony IMX294 ASI294MC Pro (4.63μ) 75% 0,39 0,04 ca. -15°

In der Spalte “Imager (QE)” haben wir die Quanten-Effizienz des Sensors angegeben (41% gilt für die unmodifizierte Cannon EOS 600D)

Die Spalte “Light Pollution Signal” wurde berechnet mit dem “Sky Background Calculator”: Link: https://tools.sharpcap.co.uk

Wie sich das Thermische Rauschen durch Kühlung reduziert, ist für jeden Sensor anders.

Die Spalte “Erforderliche Sensor Temperatur” ergibt sich aus Abbildung 2 (s.o.) für den Sensor Sony IMX294.

Mein Ausleserauschen

Das Ausleserauschen unseres Sensors pro Einzelbild ist ein unvermeidlicher Einflussfaktor; im Beispiel der ZWO ASI 294MC Pro:
R = 1,5 e-/pixel/sec

Zusammenfassung: Optimale Sub Exposures an meinen Standorten

Bei einer 60 Minuten Gesamtbelichtung habe ich ein den unterschiedlichen Standorten unterschiedliche “optimale” Belichtungszeiten für die Einzelaufname (Sub Exposure),wenn man einen persönlichen Qualitätsanspruch von 5% Zusatz-Rauschen ansetzt.

Tabelle 6: Optimale Einzel-Belichtungszeit

Standort Lichtverschmutzung SQM [mag/arcsec²] Teleskop Kamera Light Pollution Rate [e-/pixel/s] Kühlung Einzel-Belichtungszeit [s]
Eimsbüttel 18,0 f/6,375 ZWO ASI294MC Pro 8,31 +25° 3
Handeloh 21,1 f/6,375 ZWO ASI294MC Pro 0,48 -15° 45
Namibia 21,9 f/4,9 ZWO ASI294MC Pro 0,39 -15° 55

Einzelberechnungen: Optimale Sub Exposures an meinen Standorten

Im Einzelen gehen die hier aufgeführten “optiomalen” Einzel-Belichtungszeiten aus den Tabellen x-y hervor.

Optimale Belichtungszeit in Eimsbüttel (SQM 18,0, P=8,27)

Tabelle 7: Ergebnisse: Total Noise in the Stack in Eimsbüttel

Sub Exposure Length Total Stack Noise ASI294 MC Pro Total Stack Noise ASI294MC Pro
[s] e-/pixel/s [%]
1 194,6 112,8
2 183,9 106,6
2,64 181,2 105,0
5 177,2 102,7
10 174,9 101,3
20 173,7 100,7
30 173,3 100,4
100 172,9 100,1
300 172,6 100,0
1000 172,6 100,0
3600 172,55 100,0

Mit folgenden Annahmen:

  • T = 3600 Sekunden
  • P = 8.27 e-/pixel/s
  • R = 1,5 e-/pixel/s  (ASI294MC Pro, Gain=121)

Optimale Belichtungszeit in Handeloh (SQM 21,1 P=0,48)

Tabelle 8: Ergebnisse: Total Noise in the Stack in Handeloh

Sub Exposure Length Total Stack Noise ASI294MC Pro Total Stack Noise ASI294MC Pro
[s] e-/pixel/s [%]
1 99,1 238,3
2 76,0 182,7
5 57,9 139,1
10 50,4 121,1
30 44,7 107,5
45 43,7 105,0
60 43,2 103,8
120 42,4 101,9
300 41,9 100,7
1200 41,7 100,1
3600 41,60 100,0

Mit folgenden Annahmen:

  • T = 3600 Sekunden
  • P = 0.48 e-/pixel/s
  • R  = 1,5 e-/pixel/s (ASI294MC Pro, Gain=121)

Optimale Belichtungszeit in Kiripotib (SQM 21,9 P=0,39)

Tabelle 9: Ergebnisse: Total Noise in the Stack in Kiripotib

Sub Exposure Length Total Stack Noise ASI294MC Pro Total Stack Noise ASI294MC Pro
[s] e-/pixel/s [%]
1 97,5 260.0
2 73,9 196,9
5 55,0 146,6
10 47,1 125,5
30 40,9 109,1
55 39,4 105,0
60 39,2 104,6
120 38,4 102,3
300 37,8 100,9
1200 37,6 100,2
3600 37,50 100,0

Mit folgenden Annahmen:

  • T = 3600 Sekunden
  • P = 0.39 e-/pixel/s
  • R  = 1,5 e-/pixel/s (ASI294MC Pro, Gain=121)

Anhang: Lichtverschmutzung

Lichtverschmutzung im Internet

Astronomie: Checkliste für auswärtige Beobachtungen

Gehört zu: Astronomie
Siehe auch: Geräteliste, Mein Workflow

96561 Unique Visitors,  137760 Page-views

Astronomie: Checkliste für auswärtige Beobachtungen

Was muss ich ins Auto packen, wenn ich nach auswärts zur Sternwarte fahre?

Stand: 31.10.2019

Generell

  • Schlüssel zur Sternwarte
  • Astro-Kladde und Bleistift
  • Rotlicht-Taschenlampe
  • Rotlicht-Stirnlampe
  • Camping-Stuhl
  • Camping-Tisch
  • Regenhaube für das Teleskop
  • Warme Kleidung (Handschuhe, Mütze, Stiefel,…)
  • Kabeltrommel
  • Mehrfach-Steckdose
  • Gummiband

Computer

  • Windows-Laptop-Computer
  • Netzteil für Laptop-Computer
  • Maus für Laptop-Computer
  • Maus-Pad für Laptop-Computer
  • USB-Winkelstecker
  • Rotlicht-Folie, Rotlicht-Scheibe für Laptop-Display
  • Laptop-Zelt 
  • Software: PoleMaster, DualMotorFocus, ASCOM-Platform, EQMOD, All Sky Plate Solver, APT, Cartes du Ciel, PHD2 Guiding
  • Mobil-Telefon

Montierung

  • Dreibein-Stativ für HEQ5 Pro
  • Spreitz-Scheibe mit Gewindestange und zwei Muttern für HEQ5 Pro
  • Wasserwaage
  • Polkopf HEQ5 Pro
  • Gegengewicht für HEQ5 Pro
  • 12 Volt Kabel für Polkopf
  • 12 Volt Steckernetzteil
  • Synscan-Handbox für HEQ5 Pro
  • Serielles Kabel mit USB-Adapter zur Verbindung der Handbox mit dem Laptop-Computer
  • PoleMaster mit USB-Kabel

Teleskop

  • Das OTA Orion ED80/600
  • Guiding-Rohr
  • Guiding-Kamera mit ST4-Kabel und USB-Kabel zum USB-Hub
  • Flattener/Reducer mit M48-Cannon-Adapter
  • Barlow-Linse und Verlängerungshülse
  • Taukappe für Orion ED80/600
  • Motor-Fokusser
  • optional: Sonnenfilter

DSLR

  • Den Kamera-Body: Canon EOS 600DA
  • T-Ring
  • Dummy-Akku zur Spannungsversorgung
  • Spezial-Netzteil zur Spannungsversorgung
  • USB-Kabel zum Anschluss an Hub bzw. Laptop-Computer
  • Speicherkarte mit viel Platz
  • Sucherfernrohr auf Blitzschuh
  • optional: Intervallometer