Methoden zum Polar Alignment – Einnorden – Einsüden
Wenn ich eine äquatoriale (parallaktische) Montierung habe, so muss diese “Eingenordet” werden, d.h. die Stundenachse der Montierung muss parallel zur Drehachse der Erde ausgerichtet werden.
Wenn die Montierung dauernd an einem festen Platz aufgestellt ist, d.h. “stationär“, muss man das vielleicht einmal im Jahr machen und es macht nichts aus, wenn das etwas dauert und evtl. auch einige Verrenkungen erfordert. Wenn die Montierung “mobil” ist, also Tag für Tag an wechselnden Orten neu aufgestellt wird, möchte man die Einnordung möglichst in kurzer Zeit und ohne körperliche Belastungen durchführen können.
Eine weitere Frage bei der Einnordung ist die anzustrebende Genauigkeit. Dabei wäre die Frage, welche Auswirkungen eine fehlerhafte Polausrichtung auf das geplante astronomische Vorhaben hätte.
Bei rein visueller Beobachtung muss die Genauigkeit nicht besonders groß sein.
Beim Fotografieren hängt die erforderliche Genauigkeit der Poljustierung von der Art der Nachführung (nur Rektaszension, auch Deklinaktion) der Genauigkeit der Nachführung durch die Montierung, sowie von Belichtungszeit, Brennweite, Pixelgröße, Sensor-Größe etc. ab. Beispiel: Ein Fehler in der Polausrichtung um 60 Bogenminuten ergibt für ein Objekt am Himmelsäquator (Dekl.=0 Grad) ohne Autoguiding nur mit dem Tracking der äquatorialen Motierung eine maximale mittlere Drift von 60 Bogenminuten in 6 Stunden; also 10 Bogensekunden pro Minute Belichtungszeit (bei anderen Deklinationen: Cosinus).
Die Genauigkeit der Nachführung durch die Montierung (nur Tracking, nicht Autoguiding) lässt sich mit dem Guiding Assistent von PHD2 Guding sehr schön visualisieren…
Einen Überblick über verschiedene Methoden zur Polausrichtung habe ich in einem separaten Beitrag versucht. Dort habe ich auch berechnet, welche Auswirkungen eine ungenaue Polausrichtung (also wie viele Bogenminuten zeigt die Drehachse meiner Montierung neben den Himmelspol) hat.
Begonnen habe ich mein Einnorden mit dem Polfernrohr meiner Montierung und der sog. Kochab-Methode, die ich von Hartwig Lüthen bei der GvA gelernt hatte.
Meine Montierung ist “mobil” und wird praktisch ausschließlich zur Astrofotografie benuzt. Deshalb muss die Genauigkeit meiner Polausrichtung schon recht gut sein (besser als 2′) und es sollte schnell und bequem gehen. Daher habe ich als zweiten Ansatz dann die Polausrichtung mit QHY PoleMaster gemacht – was hier im Norden sehr gut ging, aber teuer war.
Die QHY PoleMaster war nicht nur recht teuer, sondern beim Verfahren zur software-gestützten Polausrichtung musste man quasi manuell Sternmuster in der Polnähe erkennen – ein richtiges Plate Solving war das nicht. Als SharpCap mit einer echten Plate-Solving-Methode zum Polar Alignment heraus kam, habe ich das ausprobiert und bin jetzt dabei geblieben. Meinen QHY PoleMaster habe ich gebraucht verkauft.
Neuerdings gibt es ein Plugin für N.I.N.A. mit dem man auch ohne ein zusätzliches Guiding-Rohr und ohne notwending einen freien Blick auf en Himmelspol zu haben sehr gutes und schnelles Polar Alignment machen kann.
Polar Alignment mit SharpCap
Polar Alignment ist ein neues Feature in SharpCap 2.9. Die Idee war inspiriert durch PhotoPolarAlign, eine Software von Themos Tsikas. Themos war so freundlich, beim Testen zu helfen und machte auch Verbesserungsvorschläge während der Entwicklung des Polar Alignment Featrures von ShapCap.
Ich verwende jetzt (Dezember 2019) die Version SharpCap Pro. Diese ist kostenpflichtig mit Eur 12,– pro Jahr. Um das kostenlose SharpCap auf das kostenpflichtige SharpCap Pro “aufzurüsten” muss man einen Lizenzschlüssel, den man nach der Bezahlung per E-Mail bekommt in SharpCap unter “Help” eingeben.
Mit der kostenlosen SharpCap-Version kann man das Polar Align “antesten” – für die Stufe “Final Step: Adjust Mount” (s.u.) ist dann aber die kostenpflichtige Lizenz erforderlich.
Wenn das Lizenz-Jahr abgelaufen ist, kann man seine Lizenz kostenpflichtig verlängern (dafür bekommt man in der Regel Freimonate) – ansonsten können die lizenzpflichtigen Features (wie Polar Alignment) nicht mehr benutzt werden.
Die kostenpflichtige Pro-Version hat ausser der Funktion “Polar Align” noch andere zusätzliche Funktionen, die für den Einen oder Anderen interessant sein könnten.
Optik mit Brennweite f=200mm –> nehme da mein Guiding-Rohr GuideScope50
Kamera mit einem Gesichtsfeld (FoV) zwischen 1 Grad und etwa 5 Grad –> meine GPCAM hat ein FoV von 1,54 x 1,16 Grad
Grobes Polar Alignment der Montierung auf plus-minus 5 Grad
Etwa 10-15 Sterne im Gesichtsfeld der Kamera zu sehen (erforderlich ist also eine freie Sicht auf die Gegend des Himmelspols)
SharpCap mit eingerichtetem PlateSolving (die Funktion “Polar Alignment” sollte sogar ohne dieses allgemeine Plate Solving gehen)
In welchen Schritten läuft das Polar Alignment mit SharpCap ab?
Schritt 0: Montierung aufstellen
Die Montierung sollte schön waagerecht aufgestellt sein, dann würde nämlich die Azimut-Schraube wirklich nur das Azimut bewegen und nicht auch noch so nebenbei die Polhöhe…
Teleskop in “Home”-Position d.h. Gegengewicht nach unten, Teleskop nach oben, Deklination 90 Grad.
Eine grobe Ausrichtung (5 Grad genau) auf den Himmelspol sollte ebenfalls schon gemacht sein.
Das für die Polausrichtung verwendete kleine Teleskop (z.B. das Guiding-Rohr) muss nicht genau parallel zum Hauptrohr ausgerichtet sein. SharpCap verwendet ja die tatsächliche Rotationsachse der Montierung.
Schritt 1: SharpCap einrichten
Da SharpCap beim Polar Alignment ja ein funktionierendes Plate Solving voraussetzt, müssen wir dafür die richtigen Einstellungen überprüfen:
In der SharpCap-Menüleiste auf: “File –> SharpCap Settings” gehen.
Dort auf den Reiter “Plate Solving”
Dort unter “Options” die “Star Detection Noise Threshold” auf 10 oder kleiner einstellen.
Zur Sicherheit könnte man das Plate Solving mit SharpCap auch einmal so, also ohne Polar Alignment, ausprobieren.
Für das Polar Alingment benutzt SharpCap einen “eingebauten” Plate-Solving-Algorithmus, für den keine Internet-Verbindung und auch kein anderes Programm oder Datenbank installiert werden muss.
In den Einstellungen (Settings) von SharpCap sollten als Erstes die Einstellungen für “Polar Alignment” überprüft werden.
Correct for Atmospheric Refraction sollte bei Vergleichen mit anderer Software ausgestellt sein, weil Vergleichsoftware so eine Einstellung meist nicht hat.
Die “Obseving Location” sollte ordentlich eingestellt sein
Wenn ich im SharpCap-Menü auf “Tools -> Polar Align” gehe, bekomme ich eine Erklärung (Introduction) . Diese Introduction sollte man ruhig mal durchlesen…
Nachdem ich das alles gelesen habe klicke ich auf die Schaltfläche “Weiter” (Next).
Schritt 4: Erstes Bild aufnehmen
Bevor SharpCap die erste Aufnahme macht, sollten wir die Belichtungszeit und den Gain so gut einstellen, dass tatsächlich 10-15 Sterne im Gesichtsfeld zu sehen sind. Im Beispiel habe ich eingestellt: 3,5 Sekunden Belichtungszeit und den “Analogue Gain” auf Maximum.
Natürlich sollte die Kamera einigermassen im Fokus sein.
Nachdem wir bei der “Introduction” auf “Next” geklickt haben startet die erste Aufnahme und das Plate Solving.
Abbildung 4: SharpCap Capture First Image (Google Archiv: SharpCap23.jpg)
Hier im “Step 1 – Capture First Image” haben wir noch die Möglichkeit, einige Parameter für das Plate Solving einzustellen. Beispielsweise Minimum und Maximum Star Width.
Die im Bild erkannten Sterne markiert SharpCap mit einem Kästchen (“detected stars”). Dabei werden mit einem gelben Kästchen die Sterne markiert, die dann zum Plate Solving verwendet (“used stars”).
Die Kreisbögen im Bild sind Deklinationskreise um den Himmelspol.
Dieser Schritt ist erfolgreich zu Ende, wenn unter Status das Wort “Working” in “Solved” umspringt.
Dann klicken wir auf die Schaltfläche “Next”.
Schritt 5: Stundenachse drehen und zweites Bild aufnehmen
Nachdem im vorigen Schritt das erste Bild erfolgreich aufgenommen und “gesolved” wurde, hatten wir dort auf die Schaltfläche “Next” geklickt und SharpCap möchte nun ein zweites Bild aufnehmen.
Aber vorher soll man die Montierung um ca. 90 Grad in der Stundenachse drehen.
SharpCap macht dann die zweite Aufnahme und davon wiederum ein Plate Solving.
Aus dem ersten und dem zweiten Foto errechnet SharpCap die Position der Drehachse der Montierung und damit wissen wir (bzw. SharpCap), wie weit wir noch weg sind vom Himmelspol (“Polar Align Error”). Danach klicken wir auf die Schaltfläche “Next”.
Schritt 6: Pol-Ausrichtung durch Drehen an den Azimut- und Polhöhen-Schrauben
Jetzt müssen wir die Montierung durch Drehen an den “Schräubchen” für Azimut und Polhöhe (Altitude) so einstellen, dass die Drehachse der Montierung (die Stundenachse) parallel zu Erdachse ausgerichtet ist.
Dabei hilft SharpCap mit einer Darstellung auf dem Bildschirm wo ein Stern mit einem gelben Pfeil gezeigt wird, der durch das Drehen an den “Schräubchen” der Montierung in das Zielkästchen auf dem Bildschirm gebracht werden muss.
Diese optische Hilfe ist quasi eine Projektion der errechneten erforderlichen Korrektur auf einen Stern im Gesichtsfeld. Wer es lieber in Zahlen hätte, kann sich auch nach den numerisch ausgeworfenen erforderlichen Korrekturen “Move Polar Axis: Left/Up” richten.
SharpCap macht dabei laufend Aufnahmen und berechnet durch Plate Solving die noch bestehende Abweichung vom Himmelspol. Ggf. müssen wir uns in mehreren Schritten der gewünschten Genauigkeit annähern.
Man kann das also nicht “remote” machen, sondern muss physisch an der Montierung stehen und einen guten Blick auf den Computer-Bildschirm haben…
Das schöne ist, dass die Genauigkeit der Polausrichtung (Abweichung vom Himmelspol) exakt ausgeworfen wird; im Beispiel unten schließlich 1 Bogenminute und 34 Bogensekunden, was mir dann bei meiner Montierung HEQ5 Pro reichte.
Wenn die Abweichung unter 2′ ist, wird das als “Good” angesehen, eine Abweichung von weniger als 1′ würde als “Excellent” bewertet.
Abbildung 6: SharpCap Polar Alignment: Fehler noch fast 10 Bogenminuten (Google Drive: SharpCap25.jpg)
Abbildung 7: Sharpcap Polar Alignment: Fehler nun weniger als 2 Bogenminuten (Google Drive: SharpCap26.jpg)
Wenn ich die Nacht über am Teleskop mit meinem Computer arbeiten (fotografieren) will, benötigt man ausser der Stromversorgung auch noch einen Schutz gegen Licht und Wetter.
Man kann zu diesem Zweck Plastikwannen verwenden, die man um 90 Grad dreht und in die man ein paar kleinere Löcher für Kabel schneidet.
Das iCap hat zwar an den Seiten schöne Löcher für die Kabel, aber für die USB-Anschlüsse sind schon Winkelstecker sinnvoll.
Und wenn die Anzahl USB-Anschlüsse am Computer knapp werden kann, ist ein kleiner USB-Hub sinnvoll.
Alternative Lösungen: Klein-Computer
Alternativ zu einem Windows-Computer direkt an der Montierung werden heute auch Klein-Computer angeboten, die man auf sein Teleskop Huckpack (“Piggyback”) nehmen kann.
Wenn ich zu einem Astro-Teleskop-Treffen fahre, muss ich sehr darauf achten, dass mein Auto kein Weißlicht produziert.
Deshalb habe ich z.B. für meine Teilnahme man Westhavelländer Astro Treffen (30.8.2014 WHAT in Gülpe) alle weissen Lampen in meinem Auto mit dieser roten Folie abgeklebt.
Weißlichter am Computer
In einer richtig dunklen Umgebung (z.B. Namibia) blenden selbst kleinere Lichter z.B. die LED links vorne an meinem Notebook-Computer. Die habe ich mit einem kleinen Stück Rotlicht-Folie abgeklebt.
Nach meinm ersten Astro-Aufenthalt in Namibia im 2017 habe ich dann noch eine Platte für den Computer-Bildschirm gebastelt: Um den ganzen Computer-Bildschirm auf Rotlicht zu bringen, habe ich mir eine Plexiglas-Scheibe in Grösse des Bildschirms (plus ein paar Millimeter) am 20.9.2017 schneiden lassen. Diese habe ich dann mit der Rotlicht-Folie “Lee Colour 027 Medium Red” beklebt.
Das hier betrachtete Qualitätskriterium ist das “Signal-Rausch-Verhältnis” (Signal to Noise Ratio = SNR). Die Qualität von Astro-Fotos wird generell von vielen Faktoren beeinflusst. Darunter sind beispielsweise:
CCD- oder CMOS-Kamera
Farb-Sensor oder Mono-Sensor
Geregelte Kühlung des Sensors (DSLR oder Dedizierte Astro-Kamera oder WebCam oder ?)
Belichtungszeit
Lichtverschmutzung am Beobachtungsort
Fokussierung
Nachführung (z.B. keine, nur Tracking, Autoguiding,…)
Filter
…
Dieser Artikel beschäftigt sich schwerpunktmäßig mit den Belichtungszeiten bei DSO-Aufnahmen und der Frage, wie dafür das Signal-Rausch-Verhältnis verbessert werden kann.
Wie lange sollten die einzelnen Sub-Exposures belichtet werden?
Wir haben ja gelernt, dass wir sehr lange Belichtungszeiten für die so lichtschwachen Objekte (DSOs) der Astrofotografie brauchen.
Lange Belichtungszeit heisst hier aber nicht notwendig, dass ein einzelnes Foto lange belichtet werden muss, sondern wir können auch viele Einzelaufnahmen (Sub Exposures) machen und die dann aufaddieren (Stacken). Es kommt auf die Summe der Einzelbelichtungen an. Man sagt, die gesammte “Integrationszeit” ist das Wesentliche.
Diese Integrationszeit sollte in der Tat lang sein; d.h. mindestens 1 Stunde, besser 2 Stunden, besser 4 Stunden… Die Gesamtzeit (Integrationszeit) kann man ja Planen für die Bobachtungsnacht. Nehmen wir mal an, wir hätten 2 Stunden (also 120 Minuten) angesetzt. Die Frage wäre dann ja, wie lang man jedes Einzelfoto (Sub Exposure) belichten soll. Also ist 120 x 60 sec gut oder 720 x 10 sec oder 24 x 5 min oder… besser?
Quellen
Auf der “Practical Astronomy Show” am 9. März 2019 hat Dr. Robin Glover (SharpCap) dazu einen interessanten Vortrag gehalten. Der Titel des Vortrags war “Deep Sky CMOS Imaging” und er ist als Youtube-Video verfügbar. Youtube:
Ich versuche in diesem Artikel, den Vortrag von Robin Glover nachzuvollziehen und dann zu sehen, wie ich die Schlussfolgerungen auf meine persönliche Situation anpassen kann/muss. Aus diesem Grund bin ich etwas formaler und detaillierter in den Formeln…
Was ist beeinflussbar?
Wenn vieles als gegeben hingenommen werden muss, wie z.B. der Standort (und damit die Lichtverschmutzung), die Kamera (und damit das Kamera-Rauschen, die Kühlungsmöglichkeiten, die Pixelgröße etc.), die nutzbare Zeit am Abend (und damit die Gesamtbelichtungszeit), die Nachführung (keine, Tracking, Guiding,…), dann bleibt als Einflussmöglichkeit im wesentlichen die Entscheidung für die Belichtungszeit der Einzelfotos (Sub Exposures), die zum Gesamtbild zusammengeführt werden sollen (“Stacking”).
Wir gehen die Thematik in folgenden Schritten an
Grundlagen der digitalen Astrofotografie
Was beeinflusst die Qualität von Einzelfotos (Sub Exposures) ?
Wie ergibt sich die Qualität des Summenfotos (gestacktes Bild) ?
Welche Schlussfolgerungen/Empfehlungen ergeben sich daraus für den “Standard Observer”?
Welche Schlussfolgerungen/Empfehlungen ergeben sich daraus für meine persönlich präferierten Beobachtungsorte?
Grundlagen: Signal und Rauschen
Der digitale Sensor – schematisch
Abbildung 1: Elektronische Bauelemente für digitales Fotografieren (Github: dslr.svg)
Signalstärke
Auf einem Astrofoto kommen verschiedene Signale zusammen:
Ein Signal vom eigentlichen Beobachtungsobjekt (Nutz-Signal)
Ein zusätzliches Signal vom Himmelshintergrund (Light Pollution)
Ein zusätzliches Signal durch den Dunkelstrom (abhängig von der Sensor-Temperatur)
Die Signalstärke ist eigentlich: Anzahl Photonen pro Pixel pro Sekunde. Das menschliche Auge speichert die Lichtteilchen nicht, der Helligkeitseindruck (die physiologische Signalstärke) wird durch die Anzahl Lichtteilchen pro Zeiteinheit bestimmt. Das Auge hat dabei eine quasi konstante “Belichtungszeit” von so etwa 1/18 Sekunde.
Der Sensor in unserer Kamera hat im Gegensatz zum menschlichen Auge ein beträchtliches Speichervermögen. Daher ist die Belichtungszeit relevant. Die Photonen schlagen Elektronen aus dem Sensormaterial heraus und diese werden über die Belichtungszeit gesammelt. Die gesammelten Elektronen werden dann gemessen und von einem Analog to Digital Converter (ADC) in eine Zahl umgewandelt (ADU). Die Quantum Efficiency (QE) ist dabei der Prozentsatz von Photonen, der ein Elektron auslöst.
Die Signalstärke im Sensor ergibt sich aus der Signalrate und der Belichtungszeit. Wenn wir die Signalrate messen in Anzahl Elektronen pro Pixel pro Sekunde (e-/Pixel/s), ergibt sich die Signalstärke als:
Signalstärke = Signalrate * Belichtungszeit
Jedes Signal ist mit einem Rauschen behaftet. Die Signale vom Himmelshintergrund und vom Dunkelstrom können wir abziehen; es bleibt das Rauschen von Himmelshintergrund und Dunkelstrom; diese können wir durch Stacking der Light-Frames und Dark-Frames (s.u.) bekämpfen.
Messen von Signal und Rauschen
Ein mit einem digitalen Sensor gemachtes Bild besteht aus vielen Pixeln und jeder Pixel hat einen Helligkeitswert (ADU), den der ADC für das jeweilige Pixel ausgegeben hat.
Als Signal kann man nun den Mittelwert und als Rauschen die Standardabweichung dieser ADU-Werte nehmen. Dies können wir z.B. mit der Software Fitswork folgendermassen messen:
Wir öffnen das betreffende Foto in Fitswork
Wir markieren den zu messenden Bereich durch ziehen mit der rechten Maustaste (bzw. wir messen das ganze Bild)
Rechtsklick öffnet ein Kontextmenü, wo wir “Statistik für den Bereich” auswählen…
In der Astrofotografie definiert man nun das Signal to Noise Ratio (SNR) einfach als:
Es gibt mehrere Beiträge für Rauschen in den Light-Frames (Einzelfotos, Sub Exposures), die sich pro Einzelfoto in bestimmter Art addieren (s. unten):
Kamera-extern hat man
Rauschen im eigentlichen, externen Signal vom Beobachtungsobjekt das sog. Shot Noise (auch Photonenrauschen oder Schrotrauschen genannt)
Rauschen im Signal des Himmelshintergrunds (Lichtverschmutzung etc.)
Kamera-intern hat man (sog. Kamera-Rauschen):
Rauschen durch den Auslese-Vorgang (sog. Read Noise – nur Rauschen, kein Signal)
Rauschen durch Wärme im Sensor (sog. Thermisches Rauschen, also Rauschen im Dunkelstrom-Signal, deshalb auch Dunkelstrom-Rauschen genannt)
Quantisierungsrauschen durch den ADC (dieses ist so gering. dass wir es in dieser Betrachtung komplett ignorieren)
Rauschen bringt feine Details im Bild zum Verschwinden. Deshalb wollen wir das Rauschen insgesamt reduzieren.
Das Rauschen ist meistens zufällig (stochastisch) und kann also dadurch bekämpft werden, dass man viele Aufnahmen macht und die dann mittelt (siehe: Stacken).
Ausser in den Einzelfotos (Light Frames) hat man auch noch Rauschen:
Rauschen in den Dark-Frames
Rauschen in den Flat-Frames
Dieses betrachten wir zunächst ebenfalls nicht.
Zusammenfassung (Executive Summary)
Da die technischen Zusammenhänge doch sehr komplex und vielschichtig sind, hier die “wichtigsten” Erkenntnisse vorweg (für einen gegebenen Standort mit gegebener Lichtverschmutzung):
Die Gesamtbelichtungszeit (Integrationszeit) muss lang sein (z.B. 2 Stunden oder mehr)
Die Belichtungszeit eines Einzelfotos muss immer so gewählt werden, dass im Histogramm weder links noch rechts etwas abgeschnitten (“geclippt”) wird
Die Einzelbelichtungszeit muss nur so groß sein, dass das Einzelbild “hintergrundlimitiert” ist; d.h.
Unter lichtverschmutztem Himmel die Einzelfotos (Subs) kurz belichten (z.B. 30 sec), dann aber ganz viele machen (und man braucht vielleicht garkein Autoguiding)
Unter dunklerem Himmel können die Einzelfotos schon länger belichtet werden (z.B. 5 min), wenn das Guiding (oder: Autoguiding) das hergibt
Ruhig ISO bzw. Gain hochdrehen, dann wird das Ausleserauschen geringer (bei CMOS Sensoren) – aber der Dynamik-Umfang wird etwas sinken
Das thermische Rauschen ist häufig viel kleiner als Stör-Signale aus anderen Quellen. Deshalb ist extreme Kühlung manchmal garnicht so wichtig.
Folgende Rausch-Anteile werden wir im Folgenden ignorieren:
Das thermische Rauschen im Light-Frame: Durch ausreichende Kühlung des Sensors werden wir es auf 10% der Lichtverschmutzung begrenzen
Das Dunkelstrom-Rauschen im Dark-Frame: Wird reduziert durch das Stacken vieler Dark-Frames zu einem Masterdark
Die verbleibenden Rauschanteile wollen wir durch geeignete Wahl der Belichtungszeiten soweit reduzieren, dass sie unterhalb einer persönlichen Qualitätsgrenze liegen. Dabei werden wir die Größe der Lichtverschmutzung als Massstab nehmen.
Das Ausleserauschen (Read Noise) wird irrelevant, wenn wir die Subs so lange belichten, das sie quasi “hintergrundlimitiert” werden; soll heissen dass im gestackten Bild das Ausleserauschen maximal 5% der Lichtverschmutzung ausmacht.
Das “Shot Noise” (Photonen-Rauschen) wird reduziert durch das Stacken vieler Light-Frames
Mit “Hintergrund” meint man die Himmelshelligkeit (Lichtverschmutzung, Airglow etc.). Unter “limitiert” durch den Hintergrund meint man, dass man nicht länger belichten sollte da bei längerer Belichtung die Lichtverschmutzung dominieren würde. Bleibt man knapp unter dieser Grenze so sind die anderen Rausch-Signale (Auslese-Rauschen und thermisches Rauschen) deutlich kleiner sind als das Signal vom Himmelshintergrund und sie können damit vernachlässigt werden. Effektiv ergibt also der Himmelshintergrund das Limit für die Belichtungszeit.
Wenn man sich nach der “optimalen” Belichtungszeit für die Subs fragt, reicht es, wenn man gerade so lange belichtet, dass die Subs hintergrundlimitiert sind. Dann wird durch noch längere Belichtungszeiten das Signal-Rausch-Verhhältnis im Stack (Summenbild) nicht mehr verbessert.
Signalkomponenten im Einzelfoto
Wir haben folgende Signalkomponeten in jedem Einzelfoto (Sub Exposure):
Signal vom eigentlichen Himmelsobjekt (ObjektSignal)
Signal vom Himmelshintergrund (LightPollutionSignal)
Signal vom Dunkelstrom
Wie addieren sich die Signalkomponenten im Einzelfoto?
Unahhängige Signale, die über die Zeit prinzipiell gleich bleiben, addieren sich “normal”.
\((1) \hspace{1 em} S_{1+2} = S_1 + S_2 \)
Addieren wir alle Signale, die wir in unserem Einzelfotohaben kommen wir zu einem Gesamtsignal (ImageSignal) von:
Das Himmelsobjekt, welches wir fotografieren, sendet einen Strom von Photonen, die über unsere Optik auf den Pixeln des Kamera-Sensors landen und dort als Elektronen über die Dauer unserer Belichtungszeit gesammelt werden. Durch die Ausleseelektronik der Kamera erhalten wir dann pro Pixel einen Zahlenwert für die Helligkeit.
Je nach anvisiertem Objekt kann die “ObjektSignalRate” ganz unterschiedlich sein. Beispiel: Wieviel Photonen fallen vom Andromedanebel pro Sekunde auf ein Pixel meiner Kamera? Vermutlich könnte man aus der Flächenhelligkeit eines Objekts diese “ObjektSignalRate” ermitteln – ähnlich wie im nächsten Abschnitt mit der Lichtverschmutzung…
Signal vom Himmelshintergrund
Die Helligkeit des Himmelshintergrunds hängt von der Lichtverschmutzung am Beobachtungsort ab. Hinzu kämen der Mond, möglicherweise Airglow u.a.
Die Signalrate, gemessen in Anzahl Elektronen per Pixel per Sekunde, hängt zusätzlich von der Optik (Öffnungsverhältnis) und dem Sensor (Mono/Colour, Pixelgröße, Quanteneffizienz) ab.
Wir definieren deshalb einen “Standard-Beobachter” (mit Standard Equipment), um zu vergleichbaren Zahlen zu kommen.
Der Standard-Beobacher sei definiert durch:
Sensor: CMOS, monochrom, 50% QE, Pixelgröße 3,75µ, Temperatur 25 Grad Celsius
Öffnungsverhältnis: f/6
Lichtverschmutzung: Bortle 5
Gesamtbelichtungszeit: 60 Minuten
Die “LightPollutionRate” können wir mit dem “Sky Background Calculator” ermitteln. Link: https://tools.sharpcap.co.uk
Der Kniff dabei ist, die Himmelshelligkeit von Magnituden pro Quadratbogensekunde umzurechnen in Candela pro Quadratmeter (cd/m²). Dann haben wir einfache lineare Zusammenhänge. Die Umrechnung in cd/m² habe ich in meinem Blog-Artikel über SI-Einheiten beschrieben.
Tabelle 1: Signalrate aus Lichtverschmutzung in e- / Pixel /Sekunde (am 24.5.2021 der o.g. Website entnommen)
Bortle 9
16.0 mag
Inner City
Bortle 8
18.0 mag
City Sky
Bortle 7
18.3 mag
Urban
Bortle 6
18.8 mag
Bright Suburban
Bortle 5 19.8 mag Suburban
Bortle 4
20.9 mag
Rural/Suburban
Bortle 3
21.4 mag
Rural
Bortle 2
21.6 mag
typical dark
Bortle 1
21.85 mag
Excellent Dark
f/4
175,25
27,78
21,07
13,29
5,29
1,92
1,21
1,01
0,80
f/5
112,16
17,78
13,48
8,51
3,39
1,23
0,78
0,65
0,51
f/6
77,89
12,34
9,36
5,91
2,35
0,85
0,54
0,45
0,36
f/7
57,23
9,07
6,88
4,34
1,73
0,63
0,41
0,33
0,26
f/10
28,04
4,44
3,37
2,13
0,85
0,31
0,19
0,16
0,13
Dies sind Daten für einen Mono-Sensor mit 50% Quantum Efficiency und 3,75μ Pixelgröße (für den sog. Standard-Observer).
Für einen Colour-Sensor sind diese Zahlen durch 3 zu dividieren.
Unser Standard-Observer hat nach Tabelle 1 also eine Lichtverschmutzung von:
\((4) \hspace{1 em} LightPollutionRate = 2.35 \space Elektronen \space pro \space Pixel \space pro \space Sekunde \)
Das am Sensor gemessene Signal steigt mit der Belichtungszeit:
Das Signal, was der Sensor ohne einkommende Photonen macht, – also “im Dunklen” – kann man sich in einem Dark-Frame betrachten. Darauf werden Hot Pixel und evtl. ein Amp Glow zu sehen sein…
Rauschkomponenten im Einzelfoto
Wir haben folgende Rauschkomponeten in jedem Einzelfoto (Sub Exposure):
Rauschen im Dunkelstrom (ThermalNoise)
Ausleserauschen (ReadNoise)
Schrot-Rauschen (ShotNoise)
Rauschen in der Lichtverschmutzung (SkyNoise)
Wie addieren sich Rauschkomponenten im Einzelfoto?
Unahhängige Rausch-Signale, die sich über die Zeit zufällig (stochastisch) verhalten, addieren sich mit einer “Quadratwurzel” …. R1 + R2 = Wurzel aus (R1 Quadrat + R2 Quadrat)
Wenn wir zwei zufällige und unabhängige Rauschsignale R1=4 und R2=3 addieren, so erhalten wir R1 + R2 = 5
Das bedeutet, dass bei der Addition stark unterschiedlicher Rauschsignale man das schwächere “praktisch” vernachlässigen kann. Z.B. mit R1 = 10 und R2 =1 ergibt sich:
Wir werden sehen, dass wir (unter bestimmten Bedingungen) das Thermische rauschen und das SkyNoise vernachlässigen können.
Thermal Noise (Dunkelstrom-Rauschen)
Im Sensor entstehen Elektronen nicht nur durch die ankommenden Photonen, sondern auch durch Wärme in der Kamera. Das nennt man “Dunkelstrom”. Dieser Dunkelstrom macht ein Dunkelstrom-Signal und ein Dunkelstrom-Rauschen (Thermal Noise). Das Dunkelstrom-Signal kann man durch Dark-Frames vom vom Nutzsignal (Light Frame) abziehen; das Dunkelstrom-Rauschen bleibt aber erhalten. Es ist von der Temperatur und der Dauer der Belichtung abhängig.
Dunkelstrom-Rauschen (Thermal Noise) verdoppelt sich ungefähr bei Temperaturerhöhung um 6,5 Grad Celsius.
Je nach Sensor ergeben sich unterschiedliche Kurven für dieses Thermal Noise (Copyright Dr. Robin Glover):
Abbildung 2: Dunkelstrom-Rauschen bei verschiedenen Temperaturen (Google Drive: RobinGlover-01.jpg)
Typisch für moderne CMOS-Sensoren wie Sony 294C sind 0,2 Elektronen pro Sekunde pro Pixel bei einer Sensor-Temperatur von 25 Grad Celsius. Wenn man diese Kurven sieht, erkennt man, dass ein Herunterkühlen von 25 Grad auf 15 Grad völlig ausreicht, um das thermische Rauschen bedeutungslos (von 0,2 auf 0,1 e–/sec) zu machen.
Bekämpfung: Das thermische Rauschen bekämpfen wir durch Kühlung des Sensors. Robin Glover empfiehlt, das thermische Rauschen auf 10% des Signals der Lichtverschmutzung zu limitieren. Bei besonders geringer Lichtverschmutzung wäre also eine entsprechende leichte Kühlung notwendig. Welche Signalstärke durch Lichtverschmutzung entsteht, ist unten beschrieben.
Erforderliche Kühlung
Um das “Thermal Noise” (das Dunkelstromrauschen) ignorieren zu könnnen, wollen wir dieses auf 10% der LightPollutionRate limitieren. Dazu müssen wir also wissen, wie stark die “LightPollutionRate” ist. Die Himmelshelligkeit an einen bestimmten Beobachtungsort messen wir mit dem Sky Quality Meter (SQM) in Magnituden pro Quadrat-Bogensekunde. Je nach Teleskop und Sensor ergibt sich daraus die “Light Pollution Rate” (in Elektronen pro Pixel pro Sekunde).
Erforderliche Kühlung beim Standard Observer
Light Pollution Rate = 2,35 e- /Pixel / s
Thermal Noise Limit (10%) = 0,235 e- /Pixel /s
Sensor: IMX294
Erforderliche Sensor Tempratur: 17-18 Grad Celsius
Read Noise (Auslese-Rauschen)
Durch den Vorgang des Auslesen der Pixel-Informationen aus dem Sensor ensteht auch ein zusätzliches Rauschen, das sog. Auslese-Rauschen.
Wenn man statt ein paar wenigen Aufnahmen mit längerer Belichtung alternativ viele Aufnahmen mit kürzerer Belichtung macht, hat man auf jeder Einzelaufnahme das Ausleserauschen und das würde also bei “vielen kurzen Belichtungen” viel stärker ins Gewicht fallen. Allerdings ist das Auslese-Rauschen bei modernen CMOS-Kameras sehr gering, wenn man den Gain etwas hoch stellt, was die Dynamik evtl. herabsetzt.
Read Noise bei unterschiedlichem Gain bzw. ISO
Das Aufdrehen des “Gain” bei CMOS-Sensoren ist einfach eine Verstärkung aller Bildsignale.
Das Ausleserauschen (Read Noise) wird durch den Gain allerdings nicht verstärkt, da diese Verstärkung erst nach der Belichtung des Sensors stattfindet (wo genau entsteht das Ausleserauschen?).
Wichtige Kenngrößen des Sensors (Sony IMX294) sind also:
Ausleserauschen (bekommen wir durch Gain 120 auf unter 2.0 e/pix/sec)
Thermisches Rauschen (bei Kühlung auf -10 Grad praktisch Null)
Quantum Efficiency bei 75%
Abbildung 3: Read Noise in Abhängikeit vom Gain bei der ZWO ASI294MC Pro (Google Drive: RobinGlover-02.jpg)
Bekämpfung des Ausleserauschens
Das Auslese-Rauschen können wir bei CMOS-Kameras bekämpfen durch Aufdrehen des Gains bis zu dem Punkt, wo das Ausleserauschen stark abfällt (Gain 120 im obigen Beispiel).
Andererseits ist das Ausleserauschen ja unabhängig von allen anderen Einstellungen und fällt eben genau einmal pro Einzelfoto an. Bei gegebener Gesamtbelichtungszeit sollten wir also mit möglicht wenigen Einzelfotos (Sub Exposures) auskommen. Die Belichtungszeit der Subs also soweit hochdrehen, bis “Hintergrundlimitierung” (s. Lichtverschmutzung unten) erreicht ist.
Schlussfolgerung für das Ausleserauschen
Das Ausleserauschen unseres Sensors pro Einzelbild ist ein unvermeidlicher Einflussfaktor; im Beispiel der ZWO ASI 294MC Pro: R = 1,5 e-/pixel/sec
Shot Noise (Schrotrauschen)
Auch im eigentlichen Nutz-Signal haben wir ja ein Rauschen, das sog. “Shot Noise” (im Deutschen auch “Schrotrauschen” genannt) – benannt nach Walter Schottky (1886-1976). Das Shot Noise haben wir weil die Photonen diskrete Teilchen sind, deren Ankommensrate auf einem Pixel zufällig ist und die man mit einer Poisson-Verteilung beschreiben kann.
Wenn wir länger belichten, kommen mehr Photonen auf den Sensor, wenn wir kürzer belichten, kommen weniger Photonen auf den Sensor. Bei einem schwächeren Signal ist das Shot Noise im Verhältnis zum Signal größer (Poisson-Verteilung). Umgekehrt: je länger wir belichten, desto geringer wird das Shot Noise im Verrhältnis zum Signal.
Shot Noise als Funktion des Signals
Das ShotNoise hängt von der Stärke des ObjektSignals ab, welches seinerseits durch die Helligkeit des Objekts und die Dauer der Belichtung gegeben ist.
Abbildung 4: How Shot Noise varies with Brightness (GitHub: Robin Glover Shot Noise 01.svg)
Shot Noise in Prozent des Signals
Absolut gesehen, steigt das Shot Noise mit der Signalstärke, also der Belichtungszeit.
Aber relativ zum Signal wird das Shot Noise (prozentual) immer geringer:
Abbildung 5: Shot Noise as a Percentage of Brightness (GitHub: Robin Glover Shot Noise 02.svg)
Shot Noise und Lichtverschmutzung
Das Shot Noise lässt die schwächsten (dunkelsten) Stellen im Bild quasi verschwinden. Das dunkelste im Bild ist aber das Signal der Lichtverschmutzung. Wir sollten das Shot Noise also in Relation zum Signal aus Lichtverschmutzung sehen. Unser “Standard Observer” hat (Gleichung (3)) eine Lichtverschmutzung von 2.35 Elektronen pro Pixel pro Sekunde.
In Abhängigkeit von der Belichtungszeit der Einzelaufnahme ergibt sich:
ShotNoise = Wurzel aus Nutzsignal = Wurzel aus (NutzsignalRate * Belichtungszeit) (nach Gleichung (9) und (3))
Das ShotNoise selber hängt ja von der Stärke des Nutzsignals ab. Bei einer Nutzsignal-Rate von 243,36 Elektronen pro Pixel und Sekunde (243,36 = 15,62) kommen wir auf das gleiche Bild wie in Robin Glovers Präsentation.
Abbildung 6: Shot Noise in % der Lichtverschmutzung des Standard Observers (GitHub: Robin Glover Shot Noise 03.svg)
Dieses Bild sagt ja “Einzelbild länger belichten, ergibt weniger Rauschen”. Aber wenn wir das Stacken (s.u.) mit berücksichtigen, wird die Sache etwas anders.
Sky Noise (Rauschen in Lichtverschmutzung)
Das Rauschen in der Lichtverschmutzung ignorieren wir. Wohl aber ist die Stärke des Signals der Lichtverschmutzung ein wichtiger Massstab für die anderen Faktoren.
Summe des Rauschens im Einzelbild
Wenn wir, wie gesagt die Größe des Dunkelstrom-Rauschens (Thermal Noise) und das Rauschen in der Lichtverschmutzung (Sky Noise) vernachlässigen, da sie klein gegenüber den anderen Rauschkomponenten sind, bleibt also das Gesamt-Rauschsignal im Einzelbild, das “SingleFrameImageNoise” als Summe aus ReadNoise und ShotNoise:
Dabei sehen wir den Einfluss des ReadNoise (Ausleserauschen) auf das Gesamtrauschen, nur bei kürzeren Belichtungszeiten. Bei längeren Belichtungszeiten verschwindet der Einfluss des ReadNoise ganz schnell. Um das in der Grafik sichtbar zu machen, müssen wir einen ganz anderen Massstab auf der x-Achse (Belichtungszeit) wählen.
Das ShotNoise ist \( ShotNoise = \sqrt{SignalRate} \cdot \sqrt{t} \)
Um das gleiche Bild wie in Robin Glovers Vortrag zu kommen, nehmen wir: SignalRate = 2 Elektronen per Pixel per Sekunde
Das ReadNoise hängt von der verwendeten Kamera ab. Wir nehmen für unsere Grafik mal ein paar typische Werte an:
typische CCD-Mono-Kamera habe ein Ausleserauschen (ReadNoise) von 7 Elektronen pro Pixel pro Sekunde
typische CMOS-Kamera habe ein Ausleserauschen (ReadNoise) von 2.5 Elektronen pro Pixel pro Sekunde
eine “ideale” Kamera ohne ReadNoise, also Null Elektronen pro Pixed pro Sekunde
Dann ist bei der typischen CCD-Mono-Kamera (R=7) und einer Belichtungszeit von t das Gesamtrauschen im Einzelbild:
Abbildung 7: Single Frame Noise als Prozentsatz vom Signal der Lichtverschmutzung (GitHub: Robin Glover Noise 04.svg)
Stacking
In der Astrofotografie nehmen wir viele kürzer belichtete Fotos eines Objekts auf (sog. Sub Exposures oder Frames) und legen diese dann übereinander sog. Stacking, Dabei addieren sich die Signale in verschiedener Weise.
Signal und Rauschen beim Stacking
Beim Stacken von Einzelaufnahmen (Sub Exposures) verhalten sich Signal und Rauschen unterschiedlich.
Konstante Signale, bei denen sich die Signalstärke von Sub zu Sub eigentlich nicht ändert, addieren sich einfach.
\((12) \hspace{1 em} S = S_1 + S_2 + S_3 + … \)
Rausch-Signale, die sich von Sub zu Sub zufällig (stochastisch) ändern, addieren sich mit der “Quadratwurzel”
Andererseits nimmt bei zunehmendem Stacking (Anzahl Frames) der Speicherplatz für die Fotos auch linear zu. Beispielsweise bekomme ich eine Gesamtbelichtungszeit von 120 Minuten wenn ich 720 Fotos mit 10 Sekunden mache oder auch bei 60 Fotos mit 120 Sekunden; allerdings benötigt man in ersteren Fall 12 Mal so viel Speicher.
Die Schlußfolgerung für den Standard Observer
Wenn wir einfach einen gegebenen Ort, ein gegebenes Astro-Equipment und eine gegebene Zeit haben, was sollen wir machen?
Dafür gibt es eine Formel. Wobei wir folgende Symbole benutzen:
O = Object Signal Rate in Electrons per Sekunde per Pixel (abhängig von der Objekt-Helligkeit)
R = Read Noise (typisch bei CMOS-Sensoren: 0,2 e pro Pixel)
T = Total Imaging Time
s = Sub Exposure Time
n = Number of Subs \( n = \frac{T}{s} \)
P = Light Pollution Rate in Electrons per Sekunde per Pixel (typisch: 2,6 für unseren Standard Observer mit Bortle=5)
Noise im Single Frame
Wir wollen die Stärke des Rauschens im Einzelfoto ermitteln. Dafür gilt (Thermal Noise durch geeignete Kühlung vernachlässigt, SkyNoise vernachlässigt weil ganz gering):
Wenn wir als Objekt einfach mal ein sehr dunkles Objekt nehmen, was eine ObjectSignalRate (O) hat, die genauso groß ist, wie die Rate der Lichtverschmutzung (P), dann ergibt sich:
Wenn wir als Objekt einfach mal ein sehr dunkles Objekt nehmen, was eine ObjectSignalRate (O) hat, die genauso groß ist, wie die Rate der Lichtverschmutzung (P), dann ergibt sich:
Wenn wir diese “trockene” Formel mal als Grafik darstellen, sehen wir besser, was da eigentlich passiert. Wir gehen von einer Gesamtbelichtungszeit von einer Stunde (3600 Sekunden) aus nehmen unseren “Standard Observer” und stellen dann die Werte für zwei Kameratypen (typische CCD mit 7.0 e Ausleserauschen und eine typische CMOS mit 2.5 e Ausleserauschen) dar:
Abbildung 8: Total Stack Noise in Abhängigkeit von der Einzel-Belichtungszeit
Beim gesamten Störsignal (Rauschen) betrachten wir ja nur noch zwei Anteile: Ausleserauschen und Lichtverschmutzung.
Die Lichtverschmutzung hat an unserem Beobachtungsort eine gegebene konstante Rate. Die Lichtverschmutzung nimmt auf unseren Bildern also propotional der Belichtungszeit zu – dagegen können wir nichts machen.
Das Ausleserauschen haben wir einmal pro Einzelfoto. Also im Idealfall nur genau einmal. Wenn wir die Gesamtbelichtungszeit in mehrere Einzelfotos (Sub Exposures) aufteilen, haben wir das Ausleserauschen addiert für jedes Einzelfoto. Solange das Ausleserauschen sehr klein gegenüber er Lichtverschmutzung ist, können wir es (fast) vernachlässigen. Wenn wir zu sehr vielen Einzelfotos (d.h. sehr kurzen Belichtungszeiten) kommen wird irgendwann das Ausleserauschen relevant werden und schließlich auch deutlich mehr als die Lichtverschmutzung werden.
Wir sehen, dass sich das Total Stack Noise bei gegebener Gesamtbelichtungszeit (hier: 3600 Sekunden) jeweils einem Optimum (Minimum) annähert (im Beispiel: 96,8 bei CMOS und 97,0 bei CCD).
Die Kurven flachen sehr schnell ab, also können wir durchaus mit Sub Exposures arbeiten, die wesentlich kürzer sind und dabei das optimale (minimale) Rauschen nur ganz knapp erhöhen.
Das Minimum-Rauschen ist also für unseren Standard Observer (P=2.6) bei einer Stunde Gesamtbelichtungszeit:
Für unsere typische CMOS-Kameramit R=2.5 ergibt das:
Minimum-Rauschen CMOS = 96.8 e-/Pixel/s
Für unsere typische CCD-Kamera mit R=7 ergibt das:
Minimum-Rauschen CCD = 97.0 e-/Pixel/s
Wenn wir etwa ein 5% höheres Rauschen als das Minimum-Rauschen akzeptieren, landen wir bei Sub Exposures von: einer halben Minute bei CMOS und 3 Minuten bei CCD.
Im Beispiel sind das:
Standard-Beobachter CMOS 23 sec
Standard-Beobachter CCD 174 sec
Als tabellarische Darstellung haben wir:
Tabelle 3: Ergebnisse: Total Noise in the Stack Bortle=5
Die Idee ist nun, das Rauschen bei einer bestimmten (kürzeren) Belichtungszeit “s” in Relation zum erzielbaren Minimum (also ein lang belichtetes Foto) zu setzten.
Wenn man also einen bestimmten Prozentsatz zusätzlichen Rauschens im Bild akzeptieren will, kann man in der obigen Tabelle 3 für den “Standard Observer” ablesen, welche Einzelbelichtungszeiten dann im Minimum einzuhalten sind (damit das Ausleserauschen nicht zu groß wird). Beispielsweise bei 5% akzeptiertem Zusatzrauschen (also insgesamt 105%, entsprechend 1,05) hat man Einzelbelichtungszeiten von 23 bzw. 174 Sekunden.
Wir können das auch ausrechnen, indem wir unsere Formel nach s (Einzelbelichtungszeit) auflösen:
Der Physiker in mir sagt, R (das Ausleserauschen) ist sehr klein. dann ist R2 erst recht klein und kann gegenüber 3600 * P ganz vernachlässigt werden. Wir können danach auch die 3600 herauskürzen und erhalten:
\( s = \frac{R^2}{(TotalStackNoisePercent)^2 \cdot P – P} \)
Wenn wir jetzt das TotalStackNoisePercent als “E” schreiben und P unten ausklammern, erhalten wir:
\( (28) \hspace{1 em} \Large s = \frac{1}{E^2 -1} \frac{R^2}{P}\)
Wenn wir 5% zusätzliches Rauschen akzeptieren, also E = 1,05 dann ist der Vorfaktor:
\( \frac{1}{1,05^2 – 1} = 9,7561 \)
Bei E=5% erhalten wir die Formel:
\((29) \hspace{1 em} S = 10 \cdot \frac{R^2}{P} \)
Schlussfolgerungen für meine präferierten Beobachtungsorte
Meine präferierten Beobachtungsorte
An verschiedenen Orten haben wir ganz unterschiedliche Lichtverschmutzung:
Teleskop ED80/600 mit Reducer – Öffnungsverhältnis: f/6.4
Teleskop: APM APO 107/700 mit Reducer 0,75 – Öffnungsverhältnis: f/4,9
Meine Light Pollution Raten
An meinen Beobachtungsorten ist die Lichverschmutzung (in SQM) anders als beim angenommenen “Standard Observer” Bortle 5 (SQM=19,8 mag).
Auch habe ich andere Teleskope und andere Kameras bei mir zur Verfügung.
In der Spalte “Imager (QE)” haben wir die Quanten-Effizienz des Sensors angegeben (41% gilt für die unmodifizierte Cannon EOS 600D)
Die Spalte “Light Pollution Signal” wurde berechnet mit dem “Sky Background Calculator”: Link: https://tools.sharpcap.co.uk
Wie sich das Thermische Rauschen durch Kühlung reduziert, ist für jeden Sensor anders.
Die Spalte “Erforderliche Sensor Temperatur” ergibt sich aus Abbildung 2 (s.o.) für den Sensor Sony IMX294.
Mein Ausleserauschen
Das Ausleserauschen unseres Sensors pro Einzelbild ist ein unvermeidlicher Einflussfaktor; im Beispiel der ZWO ASI 294MC Pro: R = 1,5 e-/pixel/sec
Zusammenfassung: Optimale Sub Exposures an meinen Standorten
Bei einer 60 Minuten Gesamtbelichtung habe ich ein den unterschiedlichen Standorten unterschiedliche “optimale” Belichtungszeiten für die Einzelaufname (Sub Exposure),wenn man einen persönlichen Qualitätsanspruch von 5% Zusatz-Rauschen ansetzt.
Tabelle 6: Optimale Einzel-Belichtungszeit
Standort
Lichtverschmutzung SQM [mag/arcsec²]
Teleskop
Kamera
Light Pollution Rate [e-/pixel/s]
Kühlung
Einzel-Belichtungszeit [s]
Eimsbüttel
18,0
f/6,375
ZWO ASI294MC Pro
8,31
+25°
3
Handeloh
21,1
f/6,375
ZWO ASI294MC Pro
0,48
-15°
45
Namibia
21,9
f/4,9
ZWO ASI294MC Pro
0,39
-15°
55
Einzelberechnungen: Optimale Sub Exposures an meinen Standorten
Im Einzelen gehen die hier aufgeführten “optiomalen” Einzel-Belichtungszeiten aus den Tabellen x-y hervor.
Optimale Belichtungszeit in Eimsbüttel (SQM 18,0, P=8,27)
Tabelle 7: Ergebnisse: Total Noise in the Stack in Eimsbüttel
Sub Exposure Length
Total Stack Noise ASI294 MC Pro
Total Stack Noise ASI294MC Pro
[s]
e-/pixel/s
[%]
1
194,6
112,8
2
183,9
106,6
2,64
181,2
105,0
5
177,2
102,7
10
174,9
101,3
20
173,7
100,7
30
173,3
100,4
100
172,9
100,1
300
172,6
100,0
1000
172,6
100,0
3600
172,55
100,0
Mit folgenden Annahmen:
T = 3600 Sekunden
P = 8.27 e-/pixel/s
R = 1,5 e-/pixel/s (ASI294MC Pro, Gain=121)
Optimale Belichtungszeit in Handeloh (SQM 21,1 P=0,48)
Tabelle 8: Ergebnisse: Total Noise in the Stack in Handeloh
Sub Exposure Length
Total Stack Noise ASI294MC Pro
Total Stack Noise ASI294MC Pro
[s]
e-/pixel/s
[%]
1
99,1
238,3
2
76,0
182,7
5
57,9
139,1
10
50,4
121,1
30
44,7
107,5
45
43,7
105,0
60
43,2
103,8
120
42,4
101,9
300
41,9
100,7
1200
41,7
100,1
3600
41,60
100,0
Mit folgenden Annahmen:
T = 3600 Sekunden
P = 0.48 e-/pixel/s
R = 1,5 e-/pixel/s (ASI294MC Pro, Gain=121)
Optimale Belichtungszeit in Kiripotib (SQM 21,9 P=0,39)
Tabelle 9: Ergebnisse: Total Noise in the Stack in Kiripotib
Open Street Map Plugin für WordPress mit GPS-Tracks
Dieses Plugin
OSM Plugin Version 5.3.2 | By MiKa | zur Darstellung von GPS Tracks
ermöglicht es, eine OSM-Karte (=Map) zusammen mit einem GPS-Track in einen WordPress-Artikel einzubetten.
Installation des OSM Plugins
Zunächst läd man sich das OSM Plugin in sein WordPress.
Dann muss das OSM-Plugin aktiviert werden.
Benutzung des OSM Plugins: Die Landkarte
Um eine Landkarte (“Map”) in einem WordPress-Artikel anzuzeigen muss ein sog. OSM-Tag in dem WordPress-Artikel mit folgendem Aufbau stehen: <eckige klammer auf>osm_map_v3 ... <eckige klammer zu>
Beispiel einer kleinen Landkarte von Dar Es Salam:
Abbildung 1: OSM-Landkarte ohne GPS-Track
Wobei “map_center” die geografische Länge und Breite des Kartenmittelpunkts sein soll und mit “zoom” die gewünschte Vergrößerungsstufe eingestellt werden kann.
Schließlich geben “width” und “height” die gewünschte Größe der Landkarte innerhalb des WordPress-Artikels an.
Achtung: Man muss mit diesen Angaben schon ein bisschen herum zirkeln, bis alles so schön aussieht, wie man es haben möchte.
Achtung: Die Angabe “height=…” muss absolut in Anzahl Pixel erfolgen, wenn man hier eine Prozentzahl angibt, erscheint eine Landkarte mit der Höhe Null, also ein Strich.
So wird ersteinmal nur die Landkarte (ohne GPS Track) angezeigt. Die Anzeige erfolgt nicht im WordPress-Edit-Mode, sondern nur im WordPress-View-Mode.
Benutzung des OSM Plugins: Der GPS-Track
Den GPS-Track muss man unabhängig zuvor mit einem geeigneten GPS-Logger aufgenommen haben und dann auf den Server hochladen wo das WordPress gehostet wird.
Soll auf der Landkarte dieser GPS-Track angezeigt werden, muss man in dem OSM-Tag zusätzlich den Parameter “file_list=…” angeben:
Abbildung 2: OSM-Landkarte mit einem GPS-Track (GitHUb: GPS_20091012_0726 Daressalam Walking Tour.gpx)
Copyright (C) 2018, 2019 by Han Kleijn, www.hnsky.org.
ASTAP Version 0.9.275 (stand alone version)
ASTAP Version 2022.06.14 (64bit)
ASTAP Version 2022.10.01 (64bit)
ASTAP Version 2023.07.14 (64 bit)
ASTAP Version 2023.12.21 (64 bit)
Star Database
Stern-Kataloge
Für das Platesolving (s.u.) wird auch noch eine sog. “Star Database” benötigt, die zum Gesichtsfeld passen muss.
d50_star_database.exe (for 6 > FoV > 0.2 degrees)
v50_star_database.exe (same as d50 but for photometry)
w08_star_database_mag08_astap.exe (w = wide field)
The database is sorted on star density. D50 indicates 5000 stars per square degree.
Unless manually selected, ASTAP will use in order of preference: V50, D50, H18, H17, D20, D05.
The ASTAP star databases are an extract of the Gaia star catalog release DR3 by European Space Agency Science & Technology in a special format developed for the HNSKY planetarium program and ASTAP program. We acknowledge the usage of the Gaia database.
Alte Stern-Kataloge
ASTAP benötigt zum Plate Solving einen Star Catalogue. Früher standen zur Auswahl:
h18_star_database_mag18_astap.exe
h17_star_database_mag17_astap.exe
v17_star_database_mag17_colour_astap.exe
w08_star_database_mag08_astap.exe (Wide Field)
Installation von ASTAP
ASTAP installiert man, indem man das Setup-Programm astap_setup.exe ausführt. Das ausführbare Programm ist dann
“C:\Program Files\astap\astap.exe”.
Automatisch werden bei der Installation auch das Utility DCRAW.exe und die Star Database in den Ordner “C:\Program Files\astap” kopiert.
Zusätzliche Star Databases muss man extra installieren.
Zum Plate Solving benutze ich die Software “All Sky Plate Solver” und PlaneWave “PlateSolve2“, weil die beiden von APT unterstüzt werden.
Nun gibt es neu zum Plate Solving“ASTAP” (empfohlen für N.I.N.A.). ASTAP kann auch “stand alone”, verwendet werden. Die Bildquellen können ganz einfach JPG-Bilder oder FITS-Bilder sein, die irgendwo auf dem Notebook liegen (also keine Kamera, kein ASCOM, kein garnichts, einfach “Stand Alone”).
Das Plate Solving mit ASTAP leistet “near solving”, was die Angabe eines “ungefähren” Ausgangspunkts (R.A. und Dekl.) sowie die Angabe der Bildgröße (Bildhöhe) in Grad ( verlangt. Ebenfalls ist ein “blind solving” mit ASTAP möglich. Dafür ist die Angabe von Pixelsize und Focal Length erforderlich.
Als Ergebnis des Solven werden die Koordinaten des Bildmittelpunkts, der Drehwinkel und der Abbildungsmaßstab bzw. das Gesichtsfeld (FoV) ermittelt.
Später, nachdem man die Plate Solving Funktion “Stand Alone” getestet hat, ist es natürlich interessant, sie in seine Astro-Foto-Software zu integrieren, und damit SYNC und GOTO zu machen. Dann ist der Ablauf: Foto machen, Platesolven, Montierung SYNCen.
Kompatibilität mit PlateSolve2
Wenn man das EXE-File umbenennt in “Platesolve2.exe” kann man ASTAP identisch verwenden. Also:
ASTAP benötigt zum Plate Solving einen Star Catalogue (s.o.). MIndestens einen davom muss ich installieren.
Erste Schritte zum Plate Solving mit ASTAP
Dann kann’s losgehen: Ich nehme (Menü -> File -> Load FITS or other format) ein vorhandenes Astrofoto: DK_20170708_01380.jpg, das ich am 8. Juli 2017 mit der Sony NEX-5R und einem 135mm Objektiv aufgenommen habe.
Dieses Foto wird zunächst in den sog. “Viewer” geladen – das kann einen Moment dauern.
Um die Parameter für das Plate Solving einmal einzustellen, klicken wir auf die Schaltfläche mit dem Symbol “Großes Sigma”. Dadurch öffnet sich ein neues Dialogfeld wo wir auf den Reiter “Alignment” gehen:
Abbildung 3: ASTP Parameter für Plate Solving (Google Drive: ASTAP_Alignment_01.jpg)
Hier gibt es jetzt vier Möglichkeiten (Radio Buttons), das “Alignment” durchzuführen:
Star Alignment
Astrometric Alignment
Use local Astrometry.net
Manual, one star
Wir probieren mal das “Astrometric Alignment” aus.
Dazu müssen wir angeben:
die “Field height image in Grad” angeben. also im Beispiel 6,6 Grad
die ungefähre Rektaszension (alpha) und Deklination (delta) – da wir hier ein “Near Solving” haben. Also: Alpha = 20h 51m, Delta = 46° 13′
Danach klicken wir ganz rechts auf die Schaltfläche “Solve current image”
Abbildung 4: ASTAP: Solve current image (Google Drive: ASTAP_Alignment_02.jpg)
Und nach ganz kurzer Zeit erhält man das Ergebnis:
Nur in den eingebauten Versionen (z.B. Host-Software APT oder N.I.N.A.) werden Plate-Solving-Ergebnisse an die Host-Software zurückgegeben und können dort zeitnah weiterverwendet werden; z.B. zum genaueren Positionieren des Bildausschnitts (sog. “Framing”).
Für die Messung der geografischen Breite ist ja der Erdäquator eine natürliche Referenz.
Für die geografische Länge braucht man aber irgendeinen Null-Meridian, wobei eigentlich kein besonderer dafür prädestiniert ist. So ein Null-Meridian muss also willkührlich festgelegt werden.
Historisch hatte jedes Land, das etwas auf sich hielt, einen eigenen Null-Meridian definiert: Paris, Greenwich, Altona,…
Der Meridian von Paris
Sehr verbreitet war in Europa zunächst der Meridian von Paris.
Erst 1884 wurde auf einer internationalen Konferenz in Washington der Meridian der Sternwarte Greenwich als für alle verbindlicher Null-Meridian festgelegt.
Der heute gültige Nullmeridian des WGS84-Bezugsystems ist überhaupt nicht mehr fest an die Erdoberfläche gebunden, sondern ein modelliertes Geodätisches Datum, da Meridiane in genauerer Rechnung aufgrund von Gezeitenkräften, Polbewegung und Kontinentalverschiebung nicht oberflächen-ortsfest sind.
Historisch interessant ist auch der sog. Altonaer Meridian, der durch den Astronomen und Geodäten Heinrich Christian Schumacher (1780-1850) als Basislinie für die Vermessung des Dänischen Gesamtstaates und Altona sowie für die topografische Aufnahme von Holstein, Hamburg und Lauenburg nach dem Triangulationsverfahren festgelegt wurde.
Der Altonaer Meridian ist heute durch eine an der Haltestelle Königstraße der Hamburger S-Bahn (Ausgang Struenseestraße) in den Boden eingelassene Bronzeschiene mit der Inschrift “Altonaer Meridian 0s 30’ 25’’ östlich von Paris” markiert. Eine senkrechte Fortsetzung verläuft an der Wand des Haltestellenbauwerkes, neben der sich noch eine Gedenktafel für Heinrich Christian Schumacher befindet.
Wenn man die Angabe 0s 30′ 25″ als Zeitmaß, also 0h 30m 25s interpretiert, wären das im Gradmaß: 7 Grad 36 Bogenmuniten und 15 Bogensekunden, was man heute schreiben würde als 7° 36′ 15″. Der Pariser Meridian soll 2° 20′ 14.025″ östlich von Geenwich gelegen sein, womit der Altonaer Meridian dann 9° 56′ 33″ östlich von Greenwich läge – was sehr gut passt.
Die seinerzeit von Schumacher 1821 eingerichtete Altonaer Sternwarte befand sich an der südlich der erwähnten Haltestelle gelegenen Straße Palmaille (Haus Nr. 9 / Olbersweg). Am Hang zur Elbe, unterhalb dieses Ortes befand sich früher eine weitere Markierung.
Abbildung 1: Im Gehweg eingelassenen Schiene (Google Drive: 20191017_Altonaer_Meridian.jpg)
Ein typisches Astrofoto eines Deep-Sky-Objekts hat Bereiche verschiedener Qualität, die wir möglicherweise unterschiedlich bearbeiten wollen.
Sichtbar machen kann man diese “Zonen” z.B. mit Adobe Photoshop auf folgende Weise:
Wir öffnen ein geeignetes Astrofoto
Wir wandeln das Photo in Graustufen um ( Bild -> Modus -> Graustufen)
Wir machen eine sog. Tontrennung in vier Stufen (Bild -> Korrekturen -> Tontrennung)
Andere Photoshop-Versionen:
Die Funktion “Tontrennung” heist in der englischen Version “Posterize”
In Photoshop CS2 findet man das unter Bild -> Anpassen -> Tontrennung
Dann haben wir vier Bereiche “Zonen” in unserem Bild. Dieser Ansatz stammt von Ron Wodaski, der dies “Vier-Zonen-System” nennt. Die vier Zonen sind:
Der Hintergrund “Zone 1 (Dunkelbereich)” soll – ohne Rauschen – sehr dunkel sein
Gebiete mit schwachen Nebeln “Zone 2 (Dunkelgrau)” haben ein schlechtes Signal-Rausch-Verhältnis (SNR) und können nicht geschäft, sondern nur entrauscht werden.
Gebiete mit stärkeren Nebeln “Zone 3 (Hellgrau)” haben ein gutes Signal-Rausch-Verhältnis (SNR) und sollten geschärft werden.
Die ganz hellen Bereiche “Zone 4 (Hell)” das sind überwiegend die Sterne, die haben ein super-gutes SNR und sollten ebenfalls nicht entrauscht werden…
Die Bildbearbeitung
Nachdem wir uns das Prinzip der vier Zonen so klargemacht haben, geht es an die (ggf. unterschiedliche) Bearbeitung der vier Zonen. Dazu laden wir das ursprüngliche Astrofoto (in Farbe) in Photoshop.
Die vorbereitende Bildbearbeitung
Bevor wir die vorgestellten Zonen selektiv betrachten, beginnen wir die Bildbearbeitung ganz “konventionell”:
Die Einzelaufnahmen sollten im RAW-Format (d.h. 16 Bit Tiefe) vorliegen
Stacken der einzelnen Frames (mit Darks, Flats und Bias Frames)
Rand abschneiden (sonst haben wir möglicherweise einen komischen Effekt links im Histogramm)
Stretchen – dabei einen “weisen” Schwarzpunkt setzen (weise = nach rechts ans Gebirge heranfahren, aber etwas Abstand halten)
Die Bearbeitung der vier Zonen
Die Zonen 1 und 2 müssen im Wesentlichen entrauscht werden; Zone 2 vorsichtiger als Zone 1.
Die Zonen 3 und 4 müssen im Wesentlichen geschärft werden: Zone 3 klaro, Zone 4 wie ???
Um eine getrennte Bearbeitung von Zone 1 und 2 einerseits von Zone 3 und 4 andererseits zu erreichen, verwenden wie eine Luminanzmaske.
Als Luminanzmaske nehmen wir einfach das Bild selbst als Maske. Das machen wir so:
Das ganze Bild auswählen (Strg-A)
Das ausgewählte Bild in die Zwischenablage übertragen (Strg-C)
Eine leere Maske hinzufügen: Unten das Symbol “Ebenenmaske hinzufügen”
In die leere Maske zum Bearbeiten hineingehen (Alt-Klick)
Die Zwischenablage in die leere Maske einfügen (Strg-V)
Bearbeiten von Zone 1 und Zone 2
Ebenenenmaske
Zum Entrauschen (für Zone 1 und 2) müssen wir die Lumanzmaske invertieren (Strg-I).
Die Luminanzmaske sollten wir durch manipulieren am Histogramm (Schwarzpunkt bzw. Weisspunkt verschieben) und durch Weichzeichnung (Gaußscher Weichzeichner) noch etwas verbessern, bevor wir sie zur Bildbearbeitung benutzen.
Entrauschen
Welchen Rauschfilter nehmen wir dazu? Es gibt viele Rauschfilter; alle arbeiten im Prinzip so, das sie die Auflösung verringern; d.h. also etwas “glätten”. Die Unterschiede bei den verschiedenen Rauschfiltern liegen im Wesentlichen bei den Argorithmen nach denen sie die Bildteile auswählen auf die sie wirken sollen. Da wir dafür extra eine schöne Ebenenmaske erstellt haben, genügt zunächt ein ganz einfacher Rauschfilter z.B,:
Um Zone 3 und 4 isoliert zu bearbeiten, nehmen wie wiederum die Luminanzmaske; diesmal aber ohne sie zu invertieren. Ggf. wollen wir die Luminanzmaske noch leicht modifizieren indem wir im Histogramm die Schwarz- und Weisspunkte verschieben und schließlich einen Gaußschen Weichzeicher einsetzen.
Im Jahr 1900 formulierte Max Planck (1858-1947) sein Strahlungsgesetz und seine Quantenhypothese. Erst um 1925 entwickelte sich daraus eine Quantentheorie/Quantenmechanik, die die physikalische Systeme im Kleinen (z.B. Elementarteilchen, Atome,…). gut beschreibt. Wesentliche Etappen sind:
Thomas Young: Doppelspalt-Experiment mit Licht 1802
Vor der Quantenmechanik hatten wir so bis 1890 eine schöne heile Welt. Die klassische Mechnik mit wenigen kleineren ungelösten Fragen. Dachte man.
Wir hatten Materie und Kräfte. Die Materie bestand aus Teilchen, die Kräfte waren Felder. Man musste also alle Teilchenarten finden und dann die Kraftfelder, die auf sie wirken, um das Verhalten der Teilchen mit Ort und Geschwindigkeit zu beschreiben. Dachte man.
Dann kam aber die Quantenmechanik und wollte statt mit Ort und Geschwindigkeit alles mit Wellenfunktionen beschreiben. so eine Welle hätte aber keinen Ort.
Verständnis der Quantenmechanik
Die Formalismen der Quantenmechanik dienen lediglich als Mittel zur Vorhersage der relativen Häufigkeit von Messergebnissen; diese werden als die einzigen Elemente der Realität angesehen.
Thomas Young (1773-1829) hat im Jahre 1802, das berühmte Doppelspalt-Experiment mit Licht unternommen. Es zeigt Interferenzmuster, was klar auf den Wellencharakter des Lichts hinweist. Damals war die gängige Lehre noch, dass Licht aus Teilchen besteht.
Das Experiment gehört zu den Schlüsselexperimenten der Physik.
Später hat man dieses Experiment auch mit Materiewellen, z.B. 1957 Claus Jönsson mit Elektronen, durchgeführt.
Das Plancksche Strahlungsgesetz
Max Planck (1858-1947) beschäftigte sich mit die Strahlung eines sog. “Schwarzen Strahlers”. Speziell ging es ihm darum, wie sich in Abhängigkeit von der Temperatur die abgestrahlte Energie über die Wellenlängen hin verteilt. Früheren Formeln zur Verteilung der Energie über die Wellenlängen z.B. von Wilhelm Wien und später von Rayleigh-Jeans waren nur Teilerfolge, da sie nur Näherungen für kleine Wellenlängen bzw. größere Wellenlängen waren.
Häufig hört man, dass aus Plancks Formel angeblich die Aussendung der Energie in sog. Quanten (ganzzahlige Vielfache von h mal ν) folgt. Das kann man aber aus der Formel selbst überhaupt nicht ableiten.
Vielmehr ist es so, dass Planck, nachdem er die Formel formuliert hatte, versuchte sie herzuleiten. Dabei modellierte er (angeblich) die elektromagnetische Strahlung (das Licht) als Teilchen, die sich wie ein Gas verhalten sollten. Die unterschiedlichen Geschwindigkeiten solcher Teilchen modelliert Planck als unterschiedliche Wellenlängen der Strahlung…
Ein solches Teilchen sollte eine von der Frequenz seiner Strahlung abhängige Energie haben. Das ist die zentrale Formel (Quantenhypothese) von Planck: \(E = h \cdot \nu \)
Der Photoelektrische Effekt
Einfacher für mich ist die Erklärung mit dem photoelektrischen Effekt. Nach Einstein (1879-1955) besteht das Licht aus Teilchen mit der Energie \(E = h \cdot \nu \), um den photoelektrischen Effekt zu erklären. Diese Lichtteilchen nennt Einstein Photonen. Allerdings haben die Photonen die Ruhemasse Null und bewegen sich in Vacuum immer mit der konstanten Geschwindigkeit der Lichtgeschwindigkeit c.
Nach Einstein nimmt die Intensität von Licht dadurch zu, dass mehr Photonen mit der gleichen Energie pro Teilchen abgestrahlt werden. Der photoelektrische Effekt wirkt aber erst dann, wenn das einzelne Photon die erforderliche Energie hat, um Elektronen aus dem Basismaterial herauszulösen. Es ist also nicht eine bestimmte hohe Intensität des Lichts erforderlich, sondern eine bestimmte hohe Frequenz, um die Auslösearbeit zu leisten…
Dieses Experiment zeigt den Teilchencharakter des Lichts mit Teilchen der Energie \( E = h \cdot \nu \).
Das Bohrsche Atommodell
Der Erfolg dieser Theorien brachte Niels Bohr (1885-1962) dazu, so eine Quantelung auch für die Enegieniveaus der Elektronen-Orbitale in seinem Atommodell anzunehmen.
Man stellt sich dabei so ein Orbital als eine stehende Welle (s. Wellenfunktion) vor.
Compton-Streuung
Der US-amerikanische Physiker Arthur Compton (1892-1962) machte 1922 das berühmte Experiment zur Streuung von Photonen an Elektronen. Dabei war die Frequnz des gestreuten Lichts kleiner als die Frequenz des eingestrahlten Lichts. Diese Differenz in der Frequenz erklärte er durch die an das Elektron übertragene Energie: \( \Delta E = h \cdot \nu_1 \, – \, h \cdot \nu_2 \)
Dieses Experiment zeigt erneut den Teilchencharakter des Lichts mit Teilchen der Energie \( E = h \cdot \nu \).
Dieser Effekt der Frequenzveränderung ist bei sichtbarem Licht so klein, dass man ihn damals nicht messen konnte. Bei kurzwelligerem Licht (Röntgenstrahlen) ist der Effekt deutlich größer, aber man braucht ein genaues Verfahren zum Messen der Wellenlänge von Röntgenlicht. Letzteres machte Compton mit einem Bragg-Kristall.
Materiewellen
Nun ist aber nicht nur so. dass Wellen Teilchencharakter haben, sondern auch Teilchen können Wellencharakter haben.
Zu diesem sog. Welle-Teilchen-Dualismus habe ich einen separaten Blog-Beitrag geschrieben.
Quantelung
Welche physikalischen Größen sollen den nun “gequantelt” sein; d.h. nur in ganzzahligen Vielfachen einer (kleinen) Elementargröße (=Quanten) vorkommen? Kommt jede physikalische Größe in “Quanten” oder nur bestimmte?
Ich habe in Heidelberg gehört, dass die Quantelung nur für physikalische Größen zutrifft, die konjugiert zu einer periodischen Größe sind. Was immer das heissen mag…
Die Wellenfunktion
Zur Beschreibung quantenmechanischer Systeme (z.B. Photonen, Elektronen,…) verwendet die Quantenmechanik sog. Wellenfunktionen. Das sind komplexwertigen Funktionen, die vom Ortsvektor r und von der Zeit t abhängen können:
Dabei, so sagt man, beinhaltet eine Wellenfunktion alle Informationen, um das betreffene quantenmechanische System zu beschreiben. Die Wellenfunktion selbst ist keine beobachtbare Größe, aber aus der Wellenfunktion lassen sich Wahrscheinlichkeitsdichten für alle denkbaren physikalischen Größen berechnen (mit Hilfe sog. Operatoren).
Wie man zu einem quantenmechanischen System die zugehörige Wellenfunktion findet, ist eine besondere Geschichte, die zur Schrödinger Gleichung führt…
Meine Hauptpunkte dazu:
Wenn man eine Wellenfunktion hat, wie kommt man dann zu den Observablen? Stichworte: Operatoren, Korrespondenzprinzip,…
Wie bekommt man überhaupt die Wellenfunktion zu einem quantenmechanischen System? Stichwort: Schrödinger,…
Die Schrödinger-Gleichung
Die Schrödinger-Gleichung ist eine partielle Differentialgleichung deren Lösungen die Wellenfunktionen des betrachteten quantenmechanischen Systems sind.