Physik: Die Bra-Ket-Notation

Gehört zu: Quantenphysik
Siehe auch: Schrödinger, Komplexe Zahlen, Vektorräume

Stand: 02.08.2022

Die Dirac-Notation

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\). So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Teil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zu jedem Ket-Vektor definieren wir noch einen sog. Bra-Vektor:

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Zu dieser Bra-Ket-Notation gibt es enorm viele Youtube-Videos. Ein ganz einfaches ist: https://youtu.be/pBh7Xqbh5JQ

Einig sind sich alle Authoren über die Frage, was ein Ket-Vektor ist: eben ein “normaler” Vektor aus unserem Vektorraum V (also ein “Spaltenvektor”:

\( |v\rangle  = \left( \begin{array}{c} v_1 \\\ v_2 \\\ \vdots \\\ v_n  \end{array}\right) \)

Aber was um Himmelswillen ist der dazugehörige Bra-Vektor?

Einfache Gemüter sagen einfach:

\( \langle v|  = \left( \begin{array}{r} v_1^\ast & v_2^\ast & \cdots & v_n^\ast  \end{array}\right) \)

Der etwas nachdenkliche Mathematiker fragt sich:

  • “Konjugiert komplex” ist ja zunächst nur für Skalare (komplexe Zahlen) definiert. Kann man auch zu einem Vektor den konjugiert komplexen bilden?
  • Mit endlichen Dimensionen geht das ja alles so. Aber in der Quantenphysik wird man doch mit Hilberträumen unendlicher Dimension arbeiten. Wie funktionieren diese Konzepte denn da?

Skalarprodukt

MIt HIlfe von Bra-Vektor und Ket-Vektor definieren wir nun ein Skalarprodukt (inneres Produkt):

Das Skalarprodukt der Vektoren v und w schreiben wir als:
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

Das so definierte Skalarprodukt ist nicht mehr kommutativ, sondern “hermitisch”; d.h.:

\( \langle v, w \rangle  = \langle w, v \rangle ^\ast \)

Das Skalarprodukt eines Vektors mit sich selbst ist immer reelwertig und “positiv definit”.

Hilbertraum

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)

Astronomie: N.I.N.A. Advanced Sequencer

Gehört zu: N.I.N.A.
Siehe auch: APT, SGP, Platesolving mit N.I.N.A.

Stand: 19.7.2022

Der Advanced Sequencer

Seit N.I.N.A’s Version 2.00 gibt es den “Advanced Sequencer”, der den “Simple Sequencer” ablösen soll.

Eine “Sequence” besteht aus sog. “Instructions”.

Solche Instructions sind einzelne Befehle an das angeschlossene Astro-Equipment, wie beispielsweise:

  • Start Guiding
  • Cool Camera
  • Go to Target
  • Take an Exposure
  • Do Autofocus
  • Do Plate Solving
  • Center on Target
  • Change Filter
  • Do Dithering

Die Instructions einer Sequence werden gruppiert in einen Startbereich, einen Target-Bereich und einen Endbereich.

Außerdem kann man mehrere Instructions auch zu einem “Instruction Set” zusammenfassen. So ein “Instruction Set” kann wiederholt durchlaufen werden (mit einer Loop Condition) oder auch nur bedingt angestoßen werden (durch einen sog. Trigger).

Die Beschreibung einer bestimmten Sequence durch detaillierte Instruktionen kann sehr umfangreich werden. Deshalb arbeitet N.I.N.A. mit sog. “Templates” (Vorlagen) für typische Sequences, bei denen dann nur noch wenige Details angepasst werden müssen.

Häufig wird ein und die selbe Sequence eigentlich unverändert auf verschiedene Zielobjekte angewendet. Solche Zielobjekte heissen bei N.I.N.A. “Targets” und haben ausser ihrem Namen eigentlich nur spezifische Koordinaten für den Bildmittelpunkt und einen spezifischen Rotationswinkel. Solche Targets können in N.I.N.A. separat abgespeichert werden und später in eine fertige Sequenz eingefügt werden (per Drag and Drop).

Voraussetzungen für den Advanced Sequencer

Das Teleskop (der ASCOM-Treiber des Teleskops) muss fehlerfrei verbunden sein mit N.I.N.A. Dazu müssen die geografischen Koordinaten des Beobachtungsorts in N.I.N.A. und die im Teleskop-ASCOM-Treiber übereinstimmen. N.I.N.A. kann das “synchronisieren”, was aber nicht immer funktioniert.

Wenn ich die Himmelskoordinaten eines Beobachtungszieles aus meiner Planatariumssoftware übernehmen will, muss diese auch gestartet sein und ich kann dann dort ein Ziel selektieren – sinnvoll ist dabei, dass Datum und Uhrzeit in der Planetariumssoftware richtig eingestellt sind.

In N.I.N.A. sollte das Platesolving richtig eingestellt sein und bei einem Test auch funktionieren.

Erstellen von Targets

Ein “Target” in N.I.N.A. ist ja soetwas wie ein geplanter Bildausschnitt – also bestimmt durch die Koordinaten des Bildmittelpunkts und den Rotationswinkel (bei gegebenem Field of View).

So ein Target kann ich aus dem zugeordneten Planetariumsprogramm in N.I.N.A. übernehmen. In der N.I.N.A.-Version 2.00 wird dabei auch der Rotationswinkel für das Target übernommen. Im Framing-Assistenten kann man sein Target noch verfeinern.

Statt mit zugeordneten Planetariumsprogramm kann man in N.I.N.A. auch direkt den SkyAtlas verwenden und dann mit dem Framing-Assistenten die Feinarbeit machen.

Vom Framing-Assistenten aus kann man dann das Target abspeichern indem man unten auf die Schaltfläche “Add Target to Sequence” klickt. Man kann dann auswählen, ob man den “Simple Sequencer” oder den “Sequencer” (das ist der neue, der “advanced” sequencer) nehmen will.

Targets kann man also im Vorhinein zur Planung erstellen.

Erstellen von Sequences (aus Templates)

Sequences baut man in N.I.N.A. um den Ablauf am Foto-Abend Schritt für Schritt festzulegen.

Da solche Sequences recht länglich werden können und auch immer wieder Gleiches enthalten, verwendet man dafür meistens vorgefertigte Templates.

So eine Sequence kann man dann starten und damit geht dann am Sternenhimmel der automatisierte Ablauf los.

Einbauen von Targets in Sequences

Gleich beim Speichern eines Targets im Framing-Assistenten kann man “Speichern als Sequenz” wählen. Dann fragt der (advanced) Sequencer auch gleich, welches Template man für dieses Target verwenden möchte.

Man kann das auch alles später im Sequencer machen, wenn man vorher gespeicherte Targets verwenden möchte.

Tutorials

YouTube Videos von Philipp Keltenich:

https://www.youtube.com/watch?v=UMKB8sY8v1U

 

 

 

 

Astronomie: Plate Solving mit N.I.N.A.

Gehört zu: Plate Solving
Siehe auch: N.I.N.A., Polar Alignment mit N.I.N.A., N.I.N.A. Advanced Sequencer
Benutzt: Fotos aus Google Drive

Stand: 28.12.2024

Plate Solving mit N.I.N.A.

N.I.N.A. setzt zum Plate Solving externe Plate-Solving-Software ein. Welche externe Software das sein soll lege ich in den N.I.N.A.-Einstellungen unter “Options -> Plate Solving” fest. Dabei unterscheidet N.I.N.A. zwischen “Plate Solver” und “Blind Solver”.

Da ich in der Vergangenheit sehr gute Erfahrungen mit All Sky Plate Solver gemacht habe, stelle ich den auch in N.I.N.A. ein.

Für den Gebrauch mit N.I.N.A. wird allerdings der Plate Solver ASTAP wärmstens empfohlen. ASTAP werde ich testen und dann später ggf. auf ASTAP umstellen.

Wie bei fast allen astronomischen Unternehmungen ist es auch hier sinnvoll, vor der eigentlichen Beobachtungsnacht, so viel wie möglich vorher am Tage im Wohnzimmer auszuprobieren. Sonst kann es passieren, dass man später bei Dunkelheit, Kälte und Zeitdruck vor Problemen steht, die man viel einfacher früher hätte lösen können.

Testen des Plate Solving unter N.I.N.A.

Vorbereitungen für das Plate Solving mit ASTAP

Zunächst muss die Software “ASTAP” normal installiert werden.

Dann benötigt ASTAP noch einen Sternktalog. Ich installiere den Sternenkatalog D50 (einmalig).

Ich probiere dann zunächst den Platesolver ASTAP ohne N.I.N.A. aus.

Wenn das funktioniert hat, stelle ich ASTAP als Plate Solver in N.I.N.A. ein.

Vorbereitungen für das Plate Solving mit All Sky Plate Solver

Zunächst muss die Software “All Sky Plate Solver” (ASPS) normal installiert werden.

Der ASPS benötigt dann noch sog. Index-Dateien. Welche da erforderlich sind, richtet sich nach der Größe des Field of View (FoV). Das FoV ermittelt ASPS aus  Brennweite der Optik und der Sensor-Größe. Anschießend lädt ASPS die erforderlichen Index-Dateien herunter (einmalig) .

Ich probiere dann zunächst den Platesolver ASPS ohne N.I.N.A. aus.

Wenn das funktioniert hat, stelle ich ASPS als Plate Solver in N.I.N.A. ein.

Einstellungen in N.I.N.A. für Plate Solving

Die beiden externen Plate Solver für “Blind” und “Near” werden bei N.I.N.A. eingestellt unter: Options -> Plate Solving.
Wichtig für das Plate Solving sind auch die Einstellungen für

  • “Pixel Size”   ( stelle ich in N.I.N.A. ein unter: Options -> Equipment -> Camera )
  • “Focal Length” (stelle ich in N.I.N.A. ein bei: Options -> Equipment -> Telescope )

Mein Workflow zum Testen

Zum Plate Solving machen wir ein Astro-Foto  und dann ein “Near Solving” mit dem in N.I.N.A. eingestellten Plate Solver.

N.I.N.A. nimmt als Ausgangspunkt zum Near Solving die Zielkoordinaten des letzten Slew (Goto)

Wir brauchen also eine Kamera für ein fiktives Astro-Foto und eine Montierung für einen fiktiven Slew zum Ausgangspunkt.

1. Fiktiver Slew (Goto)

N.I.N.A. nimmt als Ausgangspunkt zum Near Solving die Zielkoordinaten des letzten Slew (Goto). Um solche Zielkoordinaten für einen fiktiven Slew einzugeben, gibt es in N.I.N.A. mehrere Möglichkeiten.

Am einfachsten (für mich) ist: N.I.N.A. -> Equipment -> Mount -> Simulator -> verbinden.
Dann unter “Manual  Coordinates” Target R.A. und Target Dec eingeben und auf “Slew” klicken (geht natürlich nur, wenn das (fiktive) Teleskop nicht auf “Park” steht).

Es geht aber auch über den N.I.N.A. Framing Assistent: Dort geben wir die Ziel-Koordinaten auch mit der Hand ein und müssen dann aber erst “Load Image” drücken, sonst geht es nicht weiter. Wenn das Bild da ist, erscheinen unten auch die Schaltflächen “Slew and center” und “Add target to sequence”.

Wir drücken auf den kleinen Pfeil rechts in “Slew and center” und wählen im Drop down aus: “Slew” (keinesfalls: Slew, center, and rotate).

So wäre jetzt die Montierung mit dem Teleskop auf die Zielkoordinaten gefahren und ein späterer “Near Plate Solve” würde diese als Ausgangspunkt nehmen.

2. Ein Testfoto machen

Als Ausgangsmaterial benötigt ein Platesolving eine “Plate”, also ein echtes Astrofoto.

Wir suchen in unserem Archiv also ein Astro-Foto, bei dem die Aufnahmedaten Brennweite und Sensorgröße bekannt sind.

Nun stellen wir in N.I.N.A. eine fiktive Kamera ein, die dieses Astrofoto als Bild abliefern soll.

Dazu gehen wir in N.I.N.A. auf Equipment -> Camera -> N.I.N.A. File Camera -> Folder to watch: xyz  -> Connect

Um das eine Testfoto zu machen, gehe ich jetzt in N.I.N.A. auf “Imaging”. In der Mitte sollte jetzt eine große leere Kachel “Image” zu sehen sein, in der das jeweils zuletzt aufgenommene Foto zu sehen sein sollte – also im Moment: nichts.

In der kleinen Unterkachel “Mount” könnte ich kontrollieren, ob meine Ziel-Koordinaten richtig angezeigt. werden (roter Pfeil). In der kleinen Unterkachel “Imaging” könnte ich auf den Auslöser zum Erstellen eines neuen Fotos klicken (blauer Pfeil).

Nach dem Auslösen schnell das ausgesuchte Testfoto in den “Folder to watch” schieben. Das simuliert eine manuelle Kamera.

3. Testen Plate Solving

Nachdem die N.I.N.A. File Camera unser Testfoto als aufgenommenes Foto anzeigt, können wir das Plate Solving starten.

Normalerweise macht man zuerst ein neues Astro-Foto (mit Imaging) und wird danach im Fenster (Pane) “Image” oben rechts auf “Platesolve current Image” klicken (gelber Pfeil).

Abbildung 3: Testen N.I.N.A. Platesolving (Google Drive: NINA_Platesolving_Test_3.jpg)

Eine zweite Möglichkeit zum Platesolving ist das Extra-Fenster (Pane) namens “Plate Solving”. Dort kann man unten auf die Schaltfläche “Play” klicken, dann macht N.I.N.A. gleich ein “Capture image and plate solve”.

Plate Solving im Einsatz

Nun schalten wir die Montierung draussen auf der Terrasse ein – in der richtigen Home-Position. Dann verbinden wir die “echte” Kamera und die “echte” Montierung mit N.I.N.A. und fahren auf ein bekanntes Ziel in der Nähe des Nördlichen Himmelspols z.B. Kochab (Alpha UMi). Da machen wir ein Foto und dann Platesolving & SYNC. Damit haben wir einen ersten “Alignment-Punkt” im Pointing Modell.

Wenn wir nun für weitere Ziele “Slew and Center” einsetzen wollen, sollten wir die erforderliche Toleranz für das “Center” nicht zu klein wählen (gelber Pfeil).

Abbildung 4: NINA Platesolving Pointing Tolerance (Google Drive: NINA_Platesolving_Test_4.jpg)

Nach dem Platesolving

Sehr häufig will man nach dem Plate Solving sofort ein SYNC machen. Nur mit der zweiten Methode ( Extra-Fenster namens “Plate Solving”) kann man einstellen, ob man nach dem Plate Solving gleich ein SYNC machen will.
Ein SYNC macht N.I.N.A. aber nur, wenn ein Teleskop verbunden ist und das Tracking eingestellt ist.
Kontrollieren kann man, ob der verwendete ASCOM-Treiber EQMOD auch wirklich SYNC-Points gespeichert hat unter Setup im Kasten “Alignment/Sync” (falls “Append on Sync” eingestellt war).

Kontrollieren sollte man vorher die für Platesolving relevanten Einstellungen:

  • Name des externen Platesolvers (unter Options -> Plate Solving)
  • Focal Length der Optik mit der das Bild aufgenommen wurde (unter Options -> Equipment -> Telescope)

Wir können das Platesolving unter N.I.N.A. auch am Tage (ohne einen Sternenhimmel) testen, wenn wir ein altes Astro-Foto nehmen und in N.I.N.A. als Kamera einstellen: “N.I.N.A. Simulator Camera” und dabei einstellen “Image” und “Debayer Off”.

Abbildung 1: Plate Solving with SYNC in N.I.N.A. (Google Drive: NINA_Platesolving_and_SYNC.jpg)

Auf obigen Bild sieht man die Schritte:

  • Man öffnet das Platesolving in einem Extra-Fenster (obere Leiste rechts).
  • In diesem Extra-Fenster kann man einige Einstellungen für das Platesolving vornehmen.
  • In diesem Extra-Fenster kann man dann das Platesolving starten (Schaltfläche mit dem Dreieck).
  • N.I.N.A. macht dann ein neues Foto, platesolved dieses und macht danach ein SYNC auf die Montierung.

Fehlermöglichkeiten

  1. Als Platesolver ist in N.I.N.A. eingestellt “All Sky Plate Solver” und der All Sky Plate Solver ist noch offen. Dann sagt N.I.N.A. sofort “Error plate solve failed”
  2. Zum Platesolving benötigt N.I.N.A. ein Teleskop, weil es die Abweichung der Teleskop-Position von der im Platesolving ermittelten Position feststellen will. Es reicht ein Teleskop-Simulator wobei das Teleskop auf “Tracking” stehen sollte (Tracking Rate = Siderial).
  3. Im Pane “Plate Solving” sollte man Sync=ON einstellen, sonst übergibt NINA keine Sync-Anforderung an den ASCOM-Treiber der Montierung.
  4. Es ist wichtig, die richtige Brennweite im All Sky Plate Solver einzugestellen. Falls die falsch ist, braucht N.I.N.A. lange Zeit bis es schließlich “Error Plate solve failed” sagt
  5. Wenn das Image Capture für ein Platesolving unmittelbar nach einem “Slew” (Goto) statt findet, sollte die Settle Time (after Slew) groß genug eingestellt sein, sonst könnte es Strichspuren geben.

Wofür verwendet N.I.N.A. die Plate Solving Funktion?

  • Center Target & Rotationswinkel
  • Meridian Flip
  • Polar Alignment
  • Laden eines vorhandenen Fotos in den Framing-Assistenten

Wann verwendet N.I.N.A. Plate Solving nicht?

  • Bei einer Sequence mit “Slew to target” aber ohne “Center target”

Wann macht N.I.N.A. kein SYNC?

  • Bei der Funktion “Platesolve current image” im Imaging-Tab

Astronomie: Polar Alignment mit N.I.N.A.

Gehört zu: Polar Alignment
Siehe auch: N.I.N.A., Polar Alignment mit SharpCap, Plate Solving mit N.I.N.A
Benutzt: Fotos aus Google Drive

Stand: 18.07.2024

Polar Alignment mit N.I.N.A.

Ab der offiziellen Version 2.00 hat N.I.N.A. ein Plugin-System und eines der ersten Plugins ist das sog. “Three Point Polar Alignement”.

Nach der Installation dieses Plugins erscheint es in N.I.N.A. u.a. als neuer Tab “Three Point Polar Alignment” im Image-Fenster unter “Imaging”.

Diese Methode des Polar Alignment hat für mich wichtige Vorteile:

  • Es erfordert kein Guiding Scope und keine Guiding Kamera (im Gegensatz zu SharpCap). Funktioniert also beispielsweise mit der “Haupt-Optik” eines einfachen Star Trackers oder meiner einfachen Reisemontierung AZ-GTi.
  • Es ist kostenlos (im Gegensatz zu SharpCap Pro)
  • Es funktioniert auch ohne freien Blick auf den Himmelspol

Prinzipielle Arbeitsweise

N.I.N.A. macht drei Fotos (“Messpunkte”), beginnend an einem Startpunkt (= 1. Messpunkt) und schwenkt von diesem in Rektaszension nach Osten oder Westen um einen bestimmten Betrag zum zweiten und dann zum dritten Messpunkt.
Immer wenn ein Foto erfolgreich ge-platesolved wurde, schwenkt N.I.N.A. auf die nächste Foto-Position.
Aus den drei angefahrenen Positionen und den per Platesolving ermittelten “echten” Positionen ermittelt N.I.N.A. dann die Abweichung der Montierung vom Himmelspol (das ist wohl die Methode “Star Offset”).

Nun soll man die Polausrichtung der Montierung entsprechend manuell korrigieren. Zur Hilfestellung geht N.I.N.A. in eine Schleife und macht laufend Fotos, Plave Solving und erneute Berechnung der aktuellen Pol-Abweichung (das dauert immer ein bisschen).

Arbeitsschritte in N.I.N.A.

Vorbereitung

  • Fokussieren auf die Sterne (z.B. mit SharpCap)
  • Kamera verbinden mit N.I.N.A
  • Teleskop/Montierung verbinden mit N.I.N.A.
  • Ersten Messpunkt manuell anfahren (knapp über den gegenüberliegenden Dächern:  Altitude=40°, Azimuth=30°)
  • Platesolving in N.I.N.A. testen
  • In N.I.N.A. das “Imaging” aufrufen (linke Leiste)

N.I.N.A. Plugin Three Point Polar Alignment

Wenn wir im Imaging das neue Tab “Three Point Polar Alignment” öffnen, haben wir oben zunächst einige Einstellungen:

  • Manual: Off (On)
  • Start from Current Position: On / Off   (oder man gibt die Start-Koordinaten explizit an). Dies ist der erste Messpunkt.
  • Measure Point Distance: 10. Hier geben wir in Grad an, wieweit sich das Teleskop von einem Messpunkt zum nächsten bewegen soll
    Da insgesamt drei Messpunkte benötigt werden, bewegt sich das Teleskop insgesamt zweimal um diesen Betrag.
  • Direction: East / West (das Teleskop bewegt sich dann zweimal um 10° in Reaktaszension nach rechts)

Bevor wir nun das Ganze starten (Play Button), stellen wir das Teleskop auf den gewünschten Startpunkt (s.o.).

Abbildung 1: Beispiel eines Three Point Polar Alignments mit N.I.N.A. und der AZ-GTi  (Google Drive: NINA-PolarAlignment.jpg)

Schriftfarbe

Die Ergebnisse zur Korrektur (“Error Color”) werden in besonders großer Schrift angezeigt, damit man sie von Weitem gut lesen kann.
Leider sind die Farben teilweise so, dass ich kaum etwas erkennen kann. Diese Farben kann man speziell für dieses Plugin besser einstellen. Dazu gehe ich auf die Plugin-Seite…

Abbildung 2: Schriftfarbe (Google Drive: NINA-PolarAlignment-2.jpg)

ComputerAcerBaer Windows 11

Gehört zu: Computer
Siehe auch: ComputerFlachmann, ComputerAsusbaer, ComputerThinkbaer, Tablet, Polar Alignment mit SharpCap Pro

Stand: 05.11.2023

Computer AcerBaer

Ersatz für ComputerAsusbaer

Mein ComputerAsusbaer ist schon ein bisschen in die Jahre gekommen:

  • einige Tasten der Tastatur klemmen
  • des geht nur das langsame WLAN
  • kein Bluetooth
  • er arbeitet recht langsam

Als Ersatz habe ich mir im Juni 2022 (auch im Hinblick auf die geplante Astro-Reise nach Namibia) einen neuen Laptop gegönnt.

Datenblatt ComputerAcerBaer

Ich habe im Juni 2022 dieses Gerät gekauft:

  • Acer Swift 3 (SF314-59-50CV)
  • Betriebssystem: Windows 11 Home     (am 9.8.2023 auf Windows Professional aufgerüstet)
  • Bauart: normaler klappbarer Laptop
  • CPU: 11th Gen Intel(R) Core(TM) i5-1135G7 @ 2.40GHz 2.42 GHz (4 Cores, 8 Threads)
  • Memory: 8 GB
  • Storage: 1 TB SSD: NVMe Micron_2210 MTFDHBA1T0QFD  (Format: M.2)
  • Bildschirm: 1920×1080 Pixel, 14″, matt
  • 1 x USB 3.0
  • 1 x USB 2.0
  • 1 x USB 3.1 Type-C Gen. 2 “Thunderbolt”
  • 1 x HDMI
  • Touchpad
  • Headphon Jack 3,5 mm
  • WLAN: Intel Dual Band Wireless-Gigabit-AX, Wi-Fi 6 (802.11 ax/ac/a/b/g/n)
  • Bluetooth: Bluetooth 5.0
  • Kein Ethernet
  • Kein LTE
  • Beleuchtetes Keyboard
  • Fingerabdruck-Scanner
  • Akku: Kapazität 48 Wh, Laufzeit bis zu 13 Stunden
  • Stromversorgung: Externes Netzteilmit Hohlstecker 3,0 x 1,1mm: Chicony 19 V, 3,42 A  (65 W) oder USB-C Power Delivery
  • Preis: 650 Euro

Tasten beim Hochfahren

Stromversorgung

Aus der Steckdose: Mitgeliefertes Netzteil: Chicony 19 V, 3,42 A  (65 W) oder USB-C Netzteil Belkin

Mobil: Interner Akku oder APA Lithium Power Pack Ausgang 19V mit Adapter auf 3,0mm x 1.1 mm

Konfiguration (Inbetriebnahme)

 

Computer: Video Production mit OBS Studio

Gehört zu: Video
Siehe auch: MP4, OBS, YouTube

Stand: 22.05.2024

Video Production mit OBS Studio

Ich möchte aus einigen meiner PowerPoint-Vorträge einfache Videos erstellen, die ich z.B. auf Youtube posten kann.

Als Software zur Video-Produktion setze ich die Software OBS Studio ein.

OBS Studio

Die Software ist “OBS Studio 27.2.4 (64 bit)”

Ein OBS-Video kan aus mehreren Szenen bestehen. Zu jeder Szene können im OBS Sourcen zugeordnet werden.
Mein Video soll nur aus einer Szene bestehen, die ich “PowerPoint-Setting” nenne.

Zu dieser einen Szene definiere ich dann drei Soucen wie folgt:

Sourcen in OBS

Um so ein Video herzustellen brauche ich als Quellen (sog. Sourcen):

  • Kamera: Damit will ich mich selbst als Sprecher in die PPT-Folien einblenden
  • Microfon: Damit will ich einen Kommentar zu den PPT-Folien sprechen
  • PowerPoint-Folien: Diese will ich Bild für Bild im Video zeigen, kommentieren und manuell weiterschalten…

Diese die Sourcen füge ich mit dem Plus-Symbol  hinzu. Dabei ist:

  • Meine Kamera ist als OBS Source ein “Video Capture Device”.
  • Mein Microfon ist als OBS Source ein “Audio Input Capture”.
  • Die PowerPoint-Präsentation ist als OBS Source ein “Window Capture”

PowerPoint in OBS

Zunächst erstelle ich meine Präsentation wie immer mit PowerPoint.

Damit die PowerPoint-Folien manuell eine nach der anderen ins Video kommen, richte ich dann in PowerPoint eine Bildschirmpräsentation ein: In der Menü-Leiste von PowerPoint (oben!) klicke ich auf “Bildschirmpräsentation” und dann auf “Bildschirmpräsentation einrichten”. Dort stelle ich ein:

  • Art der Präsentation: Ansicht durch eine Einzelperson (Fenster)
  • Anzeigeoptionen: ./.
  • Folien anzeigen: Alle
  • Nächste Folie: Manuell

Dann starte ich in PowerPoint die Bildschirmpräsentation wie immer. Am unteren Rand rechts habe ich dann die kleinen Schaltflächen zum Weiterschalten der Folien.

Nun kann ich in OBS Studio diese Bildschirmpräsentation als Source vom Typ “Windows Capture” hinzufügen und arrangiere das PowerPoint-Fenster hinter das OBS-Fenster so, dass ich aber den unteren Rand des PPT noch sehen und anklicken kann.

Recording mit OBS

Nun passe ich noch die Größe des Video-Fensters an.

Das Audio wird gleichzeitig separat aufgenommen – Der Laustärke-Pegel ist wichtig

Starten der Aufzeichnung in der Software OBS Studio: Rechts unten der Kasten “Controls” da gibt es “Start Recording”

Meine YouTube-Videos

Bisher habe ich folgende Videos auf diese Art für YouTube gemacht:

Physik: Die Wellenfunktion in der Quantenmechanik

Gehört zu: Quantenphysik
Siehe auch: Schrödinger-Gleichung, Materiewellen, Komplexe Zahlen, Lineare Algebra

Stand: 23.08.2024  (Observable, Zeitabhängigkeit, klassische Welle, Korrespondenzprinzip)

Die “klassische” Welle

Seit alters her beschreiben wir eine Welle durch eine Sinus- bzw. Cosinus-Funktion.

\( \Large y(t) = A \cdot \cos( 2\pi  f \cdot t + \Phi) \\ \)

Dabei ist A die Amplitude und Φ die Phasenverschiebung. Wobei wir die Frequenz f zunächst nicht weiter betrachten.

Das Paar aus Amplitude und Phasenverschiebung kann man sich als eine komplexe Zahl in Polarkoordinaten vorstellen:

\( \Large z = A \cdot e^{i \Phi} \\\)

Wenn die Welle nicht nur von der Zeit abhängt, sondern auch von der Ortskoordinate, kann man ganz allgemein eine Wellenfunktion auch so schreiben:

\( \Large y(x,t) = A \cos{(kx – \omega t)} \\\)

Wobei  \( \Large k = \frac{2 \pi}{\lambda} \) die sog. Wellenzahl ist

und   \( \Large \omega = 2 \pi f \) die  sog. Kreisfrequenz

Link: https://youtu.be/MzRCDLre1b4

Die Wellenfunktionen in der Quantenphysik

Youtube: https://youtu.be/YJjHI7Gxn-s?si=iYv8Kg0MbKDfWvr7

In der klassischen Mechanik (Newton etc.), wird ein Teilchen durch Ort x(t) und Implus p(t) beschrieben mit seinem sog. “Zustand”. Wenn man den Zustand zu einem Zeitpunkt t=0 kennt, also x(0) und p(0), dann kann man alle zuküftigen Zustände berechnen durch Newtons berühmte Gleichung:

\( F = \, – m \ddot x \)   d.h. \( F = \, –  \dot p  \)

In der Quantenphysik macht man das mit der Wellenfunktion Ψ. Sehr allgemein gesagt: Eine Wellenfunktion beschreibt den Zustand eines quantenmechanischen Teilchens.

Der Wertebereich einer Wellenfunktion sind die Komplexen Zahlen. Der Definitionsbereich sind Ort und Zeit Ψ(r,t).
Der Wert ist also eine Komplexe Zahl, veranschaulicht in Polar-Koordinaten durch einen Vektor mit einer Länge auch “Amplitude” genannt, und einem Winkel, auch Phase genannt.

Für die Darstellung Komplexer Zahlen in Polar-Koordinaten benutzt die Quantenmechanik gerne die sog. Exponential-Darstellung:

\(\Large z ={r} \cdot e^{i \cdot \phi} \\\)Damit kann man sich die Komplexe Zahl gut als Vektor einer bestimmten Länge (r auch genannt Amplitude) mit einem Drehwinkel (Φ auch genannt Phase) vorstellen.

Da der Wert der Wellenfunktion eine Komplexe Zahl ist, kann man sie nicht “direkt” beobachten; der Betrag der Wellenfunktion zum Quadrat ist aber eine nicht negative reelle Zahl und ist so der Beobachtung zugänglich.

Wir werden später sehen, dass man mit der Wellenfunktion die Wahrscheinlichkeit für den Aufenthalt eines Teilchens an einem bestimmten Ort (Aufenthaltswahrscheinlichkeit) und auch die Wahrscheinlichkeiten anderer Größen, sog. Observable berechnen (vorhersagen) kann. Daher auch der Spruch “Shut up and calculate”, angeblich auf Richard Feynman (1918-1988) zurückgehen soll…

Woher bekommen wir die Wellenfunktion eines quantenmechanischen Systems? Die Wellenfunktion bekommen wir als Lösung der Schrödinger-Gleichung.

Die Kopenhagener Deutung der Wellenfunktion

Dazu habe ich einen eigenen Blog-Artikel geschieben: Kopenhagener Deutung.

Operatoren und Observable

Was ist ein Operator?

Ein Operator bildet einfach eine Funktion auf eine andere Funktion ab. Traditionell spricht man dann nicht so allgemein von einer “Abbildung”, sondern von einem “Operator”. Folgendes Beispiel für Operatoren habe ich aus einem Youtube-Video von Prof. Patrick Nürnberger entnommen:

Um zu zeigen, was ein Operator macht, nehmen wir für ein Beispiel als Funktion einfach einmal \( \Psi(x) = e^{-x^2} \) und als Operator nehmen wir, ebenfalls als Beispiel, die zweite Ableitung der Funktion nach x und schreiben diesen Operator als \( \Large \hat A = \frac{d^2}{dx^2} \).

Dann ist dieser Operator angewendet auf unsere Funktion (nach der Kettenregel):

\( \hat A \Psi = \frac{d^2}{dx^2} \, e^{-x^2} = \frac{d}{dx}(-2x \, e^{-x^2}) \\\)

Die Produktregel ergibt dann:

\( \hat A \Psi = -2 \cdot e^{-x^2} + (-2x) \cdot (-2x \, e^{-x^2}) = (4x^2 – 2) e^{-x^2}\)

Was sind Observable?

Experimentell beobachtbare Größen eines physikalischen Systems, also Messgrößen.

Observable sind z.B.:

  • Ort
  • Impuls
  • Kinetische Engergie
  • etc.

Operatoren in der Quantenmechanik

Wahrscheinlichkeitsdichte

Den Zustand eines quantenphysikalischen Systems beschreiben wir durch die Wellenfunktion Ψ, die wir aber nicht direkt beobachten können und von der wir im Moment auch noch nicht wissen, wie sie ermitteln könnten. Um zu beobachtbaren Größen zu kommen, benutzen wir die oben eingeführten Operatoren, die auf die Wellenfunktion angewendet werden und dann beobachtbare Werte (“Observable”) liefern; aber auch nur als Wahrscheinlichtkeitsverteilung (woraus ich Erwartungswerte etc. berechnen kann).

In Analogie zur  Kopenhagener Deutung schreiben wir für eine beliebige Observable Q die Wahrscheinlichkeitsdichte als:

\(\Large \rho(Q) = \Psi^* \hat Q \Psi \\\)

Der zur Observablen \( Q \) zugeordnete  Operator \(\hat Q \) liefert dann zusammen mit der Wellenfunktion des quantenphysikalischen Systems die Wahrscheinlichkeitsverteilung dieser Observablen (in reelen Zahlen).

In Analogie zur  Kopenhagener Deutung schreiben wir für eine beliebige Observable Q den Erwartungswert als:

\(\Large \langle \hat{Q} \rangle= \int\limits_{-\infty}^{+\infty} \Psi^* \hat{Q} \Psi dx \)

Das Korrespondenzprinzip

Der Begriff “Korrespondeszprinzip” hat je nach Kontext, verschiedene Bedeutungen.  In der Quantenmechanik hat ihn z.B. Niels Bohr bei seinem Atommodell eingeführt. In der Wellenmechanik versucht das Korrespondenzprinzip eine Korrespondenz zwischen klassischen Messgrößen und Operatoren herzustellen.

Welcher Operator wird in der Quantenmechanik für welche Observable genommen? Dazu haben wir zwei Beispiele:

Beispiel 1: Die Observable “Ort” (eindimensional):

Operator:   \( \Large\hat{x} \Psi(x,t) = x \cdot \Psi(x,t) \normalsize \text{ also Multiplikation}\)

Beispiel 2: Die Observable “Impuls” (eindimensional):

Operator: \( \Large\hat{p} \Psi(x,t) = -i \hbar \frac{\partial \Psi(x,t)}{\partial x} \normalsize \text{ also Ableitung} \)

Weitere Zuordnungen von Operatoren zu Observablen konstruieren wir daraus. Das nennt man Korrespondenzprinzip.

Fragen wir beispielweise nach dem Operator für die Observable eindimensionale “kinetische Energie”, so beginnen wir mit der klassischen Formel:

\( \Large E_{kin} = \frac{p^2}{2m} \\\)

und ersetzen dann die klassiche Größe Impuls p durch den obenstehenden Impuls-Operator:

\( \Large \hat{E}_{kin} = \frac{{\hat p}^2}{2m} = \frac{-\hbar^2}{2m} \frac{d^2}{dx^2}\\\)

Allgemein besagt das Korrespondenzprinzip, dass wir aus einer klassischen Messgröße, die vom Ort und vom Impuls abhängt, also \(f(x,p)\), in der Quantenmechanik einen “korrespondierenden” Operator bekommen: \( \hat{f}(\hat x, \hat p) \)

 

Physik: Ebbe und Flut

Gehört zu: Unsere Erde, Sonnensystem
Siehe auch: Gravitation, Mond
Benutzt: SVG-Grafik aus GitHub, Excel Sheet aus Google Drive

Stand: 19.10.2023

Ebbe und Flut im System Erde-Mond

Wie auf jeden ausgedehnten Körper in einem inhomogenen Gravitationsfeld, wirkt auch auf die Erde durch das Gravitationsfeld des Mondes (und der Sonne) eine Gezeitenkraft.

Einfluss des Gravitationsfeldes

Als erste grobe Abschätzung betrachten wir zwei Punkte auf der als kugelförmig angenommenen Erde: mondzugewandt (378029 km) und mondabgewandt (390771 km) und vernachlässigen die Gravitationsfelder anderer Körper wie Sonne, Jupiter etc.

Abbildung 1: Gezeitenkraft im System Erde-Mond (Github: EbbeUndFlut.svg)
EbbeUndFlut.svg
Das Geheimnis, warum zwei Flutberge entstehen, ist gar kein Geheimnis. Die differentielle Gravitation macht auf beiden Seiten eine (fast) gleiche Beschleunigung von 0,11 10-5 m/s2.

Die Beschleunigung (a) durch die Anziehungskraft des Mondes in unterschiedlichen Entfernungen (r) vom Mond kann man ja leicht berechnen, wenn man die Masse des Mondes (M) sowie die Gravitationskonstante (G) hat:

\( \Large a(r) = G\frac{M}{r^2} \\\)

Tabelle 1: Berechnung der Gravitationsbeschleunigung (Google Drive: 20231019_Gravitation.xlsx)

Die resultierende Gravitationsbeschleunigung (Kraft) auf den dem mondzugewandten Punkt ist also: (3,43 – 3,32) 10-5 m/s2 =  0,11 10-5 m/s2
Die resultierende Gravitationsbeschleunigung (Kraft) auf den vom mondabgewandten Punkt ist also: (3,21 – 3,32) 10-5 m/s2 = -0,11 10-5 m/s2
Wir sehen also, wie Gezeitenkräfte (inhomogenes Gravitationsfeld) ausgedehnte Körper in die Länge ziehen.

In der Astronomie kennt man diesen Effekt schon lange z.B. darf ein Mond nicht näher als die sog. Roche-Grenze an einen Planeten kommen, sonst wird er durch die Gezeitenkräfte auseinandergerissen.  Auch kennnt man das bei bestimmten Jupitermonden und Saturnmonden, die durch die Gezeitenkräfte ihres Planeten im Inneren “durchwalkt” werden, wodurch Reibungshitze entsteht. Auch die sog. “Spagettifizierung” von Objekten nahe eines Schwarzen Loches ist ein populäres Beispiel für die Gezeitenkraft. Die Spagettifizierung ist ein theoretischer Effekt, der aber noch nicht praktisch beobachtet wurde.

Einfluss der Zentrifugalkraft

Die Größe der Zentrifugalkraft in einem rotierenden System hängt vom Abstand (r) vom Drehpunkt ab:

\( F_{Zf} = m \cdot \omega^2 \cdot r \\\)

Der Drehpunkt dieser Bewegung ist zweifellos der Schwerpunkt des Systems Erde-Mond. Was dreht sich denn nun um diesen Drehpunkt?

Offensichtlich ist es die Erde mit ihrem der Erdmittelpunkt, der eine Kreisbahn um diesen Drehpunkt beschreibt. Da der Abstand Erdmittelpunkt-Drehpunkt gleich bleibt, bleibt auch die aus dieser Bewegung resultierende Zentrifugalkraft von der Größe her konstant. Jeder Punkt auf der Erde beschreibt eine verschobene deckungsgleiche Kreisbahn, die also an jedem Ort identisch ist. Damit hat diese Drehbewegung keinen Einfluss auf die Gezeiten: https://www.weltderphysik.de/gebiet/erde/atmosphaere/meere/gezeiten/

 

Urlaub: USA Südstaaten

Gehört zu: Urlaub

Urlaub in den Südstaaten

Am Mississippi von New Orleans nach Memphis

Etwa im Jahre 1995 machten Monika und ich eine Reise durch die Südstaaten der USA.

Links geprüft am: 2004-04-09, 2003-04-18, 2002-01-26, 2022-04-20

Astronomie: Skywatcher AZ-GTi Reisemontierung

Gehört zu: Montierungen
Siehe auch: Reisemontierungen, ASCOM, EQMOD, Mobile Stromversorgung, SynScan
Benutzt:  Fotos von Google Drive

Stand: 13.02.2025

Reisemontierung: Skywatcher AZ-GTi

Im April 2022 hatte ich die Idee, in diesem Jahr in Namibia mal etwas ganz anderes zu machen: Weitwinkel-Fotos (Wide field).

Also wollte ich mein Canon Fotoobjektiv Sigma 24mm dafür benutzen. Einen Adapter für meine Astrokamera ZWO ASI294MC Pro hatte ich ja schon.

Die Planung solcher Weitwinkel-Aufnahmen konnte ich mit Stellarium machen und habe sie schon mal hier aufgeschrieben.

Zur Nachführung wollte ich meinen ebenfalls schon vorhandenen Star Adventurer einsetzen. Ein Test bei mir auf der Terrasse in Hamburg zeigte aber Schwächen in der Nachführung und macht mir auch klar, dass zum Ansteuern der geplanten Bildmitten viel manuelles Gefummel notwendig sein würde. Kurz und gut: Ich entschloss mich, auf eine kleine Goto-Montierung aufzurüsten. Es wurde dann die Montierung Skywatcher AZ-GTi (für Eur 329,– Listenpreis bei Teleskop Service), die ich im EQ-Modus benutzen wollte.

Für mich relevante Eigenschaften

  • Motorisch in zwei Achsen (“Goto”)
  • EQ-Modus mit zusätzlicher Wedge und Firmware-Update
  • Passt auf vorhandene Star Adventurer Wedge (aber eine M8-Schraube austauschen!)
  • Nachführung über Zahnkränze mit 144 Zähnen; also mit einer Worm Period von 86164/144 = 598,36 Sekunden (ca. 10 Minuten)
  • Stromversorgung: 12 Volt (Batterien oder extern)
  • Gewicht: 1300 g
  • Steuerung über WiFi (Windows oder Android App “SynScan Pro”) – oder EQDirect-Kabel
  • ASCOM möglich
  • Tragkraft: 5 kg
  • Gegengewichtsstange: fehlt (M12 Aussengewinde erforderlich)
  • Gegengewicht: fehlt  (nehme das von meinem Star Adventurer)

Abbildung 1: Meine Skywatcher AZ-GTi in EQ Mode (Google Drive: 20220417.jpg)

Das obige Bild zeigt meinen gesamten Aufbau. Nicht alles wollte der Lieferant der AZ-GTi (Teleskop-Service) mit liefern. Mit etwas Probieren und Suchen in Astro-Foren hatte ich die Teile zusammen:

  • Stativ: Sirui ET-1204  (vorhanden)
  • EQ Wedge: Skywatcher Star Adventurer Wedge   (vorhanden)
    • Zum Austauschen an der Wedge: Schraube M8 x 40 mm (Baumarkt)
  • Montierung: Skywatcher AZ-GTi  (von Teleskop Service)
    • AZ GTi Firmware: AZ-GTi Mount, Right Arm, AZ/EQ Dual Mode, Version 3.37 (Download aus Internet)
    • AZ GTi Firmware Loader (Download aus Internet)
    • SynScanPro für Windows  (Download aus Internet)
    • ASCOM für SynScanPro   (Download aus Internet)
    • Schlossschraube M12 x 200mm mit Gegengewicht vom Star Adventurer (Baumarkt)
  • Halterung “Holderring”  für ZWO-Kamera  (vorhanden: Teleskop-Service ASIHOLDERRING78)
  • ZWO Kamera ASI294MC Pro  (vorhanden)
  • Filterschublade für Canon-Bajonett und M42 (vorhanden: Teleskop Service ZWO-FD-EOS)
  • Filter: UV- und IR-Cut  (vorhanden)
  • Fotoobjektiv Sigma 24mm   (vorhanden)
  • Sucherschuh mit flacher Auflage (vorhanden)

Anschalten der AZ-GTi

Zum Anschalten gibt es einen kleinen roten Wipp-Schalter an der Unterseite der AZ-GTi. Wenn man den anschaltet, blinkt daneben eine kleine LED (und es sollte sich das WLAN der AZ-GTi anschalten).

Das setzt allerdings voraus, dass das Gerät mit Strom versorgt ist.
Mit einem Steckernetzteil 3.0 A hat das funktioniert – soll heißen, mit dem EQMOD-Kabel (s.u.) kam eine Verbindung zur EQASCOM-Toolbox auf meinem  Windows-Laptop zustande.
Wie wird das mit meiner mobilen Stromversorgung, dem Celestron Powertank LiFePO4, gehen?
Der Powertank geht auch – wenn man zweimal auf die Taste “Power/Status” drückt.

Das WLAN der AZ-GTi

Standardmäßig macht die AZ-GTi einen eigenen WLAN-Access-Point auf (SSID: SynScan_xxxx)  und man muss also aufpassen, dass der Astro-Computer mit diesem WLAN verbunden ist.  Das ging bei mir durchaus gut, aber dann war ich eben nicht in meinem häuslichen WLAN, das die FritzBox aufspannt, verbunden. Man hätte am AZ-GTi ein paar Einstellungen vornehmen müssen, damit das Teil sich in mein vorhandenes häuslichen WLAN einwählt.

Das WLAN der AZ-GTi schaltet sich automatisch ein, wenn der Strom angeschaltet wird. Innerhalb von 15 Minuten muss man dann die Verbindung aufbauen, sonst schaltet sich das WLAN wieder aus.

EQDirect-Kabel für die AZ-GTi

Im Mai 2022 hatte ich mir doch noch ein EQDirect-Kabel für die Montierung AZ-GTi gegönnt.

Gekauft habe ich das Kabel im Internet bei der Niederländischen Firma Robotics für Euro 25 plus Shipping Euro 11. Mein vorhandenes EQDirect-Kabel für die Skywatcher HEQ5 Pro passte nicht, weil da ein anderer Stecker (RJ45) dran war.

Das neue EQDirect-Kabel passt wunderbar. Es wird bei der Montierung AZ-GTi in die Buchse “Handbox” (RJ11) gestöpselt und das USB-Ende (wo wohl der Seriell-USB-Wandler integriert ist) kommt an den Windows-Computer, wo ein COM-Port simuliert wird.

Der Vorteil für mich: Keine Fummelei mit einem WLAN mehr und einfach eine ASCOM-Verbindung zu meinem Windows-Computer (EQMOD). Dann kann ich über ASCOM meine altvertraute Software, wie SharpCap, Cartes du Ciel, APT, N.I.N.A. etc, benutzen.

Steuerung der AZ-GTi über Computer

Die Steuerung der Montierung kann mit der vom Hersteller mitgelieferten Software “SynScan” erfolgen.

Aussderdem gibt es einen ASCOM-Treiber vom Hersteller, der allerdings auf SynScan aufstezt.

Mit dem EQDirect-Kabel kann man “normal” mit EQMOD arbeiten.

Man kann so also mit seiner bekannter Software wie EQMOD, SharpCap, N.I.N.A., etc. arbeiten.