Fernsehen: Fire TV Stick

Gehört zu: Fernsehen
Siehe auch: Streaming

Der Amazon Fire TV Stick

Dieses von Amazon meistverkaufte  Teil ist ein kleiner “Stick”, ähnlich einem USB-Speicherstick. Allerdings hat er da wo ein normaler USB-Speicherstick seinen USB-Stecker hat, einen etwas anderen Steker, der in einen HDMI-Anschluss passt.

Die eigentliche Zielrichtung dieses FireTV-STicks, ist es Streaming-Dienste auf einem evtl. älteren Fernseher nutzbar zu machen (“Smart TV”).

Was ist der FireTV-Stick?

Der Fire TV Stick besteht insgesamt aus:

  • HDMI-Stecker zur Verbindung mit einem Video/Audio-Player (z.B. Fehrseher, Beamer,…)
  • Micro-USB-Buchse zur Stromversorgung
  • Betriebssystem FireOS, was eine Android-Variante ist
  • WLAN zur Verbindung mit dem Internet (muss natürlich konfiguriert werden)

Das Betriebssystem FireOS stellt verbindet dann mit dem eingestellten heimischen WLAN und kann dann diverse Apps laden, die zum “Fernsehen” bzw. “Streaming” gebraucht werden können.

Mein FireTV-Stick trägt die Bezeichnung “Amazon Fire TV Stick (2. Generation)”.

Die OS-Version ist 5.2.8.9

Apps für FireOS

Live Fernsehen

Zugriff auf Mediatheken

Zugriff auf Streaming-Dienste

Zugriff auf alles mögliche im Internet (z.B. WebBrowser, YouTube)

Was der FireOS-Stick nicht kann

Fernsehsendungen aufnehmen (“recording”) und  zeitversetztes Ferhsehen (“Time-Shift”).

 

Telefonieren: Knebelverträge der Telekom

Gehört zu: Telefonieren
Siehe auch: Internet, Fernsehen

Stand: 14.08.2022

Telefonieren: Knebelverträge der Telekom

Noch immer arbeitet die Telekom standardmäßig mit Mindestvertragslaufzeiten von 24 Monaten.

Nach Ablauf dieser 24 Monate ist die Telekom dann großzügig: man hat dann eine Kündigungsfrist von 1 Monat.

Der “Trick” der Telekom ist Kunden deren Mindestvertragslaufzeit abgelaufen ist, einen neuen Tarif anzubieten. Der neue Tarif ist dann günstiger (mehr Leistung, weniger Geld bzw. gleichviel Geld, aber es beginnt eine neue Mindestvertragslaufzeit von 24 Monaten.

Also aufgepasst: Laufzeit-Knebelverträge der Telekom sehr gut überlegen…

Für die Suchmaschine: Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt. Noch immer versucht die Telekom Knebelverträge. Der Trick ist, neue Tarife anzubieten bei denen eine neue Mindesvertragslaufzeit beginnt.

Astronomie: Elektronischer Canon-Adapter von AstroMechanics

Gehört zu: Astrofotografie
Siehe auch: Foto-Objektive, Motorfokusierer, N.I.N.A., ASI294MC Pro

Stand: 19.11.2022

Link: https://www.youtube.com/watch?v=lHrfaR7A0L0

Elektronischer Canon-Adapter

Ich hatte mir für meine Namibiareise in 2022 ja vorgenommen, Weitwinkelaufnahmen mit meiner neuen Reisemontierung Skywatcher AZ GTi zu machen. Denn ich wollte mal etwas anderes machen, als was alle immer machen. Ausserdem sah es so aus, dass in Namibia kein Teleskop für mich frei sein würde.

Ich hatte mir schon ein Canon-Fotoobjektiv EF 50mm, 1:1.8 angeschafft (das “fantastic plastic”), aber ich musste feststellen, dass das manuelle Fokussieren damit eine sehr wackelige Angelegenheit war. Am Ende half ein Klebestreifen. Die Einstellung mit “MF” war sehr lose; die Einstellung “AF” schön fest. mit “AF” würde ein Motor-Fokusierer ja arbeiten…

Bestellung des Adapters AstroMechanics

Ich hatte aber schon vom “Lazy Geek” vom Balkon in Tokio gehört, dass es einen tollen Adapter für Canon-Fotoobjektive mit EF-Bajonett gäbe, der per USB vom Computer aus Fokus und Blende des Objektivs verstellen kann. Das Teil wird von der russischen Firma AstroMechanics hergestellt und verhält sich letztlich wie ein Motorfokusierer, der über ASCOM und z.B. N.I.N.A. gesteuert wird. Ausserdem kann man die Blende ohne einen Canon-Body mitzunehmen einstellen.

Obwohl dieses Teil von AstroMechanics (Adapter für APS-C M42x0.75) recht teuer ist (230 USD und mehr), wollte ich die Bequemlichkeit (Lazy Geek) doch geniessen und den Adapter bei AstroMechanics bestellen.  Leider konnten die kriegsbedingt nicht liefern. Auch eine Firma aus Finnland (Astro Art) und eine aus Australien (Sidereal Trading) konnte nicht helfen. Schließlich wurde ich bei der japanischen Firma ElectricSheep fündig, die auch der “Lazy Geek”  genannt hatte. Electric Sheep hatte den Adapter auf Lager und wollte auch nach Deutschland liefern; allerdings auf dem Seewege, was ca. zwei Monate dauern sollte. Ich habe dann am 16.4.2022 bei Electric Sheep bestellt und per PayPal (282,44 EUR) bezahlt.

Am 19.4.2022 ging die Sendung in KAWASAKI HIGASHI per Schiff auf die Reise.

Nach langer Wartezeit sah ich in der DHL-Sendungsverfolgung, dass das Teil am 21.6.2022 beim Flughafen Radefeld Leipzig angekommen war. Dort lag es 3 Wochen lang und nichts tat sich im DHL Tracking. Schließlich kam das Teil am 9. Juli 2022 bei mir in Hamburg per DHL an. Ich musste dabei noch Eur 45,82 Zoll und Eur 6,00 Auslagenpauschale bezahlen, denn das Hauptzollamt Dresden hatte noch Zeit und Mühe für einen amtlichen Bescheid aufgewendet.

Was leistet der AstroMechanics-Adapter?

Der AstroMechanics-Adapter kann vorne Canon-Objektive mit Canon-EF-Bajonett aufnehmen und hat hinten ein M42x0.75-Gewinde. Damit passt er genau an meine Kamera, die ASI294MC Pro.

Zunächst musste ich eine Stand-Alone-Software “CanonEF Desktop Control.zip” und einen ASCOM-Treiber “ASCOM Driver.zip” herunterladen von:

Mit der Stand-Alone-Software kann ich Fokus und Blende eines Canon-EF-Objektivs (muss AF haben) per Computer verstellen.

Mit dem ASCOM-Treiber funktioniert das Teil wie ein Motor-Fokussierer z.B. mit N.I.N.A., SharpCap oder…
Ich stelle das Foto-Objektiv dann von “MF” auf “AF” und brauche den Klebestreifen nicht mehr.

Ausserdem kann ich hinten in den Adapter einen einzelnen 2-Zoll-Filter einschrauben: Z.B. Astronomik L2 UV-IR Block.

Die zuvor am 5.11.2021 bei Teleskop-Service erworbene Filterschublade ZWO-FD-M42 brauche ich dann nur noch bei meinem “großen” Teleskop ED80/600 und nicht mehr bei Canon-Objektiven. Allerdings brauche ich dann zusätzlich einen Canon-Adapter auf M48 für meinen Flattener-Reducer.

Autofokus

Das Teil ist dann ein echter Motor-Fokussierer und kann damit für Auto-Fokussing z.B. mit N.I.N.A. eingesetzt werden.

Patriot Astro: https://youtu.be/lHrfaR7A0L0

Probleme und Lösungen

Die Blende lässt sich nicht über den ASCOM-Treiber einstellen, sondern nur mit der Stand-Alone-Software “CanonEF Desktop Control”.

Das Canon-Objektiv muss sauber in das Bajonet des Adapters eingesetzt werden, sodass die Kontakte schön zusammen passen.

 

 

Computer: Microsoft Windows 11

Gehört zu: Windows
Siehe auch: Windows 10, Windows Boot Manager, Rufus

Stand 31.12.2024

Microsoft Windows 11

Windows 11 ist der Nachfolger von Windows 10. Eigentlich sollte nach Aussagen von Microsoft Windows 10 die letzte Version von Windows sein und es also ein Windows 11 gar nicht geben.

Trotzdem wurde Windows 11 im Jahre 2011 von Microsoft angekündigt und es sollte ein kostenloser Wechsel auf Windows 11 möglich sein…

Windows 11 Dateisystem

Beim Aufräumen oder Umsortieren von Verzeichnissen, kommt man manchmal mit dem Berechtigungsystem für Dateien in Kontakt: z.B. kann man eine Datei oder einen Ordner nicht löschen etc.

Als erstes ist der Eigentümer (“Owner”) einer Datei oder eines Ordners wichtig. Bei mit war vielfach als Owber der “Trusted Installer” eingetragen. Das kann man einfach ändern:

takeown /F *

übernimmt die Ownership für alle Dateien im aktuellen Ordner (“*”) auf den aktuell angemeldeten User.

Für jeden User kann man dann Zugriffsrechte festlegen. Daus geht so:

icacls * /grant:r “Jeder:(F)” /c

Damit bekommt der User “Jeder” die vollen (“Full”) Zugriffsfrechte, also Löschen etc. auf alle Dateien im aktuellen Ordner.

Was ist neu in Windows 11

Die Symbole auf der Taskleiste sind jetzt standardmäßig mittig.

Das Windows-Symbol ist jetzt nicht mehr trapezförmig, sondern quadratisch.

Das Action Center wurde umbenannt in Schnelleinstellungen

Einen eigentlichen “Benachrichtigungsassistent”, wie bei Windows 10, gibt es nicht mehr – Benachrichtigungen (Symbol: Glocke) gibt es bei ein Schnelleinstellungen und bei Einstellungen -> System -> Benachrichtigungen

Aus meinen Folien vom 29.11.2021

Bei Windows 10 gab es immer diese schönen Versionen:

  • Großes Funktions-Update im Frühjahr
  • Kleineres Wartungs-Update im Herbst

Die Versionsnamen waren: …,1909, 20H1, 20H2, 21H1

Nun gibt es für Windows 10 eine weitere Version: 21H2

Offizielle Wartung für Windows 10 bis 14. Okt. 2025

Windows 11

  • Windows 11 gibt es offiziell seit Okt. 2021.
  • Auch zu Windows 11 gibt es jetzt ein Versions-Update: 21H2…

TPM 2.0 Trusted Platform Modul

Windows 11 benötigt TPM 2.0 (für Windows Hello, BitLocker u.a.)

Feststellen, ob TPM 2.0 unterstützt wird:  Run: tpm.msc

Wenn TPM nicht aktiviert: Im UEFI-BIOS (Firmware) einstellen

UEFI-BIOS:

  • Einstellungen > Update & Security (Sicherheit) > Recovery (Wiederherstellung) > Erweiterter Start

Problembehandlung > Erweiterte Optionen > UEFI-Firmware

Android-Apps unter Windows 11

Wenn man einige Apps vom Telefon (Android) auch mal auf seinem Windows-Computer nutzen will, gibt es einige Hoffnungsstreifen am Horizont:

Bei Windows 11 sollen Im „Windows Store“ auch Android-Apps verfügbar sein (aber sind das nur einige oder alle?).

Bei Windows 10 gibt es sog. „App Player“, die es möglich machen, Android-Apps darunter laufen zu lassen…

Beispiel: „BlueStacks

Änderungen in Windows 11

Das Startmenü ist “entschlackt”

Das Kontextmenü ist “übersichtlicher”

Der Internet Explorer ist ersetzt durch “Chromium Edge”

Windows 11 soll etwas schneller als Windows 10 laufen

Taskleiste nur noch am unteren Bildschirmrand

Ältere CPUs werden nicht mehr unterstützt (z.B. nur Intel ab Generation 8)

TPM 2.0 Chip offiziell erforderlich

Zwang zum Online-Konto (nicht bei Pro-Version)

Windows 11 ist auf PCs/Notebooks, die man jetzt kauft einfach vorinstalliert

Die offizielle Wartung von Windows 10 läuft am 14. Okt. 2025 aus

The Bottom Line

Windows 11 hat zur Zeit eigentlich keine wesentlichen Vorteile. Man braucht also nicht “unruhig” zu werden, wenn man Windows 10 noch weiter nutzt.

Wenn man trotzdem auf Windows 11 umsteigen will, könnte man das mit Expertenhilfe jederzeit tun.

Experten können Windows 11 auch ohne die von Microsoft vorgesehenen Sperren installieren.

Also:

  • Ohne TPM2.0-Modul
  • Ohne Prüfung der CPU
  • Ohne Online-Konto bei Microsoft

Wenn man ein neues Gerät bekommen hat, auf dem Windows 11 bereits vorinstalliert ist, gibt es aber auch keinen zwingenden Grund, auf Windows 10 zurückzugehen.

 

 

Physik: Die Bra-Ket-Notation

Gehört zu: Quantenphysik
Siehe auch: Schrödinger, Komplexe Zahlen, Vektorräume

Stand: 02.08.2022

Die Dirac-Notation

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\). So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Teil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zu jedem Ket-Vektor definieren wir noch einen sog. Bra-Vektor:

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Zu dieser Bra-Ket-Notation gibt es enorm viele Youtube-Videos. Ein ganz einfaches ist: https://youtu.be/pBh7Xqbh5JQ

Einig sind sich alle Authoren über die Frage, was ein Ket-Vektor ist: eben ein “normaler” Vektor aus unserem Vektorraum V (also ein “Spaltenvektor”:

\( |v\rangle  = \left( \begin{array}{c} v_1 \\\ v_2 \\\ \vdots \\\ v_n  \end{array}\right) \)

Aber was um Himmelswillen ist der dazugehörige Bra-Vektor?

Einfache Gemüter sagen einfach:

\( \langle v|  = \left( \begin{array}{r} v_1^\ast & v_2^\ast & \cdots & v_n^\ast  \end{array}\right) \)

Der etwas nachdenkliche Mathematiker fragt sich:

  • “Konjugiert komplex” ist ja zunächst nur für Skalare (komplexe Zahlen) definiert. Kann man auch zu einem Vektor den konjugiert komplexen bilden?
  • Mit endlichen Dimensionen geht das ja alles so. Aber in der Quantenphysik wird man doch mit Hilberträumen unendlicher Dimension arbeiten. Wie funktionieren diese Konzepte denn da?

Skalarprodukt

MIt HIlfe von Bra-Vektor und Ket-Vektor definieren wir nun ein Skalarprodukt (inneres Produkt):

Das Skalarprodukt der Vektoren v und w schreiben wir als:
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

Das so definierte Skalarprodukt ist nicht mehr kommutativ, sondern “hermitisch”; d.h.:

\( \langle v, w \rangle  = \langle w, v \rangle ^\ast \)

Das Skalarprodukt eines Vektors mit sich selbst ist immer reelwertig und “positiv definit”.

Hilbertraum

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)

Astronomie: N.I.N.A. Advanced Sequencer

Gehört zu: N.I.N.A.
Siehe auch: APT, SGP, Platesolving mit N.I.N.A.

Stand: 19.7.2022

Der Advanced Sequencer

Seit N.I.N.A’s Version 2.00 gibt es den “Advanced Sequencer”, der den “Simple Sequencer” ablösen soll.

Eine “Sequence” besteht aus sog. “Instructions”.

Solche Instructions sind einzelne Befehle an das angeschlossene Astro-Equipment, wie beispielsweise:

  • Start Guiding
  • Cool Camera
  • Go to Target
  • Take an Exposure
  • Do Autofocus
  • Do Plate Solving
  • Center on Target
  • Change Filter
  • Do Dithering

Die Instructions einer Sequence werden gruppiert in einen Startbereich, einen Target-Bereich und einen Endbereich.

Außerdem kann man mehrere Instructions auch zu einem “Instruction Set” zusammenfassen. So ein “Instruction Set” kann wiederholt durchlaufen werden (mit einer Loop Condition) oder auch nur bedingt angestoßen werden (durch einen sog. Trigger).

Die Beschreibung einer bestimmten Sequence durch detaillierte Instruktionen kann sehr umfangreich werden. Deshalb arbeitet N.I.N.A. mit sog. “Templates” (Vorlagen) für typische Sequences, bei denen dann nur noch wenige Details angepasst werden müssen.

Häufig wird ein und die selbe Sequence eigentlich unverändert auf verschiedene Zielobjekte angewendet. Solche Zielobjekte heissen bei N.I.N.A. “Targets” und haben ausser ihrem Namen eigentlich nur spezifische Koordinaten für den Bildmittelpunkt und einen spezifischen Rotationswinkel. Solche Targets können in N.I.N.A. separat abgespeichert werden und später in eine fertige Sequenz eingefügt werden (per Drag and Drop).

Voraussetzungen für den Advanced Sequencer

Das Teleskop (der ASCOM-Treiber des Teleskops) muss fehlerfrei verbunden sein mit N.I.N.A. Dazu müssen die geografischen Koordinaten des Beobachtungsorts in N.I.N.A. und die im Teleskop-ASCOM-Treiber übereinstimmen. N.I.N.A. kann das “synchronisieren”, was aber nicht immer funktioniert.

Wenn ich die Himmelskoordinaten eines Beobachtungszieles aus meiner Planatariumssoftware übernehmen will, muss diese auch gestartet sein und ich kann dann dort ein Ziel selektieren – sinnvoll ist dabei, dass Datum und Uhrzeit in der Planetariumssoftware richtig eingestellt sind.

In N.I.N.A. sollte das Platesolving richtig eingestellt sein und bei einem Test auch funktionieren.

Erstellen von Targets

Ein “Target” in N.I.N.A. ist ja soetwas wie ein geplanter Bildausschnitt – also bestimmt durch die Koordinaten des Bildmittelpunkts und den Rotationswinkel (bei gegebenem Field of View).

So ein Target kann ich aus dem zugeordneten Planetariumsprogramm in N.I.N.A. übernehmen. In der N.I.N.A.-Version 2.00 wird dabei auch der Rotationswinkel für das Target übernommen. Im Framing-Assistenten kann man sein Target noch verfeinern.

Statt mit zugeordneten Planetariumsprogramm kann man in N.I.N.A. auch direkt den SkyAtlas verwenden und dann mit dem Framing-Assistenten die Feinarbeit machen.

Vom Framing-Assistenten aus kann man dann das Target abspeichern indem man unten auf die Schaltfläche “Add Target to Sequence” klickt. Man kann dann auswählen, ob man den “Simple Sequencer” oder den “Sequencer” (das ist der neue, der “advanced” sequencer) nehmen will.

Targets kann man also im Vorhinein zur Planung erstellen.

Erstellen von Sequences (aus Templates)

Sequences baut man in N.I.N.A. um den Ablauf am Foto-Abend Schritt für Schritt festzulegen.

Da solche Sequences recht länglich werden können und auch immer wieder Gleiches enthalten, verwendet man dafür meistens vorgefertigte Templates.

So eine Sequence kann man dann starten und damit geht dann am Sternenhimmel der automatisierte Ablauf los.

Einbauen von Targets in Sequences

Gleich beim Speichern eines Targets im Framing-Assistenten kann man “Speichern als Sequenz” wählen. Dann fragt der (advanced) Sequencer auch gleich, welches Template man für dieses Target verwenden möchte.

Man kann das auch alles später im Sequencer machen, wenn man vorher gespeicherte Targets verwenden möchte.

Tutorials

YouTube Videos von Philipp Keltenich:

https://www.youtube.com/watch?v=UMKB8sY8v1U

 

 

 

 

Astronomie: Plate Solving mit N.I.N.A.

Gehört zu: Plate Solving
Siehe auch: N.I.N.A., Polar Alignment mit N.I.N.A., N.I.N.A. Advanced Sequencer
Benutzt: Fotos aus Google Drive

Stand: 28.12.2024

Plate Solving mit N.I.N.A.

N.I.N.A. setzt zum Plate Solving externe Plate-Solving-Software ein. Welche externe Software das sein soll lege ich in den N.I.N.A.-Einstellungen unter “Options -> Plate Solving” fest. Dabei unterscheidet N.I.N.A. zwischen “Plate Solver” und “Blind Solver”.

Da ich in der Vergangenheit sehr gute Erfahrungen mit All Sky Plate Solver gemacht habe, stelle ich den auch in N.I.N.A. ein.

Für den Gebrauch mit N.I.N.A. wird allerdings der Plate Solver ASTAP wärmstens empfohlen. ASTAP werde ich testen und dann später ggf. auf ASTAP umstellen.

Wie bei fast allen astronomischen Unternehmungen ist es auch hier sinnvoll, vor der eigentlichen Beobachtungsnacht, so viel wie möglich vorher am Tage im Wohnzimmer auszuprobieren. Sonst kann es passieren, dass man später bei Dunkelheit, Kälte und Zeitdruck vor Problemen steht, die man viel einfacher früher hätte lösen können.

Testen des Plate Solving unter N.I.N.A.

Vorbereitungen für das Plate Solving mit ASTAP

Zunächst muss die Software “ASTAP” normal installiert werden.

Dann benötigt ASTAP noch einen Sternktalog. Ich installiere den Sternenkatalog D50 (einmalig).

Ich probiere dann zunächst den Platesolver ASTAP ohne N.I.N.A. aus.

Wenn das funktioniert hat, stelle ich ASTAP als Plate Solver in N.I.N.A. ein.

Vorbereitungen für das Plate Solving mit All Sky Plate Solver

Zunächst muss die Software “All Sky Plate Solver” (ASPS) normal installiert werden.

Der ASPS benötigt dann noch sog. Index-Dateien. Welche da erforderlich sind, richtet sich nach der Größe des Field of View (FoV). Das FoV ermittelt ASPS aus  Brennweite der Optik und der Sensor-Größe. Anschießend lädt ASPS die erforderlichen Index-Dateien herunter (einmalig) .

Ich probiere dann zunächst den Platesolver ASPS ohne N.I.N.A. aus.

Wenn das funktioniert hat, stelle ich ASPS als Plate Solver in N.I.N.A. ein.

Einstellungen in N.I.N.A. für Plate Solving

Die beiden externen Plate Solver für “Blind” und “Near” werden bei N.I.N.A. eingestellt unter: Options -> Plate Solving.
Wichtig für das Plate Solving sind auch die Einstellungen für

  • “Pixel Size”   ( stelle ich in N.I.N.A. ein unter: Options -> Equipment -> Camera )
  • “Focal Length” (stelle ich in N.I.N.A. ein bei: Options -> Equipment -> Telescope )

Mein Workflow zum Testen

Zum Plate Solving machen wir ein Astro-Foto  und dann ein “Near Solving” mit dem in N.I.N.A. eingestellten Plate Solver.

N.I.N.A. nimmt als Ausgangspunkt zum Near Solving die Zielkoordinaten des letzten Slew (Goto)

Wir brauchen also eine Kamera für ein fiktives Astro-Foto und eine Montierung für einen fiktiven Slew zum Ausgangspunkt.

1. Fiktiver Slew (Goto)

N.I.N.A. nimmt als Ausgangspunkt zum Near Solving die Zielkoordinaten des letzten Slew (Goto). Um solche Zielkoordinaten für einen fiktiven Slew einzugeben, gibt es in N.I.N.A. mehrere Möglichkeiten.

Am einfachsten (für mich) ist: N.I.N.A. -> Equipment -> Mount -> Simulator -> verbinden.
Dann unter “Manual  Coordinates” Target R.A. und Target Dec eingeben und auf “Slew” klicken (geht natürlich nur, wenn das (fiktive) Teleskop nicht auf “Park” steht).

Es geht aber auch über den N.I.N.A. Framing Assistent: Dort geben wir die Ziel-Koordinaten auch mit der Hand ein und müssen dann aber erst “Load Image” drücken, sonst geht es nicht weiter. Wenn das Bild da ist, erscheinen unten auch die Schaltflächen “Slew and center” und “Add target to sequence”.

Wir drücken auf den kleinen Pfeil rechts in “Slew and center” und wählen im Drop down aus: “Slew” (keinesfalls: Slew, center, and rotate).

So wäre jetzt die Montierung mit dem Teleskop auf die Zielkoordinaten gefahren und ein späterer “Near Plate Solve” würde diese als Ausgangspunkt nehmen.

2. Ein Testfoto machen

Als Ausgangsmaterial benötigt ein Platesolving eine “Plate”, also ein echtes Astrofoto.

Wir suchen in unserem Archiv also ein Astro-Foto, bei dem die Aufnahmedaten Brennweite und Sensorgröße bekannt sind.

Nun stellen wir in N.I.N.A. eine fiktive Kamera ein, die dieses Astrofoto als Bild abliefern soll.

Dazu gehen wir in N.I.N.A. auf Equipment -> Camera -> N.I.N.A. File Camera -> Folder to watch: xyz  -> Connect

Um das eine Testfoto zu machen, gehe ich jetzt in N.I.N.A. auf “Imaging”. In der Mitte sollte jetzt eine große leere Kachel “Image” zu sehen sein, in der das jeweils zuletzt aufgenommene Foto zu sehen sein sollte – also im Moment: nichts.

In der kleinen Unterkachel “Mount” könnte ich kontrollieren, ob meine Ziel-Koordinaten richtig angezeigt. werden (roter Pfeil). In der kleinen Unterkachel “Imaging” könnte ich auf den Auslöser zum Erstellen eines neuen Fotos klicken (blauer Pfeil).

Nach dem Auslösen schnell das ausgesuchte Testfoto in den “Folder to watch” schieben. Das simuliert eine manuelle Kamera.

3. Testen Plate Solving

Nachdem die N.I.N.A. File Camera unser Testfoto als aufgenommenes Foto anzeigt, können wir das Plate Solving starten.

Normalerweise macht man zuerst ein neues Astro-Foto (mit Imaging) und wird danach im Fenster (Pane) “Image” oben rechts auf “Platesolve current Image” klicken (gelber Pfeil).

Abbildung 3: Testen N.I.N.A. Platesolving (Google Drive: NINA_Platesolving_Test_3.jpg)

Eine zweite Möglichkeit zum Platesolving ist das Extra-Fenster (Pane) namens “Plate Solving”. Dort kann man unten auf die Schaltfläche “Play” klicken, dann macht N.I.N.A. gleich ein “Capture image and plate solve”.

Plate Solving im Einsatz

Nun schlten wir die Montierung draussen auf der Terrasse ein in der Richtigen Home-Position. Dann verbinden wir die “echte” Kamera und die “echte” Montierung mit N.I.N.A. und fahren auf ein bekanntes Zielin der Nähe des Nördlichen Himmelspols z.B. Kochab (Alpha UMi). Da machen wir ein Foto und da dann Platesolving & SYNC. Damit haben wir einen ersten “Alignment-Punkt” im Pointing Modell.

Wenn wir nun für weitere Ziele “Slew and Center” einsetzen wollen, sollten wir die erforderliche Toleranz für das “Center” nicht zu klein wählen (gelber Pfeil).

Abbildung 4: NINA Platesolving Pointing Tolerance (Google Drive: NINA_Platesolving_Test_4.jpg)

Nach dem Platesolving

Sehr häufig will man nach dem Plate Solving sofort ein SYNC machen. Nur mit der zweiten Methode ( Extra-Fenster namens “Plate Solving”) kann man einstellen, ob man nach dem Plate Solving gleich ein SYNC machen will.
Ein SYNC macht N.I.N.A. aber nur, wenn ein Teleskop verbunden ist und das Tracking eingestellt ist.
Kontrollieren kann man, ob der verwendete ASCOM-Treiber EQMOD auch wirklich SYNC-Points gespeichert hat unter Setup im Kasten “Alignment/Sync” (falls “Append on Sync” eingestellt war).

Kontrollieren sollte man vorher die für Platesolving relevanten Einstellungen:

  • Name des externen Platesolvers (unter Options -> Plate Solving)
  • Focal Length der Optik mit der das Bild aufgenommen wurde (unter Options -> Equipment -> Telescope)

Wir können das Platesolving unter N.I.N.A. auch am Tage (ohne einen Sternenhimmel) testen, wenn wir ein altes Astro-Foto nehmen und in N.I.N.A. als Kamera einstellen: “N.I.N.A. Simulator Camera” und dabei einstellen “Image” und “Debayer Off”.

Abbildung 1: Plate Solving with SYNC in N.I.N.A. (Google Drive: NINA_Platesolving_and_SYNC.jpg)

Auf obigen BIld sieht man die Schritte:

  • Man öffnet das Platesolving in einem Extra-Fenster (obere Leiste rechts).
  • In diesem Extra-Fenster kann man einige Einstellungen für das Platesolving vornehmen.
  • In diesem Extra-Fenster kann man dann das Platesolving starten (Schaltfläche mit dem Dreieck).
  • N.I.N.A. macht dann ein neues Foto, platesolved dieses und macht danach ein SYNC auf die Montierung.

Fehlermöglichkeiten

  1. Als Platesolver ist in N.I.N.A. eingestellt “All Sky Plate Solver” und der All Sky Plate Solver ist noch offen. Dann sagt N.I.N.A. sofort “Error plate solve failed”
  2. Zum Platesolving benötigt N.I.N.A. ein Teleskop, weil es die Abweichung der Teleskop-Position vom der im Platesolving ermittelten Position feststellen will. Es reicht ein Teleskop-Simulator wobei das Teleskop auf “Tracking” stehen sollte (Tracking Rate = Siderial).
  3. Im Pane “Plate Solving” sollte man Sync=ON einstellen, sonst übergibt NINA keine Sync-Anforderung an den ASCOM-Treiber der Montierung.
  4. Es ist wichtig, die richtige Brennweite im All Sky Plate Solver einzugestellen. Falls die falsch ist, braucht N.I.N.A. lange Zeit bis es schließlich “Error Plate solve failed” sagt
  5. Wenn das Image Capture für ein Platesolving unmittelbar nach einen “Slew” (Goto) statt findet, sollte die Settle Time (after Slew) groß genug eingestellt sein, sonst könnte es Strichspuren geben.

Wofür verwendet N.I.N.A. die Plate Solving Funktion?

  • Center Target & Rotationswinkel
  • Meridian Flip
  • Polar Alignment
  • Laden eines vorhandenen Fotos in den Framing-Assistenten

Wann verwendet N.I.N.A. Plate Solving nicht?

  • Bei einer Sequence mit “Slew to target” aber ohne “Center target”

Wann macht N.I.N.A. kein SYNC?

  • Bei der Funktion “Platesolve current image” im Imaging-Tab

Astronomie: Polar Alignment mit N.I.N.A.

Gehört zu: Polar Alignment
Siehe auch: N.I.N.A., Polar Alignment mit SharpCap, Plate Solving mit N.I.N.A
Benutzt: Fotos aus Google Drive

Stand: 18.07.2024

Polar Alignment mit N.I.N.A.

Ab der offiziellen Version 2.00 hat N.I.N.A. ein Plugin-System und eines der ersten Plugins ist das sog. “Three Point Polar Alignement”.

Nach der Installation dieses Plugins erscheint es in N.I.N.A. u.a. als neuer Tab “Three Point Polar Alignment” im Image-Fenster unter “Imaging”.

Diese Methode des Polar Alignment hat für mich wichtige Vorteile:

  • Es erfordert kein Guiding Scope und keine Guiding Kamera (im Gegensatz zu SharpCap). Funktioniert also beispielsweise mit der “Haupt-Optik” eines einfachen Star Trackers oder meiner einfachen Reisemontierung AZ-GTi.
  • Es ist kostenlos (im Gegensatz zu SharpCap Pro)
  • Es funktioniert auch ohne freien Blick auf den Himmelspol

Prinzipielle Arbeitsweise

N.I.N.A. macht drei Fotos (“Messpunkte”), beginnend an einem Startpunkt (= 1. Messpunkt) und schwenkt von diesem in Rektaszension nach Osten oder Westen um einen bestimmten Betrag zum zweiten und dann zum dritten Messpunkt.
Immer wenn ein Foto erfolgreich ge-platesolved wurde, schwenkt N.I.N.A. auf die nächste Foto-Position.
Aus den drei angefahrenen Positionen und den per Platesolving ermittelten “echten” Positionen ermittelt N.I.N.A. dann die Abweichung der Montierung vom Himmelspol (das ist wohl die Methode “Star Offset”).

Nun soll man die Polausrichtung der Montierung entsprechend manuell korrigieren. Zur Hilfestellung geht N.I.N.A. in eine Schleife und macht laufend Fotos, Plave Solving und erneute Berechnung der aktuellen Pol-Abweichung (das dauert immer ein bisschen).

Arbeitsschritte in N.I.N.A.

Vorbereitung

  • Fokussieren auf die Sterne (z.B. mit SharpCap)
  • Kamera verbinden mit N.I.N.A
  • Teleskop/Montierung verbinden mit N.I.N.A.
  • Ersten Messpunkt manuell anfahren (knapp über den gegenüberliegenden Dächern:  Altitude=40°, Azimuth=30°)
  • Platesolving in N.I.N.A. testen
  • In N.I.N.A. das “Imaging” aufrufen (linke Leiste)

N.I.N.A. Plugin Three Point Polar Alignment

Wenn wir im Imaging das neue Tab “Three Point Polar Alignment” öffnen, haben wir oben zunächst einige Einstellungen:

  • Manual: Off (On)
  • Start from Current Position: On / Off   (oder man gibt die Start-Koordinaten explizit an). Dies ist der erste Messpunkt.
  • Measure Point Distance: 10. Hier geben wir in Grad an, wieweit sich das Teleskop von einem Messpunkt zum nächsten bewegen soll
    Da insgesamt drei Messpunkte benötigt werden, bewegt sich das Teleskop insgesamt zweimal um diesen Betrag.
  • Direction: East / West (das Teleskop bewegt sich dann zweimal um 10° in Reaktaszension nach rechts)

Bevor wir nun das Ganze starten (Play Button), stellen wir das Teleskop auf den gewünschten Startpunkt (s.o.).

Abbildung 1: Beispiel eines Three Point Polar Alignments mit N.I.N.A. und der AZ-GTi  (Google Drive: NINA-PolarAlignment.jpg)

Schriftfarbe

Die Ergebnisse zur Korrektur (“Error Color”) werden in besonders großer Schrift angezeigt, damit man sie von Weitem gut lesen kann.
Leider sind die Farben teilweise so, dass ich kaum etwas erkennen kann. Diese Farben kann man speziell für dieses Plugin besser einstellen. Dazu gehe ich auf die Plugin-Seite…

Abbildung 2: Schriftfarbe (Google Drive: NINA-PolarAlignment-2.jpg)

ComputerAcerBaer Windows 11

Gehört zu: Computer
Siehe auch: ComputerFlachmann, ComputerAsusbaer, ComputerThinkbaer, Tablet, Polar Alignment mit SharpCap Pro

Stand: 05.11.2023

Computer AcerBaer

Ersatz für ComputerAsusbaer

Mein ComputerAsusbaer ist schon ein bisschen in die Jahre gekommen:

  • einige Tasten der Tastatur klemmen
  • des geht nur das langsame WLAN
  • kein Bluetooth
  • er arbeitet recht langsam

Als Ersatz habe ich mir im Juni 2022 (auch im Hinblick auf die geplante Astro-Reise nach Namibia) einen neuen Laptop gegönnt.

Datenblatt ComputerAcerBaer

Ich habe im Juni 2022 dieses Gerät gekauft:

  • Acer Swift 3 (SF314-59-50CV)
  • Betriebssystem: Windows 11 Home     (am 9.8.2023 auf Windows Professional aufgerüstet)
  • Bauart: normaler klappbarer Laptop
  • CPU: 11th Gen Intel(R) Core(TM) i5-1135G7 @ 2.40GHz 2.42 GHz (4 Cores, 8 Threads)
  • Memory: 8 GB
  • Storage: 1 TB SSD: NVMe Micron_2210 MTFDHBA1T0QFD  (Format: M.2)
  • Bildschirm: 1920×1080 Pixel, 14″, matt
  • 1 x USB 3.0
  • 1 x USB 2.0
  • 1 x USB 3.1 Type-C Gen. 2 “Thunderbolt”
  • 1 x HDMI
  • Touchpad
  • Headphon Jack 3,5 mm
  • WLAN: Intel Dual Band Wireless-Gigabit-AX, Wi-Fi 6 (802.11 ax/ac/a/b/g/n)
  • Bluetooth: Bluetooth 5.0
  • Kein Ethernet
  • Kein LTE
  • Beleuchtetes Keyboard
  • Fingerabdruck-Scanner
  • Stromversorgung: Externes Netzteil: Chicony 19 V, 3,42 A  (65 W) oder USB-C Power Delivery
  • Preis: 650 Euro

Tasten beim Hochfahren

Konfiguration (Inbetriebnahme)

 

Computer: Video Production mit OBS Studio

Gehört zu: Video
Siehe auch: MP4, OBS, YouTube

Stand: 22.05.2024

Video Production mit OBS Studio

Ich möchte aus einigen meiner PowerPoint-Vorträge einfache Videos erstellen, die ich z.B. auf Youtube posten kann.

Als Software zur Video-Produktion setze ich die Software OBS Studio ein.

OBS Studio

Die Software ist “OBS Studio 27.2.4 (64 bit)”

Ein OBS-Video kan aus mehreren Szenen bestehen. Zu jeder Szene können im OBS Sourcen zugeordnet werden.
Mein Video soll nur aus einer Szene bestehen, die ich “PowerPoint-Setting” nenne.

Zu dieser einen Szene definiere ich dann drei Soucen wie folgt:

Sourcen in OBS

Um so ein Video herzustellen brauche ich als Quellen (sog. Sourcen):

  • Kamera: Damit will ich mich selbst als Sprecher in die PPT-Folien einblenden
  • Microfon: Damit will ich einen Kommentar zu den PPT-Folien sprechen
  • PowerPoint-Folien: Diese will ich Bild für Bild im Video zeigen, kommentieren und manuell weiterschalten…

Diese die Sourcen füge ich mit dem Plus-Symbol  hinzu. Dabei ist:

  • Meine Kamera ist als OBS Source ein “Video Capture Device”.
  • Mein Microfon ist als OBS Source ein “Audio Input Capture”.
  • Die PowerPoint-Präsentation ist als OBS Source ein “Window Capture”

PowerPoint in OBS

Zunächst erstelle ich meine Präsentation wie immer mit PowerPoint.

Damit die PowerPoint-Folien manuell eine nach der anderen ins Video kommen, richte ich dann in PowerPoint eine Bildschirmpräsentation ein: In der Menü-Leiste von PowerPoint (oben!) klicke ich auf “Bildschirmpräsentation” und dann auf “Bildschirmpräsentation einrichten”. Dort stelle ich ein:

  • Art der Präsentation: Ansicht durch eine Einzelperson (Fenster)
  • Anzeigeoptionen: ./.
  • Folien anzeigen: Alle
  • Nächste Folie: Manuell

Dann starte ich in PowerPoint die Bildschirmpräsentation wie immer. Am unteren Rand rechts habe ich dann die kleinen Schaltflächen zum Weiterschalten der Folien.

Nun kann ich in OBS Studio diese Bildschirmpräsentation als Source vom Typ “Windows Capture” hinzufügen und arrangiere das PowerPoint-Fenster hinter das OBS-Fenster so, dass ich aber den unteren Rand des PPT noch sehen und anklicken kann.

Recording mit OBS

Nun passe ich noch die Größe des Video-Fensters an.

Das Audio wird gleichzeitig separat aufgenommen – Der Laustärke-Pegel ist wichtig

Starten der Aufzeichnung in der Software OBS Studio: Rechts unten der Kasten “Controls” da gibt es “Start Recording”

Meine YouTube-Videos

Bisher habe ich folgende Videos auf diese Art für YouTube gemacht: