Astronomie: Plate Solving in APT

Gehört zu: Astro-Software APT
Siehe auch: All Sky Plate Solver, ASTAP
Benutzt: Fotos aus Google Drive

Stand: 10.01.2023

134061 Unique Visitors,  186844 Page-views

Voraussetzungen für Plate Solving in APT

  • Die Astro-Software APT ist installiert und eingerichtet
  • Eine von APT unterstütztes Plate Solving Software ist installiert (z.B. All Sky Plate Solver)
  • Die Montierung mit der Aufnahme-Optik ist aufgestellt und Eingenordet
  • Die Geräte (Kamera, Montierung, Fokussierer,…) sind mit dem APT verbunden
  • Mindestens ein Astrofoto wurde gemacht (Fotografieren mit APT).

Plate Solving in APT

Plate Solving: Reiter “Gear” – Schaltfläche “Point Craft”

Gegenstand des Plate Solving ist immer das aktuell aufgenommene Foto.

Point Craft: Installation und Test

Um Plate Solving mit “Point Craft” zu machen, ist es äusserst sinnvoll die Plate-Solving-Software zunächst einmal stand alone d.h. ohne APT zu testen. Wie das geht habe ich in separaten Artikeln beschrieben:

Point Craft: Pfade einstellen

Wenn das soweit gelungen ist, muss man im APT die Pfade zu PlateSolve2 und zu All Sky Plate Solver einstellen:

  • Reiter “Gear”
  • Schaltfläche “Point Craft”
  • Schaltfläche “Settings…” (ganz unten)

Abbildung 1: APT –> Reiter “Gear” –> Schaltfläche “Point Craft” –> Schaltfläche “Settings…” (Google Drive: APT_PointCraft.jpg)

Hier können wir auch gleich “Use EOS crop factor” (neu: “Use DSLR crop factor“) ankreuzen, das werden wir später benötigen.

Plate Solving mit PlateSolve2 (Near Solving)

Nachdem ein Foto aufgenommen wurde (oder ein älteres ausgewählt wurde), sieht man es in dem Hauptfenster als “Img Preview”.
Das Plate Solving wird gestartet im Reiter “Gear” durch klicken auf die Schaltfläche “Point Craft”.

Dort kann ich unter den Schaltflächen Auto, Solve und Blind auswählen. Um es mit PlateSolve2 zu machen, klicken wir auf die Schaltfläche “Solve+”, aber mit Shift-Click, damit wir noch die Größe des Gesichtsfeldes eingeben können.

APT –> Reiter “Gear” –> Schaltfläche “Point Craft” –> Schaltfläche “Solve+” –> Pop-Up “Custom FoV size”

Abbildung 2: APT Plate Solving FoV (Google Drive: APT_PointCraft-02.jpg)

Die Gesichtsfelder meiner Optiken sind verschieden:

Optik Sensor Gesichtsfeld Bogenminuten
Olympus-50mm-Objektiv APS-C-Sensor 26,4° x 17,7° 1584′ x 1062′
ED 80/600 mit Reducer (f=510mm) APS-C-Sensor 2,6° x 1,8° 156′ x 108′
ED 80/600 mit Barlow (f=1200mm) APS-C Sensor 1,3° x 0,9° 78′ x 52′

Die Gesichtsfeldgröße in Bogenminuten muss man sich also für die Beobachtungsnacht aufschreiben, um sie immer schnell eingeben zu können.

Bei meinen ersten Versuchen mit PlateSolve2 bekam ich immer einen Abbruch mit “Time Out”. Erst nachdem ich bei den Point Craft Settings “Use EOS crop factor” angetickert hatte, funktionierte das PlateSolve2 richtig.

Allerdings muss ich immer eine “Approx. RA” und “Approx. DEC” eingeben, was etwas Vorbereitung erfordert.
Diese ungefähren (approx.) Koordinaten für das Near Solving kann man sich ganz einfach über die APT-Objekt-Liste holen (Schaltfläche “Objects”). Man muss ggf. vorher die Objekt-Liste von APT um ein paar Sterne erweitern bzw. für das Goto vor dem Plate Solving immer nur die Sterne verwenden, die in der APT-Objektliste als Sterne vorhanden sind.

Nach dem erfolgreichen Plate Solving werden die “Plate solving Results” angezeigt und die oben genannten “Approx.” Werte werden damit überschrieben – was gut gemeint ist, man aber wissen muss…

APT –> Reiter “Gear” –> Schaltfläche “Point Craft” –> Dialogbox “Point Craft” –> Approx. RA & DEC –> Schaltfläche “Solve”

Abbildung 3: APT Plate Solving (Google Drive: APT_PointCraft-03.jpg, -04.jpg)

APT PointCraft Near Solving APT PointCraft Status Success

Das Platesolving mit “Near Solving” d.h. PlateSolve2 ist viel schneller als “Blind”.

Das Eingeben einer Approx. RA und Approx. DEC wird bei APT stark vereinfacht, denn man kann durch Klicken auf die Schaltfläche “Objects” ein in der Nähe liegendes Himmelsobjekt mit seinem Namen aus dem APT-Objektkatalog auswählen; die Koordinaten sind dort dann schon hinterlegt. Diesen APT-Objektkatalog kann man nach Bedarf auch um eigene spezielle Objekte erweitern…

Ich habe zum Thema “Platesolving” ein gutes Youtube-Video gefunden:

Using Astrophotography Tool – Plate Solving (Point Craft) von “AstroQuest1”

Platesolving mit “ASPS” AllSkyPlateSolver (Blind Solving)

Tipps dazu von http://aptforum.com/phpbb/viewtopic?f=24&t=618

  1. Focal Length set in APT it must be correct within 5%
  2. Check the ASPS Settings form – the following should be unticked:
    1. Ignore FITS header telescope focal length
    2. Ignore FITS header camera pixel size
  3. Check the version of ASPS beeing used is v1.4.5.4 or above
  4. xyz

Nachdem ein Foto aufgenommen wurde (oder ein älteres ausgewählt wurde), sieht man es in dem Hauptfenster als “Img Preview”.
Das Plate Solving wird gestartet im Reiter “Gear” durch klicken auf die Schaltfläche “Point Craft”.

Dort kann ich unter den Schaltflächen Auto, Solve und Blind auswählen. Um es mit AllSkyPlateSolver zu machen, klicken wir auf die Schaltfläche “Blind”. Wir müssen aber vorher die Größe des Sensors (Kameramodell) und die Objektivbrennweite angeben, damit das Blind Solving auch richtig funktioniert. Das machen wir unter dem Reiter “Tools” im Bereich “Object Calculator”. Die Angabe des Kameramodells definiert die Sensorgröße (bei mir: APS-C) und sollte beim “Camera -> Connect” automatisch übernommen werden. Bei der Brennweite kann man Profile für unterschiedliche Objektive hinterlegen.

Abbildung 4: APT –> Reiter “Tools”  –> Bereich “Object Calculator” (Google Drive: APT_PointCraft-11.jpg)


APT Point Craft Focal Length

Wir nehmen wieder das am 13.8.2017 mit dem Olympus f=50 aufgenommene Foto vom Ursa Major. Wir Klicken auf die Schaltfläche “Blind” und der Solving-Prozess läuft los dabei werden die Sekunden gezählt. nach 39 Sekunden ist das Bild erfolgreich “gesolved” und die Ergebnisse werden angezeigt.

Abbildung 5: APT –>  Dialogbox “Point Craft”  –> Schaltfläche “Solve” (Google Drive: APT_PointCraft-12.jpg und -13.jpg)


APT PointCraft Status Solving

APT PointCraft Status Success

Nach dem Plate Solving: Show

Wenn man nun wissen möchte, was man da eigentlich im Gesichtsfeld hat (OK, die Koordinaten und eine Sternkarte würden es nach einigen Minuten Aufwand wohl sagen…), klickt man einfach auf die Schaltfläche “Show” und das vorher eingestellte Planetariumsprogramm zeigt einem den Bildausschnitt.

Einstellen des Planetariumsprogramms in APT

APT –> Reiter “Tools” –> Schaltfläche “APT Settings” –> Dialogbox –> Reiter “Planetarium”

Abbildung 6: APT Planetariumprogramm einstellen (Google Drive: APT_PointCraft-05.jpg)

Das Planetariumsprogramm (hier: Cartes du Ciel) muss man starten bevor man APT aufruft, dann kann APT eine Verbindung zu Cartes du Ciel herstellen.

Wenn ich nun auf die Schaltfläche “Show” klicke, werden die Plate-Solving-Ergebnisse an mein Planetariumsprogramm (bei mir: Cartes du Ciel) als “Kamerafeld (CCD)” übertragen. Dort sieht man den Bildausschnitt wie folgt:

APT –> Reiter “Gear” –> Schaltfläche “Point Craft” –> … –> Schaltfläche “Show”  –> Cartes du Ciel

Abbildung 7: Cartes du Ciel nach APT Plate Solve mit Show (Google Drive: APT_PointCraft-06.jpg)


APT PointCraft Cartes du Ciel

Wenn wir im Beispiel eigentlich auf den Stern Dubhe zielen wollten, wüssen wir also mit der Kamera noch etwa 5° weiter nach Süden gehen.

 

 

Astronomie: Fotografieren mit N.I.N.A.

Gehört zu: Astrofotografie
Siehe auch: Astro-Software N.I.N.A., Fokussieren mit N.I.N.A., Plate Solving mit N.I.N.A., Mosaike mit N.I.N.A.
Benutzt: Fotos aus Google Drive, SVG-Grafiken aus GitHub

Stand: 12.01.2024

Fotografieren mit N.I.N.A. (in Arbeit)

Zusammenfassung

  • Verbinden und Kühlen der Kamera
  • Zielkoordinaten planen
  • Fokussieren
  • Nachführung: Autoguiding Ja oder Nein?
  • Platesolving testen
  • Foto-Sequenz aufnehmen

Voraussetzungen für das Fotografieren mit N.I.N.A.

  • Die Software N.I.N.A. muss auf einem Windows-Computer installiert sein.
  • Eine von N.I.N.A. unterstützte Kamera muss angeschlossen sein
  • Die Kamera muss gut fokussiert sein (siehe: Fokussieren mit N.I.N.A.)
  • Das Beobachungsobjekt (Target) mit dem gewünschten Bildausschnitt muss eingeplant werden (sog. Framing)
  • Die Kamera muss auf den geplanten Bildausschnitt bewegt werden (sog. Slew bzw. Goto und Rotationswinkel)

Verbinden der Kamera mit N.I.N.A.

Die Astrokamera muss mit N.I.N.A. “connected” (verbunden) werden. Das geschieht unter: “Equipment” -> “Camera”.

Dazu muss man zuerst im Drop-down die angeschlossene Kamera auswählen – bei mir also die ZWO ASI294MC Pro.
Wenn man keine angeschlossene Kamera hat (z.B. bei Veranstaltungen), kann man “Simulation” auswählen.

Nach dem Verbinden sollte man nicht vergessen die Kühlung der Kamera einzustellen. Dabei sollte die Kühlung sehr langsam erfolgen, damit sich keine Eiskristalle in der Kamera bilden.

Abbildung 1: N.I.N.A. Kamera mit N.I.N.A. verbinden (Google Drive: NINA-Kamera-01.jpg)

Einstellungen zum Fotografieren

Da die Blende (das Öffnungsverhältnis) meist feststeht, ist noch der Gain (bzw. ISO) und die Belichtungszeit einzuplanen.

Den Gain bzw. das ISO wird man meist nur moderat einstellen wollen (z.B. Gain 200, ISO 800) um das Rauschen zu begrenzen.

Die Belichtungszeit für ein Einzelfoto kann man dann soweit hochstellen bis man an Begrenzungen stößt.

Begrenzungen für längere Belichtungszeiten können verschiedene Gründe haben:

Meine persönlichen Richtwerte sind je nach Montierung und Optik unterschiedlich:

  • Bei einem Fotostativ ohne Tracking: Brennweite in mm dividiert durch 300
  • Bei der Reisemontierung SkyWatcher AZ-GTi ohne Autoguiding: Bei Brennweite bis 135mm  ca. 30 sec
  • Bei meiner festgemachten Montierung SkyWatcher HEQ5 Pro ohne Autoguiding ca. 30 sec
  • Bei der stationären Montierung Astrophysics El Capitan in Handeloh: xyz

Wie bekomme ich Ziel-Koordinaten in N.I.N.A.?

Ziel-Koordinaten (Rektaszension und Deklinaktion) kann man “einfach” manuell eingeben.

An diversen Stellen von N.I.N.A. kann man solche Ziel-Koordinaten aus dem Planetariums-Programm übernehmen. Das geht beispielsweise im Framing-Assistant und auch im Sequencer…

Die N.I.N.A. wird zunächst ein Planetariums-Programm (für jedes Profil) eingestellt: Options ->Equippment

Im Planetariums-Programm muss man lediglich noch einen Stern oder so selektieren – das ist alles. Dann gehts zurück in N.I.N.A. Die Kordinaten des im Planetariums-Programm selektierten Objekts kann man dann in N.I.N.A. als sog. Target übernehmen.
Da das Planetariums-Programm nur als Beschaffer von Ziel-Koordinaten dient, kann man ruhig Stellarium nehmen und braucht eigentlich nicht Cartes du Ciel, denn eine Verbindung zum Teleskop ist ja nicht nötig. Allerdings kann die Übertragung der schönen Stellarium-Grafik über Remote Control problematisch werden.

Früher war Cartes du Ciel das Mittel der Wahl, weil damit eine Teleskopsteuerung über ASCOM erfolgen konnte. Erstens kann Stellarium jetzt ASCOM und zweitens braucht man es in N.I.N.A. nicht im Planetariums-Programm.

Ziel-Koordinaten im Framing-Assistenten aus dem Planetariums-Programm übernehmen

In N.I.N.A. benutze ich gerne den Framing-Assistenten zum Übernehmen von solchen Ziel-Koordinaten.  Der Framing-Assistent kann Ziel-Koordinaten vom Planetariums-Programm oder auch vom angeschlossenen Teleskop übernehmen. In jedem Fall möchte der Framing-Assistent das Ziel mit seiner Umgebung als Bild anzeigen. Dazu benutzt er den unter “Image Source” eingestellten Stern-Katalog. Das Suchen im Stern-Katalog kann recht lange dauern. Am schnellsten geht es mit der Einstellung “Offline Sky Map”.

Abbildung 2: Get Target Coordinates from the Planetarium (Google Drive: NINA_Framing-01.jpg )

Ziel-Koordinaten im Framing-Assistenten aus dem Sky-Atlas übernehmen

Alternativ zum Planetariums-Programm, kann man auch ein Ziel-Objekt im N.I.N.A. Sky Atlas aussuchen und dann die Ziel-Koordinaten in den Framing-Assistenten übernehmen.

Abbildung 2: Select Target with N.I.N.A. Sky Atlas (Google Archiv: )

Ziel-Koordinaten von einer gespeicherten XML-Datei übernehmen

Wenn man ein Ziel mit seinen Koordinaten einmal im Vorwege geplant hat, kann man es auch  erst einmal als Datei abspreichern und für den späteren Gebrauch aus der Datei wieder laden.

Imaging-Tab: Einzelheiten (Customizing the Imaging Tab)

Wenn wir in N.I.N.A. auf der ganz linken Leiste auf “Imaging” klicken, erscheint ein Fenster namens “Imaging”. Dieses kann ganz flexibel in Unter-Fenster aufgeteilt werden – je nach persönlichen Vorlieben..

Ich habe folgende Aufteilung (Layout) gewählt:

Abbildung 3: NINA-Imaging-Fenster-Layout (Github: NINA-Image-Window-Layout.svg)

NINA-Image-Window-Layout.svg

Wie kann ich die einzelnen Unter-Fenster innerhalb des Haupt-Fensters plazieren?

Erstens kann man Unter-Fenster verschwinden lassen indem man in dem Unter-Fenster oben rechts auf das Kreuz (=Close) klickt.

Zweitens kann man neue Unter-Fenster hineinholen indem man auf der waagerechten Leiste (ganz oben) auf eines der Symbole klickt.

Drittens kann man ein “neues” Unter-Fenster so nach eigenen Wünschen innerhalb es Haupt-Fensters plazieren, indem man das sog. “Dock” benutzt.

Das Imaging-Fenster besteht aus dem Haupt-Fenster, was in mehreren Unter-Fenstern aufgeteilt werden kann. Durch Anklicken des “X” in oberen rechten Eck können wir jedes Unter-Fenster schließen (entfernen).

Durch Klicken auf ein Symbol in der oberen Leiste (links=”Info”und rechts=”Tools”) aktivieren wir das zugehörige Unter-Fenster (und können es später auch noch fein plazieren).

Die möglichen Info-Unterfenster (von links nach rechts) sind:

  • Image (das wird wohl das Haupt-Unterfenster werden)
  • Camera
  • Filter Wheel
  • Focuser
  • Rotator
  • Telescope
  • Guider
  • Sequence
  • Switch
  • Weather
  • Dome
  • Statistics
  • HTR History
  • Flat Panel
  • Safety Monitor

Die möglichen Tools-Unterfenster (von links nach rechts) sind:

  • Three Point Alignment (wenn das Plugin geladen ist)
  • Optimal Exposure Calculator
  • Manual Focus Targets
  • Autofocus
  • Polar Alignment
  • Plate Solving
  • Image History
  • Imaging

Einzel-Funktionen zum Fotografieren in N.I.N.A.

Einzel-Funktion: Fokussieren

Hierzu habe ich einen separaten Blog-Artikel geschrieben: Fokussieren mit N.I.N.A.

Einzel-Funktion: Framing (Bildausschnitt planen)

Hierzu rufen wir in N.I.N.A. den Framing Assistenten auf…

Einzel-Funktion: Slew (Goto)

Die Funktion “Goto” heisst bei N.I.N.A. “Slew”.

Voraussetzung für die Funktion “Slew” ist, dass ein Teleskop (eine Montierung) erfolgreich mit N.I.N.A. verbunden ist (s.o. connected) und nicht mehr geparkt (“UNPARKED”) ist.

Dann benötigt man ein Ziel (Target) auf das das Teleskop hinbewegt werden soll.
Ziel-Koordinaten kann man in N.I.N.A. auf verschiedenen Wegen bekommen:

  • Manuell (wer weiss schon die genauen Koordinaten seines Ziels einfach so?)
  • Als Übernahme aus einem Planetariums-Programm
  • Durch den Framing-Wizzard

Die Funktion “Slew” (Slew to Target) kann dann in N.I.N.A. von verschiedenen Fenstern aus aufgerufen werden…

Abbildung 4: Aufruf der Funktion “Slew” im Framing Assistenten (Google Drive: NINA_Framing-02.jpg)

In der N.I.N.A.-Version 2 werden hier zwei Alternativen angeboten: “Slew” oder “Slew, center, and rotate”. Für die zweite Alternative bewirkt das “center” ein Foto und ein Platesolving. Wenn man das garnicht will, wäre die erste Alternative “Slew” der einfachere Weg.

So eine Slew-Funktion hat zwar definitive Ziel-Koordinaten (Target), aber N.I.N.A. wird das Teleskop zum Ziel bewegen aufgrund des soweit vorhandenen Pointing-Modells. Erst ein Plate Solving kann die genaue Ist-Position des Teleskops ermitteln (und damit das Pointing-Modell verbessern).

Einzel-Funktion: Ein Foto machen

Ich gehe links auf den Reiter Imaging.

Es öffen sich dann rechts mehrere Panels.

Im Haupt-Panel “Imaging” klicke ich in der unteren Leiste auf den Reiter Imaging.

Dort kann ich einstellen:

  • Belichtungszeit
  • Filter
  • Binning
  • Gain
  • ,,,

Nun kann ich wahlweise die Schaltfläche Video oder die Schaltfläche Einzelaufnahme drücken…

Abbildung 5: N.I.N.A.  Einzelfoto aufnehmen (Google Drive: NINA-Imaging-StartExposure.jpg)


NINA-Imaging-StartExposure

Wenn ich das aufgenommene Foto speichen will, muss ich den Schalter (oben) auf “ON” stellen und es muss bei den Options ein File Path zum Speichern angegeben sein (siehe unten “Probleme und Lösungen”).

Ich kann das Foto aber auch zuerst nur betrachten -> Reiter “Image”…

Einzel-Funktion: Laden eines vorhandenen Fotos

Wenn man mit bereits vorhandenen Astro-Fotos bestimmte Funktionen in N.I.N.A. ausprobieren will, so gibt es einige sehr versteckte Möglichkeiten, ein vorhandenes Foto in N.I.N.A. zu laden.

Zum Einen kann man im Framing Tab ein vorhandenes Foto laden in dem man oben bei “Image Source” auswählt “File” und dann auf die Schaltfläche “Load Image” klickt. Ich kann dann ein auf dem Computer vorhandenes Foto auswählen, was N.I.N.A. dann lädt aber dann sofort ein Plate Solving startet.

Eine weitere Möglichkeit ein vorhandenes Foto zu laden ist es, als “Camera” auszuwählen  “N.I.N.A. Simulator Camera” und dann im Settings-Dialog (Symbol: Zahnräder) das gewünsche Foto zu laden…

Probleme und Lösungen

Problem Live View: Native Driver für Kameras

Die Kamera ZWO ASI294MC Pro sollte nicht per ASCOM-Treiber, sondern per nativem Treiber verbunden werden. Nur dann ist eine Live-View-Funktion möglich.

Abbildung 6:  N.I.N.A.: Equipment -> Camera -> Treiber -> Connect (Google Drive: NINA-00.jpg)


N.I.N.A. Equipment – Camera

Mit dem nativen Treiber kann man in “Imaging” ein Einzelfoto oder auch Live View anklicken (ab NINA Version 2.00 leider nicht mehr).

Abbildung 7: N.I.N.A. Imaging (Google Drive: NINA-03.jpg)

Problem Image Speichern: Angabe eines “Image File Path”

Es muss ein Ordner “Image File Path” angegeben werden, wo die Fotos gespeichert werden sollen – sonst geht nichts: “Directory to save image to not found”.

Abbildung 8: N.I.N.A.: Options -> Imaging -> File Settings (Google Drive: NINA-01.jpg)


N.I.N.A. File Settings

 

Computer: Virtuelle Maschinen mit Oracle VirtualBox

Gehört zu: Virtuelle Maschinen
Siehe auch: Ubuntu unter VirtualBox, VMware oder VirtualBox

Stand: 25.12.2022

Virtuelle Maschinen mit Oracle VirtualBox

Virtualisierung mit VirtualBox

Ein großer Vorteil von Oracles VirtualBox ist, das eine Virtuelle Disk von VWware (*.vmdk) einfach in VirtualBox übernommen werden kann.

An einem USB-Controller können bei VirtualBox mehrere Devices laufen.

Nach der Rücksendung des StellarMate habe ich eine Virtuelle Ubuntu MATE (Version 19.10) Maschine in VirtualBox aufgesetzt, um später vielleicht auf einen Raspberry Pi umzuschwenken.

Download Oracle VirtualBox

VirtualBox ist kostenfreie Open Source Software.

Als Gastsystem (sog. Host) nehmen wir unsere Windows 11 Computer.

Link: https://www.virtualbox.org/wiki/Downloads

Aktuell (Dez. 2022) ist die Version 7.0.4

Installation Oracle VirtualBox

Bei der Installation der VirtualBox ist zu beachten:

xyz

Anlegen einer Virtuellen Maschine

Generell muss man beim Anlegen von Virtuellen Maschinen folgende Punkte beachten:

  • Internet-Verbindung
  • USB-Geräte

Als erste Virtuelle Maschine habe ich Ubuntu MATE installiert.

Computer: Astro-Software unter Ubuntu

Gehört zu: Ubuntu
Siehe auch: Virtuelle Maschine mit Ubuntu

Stand: 25.12.2022

Astro-Software unter Ubuntu

Wir haben einen Computer auf dem als Betriebssystem die Linux-Edition Ubuntu läuft (oder auch Linux Mint). Das kann z.B. ein Rasberry Pi sein, eine Virtuelle Maschine oder sonstwas.

Wir wollen folgende Astro-Software unter dem Betriebssystem Ubuntu bzw. Linux Mint installieren:

  • INDI-Server
  • INDI-Starter
  • INDI WebServer
  • KStars
  • PHD2 Guiding

KStars installieren

Im Linux-Terminal geben wir ein:

sudo apt-get install kstars-bleeding

Das Programm KStars befindet sich danach im Menü unter “Education”

INDI-Server installieren

Im Linux-Terminal geben wir ein:

sudo apt-add-repository ppa:mutlaqja/ppa
sudo apt-get update
sudo apt-get install indi-full gsc

Der INDI-Server sollte sich dann befinden in: /usr/bin/indiserver

Man könnte den INDI-Server starten mit:

cd /usr/bin
./indiserver indi_asi_ccd       (mindestens ein INDI-Treiber muss angegeben sein…)

INDI-Starter installieren

Der INDI-Server kann nicht einfach so (z.B. automatisch) gestartet werden, denn es muss immer mindestens ein INDI-Driver angegeben werden, der letzlich das entsprechende angeschlossene INDI-Gerät erfordert.  Deshalb ist das Arbeiten mit einem INDI-Starter sinnvoll, damit man den INDI-Server manuell starten und stoppen kann.

Download: https://sourceforge.net/projects/indistarter

Nach dem Downloaden der Datei “indistarter_2.3.2-185_i386.deb” wird diese mit dem Package Installer installiert.

Zum Aufrufen können wir dann einen “Launcher” auf dem Desktop einrichten (command: indistarter).

Starten des INDI-Servers

Der INDI-Server kann nicht einfach so (z.B. automatisch) gestartet werden, denn es muss immer mindestens ein INDI-Driver angegeben werden, der letzlich das entsprechende angeschlossene INDI-Gerät erfordert.  Deshalb ist das Arbeiten mit einem INDI-Web-Manager sinnvoll, der dann immer laufen kann und mit dem man den INDI-Server konfigurieren und starten kann.

Der INDI-Web-Server

So wie bereits im Artikel “Raspberry Pi” beschrieben, ist der INDI-Web-Manager das Mittel der Wahl, weil er (als “Manager”) ja gerne ständig laufen kann und damit dann auch remote der INDI-Server gestartet werden kann.

Installieren: INDI Web Manager

Das nachinstallieren des INDI Web Managers unter Ubuntu MATE soll so geschehen:

  1. Terminal öffnen
  2. Eingeben: “sudo apt-get install python3-pip”
  3. Eingeben des sudo-Passworts: “raspberry” (oder …)
  4. Eingeben “sudo -H pip3 install indiweb”

Dadurch wird der INDI-Web-Manager installiert in den Ordner: /usr/local/bin

Wir können den INDI-Web-Manager starten durch:

/usr/local/bin/indi-web&

und testweise aufrufen mit dem Web-Browser Mozilla Firefox unter http://localhost:8624

und beenden mit …?

Automatisch Starten: INDI Web Manager

Im Terminal-Fenster rufen wir den Editor “pluma” auf und erstellen eine kleine Datei:

Eingabe: “sudo pluma /etc/systemd/system/indiwebmanager.service”

Eintippen als Inhalt der Datei:

[UNIT]
Description=INDI Web Manager
After=multi-user.target

[Service]
Type=Idle
User=pi             (oder auch: User=astroberry oder =dkracht)
ExecStart=/usr/local/bin/indi-web -v
Restart=always
RestartSec=5

[Install]
WantedBy=multi-user.target

Speichern der Datei.

Und dann, um das ganze automatisch starten zu lassen:

Eingabe:

sudo systemctl enable indiwebmanager.service
reboot

Testen, ob INDI-Web-Manager läuft:

  • Mozilla Firefox:   localhost:8624

Testen, ob der INDI-Web-Manager auch remote ansprechbar ist:

  • Feststellen, welches die IP-Adresse der Virtuellen Maschine ist mit “ifconfig”
  • Ggf.  nachinstallieren mit:  sudo apt install net-tools
  • Auf dem Remote-Computer: Firefox 192.168.1.156:8624

Statt der IP-Nummer kann man auch den Hostnamen verwenden: dkracht-VirtualBox. Da der etwas unhandlich ist, habe ich ihn auf “astro” geändert:

hostnamectl set-hostname astro

Nun kann ich den INDI-Web-Manager mit Firefox einfach so aufrufen:  astro:8624

EQMOD GUI

EqmodGui ist eine grafische Oberfläche für den EQMOD-Treiber meiner Montierungen (AZ-GZi ind HEQ5 Pro) unter Linux.

Zur Installation unter Linux Mint bzw. Ubuntu ist es am einfachsten, man besorgt sich ein DEB-Package.

PHD2 Guiding

Wenn wir mit PHP2 Guiding autoguiden wollen, so muss das auf dem Ubuntu-Compter installiert sein und ständig laufen.

Das hatten im Artikel “RaspberryPi” schon so beschrieben:

PHD2 Guiding installieren

Ist auf dem AstroBerry standardmäßig vorhanden.

PHD2 Guiding automatisch starten

Auch PHD soll beim Hochfahren des Raspberry automatisch gestartet werden.

Menüleiste: System -> Einstellungen -> Persönlich -> Startprogramme   (System – Preferences  – Personal – Startup Applications)

Dann öffnet sich ein Fenster “Startprogrammeinstellungen”; dort auf die Schaltfläche “Hinzufügen” klicken…

Dann öffnet sich ein Fenster “Startprogramm hinzufügen”; dort eingeben:

  • Name: PHD2
  • Befehl: phd2     (klein geschieben)
  • Schaltfläche “Hinzufügen”

Schaltfläche “Schließen”

Im Terminalfenster dann eingeben: “reboot”

Auf dem Windws-Computer wieder mit dem WLAN des Rasperry verbinden und den VNC-Client (VNC Viewer) aufrufen.

Wenn der Ubuntu Desktop gekommen ist, sollte gleich das Fenster des PHD2 Guiding aufgehen….

xyz

Astronomie: Montierung Celestron Advanced GT

Gehört zu: Meine astronomischen Geräte
Siehe auch: Stromversorgung, Meine mobilen Montierungen
Benutzt: Fotos von Google Drive

Stand: 10.12.2022

Am 9.6.2015 habe ich mir meine erste astronomische Montierung gebraucht gekauft. Dabei bin ich mit dem Auto an einen Tag zu einem Sternfreund in der Nähe des Bodensees gefahren. Auf der Rückfahrt habe ich aber in Fulda in einem Autobahn-Rasthaus übernachtet.

Es war eine Celestron Advanced GT.

Die Celestron konnte Goto mit Elektromotoren in beiden Achsen und logischerweise auch Tracking und Autoguiding über ST4. Ein Polfernrohr war eingebaut und auch ein Celestron Powertank gehörte dazu.

Abbildung 1: Meine Celestron Advanced GT (Google Drive: DK_20150826_05789.jpg)

Abbildung 2: Celestron Advabced GT (Google Drive: DK_20150826_05791.jpg)

Abbildung 3: Celestron Powertank (Google Archiv: DK_20150826_05795.jpg)

Das erste Teleskop, was darauf kam war ein kleiner Newton Skywatcher Explorer 130PDS von Teleskop-Spezialisten hinzu, den ich aber retournierte….

Danach kam auch noch ein kleiner Reflektor, den mir Hartwig von GvA ausgeliehen hat.

Abbildung 4: Newton-Teleskop der GvA (Google Drive: DK_20150729_0001.jpg)

 

Astronomie: Meine mobilen Montierungen

Gehört zu: Astronomische Montierungen
Siehe auch: Meine Anforderungen an mobile Montierungen, Polar Alignment, Polar Alignment mit SharpCap
Benutzt: Fotos aus Google Drive

Stand: 15.12.2022

Meine mobilen astronomischen Montierungen

Astronomische mobile Montierungen (auch: Reise-Montierungen) können ganz klein, mittel und größer sein. Wenn sie zu groß werden, sind sie nicht mehr richtig “mobil”.

Ich habe Erfahrungen mit folgende mobile Montierungen machen können:

Einer der besonderen Herausforderungen bei einer mobilen Montierung (im Gegensatz zur stationären Montierung) ist, dass ich sie tag-täglich nach einem Transport immer wieder neu aufstellen/einstellen muss.

Insbesondere das Polar Alignment muss schnell und genau erfolgen können.

Danach brauche auch meistens noch:

  • Fokussierung
  • Goto / Platesolving
  • Nachführung

Zum Polar Alignment gibt es ja ganz unterschiedliche Methoden

  • Methode: Eingebautes Polfernrohr
  • Methode: QHY PoleMaster  (inzwischen verkauft)
  • Methode: SharpCap Pro mit Guiding-Rohr
  • Methode: N.I.N.A. ohne Guiding-Rohr

Im Folgenden illustriere ich diese Methoden zum Polar Alignment an meinen beiden Montierungen:

Bei meiner kleinen Tracker-Montierung für Reise und für Wide-Field-Aufnahmen kann ich zum Polar Alignment die verschiedenen Methoden wählen:

Polar Alignment der Montierung Star Adventurer Mini

Da ich meinen QHY PoleMaster jetzt verkauft habe, muss ich nun auch für den Star Adventurer Mini (SAM) SharpCap zum Polar Alignment verwenden.
Dazu montiere ich mein GuideScope50 auf die Deklinationseinheit des Star Adventurer, wozu ich mir einen Sucherschuh mit flacher Auflage und Innengewinde für 1/4 Zoll Fotoschrauben gekauft habe.

Abbildung 1: Polar Alignment mit der Star Adventurer Mini (Google Drive: DK_20200117_Terrasse_SAM-PolarAlignment.jpg)

Das Gewicht beträgt:

  • Guidingrohr mit Kamera:  686g
  • Manfrotto Neiger: 417g
  • DSLR:   562 g

zusammen also 1,665 kg, was bei einer vom Hersteller angegebenen maximalen Traglast von 3 kg noch passen dürfte.

Polar Alignment der Montierung HEQ5 Pro

Auch meine “große” mobile Montierung HEQ5 Pro muss ich immer schön Einnorden.

Dafür gibts die üblichen Methoden:

  • Eingebautes Polfernrohr
  • QHY PoleMaster
  • SharpCap

Beim eingebauten Polfernrohr kann es schnell unbequem werden….

Abbildung 2: Polar Alignment mit Kniefall am Polfernrohr (Google Drive: PolarScope_20170223_1 Kopie.jpg)


Der Kniefall: So bequem schaut man durch das beleuchtete Polfernrohr

Den QHY PoleMaster habe ich im Januar 2020 verkauft.

In Zukunft will ich dann immer SharpCap einsetzen, wenn es genauer sein soll.

Dazu nehme ich meine Montierung HEQ5 Pro mit meinem Teleskop Orion ED80/600. und montiere mein GuideScope mit Guiding-Kamera ganz normal (wie beim Autoguiding) Huckepack drauf.
Der Aufbau sieht dann so aus:

Abbildung 3: Polar Alignment mit der Montierung HEQ5 Pro und allem Drum und Dran (Google Drive: DK_20200120_Terrasse_HEQ5_Setup.jpg)

Das Polar Alignment mit ShapCap pro läuft dann ganz bequem per Computer, wie oben beschrieben.

Astronomie: Adobe Photoshop Ebenen

Gehört zu: Astro-Software
Siehe auch: Photoshop GrundlagenAstrofotografie mit GIMP, Photoshop Luminanzmasken
Benutzt: Fotos aus Google Drive

Stand: 2.12.2022

Photoshop Layer / Ebenen / Masken

Bei Photoshop kann man die Bildverarbeitung in Ebenen organisieren, die über das ursprüngliche Bild gelegt werden, sodass das ursprüngliche Bild nicht verändert wird. Man nennt das “non destructive“. Beim Öffnen eines Bildes zur Bearbeitung wird dieses in eine sog. “Hintergrundebene” gelegt. Zur Bearbeitung können Ebenen darübergelegt werden. Die oben liegenden Ebenen überdecken die darunter liegenden. was durch die Deckkraft jeder Ebene modifiziert werden kann.

Die Ebenen-Palette

Man sieht das in der sog. Ebenen-Palette (Ebenenbedienfeld):

Abbildung 1: Photoshop Ebenen-Palette (Google Drive: Photoshop-ebenen-01.jpg)

Die Ebenen-Palette (Ebenenbedienfeld) wird angezeigt durch: Menü –> Fenster -> Ebenen (Windows –> Layers).

Wie man im Bild sieht, heißt die Ebene “Background”, sie ist sichtbar (links von der Miniatur das Augen-Symbol) und gegen Bearbeitung geschützt (rechts das Schloss-Symbol). Auf diese Symbole kann man mit der Maus klicken. um die Ebene auszublenden (Auge-Symbol) bzw. bearbeitbar zu machen (Schloss-Symbol).

Neue Ebene erstellen

Eine neue Ebene erstellen kann man durch klicken in der Ebenen-Palette auf das kleine Symbol unten, 2. von rechts. Die neue Ebene wird oberhalb der aktuellen Ebene angelegt.

Abbildung 2: Photoshop Neue Ebene (Google Drive: photoshop-ebenen-02.jpg)

Die neue Ebene wird dann in der Ebenen-Palette angezeigt als “Ebene 1” (oberhalb der ursprünglich ausgewählten Ebene “Hintergrund”):

Abbildung 3: Photoshop Neue Ebene “Ebene 1” (Google Drive: photoshop-ebenen-03.jpg)


Photoshop Ebenen Neu

Die Sichtbarkeit der beiden Ebenen kann ich nun durch Anklicken des Symbols “Auge” verändern.

Auf der neuen Ebene (“Ebene 1”) kann ich nun beliebig malen, schreiben etc.

Jenachdem, was ich auf dieser neuen Ebene male, wird der Typ der Ebene von Photoshop festgelegt:

  • Bitmap-Ebene – auch Raster-Ebene genannt  (für Fotos)
  • Text-Ebene   (für Texte)
  • Symbol-Ebene   (für Kreise, Rechtecke, Bezier-Kurven,…)
  • Einstellungs-Ebenen (s.u.)

Arten von Ebenen

Standardmäßig haben wir sog. Pixelebenen. In Pixelebenen kann ich “malen”. Wenn ich in eine neue Ebene Text einfüge, so wird die Ebene zu einer sog. Textebene. Eine Textebene kann später wieder “gepixelt” werden.
Es gibt aber auch noch die sog. “Misch- oder Einstellungseben” da malt oder schreibt man nix drauf, sondern verwendet Photoshop-Einstellungen wie z.B. Tonwertkorrektur, Gradationskurve,….

Misch- und Einstellungsebenen

Das ist eine Ebene ohne Inhalt (also nix gemalt oder geschrieben), die lediglich bestimmte Photoshop-Einstellungen wie z.B. Tonwertkorrektur, Gradationskurve,…. auf die darunterliegenden Ebenen (jeweils auf das ganze Bild) anwendet. Als Ebene ist die Einstellung dann “non destructive”).

Eine neue Einstellungsebene erstellen kann man durch klicken in der Ebenen-Palette auf das kleine Symbol unten, 2. von links. Die neue Ebene wird oberhalb der aktuellen Ebene angelegt.

Abbildung 4: Photoshop Einstellungsebenen (Google Drive: photoshop-ebenen-04.jpg)

Sortierung der Ebenen

In der Ebenen-Palette (Ebenenbedienfeld, Ebenenverwaltung) kann man eine Ebene anklicken und sie mit der Maus nach oben oder unten verschieben.

Ein externes Bild als neue Ebene einfügen

xxx

Ebenen zusammenführen (“reduzieren”, “stempeln”)

Auf Ebenen zu arbeiten kann ganz viel Sinn machen, es kann aber auch die Situation entstehen, wo man aus zwei oder mehreren Ebenen wieder eine machen will. Z.B. wenn man eine durch Photoshop bearbeitete Datei am Ende als JPG-Datei speichern will, geht das nicht mit mehreren Ebenen. man muss die ggf. mehreren Ebenen auf eine Ebene reduzieren. Dafür bietet Photoshop (wie immer) mehrere Möglichkeiten an:

  • “Mit darunterliegender Ebene auf eine Ebene reduzieren” (also vorher eine Ebene selektieren)
  • “Sichtbare auf eine Ebene reduzieren” (also vorher Sichbarkeitssymbole (Auge) wie gewünscht anklicken)
  • “Auf Hintergrundeben reduzieren”

Beim “Stempeln” (Stamp Layer) geht es darum, das Bild aus allen Ebenen zu einer Ebene (der Stamp-Ebene) zusammenzuführen, um dort bestimme Filter oder Kontrollen (z.B. im Gesamt- Histogramm) durchzuführen…

  • Tastenkombination: Shift + Ctrl + Alt + E

Abbildung 5: Ebenen zusammenführen (Google Archiv: photoshop-ebenen-05.jpg)

xyz

Der Photoshop-Spezi arbeitet gern mit den entsprechenden Tastenkombinationen: Strg-E, Umschalt-Strg-E, …

Photoshop Basis: Ebenenmasken

Zu einer Ebene kann eine Ebenenmaske definiert werden. Im Ebenenbedienfeld (Ebenenpalette) erscheint dann neben dem Ebenen-Symbol ein Masken-Symbol:

Abbildung 6: Photoshop Ebenenmaske (Google Drive: photoshop-13.jpg)

Masken: Maske Erstellen (Symbol am unteren Rand der Ebenenpalette)

Masken: Maske groß zur Ansicht: Alt-Taste auf Masken-Symbol (Miniatur)

  • Maske Weiß bedeutet, dass alle Veränderungen der Ebene (Einstellungsebene) sichtbar sind.
  • Maske Schwarz bedeutet, dass keine Veränderung sichtbar ist; die untere Ebene „scheint durch“.
  • Maske Grau bedeutet, dass proportional zur Dunkelheit des Grautones die untere Ebene durchscheint.

Siehe auch: Photoshop Luminanzmasken

Grober Workflow Easy Panel: Vordergrund- Hintergrund

Ausgangspunkt ist ein Photo mit zwei Bestandteilen: Sternhimmel und Landschaft im Vordergrund. Beide Teile sollen per Maskierung unterschiedlich bearbeitet werden.

  1. Bild mit dem guten Vordergrund in der Ebenenpalette nach oben, Bild mit dem guten Sternhimmel nach unten.
  2. Die Schwierigkeit dabei soll sein, das die Grenze zwischen diesen Bestandteilen (Vordergrund und Himmel) kompliziert ist (z.B. Bäume) und damit eine einfache Ebenenmaske schwierig zu erstellen ist. Wir haben also unser Bild mit dem schönen (scharfen, helleren) Vordergrund in der obersten Ebene und die schönen Himmel in der Ebene darunter.
  3. Wir machen jetzt nur die obere Ebene als “sichtbar” (Auge) und erzeugen dort eine neue Ebenenmaske (standardmäßig ganz in weiss). Nun invertieren wir diese Maske (Maske selektieren und Strg-I).
  4. Dann deaktivieren wir diese Ebenenmaske mit Rechtsklick auf die Ebenenmaske und dann “Ebenenmaske deaktivieren”
  5. Dann auf die Ebene selbst klicken und im Easy Panel nacheinander auf “Bright LMs”. “Dark LMs” und Midtone LMs” dadurch wird jeweils eine Gruppe von 6 LMs (Luminosity Masks) erzeugt. Wir probieren diese Maske durch Klicken auf 1,2,3,4,5,6 aus, wobei wir eine gute Maske brauchen wo ein starker Kontrast zwischen Himmel und Vordergrund besteht. Beispiel: Himmel schwarz, Vordergrund weiss.
  6. Meist ist in dem weissen Teil der Maske (für den Vordergrund) noch das eine oder andere nicht ganz weiss. Das kan man mit dem Malerpinsel dann ganz weiss machen (auf das Maskensymbol bei gedrückter Alt-Taste klicken, dann kann man die Maske allein bearbeiten…). Möglicherweise ist auch der schwarze Teil (Hintergrund, Himmel) nicht ganz schwarz – dann verfährt man analog. Hauptsache, die Trennlinie zwischen Vordergrund und Himmel ist scharf.
  7. Die so optimierte Ebenenmaske schiebt man nun mit der Maus auf die oben(nr. 4) deaktivierte.
  8. Nun kann man den Vordergrund separat bearbeiten z.B. mit “Strg-L”….

 

 

 

Astronomie: Adobe Photoshop Plugins – Filter – Addons

Gehört zu: Astro-Software
Siehe auch: Photoshop GrundlagenAstrofotografie mit GIMP, Photoshop Luminanzmasken
Benutzt: Fotos aus Google Drive

Stand: 04.12.2022

Photoshop Plugins / Erweiterungen

Für die Nachbearbeitung von Astrofotos kommen folgende Plugins in Frage:

Photoshop Plugin HLVG “Hasta La Vista Green”

Dieses kostenlose Plugin empfiehlt Frank Sackenheim. Wir können es downloaden von:

Link: http://www.deepskycolors.com/archivo/2010/04/26/hasta-La-Vista-Green.html

Installiert werden muss die Datei in den Ordner:

  • C:\Programme\Adobe\Adobe Photoshop CC 2018\Required\Plug-ins   (hierhin die 64-Bit-Version aus HLVG64.zip)
  • C:\Programme\Adobe\Adobe Photoshop CS6 (64 Bit)\Required            (hierhin die 64-Bit-Version aus HLVG64.zip)
  • C:\Programme (x86)\Adobe\Adobe Photoshop CS2\Zusatzmodule       (hierhin die “normale” Version aus HLVG.zip)

Dann erscheint der HLVG-Filter in Adobe Photoshop CC2018 und CS6 unter dem Menüpunkt: Filter -> DeepSkyColors

Photoshop Plugin: Nik Collection

Von Google gibt es die bekannte “Nik Collection”; das sind mehrere Filter, die man in Adobe Photoshop einbauen kann.

Download: Installationsprogramm nikcollection-full-1.2.11.exe

Das Installationsprogramm installiert mehrere Filter in einen Unterordner namens “Google” des Plug-ins-Ordners der Photoshop-Versionen.

  • C:\Programme\Adobe\Adobe Photoshop CC 2018\Required\Plug-ins (genommen wird aber Google)
  • C:\Programme\Adobe\Adobe Photoshop CS6 (64 Bit)\Plug-ins
  • C:\Programme (x86)\Adobe\Adobe Photoshop CS2\Zusatzmodule

Dann erscheinen die Nik-Filter in Adobe Photoshop CC2018 und CS6 unter dem Menüpunkt: Filter -> Nik Collection

Abbildung 5: Photoshop Filter Nik Collection (Google Drive: Photoshop_2019-06-09 21_50.jpg)

Photoshop Plugin: Noel Carboni’s Astronomy Tools

YouTube: https://youtu.be/nsk1WxXTieI

Dieses Plugin einthält interessante Photoshop Actions (das sind Dateien mit der Endung *.atn) Z.B.

  • Local Contrast Enhancement
  • Space Noise Reduction
  • Deep Space Noise Reduction
  • Make Stars Smaller
  • Enhance DSO and Reduce Stars
  • etc.

Download von: http://actions.home_att.net/astronomy_tools.html

  • Datei: Astronomy Tools v1_6_2.atn

Installation:

Kopieren der ATN-Datei in die Ordner:

    • C:\Users\<userid>\AppData\Roaming\Adobe\Adobe Photoshop CC 2018\Presets\Actions
    • C:\Users\<userid>\AppData\Roaming\Adobe\Adobe Photoshop CS6\Presets\Actions
    • C:\Program Files (x86)\Adobe\Adobe Photoshop CS2\Vorgaben\Photoshop-Aktionen

In Photoshop:

    • Menüleiste -> Actions
    • Hamburger Menü (Rechts oben)
    • Load Actions…

Aufruf in Photoshop:

  • Foto öffnen
  • Menüleiste -> Fenster ->Actions
  • Actions-Kachel: Astronomy Tools -> Auswählen gewünschte Aktion
  • Actions-Kachel: Play

Photoshop Plugin: Luminosity Mask “Easy Panel 2.0”

Es gibt eine kostenlose Erweitung von Jimmy McIntyre auf

Download von: http://www.shutterevolve.com (Dateiname: Easy_Panel_2.zip)

Den Ordner mit der Erweitung namens “Easy Panel 2.0” habe ich in folgenden Ordner mit Hilfe des Skripts installiert.

Dadurch wir einiges hineinkopiert in den Ordner:

C:\Users\<username>\AppData\Roaming\Adobe\CEP\extensions

Aufrufen kann man das “Easy Panel 2.0” dann mit “Menü -> Fenster -> Erweiterungen -> …”

Abbildung 6: Photoshop Easy Panel 2.0 (Google Drive: photoshop-11.jpg)

Wenn man auf “Easy Panel 2.0” klickt, erscheint tatsächlich dieses Panel:

Abbildung 7: Photoshop Easy Panel 2.0 (Google Drive: photoshop-12.jpg)

Weitere Beschreibung:

 

 

 

Mathematik: Vektorräume (Grundlagen)

Gehört zu: Mathematik
Siehe auch: Körper, Vektorräume – Lineare Algebra, Matrizen und Vektoren, Bra-Ket-Notation

Stand: 23.12.2023

Was ist ein Vektorraum?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume und Tensoren.

Es gibt dazu eine Menge Videos auf Youtube; z.B. von 3Blue1Brown:  https://youtu.be/fNk_zzaMoSs  – Playlist:

https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab

Ein Vektorraum kann axiomatisch wie folgt definiert werden:

Axiom 1: Vektorräume verfügen über eine Operation, die Vektor-Addition (Vektor plus Vektor ergibt einen Vektor) genannt wird und eine kommutative (abelsche) Gruppe bildet.
Axiom 2: Jeder Vektorraum muss einen Körper  haben, dessen Elemente Skalare genannt werden.  Mit solchen Skalaren können wir  die Vektoren mutiplizieren (“skalieren“); d.h. Skalar mal Vektor ergibt Vektor.

Man spricht dann von einem Vektorraum “über” einem Körper K seiner Skalaren oder kurz von einem K-Vektorraum.

Solche Axiome ergeben eine abstrakte Definition von Eigenschaften; die Frage ist allerdings, ob es tatsächlich “Gebilde” gibt, die diese Axiome erfüllen. Tatsächlich gibt es viele “Gebilde”, die die Vektorraum-Axiome erfüllen: d.h. die tatsächlich Vektorräume sind. Beispiele für Vektorräume sind u.a.:

  • Ein \(\mathbb{R}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{R}\)
  • Ein \(\mathbb{C}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{C}\)
  • Die Menge der Funktionen auf \(\mathbb{R}\) kann auch als Vektorraum ausgestattet werden…

Ein abstrakter Vektorraum kann auch veranschaulicht werden:

  • Physik: Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“.
  • Computer: Der Computer-Mensch stellt sich Vektoren eher als Liste von Komponenten vor (Vektor = Liste) – wozu man aber ersteinmal ein System von Basis-Vektoren (nicht: Koordinatensystem) haben muss.
  • Mathematik: Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann – fertig, einfach ein paar Axiome und das war’s.

Linearkombinationen

Mit einem Satz von Vektoren kann man eine sog. Linearkombination bilden, beispielsweise:

Zu einem Satz Vektoren \( \vec{g_1}, \vec{g_2}, …, \vec{g_n} \) wäre eine Linearkombination etwa:

\(    a_1 \vec{g_1} + a_2 \vec{g_2} + … + a_n \vec{g_n}\)

Wobei  wir jeden Vektor \( \vec{g_i} \)mit einem Skalar \( a_i  \) multiplizieren und die Summe bilden.

Vektorbasis und Dimension

Wenn ich mit einem Satz von Vektoren jeden Vektor des Vektorraums durch eine Linearkombination darstellen kann, sagt man “der Satz von Vektoren spannt den Vektorraum auf”. Ist so ein Satz von Vektoren minimal und die Darstellung eines Vektors durch eine Linearkombination damit eindeutig, so  nennt man den Satz von Vektoren eine Vektorbasis.

Soweit ist dies eine axiomatische Definition von Eigenschaften, welche eine Vektorbasis erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich eine solche Vektorbasis exsitiert.

Die Antwort lautet: Jeder Vektorraum hat (mindestens) eine Vektorbasis.
Falls ein Vektorraum mehrere Vektorbasen hat sind alle diese Vektorbasen gleich mächtig. Die Kardinalzahl (Mächtigkeit) heist Dimension des Vektorraums, geschrieben dim(V).

Eine Einheitsbasis (normal basis) ist eine Basis, bei der alle Basisvektoren die Länge 1 haben (“auf die Länge 1 normiert sind”).
Was die Länge eines Vektors sein könnte, kommt weiter unten.

Beispiel:

Der euklidische Vektorraum: \(\mathbb{R}^n\)

Dort haben wir z.B. eine Vektorbasis:  \( \vec{e}_i = (\delta_{i}^j) \)

Wobei das Kronecker-Delta bekanntlich definiert ist als:

\( \delta_{i}^j = \left\{\begin{array}{11}    0 & \text{falls } i \ne j  \\ 1 & \text{falls } i = j \\ \end{array} \right. \)

Vektor-Komponenten bezüglich einer Vektorbasis

Damit ich mit einem Vektor so schön herumrechnen kann, ist es enorm praktisch, den Vektor durch “seine” Komponenten darzustellen. Solche “Komponenten” beziehen sich immer auf eine sog. Vektorbasis.

Den Satz von Skalaren mit dem ein Vektor bezüglich einer Vektorbasis als Linearkobination eindeutig dargestellt werden kann nennt man auch die Komponenten des Vektors. Man schreibt also:

\( \vec{a} = \sum\limits_{i=1}^{n}{a_i \vec{g_i}} \)

Dabei sind also die ai die Komponenten des Vektors a bezüglich des gewählten Basisvektorsystems. Der Begriff von Koordinaten in einem Koordinatensystem unterscheidet sich von diesem Begriff der Komponenten bezüglich eines Basisvektorsystems.

Der Physiker möchte die Formeln noch kompakter aufschreiben und führt eine impliziete Summenkonvention ein (nach Einstein). Danach verwenden wir Indizes teilweise unten (klassisch) und auch teilweise oben (neu). Wenn ein gleicher Index oben und unten auftaucht, soll darüber summiert werden (ohne dass man es expliziet schreiben muss). Also in unserem Fall:

\( \vec{a} = a^i \vec{g_i} \)

Man nennt Größen mit einem Index unten “kovariant” und mit einem Index oben “kontravariant” – was man damit eigentlich sagen will werden wir später erfahren.

Komponentenschreibweise

Unsere Rechenregeln für Vektoren kann man nun auch einfach in Komponentenschreibweise ausdrücken:

Vektoraddition: \( \vec{a} + \vec{b} = (a^i + b^i) \vec{g_i}  \)

Skalar-Multiplikation: \( \lambda \vec{a} = (\lambda a^i) \vec{g_i} \)

Schreibweise von Vektoren

Geschrieben werden Vektoren meist als eine Liste ihrer Komponenten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).

\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z  \end{array}\right) \)

oder auch in eckigen Klammern:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] \)

Wenn ich Vektoren als Liste von Komponenten schreiben will, muss ich ersteinmal ein Basisvektorsystem haben.

Vektoren, und das ist wichtig, exisitieren auch ohne Basisvektorsysteme, also einfach geometrisch im Raum. Unabhängig von einem Basisvektorsystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Basisvektorsystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Basisvektorsystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Basisvektorsystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Basisvektorsystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.

Lineare Abbildung (Lineare Transformation)

Wir betrachten zwei Vektorräume V und W über dem gleichen Körper K habe. Eine Abbildung \(  f: V  \to W  \) nennt man auch Transformation. Wenn V=W ist spricht man auch von einer Operation auf V und nennt f einen Operator.

Lineare Transformationen sind Transformationen, bei denen Geraden Geraden bleiben und der Null-Punkt (Origin) unverändert bleibt.
Anschaulich gesagt, bleiben Parallelen parallel und die Koordinatengitter gleichmäßig unterteilt (was immer auch Parallelen und Koordinatengitter genau sein mögen). Man kann das auch abstrakt durch Formeln ausdrücken:

Eine solche Abbildung f von einem Vektorraum V in einen Vektorraum W (beide über dem gleichen Körper K)

\(  f: V  \to W \\ \)

wird “linear” genannt, wenn sie additiv und homogen ist; d.h. wenn für alle \( \vec{v} \in V \text{ und alle } \vec{w} \in V \) gilt:

additiv: \( f(\vec{v} +  \vec{w}) = f(\vec{v}) +  f(\vec{w})  \)

und für alle \( a \in K \) gilt:

homogen: \( f(a \vec{v}) = a f(\vec{v})  \)   (hierfür brauchen wir den gleichen Körper K)

allgemein also: \(f(a \vec{x} + b \vec{y}) = a f(\vec{x}) + b f(\vec{y}) \)

General Linear Group

Zu einem Vektorraum V über K können wir die Menge der linearen invertierbaren Abbildungen \( f: V \to V \) betrachten. Diese nennen wir: General Linear Group und schreiben GL(V). Wenn man die allgemeine Verknüpfung von Abbildungen als Guppenverknüpfung nimmt, ist GL(V) tatsächlich eine Gruppe.

Die GL(V) ist ein schönes Beispiel für eine nicht abelsche (nicht kommutative) Gruppe.
Siehe hierzu auch das schöne Youtube-Video von Josef Gassner:

In der Quantenmechanik (Quantenphysik) sind die Untergruppen von GL(V) sehr interessant.

Dualer Raum

Zu einem Vektorraum V über dem Körper K definieren wir eine “Dualen Vektorraum”  V* wie folgt:

Als Menge V* nehmen wir alle linearen Abbildungen  \( f: V \to K \)

Als Vektor-Addition in V* definieren wir: \( (f+g)(v) = f(v) + g(v) \)

Und als Skalar-Multiplikation in V* nehmen wir: \( (\lambda \cdot f)(v) = \lambda \cdot f(v) \)

Bilinerarform

Hier geht es um zwei Variable (zwei = bi); also eine Abbildung:

\(  f: V \times V  \to K \\\)  (mit V  Vektorraum über dem Körper K)

So eine Abbildung heisst “bilinear“, wenn sie “in beiden Variablen” linear ist, was heisst:

\( f(a_1 \vec{x_1} + a_2 \vec{x_2}, \vec{y}) = a_1 f(\vec{x_1},\vec{ y}) + a_2 f(\vec{x_2}, \vec{y}) \\\)

und

\( f(\vec{x}, b_1 \vec{y_1} + b_2 \vec{y_2}) = b_1 f(\vec{x}, \vec{y_1}) + b_2 f(\vec{x}, \vec{y_2}) \\\)

Skalarprodukt (Inneres Produkt)

Ein Vektorraum verfügt nicht notwendig über ein Skalarprodukt. Auf einem Vektorraum kann ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar) –  Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.

Wir werden sehen, dass so ein Skalarprodukt dann eine “Norm” induziert und damit eine Metrik, wodurch z.B. Grenzwertprozesse möglich werden.

Einen \(\mathbb{R}\)-Vektorraum mit Skalarprodukt nennt man auch einen Euklidischen Raum, einen \(\mathbb{C}\)-Vektorraum mit Skalarprodukt nennt man auch Hilbertraum – genauer Prähilbertraum.

Für die Anwendungen z.B. in der Physik spielt es eine große Rolle, welches der Körper zum Vektorraum ist. In der Quantenphysik benötigt man dazu den Körper der Komplexen Zahlen: \(\mathbb{C}\)

Definition des Skalarprodukts

Das Skalarprodukt zweier Vektoren wird axiomatisch wie folgt definiert.

Axiomatische Definition

Generell ist das Skalarprodukt f in einem Vektorraum über dem Körper K eine Abbildung:

\( f: V \times V \to K \)

Man schreibt auch gerne das Skalarprodukt als:

  • \( \Large f(x,y) = \langle x,y \rangle \)
  • \( \Large f(x,y) = \vec{x} \cdot \vec{y} \)

Für den Fall eines Vektorraums über dem Körper der reelen Zahlen, müssen für x, y, z ∈ V und λ ∈ \(\mathbb{R} \) folgende Axiome gelten:

  • Linearität in beiden Argumenten
    • <x+y,z> = <x,z> + <y,z>
    • <x,y+z> = <x,y> + <x,z>
    • <λx,y> = λ <x,y>
    • <x,λy> = λ <x,y>
  • Symmetrie: <x,y> = <y,x>
  • Positiv definit:
    • <x,x> ≥ 0
    • <x,x> = 0 genau dann, wenn x=0 ist

Das reelle Skalarprodukt ist also eine positiv definite, symmetrische Bilinearform.

Für den Fall eines Vektorraums über dem Körper der komplexen Zahlen, ist die Sache etwas schwieriger.
Da wir aber in der Quantenphysik Vektorräume über den komlexen Zahlen benötigen, müssen wir auch diesen etwas komplizierteren Fall näher betrachten.

Es müssen für x, y, z ∈ V und λ ∈ \(\mathbb{C} \) folgende Axiome gelten:

Semilinear im ersten Argument:

\( <\lambda x, y> = \bar{\lambda} <x,y> \)

Linear im zweiten Argument:

\( <x, \lambda y> = \lambda <x,y> \)

Hermitisch:

\( <x,y> = \overline{<y,x>} \)

Positiv definit:

<x,x> ≥ 0

<x,x> = 0 genau dann, wenn x=0

Das komplexe Skalarprodukt ist also eine positiv definite, hermitische Sesquillinearform.

Existenz eines Skalarprodukts bei endlicher Dimension

Soweit ist dies eine axiomatische Definition von Eigenschaften, welche ein Skalarprodukt erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich ein solches Skalarprodukt definiert werden kann.

Aus unserem Vektorraum V über K nehmen wir zwei Vektoren \(\vec{x}\) und \(\vec{y}\) und versuchen deren Skalarprodukt zu definieren. Im Falle einer endlichen Dimension des Vektorraums dim(V)=n können wir das leicht über die Komponentendarstellung dieser Vektoren zu einer ausgewählten Vektorbasis erreichen:

Die Vektorbasis sei: \( \vec{g}_i  (i=1,2,…,n) \)

Die Komponentendastellungen sind:

\( \vec{x} = x^i \vec{g}_i  \) und \( \vec{y} = y^i \vec{g}_i  \)

Das Skalarprodukt der beiden Vektoren müsste dann eigentlich sein:

\( \vec{x} \cdot \vec{y} = x^i y^j (\vec{g}_i \cdot \vec{g}_j) \)

Wir könnten das Skalarprodukt zweier beliebiger Vektoren also definieren, wenn wir nur das Skalaprodukt von je zwei Basisvektoren so definieren, dass dann die Axiome des Skalarprodukts eingehalten würden. Mit anderen Worten: Bei geeigneter Festlegung einer Matrix:

\( g_{ij} = \vec{g}_i \cdot \vec{g}_j \tag{1}\)

Könnten wir das Skalarprodukt einfach definieren als:

\( \vec{x}  \cdot \vec{y} = g_{ij} x^i y^j \tag{2}\)

Wir bekommen also ein Objekt aus zweifach indizierten Skalaren (genannt Metrik-Koeffizienten). Diese Metrik-Koeffizienten bilden also eine quadratische Matrix, die wir später auch gerne “Metrik-Tensor” nennen werden.

Der Metrik-Tensor besteht also aus den paarweisen Skalarprodukten der verwendeten Basisvektoren.

Beispiel:

Wie nehmen einen euklidischen Vektorraum: \(\mathbb{R}^3\)
mit der Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wir nehmen als Metrik-Tensor: \( \eta_i^j = \left( \begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{matrix} \right) \)

Aus Gleichung (2)  mit dem obigen Metrik-Tensor ergibt sich als Skalarprodukt:

\( \vec{a} \cdot \vec{b} = \sum\limits_{i=1}^3 a^i  b^i \)

Nun müssen wir nur noch überprüfen, ob die Skalarprodukt-Axiome gelten:

Welcher Metrik-Tensor erfüllt die Skalarprodukt-Axiome?

Das erste zu überprüfende Axiom wäre die Linearität des  so definierten Skalarprodunkts in beiden Argumenten.

Zur Überprüfung der Linearität im ersten Argument müssen wir folgenden Ausdruck berechnen:

\(  \langle a_1 \vec{x1} + a_2 \vec{x_2} , \vec{y} \rangle = ? \)

Das erste Argument ist also:

\(  \vec{x} = a_1 \vec{x_1} + a_2 \vec{x_2} \)

Um hier das Skalarprodukt auszurechnen nach Gleichung (2) müssen wir die Komponenten der Vektoren bestimmen. Dazu nehmen wir ersteinmal die Komponenten der einzelnen Vektoren:

\( \vec{x_1} = x_1^i \vec{g_i} \) und \( \vec{x_2} = x_2^i \vec{g_i} \)

Dann ist also:

\( \vec{x} = a_1 (x_1^i \vec{g_i}) + a_2 (x_2^i \vec{g_i}) \\ \)

und:

\( x^i = a_1 x_1^i + a_2 x_2^i  \tag{3}\\\)

Nach der Definition des Skalarprodukts nach Gleichung (2) bekommen wir:

\(  \langle a_1 \vec{x_1} + a_2 \vec{x_2} , \vec{y} \rangle = x^i y^j g_{ij}  \\ \)

Wenn wir nun hier Gleichnug (3) einsetzen, erhalten wir:

\(  \langle a_1 \vec{x_1} + a_2 \vec{x_2} , \vec{y} \rangle  = (a_1x_1^i + a_2 x_2^i) y^j g_{ij}  = a_1 x_1^i y^j g{ij} + a_2 x_2^i y^j g_{ij}\)

und schließlich:

\(  \langle a_1 \vec{x_1} + a_2 \vec{x_2} , \vec{y} \rangle = a_1 \langle\vec{x_1}, \vec{y} \rangle + a_2 \langle \vec{x_2}, \vec{y} \rangle \\ \)

Somit ist das Skalarprodukt im ersten Argument linear unabhängig von der Wahl des Metrik-Tensors.

Das Skalarprodukt ist auch im zweiten Argument linear, wenn der Skalaren-Körper \(\mathbb{R}\) ist – dann gilt die obige Herleitung identisch.

Das zweite zu überprüfende Axiom wäre die Symmetrie

Nach unserer Definition des Skalarprodukts in Gleichung (2) gilt:

\( \langle x, y \rangle = x^i y^j g_{ij} \)

und

\( \langle y, x \rangle = y^j x^i g_{ji} = x^i y^j g_{ji}\)

Wir sehen also, dass wenn der Metrik-Tensor symmerisch ist (gij = gji), dann ist auch das damit definierte Skalarprodukt symmetrisch.

Das dritte zu überprüfende Axiom wäre die Positive Definitheit

Dies ergibt sich auch ganz einfach.

Skalarprodukt bei nicht-endlicher Dimension

Ein  Vektorraum nicht-endlicher Dimension über K ist so etwas wie ein Funktionenraum. Für \( f \in V \text{ und } g \in  V \) definieren wir das Innere Produkt (Skalarprodukt) als:

\(\langle f,g \rangle = \Large \int \normalsize \overline{f(t)} g(t) dt \)

Die komplexe Konjugation wird hier u.a. benötigt, damit die Länge eines Vektors (s.u.) eine reele Zahl wird.

Unitäre Abbildung (Unitäre Transformation)

Eine Abbildung (auch Transformation genannt) von einem Vektorraum V in einen anderen W wird “unitär” genannt, wenn sie das Skalarprodukt “erhält” (Da die Länge eines Vektors über das Skalarprodukt definiert ist, ist eine unitäre Abbildung längentreu)

Nehmen wir zwei Vektorräume V und W, jeweils mit einem Skalarprodukt, sowie eine Abbildung:

\( f: V \to W \)

Dann soll für je zwei Vektoren u und v aus V gelten:

\( <f(u),f(v)> = <u,v>\\ \)

Man kann zeigen, dass solche unitären Abbildungen auch stets lineare Abbildungen sind.

Ein klassisches Beispiel ist die Gruppe U(1) der komplexer Zahlen vom Betrag Eins, wobei die Gruppen-Verknüpfung die Multiplikation der komplexen Zahlen (also die Drehung) ist. Diese Gruppe spielt bei dem Standardmodell der Teilchenphysik eine wichtige Rolle. Die Gruppe U(1) bildet ein mathematisches Modell der Elektrostatischen Wechselwirkung in der Quanten-Elektrodynamik mit dem Photon als Austauschteilchen.

Länge eines Vektors

Der Begriff “Metrik-Tensor” hat schon einen Sinn, wenn wir sehen, dass damit auch die Länge eines Vektors definiert werden kann:

\( | \vec{a} | = \sqrt{\vec{a} \cdot \vec{a}} = \sqrt{g_{ij} a^i a^j}  \)

Zu jedem Skalarprodukt in einem R-Vektorraum oder C-Vektorraum kann man eine Norm definieren, die man “induzierte Norm” nennt:

\( ||\vec{x}|| = \sqrt{\vec{x} \cdot \vec{x}} \)

Abstand zweier Punkte

Mittels der sich aus dem Skalarprodukt ergebenden Norm, definieren wir dann eine Metrik (Anstandsbegriff):

Zu einem Vektorraum der Dimension n über \(\mathbb{R} \) können wir \(\mathbb{R}^n \) als Metrischen Raum definieren:

d(x,y) := || y – x ||

Die Metrik-Axiome werden erfüllt.

Dadurch werden Grenzwert-Konstruktionen möglich z.B. die Konvergenz einer Folge (vgl. Cauchy-Folge), Differentialquotienten etc.

Astronomie: Fokussieren mit N.I.N.A.

Gehört zu: N.I.N.A.
Siehe auch: Motorfokussierer, ZWO EAF, AstroMechanics, Fotografieren mit der ASIAIR, Stacken mit der ASIAIR
Benutzt: Fotos aus Google Drive

Stand: 30.05.2023

Fokussieren mit N.I.N.A.

N.I.N.A. unterstützt ja schon immer als Gerät einen Motorfokussierer.

Für mein “großes” Teleskop den ED 80/600 hatte ich mir ja nach mehreren Versuchen den ZWO EAF zugelegt.

Nun (2022) kam für meine “kleine” Lösung auf der Reisemontierung AZ GTi das Gerät von AstroMechanics hinzu.

The Lazy Geek brachte ein schönes Youtube-Video zum Thema Fokussieren mit N.I.N.A: Setting up my Focuser in N.I.N.A. from Scratch.
Wie immmer geht da aber alles sehr schnell. Deshalb versuche ich hier, das nocheinmal ganz sinnig Schritt für Schritt aufzuschreiben.

Auch das YouTube-Video von Patriot Astro Setup NINA Auto-Focus Quickly and Correctly hat mir gut geholfen.

Stichworte:

  • Motorfocusser
  • Backlash
  • HFD Half Flux Diameter bzw. HFR Half Flux Radius

Fokussieren: Generelle Einstellungen bei N.I.N.A.

Bei N.I.N.A. gehen wir auf “Options” -> “Equipment” -> “Focusser” und stellen dort ein:

  • Belichtungszeit: 6 Sekunden
  • Auto Focus Step Size: 50
  • Curve Fitting Strategy: Hyperbolic
  • Backlash Compensation Method: Overshoot  (kann nur geändert werden, wenn nicht connected)
  • Backlash: Zero (in and out)

Abbildung 1: Options -> Autofocus (Google Drive: NINA-Focus-00.jpg)

Vorgehensweise bei N.I.N.A. mit dem AstroMechanics Adapter

Schritt 1: “Close to Focus”

Ich nehme ein beliebiges Sternfeld und versuche die Sterne scharf einzustellen – wozu ich in N.I.N.A. meinen AstroMechanics-Adapter als Fokusser mit ASCOM-Treiber eingestellt habe. Ich mache also ein Foto mit N.I.N.A. und vergrößere es, damit ich gut sehen kann, bei welcher Fokus-Position die Sterne maximal scharf sind (kleinste Scheibchen). In meinem Fall scheint die beste Fokus-Postion bei 5075 zu sein.

Bewegung des Motorfokussierers

Die Step Size ist jetzt ersteinmal 10, weil das in den “Settings” so angegeben war.
Damit bedeutet der einfache Pfeil “>” eine Bewegung des Fokus um 0,5 * StepSize, also 5.
Der Doppelpfeil bewirkt eine Bewegung des Fokus um 5 * StepSize, also 50 Schritte.

Einen evtl. vorhandenen Backlash ignorieren wir zunächst.

Schritt 2:  “Out of Focus”

Um eine passende Schrittweite (für den Autofokus-Prozess) zu ermitteln, verstelle ich den Fokus jetzt in ganz kleinen Schritten und mache immer ein neues Foto, bis die Sternscheibchen deutlch größer werden. Man sagt so 20% bis 50% sollte das Sternscheibchen größer werden. Das scheint in meinem Fall bei einer Fokus-Position von 5100 der Fall zu sein.

Schritt 3: “Step Size”

Die oben festgestellte Differenz war 5100-5075=25. Ich gehe mal vorsichtig heran und probiere es mit einer Step Size von 20.

Jetzt stelle ich in N.I.N.A. bei Options -> AF die Autofocus Stepsize ein.

Schritt 4: “Start Autofocus”

Mit diesen Einstellungen klicken In N.I.N.A. in der Kachel (Pane) “Autofocus”  auf die Schaltfläche “Start autofocus”.

N.I.N.A. misst auf jeben Foto die sog. HFD, also quasi den Durchmesser der Stenscheibchen und trägt den Wert auf der Y-Achse auf.

Hier ist das Ergebnis eine Fokusposition von 5071 wobei die Hyperbel durch die Messpunkte mit R2 = 1 bestens passt. Als HFR wird als Minimum 2,54 erreicht.

Abbildung 2: N.I.N.A. Autofocus mit Schrittweite 20 (Google Drive: 20221118_NINA_Autofocus1.jpg)

 

Als zweiten Versuch habe ich eine Step Size von 25 eingestellt.

Hier ist das Ergebnis eine Fokusposition von 5064 wobei die Hyperbel durch die Messpunkte mit R2 = 1 bestens passt. Als HFR wird als Minimum 2,14 erreicht.

Abbildung 3: N.I.N.A. Autofocus mit Schrittweite 25 (Google Drive 20221118_NINA_Autofocus2.jpg)

Vergehensweise bei N.I.N.A. mit dem ZWO EAF Fokussierer

Fokussieren erster Schritt: Manuell den Fokus beurteilen

Also: Bild aufnehmen (Imaging), Vergrößern, Fokus beurteilen (Image).

Bewegung des Motorfokussierers

Die Step Size ist jetzt ersteinmal 10, weil das in den “Settings” so angegeben war.
Damit bedeutet der einfache Pfeil “>” eine Bewegung des Fokus um 0,5 * StepSize, also 5.
Der Doppelpfeil bewirkt eine Bewegung des Fokus um 5 * StepSize, also 50 Schritte.

Abschätzung des Backlash

Erster Schritt: Hypothese zum Backlash

  • 50 Schritte nach rechts (also nach draussen) und ein Foto aufnehmen.
  • Wenn sich keine Veränderung in den Sternscheibchen zeigt, sind wir noch innerhalb des Backlash.
  • wir machen weiter: 50 Schritte nach rechts und Foto, bis wir einen Unterschied sehen.
  • Wenn wir nach drei Mal 50 Schritten endlich einen Unterschied sehen, wäre die Hypothese, dass der Backlash so bei 100 liegen könnte.

Zweiter Schritt: Verifikation der Hypothese

  • 50 Schritte nach links (also nach innen) und ein Foto aufnehmen: keine Veränderung. Also ist der backlash mindestens 50
  • nocheinmal 50 Schritte nach links und Foto: fast keine Veränderung. vielleicht ist der Backlash leicht unter 100.
  • weitere 50 Schritte nach links und Foto: die Sternscheiben wurden kleiner. Gut wir bleiben bei unserer Annahme: Backlash ca. 100

Bereich der Sternerkennung (und HFD Berechnung)

Nun wäre die Frage, wieviel Spielraum nach links und nach rechst haben wir damit die Software noch die Sterne erkennt (und den HFD berechnet)?

  • Wir gehen immer weiter nach links, bis wir glauben so ungefär den “best focus” erreicht zuhaben
  • Der  Weg bis zum “best focus” war ungefähr 150 Schritte; also kann N.I.N.A. in einem Bereich von plus-minus 150 Schritten um den “best focus” gut die Sterne erkennen und den HFD berechnen
  • Zur Kontrolle, wieviele Sterne von N.I.N.A. tatsächlich erkannt werden, können wir “Annotation” anschalten
  • Wir erkennen, dass die Belichtungszeit ruhig etwas mehr sein kann: 5 Sekunden (statt 1 Sekunde)

Abbildung 4: Sternerkennung mit “Annotation”

XYZ

Autofocus Stepsize

Die “Auto Focus Initial Offset Steps” sind ja auf 4 und die “Auto Focus Step Size” auf 10
Die Autofokus-Prozedur würde mit einer anfänglichen Bewegung nach rechts um 4 mal 10 starten…

Wir haben aber einen Spielraum von ca. plus-minus 150. Wenn wir den nur in etwas halb ausnutzen, landen wir immer noch bei 75 / 4 = 17
Wir setzen die “Auto Focus Step Size” deswegen auf 20.

Fokussieren zweiter Schritt: Autofokus-Prozedur noch mit Backlash 0

  • Wir gehen 100 Fokusser-Schritte nach links, damit die Autofokus-Prozedur ohne Backlash starten kann.
  • Wir starten die Autofokus-Prozedur
  • Die Autofokus-Kurve zeigt rechts einen Backlash von 2 mal 20 Steps

Abbildung 5: N.I.N.A. Autofocus ohne Backlash (Google Drive: NINA-Focus-05.jpg)

Fokussieren dritter Schritt: Autofokus-Prozedur mit Backlash=100

  • Wir tragen den Backlash von 100 in beiden Richtungen ein
  • Wir starten die Autofokus-Prozedur erneut

Abbildung 6: N.I.N.A. Autofokus mit richtigem Backlash (Google Drive: NINA-Focus-07.jpg)