Astronomie: Mindmap Astrofotografie

Gehört zu: Astronomie
Siehe auch: Mindmaps
Benutzt: Fotos aus Google Archiv

Stand: 10.12.2022

Mindmap Astrofotografie

Als ich mich im Jahre 2014 begann wieder mit meinem alten Schüler-Hobby, der Astronomie, auseinanderzusetzen, konnte ich mich vor so viel Neuem, garnicht mehr orientieren. Ich begann diese Mindmap zu malen:

Abbildung 1: Meine Mindmap zur Astrofotografie vom 29.9.2016 (Google Archiv: Mindmap_Astrofotografie.jpg)

Mindmap_Astrofotografie.jpg

http://blog.kr8.de/astrofotografie-mond/ http://blog.kr8.de/astrofotografie-mond/ http://blog.kr8.de/astrofotografie-mond/ http://blog.kr8.de/astrofotografie-mond/

Die Links in dieser Mindmap kann ich hier in WordPress nicht so elegant realisieren.

Etwas Hilfe verspreche ich mir von: https://www.image-map.net/

Mein aktuelles Image “mindmap-astrofotografie.jpg hat die Größe von: 1223 x 904 Pixeln. Auf der Webite hat das width=1024, height=773

Solange ich das noch nicht fertig umgestellt habe hier eine Liste der in der Map vorkommenden Links:

Fähigkeiten

  • Fotobearbeitung – Stacking
  • Nachführung
  • Platesolving
  • Suchen und Finden
  • Polar Alignment
  • Fokussieren
  • Beobachtungsplanung

Beobachtungsobjekte

  • Milchstrasse
  • LMC
  • Sonne
    • Totale Sonnenfinsternis
  • Mond
  • Meteorstöme
  • Asterismen
  • Nordlicht
  • Leuchtende Nachtwolken
  • Erdsatelliten
    • ISS
    • Iridium
    • Geostationäre
  • Sonstiges
    • Zodiakallicht
  • Sensor
    • DSLR Sony NEX 5R
    • Altair GP-CAM
    • Panasonic Lumix
  • Software
    • Fitswork
    • qDslrDashboard
  • Filter
  • Wetter/Nebel
    • Meteoblue
    • ClearOutside
    • Kachelmann
  • Himmelshelligkeit
    • Lichtverschmutzung

Astronomie: FITS-Format

Gehört zu: Astrofotografie
Siehe auch: Fitswork, Python, Deep Sky Stacker, FITS Header

Stand: 12.9.2022

Das FITS-Format

Das FITS-Bildformat (Flexible Image Transport System) ist in der Astrofotografie der Standard. Es wurde 1981 von der NASA entwickelt und ist auch u.a. von der IAU und der ESA anerkannt. Bei den Bildern des Hubble Space Telescope kommt beispielsweise die Software “Fits Libarator” zum Einsatz.

Link: https://fits.gsfc.nasa.gov/fits_standard.html

Für die Astronomie interessante Metadaten werden innerhalb einer jeden FITS-Bild-Datei in einem sog. FITS-Header gespeichert.

Bild-Formate und Kameras

Digitale Kameras (DSLR) produzieren verschiedene sog. Raw-Formate (z.B. CR2, CR3, ARW,…) die beim Stacken z.B. durch Deep Sky Stacker zu einem FITS-Summenbild werden.

Dedizierte Astrokameras, wie meine ZWO ASI294MC Pro benötigen eine Software, die dann die Bilder abspeichert. Die Software, die das Speichern des Einzel-Bildes im FITS-Format macht, erstellt auch den FITS-Header.

Software zum Aufnehmen von Bildern

Aufnahme-Software, die Bild-Dateien im FITS-Format speichert, wird darin auch einen FITS-Header schreiben. Dort wird auch der Name der Software dokumentiert, mit der das FITS-Bild gespeichert wurde.

  • APT:             SWCREATE= ‘Astro Photography Tool – APT v.4.01’ / Imaging software
  • SharpCap:   SWCREATE= ‘SharpCap v4.0.9268.0, 32 bit’ /
  • N.I.N.A.:       SWCREATE= ‘N.I.N.A. 2.0.0.9001 ‘ / Software that created this file

Der nächste Bearbeitungsschritt nach der eigentlichen Aufnahme der Einzel-Bilder (Subs) ist das Stacken z.B. mit:

Dazu müssen die Einzelbilder meiner ASI294MC Pro zuerst “debayert” werden. Erst danach kann das Stacking laufen. D.h. die Einzelbilder werden durch die Stacking-Software verändert, was einen Eintrag im FITS-Header nach sich zieht.

Bilddateien im FITS-Format

In der Bilddatei im FITS-Format befindet sich also der FITS Header und danach die eigentlichen Helligkeitswerte der Bildpunkte (Pixel),
Zum Thema FITS Header habe ich einen eigenen Beitrag geschrieben.

Beispiel: FITS-Header mit APT

SIMPLE = T / file does conform to FITS standard
BITPIX = 16 / number of bits per data pixel
NAXIS = 2 / number of data axes
NAXIS1 = 4144 / length of data axis 1
NAXIS2 = 2822 / length of data axis 2
EXTEND = T / FITS dataset may contain extensions
COMMENT FITS (Flexible Image Transport System) format is defined in ‘Astronomy
COMMENT and Astrophysics’, volume 376, page 359; bibcode: 2001A&A…376..359H
BZERO = 32768 / offset data range to that of unsigned short
BSCALE = 1 / default scaling factor
OBJECT = ‘M57 ‘ / The name of Object Imaged
TELESCOP= ‘EQMOD HEQ5/6’ / The Telescope used
INSTRUME= ‘ZWO ASI294MC Pro’ / The model Camera used
OBSERVER= ‘Dietrich Kracht’ / The name of the Observer
DATE-OBS= ‘2022-09-12T09:51:36’ / The UTC date and time at the start of the expo
HIERARCH CAMERA-DATE-OBS = ‘2022-09-12T09:51:36’ / The UTC date and time at the
EXPTIME = 0.002 / The total exposure time in seconds
CCD-TEMP= 23.5 / Temperature of CCD when exposure taken
XPIXSZ = 4.63 / Pixel width in microns (after binning)
YPIXSZ = 4.63 / Pixel height in microns (after binning)
XBINNING= 1 / Binning factor in width
YBINNING= 1 / Binning factor in height
XORGSUBF= 0 / Sub frame X position
YORGSUBF= 0 / Sub frame Y position
EGAIN = 1.00224268436432 / Electronic gain in e-/ADU
FOCALLEN= 50 / Focal Length of the Telescope in mm
JD = 2459834.91083333 / Julian Date
SWCREATE= ‘Astro Photography Tool – APT v.4.01’ / Imaging software
SBSTDVER= ‘SBFITSEXT Version 1.0’ / Standard version
SNAPSHOT= 1 / Number of images combined
SET-TEMP= 21. / The setpoint of the cooling in C
IMAGETYP= ‘Light Frame’ / The type of image
OBJCTRA = ’05 12 43′ / The Right Ascension of the center of the image
OBJCTDEC= ‘-03 29 58’ / The Declination of the center of the image
OBJCTALT= ‘8.2047 ‘ / Nominal altitude of center of image
OBJCTAZ = ‘252.5824’ / Nominal azimuth of center of image
AIRMASS = 7.00717254857843 / Air Mass value
SITELAT = ‘+53 00 00.000’ / The site Latitude
SITELONG= ‘+10 00 00.000’ / The site Longitude
GAIN = 120 / The gain set (if supported)
OFFSET = 8 / The offset/black level set (if supported)
BAYERPAT= ‘RGGB ‘ / The Bayer color pattern
END

Meine Aufnahme-Software SharpCap

Beispiel: FITS-Header mit SharpCap

SIMPLE = T / C# FITS: 09/12/2022 12:18:27
BITPIX = 16
NAXIS = 2 / Dimensionality
NAXIS1 = 4144
NAXIS2 = 2822
XBAYROFF= 0 /
YBAYROFF= 0 /
FRAMETYP= ‘Light ‘ /
SWCREATE= ‘SharpCap v4.0.9268.0, 32 bit’ /
DATE-OBS= ‘2022-09-12T10:18:27.3673948’ / System Clock:Est. Frame Start
DATE-AVG= ‘2022-09-12T10:18:27.3682758’ / System Clock:Est. Frame Mid Point
BAYOFFY = 0 /
FOCUSPOS= 5000 /
GAIN = 120 /
BLKLEVEL= 8 /
DATE-END= ‘2022-09-12T10:18:27.3691567’ / System Clock:Est. Frame End
BAYOFFX = 0 /
COLORTYP= ‘RGGB ‘ / Try GBRG if image upside down or R/B swapped.
FOCTEMP = 0 / CELCIUS
CCD-TEMP= 27.1 / C
YBINNING= 1 /
XBINNING= 1 /
YPIXSZ = 4.63 / microns, includes binning if any
XPIXSZ = 4.63 / microns, includes binning if any
EXPTIME = 0.001762 / seconds
ROWORDER= ‘TOP-DOWN’ /
BSCALE = 1 /
BZERO = 32768 /
EXTEND = T / Extensions are permitted
BAYERPAT= ‘RGGB ‘ / Try GBRG if image upside down or R/B swapped.
INSTRUME= ‘ZWO ASI294MC Pro’ /
END

Meine Aufnahme-Software N.I.N.A.

Beispiel: FITS-Header mit N.I.N.A.

SIMPLE = T / C# FITS
BITPIX = 16 /
NAXIS = 2 / Dimensionality
NAXIS1 = 4144 /
NAXIS2 = 2822 /
BZERO = 32768 /
EXTEND = T / Extensions are permitted
IMAGETYP= ‘LIGHT’ / Type of exposure
EXPOSURE= 1.0 / [s] Exposure duration
EXPTIME = 1.0 / [s] Exposure duration
DATE-LOC= ‘2022-09-12T13:01:51.863’ / Time of observation (local)
DATE-OBS= ‘2022-09-12T11:01:51.863’ / Time of observation (UTC)
XBINNING= 1 / X axis binning factor
YBINNING= 1 / Y axis binning factor
GAIN = 120 / Sensor gain
OFFSET = 8 / Sensor gain offset
EGAIN = 1.00224268436432 / [e-/ADU] Electrons per A/D unit
XPIXSZ = 4.63 / [um] Pixel X axis size
YPIXSZ = 4.63 / [um] Pixel Y axis size
INSTRUME= ‘ZWO ASI294MC Pro’ / Imaging instrument name
SET-TEMP= -10.0 / [degC] CCD temperature setpoint
CCD-TEMP= 28.9 / [degC] CCD temperature
BAYERPAT= ‘RGGB’ / Sensor Bayer pattern
XBAYROFF= 0 / Bayer pattern X axis offset
YBAYROFF= 0 / Bayer pattern Y axis offset
USBLIMIT= 40 / Camera-specific USB setting
TELESCOP= ‘Canon’ / Name of telescope
FOCALLEN= 50.0 / [mm] Focal length
ROWORDER= ‘TOP-DOWN’ / FITS Image Orientation
EQUINOX = 2000.0 / Equinox of celestial coordinate system
SWCREATE= ‘N.I.N.A. 2.0.0.9001 ‘ / Software that created this file
END

Astrofotografie: Lessons learned

Gehört zu: Astrofotografie
Siehe auch: Mein Workflow mit APT, Mein Beobachtungsbuch, Meine Astro-Geräteliste

Astrofotografie: Lessons learned 2020 und 2021

Im Jahre 2020 hatte ich unter den leider gegebenen Umständen mehr Zeit als sonst und habe mal einige Erkenntnisse zur Verbesserung meiner persönlichen Fertigkeiten bei der Astrofotografie aus meinem Beobachtungsbuch herausgeholt und hier zusammengefasst.
Vielleicht ist für den einen oder anderen auch ein Denkanstoss dabei – oder ein Punkt zur Diskussion…

Tabelle 1: Lessons learned

Astro-Kamera Meine DSLR (Canon EOS 600D) entwickelte hohe Sensor-Temperaturen (30 Grad und mehr), die zudem noch veränderlich waren.
Jetzt habe ich mir eine echte (dedizierte) Astro-Kamera (ZWO ASI294 Pro) zugelegt, die diese Temperaturprobleme löst (geregelte Kühlung) und auch über APT ansteuerbar ist.
Allerdings ist die Live-View-Funktion unter APT bei der ASI294 schlechter als mit der Canon-DSLR.
Die Kamera (ZWO ASI294 Pro) ruhig auf minus zehn Grad kühlen (mindestens Null Grad); dann geht das thermische Rauschen stark zurück.
Der Gain sollte schon über 120 (sog. Unity Gain) liegen, dann ist das Ausleserauschen extrem gering. Gain 300 geht auch gut.
Barlow-Linse Um die effektive Brennweite meines Refraktors Orion ED80/600 zu erhöhen und damit den Abbildungsmaßstab zu vergrößeren, habe ich eine Barlow-Linse erstanden.
Geplant war, den Merkurdurchgang im November 2020 damit zu fotografieren. Das fiel wegen schlechten Wetters aus.
Auch in der Marsopposition im Oktober 2020 wollte ich die Barlow-Linse ausprobieren.
Problem 1: Welchen Abstand soll das Barlow-Element von der Sensorebene meiner Kamera haben?
Problem 2: Welche effektive Brennweite hat dann mein Teleskop ED80/600 mit der so montieren Barlow-Linse? Dies muss ich nämlich für das Platesolving wissen.
Belichtung Die Gesamtbelichtungszeit bei Deep Sky Objekten (DSOs) sollte schon bei mindestens 2 Stunden liegen.
Die maximale Belichtungszeit der Einzelaufnahmen wird begrenzt durch zweierlei: (1) Himmelshelligkeit (2) Nachführgenauigkeit
Beide Grenzen müssen immer wieder durch praktische Versuche ermittelt werden.
Bei zu langen Einzel-Belichtungszeiten kann das gefürchtete AmpGlow stören.
Beobachtungsbuch Mein schon seit vielen Jahren geführtes Beobachtungsbuch in Excel habe ich ergänzt um einen zusammenfassenden Abschnitt: “Die schönsten Fotos aus diesem Jahr”
Auf dieser Basis habe ich ein Fotobuch mit den für mich eindruckvollsten “Pretty Pictures” erstellt. Als Vorstufe zu diesem Fotobuch habe ich zuerst ein Web-Album bei Flickr angelegt.
Bildbearbeitung Die Software Astro Pixelprocessor (“APP”) ist noch etwas besser als der Deep Sky Stacker (“DSS”)
APP scheint das Stacken selbst etwas genauer zu machen als DSS.
Mit APP wir dann auch gleich das erstellte Summenbild nachbearbeitet durch (1) Entfernen von Lichtverschmutzung und Gradienten (Background-Extraction) (2) Sternfarben-Kalibrierung (3) Farbsättigung
APP wird auch das PixInsight des kleinen Mannes genannt (geringere Kosten, schnellere Lernkurve).
Calibration Frames Darks zur Eliminierung des AmpGlow bei der ASI294 erforderlich (gleiche Temperatur kein Problem)
Flats zur Korrektur der Flecken (“Donuts”) erforderlich. Flatbox einsetzen.
Biases erforderlich, wenn ich Flats mache.
Flat Frames Flat Frames benötige ich immer. Damit das so einfach wie möglich geht, habe ich mir eine FlatBox angeschafft.
Die Belichtungszeiten sollten nicht zu kurz sein, dann könnte es Streifen geben. Etwas länger Belichten (z.B. 3 Sekunden) ist bei Flats besser, dazu muss ich die Helligkeit der Flats etwas herunterregeln.
Fokussieren Das manuelle Fokussieren hatte zwei Nachteile: (1) Beim manuellen Fokussieren zittert das Bild (2) Für einen Remote-Betrieb ist ein Motor-Fokusser erforderlich.
Ein Motor-Fokusser muss ganz fest am Okularauszug befestigt sein, ohne dass dabei Schrauben des OAZ verwendet werden, die am OAZ selbst eine wichtige Funktion haben.
Zum Fokussieren selbst benutze ich die Bahtinov-Masken nicht, sondern mache das auf Sicht: Also bei welcher Fokuseinstellung ist eine Sternenscheibchen am kleinsten und wo tauchen neben dem hellen Zielstern auf einmal viele schwächere Sternenpunkte auf?
Das mache ich mit der Software SharpCap, wo ich quasi ein Life-Bild habe und dieses auch schön vergrößern kann.
Voraussetzung: Ein heller Stern ist im Gesichtsfeld. Hell muss der Stern sein, wenn ich bereits einen Filter eingbaut habe oder auch wenn es noch nicht richtig dunkel ist.
Zur Einstellung so eines Sterns in Gesichtsfeld benutze ich zuerst ein Goto mit Cartes du Ciel. Zur Feineinstellung des Sterns in das Gesichtsfeld benutze ich mein sonst nutzloses Sucherfernrohr.
Das Sucherfernrohr justiere ich daher schon am Tage parallel zum Hauptrohr.
Der helle Zielstern darf nicht zu weit weg vom Fokus sein – Deshalb grobe Fokussierung schon am Tage an einem entfernten terrestischen Objekt.
Die Fokussierung muss mindestens so gut sein, dass ein Platesolving funktioniert.
Mit der Software N.I.N.A. habe ich sogar eine Auto-Fokus-Funktion, die mit einer V-Kurve arbeitet. Aber dann muss man N.I.N.A. ersteinmal lernen.
Lichtverschmutzung Tri-Narrowband-Filter in Hamburg sinnvoll auch mit Farbkamera (Beispiel: Pacman-Nebel) – schön lange belichten.
Da so ein Filter nur für Emissionsnebel sinnvoll ist, muss man in ausschrauben und wieder einschrauben – aber wo genau?
Plate Solving & Drehwinkel Das Plate Solving benötigt ein Foto mit einigermassen gut fokussierten Sternen. Es bestimmt dann die Koordinaten des Bildmittelpunkts und den Drehwinkel des Fotos gegenüber der Nordrichtung. Ich benutze die Funktion Plate Solving über meine Astro-Software APT.

Wenn erforderlich, muss ich den vom Platesolving ermittelten Drehwinkel per Hand in die gewünschte Position bringen.

Polar Alignment Polar Alignment mit SharpCap funktioniert genau und bequem mit vorhandenem Gerät (Guiding-Rohr). PoleMaster verkauft.
SYNC Bei einer Teleskopsteuerung durch ASCOM hat man den SYNC-Befehl. Der Befehl heisst in voller Schönheit “SyncToCoordinates”.
Die ASCOM-Teleskopsteuerung hat immer eine “angenommene Teleskop-Position” (Rektaszension und Deklination). So eine “angenommene Teleskop-Position” ist beim allersten Anschalten der Himmelspol und ansonsten die Position des letzten Gotos.
Der SYNC-Befehl sagt der ASCOM-Teleskopsteuerung, dass die “angenommene Teleskop-Position” auf einem bestimmten Wert (Zielwert) gesetzt werden soll.
Ich mache das immer im Zusammenhang mit Platesolving. Die durch Platesolving des akutellen Bildes ermittelten Koordinaten werden dann per SYNC-Befehl der ASCOM-Teleskopsteuerung mitgeteilt und von nun an auch als “angenommene Teleskop-Postion” benutzt. Damit wird die “angenommene Postion” identisch mit der tatsächlichen Position des Teleskops. Früher (bevor ich Platesolving machte) habe ich dafür ein Three Star Alignment gemacht.
Um ein SYNC mit APT auszulösen, muss die Montierung (Teleskop) “connected” sein.
Um ein SYNC mit CdC auszulösen, muss die Montierung (Telekop) “verbunden” sein.
Weitere Voraussetzungen für einen erfolgreichen SYNC sind “Unpark” und “Tracking”
Teleskopsteuerung Die Erprobung eines Raspberry Pi mit Linux war für mich nicht richtig zufriedenstellend. Raspberry Pi verkauft.
Die von Windows her gewohnte Software musste teilweise ersetzt werden
Die Remote-Bedienung über VNC habe ich nach einigem Fummeln schon hinbekommen.
Auch gibt es PHD2 Guidung wohl auf Linux; aber mit KStars und Ekos und INDI konnte ich mich nicht anfreunden.
Goto Voraussetzung für das Funktionieren der motorischen Goto-Funktion ist ein “Alignment“. Nur dadurch weiss die Montierung ihre “Ist-Position” und kann von dieser “Ist-Position” aus auf die gewünschte “Soll-Position” fahren. Die Goto-Funktion ermittelt immer die Differenz zwischen Soll und Ist. Falls die Ist-Position schon falsch ist, bewegt sich die Goto-Funktion möglicherweise komplett falsch und es kann zu Kollisionen kommen.
Mit Cartes du Ciel kann man diese Ist/Soll-Positionen sehr gut visuell überwachen. Die Ist-Position ist beim Einschalten der Himmelspol, d.h. das Teleskop sollte beim Einschalten auch dahin zeigen.
Veränderungen der Teleskop-Position bei gelösten Klemmen werden von der Computersteuerung nicht wahrgenommen.
Nur Veränderungen der Teleskop-Position durch Goto (und Sync nach Plate Solving) registriert die Computersteuerung.
Also: Vor jedem Goto auf eine neue “Soll-Position” zuerst kontrollieren, ob die “Ist-Position” die richtige ist.
Wetter Gute astronomische Wetterberichte gibt es z.B. bei: http://clearoutside.com und bei Kachelmann

_._,_._,_

Astronomie: Software Astro Pixel Processor APP

Gehört zu: Astro-Software
Siehe auch: Stacken, Tri-Narrowband-Filter, Pacman-Nebel
Benutzt: Fotos von Google Archiv

Stand: 26.12.2022

Astro-Software: Astro Pixel Processor

Eine in den letzten Jahren neu ins Blickfeld geratene Astro-Software ist der “Astro Pixel Processor” abgekürzt “APP”.

Funktionen von APP:

  • Calibration (Darks, Flats, Biases)
  • De-Bayering (De-Mosaicing)
  • Stacking
  • RGB Manipulationen
  • Remove Light Pollution and Gradients
  • Calibrate Background
  • Calibrate Star Colors
  • Stretching
  • u.a.

Die Software ist leider nicht kostenfrei, sondern kostet in Miete jährlich Euro 60,- (+MWSt) oder als Kauf einmalig Eur 160,-  (+MWSt).

Download: https://www.astropixelprocessor.com/free-30-day-trial/

Forum: https://www.astropixelprocessor.com/community/main-category/

Versions:

  • 2020-04-15 – APP 1.079
  • 2020-06-19 – APP 1.080
  • 2020-06-27 – APP 1.081
  • 2020-07-09 – APP 1.082
  • 2022-03-08 – APP 1.083.4
  • 2022-09-02 – APP  2.0.0-beta4

1.082 has full support for FITS, Canon CR2 & CR3, Nikon NEF, Sony ARW, Pentax PEF, Olympus ORF, Leica RWL & RAW, Panasonic RW2 & RAW & Hasselblad 3FR & fff, Fujifilm RAF including SuperCCD & X-Trans, TIFF, JPEG file formats.

Der APP wird gerne als einfacherer “Ersatz” für das komplizierte PixInsight bezeichnet.

Der Astro Pixel Processor kann auf der einen Seite ein sehr genaues Stacking mit Calibration Frames (Darks, Flats, Biases) vornehmen; auf der anderen Seite kann das gestackte Bild noch ein wenig nachbearbeitet werden (Light Pollution,. Gradients, Background, Star Colors etc.).

Mein Workflow zum Stacken mit Astro Pixel Processor

Hierzu fand ich zwei Youtube-Videos von AstroStace:

Ich habe eine 30-Tage-Trial-Lizenz erworben und am 6.10.2020 aktiviert.

Nach der Installation auf meinem Computer Asusbaer habe ich beim ersten Aufruf einige Parameter eingstellt:

  • Anzahl zu benutzende Cores: 3 von 4
  • Wieviel Hauptspeicher darf benutzt werden: 4 GB von 8 GB
  • Einstellen des Arbeitsverzeichnisses
  • Kästchen “Multi-Session Processing”: Uncheck
  • Enter DeepSky obkect name: z.B. M31

Danach geht es mit dem Stacken der in der Nacht aufgenommenen Einzelbilder los, wobei die Tabs in der linken Seite des APP-Hauptbildschirms nacheinander aktiviert werden:

0) RAW/FITS
1) LOAD
2) CALIBRATE
3) ANALYSE STARS
4) REGISTER
5) NORMALIZE
6) INTEGRATE

Workflow Teil 0: Einstellungen

MultiSession ausschalten

Workflow Teil 1: Integration

Bei “0) RAW/FITS” etwas einstellen

Meine Kamera ist eine ZWO ASI294MC Pro; dafür sind folgende Einstellungen erforderlich:

  • Bayer pattern: RGGB
  • (De-Bayer-) Algorithm: adaptive airy disk
  • Force Bayer CFA  (CFA = Color Filter Array)

Auf dieser Basis macht APP an verschiedenen Stellen im Workflow ein “De-Bayering” – also nicht alles gleich am Anfang.

Bei “1) LOAD” laden der Einzelbilder

Zuerst die Light Frames. Diese erscheinen dann im unteren Bildschirmbereich, der File List, tabellarisch.

Dann die Dark Frames (oder ein Masterdark)

Dann die Bias Frames (oder ein Master Bias)

Dann die Flat Frames (oder ein Master Flat)

Bei “2) CALIBRATE” klicken wir wie folgt:

Der APP erstellt Master Darks, Master Flats und Master Biases und ordnet diese den Light Frames zu.
Alle Einstellungen können so bleiben, wie sie vorgeschlagen werden.

  • Optional kann eine “Bad Pixel Map” erzeugt werden.
  • Optional kann versucht werden ein “Amp Glow” bzw. ” Electro Luminescence” zu reduzieren: “Adaptive pedestal/Reduce Amp Glow”
  • Zum Schluss die Schaltfläche “Create Masters & Assign to Lights”  bzw. “(Re-)Assign Masters to Lights” wenn die Masters schon da waren.

Bei “3) ANALYSE STARS” macht APP folgendes:

APP ermittelt in jedem Light Frame, wieviele Sterne dort erkannt werden können.
Alle Einstellungen können so bleiben, wie sie vorgeschlagen werden.

  • Schaltfläche “Analyse Stars”

Bei “4) REGISTER” macht APP folgendes

Es wird ermittelt, mit welchen kleinen Verschiebungen die Light Frames genau übereinander passen würden.

Optional kann man selbst einen Light Frame als sog. “Reference Frame” bestimmen,

  • Schaltfläche “Start Registration”

Bei “5) NORMALIZE” macht APP folgendes

Gerne wird (optional) angehakt: “Neutralize background”

  • Schaltfläche: “Normalize Lights”

Bei “6) INTEGRATE” macht APP folgendes

Die Light Frames werden zu einem Summenbild übereinandergelegt, wobei noch bestimmte Einstellungen diesen Prozess beeinflussen können:

Weights: Quality

Integrate: Average

Mode: Reference/Full/Crop

Outlier Rejection: LN MAD Winsorized Rejection

  • Schaltfläche: “Integrate”

Wenn das fertig ist, bekommt man unten in der “File List” eine neuen Eintrag “INTEGRATE 1”.
Darauf einen Doppel-Klick und das Summenbild wird in das große Hauptfenster, den “Image Viewer”, zur Anzeige geladen und rechts oben erscheint das Histogramm…

Work Flow Teil 2: Postprocessing

Jedes Bild, was unten in der “File List” ist, kann APP mit “TOOLS” nachbearbeiten.

Ein bereitsvorhandenes Bild (am besten ein noch linerares Summenbild) kann über “Working Directory” und “1) LOAD” in die “File List” geholt werden.

Bei “9) TOOLS” kann ein Bild (z.B. das Summenbild) noch ein wenig bearbeitet werden…

Bei “9) TOOLS” kann man das im Viewer angezeigte Bild noch weiter bearbeiten (sog. postprocessing). Dazu werden folgende Schaltflächen angezeigt:

  • Batch Modify
  • Batch Rotate/Resize
  • Correct Vignetting
  • Remove Light Pollution
  • Calibrate Background
  • Calibrate Star Colors
  • Combine RGB
  • HSL selective color

Visuelle Einstellungen

Um den Effekt der diversen Schritte im Postpropcessing besser beurteilen zu können, stellen wir das Bild im Image Viewer besonders “fein” ein (das hat keinen Einfluss auf das gespeicherte Bild; lediglich die Anzeige im Image Viewer wird beeinflusst).

Häckchen bei “neutralize BG”   (macht nicht viel)

Häkchen bei “Saturation” und dann die Schieberegler SAT (=Saturation) und SAT TH (=Saturation Treshold)

Postprocessing

Beim Postprocessing mit Astro Pixel Prozessor kommt es darauf an, die Schritte wirklich in der vorgegebenen Reihenfolge zu durchlaufen, also:

  • Remove Light Pollution / Gradients
  • Calibrate Background
  • Calibrate Star Colors

Man kann durchaus mit dem Schritt “Calibrate Star Colors” anfangen. Der prüft nämlich, ob man schon “Remove Light Pollution” gemacht hat und wird ggf. anbieten dies nachzuholen.

Ebenfalls zu beachten ist, dass hier immer nur “lineare” (d.h. noch nicht gestretched) Bilder richtig bearbeitet werden können.

Schaltfläche “Remove Light Pollution”  (Light pollution and Gradients)
  • APP will dann ein “Light Pollution Model” bauen, wozu man mindestens 5 kleine Rechtecke im Bild mit der Maus zeichnen soll, wo “nur Hintergrund” ist.
  • Um besser zu erkennen, wo im Bild “nur Hintergrund” ist, sollte man verher den Stretch (rechts) auf Maximum einstellen.
  • Wenn genügend Rechtecke gezeichnet sind, klicken wir auf die Schaltfläche “Calculate”
  • Wenn wir auf die Schaltfläche “Show Corrected Image” klicken, wird das LIght Pollution Model angezeigt und der Text auf der Schaltfläche ändert sich in “Show Correction Model”
  • Wenn wir nun ein weiteres Mal auf diese Schaltfläche (“Show Correction Model”) klicken, wird das Model auf das Bild angewendet.
  • Dann klicken wir auf die Schaltfläche “OK & Save”, um das korrigierte Bild abzuspeichern – am besten noch als FITS-Datei.
  • Das so korrigierte Bild erscheint dann unten in der File List unter “Other / Processed 1”
Schaltfläche “Calibrate Background”   (das machen wir jetzt also zum zweiten Mal)

Im Gegensatz zum “Neutralize BG”, wo der Background über das ganze Bild auf neutral grau gesetzt wird, bedeutet “Calibrate Background” dass nur die durch Kästchen selektierten Bereiche als Background angesehen werden und für diese die Korrektur berechnet wird, die dann auf das ganze Bild angewendet wird.

  • APP will dann ein “Background Model” bauen, wozu man mindestens 5 kleine Rechtecke im Bild mit der Maus zeichnen soll, wo “nur Hintergrund” ist.
  • Wenn genügend Rechtecke gezeichnet sind, klicken wir auf die Schaltfläche “Calculate”
  • Wenn wir auf die Schaltfläche “Show Corrected Image” klicken, wird das LIght Pollution Model angezeigt und der Text auf der Schaltfläche ändert sich in “Show Correction Model”
  • Wenn wir nun ein weiteres Mal auf diese Schaltfläche (“Show Correction Model”) klicken, wird das Model auf das Bild angewendet.
  • Dann klicken wir auf die Schaltfläche “OK & Save”, um das korrigierte Bild abzuspeichern – am besten noch als FITS-Datei.
  • Das so korrigierte Bild erscheint dann unten in der File List unter “Other / Processed 2”

Tipps dazu: Saturation dafür auf Maximum, Saturation Threshold auf Minimum, Kästchen ganz klein ziehen und sukkseszive schauen, was passiert…

Schaltfläche “Calibrate Star Colors

Wenn man “Calibrate Star Colors” anklickt, prüft APP, ob man “Remove Lightpollution/Gradients” gemacht hat…

Hierfür jetzt größere Sternfelder auswählen und kontrolliert mit den Schiebereglern probieren…

Wir bekommen zum Ergebnis auch zwei Diagramme der Farbverteilung. Das sollte einigermaßen symmerisch zur Diagonale aussehen. Ggf. kann man an den Schiebereglern vorsichtig manipulieren und einen erneuten Farbabgleich machen – solange bis es “gut” aussieht.

Schaltfläche “HSL Selective Color
  • xyz
Rechts: Stretchen und mehr

Wir können rechts an den Reglern (z.B. Stretch, Saturate,…) Veränderungen vornehmen. Erst wenn man rechts auf die Schaltfläche “Save” klickt, werden die Änderungen (ggf. nicht mehr linear) als TIFF-Datei gespeichert.

So ein TIFF-Bild kann man ausserhalb von APP weiter bearbeiten z.B. mit Topas AI.

Mein Workflow für Bicolor mit Astro Pixel Processor

Ich versuche ja gerade mit einem Tri Narrowband Filter aus dem lichtverschmutzten Hamburg heraus mit meiner OSC-Kamera zu fotografieren. Narrowband und Farbkamera, da rümpfen die “alten Hasen” sofort die Nase. Aber mit dem Einzug der Tri- oder Quad-Narrowband-Filter kann man ja mit einer einzigen Farbaufnahme evtl. der Lichtverschmutzung ein Schnäppchen schlagen.

Hierzu fand ich das Youtube-Video von AstroStace:  Narrowband Imaging with a Triband OSC Filter sehr hilfreich für meine eigene Stituation.

Das Video von AstroStace zeigt zwei alternative Möglichkeiten, mit APP solche Bilder schön zu bearbeiten…

Alternative 1: De-Bayer-Algorithmus “Ha-OIII color”

Dazu stellen wir bei “0) RAW/FITS” ein:

  • Bayer pattern: RGGB
  • (De-Bayer-) Algorithm: Ha-OIII color
  • Force Bayer CFA  (CFA = Color Filter Array)

Und dann den “normalen” Workflow wie oben.

Alternative 2: “Extract Ha” and “Extract OIII” and recombine

Dazu müssen wir den ganzen Stacking-Workflow (s.o.) zweimal durchführen mit zwei verschiedenen Einstellungen bei “0) RAW/FITS“:

  • mit: (De-Bayer-) Algorithm: Ha-OIII extract Ha
  • mit: (De-Bayer-) Algorithm: Ha-OIII extract OIII

So erhalten wir zwei Mono-Fotos – am besten im Format 16-Bit-TIFF gespeichert. Diese müssen wir dann wieder zu einem RGB-Bild zusammensetzen. Das geht mit APP so:

Im Tab “9) Tools” klicken wir auf den Schaltfläche “Combine RGB” und dort auf “Add”. Dort wählen wir die beiden Mono-Fotos (s.o.) aus und geben ihnen sprechende Namen.

Dann folgen als Verarbeitungsschritte:

  • Red: 100% in Hydrogen alpha & Calculate
  • Green: 80% in OIII and & 20% in Hydrogen alpha  & Calculate
  • Blue: 85% in OIII and 15% in Hydrogen alpha & Calculate

Und schließlich “SAVE” als 16-Bit TIFF (rechts oben).

Damit geht’s dann weiter in Adobe Photoshop.

Siehe auch: Adobe Photoshop

Was machen wir in Adobe Photoshop:

  1. Ränder abschneiden: Crop
  2. Schwarzpunkt setzen: Image -> Corrections -> …

Beispiel: 1:  NGC 281 mit Tri-Narrowband-Filter gemäß Alternative 1 bearbeitet

Abbildung 1: Pacman-Nebel mit Tri-Narrowband-Filter (Google Archiv: 20200920_NGC281_G300_120s_beschriftet.jpg)

20200920_NGC281_G300_120s_beschriftet.jpg

Dieses Foto habe ich auch im Artikel NGC 281 beschrieben.

 

 

 

Astronomie: Mein Workflow mit N.I.N.A.

Gehört zu: Astronomie
Siehe auch: N.I.N.A., APT, Mein Workflow mit APT
Benutzt: Grafiken aus GithubFotos aus Google Archiv

Stand: 12.05.2023

Link: https://www.youtube.com/watch?v=lHrfaR7A0L0

Warum N.I.N.A. für meine Astrofotografie?

Nachdem ich auf die neue Astro-Software N.I.N.A. aufmerksam geworden bin, möchte ich mal zum Test nachstellen, ob und wie ich mit N.I.N.A. mindestens das Gleiche machen kann, wie mit APT.

Darüber hinaus hätte N.I.N.A. für mich echte Vorteile:

  1. Modernere, flexibleOberfläche (konfigurierbare Fenster)
  2. Autofokus mit HFR-Messung
  3. Bildausschnitt (“Framing”) mithilfe diverser Sternkarten und direkter Übenahme in den Sequencer (Aufnahmeplan).
  4. Manueller Rotator
  5. Mosaik-Assistent mit diversen Sternkarten
  6. Funktionserweiterungen durch Plugins
  7. Kostenlos und Open Source

Voraussetzungen für meinen Workflow mit N.I.N.A.

Bevor es losgeht, müssen einige Voraussetzungen erfüllt sein:

  • Ein Windows-Computer ist vor Ort vorhanden, hat Strom und die nötige Software ist installiert
  • N.I.N.A. ist installiert und konfiguriert (Planetariumsprogramm: Stellarium oder Cartes du Ciel)
  • Meine Montierung HEQ5 Pro ist aufgebaut und über EQMOD mit dem Computer verbunden
  • In EQMOD sind Standorte mit den genauen geografischen Koordinaten definiert
  • Das Teleskop mit Flattener und Kamera ist fokussiert.
  • Alle Geräte (die Montierung, der USB-Hub, die Kamera,…) sind mit Strom versorgt
  • Alle Geräte (die Montierung, die Kamera, der Motorfokusser,…) sind mit meinem Windows-Computer über Kabel (USB-Kabel; ggf. USB-Hub) verbunden

Mein N.I.N.A.-Workflow: Schritt für Schritt

Mein vorsichtiger Workflow besteht aus diesen Schritten:

  1. Anfangstellung herstellen
  2. Fokussieren
  3. Platesolving testen
  4. Polar Alignment
  5. Setzen von Alignment-Points
  6. Setzen eines ersten Alignment-Points
    1. Ein Zielobjekt anfahren (“Slew”)
    2. Foto machen
    3. Platesolving
    4. SYNC
    5. Kontrolle des ersten SYNC-Points
  7. Setzen eines zweiten Alignment-Points (SYNC-Point)
  8. Setzen eines dritten Alignment-Points (SYNC-Point)
  9. Foto-Sequenz erstellen
  10. Optional: Autoguiding anstellen
  11. Foto-Sequenz starten (Aufnehmen Light Frames)
  12. Aufnehmen Flat Frames
  13. Parken in Home-Position

Schritt 1: Anfangsstellung herstellen

Wir wollen den Ausgangspunkt für Gotos (bei N.I.N.A. “Slew” genannt) herstellen.

  • Montierung aufbauen und in die Waagerechte bringen
  • Ausbalancieren
  • Grobe Fokussierung auf terrestrisches Objekt
  • Montierung (HEQ5 Pro) gut auf die Home-Position ausrichten.
  • Strom an der Montierung anschalten.
  • Die Software N.I.N.A. mit der Montierung (über EQMOD) verbinden.
  • Im EQMOD-Hauptfenster:
    • Kontrolle: Anzeige zeigt: Deklination 90,0 Grad und Azimut Null Grad (das ist wichtig für das erste “Goto” bzw. “Slew”, wie es in N.I.N.A. heisst).
    • EQMOD Tracking anschalten auf “siderial” (das wäre wichtig für SYNC-Points und Autofokus, da dann HFR besser berechnet werden kann)
    • EQMOD-Zusatzfenster öffen durch Klick auf Schaltfläche “Schraubenschlüssel >>>”
  • Im EQMOD-Zusatzfenster
    • Site Information
    • Alignment/Sync Point Count=0

Abbildung 2: EQMOD Anfangsstellung (Google Archiv: NINA-Workflow-01.jpg)

NINA-Workflow-01.jpg

Schritt 2: Warten auf erste Sterne und mit der Software SharpCap fokussieren

Dazu habe ich einen separaten Blog-Artikel geschrieben.

Schritt 3: Platesolving testen

Dazu habe ich einen separaten Blog-Artikel geschrieben.

Schritt 4: Polar Alignment

Dazu habe einen separaten Blog-Artikel geschrieben.

Schritt 5: Setzen von Alignment Points

Ich will zunächst drei Alignment-Points setzen. Die prinzipielle Vorgehenweise ist für jeden Alignment-Point diese:

  1. Koordinaten des geplanten Alignment Points besorgen (z.B. aus Stellarium oder Cartes du Ciel)
  2. Mit N.I.N.A. dann:
    1. einen “Slew” (=Goto) auf dieses Target durchführen
    2. dann ein schönes Foto machen (Objekt kann ruhig verfehlt sein)
    3. dieses Foto plate solven
    4. bei erfolreichem Solve gleich ein Sync machen
  3. In EQMOD kann man kontrollieren, ob der Sync-Point dort angekommen ist

Abbildung 1: N.I.N.A. Workflow für einen SyncPoint (Github: NINA_Workflow.svg)

Schritt 6: Setzen eines ersten Alignment Points

In diesem Schritt wollen wir einen Alignment-Point auf ein Objekt nicht so weit von der Home-Position machen. Ich habe mir dazu Alpha Cephei ausgesucht. Dazu müssen wir die Koordinaten von Alpha Cephei als Ziel-Koordinaten in N.I.N.A. übernehmen, einen Slew (=Goto) auf das Zielobjekt machen, davon ein Foto machen, dieses Foto “platesolven” und schliesslich darauf “SYNCen”.

Um mit N.I.N.A. einen “Slew” (=Goto) Zielkoordinaten für ein Objekt zu erhalten, gibt es mehrere Möglichkeiten:

  • Möglichkeit 1: Im N.I.N.A. “Framing” die Ziel-Koordinaten aus dem Planetariumsprogramm übernehmen (im Abschnitt “Coordinates” auf das “GPS-Symbol” klicken
  • Möglichkeit 2: Im N.I.N.A. “Framing” die Ziel-Koordinaten vom Teleskop übernehmen
  • Möglichkeit 3: Im N.I.N.A. auf “Imaging” und dann in der Leiste oben rechts auf das Stern-Symbol klicken, aus dem Drop-down das Zielobjekt auswählen und “Slew”
  • Möglichkeit 4: …

Wir nehmen mal die erste Möglichkeit:

  • Das Planetariumsprogramm starten (Cartes du Ciel, Stellarium) und das erste Ziel dort auswählen (hier: Alpha Cephei)
  • In der Software N.I.N.A. den Reiter “Framing” aufrufen und im Bereich “Coordinates”  auf “übernehmen von Planetarium klicken” (21h 18m 35s, +62° 35′ 9″).
  • N.I.N.A. übernimmt dann die Ziel-Koordinaten vom ausgewählten Zielobjekt aus dem Planetariumsprogramm (und den Rotationswinkel)
  • N.I.N.A. holt dann ein Bild des Zielobjekts aus dem als “Image Source” ausgewählten SkyAtlas. Die Größe des Bildes richtet sich nach dem “Field Of View”.
  • Bildschauschnitt evtl. korrigieren (“Framing”)
  • Schaltfläche “Slew”   (N.I.N.A.’s Wort für “Goto”)

Abbildung 3: N.I.N.A. Framing -> Coordinates (Google Archiv: NINA-Workflow-04.jpg)

NINA-Workflow-04.jpg

N.I.N.A. Framing: Target Coordinates

Schritt 6.1: Ein Zielobjekt anfahren

In diesem Schritt  wollen wir auf das Zielobjekt Alpha Cephei schwenken (Slew = Goto).

  • Dazu scrollen wir im gleichen Fenster (Framing Assistent) herunter bis unter dem Bereich “Targets” die Schaltflächen “Recenter Image”, “Slew” etc. sichtbar werden.
  • Dann auf die Schaltfläche “Slew” (=Goto) klicken (“Slew” ist ausgegraut, wenn wir die Montierung noch nicht verbunden haben)
  • Das Zielobjekt wird jetzt nicht hundertprozentig getroffen sein, da der Ausgangspunkt des “Slew” (=Goto) nur die etwas ungenaue Home-Postion war. Das macht aber nichts, wir wollen ja hier nur einen ersten Alignment-Point (SYNC) setzten.

Abbildung 4: N.I.N.A. Framing -> Slew (Google Archiv: NINA-Workflow-05.jpg)

NINA-Workflow-05.jpg

Schritt 6.2: Foto machen

In disem Schritt wollen wir ein erstes Foto machen.

  • In N.I.N.A. die Kamera (meine ASI294 MC Pro) verbinden und die Kühlung anstellen.
  • In N.I.N.A. auf den Reiter “Imaging” gehen und ein Foto machen (dazu Belichtungszeit und Gain so einstellen, das Sterne zu sehen sind).

Achtung: Nur wenn wir den Schiebeschalter “Save” auf “On” stellen, wird das Foto auch auf dem Computer gespeichert.

Abbildung 5: N.I.N.A. Imaging (Google Archiv: NINA-Workflow-06.jpg)

NINA-Workflow-06.jpg

N.I.N.A. Workflow: Imaging

Schritt 6.3: Plate Solving

In diesem Schritt wollen wir nun die tatsächlichen Koordinaten des Bildmittelpunkts ermitteln: Mit diesem Foto auf “Platesolving” gehen.
Als Ergebnis des Platesolving wurden die Koordinaten des Bildmittelpunkts ermittelt zu: RA 21 28 32 Decl +68 08 34 – was ein ganzes Stück entfernt ist (Error 5°) von dem angepeilten Ziel Alpha Cephei. Das macht aber nichts, das Telekop zeigt eben dorthin und wir haben einen ersten korrekten Alignment Point (weil wir Sync auf “On” gesetzt hatten).

Achtung: Bei N.I.N.A. gibt es die Besonderheit, dass die Funktion “Platesolve” selbständing ersteinmal ein Foto schiesst, Also Belichtungszeit und Gain dafür nochmals eingeben….

Abbildung 6: N.I.N.A Reiter Imaging, Funktion Platesolving (Google Archiv: NINA-Platesolving-02.jpg)

NINA-Platesolve-02.jpg

Schritt 6.4: Sync

In diesem Schritt soll N.I.N.A. ein sog. “Sync” machen. Das macht N.I.N.A. ganz von alleine im Anschluss an das erfolgreiche Platesolving, denn wir hatten ja den Schiebeschater “Sync” auf “On” gestellt, damit werden die Koordinaten des durch Platesolving gefundenen Bildmittelpunkts als Sync-Point in EQMOD übernommen (im Beispiel: RA 21 28 32 Decl +68 08 34).

Schritt 6.5: Kontrolle des Sync Points

In diesem Schritt wollen wir kontrollieren, ob der Sync Point von N.I.N.A. auch in der Teleskopsteuerung EQMOD angekommen ist.

Abbildung 7: EQMOD Liste der Alignment Points  (Google Archiv: NINA_EQMOD_SyncPoints.jpg)

NINA EQMOD SyncPoint.jpg

Schritt 7: Setzen eines zweiten Alignment Points

Koordinaten von Beta Cas aus Cartes du Ciel: 00h 09m 12s, +59° 08′ 55″

Abbildung 8: NINA Framing Assistent: Target Coordinates (Google Archiv: NINA-Workflow-36.jpg)

NINA-Workflow-36.jpg

Nach Slew und Foto nun das Platesloving. Es ergibt: 00h 22m 08s, 59° 49′ 16′ (Error 1° 46′)

Abbildung 11: N.I.N.A. PLatesolving und SYNC (Google Archiv: NINA-Workflow-38.jpg)

NINA-Workflow-38.jpg

Abbildung 10: EQMOD Kontrolle der Alignment Points (Google Archiv: NINA-Workflow-39.jpg)

NINA-Workflow-39.jpg

Schritt 8: Setzen des dritten Alignment Points

Als dritten Alignment Point nehmen wir jetzt das “echte” Zielobjekt NGC281

Nach Slew und Foto nun das Platesloving. Es ergibt: 00h 07m 26s, 59° 07′ 32′ (Error 00° 13′)

Abbildung 11: NINA: After Slew now a new Platesolving (Google Archiv: NINA-Workflow-42.jpg)

NINA-Workflow-42.jpg

Schritt 9: Die Fotosequenz erstellen

Positionieren auf das Zielobjekt

In diesem Schritt geht es auf das “echte” Zielobjekt NGC281

Da ich von meiner Terrasse aus nur eine sehr begrenzte freie Sicht auf den Himmel habe, plane ich jetzt Beta Cassiopeia und NGC281 als Ziele zu nehmen.

  • In Stellarium das “echte” Beobachtungsobjekt auswählen (jetzt also: NGC281).
  • In N.I.N.A. Reiter “Framing” und Coordinates aus Planetariumsprogramm übernehmen.
  • Dort jetzt den Bildschimauschnitt schön einstellen (= Frame) und die Schaltfläche “Recenter Image” drücken.
  • Dann Schaltfläche “Replace as Sequence” klicken. Dadurch öffnet sich der Reiter “Sequence” und wir stellen dort ein, wieviele Aufnahmen wir machen wollen (Total #) und welche Belichtungszeit (Time) das Einzelfofo haben soll. Wir können auch das “Gain” und das “Dithering” einstellen.
    Bevor wir die Sequence starten sollten wir Überlegen, ob wir Autoguiding brauchen.

Framing auf NGC281 (Koordinaten 00h 52m 25s, +56° 33′ 53″)

Abbildung 12: NINA Framing an NGC281 (Google Archiv: NINA-Workflow-44.jpg)

NINA-Workflow-Workflow-44.jpg

===========================================================

Slew und Platesolving ergibt die Koordinaten 00h 52m 35s, 56° 34′ 19″ (Error 01′ 21″)

Abbildung 13: NINA Workflow: Final Platesolving (Google Archiv: NINA-Workflow-45.jpg)

NINA-Workflow-45.jpg

Nun gehe ich zurück zum “Framing” und klicke da auf die Schaltfläche “Replace as Sequence”

Abbildung 14: N.I.N.A. Sequence (Google Archiv: NINA-Workflow-46.jpg)

NINA-Workflow-46.jpg

In der Sequenz trage ich zusätzlich ein

  • Total # = 20
  • Time = 60

Entweder hatte ich schon vorher das Teleskop auf meine Zielposition gefahren oder ich schalte jetzt in der Sequenz “Slew to target” ein.

Ggf. kann ich an dieser Stelle auch aufhören und meine soweit eingerichtete Sequenz für späteren Gebrauch abspeichern.

Schritt 10: Optional: Autoguiding aktivieren

Bevor ich die Sequenz starte muss ggf. noch das Autoguiding gestartet werden.

Im nächsen Schritt aktiviere ich mein Autoguiding (optional)

  • Mit N.I.N.A. habe ich schon auf mein Zielobjekt geschwenkt (die Position wird zum Fotografieren also nicht mehr verändert)
  • Ich starte dann die Software PHD2 und verbinde die GuideCam und die Montierung
    • dort gehe ich  auf das “Loop”-Symbol und wenn ein paar Sterne zu sehen sind, lasse PHD2 automatisch einen Leitstern auswählen
    • dann auf das “Guide”-Symbol mit Shift-Klick zum Kalibrieren.
    • nach erfolgreicher Kalibrierung das Guiding in paar Minuten laufen lassen.
  • Dann zurück nach N.I.N.A.

Schritt 11: Foto-Sequenz starten (Light Frames aufnehmen)

In diesem Schritt können wir nun endlich die Foto-Sequenz starten

  • Im N.I.N.A. Reiter “Sequence” sehen wir unsere geplante Foto-Sequenz.
  • Wir sollten kontrollieren, ob jetzt wirklich bei der Montierung in EQMOD “Tracking Siderial”  aktuell ist

Schritt 12: Flat Frames aufnehmen

Dazu habe ich einen separaten Blog-Artikel geschrieben.

Schritt 13:  Abschalten

Im letzten Schritt schalten wir wieder ab:

  • Kamera langsam aufwärmen
  • Teleskop auf Park-Position
  • N.I.N.A. abschalten
  • Computer herunterfahren
  • Strom abschalten
  • Teleskop wetterfest bedecken

 

 

Astrofotografie: Überblick

Gehört zu: Astronomie
Siehe auch: Aufnahmeverfahren – Image Capturing

Astrofotografie

Bei den Astros kann man zwei “Lager” unterscheiden:

  • visuelle
  • fotografische

Ich persönlich möchte meine astronomischen Beobachtungen unbedingt festhalten, sprich als Foto dokumentieren.

Bei der Astrofotografie benötigt man deutlich mehr Technik als für die “nur” visuelle Astronomie.
Technik bedeutet hier: Gerätschaften (meine Geräteliste), Computer-Software (meine Softwareliste) und die zweckmäßige Vorgehensweise (Image Capturing).

Welche Websites können helfen?

Im Internet gibt es viele Quellen, die bei der Astrofotografie helfen können z.B.

Welche Objekte will ich fotografieren?

Da gibt es ganz unterschiedliche Motive/Beobachtungsobjekte:

  • Weitwinkel: Sternbilder, Milchstraße, Strichspuren, Zodikallicht, Erdschattenbogen, Halo-Erscheinungen, Leuchtende Nachtwolken,…
  • Objekte im Sonnensystem, wie Planeten/Kleinplaneten/Mond/Sonne
  • Deep Sky Objekte (“DSO”) Galaxien
  • Deep Sky Objekte: Sternhaufen, Asterismen
  • Deep Sky Objekte: Planetarische Nebel
  • Deep Sky Objekte: Emmissionsnebel, Absoptionsnebel

Wie ziele ich auf mein Beobachtungsobjekt?

Um das Beobachtungsobjekt in das Gesichtsfeld zu bekommen (“Framing”) gibt es verschiedene Methoden:

Wie hell ist das Beobachtungsobjekt?

Wenn es hell ist, kann man sehr kurz belichen

Wenn es dunkel ist, muss man sehr lange belichten

Wenn man lange belichtet, muss man evtl. nachführen, um die Erdrotation zu kompensieren.

Wie groß ist das Beobachtungsobjekt?

Das Beobachtungsobjekt muss in das Gesichtsfeld (Field of View = FoV) passen.

Bei der Astrofotografie macht es keinen Sinn von “Vergrößerung” zu sprechen. Das Bild entsteht auf dem elektronischen Sensor und kann dann in verschiedener Größe angezeigt werden. Wir haben ja kein Okular, mit dem wir das Bild betrachten (visuelle Astronomie). Bei Betrachtung durch ein Okular kann man von einer Vergrößerung sprechen und diese berechnen als f1/f2.

Womit kann ich fotografieren?

Zum Fotografieren benötigt man eine bildgebende Optik (Fotoobjektiv oder Teleskop) und einen bildaufnehmenden Sensor (DSLR oder Astro-Kamera CCD/CMOS).

Als Optiken für die Astrofotografie kommen infrage:

Bei Fotografieren entseht das Bild auf einem sog. Sensor:

  • Fotoapparate (DSLR)
  • Astro-Kameras (CCD/CMOS)

Linse und Sensor müssen zusammenpassen, um die beste Auflösung zu erzielen.

Aufnahmeverfahren (Image Capturing)

Wie gehe ich nun konkret vor beim Fotografieren von astronomischen Objekten? Das habe ich in diesem gesonderten Artikel beschrieben.

Astrofotografie mit der Software FireCapture

Gehört zu: Astro-Software
Siehe auch: SharpCap, APT, N.I.N.A.

Astrofotografie mit FireCapture

Um meine USB-Kamera Altair GPCAM zu betreiben, benötige ich eine Software auf meinem Windows-Computer, die die Funktionen der USB-Kamera bedient:

  • Betrachtung des Bildes (“Life View”)
  • Einstellen von Belichtungszeit, ISO/Gain etc.
  • Aufnehmen von Einzelfotos (“image acquisition”, “capture”, “still images”)
  • Polar Alignment – Einnorden / Einsüden
  • Programmieren von Foto-Serien (“sequencing”)
  • Aufnehmen von Videos
  • Diverses (Fadenkreuz, Stacking, Bahtinov,…)

Zu diesem Zweck gibt es verschiedene Windows-Software:

  • Altair Capture – mitgeliefert vom Hersteller der Kamera
  • SharpCap – allgemein bekannte Software, die auch vom Hersteller für meine Altair GPCAM empfohlen wird
  • FireCapture –  unterstützt ab der Version 2.5 auch meine Altair GPCAM
  • APT Astronomy Photography Tool – das wird von einer großen Community benutzt — unterstützt neben Canon alle Kameras, die ASCOM können
  • N.I.N.A. – eine neuere Software, die viel kann und auch kostenfrei ist

Download und Installation von FireCapture

FireCapture ist eine kostenlose Software und kann bezogen werden von: http://www.sharpcap.co.uk/sharpcap/downloads

FireCapture ist eine Java-Anwendung.  Eine Java Virtual machine (JVM) ist in FireCapture gebündelt und mus nicht separat installiert werden.

Ab der Version 2.5 wird ….. unterstützt.

Benutzung von FireCapture

FireCapture wird vorrangig für die Planetenfotografie verwendet.

FireCapture soll auch unter Linux laufen.

Capture Folder

xyz

 

Astrofotografie mit leichtem Gepäck

Gehört zu: Astrofotografie
Siehe auch: meine Geräteliste, Nachführung, NanoTracker, Polar Alignment
Benutzt: Fotos aus Google Archiv

Stand: 25.4.2023

Astrofoto-Ausrüstung für die Flugreise

Als Kamera verwende ich meine gute alte Sony NEX-5R, wo ich über das E-Bajonett diverse gute alte manuelle Objektive (“Altglas”) anschließen kann.

Als Neuerwerbung habe ich in 2017 aus dem Nachlass eines Astro-Kollegen günstig eine astro-modifizierte Canon EOS 600D erstanden. Diese hat den großen Vorteil, dass sie als “Astro Mainstream” anzusehen ist. Sie kann über ein USB-Kabel mit einem Windows-Computer verbunden werden und von so mächtiger und kostenloser Software wie APT gesteuert werden.

Nachführung

Für die Nachführung habe ich mir 2012 einen NanoTracker angeschafft, um auch bei weiten Flugreisen (Südafrika) eine mobile Nachführungsmöglichkeit für meine Astro-Aufnahmen mit dem Fotoapparat (Sony NEX-5R) bzw. meiner neu erstanderen DSLR Canon EOS 600D zu haben.

Alternativen zur Nachführung mit NanoTracker wären:

  • Vixen Polarie  (teuerer)
  • Skywatcher Star Adventurer  (schwerer)
  • Skywatcher Star Adventurer Mini (warum nicht? neu und klein)
  • iOptron Skytracker (alt, schwer)

Abbildung 1: Startracker “nano tracker” (Google Archiv: DK_20170720_NanoTracker.jpg)

NanoTracker

NanoTracker

Stromversorgung für den NanoTracker

Den elektrischen Strom bekommt der NanoTracker über ein separates Kästchen mit 3 AA-Akkus.

Die Teile und das Gewicht

Als Flugreisegepäck ist das Gewicht besonders wichtig:

  • Der NanoTracker: Gewicht 384 g, Traglast 2 kg, PreisEuro 289.-
  • Die Akku-Einheit (mit Akkus): 163 g
  • Ein Kugelkopf Sirui E10:  263 g   (Euro 94,-)
  • Fotostativ Sirui ET-1204:  Gewicht 1048g, Traglast 8 kg, Preis 299,- inkl. Kugelkopf
  • Dreiwege-Neiger Rollei MH-4: Gewicht 252 g, Traglast 2,5kg,  Preis Euro 20,–  (alternativ: Star Adventurer Wedge 500g, Euro 71,– )
  • Kamera Sony NEX 5R mit Olympus 135mm: 676 g
  • Kamera Canon EOS 600D mit Olympus 135 mm: 926 g

Aufstellung – Stativ

Die NanoTracker soll auf ein stabiles Fotostativ (Dreibein, Tripod) mit einem Zweiwege-Neiger montiert werden.

Man sagt, dass der Stativkopf exakt waagerecht ausgerichtet sein soll. Das kann ich mit einer kleinen Wasserwaage/Libelle prüfen und ggf. die Stativbeine leicht ‘rauf bzw. ‘runter schieben.

Das Sirui ET-1204 (ET = Easy Traveller) ist aus leichtem und stabilen Carbon (1048g) und lässt sich mit den vierteilig ausziehbaren Beinen auf eine Packlänge von 42 cm  zusammenschieben.

Wenn ich die Mittelsäule unten am Haken noch mit ordentlich Gewicht beschwere, wird das leichte Reisestativ noch standfester.

Dann kann der Neiger (bzw. die Wedge) und der NanoTracker auf den Stativkopf gesetzt werden und bereits am Tage eine grobe Ausrichtung nach Norden und auf die Polhöhe (geografische Breite) vorgenommen werden.

Abbildung 2: Fotostativ Sirui ET-1204 (Google Archiv: DK_20170720_Stativ_1818.jpg)

Stativ Sirui ET

Stativ Sirui ET 1204 – Carbon, vier Segmente, Zusatzgewicht

Zweiwege-Neiger

Es ist günstig, auf das Fotostativ einen Neigekopf zu montieren, damit kann eine Pol-Ausrichtung einfacher vorgeommen werden: Eine Achse = Polhöhe, zweite Achse = Azimuth (Himmelsrichtung).

Abbildung 3: Neiger Rollei MH-4 auf Fotostativ (Google Archiv: DK_20170711_Neiger-02.jpg)

Neiger MH-4

Neiger MH-4 auf Stativ

Wenn man eine besonders genaue Pol-Ausrichtung vornehmen will (z.B. mit dem QHY PoleMaster s.u.), ist es noch praktischer, statt eines schlichten Neigekopfs (s.o.) eine sog “equatorial wedge” (z.B. SkyWatcher Star Adventurer Wedge)  zu verwenden. Damit lassen sich bequemer und feinfühliger kleine Korrekturen der Polhöhe und des Azimuts erreichen.

Einnorden – Polar Alignment

Einnorden mit iPhone-App

Auch den NanoTracker muss man Einnorden bzw. Einsüden. Der NanoTracker hat kein Polsucher-Fernrohr, sondern hat nur ein kleines Peil-Loch, mit dem man eine grobe polare Ausrichtung hinbekäme.

Ich nehme die polare Ausrichtung immer schon am Tage mit einer iPhone-App vor. Dazu benutze ich eine Virtual Reality Planetariums-Software, die auch das äquatoriale Koordinatennetz anzeigt und in der Mitte ein Fadenkreuz oder Telrad zeigt.

Da NanoTracker und iPhone große plane Flächen haben, kann ich sie so gut bündig ausgerichten und sicher mit einem starken Gummiband verbinden.

Abbildung 4: Smartphone mit Gummiband auf NanoTracker (Google Archiv: NanoTracker_0278.jpg)

NanoTracker Polar Alignment

NanoTracker Polar Alignment

Abbildung 5: SmartPhone mit Gummiband auf NanoTracker (Google Archiv: NanoTracker_0277.jpg)

Smartphone auf NanoTracker

Smartphone für Polar Alignment auf NanoTracker

Einnorden mit QHY PoleMaster

Wenn es dunkel ist und die ersten Sterne erscheinen, kann ich eine sehr genaue Ausrichtung mit meinem QHY PoleMaster vornehmen, für den ich einen Adapter auf 3/8-Zoll Fotogewinde erstanden habe.

In dem Gesichtsfeld des PoleMaster von 11° x 8° ist dann Polaris und ein paar dunklere Sterne in der Nähe bereits zu sehen. Es kann also die Pol-Ausrichtung per Software losgehen.

Abbildung 6: Polemaster auf NanoTracker (Google Archiv: DK_20170626_Nanotracker-02.jpg)

PoleMaster auf NanoTracker

QHY PoleMaster auf NanoTracker

Nach der parallaktischen Ausrichtung solle der NanoTracker festgeschraubt werden und dann nicht mehr anstossen werden.

Digital-Kamera auf dem NanoTracker mit Kugelkopf

Nach erfolgter Polausrichtung, die mit der Star Adventurer Wedge noch feinfühliger möglich war, wird nun der QHY PoleMaster abgeschraubt und die Digitalkamera Sony NEX-5R bzw. Canon EOS 600D mit einem Kugelkopf aufgeschraubt.

Jetzt brauche ich nur noch sternklares Wetter, um die Probe am echten Sternhimmel zu machen.

Abbildung 7: Sony NEX-5R auf NanoTracker (Google Archiv: DK_20170809_NanoTracker.jpg)

Sony NEX-5R auf NanoTracker

Sony NEX-5R auf NanoTracker mit Wedge

Ausrichten des Gesichtsfelds auf das Beobachtungsobjekt (sog. “Framing”)

Der auf den NanoTracker aufgeschraubte Kugelkopf lässt eine ganz flexible Ausrichtung der Kamera auf ein gewünschtes Beobachtungsobjekt zu. Allerdings bedeutet diese Flexibilität, dass beide Achsen (Rektaszension und Deklination) gemeinsam auf das Ziel hinbewegt werden. Einfacherer wäre eine Ausrichtung des Gesichtsfeldes (Framing) mit einem kleinen Zwei-Wege-Neiger, um so die Bewegung in beiden Achsen getrennt vornehmen zu können. Allerdings müsse so ein Zwei-Wege-Neiger ganz flexibel in alle Richtungen um 360° beweglich sein, ohne dass irgendwelche Teile an den NanoTracker stossen. Ausserdem sollte so ein Teil klein (Hebelwirkung) und leicht (Gesamttraglast) sein.

Hier der Manfrotto 3-Wege-Neiger 460MG:

Abbildung 8: Manfrotto 3-Wege-Neiger 460MG (Google Archiv: DK_20170821_1945.jpg)

Neiger auf NanoTracker

3-Wege-Neiger auf NanoTracker

Digital-Kamera auf dem NanoTracker mit Drei-Wege-Neiger

Nach erfolgter Polausrichtung, wird nun der PoleMaster abgeschraubt und die neue Digitalkamera Canon EOS 600D mit dem Manfrotto Drei-Wege-Neiger aufgeschraubt.

Jetzt brauche ich nur noch sternklares Wetter, um die Probe am echten Sternhimmel zu machen.

Abbildung 9: Canon mit Neiger auf NanoTracker (Google Archiv: DK_20170829_NanoTracker-02.jpg)

Canon EOS 600D auf NanoTracker

Canon EOS 600D auf NanoTracker

Framing mit Hilfe von Plate Solving

Im Gegensatz zu meiner Sony NEX-5R kann die Canon EOS 600D mit sehr vielen Funktionen per Windows-Computer gesteuert werden. Mit Hilfe der Software APT kann ich z.B. Einzelaufnahmen schießen und diese sofort d.h. innerhalb von Sekunden “Plate Solven” d.h. die Rektaszension und Deklination des Bildmittelpunkts feststellen.

Aus den Abweichungen der Koordinaten zum Ziel-Objekt kann ich sofort die nötigen Korrektur- Bewegungen ermitteln und diese manuell und feinfühlig mit dem Drei-Wege-Neiger ausführen. Erneut schiesse ich ein Foto und Plate Solve dieses in APT. Dies wiederhole ich solange bis das Ziel-Objekt schön mittig in Gesichtsfeld der Kamera steht.

Genauigkeit der Nachführung mit NanoTracker

Bisher hatte ich mit meiner Sony NEX-5R maximal 30 Sekunden belichtet und dabei Objektive von 16mm (Zenitar – z.B. Perseiden), 24mm (Vivitar – z.B. Nordlicht) und 50mm (Olympus – z.B. Magellansche Wolke) benutzt. Da war die Nachführgenauigkeit des NanoTracker überhaupt kein Problem.

Aber die Anforderungen an die Genauigkeit sind bei mir durch zwei Entwicklungen gestiegen:

  1. Ich habe ein Objektiv mit wesentlich längerer Brennweite bekommen: Takumar 135mm f/3.5 (neu: Olympus E.Zuiko 135mm f/3.5).
  2. Ich habe auch herausgefunden, wie ich mit meiner Sony NEX-5R länger als 30sec belichten kann. 30sec maximal macht die Sony per Programm mit Smart Remote, Langzeitbelichtung geht dann mit Bulb und einem Infrarot-Fernauslöser
  3. Schließlich bin ich von Sony auf eine Canon Kamera gewechselt, mit der ich per Software praktisch alle Funktionen steueren und mit anderen integrieren kann, so dass in der Tat die Grenzen nur noch durch  die Genauigkeit der Nachführung gesetzt werden.

Probefotos am 21.7.2017

mit meiner Sony NEX-5R und dem 135mm Objektiv bei 120sec Belichtung: Das Gesichtsfeld des 135mm-Objektivs mit dem APS-C-Sensor ist ca. 9,9 Grad mal 6,6 Grad. Die Kamera ist ungefähr horizontal ausgerichtet und zeigt auf das Sternbild Schwan. Der helle Stern links ist Alpha Cyg (Deneb), rechts Gamma Cyg.

Mit Nachführung durch NanoTracker sind die Sterne praktisch punktförmig (Deklination 40-45 Grad). Beim Hineinzoomen wird dann die Qualität der Optik sichtbar (Koma etc.).
Ohne Nachführung bekomme ich die Sterne als richtige Striche.

Abbildung 10: Bild mit Nachführung durch NanoTracker (120 sec, 135mm)    (Google Archiv: DK_20170721_01769.jpg)

Mit Nachführung durch Nanotracker

120 sec, f=135mm mit Nachführung durch Nanotracker

Abbildung 11: Das gleiche Bild (120sec, 135mm) ohne Nachführung   (Google Archiv: DK_20170721_01770.jpg)

Ohne Nachführung

120 sec, f=135mm ohne Nachführung

Astrofotografie – Überblick und Begriffe

Gehört zu: Astronomie

Mein Einstieg in die Astrofotografie

Als Amateurastronom möchte ich nicht nur visuell beobachten, sondern meine Beobachtungen auch gerne fotografisch festhalten.
Besonders interessant finde ich die Tatsache, dass ich auf einem Foto mehr sehen kann als mit bloßem Auge (dunklere Objekte, Farben,…).

Im Einzelnen habe ich für die Astrofotografie folgendes beschrieben:

  • Liste meiner Geräte (Equipment)
    • Montierung (Stativ etc.)
    • Kamera / Sensor
    • Fernauslöser (Remote Control,…)
    • Optik / Objektiv

 


Astrofotografie: Begriffe – Jargon

Wie häufig bei Spezialgebieten werden auch bei den erfahrenen Amatuerastronomen viele schöne Spezalbegriffe und Abkürzungen verwendet, die ein Einsteiger vielleicht nicht immmer gleich richtig versteht.

  • Lucky Imaging: Um der Luftunruhe ein Schnäppchen zu schlagen, macht man viele sehr kurz belichtete Aufnahmen (etwa 1/100 sec) und verwendet dann die wenigen Aufnahmen mit gutem “Seeing” zum Stacken…
  • Pretty Pictures: Leicht abwerted für “der macht keine wissenschftlichen Fotos”, sondern “nur” etwas, was schön aussieht
  • Tracking: Nachführung (heute meist motorisch in beiden Achsen)
  • Guiding bzw. Autoguiding (verbessertes Tracking)
  • Pointing-Modell  (Goto)
  • DMK: Bestimmte klassische Astro-Kameras
  • ASI: USB-Kameras von der Firma ZW Optical (ZWO)
  • LX200: eine klasssiche Montierung
  • Seeing: Luftunruhe (früher Szintillation genannt)
  • fokal / afokal
  • xyz

———————

Kamera bzw. Sensoren für Astrofotografie

Astrofotografie kann man heutzutage ganz einfach mit “normalen” digitalen Kameras (z.B. Canon, Nikon, Sony, Panasonic u.a.) machen.

Eine sehr niedrige Einstiegschwelle bietet die sog. afokale Fotografie, wo eine Kamera mit ihrem Objektiv direkt hinter das Okular eines Fernrohrs gehalten wird. Klassischerweise verwenden die “Profis” aber die sog. fokale Fotografie, wo der Sensor einer Kamera in die (primäre) Fokalebene eines Fernrohrs plaziert wird.

Weiterhin werden seit einiger Zeit auch kleine Video-Kameras eingesetzt, die aber keinen Bildspeicher haben, sondern ihr Bild immer an einen PC liefern müssen.
Meine “Sensoren“) sind:

Optiken

Als Optiken für die Sony habe ich verschiedene Möglichkeiten (Festbrennweiten mit Adapter auf E-Mount) –> DLSR-Objektive

  • Olympus G.ZUIKO AUTO-S  f=50mm, 1:1,4  (leichtes Tele z.B. für die Große Magellansche Wolke)
  • Vivitar AUTO WIDE-ANGLE f=24mm, 1:2 (Weitwinkel, z.B. für Polarlichter, die Milchstraße etc.)
  • MC Zenitar-M f=16mm, 1:2,8 (Überweitwinkel “FISH-EYE” z.B. für die Perseiden)
  • Asahi Optics Takumar f=135, 1:3,5
  • LidlScope 70/700 “SkyLux”  (z.B. für Sonnenbeobachtung)
  • Russentonne Rubinar f=500, 1:5.6   —> schlechte Qualität –> verkauft
  • und seit dem 1.11.2016 auch noch die sog. “Wundertüte” Beroflex, aber mit f=300mm, 1:4,0

Als Optiken für die Altair GP-CAM habe ich erst einmal:

  • Die mitgelieferte sog. “Meteorlinse”: This is a CS lens f=2.1mm    f/1.6   FOV 150 Grad
  • Eine zusätzlich als Sucher gekaufte f=12mm  f/1.2  FOV 17 x 22 Grad

Fernauslöser – Remote Control – für die Sony NEX-5R

In der Astrofotografie ist es erforderlich die Kamera erschütterungsfrei auszulösen.Das kann mit Hilfe spezieller Gerate (Fernauslöser) oder auch per Software von einem Computer erfolgen.

Außerdem kann es sinnvoll sein auch weitere Funktionen der Kamera per Software “Remote Control” zusteuern.

Fokussierung

Wir müssen das Teleskop bzw. das Foto-Objektiv so einstellen, das der Fokus genau in der Bildebene liegt und die astronomischen Beobachtungsobjekte “scharf” sind.

Astrofotografie für Einsteiger: Wie fokussiere ich mein Bild?

Montierungen – Stative – Nachführung

Zur Nachführung bei der Astrofotografie gibt es viele Möglichkeiten

Auffinden von Beobachtungsobjekten – Sucher

Oft ist es garnicht so einfach das gewünsche Beobachtungsobjekt im Gesichtsfeld von Kamera oder Teleskop einzustellen.

Beobachtungsorte – Lichtverschmutzung

Beobachtungsplanung

Welche Beobachtungsobjekte mit welchem Gerät zu welcher Zeit an welchem Ort?

Astrofotografie für Einsteiger: Welche Objekte kann ich fotografieren?

Bildbearbeitung

  • Stacken
  • Stretchen
  • Farbstich
  • Vignettierung
  • Farbrauschen
  • Gradienten
  • xyz

Meine Artikel zum Thema Astronomie

xxx