Astronomie: Teleskop Orion ED 80/600

Gehört zu: Meine Geräteliste und Teleskope
Siehe auch: Barlow-Linse, Flattener, OAZ
Benutzt: Fotos von Google Drive

Stand: 13.12.2022

Mein Volksapo Orion ED 80/600

Als Einsteiger-Teleskop, das gut auf meine Montierung HEQ5 Pro passt, habe ich mir in 2017 ein gebrauchtes Orion ED 80/600 zugelegt.

Das theoretische Auflösungsvermögen ist bei 80 mm Öffnung: 1,75″

Etwas teurerer aber auch sehr interessant fand ich die baugleichen Modelle:

Contine reading

Computer: Videos und Fernsehen

Gehört zu: Videos und Fernsehen

Videos und Fernsehen

Fernsehen konventionell

Wir haben auch einen “normalen” Fernseher: Samsung UE46C6700. Den haben wir uns mal zur Fußballweltmeisterschaft 2010 gegönnt.

Der ist per HDMI mit dem Media-Receiver MR303 der Telekom (IP-TV) vebunden (welcher per Ethernet mit der Fritzbox verbunden ist).

Der Fernseher ist auch mit dem TV-Kabel-Receiver (TechniSat Digit HD8C) verbunden, sodaß wir eine Zweitlösung für den Fall der Fälle haben.

Ausserdem ist der Fernseher noch direkt per Ethernet mit der Fritzbox verbunden.

Deshalb sollte der Samsung-Fernseher auch über bestimmte Web-Funktionalitäten verfügen z.B. Smart-TV Apps:

HbbTV unterstützt der Samsung UE46C6700 leider nicht.

Da der Fernseher schon 8 Jahre alt ist, ist evtl. ein Firmware-Update sinnvoll.

Fernsehen mit Amazon Fire TV Stick

Da mein Fernseher Samsung UE46C6700 kein Smart TV kann, habe ich mir einen Amazon Fire TV Stick zugelegt.

Der Stick ist ein kleiner Computer ohne Display. Statt des Displays hat der Stick einen HDMI-Stecker, der in den HDMI-Eingang eines “Fernsehers” (oder auch nur LED-Display mit HDMI-Eingang) gesteckt wird. Über WLAN kann der Stick dann mit dem Internet verbunden werden.

  • Prozessor: Quadcore-Prozessor MediaTek  MT8127D @ 1,3 GHz
  • RAM: 1 GB
  • Speicher 8 GB
  • Display: HDMI-Stecker (“Full HD”)  CEC-Unterstützung
  • Stromversorgung: über Micro-USB-Buchse, 1 A mit  5 V
  • WiFi 2,4 und 5 GHz WLAN  802.11 b/g/n/ac
  • Fernbedienung (über Bluetooth 4.1)
  • Betriebssystem: Amazon Fire OS (basiert auf Android)

Apps für den Fire TV Stick

Es gibt unzählige Apps wie Netflix oder die Mediatheken aller großen deutschen TV-Sender im integrierten Store.
Zusätzliche Apps soll man aus dem vom Hersteller Amazon bereitgestellen App-Store “Amazon AppStore” herunterladen.

Wenn man besondere Apps aus anderen Quellen auf dem Fire TV Stick installieren will, muss man folgendes bedenken:

  1. Einstellungen auf dem Stick: Einstellungen -> Gerät -> Entwickleroptionen: ADB-Debugging & Apps unbekannter Herkunft
  2. APK-Datei besorgen (auf dem Windows-PC oder dem Android-SmartPhone)
  3. APK-Datei dem Fire-Stick zugreifbar machen  (z.B. ES File Explorer auf dem Stick greift auf Windows-Freigabe zu) (Sideload per adbLink nicht erforderlich)
  4. APK-Datei auf dem Fire-Stick installieren

Darüber hinaus kann sich der versierte Nutzer das Media-Center Kodi installieren (per Sideload oder über die App FireTV Utility), um so auf seine Inhalte im Netzwerk zuzugreifen.

Link: https://www.pcwelt.de/ratgeber/Amazon-Fire-TV-als-offenen-Medien-Player-nutzen-Kodi-im-Verkleidung-9635983.html

Fernsehen mit KODI

KODI ist der neue Name von XBMC . Es gibt KODI für praktisch alle Plattformen: Windows, Android, Fire OS etc.

KODI will ich auf dem FireTV-Stick installieren und schön zum Laufen bringen. Das erfordert einige technische Vorkehrungen, die ich lieber vorweg mit KODI auf Windows locker ausprobiere.

Nach der Installation von KODO gelang es mir nicht, http://repo.buildstuben.de/ als zusätzliche Quelle für Repositories auf KODI einzurichten. Ich konnte aber das eine File, was man wirklich braucht auch so als ZIP-File herunter laden:  Auf http://repo.buildstuben.de gibt es das File repository.buildstube-1.8.1.zip was ich dann auf einen lokalen Ordner  (Fileshare) heruntergeladen habe.

Im KODI gehe ich dann in Einstellungen -> Add-ons und dann in der Reihe oben links auf das Box-Symbol.
Dann auf “Install from zip file” und dann auf “Windows Network (SMB)” wo ich die Arbeitsgruppe und dann die Server angezeigt bekomme. Dort wähle ich den Fileshare aus, auf den ich im vorigen Schritt das ZIP-File geladen hatte. Damit ist das Buildstube-Repository installiert.

Im KODI gehe ich dann auf “Install from Repository” und wähle das gerade installierte “Repo Buildstube” als Quelle aus.
Ich gehe dann auf “”Program add-ons” und selektiere “Buildstube Wizard Deutsch” und klicke dann auf “Install”.
Damit ist der Buildstube-Wizard installiert.

In KODI bin ich schon im Buildstbe-Wizard und wähle nun aus: “17.6 Dimension (v1.0 FireTV Gen2)” und klicke auf “Fresh Instal”.

Nun wird “alles” installiert und wir müssen mehrere Minuten warten, bis die neue Oberfläche für KODI installiert ist.

Fernsehen mit Computer

Astronomie: Okulare

Gehört zu: Teleskope
Teil von: Meine Geräteliste

Okulare für mein Teleskop

Als Astrofotograf habe ich mir schließlich (nachdem die Montierung, das Teleskop und die DSLR da war) doch noch einen kleinen Okularsatz geleistet.

Mein Teleskop Orion ED 80/600 hat einen Okularauszug Crayford 2 Zoll, Dual Speed. Also wäre ein einfacher Okularsatz mit 2-Zoll-Anschluss schön.

Gekauft habe in in 2018 gebrauchte TS Optics Expanse Okulare:

  • Flexibler Anschluss: 1,25″, 2″ und M48x0,75-Außengewinde
  • Brennweiten: 8mm, 13mm, 17mm
  • Augenabstand 20mm (für Brillenträger)
  • Geeignet für Okularprojektion: M43x0,75-Außengewinde
  • Teleskop-Service Artikel

Astronomie: Fokussieren mit dem Motor-Fokus

Gehört zu: TeleskopeMeine Geräteliste
Siehe auch: Fokussieren mit N.I.N.A., PegasusAstro Motor Focusser, USB-Focus_Heavy, ZWO EAF, AstroMechanics, Fokussierung, ASCOM-Treiber, OAZ, Remote Control
Benutzt: Fotos von Google Drive

Stand: 29.04.2023

Patriot Astro:

Das Problem: Optimales Fokussieren ggf. Remote

Besonders bei der Astrofotografie fällt es unangenehm auf, wenn bei einem mühsam erarbeiteteten Foto die Scharfstellung (Fokussierung) nicht hundertprozentig ist.

Es gibt ja mehrere Methoden, wie man den genauen Fokuspunkt findet; z.B. Live View mit Bildschirmlupe, Hartmann-Maske, Bahtinov-Maske. Es bleibt aber das Problem, dass jede Berührung des Einstellrades am Okularauszug (OAZ) das Teleskop ein wenig (oder mehr) zum Wackeln bringt. Um dieses Wackeln zu vermeiden, gibt es Motoren, die man am Stellrad des OAZ befestigt…

Einfache Lösung: Live View

Mit der Canon EOS 600DA: Einen hellen Stern ins Gesichtsfeld einstellen – zum Finden eines solchen Sterns muss der Sucher vorher gut justiert werden. Fokussieren im Live View z.B. mit APT. Dabei sollte man das Live-View-Bild elektronisch 10-fach vergrößern.

Mit der ZWO ASI294MC Pro bekomme das Bild ja ausschließlich per Software auf meinem Computer. Bei der Software APT bekomme ich kein richtiges “Live View”. Aber die Software SharpCap liefert ein akzeptables “Life View”, was man auch vergrößern kann.

Warum Motor-Fokus?

Erstens ist es eine komfortable Lösung zum feinfühligen Fokusieren (s.u.).

Zweitens brauche ich einen ASCOM-fähigen Motor-Fokussierer wenn ich mein Teleskop Remote steuern will.

Komfortable Lösung: Motor-Fokus

Eine Motor-Fokus-Lösung besteht aus einem Motor (Schrittmotor oder Gleichstrommotor), dessen Drehachse irgendwie an die Drehachse des OAZ (Okularauszug) gekoppelt wird, sowie einer Steuerbox (Controller) die manuelles Betätigen des Motors erlaubt bzw. auch mit dem Computer verbunden werden kann und dann per ASCOM gesteuert werden kann. Contine reading

Astronomie: Entfernungsbestimmung

Gehört zu: Astronomie
Siehe auch: Sonnensystem, Kosmologie, Hertzsprung-Russel-Diagramm, Kopernikus, Kepler, Parallaxe, Hubble-Konstante, Delta Cepheiden
Benutzt: Fotos aus Wikipedia, Latex- Plugin für WordPress

Status: 08.09.2022

Astronomie: Entfernungsbestimmung

Links

https://libernaturaererum.files.wordpress.com/2012/10/vermessung.pdf

Überblick

  • Längeneinheiten in der Astronomie
  • Vom Erdumfang zum Urmeter
  • Erathostenes Erdumfang
  • Aristarch von Samos: Erde – Mond – Sonne
  • Parallaxe des Mondes
  • Parallaxe der Sonne
  • Bessel: Parallaxe von Fixsternen
  • Standardkerzen: Delta Cepheiden
  • Standardkerzen: Supernovae vom Typ Ia
  • Hubble: Rotverschiebung

Längeneinheiten in der Astronomie

Im heute geltenden SI-System ist die Einheit der Länge das Meter.

Vom Erdumfang zum Urmeter

1791 beschloss die verfassungsgebende  Versammlung in Paris, die verschiedenen auf der Welt verwendeten Längenmaße zu vereinheitlichen. Das neue Längenmaß sollte später das “Meter” werden. Es wurde als zehn-millionster Teil des Viertels desjenigen Erdumfangs festgelegt, der Paris und den Nordpol berührt, definiert. 1793 wurde das Meter in Frankreich gesetzlich eingeführt.

Dazu musste man also die Länge des Erdumfangs bestimmen. Siehe dazu weiter unten und “Die Jagd nach dem Meter: Das Urmeter”. Nach heutigen Messungen beträgt der Umfang der Erde ca. 40000 km.

1960 wurde dieses “Urmeter” durch eine neue Definition im SI-System abgelöst.

Wegen der großen Entfernungen im Weltall benutzen die Astronomen gern andere Längeneinheiten.

Im Sonnensystem: Die Astronomische Einheit

Im Sonnensystem misst man die Entfernungen gerne in sog. Astronomischen Einheiten (A.E.). , was die mittlere Entfernung Erde-Sonne bedeuten soll.

Dazu muss man die Entfernung Erde-Sonne bestimmen. Weiter unten wird beschrieben, wie diese Entfernung durch Messung der Parallaxe bestimmt werden kann. Kennt man die Entfernung Erde-Sonne, kann man die Entfernung der anderen Planeten (Merkur, Venus, Mars, Juptier,…) mittels der Keplerschen Gesetze berechnen.

Die Astronomische Einheit wurde 2012 durch die IAU (Internationale Astronomische Union) als exakt 1 A.E.  = 149 597 870 700 m festgelegt. Dadurch ist gleichzeitig auch das Parsec (s.u.) festgelegt.

In der Milchstraße: Lichtjahre

Ein Lichtjahr ist die Entfernung, die das Licht (im Vakuum) in einem Jahr zurücklegt.

Die Lichtgeschwindigkeit ist im SI-System festgelegt als: 299.792.458 m/s

Tabelle 1: Was ist ein Lichtjahr

Größe  Wert Einheit  Formel
Lichtgeschwindigkeit  2,99792458 108  m/s
Julianisches Jahr  365,25  Tage
Julianisches Jahr  3,1558 107  Sekunden  Tage*60*60*24
Lichtjahr  9,4607 1015  m  Geschwindigkeit * Zeit
Lichtjahr   1  ly

Damit ergibt sich:

\( 1 \space Lichtjahr = Lichtgeschwindigkeit \cdot Länge eines Jahres = 2,99792458 \cdot 10^8 \cdot 3,1558 \cdot 10^7 m = 9,46 \cdot 10^{15} \space m \)

Das Lichtjahr wird gerne in populärwissenschaftlichem Zusammenhang benutzt.

Beispiel: Milchstraße

Der Durchmesser unserer Milchstrasse beträgt 100.000 Lichtjahre…

Beispiel: Proxima Centauri

Die Entfernung zu unserem nächstgelegenen Fixstern “Proxima Centauri” beträgt: 4,24 ly

Mit einem modernen Verkehrsflugzeug (1000 km/h) würde eine Reise dorthin 4,6 Mio Jahre dauern.

Längeneinheit: Angström

Bei ganz kleinen Längen (Mikroskop, Lichtwellenlängen etc.) verwendet 1 Angström = 0,1 Nano Meter (nm) = 10-10 m

Entfernungsbestimmung durch Messung der Parallaxe

Grundlage ist die Tatsache, dass alle Himmelskörper an die dahinter liegenden Hintergrundsterne (Himmelssphäre) projiziert erscheinen. Verändert der Beobachtungsort seine Lage, so verschiebt sich der projizierte Ort am Himmel. Diese parallaktische Verschiebung ist umso größer, je größer die Ortsveränderung des Beobachters und je näher das Gestirn ist. Eine Standortänderung eines Beobachters auf der Erde ergibt sich durch deren Rotation (tägliche Parallaxe), die Bewegung der Erde um die Sonne (jährliche Parallaxe) und die Bewegung der Sonne mitsamt den Planeten im Milchstraßensystem (säkulare Parallaxe).

Die Entfernung zu Fixsternen ausserhalb unseres Sonnensytems können wir durch Messung der “jährlichen Parallaxe”, also mit der Basis des Erdbahnradius von 150 Mio km bestimmen.

Entfernungseinheit: 1 Parsec (für Parallaxen Sekunde) – die Entfernung, in der die Parallaxe 1 Bogensekunde beträgt.

Bezeichnen wir die jährliche Parallaxe eines Sterns in Bogensekunden mit p und die Entfernung dieses Sterns in Parsec mit r, so gilt:

\( \Large r = \frac{1}{p} \\ \)

Weil  \( 1 \space Bogensekunde = \frac{2 \pi}{60*60*360} = 4,8481368 \cdot 10^{-6}  \)  im Bogenmass ist, ergibt sich das Parsec zu:

\( \frac{1 A.E.}{4,8481368 \cdot 10^{-6}} = \frac{149 597 870 700 \, m}{4,8481368 \cdot 10^{-6}}  = 3,08567758 \cdot 10^{16} m \)

Maßeinheiten der Länge im Vergleich

Tabelle 2: Maßeinheiten

 Größe  Wert Einheit  Formel
 Astronomische Einheit  149,5978707 Mio km  1 Mio = 106   (festgelegt)
 Astronomische Einheit  1,495978707 1011 m  103 m = 1 km   (festgelegt)
 Astronomische Einheit  1 A.E.
 Winkel  1 Bogensekunde
 Winkel  4,8481368 10-6 Bogenmass   2 pi / (60*60*360)
 Parsec  3,08567758 1013 km   A.E. / Winkel
 Parsec  3,08567758 1016 m   103 m = 1 km
 Parsec 3,26  ly  10 * 3,08567758 / 9,46
 Parsec  1  pc
 Julianisches Jahr  365,25  Tage  festgelegt
 Julianisches Jahr  31 557 600  s  365,25*24*60*60
 Lichtjahr   9,46 1015  m  299792458 m/s * 31557600 s
 Lichtjahr   1  ly

Zum Vergleich: 1 Parsec = 3,2 Lichtjahre.

Sehr gerne wird von Astronomen die daraus abgeleitete Entfernungseinheit “Mega Parsec” verwendet…

Erathostenes: Die Erdumfang

Erste bekannte Bestimmung des Erdumfangs stammt von Erathostenes (276 v.Chr – 194 v.Chr.), einem Freund des Archimedes.

Erathostenes beobachtete, das in Syene (heute Assuan) die Sonne bei ihrem Höchststand ganz senkrecht in einen tiefen Brunnen schien – Assuan liegt auf dem Wendekreis. In Alexandria dagegen erreichte die Sonne bei ihrem Höchststand nicht die genaue senkrechte, sondern warf einen kleinen Schatten. Diesen Einfallswinkel der Sonne bestimmte er zu 1/50 eines Kreises, also ca. 7,2 Grad.

Die Entfernung von Alexandria nach Syene war damas durch Landvermessung bekannt, nämlich 5000 Stadien. Also musste der Erdumfang 50 * 5000 Stadien = 250000 Stadien sein. Die Frage ist nur noch, welche Länge hatte damals ein Stadie…

Abbildung 1: https://www.planet-wissen.de/gesellschaft/ordnungssysteme/kartografie_das_gesicht_der_erde/eratosthenesberechntedenerdumfangsehrgenau100~_v-gseapremiumxl.jpg”

 

Abbildung 2: Encyplopaedia Britannica (Wikipedia: Eratosthenes_measure_of_Earth_circumference.svg)

Erathostenes

Aristarch von Samos: Erde – Mond – Sonne

Aristarch von Samos (310-250 v.Chr.) hat versucht, die Entfernungen von Mond und Sonne in Relation zu setzen. Er nutzte dazu die Stellung dieser Gestirne bei Halbmond aus:

Abbildung 3: Aristarch von Samos

Quelle: https://www.leifiphysik.de/sites/default/files/images/5a15c1d5df48707705166eb72ed95511/505sonnenentfernung_nach_aristarch.gif

Aristarch hat den Winkel von Mitte Halbmond zu Mitte Sonne mit 87  “gemessen” (er sagte: “Ein Dreißigstel des Viertelkreises weniger als ein Viertelkreis”). Daraus ergibt sich das Verhältnis von Mondentfernung zu Sonnenentfernung wie 1 zu 19.

Die heutigen Zahlen sind:

  • Entfernung Erde – Mond:  384400 km
  • Entfernung Erde – Sonne: 150000 Mio km

Also ist das Verhältnis 1 zu 390.

Hier lag Aristarch also ziemlich weit daneben. Die Ungenauigkeit ist vielleicht verständlich, weil erstens der Halbmond nicht ganz so scharf zu bestimmen ist und zweitens so ein großer Winkel am Taghimmel auch nicht so einfach zu messen ist.

Trotz der – aus heutiger Sicht – großen Ungenauigkeit dieses ersten Versuchs von Aristarch, ist das Ergebnis für die damalige Zeit revolutiomär, denn bis dahin ging man davon aus, dass alle Gestirne am Himmel in etwa die gleiche Entfernung von der Erde haben – die sog. “Himmelskugel”.

Bestimmung der Entfernung Erde – Mond durch Parallaxe

Die Entfernung zum Mond kann durch Messung seiner täglichen Parallaxe bestimmt werden.

Dazu nimmt man zwei Beobachter auf möglichst unterschiedlichen geografischen Breiten und möglichst gleicher geografischer Länge…

Ptolemäus (160 – 125 v.Chr.) konnte die tägliche Parallaxe des Mondes anhand der Beobachtung von Mondfinsternissen zu 53,9′ bestimmen, was recht gut zu dem heutigen Wert von 57′ passt.

Mit einem Erdradius von R = 6371 km ergibt sich daraus eine Entfernung von D = R /Bogenmass(57′).

\( D = \Large \frac{6371 km}{57 \cdot \frac{2 \pi}{360 \cdot 60}} = \frac{6371 km}{0,0165806279}\)

Daraus ergibt sich eine Entfernung Erde – Mond von  D = 384244 km

Bestimmung der Entfernung Erde – Mars durch Parallaxe

Den ersten Erfolg mit einer Parallaxemessung hatte J. D. Cassini (1625-1712), der 1672 die Marsparallaxe bestimmte. Von England und von Frankreich aus wurde zu gleicher Zeit der Ort des Planeten Mars unter den Fixsternen gemessen und damit seine Entfernung von der Erde bestimmt. Mit Hilfe des dritten Keplerschen Gesetzes konnten damit auch die Entfernungen der Erde und der übrigen Planeten von der Sonne bestimmt werden. Als Abstand Erde – Sonne (die astronomische Einheit) erhielt man einen Wert von 134 bis 140 Millionen Kilometer. (Heute gültiger Wert: 149,6 Millionen km.)

Bestimmung der Entfernung Erde – Sonne durch Parallaxe

Die Entfernung zur Sonne kann durch Messung ihrer täglichen Parallaxe bestimmt werden.

Die täglichen Parallaxe der Sonne beträgt am Erdäquator 8,8” (z.B. Venusdurchgang).

Venusdurchgänge 1761 und 1769

Mit einem Erdradius von R = 6371 km ergibt sich daraus eine Entfernung von D = R /Bogenmass(8,8″).

\( D = \Large \frac{6371 km}{8,8 \cdot \frac{2 \pi}{360 \cdot 60 \cdot 60}} = \frac{6371 km}{0,0000426636}\)

Daraus ergibt sich eine Entfernung Erde – Sonne von D = 149 331 032 km.

Die Entfernungseinheit: 1 Astronomische Einheit (A.E.) = 150 Mio km – wird benutzt, um Entfernungen innerhalb unseres Sonnensystems anzugeben.

Sterne in unserer Nähe: Parallaxe

Wilhelm Bessel (1784-1846) konnte als erster eine Fixstern-Parallaxe messen und zwar beim Stern 61 Cyg. Bessel hat in den Jahren 1837/38 die jährliche Parallaxe von 61 Cyg zu 0,31″ bestimmt, was eine Entfernung von \( \frac{1}{0,31} = 3,2258 \) Parsec also \( 3,2258 \cdot 3,259 = 10,5 \space Lichtjahre \) ergibt. Neuere Messungen der Parallaxe ergeben: 0,286″.

Damit war auch das Heliozentrische Weltbild endgültig bestätigt. Die Erde bewegt sich um die Sonne. Die Parallaxen sind ein Spiegelbild dieser Erdbewegung.

Durch genaue Messung der Parallaxe kann mann heute die Entfernungen im Sonnensystem und auch zu den Sternen in der näheren Umgebung bis ca. 300 Lichtjahre messen.

Standard-Kerzen: Delta Cepheiden

Henrietta Swan Leavitt (1868-1921) entdeckte 1912  die “Perioden-Leuchtkraft-Beziehung” anhand von Aufnahmen der Kleinen Magellanschen Wolke (SMC).

Cepheiden sind Pulsationsveränderliche – ihre Leuchtkraft bzw. Helligkeit verändert sich streng periodisch.
Die Helligkeit hängt bei Cephiden mit der Länge ihrer Periode zusammen (Perioden-Leuchtkraft-Beziehung)
Cepheiden dienen zur Entfernungsmessung im Kosmos: aus der Beobachtung der Periodendauer kann man direkt auf die absolute Helligkeit schließen. Durch die Messung der scheinbaren Helligkeit dann mit dem Entfernungsmodul die Entfernung berechnen werden.

Die Cepheiden in der SMC haben ja alle die gleiche Entfernung, deshalb gilt die Beziehung zwischen Periode und Helligkeit auch für die absolute Helligkeit, also die Leuchtkraft. Es ist ledigleich eine Kalibrierung erforderlich.
\(m – M = 5 \cdot (\lg{r} – 1) \)

\(r = 10^{1+\frac{m-M}{5}} \)

1913 gelang Ejnar Hertzsprung (1873-1967) dann die Bestimmung der Entfernung einiger Cepheiden der Milchstraße, womit die Entfernung (und damit die absolute Helligkeit) zu allen Cepheiden kalibriert werden konnte.

Die Cepheiden-Methode reicht bis knapp zu den Galaxien des Virgo-Galaxienhaufes (Entfernung bis 23 Mpc) und dient so auch der Entfernungsbestimmung extragalaktischer Systeme.

Standard-Kerzen: Supernovae vom Typ Ia

Eine Supernova ist das kurzzeitige, helle Aufleuchten eines massereichen Sterns am Ende seiner Lebenszeit durch eine Explosion, bei der der ursprüngliche Stern selbst vernichtet wird. Die Leuchtkraft des Sterns nimmt dabei millionen- bis milliardenfach zu, er wird für kurze Zeit so hell wie eine ganze Galaxie.

Man kennt zwei grundsätzliche Mechanismen, nach denen Sterne zur Supernova werden können:

  1. Massereiche Sterne mit einer Anfangsmasse von mehr als etwa acht Sonnenmassen, deren Kern am Ende ihrer Entwicklung und nach Verbrauch ihres nuklearen Brennstoffs kollabiert. Hierbei kann ein kompaktes Objekt, etwa ein Neutronenstern (Pulsar) oder ein Schwarzes Loch, entstehen. Dieser Vorgang wird als Kollaps- bzw. hydrodynamische Supernova bezeichnet.
  2. Sterne mit geringerer Masse, die in ihrem vorläufigen Endstadium als Weißer Zwerg Material (z. B. von einem Begleiter in einem Doppelsternsystem) akkretieren, durch Eigengravitation kollabieren und dabei durch einsetzendes Kohlenstoffbrennen zerrissen werden. Dieses Phänomen wird als thermonukleare Supernova oder Supernova vom Typ Ia bezeichnet.

Supernovae vom Typ Ia sind eine gute Stardardkerze und können so zur Entfernungsbestimmung benutzt werden.

Die absolute Helligkeit (Helligkeit in einer Entfernung von 10 Parsec) einer Supernova vom Typ Ia lässt sich mit Hilfe der sog. “Phillips-Beziehung” rechnerisch ermitteln.

Wenn wir dann die scheinbare Helligkeit messen, ergibt sich daraus die Entfernung r (in Parsec), da ja die scheinbare Helligkeit mit dem Quadrat der Entfernung abnimmt.

\(r = 10^{1+\frac{m-M}{5}}  \)

Auf diese Weise konnte 1923 die Entfernung des Andromedanebels (M31) ermittelt werden.

Hubble-Konstante

Edwin Hubble (1889-1954) beobachtete in den Spektren von Galaxien eine Rotverschiebung.

Er interpretierte diese Rotverschiebung z als Dopplereffekt hervorgerufen durch eine Fluchtgeschwindigkeit v der Galaxien.

\(\displaystyle z = \frac{v}{c} \)

Edwin Hubble konnte 1929 nachweisen, dass diese Rotverschiebung (interpretiert als Fluchtbewegung) mit der Entfernung D der Galaxien zunimmt.  Es waren zwar nur 18 Galaxien, die Hubble untersuchte, doch mit wachsender Zahl hat sich dieses Ergebnis bestätigt. Dieser Zusammenhang ging als Hubble-Effekt in die Kosmologie ein.

\(\displaystyle v = H_0 D \)

Das Hubble-Gesetz zeigt einen linearen Zusammenhang zwischen Fluchtgeschwindigkeit v und der Distanz D mit einer Proportionalitätskonstante, der Hubble-Konstanten H0. Die Linearität hat jedoch nur im nahen Universum ihre Gültigkeit, nämlich bis zu einem maximalen Abstand von gut 400 Mpc oder z  kleiner als 0,1. Für weiter entfernte Objekte bricht die Linearität zusammen.

Bei größeren Geschwindigkeiten (d.h. groß relativ zur Lichtgeschwindigkeit) müssen zusätzlich die relativistischen Effekte berücksichtigt werden. Das erfolgt dann mit HIlfe der sog. “Robertson-Walker-Metrik” und die “Friedmann-Gleichung“.

 

Astrofotografie: Bildbearbeitung

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung mit Photoshop, Bildbearbeitung mit GIMP, Schärfen, Wavlets, Lucky Imaging
Benutzt: Fotos von Google Archiv

Stand: 06.06.2021

Elektronische Bildbearbeitung (EBV) – Image Processing

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

In vielen Fällen sind längere Belichtungszeiten sinnvoll, sodass man sich mit der Kunst der Nachführung auseinandersetzen muss; wobei die Lichtverschmutzung der Belichtungszeit auch Grenzen setzen wird.

Die Ausbeute an Bildern einer Astro-Nacht wird man tags darauf sichten, speichern und bearbeiten (“stacking” und “post processing”) müssen; d.h. wir können dann verschiedene Funktionen und Techniken der elektronischen Bildverarbeitung anwenden.

Generelles

Farbtiefe – 8 Bit – 16 Bit – 32 Bit

Wenn eine Kamera das Signal nur mit 8 Bit digitalisiert, wären das 2 hoch 8 = 256 verschiedene Stufen. Das ist sehr wenig. Bei einer Digitalisierung von 16 Bit hätte man 2 hoch 16 = 65536 verschiedene Stufen. Das wäre sehr viel besser, um die Feinheiten eines Astro-Fotos darzustellen.

Das JPEG-Format hat leider nur 8 Bit; es ist also sehr zu raten, die Kamera so einzustellen dass die Bilder im RAW-Format abgespeichert werden; dann ist die Farbtiefe z.B. bei der Canon EOS 600D schon 14 Bit (also 2 hoch 14 = 16385 Stufen). Das ist in jedem Fall besser als JPEG.

Wenn ich ein Bild per Software bearbeite, sollte in den einzelnen Bearbeitungsschritten keine Information verloren gehen; daher sollten Bildverarbeitungsprogramme mindestens 16 Bit unterstützen – besser noch 32 Bit (4294967296 Stufen). Wenn das Bild am Ende der Bearbeitung in 16 Bit gespeichert wird, ist das schon OK.

Aufnehmen von Planeten vs. Deep Sky Objekten (“DSOs”)

Grundsätzlich wird man unterschiedliche Anforderungen an die Astrofotografie haben bei

  • Mond und Planeten (und Sonne)                                              –> Aufnahme mit Software FireCapture oder SharpCap
  • Nebel und Galaxien  (sog. “Deep Sky Objekte” = “DSO”)     –> Aufnahme mit Software APT oder N.I.N.A.

Bei ersterem (Mond, Planeten, Sonne) geht es eher um Detailverstärkung ( = Schärfen) evtl. auch um Kontrastreduzierung

Bei letzterem (Nebel und Galaxien) wird man nach einer Kontrastvertärkung (durch Stretchen und eine S-Kurve) besonders das Rauschen wieder unterdrücken wollen und vielleicht in Teilbereichen (dazu brauchen wir Masken) feine Strukturen besser herausarbeiten wollen.

Funktionen der Bildbearbeitung für Planeten

Da die Objekte eigentlich hell sind aber klein, wird ein Öffnungsverhältnis von f/20 empfohlen. Die kleinsten Details sollen 2 Pixel groß sein. Wenn die Pixel  ganz klein sind, käme man auch mit f/10 oder so aus.

Bei Planeten und Mond ist ganz besonders die Luftunruhe (das sog. “Seeing“) ein Hauptproblem.

Die gängige Technik gegen schlechtes Seeing ist das sog. “Lucky Imaging“, wobei man ein Video aufnimmt (also viele Einzelbilder mit kurzer Belichtungszeit)  und dann später aus dem Video diejenigen Einzelaufnahmen “Frames” benutzt, die am wenigsten durch schlechtes Seeing (Luftunruhe) beeinträchtigt sind.

Beliebte Software für dieses Lucky Imaging ist AutoStakkert. Auch Registax könnte man dafür nehmen.
Pionier auf diesem Gebiet war Georg Dittie mit seiner bahnbrechenden Software Giotto (Version 1.0 im Jahre 2000).

Nachdem man dem schlechten Seeing soweit ein Schnäppchen geschlagen hat, wird man das Bild dann häufig noch etwas Schärfen wollen.

Funktionen der Bildbearbeitung für DSOs

Ich bin durch Videos von Nico Carver auf Youtube darauf gekommen, mal etwas ausführlicher die Vorgehensweise (Workflow) bei meiner DSO-Astro-Fotografie zu beschreiben.

  • Trevor Jones: Astrophotography Image Processing Tutorial (Photoshop

1. Stacking – Summenbild – Signal Noise Ratio (SNR)

Bei der Astrofotografie von DSOs macht man viele Einzelaufnahmen (“Frames”, “Sub-Exposures”), die man dann “Stacken” muss.
Die Summe der Einzelbelichtungszeiten addiert sich dann zur Gesamtzeit, der sog. Integrationszeit. Effektiv erhält man also eine längere Belichtungszeit. Das ist hilfreich z.B. wenn:

  • Ich nur kurze Zeit nachführen kann, aber eigentlich eine längere Belichtungszeit benötige
  • die Himmelshelligkeit die maximale Belichtungszeit für eine Einzelaufnahme begrenzt

Eine längere Belichtungszeit erhöht vordergründig das Lichtsammelvermögen (durch Addition). Tatsächlich ist es aber das Signal-Rauschverhältnis (Signal Noise Ratio =SNR)  was verbessert wird, weil das Rauschen stochastisch ist und damit “weggemittelt” werden kann.

Zusätzlich zu den eigentlichen Einzelbildern des Beobachtungsobjekts (den sog. Light Frames) nimmt man zur Optimierung und Korrektur noch sog. Kalibrierungsbilder auf: Dark Frames, Flat Frames und Bias Frames, welche alle von der Stacking-Software zu einem Summenbild verarbeitet werden.

Software zum Stacken:

Was sollte man beim Stacken beachten?

  • Wie werden die Aufnahmen (Frames) richtig “gestackt”?
  • Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.
  • Wie das mit der Software SiriL geht, beschreibe ich im separaten Artikel über SiriL
  • Wie das mit Astro Pixel Prozessor geht, beschriebe ich im separaten Artikel über APP
  • Links zum Stacking:  http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

2. Rand abschneiden

Nach dem Stacking hat man oft einen kleinen schwarzen Rand um das Bild, weil vielleicht eine kleine Verschiebung der Bilder mit im Spiel war. Diesen kleine Rand sollten wir abschneiden, da er nicht zum “Nutzsignal” gehört und z.B. das Histogramm auf der linken Seite verfälscht.

Sehr einfach kann man das mit der kostenlosen Software Fitswork machen oder auch mit Photoshop.  (Werkzeug “Crop”)

3. Farbkorrektur / Color Calibration

Wenn das Histogramm unterschiedliche Spitzen für die Farbkanäle (Rot, Grün oder Gelb) anzeigt, kann man diese zur Deckung bringen und so grobe Farbstiche korrigieren.
Das kann man sehr einfach mit der Software Fitswork machen.

Bei der Farbkalibrierung kommt es darauf an, was man als Bezugspunkt nimmt. Als Bezugspunkt nimmt man im einfachsten Fall eine “neutrale” Stelle im Hintergrund. Der Hintergrund selbst könnte aber schon verfälscht sein. Die bessere Farbkalibrierung geht deswegen vom sog. B-V-Index der Sterne aus, das kann entweder ein manuell im Bild identifizierter Stern sein, dessen B-V-Index man kennt oder man identifiziert die Sterne im Bild durch Plate Solving und holt sich dazu die B-V-Indices als Sternkatalogen herunter. Software mit sog. “astrometrischer” Farbkalibrierung; d.h. über Platesolving und B-V-Indices:

4. Lichtverschmutzung entfernen – Background Extraction – Gradienten entfernen

Das gestackte Farb-Bild muss zunächst farblich bearbeitet werden (so etwas wie Farbkalibrierung) und dann können wir den Hintergrund (d.h. die Lichtverschmutzung und ggf. Gradienten) entfernen.
Mit Adobe Photoshop geht das so:

Quelle: Nico Carver: How to capture a Galaxy with your DSLR

Stretchen und RGB-Farben kalibrieren

Um genau zu sehen, was wir da machen, zeigen wir erst einmal das Histogramm mit den RGB-Kanälen an. Voraussetzung für die Farbkalibrierung ist, das alle drei Farbkanäle im Histogramm gut vom linken Rand abgelöst sind (also: lange genug belichten).

Dann stretchen wir die einzelnen RGB-Farbkanäle so, dass sie alle in etwa gleich breit sind und an der gleichen Stelle im Histogramm stehen (abgelöst vom linken Rand). Das machen wir in Adobe Photoshop mit dem Befehl “Bild (Image) -> Korrekturen (Adjustments) -> Tonwertkorrektur (Levels)” aussehen.

Ausschnitt: Croppen und nochmals Farben korrigieren

Im ganzen Bild können jetzt sehr hässliche Gradienten erscheinen. Wenn wir nun den interessanten Bildausschnitt “croppen”, werden die Gradienten weniger werden und auch die Vignettierung wird weniger schlimm. Durch das “croppen” werden sich die RGB-Kanäle im Histogramm wieder verändern.  Wir müssen erneut durch Levels die RGB-Kanäle anpassen (wie oben).

Hintergrund extrahieren

Das so erzielte Bild können wir nun benutzen, um den Hintergrund zu extrahieren und dann abzuziehen. Das geht so:

  • Kopieren des gegenwärtigen Fotos als separates Foto: Select All, Edit Copy, File New, Edit Paste. Somit haben wir ein neues Foto, dass wir auf den Hintergrund reduzieren können.
  • Nun bearbeiten wir dieses neue Foto so, dass die Sterne entfernt werden und nur noch der Hintergrund sichtbar ist. Das geht in Adobe Photoshop mit: Filter -> Noise -> Dust & Scratches. Dabei nehmen wir als Radius 128 und als Threshold 0. In der Mitte des Bildes ist durch das Objekt noch eine leichte Aufhellung vorhanden, die wir aber gleich separat entfernen. Das machen wir mit dem Klone Stamp Tool (Opacity 85%) auf Taste “Alt” drücken, um einen kleinen repräsentativen Bereich aufzunehmen und diesen dann mit einigen Klicks über dem Objekt bringen, um dieses auszublenden.
  • Wenn das noch nicht schön glatt aussieht, können wir noch den Filter “Gaussian Blur” mit einem großen Radius (z.B. 160) darüber laufen lassen. Nun haben wir ein schönes weiches Bild von unserem Hintergrund. Dieses Bild vom Hintergrund müssen wir nun abspeichern: File -> Save As…

Hintergrund abziehen:

Nun zurück zum eigentlichen Foto. Dort wollen wir nun von unserem Foto den Hintergrund (also: Lichtverschmutzung, Gradienten, Vignettierung) abziehen.

  • Zur Sicherheit machen wir im eigentlichen Foto eine Kopie als Layer
  • Dann gehen wir auf “Image -> Apply Image”
    • Dabei müssen wir als “Source” das zweite Bild (das mit dem geglätteten Hintergrund) angeben.
    • Und den “Blending Mode” müssen wir auf “Subtract” umstellen.
    • Dann setzten wir “Scale” auf 1  (Empfehlung von Nico Carver)
    • und “Offset” zwischen 30 und 100 z.B. auf 60   ( Null ergibt ein sehr dunkles Bild, 200 ein sehr helles Bild). IM Zweifelsfall sollte das Bild ruhig etwas heller (grauer) als was als schön empfunden wird eingestellt werden. Es ist ja “nur” ein Zwischenschritt wobei hier keine Details verloren gehen sollten.
    • Nun lösen wir die Subtraktion aus durch die Schaltfläche “OK”
  • Wir kontrollieren nocheinmal die RGB-Farben im Histogramm (“Levels”); ggf. machen wir kleine Anpassungen
  • Dann setzen wir den Blacklevel im RGB-Histogramm (linker Schieber) leicht an den Beginn des Gebirges heran.
  • Fertig

Luminanzmaske

Mit einer Luminanzmaske kann man selektiv “Vordergrund” und “Hintergrund” unterschiedlich bearbeiten.
Z.B. einerseits die Farbsättigung und Helligkeiten der Sterne und des Objekts “hochziehen” ohne das der Background noch schrecklicher wird; andererseits, wenn man sie invertiert, gerade beim Background  die Farben “Entsättigen”, ohne den “Vordergrund” zu beeinträchtigen.

Wie erstellen wir zu unserem Bild nun in Adobe Photoshop eine Luminanzmaske?

Wir duplizieren den Layer (Ebene) nochmals (Ctrl J)

Umwandeln in Graustufen: Image -> Adjustments -> Black & White -> OK

Agressiv die Grautöne abstufen, bis der Hintergrund ganz schwarz ist und die Sterne und die Galaxis ganz weiss sind.

Nun können wir dieses Bild als Maske verwenden.

Wir fügen zur obersten Ebene einen “Adjustment Layer” hinzu und zwar “Hue/Saturation”. Dadurch entsteht im obersten Layer eine Maske, die aber ganz weiss ist.

5. Vignettierung entfernen

Sehr einfach kann man eine Vignettierung mit der kostenlosen Software Fitswork entfernen.

6. Gradienten entfernen – Hintergrund ebnen – Background Extraction

Der Bildhintergrund sollte im Idealfall einen gleichmäßig dunklen Himmel zeigen. Wenn es da aber einen Helligkeitsverlauf gibt (z.B. oben dunkler, unten heller), spricht man von einem Gradienten (Farbverlauf).

Mit Fitswork lässt sich so ein Gradient relativ leicht entfernen.

Wenn der Helligkeitsverlauf im Himmelshintergrund etwas komplexer ist, reicht es nicht aus mit Gradienten zu arbeiten. Dann ist eine sog. “Background Extraction” angezeigt. Auch das kann oft ganz leicht mit der Software Fitswork gemacht werden.

7. Stretching – Histogramm

Spreizen – Streckung – Abschneiden – Gradationskurve – Gamma

Die Bearbeitung des Histogramms kann durch Software wie Fitswork, GIMP, Photoshop o.ä. erfolgen. Wichtig ist, dass die Software dafür eine 16 Bit Digitalisierung benutzt.

Der Sensor einer Digitalkamera hat eine gut lineare Charakteristik d.h. wenn doppelt soviele Photonen eintreffen, werden doppelt so viele Elektronen erzeugt. Wenn man nun das Histogramm bearbeitet, unterscheidet man zwischen linearem Stretching und nicht-linerarem Stretching. Solange die Linearität erhalten bleibt sind wissenschaftliche Auswertungen möglich, wenn nicht-linear gearbeitet wird, kommen wir in den Bereich der “Pretty Pictures“.

Alles, was man im Histogramm manipuliert, kann auch mit einer Manipulation der Gradationskurve erreichen.

Der linke Regler beim Histogramm setzt “fast schwarze” Pixel auf “ganz schwarz”; d.h. es wird links abgeschnitten (“geclippt”).

Der rechte Regler schneidet die ganz hellen Pixel ab, sodass das verbleibende Bild heller und kontrastreicher wird. Gravierender Nachteil ist, dass im Bereich der helleren Sterne Information verloren geht; man sieht ein “Ausblühen” der Sterne. Im Normalfall muss der rechte Regler also völlig Tabu sein.

Der mittlere Regler beim Histogramm ist etwas dubios. Man kann damit die Gradationskurve anheben oder absenken.
Wenn man nur diesen mittleren Regler bewegt (und nicht den linken und nicht den rechten), dann sieht man, dass dadurch die Gradationskurve genau in der Mitte angehoben (Fitswork: Regler nach rechts) oder abgesenkt (Fitswork: Regler nach links) wird.

Experten empfehlen folgende Vorgehensweise:

  1. Linken Regler nach rechts an das “Gebirge” vorsichtig heranfahren  (Achtung: nichts abschneiden)
  2. Rechten Regler so lassen, wie er ist.
  3. Mittleren Regler etwas “aufdrehen” (Fitswork: nach rechts)  so etwa in den rechten Anfang des “Gebirges” fahren
  4. Abspeichern
  5. Punkte 1-2-3 wiederholen, ggf. mehrfach…

8. Kontrastverstärkung – Gamma-Kurve

Am Anfang liefert unsere Kamera eine lineare Kontrastkurve. Kontrastverstärkung kann durch eine leichte S-Kurve im “Curves Tool” (Adobe Photoshop) erfolgen.

9. Rauschunterdrückung – Rauschreduzierung – Glättung

Siehe auch: Wavelets

Rauschfilterung wird auch als “Glätten” (z.B. bei Fitswork) oder auch als “Weichzeichner” bezeichnet.

Das Rauschen bedeutet Helligkeitsunterschiede in Flächen, die eigentlich einfarbig sein sollten, und ist in dunklen Bereichen meist am deutlichsten wahrnehmbar.

Bildrauschen entsteht, wenn das Licht nicht ausreicht, um das Bild ausreichend zu belichten.

Man kann dann den sogenannten ISO-Wert erhöhen. Dieser hellt das Bild auf, verursacht aber seinerseits auch Bildrauschen.

Deep Sky Objekte (DSO)

Bei Deep-Sky-Aufnahmen ist es ja eigentlich immer so, dass “das Licht nicht ausreicht” – man hat also immer irgendwie mit “Rauschen” zu tun.

Allerdings wird man sich bei DSOs als erstes mal mit dem Stretchen beschäftigen, um mehr Detail aus den lichtschwachen Objekten herauszubekommen (was hat Stretchen mit dem Begriff “Kontrastverstärkung” zu tun? Mir hat das noch keiner erklärt.).

Durch das Stretchen hat man auch das Rauschen verstärkt, was man im zweiten Schritt dann “entfernen” oder Reduzieren möchte.

Ich habe das in einem ersten Anlauf mal mit Adobe Photoshop versucht:

Quelle: https://praxistipps.chip.de/photoshop-bildrauschen-entfernen-die-besten-tipps_38993

  • Ein DSO-Bild nach dem Stacken und Stretchen als 16-Bit in Photoshop geladen
  • Dann: Menüleiste –> Filter –> Camera Raw-Filter
  • Bei den “Grundeinstellungen” auf das dritte Symbol von links (zwei Dreiecke) klicken
  • Dort gibt es “Schärfen” und Rauschreduzierung”. Schärfen will ich nicht;
    • bei Rauschreduzierung drehe ich den Luminanz-Schieber sehr weit nach rechts. Das bewirkt eine starke Rauschreduzierung
    • Luminanzdetails bedeutet, welcher welcher Luminanzbereich von der Rauschreduzierung verschont bleiben soll. Den stelle ich auf Null, weil ich die volle Wirkung der Rauschreduzierung sehen möchte.

Zweiter Versuch mit Photoshop

Quelle: https://www.netzwelt.de/news/108131_2-photoshop-so-entfernen-bildrauschen.html

Die besten Ergebnisse erreichen Sie mit dem Filter “Rauschen reduzieren”. Diesen finden Sie im Menü unter “Filter” → “Rauschfilter”.

Abbildung 1: Photoshop-Menüleiste – Filter – Rauschfilter (Google Drive: photoshop-01.jpg)


Photoshop Rauschfilter

In einem Dialogfeld mit Miniaturansicht nehmen Sie Ihre Einstellungen mithilfe von Schiebereglern oder der Eingabe von Werten vor. Dabei haben Sie folgende Optionen:

  • “Stärke”: Sie reduzieren das Luminanzrauschen gleichzeitig auf den drei Bildkanälen “Rot”, “Blau” und “Grün”.
  • “Details erhalten”: Sie können möglichst viele Bilddetails und Kanten bewahren. Je höher dabei der Wert eingestellt wird, umso mehr Details bleiben erhalten.
  • “Farbrauschen reduzieren”: Mit diesem Regler passen Sie das chromatische Rauschen an.
  • “Details scharfzeichnen”: Durch die Rauschreduzierung treten Schärfeverluste auf, die Sie hier anpassen können.
  • Wenn Sie die Checkbox “JPEG-Artefakt entfernen” aktivieren, versucht Photoshop, pixelige Bildfehler automatisch zu reparieren.

Abbildung 2: Photoshop – Filter – Rauschen reduzieren – Einstellungen (Google Drive: photoshop-02.jpg)


Photoshop-02: Rauschen reduzieren

Geübte Photoshop-Nutzer können in der Registerkarte “Pro Kanal” ihre Einstellungen kanalweise vornehmen. Für die nächste Bearbeitung speichern Sie Ihre Einstellungen optional im Dialogfenster mit Klick auf das Laufwerkssymbol neben “Einstellungen”.

Weichzeichner

Die beiden Filter “Selektiver Weichzeichner” und “Gaußscher Weichzeichner” verringern Bildfehler durch das Weichzeichnen, eine spezielle Art der Kontraständerung. Mit diesen Filtern arbeiten Sie differenzierter als mit “Rauschen reduzieren” und bewahren mehr Bilddetails. Sie finden beide Filter im Menü unter “Filter” → “Weichzeichnungsfilter”.

Im Dialogfeld des Gaußschen Weichzeichners senken Sie mit dem Schieberegler unter “Radius” den Kontrast benachbarter Pixel. Das Bild wirkt glatter. Stellen Sie jedoch den Radius nicht zu hoch ein, da das die Bildschärfe mindert.

Mit dem selektiven Weichzeichner können Sie neben dem Radius auch den Schwellenwert einstellen. Gehen Sie jedoch auch hierbei behutsam vor. Bei zu starker Weichzeichnung “verschwimmen” die Kanten.

Die Entfernung des Bildrauschens geht immer ein bisschen mit der Reduzierung der Bildschärfe einher. Sie müssen daher je nach Bild entscheiden, inwieweit die Rauschentfernung angewendet werden soll.

Schärfen

Quelle: Erik Wischnewski: Astronomie in Theorie und Praxis, 7. Auflage, S. 172

Unscharf bedeutet, dass Hell-Dunkel-Übergänge sanft verlaufen. Scharf bedeutet, dass diese Übergänge härter (schneller und auf kurzer Strecke) erfolgen.

Schärfungsalgorithmen versuchen also aus einem weichen Übergang einen harten zu machen.

Schärfung darf nicht übertrieben werden. Was im Original nicht scharf ist, kann auch nicht mehr im nachhinein scharf gemacht werden.

Zum Schärfen gibt es spezielle Schärfungsfilter z.B. Iterative Gauß-Schärfung.

Schärfen erhöht das Bildrauschen….

Der Schwellwert des Schärfefilters sollte so klein eingestellt werden, das kleinere Helligkeitsunterschiede beim Schärfen ignoriert werden.

Gezielt nur Teile eines Bildes bearbeiten: Ebenen und Masken

Bei Deep-Sky-Objekten wird man auch das Bedürfnis haben, bestimmte Teile eines Fotos anders zu bearbeiten als andere Teile. Dazu gibt es  einen Ansatz von Ron Wodaski, der sich Vier-Zonen-System nennt:

  1. Der Hintergrund “Zone 1” soll – ohne Rauschen – sehr dunkel sein
  2. Gebiete mit schwachen Nebeln  “Zone 2” haben ein schlechtes Signal-Rausch-Verhältnis (SNR) und können nicht geschäft, sondern nur entrauscht werden.
  3. Gebiete mit stärkeren Nebeln “Zone 3” haben ein gutes Signal-Rausch-Verhältnis (SNR) und sollten geschärft werden.
  4. Die ganz hellen Bereiche “Zone 4” haben ein super-gutes SNR und sollten ebenfalls nicht entrauscht werden…

Hierzu gibt es auf Youtube ein einführendes Video von Frank Sackenheim. Ich habe dann versucht, das Ganze in einem separaten Artikel zu beschreiben.

Man kann das alles sehr gut mit Adobe Photoshop machen.

Computer: Windows 10 – User anlegen bzw. aktivieren

Gehört zu: Microsoft Windows

Stand: 07.05.2023

Windows 10 User-Verwaltung

Wir rufen die Kommandozeile (Eingabeaufforderung)  “CMD” als Administrator auf. Z.B. über:

  • Computerverwaltung –> CMD
  • Win+X –> Eingabeaufforderung (Administrator)

Aktivieren eines vorhandenen Users:

  • net user administrator /active:yes

Einrichten eines neuen Users:

  • net user administrator [passwd]

Gruppenrichtlinien

Der Editor für Gruppenrichtlinien “gpedit.exe” gestattet viele Einstellungen über seine komfortable grafische Benutzeroberfläche vorzunehmen, anstatt direkt in der Registry herumzufummeln.

Offiziel ist der GpEdit nur für die Pro-Editionen von Windows unterstützt; man kann ihn aber auch einfach für die Home-Editionen nachinstallieren:

Link: https://www.giga.de/downloads/microsoft-windows/tipps/gpedit.msc-fehlt-einfach-nachinstallieren-windows-10-home/

Erleichterte Bedienung

Die Einstellungen zu “Erleichterte Bedienung” wird in Windows 10 direkt durch das programm “utilman.exe” aufgerufen. Contine reading

Astrofotografie mit der Software qDslrDashboard 2018

Gehört zu: Astro-Fotografie
Siehe auch: Astro-Software

Software: qDlsrDashboard per WLAN auf Windows Notebook

Kultig ist auch die Windows-Software qDslrDashboard, die es für Canon und Nikon gab und neuerdings auch für Sony. qDlsrDashboard gibt es für Windows, iOS und für Android.

Im Einsatz bei mir ist die Version v3.5.1 für Windows von http://dslrdashboard.info/

Mit “qDslrDashboard” kann ich vom Windows-Notebook her die Kamera per WLAN fernbedienen; wobei nicht alle Funktionen, die bei direkter Bedienung der Kamera möglich sind, auch per Ferbedienung unterstützt werden. Per Fernbedienung kann ich:

  • Den Live-View der Kamera remote auf dem Notebook betrachten
  • Den Aufnahmenodus einstellen (M=manuell, A=Blendenpriorozät, S= Verschusszeitpriorität,…)
  • Die Empfindlichkeit einstellen: ISO 100 – ISO 25600
  • Die Belichtungszeit einstellen: 1/4000 Sekunde bis 30 Sekunden (Bulb ist nicht möglich – Android-Version: doch)
  • Die Blende einstellen (wenn ein Objektiv mit elektischer Verbindung benutzt wird)
  • Den Fokus einstellen (wenn ein Objektiv mit elektischer Verbindung benutzt wird)
  • Gitternetz bzw. Fadenkreuz einblenden
  • Eine Aufnahme auslösen (“capture”)
  • Settings: Rückblick-Bildgröße: “Original” oder “2M”
  • Settings: Rückblick-Bild: Anzeigen nach der Aufnahme: Ein, 2 Sek, Aus
  • Settings: “Optionen speichern” Nach der Aufnahme das Rückblick-Bild auf dem Smartphone (iPad) zu speichern…

Fotos, die mit qDslrDashboard als Fernauslöser aufgenommen werden, werden auf der SD-Karte der Kamera gespeichet und auf den Windows-PC heruntergeladen. Dafür wird ein Ordner auf dem PC angegeben. Die Fotos werden als JPGs von der Kamera auf den PC übertragen und zwar in Originalgröße – allerdings haben die JPG-Dateien auf der Kamera und auf dem PC völlig verschiedene Namen.

qDlsrDashboard auf Android Tablet

qDslrDashboad gibt es auch als Android App. Ich habe die Version V3.5.8 auf meinem Samsung Tablet installiert.

Die Frage ist jetzt, wie bekomme ich eine Verbindung zu meiner Canon EOS 600D Kamera hin?

Es soll per USB-OTG gehen oder auch über einen kleinen portablen TP-Link TL-MR3040 oder 3020 Router, auf dem man Linux installieren soll und dann ein WLAN mit OpenWRT einrichten…

Astrofotografie: Remote Control – Aufnahme-Software – Capturing

Gehört zu: Astrofotografie
Siehe auch: Astronomie Remote Control

Astrofotografie: Remote Control – Aufnahme-Software – Capturing

Bei der Astrofotografie benötigt man neben einer Kamera auch gleich so etwas wie eine “Fernbedienung” oder “Fernsteuerung” für die Kamera.

Unter “Fernsteuerung” kann man sehr einfache oder auch umfassendere Fern-Funktionalität verstehen; etwa vom einfachen Drahtauslöser bis zu einer umfangreichen Fernsteuerung der Kamera über einen Windows-Computer, Tablet oder so.

Fern-Funktionalitäten können sein:

  • Einstellen von Belichtungszeit, ISO, Blende für die nächste Aufnahme
  • Starten (Benden) einer Aufnahme
  • Programmieren einer Sequenz von Aufnahmen (“Intervallometer“)
  • Betrachten eines Bildes auf einem Windows-Computer, Tablet, Smartphone,…
  • Speichern eines Bildes auf dem Windows-Computer
  • Analyse eines Bildes auf dem Windows-Computer (z.B. Plate Solving)
  • Steuern nicht nur der Kamera, sondern auch anderer astronomischer Geräte wie Montierung, Filterrad, Motorfokusser,…
  • ….

Je nach Kamera gibt es meistens verschiedene Möglichkeiten für “Fernsteuerung”. Die Kamera muss ja mit dem Fernsteuerungs-Gerät irgendwie verbunden sein.

Verbindungen können sein:

  • Dirkete Verbindung zur Kamera (spezielles Draht, Kabel,…)
  • USB (Kabel, Hub, Server,…)
  • Infrarot
  • WLAN

Fernsteuerung für die DSLR Canon EOS 600D

Zur Steuerung meiner Canon EOS 600D verwende ich Software auf meinem Windows-Computer. Die Verbindung wird dabei per USB hergestellt.

Kleinere Lösungen (d.h. ohne Windows-Computer) sind:

Fernsteuerung für die DSLR Sony NEX-5R

Zur Steuerung meiner Sony NEX-5R habe ich mehrere Möglichkeiten: