My older websites do use vector graphics in Shockwave format – originally produced by Feehand and converted from .fla to .swf
In the long run I am planning to convert .swf to a more open and modern format ( like .svg or html5 or ….)
At the moment I want to keep my older websites “alive”, so I need to know how to embed SWF-files in HTML and how to render them in the important Web Browsers (Mozilla Firefox,…)
As I understood, I need Adobe Flashplayer as a plugin into my web browser in order to render my SWF graphics properly.
My favorite web browser is Mozilla Firefox. With Firefox version 43.04 I was unable to install the Adobes Flashplayer plugin.
With Mozilla Firefox 28.0 the installation of the Adobe Flash Plugin went well. To be exact: I installed Shockwave Flash 22.0.0.209 as a plugin to Mozilla Firefox 28.0.
Status: Statt MediaWiki verwende ich jetzt WordPress
Graphiken in MediaWiki – Zeichnungen (Drawings)
Auch in MediaWiki möchte man ja ab und zu auch schöne Vektorgrafiken einbauen – nicht nur Pixel-Bilder.
Je nach Format (SVG, SWF, ODG, VSD, PPT,…) sind da unterschiedliche Lösungen möglich, wo bei schon das Upload solcher Grafiken ein Problemchen sein kann.
Upload von Grafiken auf MediaWiki (SVG, SWF, PDF,…)
Damit man Vektorgrafiken auf MediaWiki hochladen kann, müssen einige Einstellungen vorgengenommen werden.
php.ini
file_uploads = On
post_max_size = 20M
upload_max_filesize = 20M
Konkurrierend zu SVG ist: Flash von Macromedia (aufgekauft von Adobe)
SVG-Dateien sind keine binären Dateien, sondern Text-Dateien, die also auch mit normalen Text-Editoren bearbeitet werden können.
Solche SVG-Dateien sind “normale” XML-Dateien mit dem besonderen Namespace SVG.
SVG tat sich anfangs sehr schwer, da Flash der Industrie-Standard war.
SVG 1.1 enthielt lediglich eingie Korrekturen zu 1.0
SVG 1.2 wurde nie offiziell fertiggestellt.
SVG 2.0 soll der neue Super-Standard werden – als Teil von HTML5
SVG-Grafiken bis Verson 1.1 können z.B. in Mozilla Firefox betrachtet (“Rendering”) werden. Auch Google Drive…
SVG-Grafiken Erstellen und Bearbeiten
Ich benutzte zur Zeit (Feb. 2020) das SVG-Tool Inkscape. Leider wurden in Inkscape schon einige Elemente von SVG 1.2 implementiert, die aber nie definitiv verabschiedet wurden. Dazu gehören: flowRoot, flowRegion und flowPara…
Dies sind Fliesstext-Konstrukte, die von den Vertretern im W3C sehr kontrovers diskutiert wurden und schließlich nicht in den SVG-Standard aufgenommen wurden. Wir müssen bei Inkscape also aufpassen und ggf. solche Konstrukte entfernen und durch einfachere Konstrukte von SVG 1.1 ersetzen.
X-Achse waagerecht vom linken Bildrand nach rechts
Y-Achse senkrecht vom oberen Bildrand nach unten
Elemente
Rechteck
Text, auch Fließtexte
Bezierkurven
Kreis, Ellipse, Bogen
Pfad
Pfeilspitzen ????????
Beispiel für einen Pfad
Pfad aus “M” (=move to) und “L” (= line to):
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg xmlns="http://www.w3.org/2000/svg" version="1.0"
width="200" height="300">
<path stroke="black" stroke-width="1px" fill="none"
d="M 50,250 L 50,150 L 100,77.5 L 150,150 L 55,150 L 150,250 L 54.5,250 L 150,154 L 150,246"/>
</svg>
Abbildung 1: Dies als Grafik in SVG-Format (Github: DasHausvomNikolaus.svg)
Abbildung 3: Dies als Grafik (Github: BalacedScorecard-3.svg)
Balanced Scorecard als SVG
Beispiel für Fließtext
Fließtext wurde in SVG 1.2 neu eingeführt. Nicht alle SVG-Tools unterstützen dies.
SVG-Quellcode:
<?xml version="1.0" standalone="no"?>
<svg version="1.2" xmlns="http://www.w3.org/2000/svg"
id="body" width="350" height="350">
<title>SVG flowPara Example.</title>
<g>
<rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
<flowRoot>
<flowRegion>
<rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
</flowRegion>
<flowDiv text-align="start">
<flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
P1 The quick brown fox jumped over the lazy dog.</flowPara>
<flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
P2 Gallia est omnis divisa in partes tres quarum unam incolunt Belgae.</flowPara>
<flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
P3 a b c d e f g h i j k l m n o p q r s t u v w x y z</flowPara>
</flowDiv>
</flowRoot>
</g>
</svg>
Dies als SVG-Grafik mit Version 1.2 Elementen zum Fließtext.
Abbildung 4: SVG-Grafik mit Fließtext (Google Drive: flow-2.jpg)
SVG Fließtext – Text Flow
Da hier SVG 1.2 kann das SVG nicht als Original Flow-2.svg richtig angezeigt werden. Daher wir es in ein Flow-2.jpg umgewandelt (mit Inkscape und Libre Office Draw).
Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.
Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.
Die Vorteile des Stackings sind:
Vermeidung von Nachführungsfehlern (Sterne werden Striche)
Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.
Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.
Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…
Z.B. die Software SharpCap beherrscht ein solches Live Stacking.
Umgangssprachlich spricht man gerne vom “Stacking”; eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.
Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:
Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
u.a.
Welche Kalibrierungs-Frames brauche ich?
Das Wichtigste sind die Flat Frames.
Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.
Welche Aufnahmen (“Frames”) muss ich machen?
Light Frames
So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.
Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.
Dark Frames
Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.
Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.
So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.
Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.
Darkframes – Dunkelbildabzug
Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45 Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.
Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.
Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:
Abbildung 1 und 2: DSS Dunkelbildabzug (Google Drive: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)
Calibration: Lights without Darks
Calibration: Lights with Darks
Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:
Die Hotpixel werden eliminiert
Das Dunkelstrom-Signal wird eliminiert (abgezogen)
Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)
Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).
Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg
Flat Frames
Was ist ein “Flat Frame”?
Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.
Wofür benötigt man Flat Frames?
Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.
Wie fertigt man ein Flat Frame an?
Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.
Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.
Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).
Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.
Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.
Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.
Wofür benötigen wir Bias Frames?
Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.
Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.
Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.
Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.
Der Rat von Frank zum Thema Stacking:
Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!
So sieht Franks Zusammenfassung aus:
Wie werden die Aufnahmen (Frames) richtig “gestackt”?
Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.
Kamera: Lichtstarker Sensor mit geringem Rauschen – Wechselobjektive
Objektiv: Weitwinkel z.B. Zenitar f=16mm, offene Blende 2,8
Stativ
Fernauslöser: Infrarot oder WLAN mit iPad ?
Mit welchen Einstellungen sollen die Fotos geschossen werden?
Im Internet (http://praxistipps.chip.de/sternschnuppen-fotografieren-die-5-besten-tipps_39869) liest man, die Sternschnuppen seine ja meistens “heller als die Sterne”. Das ist bei Belichtungszeiten größer 1/10 Sekunde Unsinn. Sternschnuppen bewegen sich und verteilen ihr Licht auf die ganze Spur, wohingegen Sterne ihr Licht auf den gleichen Punkt sammeln für 30 Sekunden oder so…
Blende: 2,8 ganz auf!
Belichtungszeit: = 30 Sekunden ==> dann wird keine Nachführung benötigt: Faustformel max. Belichtung = 500/Brennweite = 500/16 = 31,25 Sekunden
ISO 3200 Probefoto machen – ggf. eine Blende zu, dafür ISO hoch lassen
Alternativer Aufbau: Webcam
Ich habe ja eine Altair GPCAM mit einem sehr kurzbrennweitigen Objektiv, vom Hersteller genannt “Meteor Objektiv”…
12.8.2015 Perseiden
Im Jahre 2015 habe ich das erste mal versucht, dieses Ereignis fotografisch festzuhalten.
Video-Kameras sind in der Astrofotografie seit langer Zeit gebräuchlich, um z.B. Planeten zu fotografieren bzw. für “Autoguiding“.
Man nennt diese Video-Kameras auch generell “WebCam“, weil sie ihr Bild per USB-Kabel an einen Computer (Notebook) liefern.
Die Stromversorgung erfolgt über das USB-Kabel; zusätzlich ist für ein mögliches Autoguiding ein sog. ST4-Port an der VideoCam.
Die klassische WebCam ist eine Video-Kamera und wird deswegen vorrangig für Planetenfotografie eingesezt (siehe Lucky Imaging).
Für die Fotografie von Deep-Sky-Objekten (DSOs) benutzt man gerne spezielle Astrokameras, die über eine geregelte Kühlung verfügen.
Ein einfacher Einstieg in die Astrofotografie ist mit “normalen” Digitalkameras (DSLR) möglich.
So ganz klassische Kameras für Astrofotografie sind:
DMK 31 (CCD-Sensor, Pixelgröße 4,65 µm / 1024*768) von der Firma “The Imaging Source”
Als Einsteiger habe ich mich mal für die Altair GPCAM entschieden, welche einen CMOS-Sensor hat und bei der ein Objektiv (f=2,1mm) gleich mitgeliefert wird.
Die Aufgabe: Wie stelle ich das Beobachtungsobjekt in das Gesichtsfeld ein?
Das ist manchmal garnicht so einfach. Als ich das erste Mal die Große Magelansche Wolke fotografieren wollte, hatte ich das Problem, das ich das Biest mit bloßem Auge nur sehr schwach sehen konnte und die Ausrichtung der Kamera (Sony NEX-5R auf Kugelkopf) war mühsam.
Bei der Astrofotografie bedarf es zweier Fähigkeiten für einen Regelkreis zur Positionierung (das Einstellen eines Bildausschnitts wird “Framing” genannt):
Erkennen wie mittig das (evtl. kaum sichtbare) Beobachtungsojekt im Gesichtsfeld “sitzt”? (Feststellen Differenz Soll-Ist)
Verstellen der Ausrichtung der Kamera / des Teleskops (Verändern Ist in Richtung Soll)
Die Ausrichtung auf ein Beobachtungsobjekt wird auch engl. gern “Pointing” genannt. Neben dem manuellen ggf. durch Technik unterstützem Pointing gibt es das vollautomatische computergestützte Pointing, was auch gerne “Goto” genannt wird.
Wo genau steht das Beobachtungsobjekt?
Aus der lokalen Sternzeit kann man leicht die Position eines Objekts am Himmel berechnen als Deklination und Stundenwinkel und dann mit einer richtig aufgestellten (s. Polar Alignment) parallaktischen Montierung auf das Objekt fahren.
Wenn man es ganz genau machen will, muss man allerdings ein paar “Kleinigkeiten” zusätzlich berücksichtigen:
Präzession (50″ / Jahr) –> J2000 vs. JNow
Nutation
Jährliche Abberation
Eigenbewegung des Objekts
Geografische Position des Beobachters
Atmosphäre
Genauigkeit des Pointing
Die Genauigkeit einer Pointing-Methode wird als “mittlere” Abweichung der Teleskop-Position von der Objekt-Position angegeben, wobei “mittlere” gern als “RMS” (Root Mean Square, Wurzel aus dem Mittelwert der Abweichungsquadrate) bezeichnet wird; d.h. 60% der Messungen leigen unterhalb von RMS. Im Amateurbereich wird eine RMS von 30″ als hervorragend angesehen.
Erforderliche Genauigkeit – Gesichtsfeld
Praktisch hängt die Genauigkeit mit der auf das Beobachtungsobjekt positioniert werden soll wesentlich von der Größe des Gesichtsfelds des verwendeten Objektivs ab. Eine Genauigkeit von 20% des Gesichtsfeldes würde ich für gut halten, 10% wären ein sehr guter Wert.
LidlScope 700mm mit APS-C-Sensor: 1,9 x 1,3 Grad –> sehr gute Ausrichtung: 11′
Russentonne 500mm mit APS-C-Sensor: 2,7 x 1,8 Grad –> sehr gute Ausrichtung: 16′
Beroflex 300mm mit APS-C Sensor: 4,5 x 3,0 Grad –> sehr gute Ausrichtung: 27′
Takumar 135mm mit APS-C-Sensor: 9,9 x 6,6 Grad –> sehr gute Ausrichtung: 59′
Olympus G.ZUIKO 50mm mit APS-C-Sensor: 26,6 x 17,7 Grad –> Objekt LMC –> sehr gute Ausrichtung: 2,7°
Vivitar 24mm mit APS-C-Sensor: 52,2 x 36,0 Grad –> Objekte Polarlichter, Milchstraße –>sehr gute Ausrichtung: 5,2°
Techniken zur Positionierung auf das Beobachtungsobjekt
Technik #1: Positionieren mit Live-View und höherer ISO-Einstellung
Beispiel “Großen Magellanschen Wolke” in Trafalgar
Mit einer höheren ISO-Einstellung wird das etwas schwache Objekt dann im Live View gut sichtbar.
Es bleibt das Problem des feinen Verstellens der Kamera-Richtung. Auf einem gewöhnlichen Kugelkopf ist das fummelig, weil man nicht in einer Richtung hin und her stellen kann – und damit leider nicht Fehler leicht korrigieren kann. Besser wäre ein Kopf mit dem ich in zwei festen Achten fein hin und her stellen kann – so etwas nennt man “Neigekopf“.
Technik #2: Positionieren mit einem konventionellen Sucherfernrohr
Wichtig ist es, den Sucher parallel zum Hauptfernrohr einzustellen. Wenn man im Hauptteleskop einen Stern mittig im Gesichtsfeld eingestellt hat, kann man das Sucherfernrohr so justieren, dass der gleiche Stern ebenfalls mittig dort im Fadenkreuz steht. Damit man in der dunklen Nacht nicht zuviel herumprobieren muss, empfiehlt es sich diese Justage des Suchers schon am Tage an einem entfernten Objekt “grob” vorzunehmen.
So ein “optischer” Sucher kann z.B. dazu dienen, einen hellen Stern einzustellen, an dem man dann die genaue Fokussierung vornimmt.
Technik #3: Positionieren per Goto-Funktion der Montierung
Eine gut funktionierende motorische Goto-Montierung ersetzt den Sucher. Man benötigt keinen Sucher mehr und kann ihn verkaufen :-). Deshalb habe ich mir die iOptron SmartEQ Pro gekauft. Seit Juli 2017 habe ich auf eine Skywatcher HEQ5 Pro aufgerüstet. Allerdings ist jedesmal ein Goto Alignmenterforderlich, wo man auch Sterne in das Zentrum des Gesichtsfelds stellen muss. Dafür benötigt man ggf. doch einen Sucher.
Technik #4: Positionieren mit Platesolving
Da ich meine Astrofotos sowieso mit dem Windows-Computer und entspechender Aufnahme-Software, wie APT, Sequence Generator Pro, AstroTortilla, mache, ist für mich das bequemste das Platesolving. Durch so ein Platesolving wissen wir also genau, wohin unsere Kamera (unser Teleskop) in dem Moment der Aufnahme (“Ist-Position”) zeigt.
Damit das motorische Goto der Montierung funktioniert, ist es zusätzlich erforderlich, dass die Montierung in Information hat, wohin sie zeigen sollte (“Soll-Position”). Erst dann kann man per SYNC beides zur Deckung bringen.
Welche Soll-Position die Montierung als Information hat, kann uns beispielsweise ein Planetariumsprogramm wie Cartes du Ciel zeigen.
Technik #5: Positionieren mit dem Leuchtpunktsucher
Hierzu habe ich einen separaten Artikel geschrieben: Leuchtpunktsucher
Technik #6: Positionieren mit einem Elektronischer Sucher / Digitaler Sucher
Als elektronischen Sucher habe ich mir eine USB-Kamera “Altair GP-CAM” gekauft und dazu ein Objektiv mit f=12mm. Das ergibt ein Sucher-Gesichtsfeld von 23° x 17°. das ich im Live View per Software (z.B. SharpCap) auf meinem Window-Computer betrachten kann. Bei ShapCap kann ich auch ein Fadenkreuz einblenden. Zu perfekten Glück fehlen dann noch:
Der Montagekopf (Zwei-Wege-Neiger) muss eine feinfühlige Richtungsverstellung in zwei festen Achsen ermöglichen
Die Aufnahmeoptik muss parallel zum elektronischen Sucher ausgerichtet sein
Diese Technik verwende ich nicht, da es mit Technik #4 (Platesolving) super einfach und schnell geht.
Beispiele zur Positionierung auf Beobachtungsobjekte
Olympus G.ZUIKO f=50mm mit Sony NEX-5R z.B. LMC
Am 1.3.2014 konnte ich die Große Magellansche Wolke (Large Magellanic Cloud = LMC) von Trafalgar, Südafrika aus fotografieren.
Damit das Beobachtungsobjekt (die LMC) schön in die Bildmitte kommt, mussten zuerst Anfnahmen mit hoher ISO gemacht werden, damit das Beobachtungsobjekt auf dem Bildschirm sichtbar wird.
Abbildung 1: Große Magellansche Wolke (Google Drive: DK_20140301_lmc2_3_beschriftet.jpg)
Trafalgar: LMC Large Magellanean Cloud
Objekte finden mit Russentonne f=500mm und Sony NEX-5R
Das Gesichtsfeld der Russentonne ist klein (1,8 x 2,7 Grad). Es wird schwierig werden, damit gut auf ein Beobachtungobjekt zu positionieren. Ich habe ja meinen Rotpunkt-Sucher, der auf dem Blitzschuhschlitten der Kamera sitzt. Das passt auch mit der Russentonne.
Mit dem Rotpunktsucher sollte eine grobe Positionierung auf ein Objekt möglich sein. Eine Feinpositionierung müsste mit dem Smart Remote Contol und dem Live View auf dem iPad möglich sein, wenn man vielleicht das ISO für diesen Zweck etwas aufdreht. Bei mit sitzt die Russentonne allerdings auf einem Kugelkopf, der auf der Nachführung SkyTracker sitzt. Mit dem Kugelkopf ist eine solche “Feinpositionierung” nur ganz schwer möglich.
Objekte finden mit Takumar f=135mm und Sony NEX-5R
Wir gehen von folgendem Szenario aus:
Aufnahmekamera: Sony NEX-5R mit Objektiv Takumar 135mm (=> Gesichtsfeld 9,9° x 6,6°) und Smart Remote Control per iPad
Sucherkamera: GP-CAM mit Objektiv f=12mm angeschlossen per USB an Notebook (=> Gesichtsfeld 22° x 17°)
Montierung: iOptron SmartEQ pro – parallaktisch – mit zwei Servomotoren (Stellmotoren)
PC (Notebook) mit Windows 10 & SharpCap
Abbildung 2: Der Aufbau sieht so aus (Google Drive: DK_20160531_0638.jpg)
iOptron SmartEQ, Sony NEX 5R mit 135mm Takumar und GP-CAM als elektronischem Sucher
Schritt 1: Vorbereitung am Tage:
Batterie der Kamera: Aufladen und Ersatzbatterie bereitlegen
Kamera: Sensor reinigen
Batterie des iPads: Aufladen und ggf. Mobil-Akku bereitstellen
12V-Akku für Montierung: Aufladen und Kabel bereitlegen
Notebook-Computer: Batterie aufladen
Schritt 2: Justieren so dass Sucher und Aufnahmekamera parallel:
Gleich nach dem Einnorden kann der Polarstern benutzt werden, um die Parallelität der beiden Geräte zu justieren
Beide Geräte werden fokussiert, sodass die Sterne scharf zu sehen sind
SharpCap: Tool-Leiste: Switch between different styles of reticule overlay
Abbildung 3: SharpCap with reticule overlay (Google Drive: SharpCap_Reticule.jpg)
SharpCap Recticule (Fadenkreuz)
Sony PlayMemories Mobile: Einstellungen Gitter:
Abbildung 4: Sony PlayMemories auf dem iPad (Google Drive: iPad_PlayMemoriesGitter.jpg)
Sony Software auf iPad Gitter mit Fadenkreuz
Im Prinzip funktioniert nun mein elektronischer Sucher: ich kann ein Objekt ins Gesichtsfeld des Suchers einstellen und bei der Kamera sollte es dann auch im Gesichtsfeld sein.
Schritt 3: SharpCap Einstellungen für optimalen Sucher
Ich muss mein SharpCap nur noch so einstellen, dass schön viele Sterne auf dem Notebook-Bildschirm sichtbar werden.
Das Minimum-Ziel ist es, Sterne bis 4. Größenklasse im Sucher (Notebook Bildschirm) gut sichtbar zu machen.
Dazu stelle ich für meine Altair GPCAM in SharpCap folgendes ein:
Einzelbild (“still”)
Belichtungszeit: 5 sec
Gain: so hoch wie möglich (solange das Bild nicht zu hell wird)
Wenn ich mit meinem schönen klassischen Festbrennweiten-Objektiv Takumar 135mm und der Sony NEX-5R Astrofotos mache, bekomme ich eine starke Vignettierung. Das ist bei der Astrofotogafie unerwünscht.
Lösungsmöglichkeiten
Zum Entfernen einer Vignettierung kenne ich zwei Möglichkeiten: Methode “Flat-Frame” oder Methode “Fitswork Hintergrund ebenen” .
Nachdem ich meine Einzelbilder mit Deep Sky Stacker (DSS) gestackt habe, bearbeite ich sie standardmäßig zunächst mit Fitswork weiter.
In Fitswork mache ich einige Grundkorrekturen wie: Histogramm stretchen, groben Farbstich entfernen. Was dann bleibt ist ein Astrofoto mit mehr oder weniger Vignettierung.
Entfernen einer Vignettierung mit Fitswork
In Fitswork gehe ich auf: Menue -> Bearbeiten -> Ebenen -> Hintergrund ebnen Sterne
Damit ist die Vignettierung (für mein Auge) verschwunden.