Computer: Evolution from B2/Cafelog to WordPress 1.0

Gehört zu: WordPress

Evolution of WordPress: B2/Cafelog to WordPress 1.0

by Keith Dsouza on July 14th, 2008 in WordPress

A few days ago we had told you what you should know about WordPress 2.6. The post described new features that will be introduced shortly in WordPress 2.6. Though there are several new features that you may like in this new version, there might be many that have gone unnoticed that were introduced in the earlier versions of WordPress. To quell the anticipation that users might have for the latest version, we wanted to write a series of posts that will cover WordPress from its infancy to WordPress 2.5 (the latest major version) that many of you use.

The WordPress team has been naming their major releases after popular Jazz legends and we will take a look at code names for the past releases. Contine reading

Computer: Adobe Flash Player – Shockwave – in Mozilla Firefox

Gehört zu: Vektorgrafiken
Siehe auch: SWF, SVG
Benutzt: Grafiken aus GitHub

Meine Vektorgrafiken als SWF oder SVG

My older websites do use vector graphics in Shockwave format – originally produced by Feehand and converted from .fla to .swf

In the long run I am planning to convert .swf to a more open and modern format ( like .svg or html5 or ….)

At the moment I want to keep my older websites “alive”, so I need to know how to embed SWF-files in HTML and how to render them in the important Web Browsers (Mozilla Firefox,…)

My traditional website, that I want to keep “alive” is:  http://www.kr8.de (original) resp. http://web.kr8.de (converted to bootstap).

Adobe Flashplayer

As I understood, I need Adobe Flashplayer as a plugin into my web browser in order to render my SWF graphics properly.

My favorite web browser is Mozilla Firefox. With Firefox version 43.04 I was unable to install the Adobes Flashplayer plugin.
With Mozilla Firefox 28.0 the installation of the Adobe Flash Plugin went well. To be exact: I installed Shockwave Flash 22.0.0.209 as a plugin to Mozilla Firefox 28.0.

Rendering SWF in HTML

My SWF files showed up perfectly on my HTML-Pages in Mozilla Firefox.
Example: http://web.kr8.de/ldap.html

This is the code I used for embedding the SWF into the HTML:

<object align=”left” classid=”clsid:D27CDB6E-AE6D-11cf-96B8-444553540000″ codebase=”http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=5,0,0,0″ width=”294″ height=”126″>
<param name=”movie” value=”img/ldap.swf” />
<param name=”wmode” value=”transparent” />
<param name=”quality” value=”high” />
<embed quality=”high” pluginspage=”http://www.macromedia.com/shockwave/download/index.cgi?P1_Prod_Version=ShockwaveFlash” type=”application/x-shockwave-flash” src=”img/ldap.swf” width=”294″ height=”126″  wmode=”transparent” />
</embed>
</object>

Potential Problems

  • Use the right file path in the SRC parameter e.g. src=”img/ldap.swf”
  • Use wmode=”transparent”
  • Other Firefox-Plugins may interfere with the Shockwave Flash plugin, e.g. Shockwave Director or others…

Als SVG-Grafik geht es ganz einfach

Wenn wir statt Shockwave das SVG-Format nehmen, geht es einfacher, wobei wir SVG in der WordPress Media Library oder auch in GitHub speichen können:

Abbildung 1: LDAP-Schema (WordPress Media Library : ldap.svg)

Abbildung 2: LDAP-Schema (GitHub: ldap.svg)

Ldap.svg

Computer: Graphics in MediaWiki

Gehört zu: Web-Authoring
Siehe auch: Vektorgrafiken, MediaWiki, WordPress

Status: Statt MediaWiki verwende ich jetzt WordPress

Graphiken in MediaWikiZeichnungen (Drawings)

Auch in MediaWiki möchte man ja ab und zu auch schöne Vektorgrafiken einbauen – nicht nur Pixel-Bilder.

Je nach Format (SVG, SWF, ODG, VSD, PPT,…) sind da unterschiedliche Lösungen möglich, wo bei schon das Upload solcher Grafiken ein Problemchen sein kann.

 Upload von Grafiken auf MediaWiki (SVG, SWF, PDF,…)

Damit man Vektorgrafiken auf MediaWiki hochladen kann, müssen einige Einstellungen vorgengenommen werden.

 php.ini

file_uploads = On 
post_max_size = 20M
upload_max_filesize = 20M

 LocalSettings.php

$wgEnableUploads = true    -->  (dann erscheint links die Klick-Zeile "Upload")
$wgFileExtensions = array('png','gif','jpg','jpeg','pdf','svg','swf','mp3','ogg');

Manchmal gibt es Probleme mit der Erkennung des richtigen MIME-Types. Dann kann man folgendes versuchen:

$wgVerfiyMimeType = false;
$wgMimeDetectorCommand = 'file -bi';
in httpd.conf bzw. .htaccess:  AddType image/svg+xml svg

Contine reading

Computer: SVG Vektorgrafiken (aus Wiki)

Gehört zu: Vektorgrafik
Siehe auch: Graphics in WordPress
Benutzt: Grafiken aus Github, Fotos aus Google Archiv

Stand: 15. Sep 2021

SVG Scalable Vector Graphics (aus Wiki)

  • SVG ist ein auf XML beruhender W3C-Standard für VektorGrafik.
    • SVG 1.0: 2001
    • SVG 1.1: 2003
    • SVG 1.2: 2005
    • SVG 2.0: hieran wird seit 2011 gearbeitet (“Candidate Recommendation”)
  • SVG wurde sehr stark von der Firma Adobe unterstützt. Zum 1.1.2008 hat Adobe “End of Life” verkündet.
  • SVG hat als offenes; d.h. nicht-proprietäres Format große Unterstützung durch OpenSourceSoftware
  • SVG wird von MediaWiki unterstützt
  • SVG wird von WordPress unterstützt
  • WebBrowser unterstützen SVG auch…?
  • Konkurrierend zu SVG ist: Flash von Macromedia (aufgekauft von Adobe)

SVG-Dateien sind keine binären Dateien, sondern Text-Dateien, die also auch mit normalen Text-Editoren bearbeitet werden können.
Solche SVG-Dateien sind “normale” XML-Dateien mit dem besonderen Namespace SVG.

SVG tat sich anfangs sehr schwer, da Flash der Industrie-Standard war.
SVG 1.1 enthielt lediglich eingie Korrekturen zu 1.0
SVG 1.2 wurde nie offiziell fertiggestellt.
SVG 2.0 soll der neue Super-Standard werden – als Teil von HTML5

SVG Grafiken Einbetten in…

 Bekannte Probleme mit SVG

  • Darstellung von Pfeilspitzen an Linien
  • Welche Schrifttypen werden unterstützt?
  • Darstellung von Fließtext (ab SVG 1.2 möglich)

 Weblinks zu SVG

SVG-Viewer

SVG-Grafiken bis Verson 1.1 können z.B. in Mozilla Firefox betrachtet (“Rendering”) werden. Auch Google Drive…

SVG-Grafiken Erstellen und Bearbeiten

Ich benutzte zur Zeit (Feb. 2020) das SVG-Tool Inkscape. Leider wurden in Inkscape schon einige Elemente von SVG 1.2 implementiert, die aber nie definitiv verabschiedet wurden. Dazu gehören: flowRoot, flowRegion und flowPara…

Dies sind Fliesstext-Konstrukte, die von den Vertretern im W3C sehr kontrovers diskutiert wurden und schließlich nicht in den SVG-Standard aufgenommen wurden. Wir müssen bei Inkscape also aufpassen und ggf. solche Konstrukte entfernen und durch einfachere Konstrukte von SVG 1.1 ersetzen.

SVG die ersten Schritte

  • Koordinatensystem
    • X-Achse waagerecht vom linken Bildrand nach rechts
    • Y-Achse senkrecht vom oberen Bildrand nach unten
  • Elemente
    • Rechteck
    • Text, auch Fließtexte
    • Bezierkurven
    • Kreis, Ellipse, Bogen
    • Pfad
    • Pfeilspitzen ????????

Beispiel für einen Pfad

Pfad aus “M” (=move to) und “L” (= line to):

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg xmlns="http://www.w3.org/2000/svg" version="1.0" 
     width="200" height="300">
  <path stroke="black" stroke-width="1px" fill="none"
     d="M 50,250 L 50,150 L 100,77.5 L 150,150 L 55,150 L 150,250 L 54.5,250 L 150,154 L 150,246"/>
</svg>

Abbildung 1: Dies als Grafik in SVG-Format (Github: DasHausvomNikolaus.svg)
DasHausvomNikolaus.svg

Beispiel für Bogenstücke

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg xmlns="http://www.w3.org/2000/svg" version="1.1" width="300" height="300">
<g stroke="black" stroke-width="1" fill="none">
<path d="M150 50 A100 100 0 0 0 50 150" />
<path d="M0 150 L150 150" stroke="red"/>
<path d="M150 0 L150 150" stroke="blue" />
<path d="M50 200 A50 50 0 0 1 100 250" />
<path d="M50 160 L50 300 M0 250 L150 250" stroke="gray"/>
</g>
</svg>

Abbildung 2: Dies als Grafik in SVG-Format (Github: Pathwitharcs.svg)

Pathwitharcs.svg

SVG mit Bogenstücken

Beispiel für zwei einzelne Textzeilen

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<!DOCTYPE svg PUBLIC "-//W3C//DTD SVG 1.0//EN" "http://www.w3.org/TR/2001/REC-SVG-20010904/DTD/svg10.dtd">
<svg xmlns="http://www.w3.org/2000/svg"  width="265" height="65" 
     xml:space="preserve" color-interpolation-filters="sRGB" fill="none">
	<title>Balanced Scorecard</title>
	<desc>Aus:  pres_030806.ppt TTC</desc>
	<style type="text/css">
		.st2 {fill:rgb(0,103,171);font-family:Verdana;font-size:20pt;font-style:italic;font-weight:bold}
	</style>
	<g>	
                <rect x="1" y="1" fill="none" stroke="black" width="264" height="64"/>
		<text x="18" y="29" class="st2">Basic Balanced</text>	
		<text x="50" y="55" class="st2">Scorecard</text>		
	</g>
</svg>

Abbildung 3: Dies als Grafik (Github: BalacedScorecard-3.svg)

BalancedScorecard-3.SVG

Balanced Scorecard als SVG

Beispiel für Fließtext

Fließtext wurde in SVG 1.2 neu eingeführt. Nicht alle SVG-Tools unterstützen dies.
SVG-Quellcode:

<?xml version="1.0" standalone="no"?>
<svg version="1.2" xmlns="http://www.w3.org/2000/svg"
    id="body" width="350" height="350">
  <title>SVG flowPara Example.</title>
  <g>
    <rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
    <flowRoot>
      <flowRegion>
        <rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
      </flowRegion>
      <flowDiv text-align="start">
        <flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
                  P1 The quick brown fox jumped over the lazy dog.</flowPara>
        <flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
                  P2 Gallia est omnis divisa in partes tres quarum unam incolunt Belgae.</flowPara>
        <flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
                  P3 a b c d e f g h i j k l m n o p q r s t u v w x y z</flowPara>
      </flowDiv>
    </flowRoot>
  </g>
</svg> 

Dies als SVG-Grafik mit Version 1.2 Elementen zum Fließtext.

Abbildung 4:  SVG-Grafik mit Fließtext (Google Archiv: xyz)

SVG Fließtext - Text Flow

SVG Fließtext – Text Flow

Da hier SVG 1.2 kan das SVG nicht als Original Flow-2.svg richtig angezeigt werden. Daher wir es in ein Flow-2.jpg umgewandelt (mit Inkscape und Libre Office Draw).

SVG Beispiele

 SVG Beispiel 1: Hello World

So sieht der SVG Quelltext aus:

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg width="260" height="60">
	<rect x="10" y="10" fill="blue" width="240" height="40"/>
	<text x="40" y="40" style="fill:gold; font-size:20pt">
		Hello World!
	</text>
</svg>

Diese SVG-Datei wurde als “normale” Grafik auf die WordPress Media Libray hochgeladen.

Das Einfügen dieser SVG-Grafik erfolgt dann in WordPress  “normal” über den “Add Media” Buttom im Editor (der dann ein HTML.IMG daraus macht):

Abbildung 5: Und so sieht die SVG-Grafik dann aus (Github: Helloworld.svg)

Helloworld.svg

SVG-Grafik Hello World

Abbildung 6: SVG Beispiel 2: Tageslänge (GitHub: Tageslaenge.svg)

Tageslaenge.svg

 

SVG Beispiel 3: RSS Family

Abbildung 7: Dies Beispiel stammt von der Seite: RSS (Github: Rss-family.svg)

Rss-family.svg

SVG Beispiel 4: SWISH Flash Animation

Abbildung 8: Dies SVG-Beispiel stammt von der Seite: SWiSH (Github: Swish_Flash_Animation.svg)

Swish_Flash_Animation.svg

Astrofotografie: Bildbearbeitung: Stacking – Calibration

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung , Belichtungszeit, DSS, Probleme Lösen mit Stacking, Mein Aufnahmeverfahren, Astro Pixel Processor
Benutzt: Fotos aus Google Archiv

Stand: 10.05.2023

Warum Stacking?

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.

Die Vorteile des Stackings sind:

  • Vermeidung von Nachführungsfehlern (Sterne werden Striche)
  • Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
  • Begrenzung des Effekts der Lichtverschmutzung
  • sonst noch was?  — Signal-Rausch-Verhältnis (SNR) —

Die beliebteste Software zum Stacken ist der Deep Sky Stacker “DSS” und der Astro Pixel Processor “APP”.

Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.

Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.

Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…

Z.B. die Software SharpCap beherrscht ein solches Live Stacking.

Links

http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

Welche Software kann Stacking?

Umgangssprachlich spricht man gerne vom “Stacking”;  eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.

Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:

  • Deep Sky Stacker
  • Sequator   (Windows only)
  • Fitswork   (eingestellt – Windows only)
  • PixInsight
  • MaxIm DL
  • Regim (Dank Java auch für Linux)
  • Siril   (Linux, Windows, MacOS)
  • Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
  • u.a.

Welche Kalibrierungs-Frames brauche ich?

Das Wichtigste sind die Flat Frames.

Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.

Welche Aufnahmen (“Frames”) muss ich machen?

Light Frames

So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.

Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.

Dark Frames

Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.

Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.

So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.

Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.

Darkframes – Dunkelbildabzug

Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45  Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.

Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.

Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:

Abbildung 1 und 2: DSS Dunkelbildabzug (Google Archiv: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)

Calibration: Lights without Darks

Calibration: Lights without Darks

Calibration: Lights with Darks

Calibration: Lights with Darks

Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:

  • Die Hotpixel werden eliminiert
  • Das Dunkelstrom-Signal wird eliminiert (abgezogen)
  • Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)

Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).

Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg

Flat Frames

Was ist ein “Flat Frame”?

Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.

Wofür benötigt man Flat Frames?

Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.

Wie fertigt man ein Flat Frame an?

Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.

Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.

Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).

Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.

Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.

Wie macht man Flat Frames mit APT?

Bias Frames (auch Offset Frames genannt)

Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.

Wofür benötigen wir Bias Frames?

Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.

Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.

Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.

Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.

Der Rat von Frank zum Thema Stacking:

Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!

So sieht Franks Zusammenfassung aus:  https://www.youtube.com/watch?v=rgZ5MTSHClU

Wie werden die Aufnahmen (Frames) richtig “gestackt”?

Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.

 

Astrofotografie: Der Meteorstrom der Perseiden

Gehört zu: Das Sonnensystem
Siehe auch: Welche Objekte?
Benutzt: Fotos aus Google Archiv

Stand: 15. Sep 2021

Perseiden: Beobachtung des Meteorstroms

Die Perseiden sind je ein sehr bekannter Sternschnupperstrom, den man Mitte August beobachten kann.

Generelle Vorbereitungen für das Fotografieren der Perseiden

Wann ist der günstigste Zeitpunkt; d.h. wann genau ist eigentlich in diesem Jahr das Maximum?

  • 2015: 12. Aug 2015
  • 2016: 12. Aug 2016
  • 2020: 12. Aug 2020

Wo ist ein günstiger Standort für die Beobachtung? z.B.

Welche Ausrüstung soll eingesetzt werden?

  • Kamera: Lichtstarker Sensor mit geringem Rauschen – Wechselobjektive
  • Objektiv: Weitwinkel z.B. Zenitar f=16mm, offene Blende 2,8
  • Stativ
  • Fernauslöser:     Infrarot  oder  WLAN mit iPad ?

Mit welchen Einstellungen sollen die Fotos geschossen werden?

Im Internet (http://praxistipps.chip.de/sternschnuppen-fotografieren-die-5-besten-tipps_39869)  liest man, die Sternschnuppen seine ja meistens “heller als die Sterne”. Das ist bei Belichtungszeiten größer 1/10 Sekunde Unsinn. Sternschnuppen bewegen sich und verteilen ihr Licht auf die ganze Spur, wohingegen Sterne ihr Licht auf den gleichen Punkt sammeln  für 30 Sekunden oder so…

  • Blende:  2,8 ganz auf!
  • Belichtungszeit: = 30 Sekunden    ==>  dann wird keine Nachführung benötigt:    Faustformel max. Belichtung = 500/Brennweite = 500/16 = 31,25 Sekunden
  • ISO 3200       Probefoto machen – ggf. eine Blende zu, dafür ISO hoch lassen

Alternativer Aufbau: Webcam

Ich habe ja eine Altair GPCAM mit einem sehr kurzbrennweitigen Objektiv, vom Hersteller genannt “Meteor Objektiv”…

12.8.2015 Perseiden

Im Jahre 2015 habe ich das erste mal versucht, dieses Ereignis fotografisch festzuhalten.

Standort:  Autobahnparkplatz Steinburg A23   http://www.google.de/maps?q=53.829788,9.632997

Ausrüstung/Daten: Sony-NEX5R Kamera mit einem Zenitar f=16mm Fisheye-Objektiv, Blende 2.8, ISO 3200, Belichtungszeit 30sec

Einige Beweis-Fotos:

Abbildung 1: Perseiden in Andromeda (Google Archiv: DK_20150812_05770_4.jpg)

Perseiden 2015

Perseiden 2015 – 00:22 MESZ: Metor saust durch die Andromeda – ISO 1600, 30 sec, Zenitar 16mm f/2.8, APS-C

Abbildung 2: Perseiden unterhalb Cassiopeia (Google Archiv: DK_20150812_05724_3.jpg)

Perseiden 2015

Perseiden 2015 – 23:41 MESZ: Kleiner Metor unterhalb von Cassiopeia – ISO 1600, 30 sec, Zenitar 16mm f/2.8, APS-C

Perseiden 2016

Datum: 12. Aug 2016

Standort: Handeloh

Ergebnis: NIX (schlechtes Wetter)

Perseiden 2020

Datum: 12. Aug 2020

Mondaufgang in Handeloh: 00:16 MESZ am 13.8.2020  (Alter23,6d)

 

Internet: Google Webmaster Tools: Google Analytics – Google AdWords

Gehört zu: Internet
Siehe auch: Google

Google Webmaster Tools

Alle gehosteten WebSites sind im Google Webmasters Tool registriert: http://www.google.com/webmasters/tools

und bei Google Analytics unter Google-Konto mit Tacking-IDs angemeldet: http://www.google.com/analytics/

Google Analytics

Anmelden bei Google Analytics:  http://www.google.com/analytics/

Als erstes benötigen wir ein Google-Konto. Das haben wir normalerweise schon…
Contine reading

Astrofotografie für Einsteiger: WebCam / Video-Kamera

Gehört zu: Astrofotografie
Siehe auch: Astro-Kameras
Benutzt: Fotos von Flickr, Fotos von Google Archiv

Stand: 15. Sep 2021

Die klassische WebCam für Astrofotografie

Video-Kameras sind in der Astrofotografie seit langer Zeit gebräuchlich, um z.B. Planeten zu fotografieren bzw. für “Autoguiding“.
Man nennt diese Video-Kameras auch generell “WebCam“, weil sie ihr Bild per USB-Kabel an einen Computer (Notebook) liefern.
Die Stromversorgung erfolgt über das USB-Kabel; zusätzlich ist für ein mögliches Autoguiding ein sog. ST4-Port an der VideoCam.

Die klassische WebCam ist eine Video-Kamera und wird deswegen vorrangig für Planetenfotografie eingesezt (siehe Lucky Imaging).
Für die Fotografie von Deep-Sky-Objekten (DSOs) benutzt man gerne spezielle Astrokameras, die über eine geregelte Kühlung verfügen.
Ein einfacher Einstieg in die Astrofotografie ist mit “normalen” Digitalkameras (DSLR) möglich.

So ganz klassische Kameras für Astrofotografie sind:

  • DMK 31 (CCD-Sensor, Pixelgröße 4,65 µm / 1024*768) von der Firma “The Imaging Source”
  • DMK 41  (CCD-Sensor, Pixelgröße 4,65 µm / 1280*960 )
  • ZWO ASI 120  (CMOS-Sensor Pixelgröße 3,75 µm / 1280*960 )
  • ZWO ASI 174  (CMOS-Sensor Pixelgröße 5,86 µm / 1936*1216 )

Fernrohrseitiger Anschluss meist ein C Mount – mitgeliefert wird ein Adapter C-Mount auf 1,25 Zoll Okularstutzen.

WebCams für Einsteiger in die Astrofotografie

Neuere Video-Kameras sind noch kleiner gebaut (“Salzstreuer”) und können einfach in einen Standard-Okularstutzen von 1,25 Zoll gesteckt werden.

  • AstroLumina  ALccd-QHY 5L-IIc (CMOS-Sensor, Pixelgröße 3,75 µm / 1280*960 )
  • Altair GPCAM (CMOS-Sensor, Pixelgröße 3,75 µm / 1280*960)

Als Einsteiger habe ich mich mal für die Altair GPCAM entschieden, welche einen CMOS-Sensor hat und bei der ein Objektiv (f=2,1mm) gleich mitgeliefert wird.

Beispiel 1: QHY 5L-IIc Kamera

Abbildung 1: ALccd5L-IIc Copyright Teleskop-Service (Google Archiv: TS-Service_Webcam.jpg)

TS-Service Webcam

TS-Service Webcam ALccd5L-IIc – Copyright Teleskop Service

Beispiel 2: Altair GPCAM MT9M034M

Abbildung 2: Altair GPCAM Copyright Teleskop-Service (Google Archiv: altair-gpcam-mt9m034m-explosion.jpg und altair-gpcam-1000.jpg)

Altair GPCAM Explosion

Altair GPCAM Explosion

Altair GPCAM

Altair GPCAM

Verwendung meiner WebCam

So eine Video-Kamera kann dann mit jeder Optik verwendet werden, die einen 1,25 Zoll Anschluss hat, beispielsweise

  • Mit eigenem 12mm Objektiv als elektronischer Sucher
  • Russentonne mit Adapter M42 auf 1,25 Zoll   –> verkauft
  • GuideScope 50   –> für AutoGuiding  =  Zukunftsmusik
  • LidlScope 70/700  –> als Spielerei – da liefert die Sony NEX-5R ein schöneres Bild  –> verkauft

Astrofotografie für Einsteiger: Auffinden von Beobachtungsobjekten – Pointing – Suchen – Goto

Gehört zu: Teleskope
Siehe auch: Auffinden / Suchen, Liste meiner Geräte, Fokussieren, Polar Alignment, Mindmap Astrofotografie
Benutzt: Fotos von Google Archiv

Stand: 10. Okt 2022

Die Aufgabe: Wie stelle ich das Beobachtungsobjekt in das Gesichtsfeld ein?

Das ist manchmal garnicht so einfach. Als ich das erste Mal die Große Magelansche Wolke fotografieren wollte, hatte ich das Problem, das ich das Biest mit bloßem Auge nur sehr schwach sehen konnte und die Ausrichtung der Kamera (Sony NEX-5R auf Kugelkopf) war mühsam.

Bei der Astrofotografie bedarf es zweier Fähigkeiten für einen Regelkreis zur Positionierung (das Einstellen eines Bildausschnitts wird “Framing” genannt):

  • Erkennen wie mittig das (evtl. kaum sichtbare) Beobachtungsojekt im Gesichtsfeld “sitzt”?   (Feststellen Differenz Soll-Ist)
  • Verstellen der Ausrichtung der Kamera / des Teleskops  (Verändern Ist in Richtung Soll)

Die Ausrichtung auf ein Beobachtungsobjekt wird auch engl. gern “Pointing” genannt. Neben dem manuellen ggf. durch Technik unterstützem Pointing gibt es das vollautomatische computergestützte Pointing, was auch gerne “Goto” genannt wird.

Wo genau steht das Beobachtungsobjekt?

Aus der lokalen Sternzeit kann man leicht die Position eines Objekts am Himmel berechnen als Deklination und Stundenwinkel und dann mit einer richtig aufgestellten (s. Polar Alignment) parallaktischen Montierung auf das Objekt fahren.

Wenn man es ganz genau machen will, muss man allerdings ein paar “Kleinigkeiten” zusätzlich berücksichtigen:

  • Präzession (50″ / Jahr)  –> J2000 vs. JNow
  • Nutation
  • Jährliche Abberation
  • Eigenbewegung des Objekts
  • Geografische Position des Beobachters
  • Atmosphäre

Genauigkeit des Pointing

Die Genauigkeit einer Pointing-Methode wird als “mittlere” Abweichung der Teleskop-Position von der Objekt-Position angegeben, wobei “mittlere” gern als “RMS” (Root Mean Square, Wurzel aus dem Mittelwert der Abweichungsquadrate) bezeichnet wird; d.h. 60% der Messungen leigen unterhalb von RMS.  Im Amateurbereich wird eine RMS von 30″ als hervorragend angesehen.

Erforderliche Genauigkeit – Gesichtsfeld

Praktisch hängt die Genauigkeit mit der auf das Beobachtungsobjekt positioniert werden soll wesentlich von der Größe des Gesichtsfelds des verwendeten Objektivs  ab. Eine Genauigkeit von 20% des Gesichtsfeldes würde ich für gut halten, 10% wären ein sehr guter Wert.

  • LidlScope 700mm mit APS-C-Sensor: 1,9 x 1,3 Grad   –> sehr gute Ausrichtung: 11′
  • Russentonne 500mm mit APS-C-Sensor:   2,7 x 1,8 Grad  –> sehr gute Ausrichtung: 16′
  • Beroflex 300mm mit APS-C Sensor: 4,5 x 3,0 Grad –> sehr gute Ausrichtung: 27′
  • Takumar 135mm mit APS-C-Sensor:  9,9 x 6,6 Grad –> sehr gute Ausrichtung: 59′
  • Olympus G.ZUIKO 50mm mit APS-C-Sensor: 26,6 x 17,7 Grad  –> Objekt LMC  –> sehr gute Ausrichtung:  2,7°
  • Vivitar 24mm mit APS-C-Sensor:  52,2 x 36,0 Grad   –> Objekte Polarlichter, Milchstraße  –>sehr gute Ausrichtung: 5,2°

Techniken zur Positionierung auf das Beobachtungsobjekt

Technik #1: Positionieren mit Live-View und höherer ISO-Einstellung

Beispiel “Großen Magellanschen Wolke” in Trafalgar

Mit einer höheren ISO-Einstellung wird das etwas schwache Objekt dann im Live View gut sichtbar.

Es bleibt das Problem des feinen Verstellens der Kamera-Richtung. Auf einem gewöhnlichen Kugelkopf ist das fummelig, weil man nicht in einer Richtung hin und her stellen kann – und damit leider nicht Fehler leicht korrigieren kann. Besser wäre ein Kopf mit dem ich in zwei festen Achten fein hin und her stellen kann – so etwas nennt man “Neigekopf“.

Technik #2: Positionieren mit einem konventionellen Sucherfernrohr

Z.B. Kleines Sucherfernrohr TS-Optics 6×30 gradsichtig

https://www.teleskop-express.de/shop/product_info.php/info/p294_TS-Optics-6×30-Sucher-mit-Halter—schwarz–geradsichtig.html

Wichtig ist es, den Sucher parallel zum Hauptfernrohr einzustellen. Wenn man im Hauptteleskop einen Stern mittig im Gesichtsfeld eingestellt hat, kann man das Sucherfernrohr so justieren, dass der gleiche Stern ebenfalls mittig dort im Fadenkreuz steht. Damit man in der dunklen Nacht nicht zuviel herumprobieren muss, empfiehlt es sich diese Justage des Suchers schon am Tage an einem entfernten Objekt “grob” vorzunehmen.

So ein “optischer” Sucher kann z.B. dazu dienen, einen hellen Stern einzustellen, an dem man dann die genaue Fokussierung vornimmt.

Technik #3: Positionieren per Goto-Funktion der Montierung

Eine gut funktionierende motorische Goto-Montierung ersetzt den Sucher. Man benötigt keinen Sucher mehr und kann ihn verkaufen :-). Deshalb habe ich mir die iOptron SmartEQ Pro gekauft. Seit Juli 2017 habe ich auf eine Skywatcher HEQ5 Pro aufgerüstet. Allerdings ist jedesmal ein Goto Alignment erforderlich, wo man auch Sterne in das Zentrum des Gesichtsfelds stellen muss. Dafür benötigt man ggf. doch einen Sucher.

Technik #4: Positionieren mit Platesolving

Da ich meine Astrofotos sowieso mit dem Windows-Computer und entspechender Aufnahme-Software, wie APT, Sequence Generator Pro, AstroTortilla, mache, ist für mich das bequemste das Platesolving. Durch so ein Platesolving wissen wir also genau, wohin unsere Kamera (unser Teleskop) in dem Moment der Aufnahme (“Ist-Position”) zeigt.

Damit das motorische Goto der Montierung funktioniert, ist es zusätzlich erforderlich, dass die Montierung in Information hat, wohin sie zeigen sollte (“Soll-Position”). Erst dann kann man per SYNC beides zur Deckung bringen.

Welche Soll-Position die Montierung als Information hat, kann uns beispielsweise ein Planetariumsprogramm wie Cartes du Ciel zeigen.

Technik #5: Positionieren mit dem Leuchtpunktsucher

Hierzu habe ich einen separaten Artikel geschrieben: Leuchtpunktsucher

Technik #6: Positionieren mit einem Elektronischer Sucher / Digitaler Sucher

Als elektronischen Sucher habe ich mir eine USB-Kamera “Altair GP-CAM” gekauft und dazu ein Objektiv mit f=12mm. Das ergibt ein Sucher-Gesichtsfeld von 23° x 17°. das ich im Live View per Software (z.B. SharpCap) auf meinem Window-Computer betrachten kann. Bei ShapCap kann ich auch ein Fadenkreuz einblenden. Zu perfekten Glück fehlen dann noch:

  • Der Montagekopf (Zwei-Wege-Neiger) muss eine feinfühlige Richtungsverstellung in zwei festen Achsen ermöglichen
  • Die Aufnahmeoptik muss parallel zum elektronischen Sucher ausgerichtet sein

Diese Technik verwende ich nicht, da es mit Technik #4 (Platesolving) super einfach und schnell geht.

Beispiele zur Positionierung auf Beobachtungsobjekte

Olympus G.ZUIKO f=50mm mit Sony NEX-5R z.B. LMC

Am 1.3.2014 konnte ich die Große Magellansche Wolke (Large Magellanic Cloud = LMC) von Trafalgar, Südafrika aus fotografieren.
Damit das Beobachtungsobjekt (die LMC) schön in die Bildmitte kommt, mussten zuerst Anfnahmen mit hoher ISO gemacht werden, damit das Beobachtungsobjekt auf dem Bildschirm sichtbar wird.

Abbildung 1: Große magellansche Wolke (Google Archiv: DK_20140301_lmc2_3smaller.jpg)

LMC Trafalgar

Trafalgar: LMC Large Magellanean Cloud

Objekte finden mit Russentonne f=500mm und Sony NEX-5R

Das Gesichtsfeld der Russentonne ist klein (1,8 x 2,7 Grad). Es wird schwierig werden, damit gut auf ein Beobachtungobjekt zu positionieren. Ich habe ja meinen Rotpunkt-Sucher, der auf dem Blitzschuhschlitten der Kamera sitzt. Das passt auch mit der Russentonne.

Mit dem Rotpunktsucher sollte eine grobe Positionierung auf ein Objekt möglich sein. Eine Feinpositionierung müsste mit dem Smart Remote Contol und dem Live View auf dem iPad möglich sein, wenn man vielleicht das ISO für diesen Zweck etwas aufdreht. Bei mit sitzt die Russentonne allerdings auf einem Kugelkopf, der auf der Nachführung SkyTracker sitzt. Mit dem Kugelkopf ist eine solche “Feinpositionierung” nur ganz schwer möglich.

Objekte finden mit Takumar f=135mm und Sony NEX-5R

Wir gehen von folgendem Szenario aus:

  • Aufnahmekamera: Sony NEX-5R mit Objektiv Takumar 135mm  (=> Gesichtsfeld 9,9° x 6,6°) und Smart Remote Control per iPad
  • Sucherkamera: GP-CAM mit Objektiv f=12mm angeschlossen per USB an Notebook (=> Gesichtsfeld 22° x 17°)
  • Montierung: iOptron SmartEQ pro – parallaktisch – mit zwei Servomotoren (Stellmotoren)
  • PC (Notebook) mit Windows 10 & SharpCap

Abbildung 2: Der Aufbau sieht so aus (Google Archiv: DK_20160531_0638.jpg)

iOptron SmartEQ

iOptron SmartEQ, Sony NEX 5R mit 135mm Takumar und GP-CAM als elektronischem Sucher

Schritt 1: Vorbereitung am Tage:

  • Batterie der Kamera: Aufladen und Ersatzbatterie bereitlegen
  • Kamera: Sensor reinigen
  • Batterie des iPads: Aufladen und ggf. Mobil-Akku bereitstellen
  • 12V-Akku für Montierung: Aufladen und Kabel bereitlegen
  • Notebook-Computer: Batterie aufladen

Schritt 2: Justieren so dass Sucher und Aufnahmekamera parallel:

  • Gleich nach dem Einnorden kann der Polarstern benutzt werden, um die Parallelität der beiden Geräte zu justieren
  • Beide Geräte werden fokussiert, sodass die Sterne scharf zu sehen sind
  • Fadenkreuz wird auf beiden Geräten angeschaltet..
    • Sony PlayMemories Mobile: Einstellungen => Gitterlinie => 4×4 Raster + Diagonale
    • SharpCap:  Tool-Leiste: Switch between different styles of reticule overlay

Abbildung 3: SharpCap with reticule overlay (Google Archiv: SharpCap_Reticule.jpg)

SharpCap Recticule

SharpCap Recticule (Fadenkreuz)

Sony PlayMemories Mobile: Einstellungen Gitter:

Abbildung 4: Sony PlayMemories auf dem iPad (Google Archiv: iPad_PlayMemoriesGitter.jpg)

iPad Sony PlayMemories Gitter

Sony Software auf iPad Gitter mit Fadenkreuz

Im Prinzip funktioniert nun mein elektronischer Sucher: ich kann ein Objekt ins Gesichtsfeld des Suchers einstellen und bei der Kamera sollte es dann auch im Gesichtsfeld sein.

Schritt 3: SharpCap Einstellungen für optimalen Sucher

Ich muss mein SharpCap nur noch so einstellen, dass schön viele Sterne auf dem Notebook-Bildschirm sichtbar werden.
Das Minimum-Ziel ist es, Sterne bis 4. Größenklasse im Sucher (Notebook Bildschirm) gut sichtbar zu machen.

Dazu stelle ich für meine Altair GPCAM in SharpCap folgendes ein:

  • Einzelbild (“still”)
  • Belichtungszeit: 5 sec
  • Gain:  so hoch wie möglich (solange das Bild nicht zu hell wird)
  • XYZ:    ?????

yyyyyy