Astronomie: LOFAR Station in Norderstedt – Digitale Radioastronomie

Gehört zu: Astronomie
Benutzt:  Fotos aus Google Drive

Stand: 25.04.2023

LOFAR – Digitale Radioastronomie

Vortrag zu LOFAR

17.6.2015 Sternwarte Bergedorf, Prof. Brüggen: Radioastronomie mit LOFAR

17.8.2016 Sternwarte Bergedorf, Dr. Engels

Was ist LOFAR?

LOFAR = Low Frequency Array

LOFAR-Zentrum: Firma Astron in den Niederlanden

LOFAR-Stationen in England, Frankreich, Schweden und Deutschland

Abbildung 1: Landkarte der LOFAR Teleskope (Google David: LOFAR-international-stations-on-map-Europe.jpg)


LOFAR Stationen in Europa (Cpoyright: Astron)

Eine LOFAR-Station besteht aus einem Feld von kleinen einfachen Dipol-Antennen. LOFAR-Stationen sind über ganz Europa verteilt, wodurch  eine Basis von vielen hundert Kilometern entsteht.

Die Signale der Stationen werden zusammen mit exakten Timestamps von Rubidium-Atom-Uhren digitalisiert  und über 10 Gbit/s Glasfaser über Jülich zur Zentrale in den Niederlanden geschickt, wo sie real-time mit Hilfe eines Supercomputers “BlueGene” von IBM ( PetaFLOP-Bereich) per Software ausgewertet werden.

Die inferometrische Auswertung per Software setzt die Signale der Stationen unter Berücksichtigung der verschiedenen Laufzeiten phasengerecht zu einem Signal zusammen, das von der  Auflösung einem Teleskop der Größe der Basis entspricht. Das nennt das auch “Aperture synthesis”. Dadurch wird  eine Auflösung (Bildschärfe) im Bereich einer Bogensekunde erreicht, was vor LOFAR bei diesen Wellenlängen (Bereich von 1,5 Metern oder mehr) nicht möglich war.

Obwohl die Dipol-Antennen eine feste Ausrichtung haben (keine beweglichen Teile), können verschiedene Richtungen am Himmel über software-mäßige Verarbeitung des digitalen Signals angepeilt werden (sog. “Multi Beaming”).

https://lofar.physik.uni-bielefeld.de/index.php/en/

https://www.glowconsortium.de/index.php/en/lofar-about

http://www.astro.ru.nl/~falcke/LOFAR/lofar_artikel.htm

LOFAR-Station Norderstedt

Die LOFAR-Station in Norderstedt befindet sich in der keinen Straße Harthagen und ist seit Januar 2015 in Betrieb.

Die Einweihungsfeier soll am 9.9.2015 um 11 Uhr stattfinden.

Abbildung 2: LOFAR Station in Norderstedt (Google Drive: Lofar_20150618_05475_stitch.jpg)


LOFAR Norderstedt

LOFAR-Station in Effelsberg

Besuch beim Radioteleskop Effelsberg

LOFAR Forschungsauftrag – Key Science Projects

Epoch of Reionization  ––  Die sog. Epoch of Reionization (EoR) begann vor 13,2 GigaYears mit einer Rotverschiebung von  z=10. Das heisst, die 21cm Radiostrahlung des neutralen Wasserstoffs  kommt mit einer Wellenlänge von 2,1m bei uns an.

Deep Extragalactic Surveys – Hochempfindliche Kartierung aller Radioquellen (Galaxien, Schwarze Löcher etc.) am Himmel

Transient Sources – Radioquellen, die eine kurzzeitliche Variabilität aufweisen

Kosmische Magnetfelder – Stellare und galaktische Magnetfelder

Ulta high cosmic rays – Partikel mit hoher Energie (1015 – 1020 eV), die auch sog. “Air Shower” hervorrufen (Synchrotron Strahlung, Elektronen mit fast Lichtgeschwindigkeit (relativistisch))

Solar Physics and Space Weather – Die Sonne als Radioquelle mit e.g. Flares, Coronar Mass Ejections etc.

Hintergrund: Epochen der Entwicklung des Universums

  • Urknall
  • Inflation
  • Dark Ages – noch keine Sterne, “nur” neutraler Wasserstoff mit 21cm Radio-Strahlung
  • Epoch of Reionization  – erste Sterne d.h. erstmals Licht im Universum, die Strahlung ionisiert den Wasserstoff
  • Development of Galaxies

http://www.lofar.org/astronomy/eor-ksp/epoch-reionization

http://www.weltderphysik.de/gebiet/astro/teleskope-und-satelliten/lofar/

http://map.gsfc.nasa.gov/media/060915/index.html

Andere Projekte

  • Südafrika: SALT = Southern African Large Telescope  in Sutherland
  • SKA: Square Kilometre Array  (LOFAR sollte ein vorbereitendes Projekt für SKA sein)
    • Teil in Westaustralien
    • Teil in Südafrika

Computer: Evolution from B2/Cafelog to WordPress 1.0

Gehört zu: WordPress

Evolution of WordPress: B2/Cafelog to WordPress 1.0

by Keith Dsouza on July 14th, 2008 in WordPress

A few days ago we had told you what you should know about WordPress 2.6. The post described new features that will be introduced shortly in WordPress 2.6. Though there are several new features that you may like in this new version, there might be many that have gone unnoticed that were introduced in the earlier versions of WordPress. To quell the anticipation that users might have for the latest version, we wanted to write a series of posts that will cover WordPress from its infancy to WordPress 2.5 (the latest major version) that many of you use.

The WordPress team has been naming their major releases after popular Jazz legends and we will take a look at code names for the past releases. Contine reading

Computer: Adobe Flash Player – Shockwave – in Mozilla Firefox

Gehört zu: Vektorgrafiken
Siehe auch: SWF, SVG
Benutzt: Grafiken aus GitHub

Meine Vektorgrafiken als SWF oder SVG

My older websites do use vector graphics in Shockwave format – originally produced by Feehand and converted from .fla to .swf

In the long run I am planning to convert .swf to a more open and modern format ( like .svg or html5 or ….)

At the moment I want to keep my older websites “alive”, so I need to know how to embed SWF-files in HTML and how to render them in the important Web Browsers (Mozilla Firefox,…)

My traditional website, that I want to keep “alive” is:  http://www.kr8.de (original) resp. http://web.kr8.de (converted to bootstap).

Adobe Flashplayer

As I understood, I need Adobe Flashplayer as a plugin into my web browser in order to render my SWF graphics properly.

My favorite web browser is Mozilla Firefox. With Firefox version 43.04 I was unable to install the Adobes Flashplayer plugin.
With Mozilla Firefox 28.0 the installation of the Adobe Flash Plugin went well. To be exact: I installed Shockwave Flash 22.0.0.209 as a plugin to Mozilla Firefox 28.0.

Rendering SWF in HTML

My SWF files showed up perfectly on my HTML-Pages in Mozilla Firefox.
Example: http://web.kr8.de/ldap.html

This is the code I used for embedding the SWF into the HTML:

<object align=”left” classid=”clsid:D27CDB6E-AE6D-11cf-96B8-444553540000″ codebase=”http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=5,0,0,0″ width=”294″ height=”126″>
<param name=”movie” value=”img/ldap.swf” />
<param name=”wmode” value=”transparent” />
<param name=”quality” value=”high” />
<embed quality=”high” pluginspage=”http://www.macromedia.com/shockwave/download/index.cgi?P1_Prod_Version=ShockwaveFlash” type=”application/x-shockwave-flash” src=”img/ldap.swf” width=”294″ height=”126″  wmode=”transparent” />
</embed>
</object>

Potential Problems

  • Use the right file path in the SRC parameter e.g. src=”img/ldap.swf”
  • Use wmode=”transparent”
  • Other Firefox-Plugins may interfere with the Shockwave Flash plugin, e.g. Shockwave Director or others…

Als SVG-Grafik geht es ganz einfach

Wenn wir statt Shockwave das SVG-Format nehmen, geht es einfacher, wobei wir SVG in der WordPress Media Library oder auch in GitHub speichen können:

Abbildung 1: LDAP-Schema (WordPress Media Library : ldap.svg)

Abbildung 2: LDAP-Schema (GitHub: ldap.svg)

Ldap.svg

Computer: Graphics in MediaWiki

Gehört zu: Web-Authoring
Siehe auch: Vektorgrafiken, MediaWiki, WordPress

Status: Statt MediaWiki verwende ich jetzt WordPress

Graphiken in MediaWikiZeichnungen (Drawings)

Auch in MediaWiki möchte man ja ab und zu auch schöne Vektorgrafiken einbauen – nicht nur Pixel-Bilder.

Je nach Format (SVG, SWF, ODG, VSD, PPT,…) sind da unterschiedliche Lösungen möglich, wo bei schon das Upload solcher Grafiken ein Problemchen sein kann.

 Upload von Grafiken auf MediaWiki (SVG, SWF, PDF,…)

Damit man Vektorgrafiken auf MediaWiki hochladen kann, müssen einige Einstellungen vorgengenommen werden.

 php.ini

file_uploads = On 
post_max_size = 20M
upload_max_filesize = 20M

 LocalSettings.php

$wgEnableUploads = true    -->  (dann erscheint links die Klick-Zeile "Upload")
$wgFileExtensions = array('png','gif','jpg','jpeg','pdf','svg','swf','mp3','ogg');

Manchmal gibt es Probleme mit der Erkennung des richtigen MIME-Types. Dann kann man folgendes versuchen:

$wgVerfiyMimeType = false;
$wgMimeDetectorCommand = 'file -bi';
in httpd.conf bzw. .htaccess:  AddType image/svg+xml svg

Contine reading

Computer: SVG Vektorgrafiken (aus Wiki)

Gehört zu: Vektorgrafik
Siehe auch: Graphics in WordPress
Benutzt: Grafiken aus Github, Fotos aus Google Drive

Stand: 15. Sep 2021

SVG Scalable Vector Graphics (aus Wiki)

  • SVG ist ein auf XML beruhender W3C-Standard für VektorGrafik.
    • SVG 1.0: 2001
    • SVG 1.1: 2003
    • SVG 1.2: 2005
    • SVG 2.0: hieran wird seit 2011 gearbeitet (“Candidate Recommendation”)
  • SVG wurde sehr stark von der Firma Adobe unterstützt. Zum 1.1.2008 hat Adobe “End of Life” verkündet.
  • SVG hat als offenes; d.h. nicht-proprietäres Format große Unterstützung durch OpenSourceSoftware
  • SVG wird von MediaWiki unterstützt
  • SVG wird von WordPress unterstützt
  • WebBrowser unterstützen SVG auch…?
  • Konkurrierend zu SVG ist: Flash von Macromedia (aufgekauft von Adobe)

SVG-Dateien sind keine binären Dateien, sondern Text-Dateien, die also auch mit normalen Text-Editoren bearbeitet werden können.
Solche SVG-Dateien sind “normale” XML-Dateien mit dem besonderen Namespace SVG.

SVG tat sich anfangs sehr schwer, da Flash der Industrie-Standard war.
SVG 1.1 enthielt lediglich eingie Korrekturen zu 1.0
SVG 1.2 wurde nie offiziell fertiggestellt.
SVG 2.0 soll der neue Super-Standard werden – als Teil von HTML5

SVG Grafiken Einbetten in…

 Bekannte Probleme mit SVG

  • Darstellung von Pfeilspitzen an Linien
  • Welche Schrifttypen werden unterstützt?
  • Darstellung von Fließtext (ab SVG 1.2 möglich)

 Weblinks zu SVG

SVG-Viewer

SVG-Grafiken bis Verson 1.1 können z.B. in Mozilla Firefox betrachtet (“Rendering”) werden. Auch Google Drive…

SVG-Grafiken Erstellen und Bearbeiten

Ich benutzte zur Zeit (Feb. 2020) das SVG-Tool Inkscape. Leider wurden in Inkscape schon einige Elemente von SVG 1.2 implementiert, die aber nie definitiv verabschiedet wurden. Dazu gehören: flowRoot, flowRegion und flowPara…

Dies sind Fliesstext-Konstrukte, die von den Vertretern im W3C sehr kontrovers diskutiert wurden und schließlich nicht in den SVG-Standard aufgenommen wurden. Wir müssen bei Inkscape also aufpassen und ggf. solche Konstrukte entfernen und durch einfachere Konstrukte von SVG 1.1 ersetzen.

SVG die ersten Schritte

  • Koordinatensystem
    • X-Achse waagerecht vom linken Bildrand nach rechts
    • Y-Achse senkrecht vom oberen Bildrand nach unten
  • Elemente
    • Rechteck
    • Text, auch Fließtexte
    • Bezierkurven
    • Kreis, Ellipse, Bogen
    • Pfad
    • Pfeilspitzen ????????

Beispiel für einen Pfad

Pfad aus “M” (=move to) und “L” (= line to):

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg xmlns="http://www.w3.org/2000/svg" version="1.0" 
     width="200" height="300">
  <path stroke="black" stroke-width="1px" fill="none"
     d="M 50,250 L 50,150 L 100,77.5 L 150,150 L 55,150 L 150,250 L 54.5,250 L 150,154 L 150,246"/>
</svg>

Abbildung 1: Dies als Grafik in SVG-Format (Github: DasHausvomNikolaus.svg)
DasHausvomNikolaus.svg

Beispiel für Bogenstücke

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg xmlns="http://www.w3.org/2000/svg" version="1.1" width="300" height="300">
<g stroke="black" stroke-width="1" fill="none">
<path d="M150 50 A100 100 0 0 0 50 150" />
<path d="M0 150 L150 150" stroke="red"/>
<path d="M150 0 L150 150" stroke="blue" />
<path d="M50 200 A50 50 0 0 1 100 250" />
<path d="M50 160 L50 300 M0 250 L150 250" stroke="gray"/>
</g>
</svg>

Abbildung 2: Dies als Grafik in SVG-Format (Github: Pathwitharcs.svg)

Pathwitharcs.svg

SVG mit Bogenstücken

Beispiel für zwei einzelne Textzeilen

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<!DOCTYPE svg PUBLIC "-//W3C//DTD SVG 1.0//EN" "http://www.w3.org/TR/2001/REC-SVG-20010904/DTD/svg10.dtd">
<svg xmlns="http://www.w3.org/2000/svg"  width="265" height="65" 
     xml:space="preserve" color-interpolation-filters="sRGB" fill="none">
	<title>Balanced Scorecard</title>
	<desc>Aus:  pres_030806.ppt TTC</desc>
	<style type="text/css">
		.st2 {fill:rgb(0,103,171);font-family:Verdana;font-size:20pt;font-style:italic;font-weight:bold}
	</style>
	<g>	
                <rect x="1" y="1" fill="none" stroke="black" width="264" height="64"/>
		<text x="18" y="29" class="st2">Basic Balanced</text>	
		<text x="50" y="55" class="st2">Scorecard</text>		
	</g>
</svg>

Abbildung 3: Dies als Grafik (Github: BalacedScorecard-3.svg)

BalancedScorecard-3.SVG

Balanced Scorecard als SVG

Beispiel für Fließtext

Fließtext wurde in SVG 1.2 neu eingeführt. Nicht alle SVG-Tools unterstützen dies.
SVG-Quellcode:

<?xml version="1.0" standalone="no"?>
<svg version="1.2" xmlns="http://www.w3.org/2000/svg"
    id="body" width="350" height="350">
  <title>SVG flowPara Example.</title>
  <g>
    <rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
    <flowRoot>
      <flowRegion>
        <rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
      </flowRegion>
      <flowDiv text-align="start">
        <flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
                  P1 The quick brown fox jumped over the lazy dog.</flowPara>
        <flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
                  P2 Gallia est omnis divisa in partes tres quarum unam incolunt Belgae.</flowPara>
        <flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
                  P3 a b c d e f g h i j k l m n o p q r s t u v w x y z</flowPara>
      </flowDiv>
    </flowRoot>
  </g>
</svg> 

Dies als SVG-Grafik mit Version 1.2 Elementen zum Fließtext.

Abbildung 4:  SVG-Grafik mit Fließtext (Google Drive: flow-2.jpg)


SVG Fließtext – Text Flow

Da hier SVG 1.2 kann das SVG nicht als Original Flow-2.svg richtig angezeigt werden. Daher wir es in ein Flow-2.jpg umgewandelt (mit Inkscape und Libre Office Draw).

SVG Beispiele

 SVG Beispiel 1: Hello World

So sieht der SVG Quelltext aus:

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg width="260" height="60">
	<rect x="10" y="10" fill="blue" width="240" height="40"/>
	<text x="40" y="40" style="fill:gold; font-size:20pt">
		Hello World!
	</text>
</svg>

Diese SVG-Datei wurde als “normale” Grafik auf die WordPress Media Libray hochgeladen.

Das Einfügen dieser SVG-Grafik erfolgt dann in WordPress  “normal” über den “Add Media” Buttom im Editor (der dann ein HTML.IMG daraus macht):

Abbildung 5: Und so sieht die SVG-Grafik dann aus (Github: Helloworld.svg)

Helloworld.svg

SVG-Grafik Hello World

Abbildung 6: SVG Beispiel 2: Tageslänge (GitHub: Tageslaenge.svg)

Tageslaenge.svg

 

SVG Beispiel 3: RSS Family

Abbildung 7: Dies Beispiel stammt von der Seite: RSS (Github: Rss-family.svg)

Rss-family.svg

SVG Beispiel 4: SWISH Flash Animation

Abbildung 8: Dies SVG-Beispiel stammt von der Seite: SWiSH (Github: Swish_Flash_Animation.svg)

Swish_Flash_Animation.svg

Astrofotografie: Bildbearbeitung: Stacking – Calibration

Gehört zu: Astrofotografie
Siehe auch: Bildbearbeitung , Belichtungszeit, DSS, Probleme Lösen mit Stacking, Mein Aufnahmeverfahren, Astro Pixel Processor
Benutzt: Fotos aus Google Archiv

Stand: 10.05.2023

Warum Stacking?

Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.

Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.

Die Vorteile des Stackings sind:

  • Vermeidung von Nachführungsfehlern (Sterne werden Striche)
  • Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
  • Begrenzung des Effekts der Lichtverschmutzung
  • sonst noch was?  — Signal-Rausch-Verhältnis (SNR) —

Die beliebteste Software zum Stacken ist der Deep Sky Stacker “DSS” und der Astro Pixel Processor “APP”.

Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.

Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.

Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…

Z.B. die Software SharpCap beherrscht ein solches Live Stacking.

Links

http://lightwatching.de/astrofotografie-mit-der-dslr-teil-2-richtig-stacken/

Welche Software kann Stacking?

Umgangssprachlich spricht man gerne vom “Stacking”;  eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.

Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:

  • Deep Sky Stacker
  • Sequator   (Windows only)
  • Fitswork   (eingestellt – Windows only)
  • PixInsight
  • MaxIm DL
  • Regim (Dank Java auch für Linux)
  • Siril   (Linux, Windows, MacOS)
  • Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
  • u.a.

Welche Kalibrierungs-Frames brauche ich?

Das Wichtigste sind die Flat Frames.

Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.

Welche Aufnahmen (“Frames”) muss ich machen?

Light Frames

So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.

Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.

Dark Frames

Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.

Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.

So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.

Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.

Darkframes – Dunkelbildabzug

Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45  Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.

Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.

Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:

Abbildung 1 und 2: DSS Dunkelbildabzug (Google Drive: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)


Calibration: Lights without Darks

Calibration: Lights with Darks

Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:

  • Die Hotpixel werden eliminiert
  • Das Dunkelstrom-Signal wird eliminiert (abgezogen)
  • Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)

Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).

Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg

Flat Frames

Was ist ein “Flat Frame”?

Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.

Wofür benötigt man Flat Frames?

Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.

Wie fertigt man ein Flat Frame an?

Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.

Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.

Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).

Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.

Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.

Wie macht man Flat Frames mit APT?

Bias Frames (auch Offset Frames genannt)

Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.

Wofür benötigen wir Bias Frames?

Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.

Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.

Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.

Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.

Der Rat von Frank zum Thema Stacking:

Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!

So sieht Franks Zusammenfassung aus:

Wie werden die Aufnahmen (Frames) richtig “gestackt”?

Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.

 

Astrofotografie: Der Meteorstrom der Perseiden

Gehört zu: Das Sonnensystem
Siehe auch: Welche Objekte?
Benutzt: Fotos aus Google Drive

Stand: 15. Sep 2021

Perseiden: Beobachtung des Meteorstroms

Die Perseiden sind je ein sehr bekannter Sternschnupperstrom, den man Mitte August beobachten kann.

Generelle Vorbereitungen für das Fotografieren der Perseiden

Wann ist der günstigste Zeitpunkt; d.h. wann genau ist eigentlich in diesem Jahr das Maximum?

  • 2015: 12. Aug 2015
  • 2016: 12. Aug 2016
  • 2020: 12. Aug 2020

Wo ist ein günstiger Standort für die Beobachtung? z.B.

Welche Ausrüstung soll eingesetzt werden?

  • Kamera: Lichtstarker Sensor mit geringem Rauschen – Wechselobjektive
  • Objektiv: Weitwinkel z.B. Zenitar f=16mm, offene Blende 2,8
  • Stativ
  • Fernauslöser:     Infrarot  oder  WLAN mit iPad ?

Mit welchen Einstellungen sollen die Fotos geschossen werden?

Im Internet (http://praxistipps.chip.de/sternschnuppen-fotografieren-die-5-besten-tipps_39869)  liest man, die Sternschnuppen seine ja meistens “heller als die Sterne”. Das ist bei Belichtungszeiten größer 1/10 Sekunde Unsinn. Sternschnuppen bewegen sich und verteilen ihr Licht auf die ganze Spur, wohingegen Sterne ihr Licht auf den gleichen Punkt sammeln  für 30 Sekunden oder so…

  • Blende:  2,8 ganz auf!
  • Belichtungszeit: = 30 Sekunden    ==>  dann wird keine Nachführung benötigt:    Faustformel max. Belichtung = 500/Brennweite = 500/16 = 31,25 Sekunden
  • ISO 3200       Probefoto machen – ggf. eine Blende zu, dafür ISO hoch lassen

Alternativer Aufbau: Webcam

Ich habe ja eine Altair GPCAM mit einem sehr kurzbrennweitigen Objektiv, vom Hersteller genannt “Meteor Objektiv”…

12.8.2015 Perseiden

Im Jahre 2015 habe ich das erste mal versucht, dieses Ereignis fotografisch festzuhalten.

Standort:  Autobahnparkplatz Steinburg A23   http://www.google.de/maps?q=53.829788,9.632997

Ausrüstung/Daten: Sony-NEX5R Kamera mit einem Zenitar f=16mm Fisheye-Objektiv, Blende 2.8, ISO 3200, Belichtungszeit 30sec

Einige Beweis-Fotos:

Abbildung 1: Perseiden in Andromeda (Google Drive: DK_20150812_05770_4.jpg)


Perseiden 2015 – 00:22 MESZ: Metor saust durch die Andromeda – ISO 1600, 30 sec, Zenitar 16mm f/2.8, APS-C

Abbildung 2: Perseiden unterhalb Cassiopeia (Google Drive: DK_20150812_05724_3.jpg)


Perseiden 2015 – 23:41 MESZ: Kleiner Metor unterhalb von Cassiopeia – ISO 1600, 30 sec, Zenitar 16mm f/2.8, APS-C

Perseiden 2016

Datum: 12. Aug 2016

Standort: Handeloh

Ergebnis: NIX (schlechtes Wetter)

Perseiden 2020

Datum: 12. Aug 2020

Mondaufgang in Handeloh: 00:16 MESZ am 13.8.2020  (Alter 23,6d)

 

Internet: Google Webmaster Tools: Google Analytics – Google AdWords

Gehört zu: Internet
Siehe auch: Google

Google Webmaster Tools

Alle gehosteten WebSites sind im Google Webmasters Tool registriert: http://www.google.com/webmasters/tools

und bei Google Analytics unter Google-Konto mit Tacking-IDs angemeldet: http://www.google.com/analytics/

Google Analytics

Anmelden bei Google Analytics:  http://www.google.com/analytics/

Als erstes benötigen wir ein Google-Konto. Das haben wir normalerweise schon…
Contine reading

Astrofotografie für Einsteiger: WebCam / Video-Kamera

Gehört zu: Astrofotografie
Siehe auch: Astro-Kameras
Benutzt: Fotos von Google Drive

Stand: 15. Sep 2021

Die klassische WebCam für Astrofotografie

Video-Kameras sind in der Astrofotografie seit langer Zeit gebräuchlich, um z.B. Planeten zu fotografieren bzw. für “Autoguiding“.
Man nennt diese Video-Kameras auch generell “WebCam“, weil sie ihr Bild per USB-Kabel an einen Computer (Notebook) liefern.
Die Stromversorgung erfolgt über das USB-Kabel; zusätzlich ist für ein mögliches Autoguiding ein sog. ST4-Port an der VideoCam.

Die klassische WebCam ist eine Video-Kamera und wird deswegen vorrangig für Planetenfotografie eingesezt (siehe Lucky Imaging).
Für die Fotografie von Deep-Sky-Objekten (DSOs) benutzt man gerne spezielle Astrokameras, die über eine geregelte Kühlung verfügen.
Ein einfacher Einstieg in die Astrofotografie ist mit “normalen” Digitalkameras (DSLR) möglich.

So ganz klassische Kameras für Astrofotografie sind:

  • DMK 31 (CCD-Sensor, Pixelgröße 4,65 µm / 1024*768) von der Firma “The Imaging Source”
  • DMK 41  (CCD-Sensor, Pixelgröße 4,65 µm / 1280*960 )
  • ZWO ASI 120  (CMOS-Sensor Pixelgröße 3,75 µm / 1280*960 )
  • ZWO ASI 174  (CMOS-Sensor Pixelgröße 5,86 µm / 1936*1216 )

Fernrohrseitiger Anschluss meist ein C Mount – mitgeliefert wird ein Adapter C-Mount auf 1,25 Zoll Okularstutzen.

WebCams für Einsteiger in die Astrofotografie

Neuere Video-Kameras sind noch kleiner gebaut (“Salzstreuer”) und können einfach in einen Standard-Okularstutzen von 1,25 Zoll gesteckt werden.

  • AstroLumina  ALccd-QHY 5L-IIc (CMOS-Sensor, Pixelgröße 3,75 µm / 1280*960 )
  • Altair GPCAM (CMOS-Sensor, Pixelgröße 3,75 µm / 1280*960)

Als Einsteiger habe ich mich mal für die Altair GPCAM entschieden, welche einen CMOS-Sensor hat und bei der ein Objektiv (f=2,1mm) gleich mitgeliefert wird.

Beispiel 1: QHY 5L-IIc Kamera

Abbildung 1: ALccd5L-IIc Copyright Teleskop-Service (Google Drive: TS-Service_Webcam.jpg)


TS-Service Webcam ALccd5L-IIc – Copyright Teleskop Service

Beispiel 2: Altair GPCAM MT9M034M

Abbildung 2: Altair GPCAM Copyright Teleskop-Service (Google Drive: altair-gpcam-mt9m034m-explosion.jpg und altair-gpcam-1000.jpg)


Altair GPCAM Explosion

Altair GPCAM

Verwendung meiner WebCam

So eine Video-Kamera kann dann mit jeder Optik verwendet werden, die einen 1,25 Zoll Anschluss hat, beispielsweise

  • Mit eigenem 12mm Objektiv als elektronischer Sucher
  • Russentonne mit Adapter M42 auf 1,25 Zoll   –> verkauft
  • GuideScope 50   –> für AutoGuiding  =  Zukunftsmusik
  • LidlScope 70/700  –> als Spielerei – da liefert die Sony NEX-5R ein schöneres Bild  –> verkauft