17.6.2015 Sternwarte Bergedorf, Prof. Brüggen: Radioastronomie mit LOFAR
17.8.2016 Sternwarte Bergedorf, Dr. Engels
Was ist LOFAR?
LOFAR = Low Frequency Array
LOFAR-Zentrum: Firma Astron in den Niederlanden
LOFAR-Stationen in England, Frankreich, Schweden und Deutschland
Abbildung 1: Landkarte der LOFAR Teleskope (Google David: LOFAR-international-stations-on-map-Europe.jpg)
LOFAR Stationen in Europa (Cpoyright: Astron)
Eine LOFAR-Station besteht aus einem Feld von kleinen einfachen Dipol-Antennen. LOFAR-Stationen sind über ganz Europa verteilt, wodurch eine Basis von vielen hundert Kilometern entsteht.
Die Signale der Stationen werden zusammen mit exakten Timestamps von Rubidium-Atom-Uhren digitalisiert und über 10 Gbit/s Glasfaser über Jülich zur Zentrale in den Niederlanden geschickt, wo sie real-time mit Hilfe eines Supercomputers “BlueGene” von IBM ( PetaFLOP-Bereich) per Software ausgewertet werden.
Die inferometrische Auswertung per Software setzt die Signale der Stationen unter Berücksichtigung der verschiedenen Laufzeiten phasengerecht zu einem Signal zusammen, das von der Auflösung einem Teleskop der Größe der Basis entspricht. Das nennt das auch “Aperture synthesis”. Dadurch wird eine Auflösung (Bildschärfe) im Bereich einer Bogensekunde erreicht, was vor LOFAR bei diesen Wellenlängen (Bereich von 1,5 Metern oder mehr) nicht möglich war.
Obwohl die Dipol-Antennen eine feste Ausrichtung haben (keine beweglichen Teile), können verschiedene Richtungen am Himmel über software-mäßige Verarbeitung des digitalen Signals angepeilt werden (sog. “Multi Beaming”).
Die LOFAR-Station in Norderstedt befindet sich in der keinen Straße Harthagen und ist seit Januar 2015 in Betrieb.
Die Einweihungsfeier soll am 9.9.2015 um 11 Uhr stattfinden.
Abbildung 2: LOFAR Station in Norderstedt (Google Drive: Lofar_20150618_05475_stitch.jpg)
LOFAR Norderstedt
LOFAR-Station in Effelsberg
Besuch beim Radioteleskop Effelsberg
LOFAR Forschungsauftrag – Key Science Projects
Epoch of Reionization –– Die sog. Epoch of Reionization (EoR) begann vor 13,2 GigaYears mit einer Rotverschiebung von z=10. Das heisst, die 21cm Radiostrahlung des neutralen Wasserstoffs kommt mit einer Wellenlänge von 2,1m bei uns an.
Deep Extragalactic Surveys – Hochempfindliche Kartierung aller Radioquellen (Galaxien, Schwarze Löcher etc.) am Himmel
Transient Sources – Radioquellen, die eine kurzzeitliche Variabilität aufweisen
Kosmische Magnetfelder – Stellare und galaktische Magnetfelder
Ulta high cosmic rays – Partikel mit hoher Energie (1015 – 1020 eV), die auch sog. “Air Shower” hervorrufen (Synchrotron Strahlung, Elektronen mit fast Lichtgeschwindigkeit (relativistisch))
Solar Physics and Space Weather – Die Sonne als Radioquelle mit e.g. Flares, Coronar Mass Ejections etc.
Hintergrund: Epochen der Entwicklung des Universums
Urknall
Inflation
Dark Ages – noch keine Sterne, “nur” neutraler Wasserstoff mit 21cm Radio-Strahlung
Epoch of Reionization – erste Sterne d.h. erstmals Licht im Universum, die Strahlung ionisiert den Wasserstoff
Evolution of WordPress: B2/Cafelog to WordPress 1.0
by Keith Dsouza on July 14th, 2008 in WordPress
A few days ago we had told you what you should know about WordPress 2.6. The post described new features that will be introduced shortly in WordPress 2.6. Though there are several new features that you may like in this new version, there might be many that have gone unnoticed that were introduced in the earlier versions of WordPress. To quell the anticipation that users might have for the latest version, we wanted to write a series of posts that will cover WordPress from its infancy to WordPress 2.5 (the latest major version) that many of you use.
The WordPress team has been naming their major releases after popular Jazz legends and we will take a look at code names for the past releases. Contine reading →
My older websites do use vector graphics in Shockwave format – originally produced by Feehand and converted from .fla to .swf
In the long run I am planning to convert .swf to a more open and modern format ( like .svg or html5 or ….)
At the moment I want to keep my older websites “alive”, so I need to know how to embed SWF-files in HTML and how to render them in the important Web Browsers (Mozilla Firefox,…)
As I understood, I need Adobe Flashplayer as a plugin into my web browser in order to render my SWF graphics properly.
My favorite web browser is Mozilla Firefox. With Firefox version 43.04 I was unable to install the Adobes Flashplayer plugin.
With Mozilla Firefox 28.0 the installation of the Adobe Flash Plugin went well. To be exact: I installed Shockwave Flash 22.0.0.209 as a plugin to Mozilla Firefox 28.0.
Status: Statt MediaWiki verwende ich jetzt WordPress
Graphiken in MediaWiki – Zeichnungen (Drawings)
Auch in MediaWiki möchte man ja ab und zu auch schöne Vektorgrafiken einbauen – nicht nur Pixel-Bilder.
Je nach Format (SVG, SWF, ODG, VSD, PPT,…) sind da unterschiedliche Lösungen möglich, wo bei schon das Upload solcher Grafiken ein Problemchen sein kann.
Upload von Grafiken auf MediaWiki (SVG, SWF, PDF,…)
Damit man Vektorgrafiken auf MediaWiki hochladen kann, müssen einige Einstellungen vorgengenommen werden.
php.ini
file_uploads = On
post_max_size = 20M
upload_max_filesize = 20M
Konkurrierend zu SVG ist: Flash von Macromedia (aufgekauft von Adobe)
SVG-Dateien sind keine binären Dateien, sondern Text-Dateien, die also auch mit normalen Text-Editoren bearbeitet werden können.
Solche SVG-Dateien sind “normale” XML-Dateien mit dem besonderen Namespace SVG.
SVG tat sich anfangs sehr schwer, da Flash der Industrie-Standard war.
SVG 1.1 enthielt lediglich eingie Korrekturen zu 1.0
SVG 1.2 wurde nie offiziell fertiggestellt.
SVG 2.0 soll der neue Super-Standard werden – als Teil von HTML5
SVG-Grafiken bis Verson 1.1 können z.B. in Mozilla Firefox betrachtet (“Rendering”) werden. Auch Google Drive…
SVG-Grafiken Erstellen und Bearbeiten
Ich benutzte zur Zeit (Feb. 2020) das SVG-Tool Inkscape. Leider wurden in Inkscape schon einige Elemente von SVG 1.2 implementiert, die aber nie definitiv verabschiedet wurden. Dazu gehören: flowRoot, flowRegion und flowPara…
Dies sind Fliesstext-Konstrukte, die von den Vertretern im W3C sehr kontrovers diskutiert wurden und schließlich nicht in den SVG-Standard aufgenommen wurden. Wir müssen bei Inkscape also aufpassen und ggf. solche Konstrukte entfernen und durch einfachere Konstrukte von SVG 1.1 ersetzen.
X-Achse waagerecht vom linken Bildrand nach rechts
Y-Achse senkrecht vom oberen Bildrand nach unten
Elemente
Rechteck
Text, auch Fließtexte
Bezierkurven
Kreis, Ellipse, Bogen
Pfad
Pfeilspitzen ????????
Beispiel für einen Pfad
Pfad aus “M” (=move to) und “L” (= line to):
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<svg xmlns="http://www.w3.org/2000/svg" version="1.0"
width="200" height="300">
<path stroke="black" stroke-width="1px" fill="none"
d="M 50,250 L 50,150 L 100,77.5 L 150,150 L 55,150 L 150,250 L 54.5,250 L 150,154 L 150,246"/>
</svg>
Abbildung 1: Dies als Grafik in SVG-Format (Github: DasHausvomNikolaus.svg)
Abbildung 3: Dies als Grafik (Github: BalacedScorecard-3.svg)
Balanced Scorecard als SVG
Beispiel für Fließtext
Fließtext wurde in SVG 1.2 neu eingeführt. Nicht alle SVG-Tools unterstützen dies.
SVG-Quellcode:
<?xml version="1.0" standalone="no"?>
<svg version="1.2" xmlns="http://www.w3.org/2000/svg"
id="body" width="350" height="350">
<title>SVG flowPara Example.</title>
<g>
<rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
<flowRoot>
<flowRegion>
<rect stroke="blue" fill="gold" x="10" y="10" width="200" height="300"/>
</flowRegion>
<flowDiv text-align="start">
<flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
P1 The quick brown fox jumped over the lazy dog.</flowPara>
<flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
P2 Gallia est omnis divisa in partes tres quarum unam incolunt Belgae.</flowPara>
<flowPara font-family="Arial" font-size="20" fill="#000000" text-align="start">
P3 a b c d e f g h i j k l m n o p q r s t u v w x y z</flowPara>
</flowDiv>
</flowRoot>
</g>
</svg>
Dies als SVG-Grafik mit Version 1.2 Elementen zum Fließtext.
Abbildung 4: SVG-Grafik mit Fließtext (Google Drive: flow-2.jpg)
SVG Fließtext – Text Flow
Da hier SVG 1.2 kann das SVG nicht als Original Flow-2.svg richtig angezeigt werden. Daher wir es in ein Flow-2.jpg umgewandelt (mit Inkscape und Libre Office Draw).
Als Einsteiger in die Astrofotografie möchte ich mit einfachem Equipment Astrofotos machen, auf denen auch lichtschwache Objekte zu sehen sind, um eigene “Pretty Pictures” von eindrucksvollen Objekten zu erzielen, die man mit bloßem Auge gar nicht sehen kann.
Anstelle von langen Belichtungszeiten mit dem Problem der Nachführung, macht man in der modernen Astrofotografie einfach mehrere Fotos vom gleichen Objekt mit kürzerer Belichtungszeit und “addiert” diese. Man nennt das “Stacking”. Wobei es bei der Belichtungszeit immer auf die Gesamtzeit (auch Integrationszeit genannt) ankommt. Wenn man z.B. die einzele Aufnahme nur kurz belichtet – sagen wir 30 sec – dann muss man eben 240 solcher Aufnahmen machen, um auf eine Gesamtbelichtungszeit von 2 Stunden zu kommen. Der generelle Tipp ist inder Tat mindestens 2 Stunden zubelichten.
Die Vorteile des Stackings sind:
Vermeidung von Nachführungsfehlern (Sterne werden Striche)
Unerwünschte Lichtspuren können aussortiert werden (z.B. Flugzeug, Satellit,…)
Mehr zu den Problemen, die ich mit Stacking lösen kann, in diesem separaten Blog-Artikel.
Beim Stacking sieht man das Ergebnisbild normalerweise erst am nächsten Tag, weil man ja sorgfältig bearbeiten will.
Die Technik des sog. “Live Stacking” liefert die Stacking-Ergebnisse quasi sofort. Das kann sinnvoll sein, wenn man “Besucher” hat, die schnell etwas sehen wollen…
Z.B. die Software SharpCap beherrscht ein solches Live Stacking.
Umgangssprachlich spricht man gerne vom “Stacking”; eigentlich meint man drei Schritten: Kalibrieren, Registrieren und schließlich Stacken. Eine Software wie z.B. DSS mach die drei Schritte meist auch in einem Rutsch.
Zum Stacking (in diesem Sinne) kann man verschiedene Software verwenden:
Theli (Linux, Windows per Virtual Box) (Open Source, https://www.astro.uni-bonn.de/theli/ )
u.a.
Welche Kalibrierungs-Frames brauche ich?
Das Wichtigste sind die Flat Frames.
Wenn ich eine Kamera mit Amp Glow habe, sind Dark Frames erforderlich.
Welche Aufnahmen (“Frames”) muss ich machen?
Light Frames
So heissen die “normalen” eigentlichen Aufnahmen (Aufnahmeserie) des Beobachtungsobjekts.
Durch Addition (sog. Stacken) dieser Light Frames möchte man das Signal-Rausch-Verhältnis (SNR) verbessern. Es kommt auf die Gesamt-Belichtungszeit an, je länger diese ist, desto geringer wird das Rauschen im Bild. Da das Bildrauschen stochastisch ist, geht es mit der Quadratwurzel aus der Belichtungszeit zurück.
Dark Frames
Unmittelbar nach der eigentlichen Aufnahmeserie soll man mehrere “Darks” machen.
Man schließt das Objektiv per Deckel oder mit einem dicken schwarzen Tuch und macht bei der gleichen Temperatur wie bei den “Lights” und mit den gleichen Einstellungen für Belichtungszeit und ISO eine Reihe von Dunkelbildern. Dadurch werden Hot Pixel und den Dunkelstrom des Sensors bei der Temperatur aufgenommen. Diese werden später von den Nutzbildern (Lights) subtrahiert.
Mit einer DSLR ist es immer ein Problem, die genau richtige Temperetur der Darks hinzubekommen; mit einer geregelt gekühlten Astro-Kamera, wie z.B. meiner ASI294MC Pro ist das aber kein Problem, denn man kann die Temperatur ja einstellen.
So ein Dunkelbild “Dark Frame” enthält ein Signal (den Dunkelstrom) welches seinerseits wiederum verrauscht ist.
Das Dunkel-Signal könnten wir gleich von unseren Light Frames abziehen, das Dunkelrauschen aber nicht.
Das Rauschen in den Dark Frames minimieren wir, indem wir mehrere (viele) einzele Darks aufnehmen und aus diesen dann ein “Master Dark” mitteln. Das Rauschen im Dunkelbild ist stochastisch und geht mit Quadratwurzel aus der Gesamtbelichtungszeit des Master-Darks zurück.
Darkframes – Dunkelbildabzug
Beim Stacken von Astrofotos soll man ja viele Einzelbilder (Subs, Frames,..) machen und die dann per Software übereinander legen “stacken”. Ich habe als Beispiel mit meiner Canon EOS 600D einmal 9 Einzelbilder von M31 gemacht, wobei jedes Einzelbild 300 Sekunden belichtet wurde. Das macht eine Gesamtbelichtungszeit “Integrationszeit” von 45 Minuten. Diese Einzelbilder nennt man im Jargon auch “Lightframes”.
Zusätzlich soll man nun noch sog. “Darkframes” machen. Dabei soll die Objektivkappe geschlossen sein aber die Belichtungszeit und die Sensortemperatur identisch wie bei den Lightframes sein. Darkframes enthalten so nur noch evtl. vorhandene “Hotpixel” und das Dunkelstrom-Signal (mit dem Dunkelstrom-Rauschenund ggf. Ampglow) des Bildsensors bei der betreffenden Temperatur. Wenn man nun viele (z.B. 20) Darkframs macht und die von seiner Software zu einem Master-Dark verarbeiten lässt, so ist das Dunkelstrom-Rauschen im Masterdank quasi verschwunden. Dieses Masterdark subtrahieren wir (oder die Software) von den LIghts. Damit verschwinden die Hotpixel, der Dunkelstrom und ggf. das Ampglow; was in den Lights bleibt ist das Dunkelstrom-Rauschen, was man nicht subtrahieren kann, da es ja stochastisch ist.
Das zusätzliche Anfertigen solcher Darkframes wird gerne unterlassen, weil es ja beträchtliche Zeit kostet, wenn man eigentlich schon “fertig” ist. Ob so ein Dunkelbildabzug eine wirkliche Verbesserung ist, wollte ich mal genau herausfinden mit diesem Experiment:
Abbildung 1 und 2: DSS Dunkelbildabzug (Google Drive: Autosave_lights-only_2.jpg, Autosave_lights-darks_2.jpg)
Calibration: Lights without Darks
Calibration: Lights with Darks
Das Experiment zeigt deutlich zwei Verbesserungen durch Dunkelbildabzug:
Die Hotpixel werden eliminiert
Das Dunkelstrom-Signal wird eliminiert (abgezogen)
Falls der Sensor ein sog. “Ampglow” zeigt, wird auch dieses eliminiert (abgezogen)
Auf dem Bild sehen wir noch gut Sterne bei 16,4 mag (z.B. Stern 3UC265-006326).
Die Bilder wurden am 14.10.2018 in Handeloh gemacht. Das linke Bild heisst: Autosave_lights_only-2.jpg, das rechte Bild heisst: Autosave_lights-darks_2.jpg
Flat Frames
Was ist ein “Flat Frame”?
Ein Flat Frame ist eine kurzbelichtete Aufnahme einer völlig gleichmäßig hellen Fläche.
Wofür benötigt man Flat Frames?
Mit Flat Frames werden Vignettierung und Verunreinigungen bzw. Schatten im Strahlengang korrigiert.
Wie fertigt man ein Flat Frame an?
Flat Frames werden von einer gleichmäßig hellen Fläche gemacht. Das Flat Frame sollte dann gleichmäßig weiß sein. Ggf. vorhandene Sensorflecken und ggf. eine Vignettierung (Randabdunkung) machen sich durch dunklere Stellen im Flat bemerkbar. Dieses eigentliche Flat-Signal ist leider wieder mit einem Rauschen behaftet. Um dieses Flat-Rauschen zu minimieren macht man wiederum viele Flat-Frames, die dann zu einem Master-Flat gemittelt werden.
Die Flats enthalten leider wieder ein Bias/Offset-Signal (s.u.). Also muss man vom Master-Flat wiederum ein Master-Bias abziehen.
Jedes Nutzbild (Light Frame) wird dann durch das so erhaltene Flat dividiert; dabei bleibt das Bild unverändert da wo das Flat wirklich weiß ist (Division durch 1) und wird etwas aufgehellt da wo das Flat nicht ganz weiß ist (z.B. Division durch 0,9).
Die Flat Frames soll man natürlich mit der gleichen Kamera und dem gleichen Objektiv machen, mit denen man vorher die Nutzbilder (Light Frames) gemacht hat. Es sollen ja unverändert Sensor-Verschmutzung bzw. Randverdunkelung aufgenommen werden (also auch gleiche Adapterringe, gleiche Taukappe etc.). Auch soll die Kamera nicht zwischendurch geöffnet werden damit die Schmutzteilchen auf dem Sensor sich nicht verschieben.
Die Belichtungszeit für Flats ist zu niedrig, wenn sich Stuktur auf der eigentlich weißen Fläche zeigt. Die Belichtungszeit für Flats ist zu hoch, wenn die vorhandenen Abdunklungen überstrahlt werden und nicht mehr richtig sichtbar sind.
Was ist ein “Bias Frame”?
Ein Bias/Offset ist ein Darkframe mit Belichtungszeit Null, wobei bei vielen Kameras die minimalst mögliche Belichtungszeit verwendet werden muß. Registriert wird dann nur das Bias/Offset-Signal von Chip und Kameraelektronik. Dieses Bias/Offset-Signal ist seinerseits wiederum verrauscht.
Wofür benötigen wir Bias Frames?
Es wird häufig gesagt, mit den Bias Frames würde man das Ausleserauschen abziehen. Das ist aber Unsinn, denn ein Rauschen kann man nicht “abziehen”, weil es stochastisch ist. Das Ausleserauschen bekommt man z.B. dadurch in den Griff, dass man es klein (ein Drittel oder weniger) im Verhältnis zum Hintergrundrauschen hält. D.H. man muss “hintergrundbegrenzt” belichten.
Etwas genauer gesagt, haben wir auch hier ein Bias-Signal und eine Rauschen dieses Bias-Signals. Mit einem solchen “Bias Frame” wird der “Offset” korrigiert.
Wenn wir Darks gemacht haben, ist das Bias-Signal auch schon dort mitenthalten. Wir brauchen also kein extra Bias Frame. Wenn wir keine Darks gemacht haben sollten, müssen wir wohl aber ein separates Bias Frame machen.
Wie fertigt man Bias Frames an?
Sie wählen an Ihrer Kamera die kürzest mögliche Belichtungszeit (ob z.B. 1/4000s oder 1/8000s hängt natürlich von Ihrer Kamera ab) und nehmen eine Reihe Aufnahmen mit verschlossenem Objektiv (wie bei den Darkframes) in der Dunkelheit auf.
Wichtig bei den Bias/Offsetframes ist, dass Sie bei gleicher ISO Einstellung wie die Lightframes aufgenommen werden. Die Aussentemperatur ist dabei nicht wichtig.
Der Rat von Frank zum Thema Stacking:
Wichtig! Das Masterdark wird nicht vom Bias befreit!! Das Bias ist im Dark enthalten und wird durch den Dark-Abzug gleich mit abgezogen.
Das Bias vorher abzuziehen macht nur Sinn wenn man das Dark skalieren will.
Auch musst du nicht noch ein Bias vom Light abziehen, alles viel zu umständlich und unnütz.
Einfach das Dark vom Light abziehen und fertig. Das Bias ist nur fürs Flat wichtig!
So sieht Franks Zusammenfassung aus:
Wie werden die Aufnahmen (Frames) richtig “gestackt”?
Wie das mit der Software Deep Sky Stacker (DSS) geht, beschreibe ich im separaten Artikel über DSS.
Kamera: Lichtstarker Sensor mit geringem Rauschen – Wechselobjektive
Objektiv: Weitwinkel z.B. Zenitar f=16mm, offene Blende 2,8
Stativ
Fernauslöser: Infrarot oder WLAN mit iPad ?
Mit welchen Einstellungen sollen die Fotos geschossen werden?
Im Internet (http://praxistipps.chip.de/sternschnuppen-fotografieren-die-5-besten-tipps_39869) liest man, die Sternschnuppen seine ja meistens “heller als die Sterne”. Das ist bei Belichtungszeiten größer 1/10 Sekunde Unsinn. Sternschnuppen bewegen sich und verteilen ihr Licht auf die ganze Spur, wohingegen Sterne ihr Licht auf den gleichen Punkt sammeln für 30 Sekunden oder so…
Blende: 2,8 ganz auf!
Belichtungszeit: = 30 Sekunden ==> dann wird keine Nachführung benötigt: Faustformel max. Belichtung = 500/Brennweite = 500/16 = 31,25 Sekunden
ISO 3200 Probefoto machen – ggf. eine Blende zu, dafür ISO hoch lassen
Alternativer Aufbau: Webcam
Ich habe ja eine Altair GPCAM mit einem sehr kurzbrennweitigen Objektiv, vom Hersteller genannt “Meteor Objektiv”…
12.8.2015 Perseiden
Im Jahre 2015 habe ich das erste mal versucht, dieses Ereignis fotografisch festzuhalten.
Video-Kameras sind in der Astrofotografie seit langer Zeit gebräuchlich, um z.B. Planeten zu fotografieren bzw. für “Autoguiding“.
Man nennt diese Video-Kameras auch generell “WebCam“, weil sie ihr Bild per USB-Kabel an einen Computer (Notebook) liefern.
Die Stromversorgung erfolgt über das USB-Kabel; zusätzlich ist für ein mögliches Autoguiding ein sog. ST4-Port an der VideoCam.
Die klassische WebCam ist eine Video-Kamera und wird deswegen vorrangig für Planetenfotografie eingesezt (siehe Lucky Imaging).
Für die Fotografie von Deep-Sky-Objekten (DSOs) benutzt man gerne spezielle Astrokameras, die über eine geregelte Kühlung verfügen.
Ein einfacher Einstieg in die Astrofotografie ist mit “normalen” Digitalkameras (DSLR) möglich.
So ganz klassische Kameras für Astrofotografie sind:
DMK 31 (CCD-Sensor, Pixelgröße 4,65 µm / 1024*768) von der Firma “The Imaging Source”
Als Einsteiger habe ich mich mal für die Altair GPCAM entschieden, welche einen CMOS-Sensor hat und bei der ein Objektiv (f=2,1mm) gleich mitgeliefert wird.