Ein Experiment zur ISO Zahl, Belichtungszeit und zum Stacken

Ich habe so viele widersprüchliche Dinge zu optimalen Belichtungszeiten und ISO Zahlen gehört, dass ich es einfach mal selbst ausprobieren wollte. Meine Hauptfragen waren:

  • Ist die ISO Zahl egal oder verliere ich bei einer zu niedrigen / zu hohen ISO Zahl Informationen?
  • Sind 3x10sec = 1x30sec Belichtungszeit wenn ich die Bilder addiere?
  • Sind 3x10sec = 1x30sec Belichtungszeit wenn ich die Bilder mit einem Mittelungsverfahren wie z.B. im DSS stacke.

 

Zum Testen habe ich in einem absolut dunklen Zimmer, ein gewisses Dokument von einem Herrn Schrödinger ^^ in einer Distanz von ca. 5m mit verschiedenen Einstellungen fotografiert. Die verwendete Kamera war eine Canon 1200D mit einem Tamron 70-300mm Teleobjektiv und einem 1.4x Extender (MC4 DGX von Kenko) also 420mm Brennweite bei einer 8er Blende. Image Stabilization und Auto Fokus waren natürlich aus. Ich habe nur die ISO Zahl und die Belichtung verändert und die Bilder danach einmal mit GIMP addiert und einmal mit den GIMP Astrotools gestackt. Hier könnt ihr den Aufbau sehen (Fotos sind mit dem Handy gemacht, deswegen so schlecht):

 

Ganz unten könnt ihr die beiden Tabelle mit den Ergebnissen sehen. Die erste Tabelle ist mit Sigma Median 2Pass gemittelt und bei der zweiten Tabelle wurden die Bilder einfach addiert. Keine Dark-, Flat- oder Bias-Frames, ich wollte nur wissen bei welcher Einstellung ich die maximale Bildinformation bekomme / den Text am besten lesen kann. Außerdem wollte ich wissen, ob ich durch eine niedrigere ISO-Zahl Information verliere. Die Bilder wurden alle noch nachbearbeitet und ich habe versucht die Histogramme auf ein ähnlich Niveau zu bekommen und die maximale Information aus dem Bild zu gewinnen. Das Ergebnis ist natürlich nicht allgemein gültig, aber zumindest kriegt man eine Idee von der Thematik. Die Bilder wurden natürlich im RAW Format aufgenommen und auch verarbeitet, erst am Ende habe ich die Bilder aus Platzgründen in das JPG Format konvertiert und musste die Bilder runterskalieren. Das Ergebnis ist qualitativ aber nicht beeinträchtigt. Hier das Ergebnis in Tabellenform:

Sigma Median 2Pass

Sigma Median 2Pass
Bilder/ISO ISO100 ISO400 ISO6400
3x10sec
2x15sec
1x30sec

Addition der Bilder

Addierte Bilder
Bilder/ISO ISO100 ISO400 ISO6400
3x10sec
2x15sec
1x30sec

1. Frage: Verliere ich Bildinformation bei einer zu niedrigen/zu hohen ISO Zahl?

Bei einer zu niedrigen ISO Zahl wird das Histogramm nach links “gequetscht”. Das bedeutet, dass die “feinen” Helligkeitsunterschiede bei der Analog Digital Wandlung verloren gehen. Sprich: Der Quantisierungsfehler steigt enorm an. Das Histogram kann man durch eine höhere ISO Zahl quasi “strecken/verbreitern” und feinere Helligkeitsunterschiede werden aufgelöst. Zumindest solange, bis ich das Maximum erreicht habe und dann Bereiche “ausbrenne”. Man sollte also eine ISO Zahl nehmen, die das Histogramm möglichst optimal bei gegebener Belichtungszeit streckt, aber nichts ausbrennt. Das bedeutet, je länger ich belichte, desto niedriger sollte die ISO Zahl sein. An diesem Beispiel kann man aber schon sehen, dass bei 30sec Belichtung eine ISO von 6400 durchaus sinnvoll sein kann.
Als Antwort auf die obige Frage kann man also sagen: Ja, ich verliere Information wenn ich die ISO Zahl falsch wähle, sogar verdammt viel. Es gibt eine optimale ISO Zahl, die hängt ab: Von eurer Kamera, von dem Objekt was ihr fotografiert und von der Belichtungszeit. Die ISO Zahl sollte so gewählt werden, dass die Bildinformation möglichst breit über das Histogram verteilt ist, aber nichts ausbrennt. Macht also einfach mal ein Bild und schaut euch das Histogram auf der Kamera an und versucht die ISO Zahl so hoch zu wählen, dass das Histogram nicht nur ganz links Werte anzeigt. Außerdem schaut euch einfach das Bild auf der Kamera an und stellt sicher, dass nix ausgebrannt ist (es sei denn ihr wollt das so). Das Rauschen kriegt man durch das Stacken oder eine CCD Kamera relativ gut in den Griff, natürlich gibts auch hier Grenzen.
Schauen wir uns trotzdem nochmal an was passiert, wenn ich 30sec belichte und einfach nur die ISO Zahl von 800-12800 erhöhe. Auch hier musste ich die Bilder vom RAW Format in JPEG umwandeln und runter skalieren. Aber auch hier ändert das qualitativ nichts an dem sichtbaren Ergebnis. Das erste was mir auffällt ist die Dateigröße:

Größe der Bilder
ISO Dateigröße RAW unkomprimiert
800 19.1MB
1600 20.893MB
3200 23.9MB
6400 27MB
12800 32MB

Ok, das ist zwar interessant. Es scheint irgendwie mehr Information bei den höheren ISO Zahlen zu geben, aber das könnte ja auch einfach nur mehr Rauschen sein. Bedeutet also erst einmal relativ wenig. Schauen wir uns mal die Histogramme bei den verschiedenen ISO Zahlen an. Auf der linken Seite sehr ihr das originale Histogramm und auf der rechten Seite habe ich das Histogramm “gestreckt”. Den Maximalwert in Photoshop also nach links verschoben.

Histogramme
ISO Originales Histrogramm Gestrecktes Histogramm
800 RGB Histogramm bei ISO800  Gestreckte RGB Histogramm bei ISO800
1600 RGB Histogramm bei ISO1600 Gestreckte RGB Histogramm bei ISO1600
3200 RGB Histogramm bei ISO3200
6400 RGB Histogramm bei ISO6400 Gestreckte RGB Histogramm bei ISO6400
12800 RGB Histogramm bei ISO12800 Gestreckte RGB Histogramm bei ISO12800

Ok, die Histogramme sind alle relativ schmal. Aber bei 800-1600 sehen wir auf jeden Fall sehr unschöne Verteilungen bei den gestreckten Histogrammen. Man sieht dort diese Spikes. Ich vermute, dass in den Spikes die interessanten Informationen enthalten sind und diese einfach durch die Quantisierung auf so kleine Bereiche beschränkt wurden. Von 3200 – 12800 sehen die Histogramme relativ schön aus. Dann schauen wir uns als nächstes also einfach mal die Bilder selbst an. Die Bilder sind alle die gestreckten Versionen, da die Bilder bei niedrigen ISO Zahlen sonst nur schwarz wären:

Bilder
ISO Bild
800
1600 30sec bei ISO1600
3200 30sec bei ISO3200
6400 30sec bei ISO6400
12800 30sec bei ISO12800

Interessantes Ergebnis wie ich finde, aber wie bereits von den Histogrammen erwartet ist in diesem Fall das ISO3200er ein sehr guter Kompromiss. Das 6400er rauscht schon erheblich stärker und von dem 12800er garnicht zu reden. Bei ISO 1600 sieht man schon deutlich weniger Details, die Schrift ist schwerer zu lesen.

Ok, hast du nun einen Tip welche ISO Zahl ich wählen soll oder wie ich die bestimmen kann?

Ihr könnt die ISO Zahl durch einfaches Ausprobieren bestimmen. Macht ein Bild bei der Belichtungszeit und der ISO Zahl die euch vorschwebt und schaut euch auf dann auf der Kamera das Histogramm an. Ist das Histogramm zu sehr nach links “gequetscht” und damit zu schmal (wie oben bei ISO800 z.B.) dann stellt die ISO Zahl hoch und probiert das Ganze nochmals aus. Nehmt dann die niedrigste ISO Zahl, bei der das Histogramm einigermaßen breit ist. Oder ihr fahrt auch so eine Testreihe wie ich bei verschiedenen typischen Belichtungszeiten und wisst dann einfach bei 30sec ist ISO3200 gut und bei 1min vielleicht ISO1600 usw.

2te Frage: Ist ein 30sec belichtetes Bild dasselbe wie 3x10sec mit dem DSS gemittelt oder die Bilder einfach addiert?

Auf gar keinen Fall! Mit der Mittelung oder dem Sigma Kappa Median oder dem verrücktesten Mittelungsverfahren dieser Welt kann ich nur das Rauschen verkleinern und kann damit die enthaltene Information in meinem Bild besser vom Rauschen unterscheiden. Das bringt mir eine Menge in Photoshop. Ich gewinne aber nur minimal “echte” Information hinzu. Überlegt einfach mal was ein idealisierter Chip macht bei einer langen Belichtung. Ein Pixel des Sensors ist die ganze Zeit auf dem Wert 0 (schwarz), bis einige Photonen ankommen und der Pixel z.B. den Maximalwert 255 hat (weiß). Wenn danach kein Photon mehr ankommt, bleibt der Pixel aber auf 255. Also die Werte werden theoretisch addiert. Bei einer Mittelung wir im DSS habe ich nun einen Pixel der in dem einem Bild den Wert 0 (also schwarz) und in einem anderen den Wert 255(weiß) hat. Das Mittel aus den Beiden, ist nur die Hälfte. Bei einem Sigma Kappa Median oder 5x arithmetisches Mittel innerhalb der 5 fachen Varianz des Durchmessers vom Mond, wird das nur geringfügig besser. Also diese Rechnungen die man sehr oft sehen kann: 10x10sec = 100sec Belichtung sind totaler Quatsch. An meinen Beispiel unten kann man das auch sehr eindrucksvoll sehen. Selbst wenn ihr die Bilder addiert, addiert ihr leider jedesmal auch das Rauschen mit, es ist leider ein Teufelskreis. Also lange Belichtung kann man einfach nicht wirklich ersetzen.

Was ist dann mit HDR?

Das ist nochmal etwas anderes, ich habe ein total unterbelichtetes Bild und ein total überbelichtetes Bild. Nehmen wir z.B. den Jupiter mit seinen Monden. Der Jupiter ist mega Hell und die Monde sind total dunkel. Blöde Sache, wenn ich den Jupiter mit seinen Strukturen erkennen möchte, muss ich kurz belichten -> Jetzt sehe ich die Monde nicht mehr. Ok, dann mach ich noch ein Bild mit ganz langer Belichtung -> Jetzt sehe ich die Monde, der Jupiter ist aber nur noch ein fetter weißer häßlicher Fleck. Ich werd verrückt.
Kann ich diese Information nicht irgendwie zusammen packen, so dass ich von der langen Belichtungszeit die Monde und von der kurzen den Jupiter nehmen? Ja mit HDR, oder im DeepSkyStacker Entropy Weighted Average. Ihr seht, dass ist allerdings nochmal eine ganz andere Geschichte.
Klar, ich habe das Ganze natürlich vereinfacht, aber ich denke die Prinzipien sollten so vielleicht etwas klarer werden. Und ich hoffe ihr merkt, wie komplex das ganze Thema eigentlich ist. Es hilft eigentlich nur ausprobieren und Erfahrung. Damit ihr die Ergebnisse die ihr beim Ausprobieren sammelt auch interpretieren und zuordnen könnt, habe ich diesen Artikel geschrieben.

 

Cluster Chi Persei /NGC884 Astromaster 130eq

Das Cluster Chi Persei oder NGC 884 aus dem Double Cluster. Das Bild ist mit dem Astromaster 130 eq enstanden auf einer NEQ3 Montierung. Die Kamera war direkt an den Okularauszug mit einer 2x Barlow Linse angeschlossen. Ich werde bald nochmal versuchen das ganze Double Cluster mit dem TeleObjektiv/Piggyback zu fotografieren.
Lights:ISO1600: 10x60sec
Darks: ISO1600: 4x60sec
Bias: ISO1600: 1/4000sec

Cluster Chi Persei

C/2014 Q2 Komet Lovejoy

In unserem Skiurlaub in den Alpen habe ich Nachts einige Fotos vom Himmel gemacht, da man dort eine unglaubliche Sicht auf die Sterne hat. Die Fotos habe ich ohne Nachführung auf einem normalen Kamerastativ  bei 18mm Brennweite und 30sec Belichtung gemacht. Bei der geringen Brennweite ging das mit der Belichtung sogar noch recht gut ohne Strichbildung. Plötzlich sehe ich auf dem Bild oben einen grünen Fleck, der irgendwie nicht nach Stern aussah ^^ Dann habe ich mich informiert und gesehen, dass ich den Kometen Lovejoy zufälligerweise erwischt habe. Außerdem seht ihr den Orionnebel mit dem gesamten Sternbild und die Plejaden sind auch zu erkennen.
Für den DeepSkyStacker habe ich folgende Bilder gehabt:
Lights: ISO3200 20x30sec
Darks: ISO3200 20x30sec
Bias: ISO3200 20×1/4000sec

Bei diesem Bild habe ich versucht den Kometen etwas stärker hervorzuheben:

 

In diesem Bild ging es mir eher um die Sterne:

 

Celestron Astromaster 130 Abbildungsfehler tunen / reduzieren

Es gibt eine sehr einfache Möglichkeit, dass Teleskop ein klein wenig zu tunen und den Abbildungsfehler etwas zu reduzieren. Die Idee kommt von

http://mtoastro.blogspot.de/2011/01/star-testing-astromaster-130.html?m=1

Und zwar müsst ihr dazu den Sekundärspiegel abschrauben, hierfür einfach die Kreuzschraube in der Mitte lösen und den Spiegel herausnehmen. Die 3 Imbusschrauben am besten nicht anfassen.schrauben_frontview

 

Nun habt ihr den Sekundärspiegel in der Hand und seht diese kleine schwarze Halterung die mit der Kreuzschraube. Dieses Ding abmachen, da es ja direkt auf dem Spiegel liegt und für erstaunlich große Verzerrungen im Bild sorgt. Zumindest bei Fotografischer Anwendung, für die rein visuelle Beobachtung hat das keine Auswirkungen.IMG_20150113_202031

 

Zusätzlich könnt ihr auch noch die im Tubus ausstehenden Schrauben etwas kürzen, was ebenfalls nicht schadet. Den Unterschied könnt ihr in dem Bild erkennen, links ist vorher und rechts nachher:

VorherNachher

 

 

Man kann auf dem linken defokussiertem Bild die starke Verzerrung gut erkennen und auf dem rechten ist es deutlich kreisförmiger.

 

 

 

 

Wie finde ich mich mit dem Auge am Nachthimmel zurecht?

Das ist eigentlich gar nicht mal so schwer, es bedarf hier nur etwas Geduld und am Anfang einer guten Sternenkarte oder Astronomiesoftware. Der Sternenhimmel ist von der Erde aus gesehen leider kein festes Gebilde, sondern ändert sich durch die Erdrotation und durch die Jahreszeiten permanent. Grundsätzlich orientiert man sich im Himmel sehr gut durch bekannte und gut sichtbare Sternenbilder. Hierzu zählen Cassiopeia, der große Wagen und einige sehr helle Sterne. Sowie Polaris der Polarstern, dieser ist allerdings dunkler als die meisten denken und auf keinen Fall der hellste Stern am Himmel, allerdings ist dieser immer brav im Norden und ändert sich nicht durch die Erdrotation, da er fast direkt auf dem Drehpunkt liegt.

Ok fangen wir mal bei einem Sternenbild an, z.B. ist jetzt im Winter Cassiopeia immer sehr früh und  sehr hoch am Himmel und sieht aus wie ein W, hierfür ein Bild von der Wikipedia:

200px-CassiopeiaCC

Wie kann ich dieses Sternenbild denn überhaupt finden, wenn der nervige Himmel sich quasi ständig ändert? Ich habe das einfach gemacht, indem ich mir zuerst eine Astronomiesoftware wie TheSkyX First Light besorgt habe (war bei dem Teleskop schon dabei). Solch eine Software zeigt dir den Himmel zur jeweiligen Uhrzeit und sogar von deinem jeweiligen Standort aus an. Das ist extrem hilfreich, besonders am Anfang. Nimm ersteinmal einen Kompass und orientiert dich dann durch die Himmelsrichtungen in der Software und schau in welcher Richtung diese Sternenbilder grob liegen. Danach ab nach draußen und einfach mal Cassiopeia oder den großen Wagen suchen, der sieht beispielsweise so aus (der helle rechteckige Kasten mir den 3 hellen Sternen links daneben):

Ursa_Major_2

Was auch sehr schön zu finden ist und auch direkt einen wunderschönen Nebel beinhaltet ist das Sternbild Orion:

Sternbild_orion

Ihr seht diese drei Sterne in der Mitte des gedachten Rechtecks? Da drunter sind nochmal 3 diffuse Objekte zu sehen, dort befindet sich der Orionnebel. Ihr könnt einige Langzeit belichtete Bilder  von diesem Nebel in meiner DSLR Galerie finden.

Habt ihr erstmal einige Sternbilder/Konstellationen für euch entdeckt, findet ihr diese sehr schnell wieder, auch wenn sie eine völlig andere Position haben. Das lernt man schneller als man denkt.

Was hat es mit diesen Helligkeiten in mag oder m auf sich?

Hat man eine Astronomiesoftware oder ein Sternenbuch oder schaut einfach in Wikipedia , so stehen bei Sternen und allen möglichen Himmelsobjekten oft immer Helligkeiten mit dabei. Damit ist die scheinbare Helligkeit gemeint, also die Helligkeit wie wir sie von der Erde aus wahrnehmen.
Z.B. in Wikipedia unter Polarstern: http://de.wikipedia.org/wiki/Polarstern steht dort rechts in dem Kasten: Visuelle Helligkeit: 1.97 mag
Aha, alles klar 1.97 mag ????
Keine Ahnung wie ich diese Zahl einordnen soll, auch das ist sehr einfach: Je kleiner desto heller. Diese Zahlen können sogar negativ werden und sind damit sogar besonders hell. Um die Zahlen einsortieren zu können mal einige Beispiele zur Orientierung, angegeben sind immer die maximalen Helligkeiten die je gemessen wurden und sortiert nach Helligkeit:

Sonne: -26.7 mag
Mond:  -12mag
ISS:     -5 mag
Jupiter: -2,94 mag
Sirius: -1,46 mag (abgesehen von der Sonne der hellste Stern am Himmel)
Polarstern: 1,97 mag
Andromeda Galaxie: 3,4mag

Ihr seht also, der Polarstern ist kein besonders helles Objekt am Himmel, viele der Planeten in unserer Sonnensystem allerdings schon. Der Jupiter oder Mars z.B. sehen mit bloßem Auge aus wie extrem helle Sterne. Mit dem Unterschied, dass sie etwas anders gefärbt sind wenn man genau hin sieht.

 

 

Bilder Quellen: Wikipedia oder von mir selbst. 

Jupiter mit seinen Monden 10.01.2015

Eigentlich eher am 11.01.2015 um 1:30 früh entstanden. Der Jupiter ist mit bloßem Auge extrem gut sichtbar und ist als einer der hellsten Sterne am Himmel zu erkennen. Er ist der größte Planet in unserem Sonnensystem und besteht hauptsächlich aus Gas. Die 4 Flecken die ihr neben dem Jupiter seht, sind die 4 größten Monde von den 61 bekannten Monden. Das Bild habe ich mit der Kamera (Canon EOS 1200d) direkt am Teleskop (Celestron Astromaster 130eq) mit einer 2x Barlow Linse angeschlossen und ohne Nachführung gemacht. Die Vergrösserung liegt bei ca. 120x. Der Planet selbst ist extrem hell und die Monde leider relativ dunkel, deswegen 2 verschiedene Belichtungszeiten. In der Galerie könnt ihr das Bild sehen und einige Randinformationen dazu finden.
Jupiter 10.01.2015

Einige Erklärungen über Astrofotografie, stacken, Nachführung, Belichtungszeit etc.

Das riesen Problem bei der Astrofotografie ist immer, dass die meisten Objekte die man beobachten möchte sehr dunkel sind und man daher sehr lange belichten muss. Einige Minuten Belichtung sind meistens am besten. Leider macht einem die Erdrotation da einen Strich durch die Rechnung. Als Beispiel: Ich belichte einen Stern bei nur 20x Vergrößerung (die Vergrösserung liegt im Bereich eines Teleobjektivs) einige Sekunden lang und sehe dann schon keinen runden Stern mehr, sondern einen strichförmigen. Verwende ich die Kamera durch das Teleskop, habe ich auf einmal sogar ca. 100x Vergrößerung und kann den Stern im Prinzip garnicht mehr punktförmig fotografieren. Aus diesem Grund muss das Stativ des Teleskops nachgeführt werden und die Erdrotation ausgleichen, das ist allerdings recht viel Arbeit und funktioniert in der Praxis auch nicht immer so gut wie man sich das wünscht. 

Belichtungszeiten und stacken:

Um auch mit kürzeren Belichtungszeiten (10-30sec) bereits schöne Bilder zu bekommen, kann man von einem Objekt einfach sehr viele Bilder bei einer kurzen Belichtungszeit machen und diese später “stacken”. Das bedeutet, dass die Bilder ersteinmal exakt übereinander gelegt werden und dann statistisch gemittelt. Dadurch kann ich das Rauschen der Kamera verringern und bin dann in der Lage, die maximale Information aus meinem Bild zu bekommen. Die Bildinformation die ich also in den 10-30sec gesammelt habe, geht dadurch nicht mehr im Bildrauschen unter. Dies ersetzt aber auf keinen Fall eine lange Belichtungszeit, z.B. wenn ich vom Orionnebel 50 Bilder bei 10sec Belichtungszeit mache und diese dann stacke, dann bekommt man nach einiger Nachbearbeitung ein solches Bild:

Orion Nebel Piggyback, neue Bearbeitung

 

Das Bild ist ja an sich bereits sehr schön und auch schon sehr rauschfrei. Hätte ich allerdings 50 Bilder bei 30sec-60sec gemacht, dann würde man z.B. auch den kompletten Running Man Nebel erkennen (oben in der Mitte ist so ein blauer Fleck). Selbst wenn ich 200 Bilder bei 10sec gemacht hätte, wäre der Running Man immer noch nicht zu erkennen. Das Prinzip dahinter ist eigenlich sehr einfach: Wenn ich sehr sehr lange belichte, dann kommen ab und zu einige Photonen vom Running Man Nebel auf den Kamerasensor an und diese registriert das und der Pixel bleibt dann auf dieser Farbe sofern kein neues Licht diesen überdeckt. Wenn aber kein Licht auf den Pixel triftt ist der springende Punkt, dass sich der Pixel dann nicht mehr ändert.
Ok, was passiert beim stacken der Bilder? Das ist ebenfalls recht einfach und zwar betrachten wir wieder einen sehr dunklen Pixel vom Running Man und wir nehmen an dass wir 50 Bilder bei kurzer Belichtungszeit haben. Dann ist das Problem einfach, dass ich auf einigen der 50 Bilder Photonen vom Running man eingefangen habe und auf einigen Bildern aber auch nicht. Bilde ich nun den Mittelwert heißt dass, der Pixel ist ein paar mal schwarz und ein paar mal farbig. Der Mittelwert aus farbig und schwarz ist aber leider einfach dunkler und da liegt das Problem. Bei sehr dunklen Bereichen werde ich mehr schwarze als farbige Pixel haben und mittele mir die Farben dann quasi raus.

Also lange Rede kurzer Sinn:
Mach soviele Bilder wie du kannst bei der maximal möglichen Belichtungszeit die deine Nachführung hergibt. Wenn es nur 10sec sind, wirst du aber immer noch sehr schöne Bilder machen können nur halt die dunklen Bereiche deines Objekts nicht sehen können.

ISO Zahl:
Welche ISO Zahl soll ich denn nun nehmen? Schaut euch hierfür mein kleines Experiment an: http://drbacke.de/2015/01/26/iso-und-belichtungszeit-experiment/

Light Frames: Das sind eure eigentlichen Bilder mit z.B. der Andromeda Galaxie drauf. Die Bilder dürfen ruhig leicht verschoben/verdreht sein, das Programm DeepSkyStacker schiebt die Bilder später alle wieder richtig übereinander. Wichtig dafür ist allerdings, dass viele runde! Sterne auf dem Bild sind, da das Programm die Lage der Sterne verwendet, um diese aufeinander zu legen.

Dark Frames: Ihr laßt alles so wie es war, also die Kamera am Okularauszug des Teleskop oder Piggyback. Und macht je nachdem einen Stopfen auf das Objektiv oder das Teleskop. Jetzt macht ihr einfach mit denselben Einstellungen wie bei den Lightframes (Belichtung, ISO usw.) 10-20 Dunkelbilder. Diese enthalten das mittlere Rauschen, welche später abgezogen wird und das Bild wird hiermit deutlich rauschärmer und besser. Ein sehr lohnender Schritt.

Bias Frames: Wie die Dunkelbilder, nur die Belichtungszeit auf das minimal mögliche einstellen. Bei mir ist das 1/4000 sec. Hiermit kriegt ihr das grundlegende Ausleserauschen des Sensors erfasst.

Flat Frames: Legt ein T-Shirt oder irgendwas weißes aus Stoff auf die Teleskopöffnung oder Objektivöffnung und zielt dann mit dem Teleskop oder dem Objektiv auf ein diffuses Licht. Z.B. mit der Taschenlampe auf die Wand oder sowas. Den Aufnahmemodus der Kamera hier einfach auf automatisch einstellen, also Belichtung und ISO soll die Kamera entscheiden. Hiermit könnt ihr Bildstörungen durch die Vignettierung, Staub und Schmutz verringern.

Die Andromeda Galaxie, am 5.1.2015

Am 5.1 konnte ich die Andromeda Galaxie nochmal vor die Linse bekommen, allderdings bei relativ schlechter Sicht leider (da Vollmond war und der alles überstrahlt). Das Bild habe ich mit der Kamera auf dem Rücken des Teleskops (Celestron Astromaster 130EQ) gemacht, das Teleskop also zur Nachführung verwendet (auch Piggyback genannt). Das verwendete Objektiv (Tamron 70-300mm) hab ich bei 300mm verwendet. Beeindruckend finde ich, dass die sichtbare Ausdehnung am Himmel fast so groß ist, wie die des Mondes. Allerdings kann man die Galaxie mit bloßem Auge fast gar nicht sehen. Auf dem Bild sind auch die 2 kleinen Sattelitengalaxien M32 und M110 zu sehen. Die Bilder habe ich mit DSS gestackt:ISO3200: 54x10sec, 17 Darks, 27 Bias FramesAndromeda Galaxie (M31)

Neues Sonnenbild

Ich habe heute nochmal eine neues Sonnenbild gemacht. 24 Bilder mit Avistack zusammengefügt. Man kann einige Sonnenflecken ganz gut erkennen, allerdings noch keine Oberflächendetails.
Vielleicht werde ich es die Tage nochmal mit dem Teleskop bei starker Vergrößerung testen.
Das Bild ist in der DSLR Bildergalerie zu sehen.

Sonne