Community durchsuchen
Zeige Ergebnisse für die Stichwörter "'methodik'".
17 Ergebnisse gefunden
-
methodik 08 - Astrofotografie: Filter und Wellenlängen
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Geschrieben 27. Juli 2019 (bearbeitet) Von Filtern und Wellenlängen Vieles zu den Wellenlängen am Nachthimmel wurde ja schon unter dem Titel „Weißabgleich“ etwas geschrieben. Unser Auge ist nur in einem schmalen Band des elektromagnetischen Spektrum empfindlich, so ist es nicht verwunderlich, dass unsere Kamerasensoren genau das Abzubilden versuchen und die Software daraus ein möglichst natürliches Bild generiert. Die chemischen Filme waren gegen die energiereichen kurzwelligen (blau/ultravioletten) Wellenlängen empfindlich, weshalb ein UV Filter damals Sinn macht. Das zu viele UV Licht machte einen violetten Farbstich. Besonders bemerkbar am Berg bei Schnee, der dann nicht weiß wurde. Die Sensoren der heutigen Kameras sind hier kaum empfindlich, dafür aber stark im Roten und Infraroten Bereich. Daher ist vor dem Sensor in der Kamera ein spezielles Filter verbaut, der nur Licht zwischen 400 und 650nm durchlässt. Ich habe einen solchen Filter mal im Fotometer vermessen. Dazu schickt man Licht der einzelnen Wellenlängen durch das Filter und misst wie viel durchkommt. Das nennt man Transmission (Durchlass). So sieht die Filtercharakteristik des Sperrfilters eine Olympus E-PL6 aus, andere Olympus Kameras werden da wohl kaum stark unterschiedlich sein. Das einer E-M10.II sieht ähnlich aus, aber lässt im IR dann um die 10% durch. %T (Transmission) ist wie viel % an Licht der Wellenlänge durchgelassen wird. Wellenlänge in nm (Nano Meter). Wellenlängen kleiner 400nm sind bereits UV Licht, zuerst das weiche UVa und dann das harte UVb. Das ist der Anteil der die Haut bräunen lässt, aber auch Krebs und Hautalterung auslöst. Über 650nm ist dann Infrarot, hier das Nahe, das der Wärmebildkameras ist sehr viel weiter oben, daher kann man mit einer auf IR modifizierten Kamera nicht die Temperatur zeigen, zumindest nicht die der Haut, glühende Körper sehr wohl. Ein unzureichend gegen IR geschützter Chip würde einen roten Schleier über das Bild legen. Linsen sind zwar möglichst gut korrigiert, sodass der Brennpunkt der Wellenlängen Rot, Grün und Blau möglichst im selben Punkt fallen, aber so ganz sind sie es nie. Und so würde das Infrarot als unscharfes Bild über dem normalen Bild liegen. Bei Sternen stark vergrößert sieht man das anhand eines unscharfen roten Saumes. Normalerweise wird auf das Grüne Licht (der stärkste Kanal und in der Mitte) fokussiert. Sucht man dann den besten Kompromiss, so ist der Fokus am besten, wenn der rote Saum gerade verschwunden ist. Mit im obigen Plot ist auch das Transmissionsvermögen eines H-alpha Filter. Das ist ja dieses rote Licht der Galaktischen Nebel. Hier lässt als eine normale, nicht modifizierte Kamera also ca. nur mehr 1/3 durch. Bei hellen Nebel durchaus brauchbar viel, man muss halt das rote Licht der Nebel hinterher verstärken. Um die Lichtverschmutzung unseres Himmels etwas zu kompensieren gibt es ja Filter mit unterschiedlichen Bezeichnungen, wie Clear Night, LPR, Neodym, Sky-Glow etc. Ich habe mal ein CLS Filter erstanden und gemessen: Der grüne Balken zeigt den Bereich, den unsere Kameras abbilden, also 400-650nm. Was man sieht es werden Wellenlängen im Tiefblauen aber hauptsächlich im Grünen und Orangen Bereich ausgesperrt. Da liegen die Typischen Emissionslinien unsere Gasentladungslampen: Natrium und Quecksilber. Dieses Licht wird ja von den Staubteilchen der Luft zurückgeworfen und hellen und verfärben so unseren Sternenhimmel. Da mehr oder weniger der Grüne Anteil fehlt wird ein Weißabgleich schwierig. Wenn die Lichtverschmutzung nicht extrem ist, kann man sich diese Filter sparen, denn der Weißabgleich wird sowieso im Zuge der Bearbeitung gemacht. Bei Lichtverschmutzungen aus verschiedensten Bereichen und Farben erzeugt meist sowieso dann derartige komplexe Helligkeits- und vor allem Farbgradienten, die man meist nicht mehr herausbringt. Das trifft einem natürlich noch schlimmer wenn man große Bereiche wie sie Weitwinkelobjektive liefern abbilden will, und vor allem im Horizontnähe. Was der Erfahrene sofort bemerken wird: Dieser Filter ist für visuelle Zwecke oder nicht modifizierte Kameras ausgelegt: Er ist im IR offen. Daher gibt es für den Einsatz für modifizierte Kameras oder eben allgemein als CCD Kameras bezeichneten speziellen Kameras (auch wenn sie heute vielfach CMOS Chips haben) auch entsprechende Filter, meist mit dem Zusatz: CCD. Diese Filter sperren dann auch im IR Licht. Hier noch einer der neuesten Filter speziell auch ausgelegt gegen die immer mehr aufkommenden "weißen" LED‘s: Das IDAS LPS D2 Filter: Aus dem visuellen Bereich kommen dann noch die UHC Filter: UHC bedeutet Ultra Hoher Kontrast. Da die Nebel hauptsächlich nur in den Emissionslinien von Wasserstoff und Sauerstoff leuchten, lassen diese Filter nur dieses zwei wichtigen Linien durch – also ein ganz enger Bereich für den Sauerstoff (O-III) bei 501nm (grünblau) und Wasserstoff (H-Alpha) bei 656nm (und gleich darüber Stickstoff bei 658nm und Schwefel bei 672nm). Visuell bleibt dann der Himmel dunkel, und wir sehen dann das schwache Leuchten des O-III im Bereich wo unsere Augen am empfindlichsten ist, und an sich auch Wasserstoff, aber da ist unser Auge kaum mehr empfindlich (und nur noch s/w sieht. Mittlerweile sind da Multiband Filter um sehr viel Geld erhältlich die genau nur die wichtigen Wellenlängen durchlassen und den Rest sperren. Normalerweise nimmt man für solche „Schmalbandaufnahmen“ ja einzelne Filter, macht durch jedes Filter eine Reihe von Bildern um sie dann hinterher zusammenzufügen. Mit dieser als „narrow band“ Fotografie bezeichneten Technik kann man selbst aus stark licht verschmutzen Städten sehr gute Bilder von Nebeln erhalten. Der Aufwand ist aber hoch und man sollte hier nicht sogenannte OSC (one shot cameras = alle 3 Farben auf einmal) wie Farbdigitalkameras einsetzen. Denn wir erinnern uns: Die Kameras mit Bayer Matrix errechnen die Farben aus Roten, Grünen und Blauen Pixel. Dazu sind über dem schwarz/weiß Sensor Filterchen in Rot Grün und Blau angebracht und jeweils 4 Pixel aus 1xRot 2x Grün und 1x Blau) ergibt dann eine Farbe. Grün komm in Nebel nicht vor, also hat man für Rot und Blau nur ¼ Auflösung. Aber zum Einstieg geht es natürlich trotzdem ! Meist verwendet man dazu dann H-alpha Filter (oder mehr) und mischt das in das RGB Bild ein. Hier noch die wichtigsten Emissionslinien der Elemente in den Nebel; O-III: 496 und 501 nm (zweifach ionisierter Sauerstoff) (blaugrün) H-α: 656 nm (α-Linie des Wasserstoff) (rot) H-β: 486 nm (β-Linie des Wasserstoff) (das sehen wir gut, aber ist nur zu einem geringem % Satz überall wo auch H-alpha ist) S-II: 672 nm (einfach ionisierter Schwefel) (rot) N-II: 658 nm (einfach ionisierter Stickstoff) (rot) Gleich Anfangs hatte ich einen günstigen UHC Filter erstanden. Nach einem ersten Fotografischen Einsatz an der stark Lichtverschmutzen tief stehenden Milchstraße konnte ich aber keinen Weißabgleich zustande bringen. So verwendete ich ihn nicht mehr. Kein Wunder: Außer O-III und ab H-alpha wird alles herausfiltriert. Mit zwei Farben gibt es halt keinen Weißabgleich. Die Sterne sind kontinuierliche Strahler, denn die Farben sind von der Temperatur abhängig und können daher auch nicht gut wiedergegeben werden. Letztes Jahr als sich immer mehr Leute mit ihren Digitalkameras sich an das Thema Schmalband annäherten, habe ich mir gedacht: Es wäre doch gut einen Filter zu haben, dass nur O-III und H-alpha durchlässt. Und als ich mir die Transmissionskurven meiner Filter angesehen habe, ist mir bewusst geworden, dass der günstige Castell UHC Filter genau das macht. Um das IR auszusperren muss ich halt einen UVIRCutfilter einsetzen. Einen Nebeneffekt haben Schmalbandfilter: Sehr engbandige Schmalbandfilter (7nm oder weniger) sperren ja eine großen Prozentsatz an sonstigem Licht aus so dass man auch bei Vollmond seine Schmalbandbilder machen kann. Natürlich ist es besser, bei Neumond und ohne Lichtverschmutzung zu fotografieren, aber die Ergebnisse lassen sich dennoch sehen! Seit letzten Jahr gibt es einen Dual Band Filter, der 30nm Breite hat. Damit hat man noch genügend Sternenlicht, um recht gute Farben zu erhalten, ansonsten braucht man ein zweites Set an Bildern um das kontinuierliche Spektrum abbilden zu können. Hier der Hantelnebel (M27) eines der große Sommerobjekte im 800mm Teleskop: Unmodifiziert E-M10 Mark II 16x4 Minuten ISO 800 Die Intensität des roten H-alpha habe ich stark erhöht..... Es ist also nicht so, dass es nicht mit einer normaler Kamera geht. Modifiziert E-PL6 mit UVIRCutfilter 78x4 Minuten ISO 800 bei dunklem Himmel H-alpha natürlich stark da auch die schwächeren Bereiche, auch ohne stark verstärken zu müssen. Hier über 3 Nächte 91x4 Minuten mit UHC Filter um den Vollmond herum aufgenommen: Ohne Schmalband Filter wäre eine 4 Minuten Belichtung bei ISO800 nahezu weiß.... Durch das helle Mondlicht das Anteilig durchkommt, gibt es bei diesen Bedingungen genügend Belichtung am grünen Kanal, so kommt doch noch einiges an Grün durch, und der Weißabgleich für den Hintergrund geht gut genug. Hier ist ein Einzelbild ohne weitere Bearbeitung (OOC - out of Cam) mit eingeblendeten Histogramm. Man sieht, dass sehr wohl etwas Grün durchkommt... denn bei soviel Licht kommt schon etwas durch die Filter. Hier ein Glück! Hier also die Charakteristik des visuellen UHC Filter: Grün: normaler Bereich Digitalkamera 400-650nm Dunkelgrün: Das was man üblicherweise öffnet mit UVIRCut Filter bis 700nm Blauer Balken: O-III, H-ß Roter Balken: H-alpha, N-II,S-II In der Astronomie sind zwei gängige Filtergrößen üblich: 1,25“ und 2“ (Zoll) üblich. Man sollte darauf achten dass man 2“ hat. Bei Fotooptiken hat man ja oft verschiedene Filterdurchmesser. Sehr gute Filter sind sehr teuer, und je größer desto schwieriger zu bekommen und extrem teuer. Da habe ich in günstig und gut nur den Haida Pro II MC Digital Slim UV/IR 390/750 Filter gefunden. Den ich für die gängigen Filterdurchmesser verwende. Man kann auch einen größeren verwenden und entsprechende Step up Ringe verwenden. Hier ist das Transmissionsvermögen des Haida UVIR750: Wie die Bezeichnung schon sagt, er öffnet den Bereich zwischen 390 und 750nm Mit dabei auch meine zwei günstigen IR Filter: Sa sieht man, dass sie dann nur im Infraroten durchlassen. In der Praxis kommt aber bei Sonnenschein auch hier genügend durch, dass man auf einer normalen Kamera etwas sehen kann. Und wo endet man als sehr fortgeschrittener Astrofotograf wenn man möchte ? Als Erstes wir man eine modifizierte Kamera verwenden wollen. Danach eine gekühlte OSC (one shot camera), also eine gekühlte Farbkamera. Damit hat man das Rauschen im Griff und die Empfindlichkeit steigt. Der letzte Schritt: gekühlte schwarz/weiß Kamera und Filterrad mit Filtern. Im einfachsten Fall wird man dann 3 Fotoserien machen durch jeweils 3 Filter – Rot, Grün, Blau oder seltener verwendet: Cyan, Magenta, Gelb. Da ja jedes Pixel des Sensors belichtet wird, hat man schon von daher eine 4 fach höhere Auflösung zur Verfügung. Natürlich braucht man für jede Serie mit den einzelnen Farben jeweils eigene Flats und man muss auch für jeden Filter den Fokus neu einstellen. Die Darks und BIAS sind ja gleich. Die Chipkühlung hat man ja hoffentlich gleich gelassen, sodass man die selben BIAS und Dark verwenden kann. Dann arbeitet man jeden der Farbauszüge aus und vereinigt diese dann zum RGB Bild. Man wird aber schnell zum LRGB Verfahren übergehen: Man belichtet durch ein UVIRCut Filter um ein Graustufen Bild zu bekommen. Das ist die sogenannte Luminanz (Helligkeit). Die Luminanz kann man nämlich durch weniger R G B Bilder einfärben. Die Luminanz sorgt dann für die Rauschfreiheit und Schärfe, die R G B für das einfärben. Übrigens kann man auch seine normalen Bilder zum Schluss mit einem künstlichem L/RGB verfahren aufpeppen: Man extrahiert aus seinem RGB Bild die Luminanz, also ein Graustufenbild. Da kann man dann noch am Kontrast, Schärfe, Rauschen etc. arbeiten. Danach mischt man aus dem RGB die Farben ein. Dabei wir üblicherweise dann noch mit einem Regler die Helligkeit und Farbintensität angepasst. Sehr zu empfehlen um den Bildern den letzten Schliff zu geben. Wem 4 Filter nicht aufwendig genug ist macht dann Schmalband: Luminanz + Schmalbandfilter: Meist H-alpha, O-III und S-II. Mit diesen 3 Farben werden dann die Falschfarbenbilder wie wir sie vom Hubble Spaceteleskop kennen. Die sogenannte Hubble Palette: S-II wir dabei der Rote Kanal, H-alpha der Grüne und O-III der Blau Kanal des RGB zugeordnet. Wie schon gesagt: Damit kann man auch aus der Stadt noch Deep Sky Fotografie betreiben. Man sollte aber nicht vergessen: Man braucht in Summe lange Belichtungszeiten… oftmals gehen solche Projekte nur über ein zwei oder mehr Jahre. Denn oft ist das Objekt ja nur kurz im eigenen Sichtfeld. Dafür hat man halt das Teleskop am Balkon fix aufgestellt und nützt jede klare Nacht und sei eine Session noch so kurz. In Summe kommt man dann halt mal auf >20 Stunden Belichtungszeiten. Bei der Sonne ist es speziell, was H-alpha betrifft: Man bekommt ja via Webseiten immer aktuelle Bilder der Sonne. Mit einem guten Sonnenfilter (ja nie ohne!!) bekommt man immer nur die Sonne im Weißlicht. Daneben zeigt aber ein Bild im H-alpha spektakulär Details der Oberfläche. Im nahem UV (Calziumlinie) ebenso, was uns aber eher verschlossen bleibt, weil die CMOS Sensoren da relativ unempfindlich sind. Das geht aber nicht mit einem normalen H-alpha Filter, die sind viel zu breit. Um den nötigen Kontrast zu erhalten, braucht man Bandbreiten mit unter 0,07nm. Das ganze muß eben sehr fein abgestimmt werden. Dazu gibt es verschiedenen Methoden, wie Temperaturänderung oder Druck auf die Filterpacks. Da gibt es spezielle kleinere Sonnenteleskope, die spezielle Filterpack mehr oder weniger fix verbaut haben. Lange Zeit waren die Coronado und Lunt Sonnenteleskope das Maß aller Dinge. Bei größeren Geräten auch noch, allerdings bewegt man sich da ab 7000,-, alleine ein größeres Energieschutzfilter kostet ja schon gegen 1000,-. Es gab aber ein kleines "all in one" mit um die 1200,-. Seit Ende 2024 ist aber ein neuer Anbieter in diesem Markt eingestiegen: SolarQuest. Zufällig war ich beim "Teleskopdoktor" um nach 10 Jahren meinen Newton ansehen zu lassen. Da wurde mir angeboten draußen auf der Straße damit die Sonne anzusehen. Mein erster Blick auf die Sonne in H-alpha. Es war überwältigend gut, so wie das Bild auf der Webseite ! Wer das jetzt noch fotografieren will muß aber bedenken: Die Kamera sollte/muß im H-alpha Bereich offen sein. Und das rote Licht wird nur die Roten Pixel der Bayermatrix ansprechen. Die Auflösung wird also nicht über 4 MPixel kommen. Da sollte man dann eine kleine s/w Planetenkamera anschaffen. Die Ausbrüche der Sonne sind ja sehr dynamisch, also sollte man schon recht kurz belichten, sonst wird es verwaschen. Bei Mond und Planeten gibt es auch spezielle Filter, die aber darauf abzielen, durch die Komplementärfarben den Kontrast zu erhöhen. Beim Mond sollen Grünfilter helfen, aber am besten man nimmt Infrarotfilter ab 750nm. Denn das Flimmern durch Luftunruhe sinkt mit der Länge der Wellenlänge stark ab. Natürlich dann nur mit einer IR Modifizierten Kamera möglich und das Ergebnis ist ein s/w Bild. Für Planeten ist jede Digitalkamera eher nicht geeignet, denn man benötigt zig-Tausende Bilder für vernünftige Auflösung. Bei Venus kommen die Wolken im UV Licht heraus. Dummer weise sind hier die Chips aber sehr unempfindlich. Und bei der kleinen Wellenlänge ist das Flimmern der Luft schon enorm. Für die große Gasplaneten gibt es Methanfilter. Und auch zu bedenken: Am Jupiter muss man alle Bilder die man benötigt innerhalb 1-2 Minuten gesammelt haben, denn er rotiert sehr schnell. Man wird sich dann bald mal mit „Derotierung“ durch WinJupos beschäftigen müssen. Und in unseren Breiten braucht man bedingt durch den tiefen Stand am Horizont einen ADC (Atmosphärischer Dispersion Korrektor). Wer seine Bilder, die nahe des Horizont (so 30 Grad über Horizont) gemacht hat ansieht bemerkt, dass die Farben schon durch die Atmosphäre aufgetrennt wurden. Das wäre nicht das Problem, denn man kann die Farbkanäle soweit verschieben, dass sie wieder übereinander liegen, aber wer es genau nimmt: Die Runden Objekte werden natürlich auch in die Länge gezogen etc. Und mit einem ADC kann man das ausgleichen. Die Einstellung ist heikel, man verschiebt da drinnen zwei Prismen bis es passt…. Das alles soll nicht entmutigen, man kann auch mit einfachen Mittel schöne Bilder bekommen, aber vielleicht erklären worauf man stößt, wenn man seine Bilder genauer ansieht und komische Effekte sieht. Astrofotografie ist eben ein weites Feld und man kann es beliebig vertiefen. Anfangs ist man Universalist, aber früher oder später wird man herausfinden, in welche Richtung man gehen will und sich dann spezielle Gerätschaften anschaffen. Und natürlich wird man sich vorher gut einlesen damit man nicht unnötig viel Geld versenkt.. Siegfried- 1 Antwort
-
- 2
-
-
- astrofotografie
- weißabgleich
-
(und 1 weiterer)
Markiert mit:
-
methodik 07 - Astrofotografie: Nachführen
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Nachführungen (alter Beitrag aus 1/2019 - etwas angepasst) Außer mit Ultraweitwinkel (7mm,8mm) wo man bei sehr hoher ISO noch mit 10-15 Sekunden annähernd genügend Licht am Sensor sammeln kann vom fixem Stativ, wird man eine Nachführung benötigen. Wer „nur“ einen schönen Sternenhimmel mit Landschaft (Milchstraßenfotografie, TWAN – the world at night) machen will, nimmt unter Umständen eine leichte Wanderung der Sterne in kauf um genügend Licht sammeln zu können. Selbst da wird man dann mal an die Anschaffung einer kleinen Nachführung nachdenken. Schon alleine die halbe Nachführgeschwindigkeit als Kompromiss erhöht ja schon die mögliche Belichtungszeit. Wer mehr will muss sich sowieso damit anfreunden zwei Serien an Bildern anzufertigen: Eines für den Vordergrund und eines für die Sterne, die man dann am Schluss zu einem vereinigt. Es gibt zwar Ansätze, wo der Kamerasensor hier selbst über den beweglichen Sensor der Sternbewegung folgt, aber das ist mehr oder weniger als Gimik einzustufen. Ansonsten bedarf es eben einer Nachführung. An sich gibt es genau zwei Anforderungen: Präzision der Nachführung über genügend lange Zeit und Tragfähigkeit. Aber auch noch zwei weitere Kriterien: Preis und Mobilität. Die besten Nachführung nützt nichts, wenn man sie nicht in den Urlaub oder auf den Berg schleppen kann. Kann man bei ersterem kaum einen Kompromiss eingehen, muss man ihn bei den letzten zwei Kriterien schon öfter finden. Die Tragfähigkeit wird in den Prospekten und technischen Daten leider meist sehr optimistisch angegeben. Bei unseren leichten µFT Kameras und Linsen ist man da etwas von der Gewichtsproblematik befreit. Was uns dafür schon stark trifft ist die erzielbare Vergrößerung bei der möglichen Brennweite. Wenn man also liest "es hat jemand 300mm erfolgreich tracken können", dann ist das oft auf KB Sensor bezogen. Das wäre dann bei uns also 150mm. Und die kleinere Pixel unserer FT Sensoren verzeihen auch weniger als große Pixel. Damit eine Nachführung mit dem Gewicht klar kommen kann, braucht man bei höheren Belastungen dann auch oft ein Gegengewicht. Es kann aber auch eine zweite Kamera sein 🙂 Das ganze muss auch aus tariert sein, aber unbedingt auf Zug, damit sie präzise arbeiten kann. Die übliche Art der Montierung nennt sich parallaktische (=Deutsche) Montierung. Dabei wird eine Achse parallel zur Erdachse ausgerichtet, also auf den Himmelsnordpol. Man muss also das ganze mal einnorden. Die Bewegung der Sterne, Mond und Sonne wird dann einfach dadurch ausgeglichen, dass ein Motor das ganze um diese Achse dreht. Einarm oder Gabelmotierungen sind (im Einsteigerbereich) außer für Mond und Planetenfotografie kaum zur Astrofotografie geeignet. Es fehlt die Präzision für längere Belichtungszeit. Mittlerweile gibt es da neue Montierungen wie "Harmonic Drive" von ZWO oder "Wave" von SkyWatcher sowie Nachbauten, die das einfacher versprechen. Preise sind nicht unbedingt kleiner, aber sie sind kompakter. Im unteren Bereich so 250-400 Euro gibt es ein paar, wie wohl bekannt habe ich mich für den StarAdventurer (normal, und nicht den Mini, der über WLAN und App gesteuert wird) entschieden und halte ihn nach wie vor für den Besten fürs kleine Geld. Meist hat man ein Problem mit dem Einnorden: Bei den kleineren ist da oft nur ein Guckloch, wo man auf den Polarstern ausrichtet. Diese Präzision wird nur für Weitwinkelbilder mit begrenzter Belichtungszeit reichen. Ein optionales Polarskope das für ein präzises Einnorden notwendig ist kann dann mit einem Ausleger montiert werden. Das Problem hier: Wie stellt man sicher, dass es dann präzise mit der Ausrichtung der Achse übereinstimmt. Das betrifft auch den Halter für ein Polarskope. Wenn das schon schief in der Fassung sitzt, das dann auszurichten wird wohl sehr hart. Auch wenn es schon vom Werk her ausgerichtet in der Fassung sitzt, wenn das mal zu Boden fällt, kann sich das dann verschieben. Daher immer sehr umsichtig vorgehen und extra darauf achten, dass so etwas nicht passiert. Das gilt dann auch für einen Justierlaser, wobei der zwar mit viel Schweiß aber wohl leichter wieder auszurichten ist. Oft sieht man auch, dass man nach einnorden erst die Kamera anbringen kann. Dass sich dabei nichts verstellt ist wohl eine wirkliche Herausforderung. Eine nicht genügend präzise Einnordung mag dann bei kurzer Belichtungszeit und Weitwinkel noch funktionieren, aber bei längerer Belichtungszeit bald nicht mehr. Und mehr Brennweite erfordert auch mehr Präzision. Das Problem potenziert sich dann schnell, weil ja Telebrennweiten meist Lichtschwächer sind und auch mehr Belichtungszeit erfordern. Je mehr man an die Grenzen der Nachführpräzision stößt, desto besser muss man dann einstellen. Das bedeutet dann nach jedem Bild ein klein wenig die Ausrichtung korrigieren muss. Alles sehr Zeitaufwändig und ein versehentliches Anstoßen am Stativ und man beginnt von Neuem. Wer weniger mobil sein muss, wird sich dann vielleicht eine kleinere Astromontierung anschaffen um so größere Brennweiten besser verwenden zu können. Früher hätte man eine EQM-35 SynScan GoTo in Betracht gezogen, aber mit der HEQ5pro oder AZ-EQ5s glücklicher geworden. Heute bietet sich z.b. ein Star Adventurer GTi an. Wer kann, achtet darauf, dass Zahnriemen für die Bewegung sorgen, denn Zahnräder alleine haben einen größeren periodischen Fehler. Bei GoTo Steuerungen gibt es viele Meinungen. Da ich fotografieren will und wenn geht nicht erst lange am Himmel suchen muss, ist es für mich schon eher ein Muss. Keine Angst, es ist dennoch nicht immer einfach sein Objekt zu finden. Verfügt die Montierung über eines der Standardprotokolle, kann man seine Montierung auch mittels APP oder via Stellarium oder spezielle Software (meist in Verbindung mit Aufnahmesteuerung und mehr) steuern. Man kann dann seine Objekte auch direkt anfahren, ohne GoTo Handsteuerung. Es gibt auch Montierungen, da wird ein Bild des Himmels gemacht und nach Astrometrierung weiß dann die Montierung wo man sich am Himmel gerade befindet. Eine EQ5 sind auch geeignet für kleinere Teleskope, für einen 800mm Kohlefaser Fotonewton wäre sie das absolute noch erträgliche Minimum. Es sollt halt kein Wind wehen 😉 Für lange Brennweiten und damit einhergehend meist geringere Lichtstärke wird man dann aber auch nicht um Guiding herumkommen. Dazu braucht die Nachführung dann eine ST4 Buchse. Das rundum „sorglos“ Paket kann man in Form des MGen II Autoguiders kaufen. Dafür konnte ich mich entscheiden. Wer es günstig will benötigt einen Laptop mit einem kleinen Kamerakopf und kann dann auch guiden. Aber es ist nicht so komfortabel und Freeware ist fehleranfällig, mittlerweile aber wohl etwas ausgereifter. Da ich mit der einfachen und schnellen Kochab Methode einnorde, komme ich bei 800mm Brennweite auf ca 40 – 80 Sekunden Belichtungszeit ohne Guider. Je nachdem wie genau ich‘s erwischt habe. Dazu brauche ich die Sicht auf den Polarstern. Ansonsten kann man einscheinern, auch wenn der Mgen da eine Unterstützung bietet, es dauert relativ lange bis man es auf diese Weise eingestellt hat. Für meine üblichen 4 Minuten Belichtungen bei F/4 verwende ich dann eben einen Guider. Was macht der jetzt: Eine kleine Kamera an einem Sucherfernrohr zeigt (hoffentlich) Sterne. Die Guidingsoftware sorgt dann mit Hilfe von Korrektursteuersignalen an die Nachführung dafür, dass ein gewählter Stern am selben Ort stehen bleibt. Zumindest beim Mgen ist der Kamerakopf so empfindlich, dass ich bisher immer eine Stern gefunden habe auf den ich guiden konnte. Das ganze geht jedenfalls recht unproblematisch und schnell zum Verkabeln. Man kann auch den StarAdventurer guiden, aber nur eine Achse. Die Firma Lacerta hat zwar versucht, alle zwei Achsen zu guiden, aber letztlich die Entwicklung eingestellt, weil es viel zu Kompliziert und teuer gewesen wäre. Um das Geld bekommt man eine „gscheite“ gute Astromontierung…… Wie den schon erwähnten GTi. Die stärkste wohl noch transportable Montierung ist meine AZ-EQ6. Der Kopf ist sogar eine Spur leichter als die der anderen EQ6 Typen, aber alles viel massiver ausgeführt. Mit Gegengewichten, Fernrohr etc kommt man jedenfalls alles in allem auf 35 – mehr kg. Das schwerste Teil ist mit gut 12-14 kg der Kopf. Das AZ bedeutet dass man sie auch Azimutal, also wie ein gewöhnliches Stativ verwenden kann. Ein Ausblick, wie es nach oben weitergeht: Für mehr Tragfähigkeit also so bis 50kg ist die günstigste und auch weit verbreitetste Montierung die EQ8. Solche Köpfe werden meist auf einer fix einbetonierten Säule einer Sternwarte verbaut. Da alles fix aufgestellt ist wird hier natürlich gut eingescheinert und so benötigt man zumindest bei üblichen Belichtungszeiten 4-10 Minuten dann eventuell keinen Guider. Spätestens bei den wesentlich teureren Montierung wie ASA, Fornax, Losmandy etc. nicht mehr. Aber das sind schon andere (Preis) Dimensionen, auch bei den Fernrohren. Heute zu Tage kann man aber Geräte auch stundenweise mieten, entweder auf einer „Astrofarm“ wie in Namibia oder Chile etc., wo man dann seinen Urlaub verbringt, oder gleich bei Remotesternwarten. Chilescope bietet uns da bis zu 1m Spiegel von ASA an, aber auch 500mm Teleskope. Preise findet man im Netz, für gängige Brennweiten wird man so 100 US$ pro Stunde Belichtunngszeit bezahlen. Viele bauen sich dann auch ihre eigenen Remotesternwarten, indem sie alles von der Ferne steuern können. Ist das ganze weit weg, ist es natürlich von Vorteil wenn man vor Ort jemand hat, der das Service übernimmt, oder vor Ort vorbeisehen kann, falls etwas ausfällt. Für andere Hobbies nebenher ist dann natürlich nicht mehr viel Platz 🙂 Siegfried ...der viele Hobbies hat -
methodik Schmalband - Narrow band
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Am 1.1.2022 machte ich ein Experiment mit meinem "Dual narrowband" Filter: Dem Optolong L-eNhance 2019 hatte ich ja schon mal unter "Blog's" über Schmalbandfotografie ausführlich geschrieben Das L-eNhance ersetzte die damals beschrieben Kombination aus dem billigen visuellen UHC Filter und dem notwendigen UVIRCutfilter. Diese Spezialisierten Dual Narrow Bandfilter für die Fotografie, beschneiden ja dann auch den IR Bereich. Ich hab das L-eNhance mal im Fotometer ausgemessen: Die Kurven zeigen die Durchlässigkeit (Transmission) bei den jeweiligen Wellenlängen: Dunkelrot: Ist der L-eNhance Filter, der in dem Bereich öffnet wo der ionisierte Sauerstoff (500nm) und Wasserstoff (656nm) strahlt. Rot: Zeigt ein normales UVIRCut Filter, dass von 400-700nm öffnet. Der "normale" Filter, den man nimmt, wenn man eine modifizierte Kamera hat, die mit Klarglas Modifiziert wurde. Leider gibt es bislang für Olympuskameras keine passenden Filtermodifikation, die gleich ein UVIRCut Filter Glas verwenden. Das ist insofern schlecht, dass man hier für große Fotooptiken auch immer ein großes Filter finden muss, dass auch sehr gut ist und preislich noch im Rahmen bleibt, wie ich sie mit dem Haida UVIR750nm Filtern gefunden hatte. Preislich liegen die guten Schmalbandfilter in der 2" Größe über 200 Euro. Für große Fotolinsendurchmesser falls es sie gibt, also eher Unerschwinglich! Da wäre ein Clip In Filter vor dem Sensor das Mittel der Wahl, gibt es bislang nur von einem Hersteller (STC), aber die produzieren meiner Meinung nach zu viele Reflexionen bei hellen Sternen. Es besteht auch eine weiteres Problem der Interferenz filter vor einem Objektiv: Das Licht muss möglichst senkrecht durchfallen. Also ein 2" Filter vor einem 12mm gibt alles an möglichen Farbnuancen. Solche Filter gehören vor dem Sensor und natürlich auch ohne jegliche Verkippung. Ich experimentiere (halbherzig) mit einem Filterhalter aus dem 3D Drucker für 1,25" Filter. Die würden sich nämlich auch vor dem Filter ausgehen. Ungelöst aber: Verkippungsgefahr der Filter und wie bekommt man das mit dem Wechsel einfach hin. Auch das wäre eine Baustelle, die OM Systems einfach lösen könnte, wenn sie wollten. Egal! Für die Standard 2" Astrofilter habe ich mir schon zu Beginn einen Adapter von 52mm Gewinde von Objektiven, auf 2" Filter anfertigen lassen. Für die kleineren Linsenfilterdurchmessern habe ich step-up Ringe. Step-down für größere Linsen reduzieren die Öffnung und damit das Licht. Unsere Optiken sind auch ohne Aperturbremsen gut genug 😉 Mein verfügbares Objektiv mit der längsten Brennweite und das maximal einen 2" Filter erlaubt, ist das Olympus mFT45/1.8. Gerade bemerkt: Das 60er Macro würde auch gehen, ist aber lichtschwächer. Mir fällt spontan ein Objekt ein, dass groß genug für das 45mm Objektiv ist und gerade hoch über den Himmel zieht: Der Spaghetti Nebel (Simeis 147, SH2-240) im Sternbild Stier. Der Überrest einer Supernovae Explosion vor ca. 40.000 Jahren. Er ist 3000 Lichtjahre weit weg und mit einen Durchmesser von mittlerweile 140 Lichtjahren nimmt er 3 Grad am Himmel ein. Damit ist er also gut 6x so groß wie der Mond mit seinen 0,5 Grad am Himmel. Der Sternenrest selbst blieb als schnell drehender Neutronenstern, einem Pulsar zurück. Zum Inneren hin verblasst der Nebel immer mehr und mit den Überresten werden viele schwere Elemente in die Umgebung verteilt. Sie bildet den Grundstoff für Entstehung von Planeten und vielleicht auch Leben Ich packte also die Kamera auf den StarAdventurer und stellte alles möglichst weit hinten im Garten auf, um dem hellen weißen Licht der nachbarlichen Weihnachtsdekor zu entgehen. Mit dem Schmalbandfilter sieht man zunächst mal nichts auf dem Display. Die E-PL6 hat ja nur LiveView Ext. I. So schraubte ich zunächst den Filter ab und fokussierte mal. Danach am hellen Stern ß-Tauri (der obere Hornstern des Stier) dann ist darunter mein Objekt. Nach Aufschrauben des Filters fokussierte ich erneut am Stern, den man jetzt auf jeden Fall sieht. Was einem da jetzt sofort auffällt: entweder ist es der Rote Teil (h-alpha scharf), dann ist der Rest des Sternes groß und unscharf. Man sieht einfach, dass Linsen so gut sie auch gerechnet sind, nicht 100% farbrein sind. Bei s/w Kameras ist das auch kein Problem, weil jeden einzelnen Filter scharf gestellt wird und Spiegelteleskope sind von sich aus farbrein. Man hat hier im blau/grünen Bereich (O-III) ja 500nm und H-Alpha zu 100% bei 656nm zur Verfügung. Bei normalen Kameras beginnt der Filter vorm Chip bereits, ab 550nm zu sperren und sinkt weiter ab bis er bei 656nm nur noch 1/3 durchlässt. Daher sieht man hier die Farbtrennung der Optiken nicht so gut. Ein Abblenden würde es natürlich auch besser machen, aber das bedingt wesentlich längere Belichtungszeiten. Ich wollte mich auf 1 Minute beschränken, weil das bequem der interne Serienbildmodus erlaubt. Blende hatte ich auf F/2,5 und ISO auf 1600 gestellt. So werkelte die Kamera vor sich hin, als ich dann mal mit Licht kontrollierte stellte ich nach einer Stunde fest: Der Filter war in der Mitte zugetaut. Nachher bei genauer Kontrolle: Es hat bereits nach 24 Minuten begonnen. Man konnte es am immer heller werdenden Hof um ß-Tauri gut erkennen und dass im Zentrum immer mehr schwache Sterne verschwanden. Hier also ein Screenshot eines der Bilder mit den L-eNhance Filter (Bildvorschau in ACDSee und einmal mit automatischer Streckung und Farbkorrketur. OOC: Automatische Streckung+Weißabgleich Oben das Histogramm eingeblendet. Wie üblich: Die üblichen Automatiken der Kamera kommen mit dem vielen Rot nicht zurecht, dem Weißabgleich fehlt jede Menge Grün. Der versucht so gut es geht die Histogrammpuckel von Rot/Blau mit Grün zu vereinigen. Dafür kommen dann schon mal die starken H-alpha Emmissionsnebel heraus. S147 ist der große Bereich links unterhalb des hellen Stern rechts oberhalb der Bildmitte, ß Tau, oberhalb sieht man Teile des "Flaming Star" Nebel im Fuhrmann. Wer genau hinsieht: Beim hellen Stern unten rechts (der untere "Hornstern" des Stier) ist oberhalb leicht rechts der Krebsnebel (M1) zu sehen. So tauschte ich dann den Filter dann gegen einen UVIRCut Filter, um Material für die Sternenfarben und guten Hintergrund zu bekommen. Ich erinnerte mich an meine Neuwerwerbung im Dezember: Den "Ecoflow River 600" Portable Power Station, die ja bis 2000 W liefern sollte. Kam recht für einen Test: Also Föhn angesteckt und mal zwischendurch auf den Filter geblasen. Nach 27 Bildern war dann sowieso Schluss, weil es zuzog. Hier ein OOC (out of Camera) Bild mit dem Histogramm: Ein typische Anmutung eines Bildes, wenn man eine modifizierte Kamera einsetzt. Rot dominant wegen der Modifikation, Grün und Blau daher schwächer. Dass etwas mit der Lichtverschmutzung nicht stimmt, kann man am starken Blauen Kanal sehen: Das kommt von den LED Beleuchtungen. Blaues Licht wird ja stark gestreut am Himmel, ist also üblicherweise immer schwächer als Grün. Daher ist es so schwierig, das schwache Leuchten des Sauerstoffs abzubilden. Da ist üblicherweise sehr viel weniger als Wasserstoff und es wird eben stark gestreut. Visuell ist es aber in einem Bereich wo wir gut sehen können, denn H.alpha sehen wir praktisch nicht mehr. Am S147 ist zwar auch O-III zu finden, aber da etwas mit der kleinen Optik bei dieser blauen Lichtverschmutzung zu sehen, halte ich hier für illusorisch. Am Ende machte ich noch Flats (mit den jeweiligen Filtern) und dann BIAS und Darks. Wichtig bei den Flats jedenfalls: Nicht die Schärfe verstellen und Blende sowieso! Belichten wie üblich mit +1eV (Blende). Dann stackte ich die Bilder: Natürlich interessierte mich gleich mal, ob ich S147 überhaupt sehen konnte: Ein Screenshot aus PixInsight nachträglich arrangiert: Links oben: Der Stack der Schmalband Bilder (Hintergrundextraktion + Automatische Streckung und Weißabgleich). Natürlich kommt dieses Programm besser mit Weißabgleichen zurecht, als es die eingebaute Software der Kameras, die auf Tageslicht getrimmt ist und dem verbauten Filter dass einen Hauptaugenmerk auf grün und blauer legt. Wenn man weiß wo man suchen muss, sieht man das Objekt als schwachen roten Bereich links des Sterns ß-TAU. Rechts daneben das selbe Bild, aber ohne Sterne. Da gibt es mittlerweile Programme, die auf ein Neuronales Netzwerk zurückgreifen, wie StarNet++ oder StarXterminator. Da sieht man die "Kugel" schon besser. Daraus kann man jetzt Masken machen und herumspielen um den Nebel extrem hervorzuheben und letztlich wird dann das Bild in das Sternenbild eingemischt. War mein erster Versuch so etwas zu machen, natürlich war das alles nicht optimal, hier eher aber mit brachialer Gewalt gemacht 😉 denn ich habe hier einfach den Roten h-alpha Kanal eingemischt. Mittlerweile gibt es hier auch gute Scripte: NBRGB (narrow band RGB combination): Also kein stupides addieren von Schmalband zum RGB Bild. Sondern es wird vorher der Schmalband Anteil vom RGB Spektrum abgezogen und nachher erst addiert. Auch hier eine Verbesserung, um zu "richtigeren Bildern" zu kommen. Sofern man bei Astrofotos überhaupt davon sprechen kann, denn die Helligkeitswerte zueinander stimmen ja in keiner Weise. Wenigstens die "Farben" sollten stimmen, wenn man davon absieht, dass wir H-alpha an sich auch kaum mehr selbst sehen können. Egal 2 😉 Man muss jetzt bedenken, dass hier gerade Bilder mit unter 1 Stunde Gesamtbelichtungszeit verwendet wurden für Schmalband. Normalerweise wird man ein solches Objekt mit mit gekühlten hoch empfindlichen s/w Kameras machen. Und meist mehr als 15 Stunden. Auf analogen Filmen waren damals nur ein paar der hellsten Bereiche zu finden.... Siegfried -
methodik Unfertiges vom 1.1.2022
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Am Neujahrstag war es tatsächlich relativ klar (für den Winter) und die Temperaturen sanken zuletzt gegen 3 Grad und es wurde schnell feucht. Da die Vorhersage nur eine kurze Zeit auf klareren Himmel voraussagte und die Wolkenbilder auch nicht so eindeutig war, entschied ich mich für das "kleine Setup" mit Fotolinsen. Einmal eine Versuch an einem extrem schwachen Objekt (Spaghetti Nebel) mit dem mFT45, mehr dazu ein andermal, und eben einmal mit dem Samyang 135. Da blieb dann die große Montierung zur Nachführung. Dafür keinerlei sorgen über die Güte der Nachführung 😉 Letztens hat unser Nachbar Weihnachtsbeleuchtung am Balkon installiert - der Gau für mich ! Zerstört er duch die wenigen seltenen klaren Mondlosen Nächte im Winter. Ein Gutes hat die Sachen: Es ist problemlos möglich das Setup ohne zusätzliche Lichtquellen zu fotografieren: Das verhinderte natürlich tiefe Bilder während einer der seltenen dunklen Winternächte. Man sieht auch auf diesem Bild bereits links die Sternbilder des Frühlings: Das große Sternbild des Löwen und ca. Bildmitte oben M44 (Presepe) umrahmt von 4 Sternen, das Sternbild Krebs. Leider kann man ja heute mit LED fast ohne Kosten extrem viel Licht machen. Und noch dazu in einem Farbenmix, der die schwachen Farben der Nebel überdeckt. Oranges Licht könnte man ja noch etwas wegfiltrieren, aber weißer LED Lichtmix überstrahlt die meisten Wellenlängen der Objekte. Egal,Ein bisserl was geht immer 😉 Und in Übung bleiben ist notwendig. Das war das Objekt für mein 135mm Teleobjektiv: Der Gürtel des Orion: Da ist ja unter dem hellen Stern Alnitak (der linke) der Pferdekopfnebel und daneben der Flammen Nebel. Und das Feld habe ich so gewählt, dass M78, "Kasper der freundliche Geist" eine heller Reflektionsnebel, wo heiße junge Sterne den Rest der Nebel beleuchten. Der hellste Stern am Himmel - Sirius (S) steht genau Mitternacht im Süden. R = Rigel B = Beteigeuze Der Stern, der sich letztes Jahr so stark abdunkelte. So sieht also ein Einzelbild aus - direkt aus dem Fotoapparat. M78 ist der Reflexionsnebel - in den Staubwolken bilden sich gerade Sterne und die heißen jungen strahlen da heraus und man sieht teile des Restlichen Nebel. Der Flammen Nebel gleich beim hellen Alnitak und unterhalb der leuchtende Bereich mit der Dunkelwolke Inform eines Pferdekopf. Weniger anzeigen Ausgearbeitet Weiter ausgearbeitet habe ich die Bilder noch nicht... Das Feld hatte ich mir vorher mit Stellarium geplant. Man braucht da ja nur Kamera und Objektivdaten eintragen und dann sieht man, was so auf Bild passt. Siegfried- 2 Antworten
-
- 4
-
-
-
praxis Mal etwas aus der Praxis am M13
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Außer bei sehr hellen Objekten wie die Sonnensystemkörper wo man notfalls ein bestimmtes Ereignis festhalten will, ist klarer und möglichst dunkler Himmel eine der wichtigsten Grundvoraussetzung. Zwischen den Schlechtwetterperioden Ende Mai bot sich eine kurze Gelegenheit um die ohnehin kurze astronomische Dunkelheit. Bei mir war das damals, 3 Wochen vor Tag/Nachtgleiche erst kurz nach 23:40. Der noch sehr helle Mond gesellt sich dann auch gegen 1:00 dazu, was hier sowieso zu einem Abbruch führen würde. Durch die feuchtere Luft und starke Abkühlung (Ende Mai bis auf 4 Grad morgens) konnte man schon ahnen, dass es wenn überhaupt nicht lange klar bleiben würde. Denn es bilden sich dann bald in größeren Höhen Dunstbänke oder gar Wolken, die den Himmel durch reflektiertes Licht der noch immer stark zunehmenden Lichtverschmutzung stärker aufhellen. Bei solchen Objekten wie Sternhaufen aber nicht so das Problem. Sterne sind ja recht hell. Ein Test mit dem Himmelsqualitätsmesser (SQM-L) hatte ich dann tatsächlich bald mal Werte um 20,70 später sogar gegen 21 gemessen, bis es dann merklich aufhellte gegen 01:10 durch Dunst und aufgehenden Mond. Rein visuell merkt man diese Verdoppelung der Helligkeit am Himmel kaum. Nur im Histogramm wandert der Peak (der Himmelshintergrund) leicht. Durch Dunst verbreitert sich dann irgendwann mal auch der Peak, weil das helle Sternenlicht zu Halos um die Sterne führt. Das kann natürlich auch eine beschlagene Linse sein, aber das war hier gerade nicht mehr das Problem, es war knapp davor und gerade noch klar für das Anfertigen der Flats. Egal aus den mehr als 2 Stunden konnten ich nach visuellem Aussortieren aller schlechten Bilder (durchziehende Wolkenbänke und diffuse Eintrübungen durch hohe Nebelbänke) 21 Bilder bekommen für die Bearbeitung. Damit kann man dann schon was anfangen und für diesen Zweck reicht es. Ich notiere mir immer wieder ein paar Eckdaten zu der Session: --------------------- Samstag immer wieder Wolken AZ-EQ6GT + E-M1.III mFT100-400 @400 F/6 2min ISO1600 24L 8D 58FD 34B 60F 23:25 8/82% SQM 20,70 23:45 8/84% SQM 20,70 00:15 7/86% SQM 20,90 00:40 7/88% SQM 20,68 Dunst! Abbruch Drüb hell !! Mond bereits aufgegangen F/D/FD/B ISO200 +1eV -------------------------- Neben der Qualität des Nachthimmels gibt es einen zweiten unabdingbaren Punkt: Wir brauchen scharfe genügend lang belichtete Bilder. Scharfzustellen vor allem bei länger brennweitigen Objektiven geht u.a. mit einer Bahtinov Maske, aber auch bei hoher Vergrößerung rein Visuell an einem helleren Stern recht gut. Die E-M1.III kann hier auch den Sternen AF Modus, der aber bei lichtschwachen Objektiven und langen Brennweiten auch bald mal versagt bezw. auch kein besseres Ergebnis bietet, als visuell die Größe des Sterns beim manuellen fokussieren zu beobachten. Das grundlegende Problem ist aber nun mal: Man muß oft minutenlang belichten. Das kann man mit wenig Aufwand und einem gutem Tracker bei kleinen Brennweiten (<70mm) noch hinbekommen. Noch dazu sind kleine Lichtstarke Brennweiten noch vergleichsweise günstig. Größere Brennweiten brauchen dann eine nochmals stark gesteigerte Nachführgenauigkeit und weil sie naturgemäß auch lichtschwächer sind zusätzlich noch längere Belichtungszeit. Da wird es mit den Freiheiten der Fotografie schnell sehr eng. Man liest ja oft, StarAdventurer (wohl einer der Besten günstigen) von bis zu 400mm kein Problem, aber man darf hier nicht vergessen: Wir haben FT Sensoren wo 400mm eine Vergrößerung eines 800mm an einem KB Sensor sind. Diese KB Sensoren haben noch dazu größere Pixel, die mehr verzeien. Also 200mm bei 4 Minuten an einem StarAdventurer würde ich schon als sportlich bezeichnen, wo sich einer wirklich mit der präzisen Einnordung gespielt hat und man das Glück hatte, dass gerade alles so läuft wie es sollte. Das tut es nämlich oft nicht, was man aber in der eigenen Praxis bald herausfindet. Dazu kommt aber auch: Auch wenn die Sterne rund aussehen mögen aber über längere Zeit sich das Bildfeld in eine Richtung verschiebt, kommt es dann zu einem sehr eunschönen, praktisch nicht zu korrierenden Effekt der "wandelnden Schatten" besser als walking shades oder moving noise. Dem kann man entgegensteueren indem man ab und an sein Bildfeld etwas versetzt. Nennt sich dithering. Da ich über eine sehr gute Montierung verfüge und ich zu einem Ergebnis kommen will, habe ich es hier leichter: Einfach das Ganze auf die große GoTo Montierung (SkyWatcher AZ-EQ6) und damit auch die Nachführung absolut präzise läuft mit Guiding. Mittlerweile brauche ich (wenn alles läuft wie es soll) unter 30 Minuten bis alles von alleine meine Belichtungen sammelt..... Der letzte wichtige Punk, den ich hier aber jetzt nicht bespreche: Die nachfolgende Bildbearbeitung. Da kann man auch mit noch soviel Geld keine Software kaufen, die einem das abnimmt. Da ist hart erarbeitetes eigenes Gewusst wie gefordert. Unsere Oly Kameras und verfügbaren guten Linsen sind hier jedenfalls die längste Zeit nicht der limitierende Faktor. Jetzt also zu dieser Session: Vorher habe ich mal bei MeteoBlue die Seeingprognose geschaut, wie die Bedingungen für meinen Raum vorhergesagt sind und beim lokalen Wetterdienst (INCA Karte) den Bewölkungsverlauf studiert um zu entscheiden probieren oder lieber schlafen 😉 Für alles andere wäre die Nacht sowieso zu kurz und schlecht, so entschied ich mich spontan für M13 mit dem 100-400 Zoom. Also das Ganze aufgebaut und mit der schnellen Kochab Methode eingenordet: Mit einem Auge durch das Polsucherfernrohr geschaut und mit dem anderen Auge die Position von Kochab (2. hellster Stern im Kasten des kleinen Wagen/Bären) und dann den Polarstern an die Position im Ring des Polarscope gebracht dass er auf einer Linie vom Zentrum aus zu Kochab steht. Das ist genau genug, dass ich bei 800mm zwischen 40 Sekunden und 1min 20 belichten könnte. Mehr Präzision erfordert dann einfach wesentlich mehr Zeit zum Einnorden. Aber das erspare ich mir, weil ich ja mit einem Stern guide. Damit wird eine Abweichung von soll präzise laufend korrigiert. Danach ein 1-Stern Alignment an der Wega gemacht: Das Teleskop fährt dabei von der Startposition (auf Norden ausgerichtet) in die Nähe des Sterns. Wenn man Glück hat, sieht man den Stern im Sucherfernrohr. Dahin muss man ihn mit der Motorsteuerung der Handbox (oder was auch immer man verwendet) bringen.Und zwar mittig ins Fadenkreuz. Hat man bei den vorherigen Sessions schon mal alles so abgeglichen dass der Stern dann auch in der Mitte des Bildfeldes der Kamera steht bestätigt man die Position. Wenn nicht: Stern in der Mitte des Kameradisplays und bei der Gelegenheit das Fadenkreuz des Sucherfernrohr so einstellen, dass der Stern auch in der Mitte steht. Unseren Alignment Stern nehmen wir dann gleich um gut scharf zu stellen. Nicht vergessen: Fokus auf manuell lassen und bei der Kamera sollte die Linsenrückstellung deaktiviert sein. So bleibt der Fokus erhalten, sollte man mal einfach die Kamera abschalten wollen. Danach lasse ich mein Objekt anfahren. Wer eine Kamera mit LiveView Ext II hat, sieht M13 im Display. Er ist ja eingerahmt von zwei Sternen in ca 90 Grad Winkel zueinander. Hier könnte man dann natürlich noch sein Bildfeld korrigieren. Wer nichts sieht (hier aber sieht man zumindest 2-3 schwache Sterne auch ohne Restlichtverstärkung) macht ein Probebild bei hoher ISO und 10-15 Sekunden. Jetzt ist der Zeitpunkt, das Sucherfernrohr gegen eines mit dem Kamerakopf für den Guider zu tauschen. Ich habe da zwei (sind ja günstig) und man erspart sich sehr viel Ärger, wenn man da nicht Kamerakopf gegen Okular tauschen muß. Danach alles verkabeln: Bei meinem MGen Autoguider: Ein Kabel (Batchkabel) geht an den Kamerakopf, der durch das Sucherfernrohr auf einen Stern im Bildfeld schaut. Ein Kabel (ST4) geht an die Montierung und korrigiert Nachführungsfehler. Dann gibt es natürlich ein Stromkabel dass an eine 12V Quelle (Batterie oder stabilisiertes Netzteil) geht. Und ein Kabel für den Fernauslöser zur Kamera. Danach lässt man am Guider einen Stern suchen und startet eine Eichung. Dabei bewegt er die Montierung, wertet das aus um danach zu wissen, wie stark das Korrektursignal sein muss, damit der Stern bewegt wird. Das dauert keine Minute. Danach ist alles Fertig zur Belichtung: Die Kamera ist hier auf LiveTime 2 Minuten gestellt, ISO ist richtig, Antiwackel ist aus und die Auslöseverzögerung auf meine üblichen 4 Sekunden gestellt. An der Belichtungssteuerung des Guiders sind dann 2 Minuten und ca. 10 Sekunden eingestellt. Die Kamera braucht ja etwas zum Speichern auch noch und die 4 Sekunden Auslöseverzögerung. Besser auf der sicheren Seite - vor allem wenn man 2 Kameras auslösen will, die unterschiedlich schnell sind beim Speicher. Wenn dann das Guiding gestartet wird wird die Kamera ausgelöst und man kann dann im Display (bei mir alle 30 Sekunden ein refresh) zusehen, wie hier bequemer Weise das Bild sich aufbaut. Günstig auch: Die Kamera so einstellen, dass sie nach Speichern kurz das Histogram zeigt, zu schnellen Beurteilung. Da der Guider auch das dithering mache, wird dann das Bildfeld für die nächste Aufnahme leicht versetzt (schlangenförmige). Sobald dann alles stabil läuft wird die nächste Belichtung ausgelöst. Wer sich nicht sicher ist, kontrolliert nach dem ersten Bild an der Kamera nach ! Würde sich die Temperatur der Linse stark ändern sollte man zwischendurch mal erneut scharf stellen. Wer eine präzise Montierung hat mit GoTo, hat es hier relativ leicht: Einfach wieder einen hellen Stern fürs Scharfstellen anfahren und danach das Objekt wiederfinden und weiter belichten. Ihr könnt vielleicht heraushören: Wiederfinden! Hier ja kein Problem, aber es gibt Himmelsgegenden, da sieht man nichts am Display. Wenn man Glück hat mit starker Restlichtverstärkung vielleicht einen Stern, vielleicht hat man den Luxus sogar ein charakteristisches Sternenmuster zu erkennen, anhand dessen man sein Bildfeld möglichst genau wiederfindet. Sind die Aligmentsterne all zu weit vom Objekt entfernt, kann es aber sein, dass man das Objekt mit Probebelichtungen wiederfinden muß was ja noch geht, wenn man weiß wo man ist und da sein Objekt da auch sehen kann..... wenn nicht wird es mitunter Zeitraubend. Das sollte man bedenken, dass einem das ereilt wenn man immer wieder zwischendurch Scharfstellen muß. Also 15-20 Minuten belichten, neu scharfstellen und 5-? Minuten um sein Feld wiederfinden. Schon aus diesem Grund lege ich Kamera und Objektiv vorher schon zum Akklimatisieren hinaus. Zunächst offen damit im Body nicht auch noch feuchtere Luft aus dem Wohnraum im Gehäuse ist, die dann innen kondensiert. Und daher liebe ich meinen optimierten "Newton ohne Namen": Der Tubus ist aus Kohlefaser und der Spiegel aus Pyrex. Mit Ausnahme eines noch besseren Quarz Glas Spiegels, ändert sich nämlich dann auch der Spiegel. Das bei vielen billigen Teleskopen eingesetzte PK7 Glas ändert seine Form besonders stark. Spitz Zungen sprechen davon, dass er nie die Richtige Form hat. Natürlich muß der Okularauszug sehr gut sein, aber da merkt man auch schon mal wie fummelig es ist damit schon mal überhaupt Scharfstellen zu können. Ich hab es immer wieder bei meinem nachgeprüft: Der Fokus ändert sich die ganze Nacht nicht. Alle anderen Geräte haben eben das Problem der Fokusänderung wenn sich die Temperatur ändert. Bei Fernrohren für visuelle Beobachtung spielen solch Aspekte keine Rolle, wohl aber für Astrofotografie, wo sie darüber entscheiden ob man ohne graue Haare zu seinen Belichtungen kommt. Nach Abbruch sammle ich zunächst Flat Files: Dabei achten, dass die Schärfe nicht verändert wird und die selbe Blende verwendet werden muß. Da habe ich eine Flatfieldbox (die auch nicht flimmert!). Einfach mit +1eV (Blende) und schnellen Serienbild (silent shutter) 20-40 Bilder bei ISO200 sammeln. Danach merken wie lang die Belichtungszeit dafür war: Objektivdeckel drauf und mit der selben Zeit FlatDarks sammeln (geht ja schnell) und / oder BIAS Files: Einfach kürzest mögliche Belichtungszeit. Es geht aber auch nur mit BIAS oder FlatDarks, je nachdem, was Eure Stackingsoftware kann/braucht. Danach nicht vergessen: ISO wieder auf den Wert setzen mit dem man Seine Lights gesammelt hat. Und dann Darks machen: Gleiche Temperatur / ISO und Zeit wie bei den Lights. Da ich ja in der Zwischenzeit alles abbaue, drücke ich da immer wieder den Auslöser. Wer eine Sequenzer hat, kann den natürlich auch anstecken um die Darks zu sammeln. Danach sichte ich die Files: Zunächst in Ordner für Lights, Darks, BIAS und FlatDarks. Die Lights werden visuell in der Vorschau auf Helligkeit geprüft. Zu heller Hintergrund sind dann während der Session ja Wolken oder Dunst, oder gar Tau. In der 1:1 Ansicht prüfe ich auf verwacklte Bilder oder sonstwelche Fehler wie unrunde Sterne. Die verbleibenden Bilder werden dann wie üblich mit den Darks/Flat/BIAS kalibriert und gestackt und dann final ausgearbeitet... Hier also das Beste Einzelbild ohne Bearbeitung nur verkleinert (OOC): Das fertig Ausgearbeitete Bild gibt es hier: Hier also ein Überblick der Aufnahmesituation für dieses Bild. (Einzelbild vom Stativ mit dem 8mm reicht ja locker). Oben rechts der helle Stern ist Arktur, der hellste Stern und leicht zu finden, wenn man der Deichsel des großen Wagens weiterfolgt. Links der Helle oben ist Wega. Am Weg dahin sieht man deutlich im 1/3 die Nördliche Krone (Corona Borealis) in der Mitte des Bogens ein heller Stern, der "Gem" der Krone. Im 2/3 zur Wega ist der Körper des Herkules aus 4 helleren Sternen. Hier ist aus obigem Bild der Ausschnitt. Da kann man dann sogar M13 erkennen und die 2 helleren Sterne dabei: Viel Spaß beim Aufsuchen des "großen Kugelsternhaufen im Herkules" ! Siegfried -
praxis Sonnenfotografie
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Schon lange nicht mehr die Sonne fotografiert, aber eine Sonnenfinsternis, wenn auch nur sehr partiell bot halt wieder die Gelegenheit. Gleich vorweg für die Sonnenfotografie: Wenn Euch eure Augen oder Kamerasensoren lieb sind, verwendet nur die genau dafür geeigneten Filter. Auch wenn ein Medium für uns sehr dunkel erscheint, es ist nicht gesichert, dass es nicht Licht anderer Wellenlängen durchlässt und dann unser Auge oder Sensor grillen. Die Firma Baader bietet da auch eine spezielle Folie dafür an. Man kann sich damit auch eine für seine Optik geeigneten Filter basteln. Aber bitte stellt sicher, dass nicht ein Windstoß diesen von der Optik stoßen kann, die Auswirkungen wären fatal. Auch mit bloßen Auge in die Sonne zu sehen ist keine gute Idee und schadet! Daher immer eine Sonnenfinsternisbrille oder durch besagte Folie. Bei Teleobjektiven genügt die günstige Folie, für Linsenteleskope auch. Wer ambitioniert Sonnenfotografie / Beobachtung betreiben wird, gibt es da aber auch andere Hilfsmittel wie Herschelkeil und spezial „Energieschutzfilter“ was bei letzteren aber gleich sehr sehr teuer wird. Was man aber gleich vergessen kann: Hoch dichte Filter vor zuschrauben. Die können schnell man springen…. Auch Spiegelteleskope werden bei der weitergehenden Sonnenbeobachtung nicht eingesetzt. Da sind es eben kleine Linsenteleskope. Wer mehr als Weißlicht beobachten/fotografieren will wird mehr als 1000 Euro einplanen müssen, an sich wird es bei kleinen Sonnenteleskopen ab 3000 Euro interessant und bei etwas größeren geht es schnell Richtung 10.000 Euro. Also zu meiner „mini“ Sonnenfinsternis am 10.6.2021. Oben habe ich erwähnt: Lange nicht mehr gemacht: Auch wenn ich schon ab und an die Sonne fotografierte, es geht hier nichts über verinnerlichte Praxis. Am besten wäre es wie in der Fliegerei: Ein Checkliste zu verwenden. Damit man nichts vergisst. Es fing bereits damit an: Wo habe ich meinen Sonnenfilter für das Teleskop überhaupt liegen 😉 Nach etwas suchen dann doch gefunden. Eine Sonnenfinsternisbrille hatte ich griffbereit in einem der zwei Koffer wo all das Zeug für’s Teleskop gelagert ist. Zum Seeing: Wer mal Sonnenflecken fotografieren will: Morgens oder abends ist das Seeing (flimmern der Luft) am besten. Muß nicht sein, aber meist ist es so. Steht die Sonne hoch, wäre zwar die Luftschichte gering, aber das Seeing ist einfach sehr schlecht. Natürlich kann man sich den Zeitpunkt bei einer Sonnenfinsternis nicht aussuchen, man muss halt nehmen war man hat. Bei mir war das Maximum der Bedeckung gegen 12:40 und ca 30 Minuten Später war alles vorbei. Bei den 5%, die bei mir war, aber selbst bei 80% sieht man die Effekte dass es dunkler wird, sicher nicht, vielleicht etwas bei 95%. Nur wenn wirklich 100% der Sonne bedeckt sind, gibt es dieses unheimliche Spektakel einer totalen Sonnenfinsternis, das ist aber eine andere Geschichte….. Wohl aber visuell mit der Sonnenfinsternisbrille, ich hab es probiert: Ja da fehlt ein Zipferl 😉 Was man auch mit einplanen sollte (nebst Eigenschutz wie vielleicht Sonnencreme oder Kopfbedeckung) Etwas großes möglichst dunkles, mit dem ihr die Kamera bezw. das Display abdecken könnt: Sonst sieht man am Kameradisplay außer die Scheibe nicht wirklich etwas. Und immerhin muss man ja scharf stellen. Und scharfstellen fällt mir bei der Sonne, mit all den Umständen, viel schwerer als an Sternen. Wenn man Glück hat sind ein paar dicke fette Sonnenflecken sichtbar, an denen man fokussieren kann, ansonsten bleibt nur der Rand. Also vorher ein aktuelles Bild der Sonne suchen, dann sieht man, wo man nach den Sonnenflecken suchen sollte. Ich habe ja den Luxus, über eine gute Nachführung zu verfügen und ein 800mm Spiegelteleskop. Im Garten weiß ich auch mittlerweile gefühlsmäßig wie ich das ganze hinstelle, dass es in etwa eingenordet ist. Das hilft dann sehr, dass die Sonne dann nicht allzu schnell aus dem Bildfeld wandert. Bei der Belichtung verwendete ich den P Modus und machte eine Probebelichtung. Mit der +- Korrektur steuerte ich dann die gewünschte Belichtung. An sich ging +0,7 eV leicht, und der Histogramm ging bis ca 80% ins Helle. Sicher kein Problem bei Alltagsfotografie. Aber wie am Mond auch: Mit Bildern wo der hellste Wert nur so bei 66% liegt hat man einen besseren Kontrast und ich tu mir bei der Ausarbeitung leichter. Natürlich machte ich auch Bilder mit +0,3 und 0,7 eV, Aber letztlich wie angenommen, waren die Bilder mit +-0 Blenden Korrektur besser. Meiner Meinung nach ist das deshalb, weil der Sensor bez. Das., was dann in den File geschrieben wird, gerade im oberen Bereich nicht mehr linear arbeiten um ein Bild nicht gleich ausbrennen zu lassen und eben 13 Blenden Dynamik zu „erzeugen“ trotz 12 bit Sensor. Also ist das Bild im hellen Bereich nicht mehr so kontrastreich. Da wir bei der Sonnenfotografie ja nicht annähernd den vollen Dynamikumfang brauchen, spielt es auch keine Rolle. Ist das Bild zu dunkel, machen wir es einfach heller. Was uns aber hilft: möglichst guter Kontrast bei den ohnehin flauen Sonneflecken. Zur Belichtung: Steht kein Fernauslöser zur Verfügung, dann sollte auf jeden Fall wie immer eine Auslöseverzögerung eingestellt sein. Bei mir standardmäßig 4 Sekunden. Natürlich auch hier: Wenn man kann: Möglichst viele Bilder machen und das dann stacken. Da bei mir der Himmel um den Beginn und zum Maximum stark bewölkt war konnte ich nur auf eine Wolkenlücke hoffen. Nunja: Eine genügend lange braucht man natürlich um mal das Teleskop auszurichten und eine weiter Wolkenlück um Scharf stellen zu können. Auch so ein Problem, wo Geduld gefragt ist, und wie immer: Rechtzeitig Aufbauen hilft hier, vor allem wenn der Zeitpunkt vorgegeben ist. Damit ich dann mal wenigstens ein Bild habe, denn die Wolkenlücken waren nicht wirklich groß und meist auch nie ganz klar, machte ich auch Bilder als Wolken durchzogen: Dann war mal ca. 5 Minuten nach Maximum eine größere Wolkenlücke und mit schnellsten Serienbildmodus (Silent Shutter, 60 Bilder / Sekunde bei den E-M1.III und Fernauslöser konnte ich 300 Bilder sammeln. Natürlich ist eine wirklich schnelle UHS-II Karte auch Voraussetzung. Weitere 10-15 Minuten gaben die Wolken weitgehend die Sicht auf die Sonne frei, so daß ich weiterer Serienbelichtungen machen konnte. Wie üblich exportierte ich dann mal die Bilder in 48bit TIFF, was dann Autostakkert lesen kann. 4% der besten Bilder bezw. Ausschnitte, mit 1,5x drizzle verrechnet: Das Ergebnis nachbearbeitet wie beim Mond: Schärfen, Kontraste erhöhen, selektiv bei den Sonnenflecken. Und die Sonne, welche Farbe sie am eigenen Bild auch hat, ist nun mal weiß und etwas fad wie ich finde. So färbe ich sie dann auf eine Farbe die mir mehr gefällt: Bei der Sonne eben gelb. Siegfried -
methodik Dunkelbild
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Rauschminderung / Rauschfilter ? Mit Rauschminderung bezeichnet Olympus den Dunkelbildabzug. Jeder Sensor rauscht und keine Sensor ist Fehlerfrei! Grob gesagt gibt es neben dem Rauschen, dass der Ausleseprozess verursacht, ein zufälliges Rauschen sowie "heiße" und "kalte" Pixel. Das sind Pixel, die einfach extrem hell sind oder eben solche, die kein oder zu wenig Signal zeigen, Fehlstellen also. Diese Fehlstellen kann man durch die Funktion "Pixel Korrektur" die man im Menü der Kamera findet, softwaremäßig lahm legen. Ist sicher heikel diese Funktion und sollte man wohl nur wirklich anstoßen, wenn man wirklich sicherstellt, dass während der Messung kein Licht auf den Sensor gelangen kann. Ob die Kamera zerstört wird, wenn da während der Messung Licht draufällt und die dann als "Fehler" mit ausgeschlossen werden, keine Ahnung, will ich nicht testen. Ich mache das maximal wenn ein Hotpixel unangenehm auffällt und stört. Kommt aber sehr sehr selten vor. Was auch sehr lästig sein kann: Sensor glühen Da kommt es üblicherweise auf das Design der Kamera selbst an, da sind wir üblicherweise zum Glück bei den heutigen Olympuskameras nicht betroffen. Es kommt z.B. von Leiterbahnen oder sonstigen Wärmequellen, die vielleicht an einer bestimmten Stelle den Sensor stärker erwärmen. Das Bild wird dann an einer Stelle deutlich mehr Rauschen. Je höher die Temperatur, Verstärkung (ISO) und je länger die Belichtungszeit, desto mehr rauscht es. Mit der üblichen Einstellung AUTO ist man an sich gut bedient. Die Kamera macht dann bei längerer Belichtungszeit (so ab 1-2 Sekunden) eine zweites Bild bei geschlossenem Vorhang. Genauso lang wie das vorhergehenden "normal" Bild (=light frame). Dieses Bild ohne Licht nennt sich Dunkelbild oder Darkframe. Es enthält damit das Rauschen des Sensors, bei den selben Einstellungen (ISO, Temperatur und Zeit) des eigentlichen Bilds (Light) und wird dann in der Kamera abgezogen. Das entstandene Bild wird dann als ORF geschrieben, ins JPG sowieso. Das kostet natürlich Zeit. Solange man jede Menge Zeit hat und nur kurz Belichtet oder man sich hinterher mit sonst nichts auseinandersetzen will, ist es das Mittel der Wahl und stimmt naturgemäß am besten. Gerade bei DeepSky ist aber die Zeit am Himmel oft sehr eingeschränkt und will bestmöglich genutzt sein. Daher wird man diese Dunkelbilder dann lieber selber anfertigen und später extern abziehen. Ich mache Darks zwischendurch, wenn Wolken durchziehen, meist aber wenn ich alles abbaue: Objektiv abecken und bei den selben Belichtungseinstellungen wie die Lights: Also selbe ISO, Zeit und Temperatur und Belichtungseinstellung wenn z.B. der Livetimemodus verwendet wurde. Nur dass halt kein Licht auf den Sensor gelangen kann. Unsere Olympus Kameras sind da recht gutmütig. Achtung: Manche Objektivdeckel schließen nicht gut, z.b. das des mFT8/1.8 wo man auf wirklich korrekten Sitz achten muss. Da man das meist sowieso draußen in der Nacht macht sicherheitshalber die Darks an einer dunkel Stelle anfertigen. Wenn man in etwa die selben Bedingungen schaffen kann, kann man die Darks auch später nachmachen. Bei manchen Kameras wird die Temperatur in die EXIF Daten geschrieben und zB. einem EXIF Programm wie ExifToolGUI auslesen. Man kann auch eine Bibliothek anlegen mit seinen Darks bei unterschiedlichen Temperaturen/ Belichtungszeiten / ISO und die verwenden. Wenn sie aber nicht mehr zu seinen Lights passen, weil sich auch Sensoren ändern, dann muss man Neue anfertigen. Solange es aber so "billig geht", wie einfach einige am Ende der Session, mache ich das nicht. Es hilft auch für jede Session genauer die Eckdaten zur Belichtung und Bedingungen wie Temperatur mitzuschreiben. Dann hat man sie vielleicht in der Not zu Hand. Früher oder später wird man aber auch Flat und BIAS Korrekturen machen wollen, denn sie berücksichtigen andere Bildfehler und schaffen so die Grundlage für eine wesentlich fehlerfreieres Bild. Rauschfilter Das ist nichts anderes als eine softwaremäßige Entrauschung. Normalerweise steht sie bei mir auf Aus oder Niedrig. Da man aber sowieso mit dem RAW arbeitetet ist es egal, denn diese Bearbeitung wird nur ins JPG geschrieben. Klar sieht ein Bild am Computerschirm immer sehr schlimm aus, kann man es ja beliebig vergrößern, aber wenn das Motiv passt, wird sich keiner am Rauschen stören, bei den üblicherweise am Internet gezeigten kleinen Bildern schon gar nicht. Beste "Eigentherapie": Ausbelichten lassen und beim richtigen Betrachtungsabstand ansehen 🙂 Entrauschen kostet, wenn man es nicht selektiv macht, immer Details. Gerade im dunklen Hintergrund wird man kleine Galaxien und Strukturen entsorgen. Durch das Zusammenrechnen vieler Bilder wird das Rauschen sowieso erheblich reduziert. Bei einigen Sony Kameras kam es 2016 mit einem Firmewareupdate dabei zu einem weiteren Problem: Die Kamera eliminiert kleine Sterne weil sie sie als Rauschen erkennt. Dieses Problem ist als "Star Eater" bekannt und dazu gibt es unzählige Artikel. Ich hoffe, dass uns Olympus weiterhin die Möglichkeit lässt, an eine möglichst unverfälschtes Rohbild zu kommen ! -
methodik Scharfstellen
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Das es viele verschiedene Faktoren gibt, die einem Fehlbilder bringen und so eine der oft seltenen wirklich guten Nacht kosten könnte, überlasse ich da wo ich etwas selbst beeinflussen kann, nichts dem Zufall. So auch beim Scharfstellen Bei der E-M1 mark III gibt es zwar diesen Sternen AF, zwischenzeitlich (RTFM 😉 ) bekomme ich das aber gut hin (größerer Cluster an Focusfeldern). Wenn man sich einen Stern in ganz großer Vorschau ansieht kann man zusehen, wie die Kamera scharfstellt (intra/extrafocal). Bei längerbrennweitigen Objektiven (so ab 75mm) habe ich den Eindruck, dass ich besser manuell scharfstellen kann. Bei unter 25mm ist der StarryAF ein Segen. An Planeten wie Mars, Venus geht es auch mit dem lichtschwachen mFT100-400er. Es müssen halt möglichst punktförmige Objekte sein. Trotz hilfreichem StarryAF ist es aber immer angebracht anhand eines Bildes mal den Fokus zu überprüfen. Außer mit starkem Teleobjektiv am Mond verlasse ich mich da nie auf den Autofokus. Schon im Hinblick darauf, dass man ja üblicherweise nicht ein Bild sondern sehr sehr viele macht und die wirkliche Bildqualität dann erst hinterher am großen Computermonitor sieht, stelle ich lieber manuell scharf ein. Die Funktion "Objektivrückstellung" schalt ich bei dem Kameras die ich meist für Astrofotografie verwende aus. Oft will ich eine Belichtung unterbrechen, was ich dann einfach durch Ausschalten der Kamera mache, anstatt Minutenlang zu warten. Dann ist es nützlich, dass die Schärfen ebene des Objektives bleibt wo sie ist. Zunächst muss man aber überhaupt mal einen hellen Stern am Kameradisplay finden, was bei einem stärkeren Fehlfokus schon meist nicht mal möglich ist, weil das schwache Licht ja über eine große Fläche verteilt ist, und so nicht mal mehr angezeigt wird. Bei dem heutigen OM-D's gibt es mittlerweile eine LiveView Erweiterung II. Man sieht da dann wirklich sehr viele Sterne (aber auch Hotpixel!). Die Verzögerung macht es aber schwierig damit scharf zu stellen. Hat man den Fokus wirklich getroffen, sieht man auch den einen oder anderen schwächere Sterne im LiveView Modus I. Man kann mal zuerst an einer möglichst weit entfernten Lichtquelle mal vorläufig scharf zu stellen oder auf eben, wenn man hat, LV Erweiterung II zu schalten. Der ist zwar verzögert, aber so lichtstark, dass man schon recht schwache Sterne sehen kann, Helle dann sowieso. Um schnell von LV Erweiterung I auf II zu schalten kann man sich da bei den neueren Kameras im Menü es so einrichten, dass man der "Restlicht" Modus ab 60 Sekunden zugeschaltet wird, sonst aber auf LV Erweiterung I bleibt. Dann braucht man nur schnell von 60 Sekunden auf Bulb oder Livetime zu schalten. Die E-M1.III hat eine extra Einstellung für Bulb/Livetime am Modusrad. Wo man dann halt am Modusrad drehen muss, beim M habe ich jetzt auf die Schnelle nicht gefunden, wie ich da über 60s einstellen könnte. Egal. Dann einen möglichst hellen Stern in die Bildmitte bringen und mit Liveview Vergrößerung (14x) so fokussieren dass der Stern so klein wie möglich ist. Der MF Assistent im Kameramenü ist dazu ausgeschaltet, aber ich lege mir auf eine Funktionstaste die Vergrößerungsfunktion. Ein Klick auf OK verlässt dann wieder den Vergrößerungsmodus. Bei starken Teleobjektiven gibt es eine Einstellhilfe inform einer speziellen Maske, die man vors Objektiv gibt: Die Bahtinovmaske Das beigefügte Bild zeigt den Effekt an einem 135mm Objektiv und dem sehr hellen Stern Capella. Bei Brennweiten unter 60mm wird es dann halt schwierig, zu klein werden die Sterne. Bei Modifizierten Kameras sieht man aber auch da den roten Saum recht gut den ich mit dem Stern zu vereinigen suche. Vorsicht bei Temperaturänderung: Üblicherweise verstellt sich der Fokus wenn sich die Temperatur ändert. Die Tuben sind aus Metall, Linsen ändern sich wohl auch. Ist das Objektiv wesentlich wärmer als die Umgebung oder kühlt es dann weiter stark ab (üblicherweise in klaren Nächten), sollte man unbedingt vor allem Anfangs alle 5-10 Minuten den korrekten Fokus kontrollieren. Wenn geht, daher schon vorher an die Umgebungstemperaturen abpassen lassen. Wenn man Glück hat ist in der Nähe der Bildmitte ein heller Stern an dem man zwischendurch mal schnell den Fokus kontrollieren kann. Ansonsten kann das es sehr aufwendig werden, den Fokus zwischendurch mal an einem geeigneten Stern außerhalb des Bildfeldes zu überprüfen, weil man ein mühsam gefundenes Bildfeld möglichst genau (Stichwort: Stackingränder) wiederfinden muss. Da hilft eine "GoTo" Astromontierung, kann aber auch heikel werden - wenn man so gar nichts sieht, weil man keine LV Erweiterung II hat, wie bei den E-PLx Kameras, oder älteren E-M10. Einzig ein Spiegelteleskop mit dem richtigen Spiegelmaterial (Pyrex oder besser Quarz, jedenfalls kein PK7 Glas!), einen Kohlefasertubus und sehr guten verschraubten Okularauszug bleibt hier wirklich fokusstabil. Zumindest merke ich da bei meiner Ausrüstung nichts an den Bildern. Und schon aus Paranoia kontrollierte ich schon ofter hinterher nochmals ob der Fokus auch noch stimmt. Wie immer: Kostet um einiges mehr, aber erspart sehr viel Ärger. Bei Objektiven mit manueller Blende nicht vergessen, vorher die Blende ganz zu öffnen. Geht das alles nicht befriedigend, kann man anhand von Probebildern den Fokus überprüfen und gegebenenfalls neu einstellen, alles sehr Zeitaufwändig. Am Mond ist es am besten in der Nähe des Terminators scharf zustellen, Am Jupiter sieht man die Galileischen Monde , die recht schnell verschwinden sollte der Fokus nicht mehr recht passen. Verwendet man eine Modifizierte Kamera, wird man um helle Sterne einen roten Saum sehen, weil das viele langwellige rote Licht ja nicht mehr in den Fokus zu bringen ist, wenn gleichzeitig blau und grün scharf sind. Der optimale Fokus ist dann, wenn dieser rote Saum genau verschwindet. Schärfeverlauf / Sensorverkippungen: Wir sind an sich von unseren sehr guten Fotooptiken verwöhnt, aber gerade wer Fremdobjektive oder Teleskope verschiedener Bauart an der Kamera anschließt, sollte beachten, dass man hier oft mit starken Abweichungen der Schärfe übers Bildfeld und/oder Verkippungseffekten hat. Wenn bei einer Optik die Schärfe stark zwischen Zentrum und Rand abweicht, dann kann es günstiger sein, nicht in der Mitte, sondern ca. 1/3 herum scharf zu stellen. Damit minimiert man dieses Ungleichgewicht. Wer mal einen hellen Stern möglichst groß ansieht und Fokussiert, sollte im Bildzentrum bei Intra- und extrafokaler Betrachtung (einfach wenn man über die Schärfe in beide Richtungen hinaus fährt) alles zentrisch sehen. Das Sternchen wird ja zur Scheibe und je nach Bauart sieht man dann hellere konzentrische Ringe. Ist hier etwas verkippt, wird dieser Kreismittelpunkt nicht genau konzentrisch sein, sonder außerhalb des Zentrum liegen. Am Rand bei den Optiken bei kleineren Brennweiten wird man staunen, wie sehr man da sieht, dass Sterne fast dreieckig abbilden. Solange das in jeder Ecke gleich aussieht, wird alles in Ordnung sein. Anders wenn es in den Ecken ungleichmäßig wird. Dann ist entweder die Optik dezentriert und/oder Sensor verkippt. Bei unseren Olympus Kameras meist nach Modifikation. Je lichtstärker eine Optik, desto deutlicher treten diese Fehler zu Tage. Daher sind Fernrohre ab F/5-F/6 natürlich wesentlich gutmütiger was Justierung betrifft. Ein Test an einer punktförmigen Lichtquelle, wie man es praktisch nur an Sternen hat, verbergen nichts was optische Fehler betrifft! Allerdings für die Alltagsfotografie hat das wohl zunächst kaum sichtbare Auswirkungen, durch Stacken / Mitteln viele Bilder und nachfolgender Bearbeitungsschritte kann man auch einiges korrigieren. Für Verkippungen an einem Teleskop gibt es eigene Ringe, womit man das dann ausgleichen kann. Gerade bei Fernrohren hat man zwischen Teleskop und Kamera noch sogenannte Flattener oder Komakorrektoren. Die sollen die Fehler der entsprechenden Optik ausgleichen. Hier ist es wichtig herauszufinden, ob der Flattener überhaupt für die Bauart seines Teleskopes geeignet ist. Da zählt nicht nur Bauart (APO oder Newton z.B.) sondern auch deren Lichtstärke. Und man muß dann den geeigneten Abstand zwischen den Flattener und dem Sensor herausfinden. Ob man dann zu weit oder zu nahe ist, zeigen einem Striche oder Banananförmige Sterne gegen den Bildrand. Und ob man dann etwas mehr Zwischenringe geben muss oder weniger kommt auf das Teleskop an. Man sieht: Sobald man die normierte Fotowelt verlässt, wird es sehr kompliziert und gleich mal teuer. Gute Comakorrektoren kosten gerne mal ab 200 - sehr sehr viel mehr! Es gibt übrigens einen Vorteil, bewusst unscharf zu bleiben: Wenn man kein Weichzeichenfilter hat (Cokin P830) und man will den Sternenhimmel so abbilden, dass helle Sterne und damit die Sternbilder natürlich zu erkennen sind, kann man leicht unscharf stellen. Damit wird das Licht sehr heller Sterne über eine größere Fläche verteilt. Sie brennen dann nicht sofort aus und man sieht dann auch noch schön deren unterschiedlichen Farben, die über die Temperatur Aufschluß gibt. Bei gut scharf gestellten Sternen Himmel werden ja bei den üblicherweise längeren Belichtungszeiten ja alle hellen Sterne aber auch etwas schwächere Sterne sofort ausgebrannt, verlieren damit die Farben sein und das Auge sieht nur noch weiße Punkte auf schwarzem Grund. Da finden sich bald nur noch sehr Geübte zurecht. Hier ein Ausschnitt unbearbeitet mit dem mFT8/1.8 möglichst selber Ausschnitt durch ein Cokin P830 Weichzeichenfilter: -
methodik Flat / BIAS - Bildkalibration
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
So wie kein Bildsensor Fehlerfrei ist, ist es auch der gesamte optische Weg nicht. Auch hier gibt es Möglichkeiten, sein Bildmaterial zumindest von solchen Einflüssen zu bereinigen. Gemeinhin spricht man dann von der „Bildkalibrierung“ und dazu werden neben dem Dunkelbild auch Flat und BIAS Bilder gebraucht. Wer wird das brauchen: Alle die Wert auf höchste Details legen und Artefaktfreie Bilder wollen. Daneben aber erleichtern sie die Bildbearbeitung. Also alles was Deep Sky betrifft. Landschaftsfotografen, die eine sichtbare Vignette aus dem Bild bekommen wollen sollten auch mal probieren. Solange die wirklich konzentrisch ist, geht das auch Softwaremäßig, aber eben nur Helligkeitsverläufe, keine weiteren sonstigen Fehler. Wer wahrscheinlich nicht: Kaum wird man das bei Bildern des Mond und Planeten brauchen, solange es bei Großen Bildern um „schöne“ Bilder geht oder bei kleinen hellen Planten. Die nehmen ja am Sensor nur wenige Pixel ein und man wird den Rest stark beschneidet. Solange man da nicht irgendwelche Artefakte wie Vignetten (Helligkeitsabfälle) oder Reflexionen etc. bemerkt, die man einfach wegstempeln könnte, weil der Bildhintergrund sowieso schwarz ist. Was ist nun ein Flat: Einfach ein gleichmäßig ausgeleuchtetes Bild beim selben Lichtweg wie sein Hellbild (Light). Also selbe Blende, selbe Schärfeneinstellung und wer die Kamera zur „Optik“ rotieren kann (also mehr an Teleskopen) dieselbe Ausrichtung. Was korrigiert ein Flat: . Vignetten (Helligkeitsabfall der Optik) . Staub auf dem Sensor (bei Olympus mit dem effizienten Staubschüttler meist nicht so das Problem) . Unterschiedliche Empfindlichkeiten von Pixel . Reflexionen im gesamten Strahlengang Was macht es mit unserem Bild: Vereinfacht gesagt: Da wo ein Pixel zu wenig Signal zeigt wird es auf heller gerechnet, da wo es zu hell ist dunkler. Wie macht man es: Bei welcher ISO ist nicht so entscheidend weil es ja nur um den Helligkeitsverlauf geht. Gerne bei optimaler ISO, bei uns also ISO 200. Wer allerdings öfter vergisst, nachher bei Darks wieder die ISO auf den Wert seiner Lights anzupassen, kann auch die selbe ISO wie die verwenden. Was allerdings wichtig ist: Man belichtet Flats so hell wie möglich, aber im linearen Bereich des Sensors. Das wird ca. bis +1,7ev sein, aber +1 Blende drüber (Automatik) funktioniert da auch. Daher verwende ich jetzt einefach +1ev (Blende). Unterschiedliche Astrokameras können das schon sehr anders reagieren. Manche brauchen dann FlatDarks etc. Unsere Sensoren der derzeit gängigen Olympuskameras (16 / 20 MPixel CMOS) sind bislang sehr gutmütig. Ob ein Flat jetzt mit Automatikbelichtung, einer Blende heller oder 1,7 Blenden heller belichtet ist, spielte bei mir zumindest derzeit keiner Rolle. Flats kann man auch später nachmachen: Man muss nur die selben Einstellung (Fokus/Blende und Rotation) nachstellen. Ein Problem kann jetzt sein, wie man eine wirkliche gleichmäßige Beleuchtung sorgt. Da habe ich einfach eine Flatbox von Lacerta/Teleskop Austria für mein 200mm Teleskop besorgt, die um vieles besser als die EL-Folien sind. Wichtig jedenfalls: Die Verschluss Zeit sollte länger als ein eventuelles Flimmern sein. Bei EL-Folien mehr als 1/50 bei meiner gibt es bis unter 1/500 kein Problem. Eventuell seine Flats hinterher durchsehen, ob sich etwas an der Ausleuchtung änderte. Sei es durch Flimmern oder dass Verschluss Lamellen manchmal Teile des Bildfeldes verdunkeln. Bei sehr lichtstarken Geräten und hochempfindlichen Kameras kann die Belichtungszeit ein Problem werden. Bei unseren Fotoapparaten hatte ich da bislang keine Probleme. Daneben gibt es verschieden Methoden, wie man für die gleichmäßige Ausleuchtung sorgen kann, die aber alle etwas aufwändig sind. Stichwort: Dome Flats (eine große weiße Fläche in der Sternwarte die man dazu verwendet), Sky Flats, Dämmerungs Flats (man benützt den Himmel). Am praktikabelsten vielleicht noch die T-Shirt Methode (ein T-Shirt/Stoff am Tag über die Optik). Ein gutes gleichmäßig ausgeleuchtetes Leuchtpult, sollte auch funktionieren. Laptopbildschirme sind meist nicht exakt ausgeleuchtet, daher kaum mehr in Gebrauch. Kann man aber probieren. Ist etwas zu hell, kann man mit weißem Papierlagen die Intensität dämpfen. Es versteht sich aber, das Papier oder Stoff zur Lichtreduktion keine Falten oder andere Strukturen aufweisen darf, denn es würde dann Strukturen ins Bild einbringen. Am einfachsten aber wie schon geschrieben: Ein passende Flatfield Box. Bei extremem Weitwinkel wie 8mm wird es aber schwierig, da noch ein Flat „bis zum Rand“ zu erstellen. Bei diesen weiten Winkeln geht es sowieso kaum mehr um letzte Präzision, zumindest am Rand. Wie gehe ich vor: Am Ende / Anfang der Session halte ich die Flatfield Box vor die Optik. Einfach auf automatische Belichtung (bei Fotoobjektiven mit Automatischer Blende im A Modus, damit man die selbe Blende hat) mit +1ev (Blende) bei ISO200 oder der wie man die Bilder machte und dem Serienbildmodus Bilder sammeln. Meist werden es bei mir um die 30-50. Natürlich darf da nicht schon Tau auf den Optiken im Spiel sein !! Also alles ganz einfach und schnell. Was man allerdings für die Flats auch benötigt sind BIAS: BIAS oder Offset Frames Wer braucht BIAS: Jeder der Flat Files macht. Wer keinerlei Dunkelbild macht, kann so zumindest das BIAS herausrechnen. Wer nur einen Dunkelbild Abzug machte oder durch die Kamera machen ließ, braucht es nicht, denn das BIAS Signal ist ja enthalten. BIAS von einem Dark abzuziehen wäre eine Überkorrektur. Was ist das: Das Ausleserauschen und dem „Offset“ – ein Signal womit der Sensor „vorgeladen wurde“ damit er empfindlicher wird. Wie macht man es: Einfach ohne Licht die kürzest mögliche Belichtungszeit bei der ISO mit der man die Flats machte. Also „Dunkelbilder“ im S-Modus mit kürzester Belichtungszeit. Auch hier: Viele machen. FlatDarks: Ob man BIAS oder Flat Darks zur Korrektur der Flats nimmt, hängt von der Kamera ab. Je nach dem was am besten funktioniert. Ein Flatdark ist nicht anderes als ein Dunkelbild, das genauso lang wie die Flats belichtet werden. Da ist dann das Rauschen bei den Bedingungen drinnen, wie es im Flat auftritt. Und natürlich auch das unvermeidliche BIAS Signal. Man sollte es gehört haben und auch mal überprüfen ob man jetzt BIAS oder Flatdarks nehmen sollte. Für CMOS Kameras wird Flatdark empfohlen, nach langem probieren verwende ich jetzt statt des BIAS jetzt einfach FlatDarks. Geht bei all meine Olympuskameras genauso gut! Warum braucht man viele „Korrekturbilder“ wie Darks/Flat/BIAS Man kann nur Sachen korrigieren, die immer gleich bleiben, also systemspezifisches. Dazu kommt aber auch immer ein zufälliges Rauschen mit ins Bild. Dieses zufällige Rauschen würde aber wieder Rauschen ins Bild einbringen. Daher mittelt man möglichst viele Darks / BIAS / Flats zu sogenannte Master - Flats/BIAS/Darks. Wie beim Stacken auch, reduziert sich das Rauschen bei jeweils 4 Bilder auf die Hälfte. Daher wird es schon viel bringen so 10-15 Bilder zu machen, besser natürlich wenn man 30-50 hat (was bei BIAS/Flats ja leicht und schnell zu machen ist) und kaum mehr was, wenn man 150 oder mehr anfertigt. Man sollte nicht verschweigen, dass es auch Kalibrierungsartefakte geben kann. Das beste Mittel dagegen ist Dithering. Dazu wird nach jeder Belichtung das Bildfeld versetzt um einige Pixel, so dass nicht immer dasselbe Signal auf den selben fehlerhaften Pixel/Pixelbereich fällt. Auch Stackingalgorithmen tun sich leichter Ausreißer zu isolieren und so gar nicht erst zur Erstellung des Endbildes zuzulassen. Eines der augenfälligsten Dinge hier ist hier ein Effekt, der Astrofotografen, die Farbkameras verwenden trifft: wandernde Schatten/Rauschen (moving/walking shades/noise). Hauptursache ist meist ein Zeichen einer nicht genauen Nachführung, wo die Objekte gleichmäßig über sehr lange Zeit übers Bildfeld wandern. Das ist praktisch an sich so gut wie gar nicht mehr zu korrigieren: Warum braucht man das in der „Alltagsfotografie“ nicht ? Weil wir hier genügend Licht zur Verfügung haben. Am Sternenhimmel wird minutenlang bei hoher ISO Licht gesammelt. Alles sehr weit weg vom vorgesehen „Einsatzzweck“. Dazu kommt, dass sich die Objekte kaum vom Himmelshintergrund abheben. Da wir diesen winzigen Unterschied extrem hervorheben, wird man jeden kleinen Fehler ebenso stark hervorheben. Wir müssen lange belichten, damit sich zumindest dieser schwache dunkle Bereich schon in einem Helligkeitsbereich am Sensor befinden, der nicht mehr so unheimlich stark rauscht wie es Sensoren im dunklen Ende eben machen. Mit der Bildkalibration kann man relativ einfach einiges an Bildfehlern beheben, die uns das Leben bei der nachfolgenden Bearbeitung sehr erschweren bis unmöglich machen. Vertiefende Infos zum Thema Bildkalibration findet man bei Thomas, der bei einem Vortrag der Sache auf den Grund ging: Bildkalibrierung Frank (Astrophotocologne) in seinem youtubekanal hat auch einiges dazu. Nachtrag: Problemen mit Korrekturfiles ? Da hilft Pixelmathematik. FitsWork kann es ganz sicher (vielleicht Siril auch) natürlich PixInsight und Photoshop und sehr gute andere sollten das aber auch können. Ein schneller Test, wie sein korrigiertes "Light" aussieht wäre mit dieser Formel: (Light-dark)/(flat)*med(flat) Flats korrigieren nicht oder bringen unerwünschtes ins Bild: Einfach eine Division von 2 Flatbildern (oder eines davon Masterflat) also Masterflat/Flat. Wenn die nicht gleich gemacht sind (Kameradrehung und/oder Blendenänderung andere Brennweite etc.) wird man in der gleichförmigen hellen Fläche Strukturen sehen. Gernerell bei Bildern: Bild1 - Bild2 zeigt das, was unterschiedlich in den 2 Bildern ist. Ergänzung off Topic: Die Seismologen haben jetzt im Lockdown gerade die wohl einzigartige Gelegenheit herauszufinden, wie hoch der Anteil an künstliche Quellen in ihren gemessenen Erdbewegungen sind. Die Beben sind in manchen Gegenden (am meisten in Deutschland an der Zugspitze) stark zurückgegangen. Jetzt kann man auch kleinste Beben finden und in Zukunft wohl das starke Rauschen durch Korrekturen glätten. Wird z.b. Anwendung finden bei der Bohrung nach Erdwärme im Raum München, die ja überwacht werden müssen. Kleinste Änderungen, die unter normalen Umständen überhaupt im Rauschen untergehen, kann am dann vielleicht doch nachweisen. Auch die Seismologen an Meeresküsten habe ihre Freude: Mit dem Signal aus dem Meeresrauschen können sie jetzt noch besser die ersten 200km der Erdkruste beobachten. Siegfried-
- 4
-
-
-
- bias
- kalibration
-
(und 3 weitere)
Markiert mit:
-
methodik Fliegengittermaske nach Bahtinov im Eigenbau
Gast hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Bahtinovmasken sind die Werkzeuge der Wahl für ernsthaftes Fokussieren. Meist fällt einem das ein, wenn kein freundlicher Hersteller oder Händler kurzfristig greifbar ist - nur das Internet, ein Baumarkt und etwa 12€. Aber das reicht für ein halbes Dutzend Masken. Wir brauchen: eine inspirierende Idee: http://www.astrotreff.de/topic…CHIVE=true&TOPIC_ID=88297 ein Teleskop oder Objektiv mit Streulichtblende ein Lineal einen Stift eine Schere eine Rolle Isolierband Sekundenkleber Hartschaumplatte oder ähnliches, 3-5mm dick und groß genug, um großzügig über dieStreulichtblende bzw. die Taukappe zu passen Fliegengitter, ungefähr doppelt so groß wie die Hartschaumplatte. Wenn Du die Auswahl hast, nimm das steifere. ein scharfes Messer (aus Sicherheitsgründen nicht abgebildet) Beim Fliegengitter brauchen wir zwei Teile, eines mit 0°-Winkel, eines mit 45°-Winkel. Es ist also eine gute Idee, den 45°-Teil etwas größer als den 0°-Teil zu machen. Schneide die Fliegengitterteile grob zu. Sei akkurat an den aneinanderliegenden Kanten der beiden Teile. Das macht es einfacher, die beiden Teile auszurichten und mit Isolierband zu fixieren. Als nächstes bauen wir den Rahmen. Ich habe die abgebildete Hartschaumplatte genommen - dickeres Material wird wahrscheinlich noch zuverlässiger halten. Mach den Rahmen merklich größer als die Streulichtblende bzw. die Taukappe, zentriere Teleskop oder Streulichtblende auf dem Rahmen und zeichne den Außendurchmesser auf dem Rahmenmaterial an. Schneide den angezeichneten Kreis minimal kleiner aus als angezeichnet und passe den Rahmen in kleinen Schritten an die Taukappe bzw. die Streulichtblende an. Klebe die beiden verbundenen Fliegengitterteile auf den Rahmen, schneide die überstehenden Ränder ab und klebe den Rahmen mit Isolierband ab. Es ist vollbracht - nach einer knappen Viertelstunde: Jetzt können wir das Werk testen. Defokussiert: Im Fokus: Die Vorteile der Fliegengittermaske gegenüber dem originalen Bahtinov-Design sind die deutlich geringere Obstruktion, die geringen Kosten und die einfache Bauweise. Ich hoffe, Ihr findet das irgendwie nützlich. E.- 2 Antworten
-
- bahtinovmaske
- bahtinov
-
(und 3 weitere)
Markiert mit:
-
praxis Bildkalibration - Praxis
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Hier anhand von zwei Beispielen, was der Einsatz von Flat/BIAS bringt. Es sind alles Screenshots entstanden ganz am Anfang der Bildbearbeitung. Damit man die Effekte besser sieht, wurde auf die Bilder der Automatischen Kontrast und dem Weißabgleich angewendet. Das erste Bild ein typische DeepSky Bild mit der E-M10.II und dem mFT45/1.8 entstanden. Ein recht dunkle Nacht machte es bei F/2.5 und ISO1600 möglich, 60 Sekunden zu belichten. Am Einzelbild "OOC" kann der Geübte eventuell schon er kennen welches Sternbild hier zu sehen ist: OOC steht für "out of camera" nur mit Standartwerten des Bildbetrachters angesehen ohne Korrekturen außer Größe. Es ist der Kleine Bär/Wagen, UMi (Ursa Minor) links oben Polaris (Polarstern) der helle gelbe unten: Kochab. Ziemlich genau das, was unser Auge an sehr dunklem Himmel hier sehen kann. So ca. eine Helligkeit von +5,5 mag (Magnituten, 1 mag unterschied = ca. 2,5 Blenden unterschied, Sonne -27, Mond ca. -10, Venus: -4 Sterne so ab 0). Das ganze einfach mit der Autokorrekturfunktion - Autokontrast/Weißabgleich (ACDSee). Kommt wohl jedem bekannt vor, denn das führt naturgemäß am Sternenhimmel selten zu einem brauchbaren Bildergebnis: Aber was hier jetzt unübersehbar herauskommt: Der Helligkeitsabfall gegen den Rand, also Vignettierung der Optik und der Helligkeitsgradient am Himmel, hervorgerufen durch unsere leider allgegenwärtige Lichtverschmutzung, selbst so hoch am Himmel. Ein Screenshot nach dem 1. wichtigstem Prozess: dem Stacken. Wieder mit der Autokontrast/Weißabgleich. Da sind allerdings spezialisierte Programme ja schon besser an die Situtation angepasst: Links oben: Der Stack nur mit Darks Korrigiert, also ohne Flat/BIAS. Links unten: Der kalibrierte Stack. Also eine Korrektur mit Darks/Flat und BIAS files Rechts oben: Das Master Flat (viele Flats gemittelt) - und in klein eine "Analyse" - wo es noch extremer gestreckt ist Beim Master BIAS würde man auch nicht besonders viel sehen, daher nicht gezeigt. Rechts unten: Das Master Dark. Ergebnis: Mein "natürlicher" Helligkeitsgradient der im 2. wichtigen Schritt einer Astrofotobearbeitung durch sogenannte Hintergrundextraktion entfernt wird. Da sich im Laufe der Zeit das Bildfeld am Himmel dreht, kann ein solcher Gradient leider auch sehr komplex werden, vor allem bei weiten Feldern wo man bald mal nahe stark aufgehellter Bereich kommt. Was man jetzt auch sehen kann: Nur durch Stacken ist die erreichte Tiefe solcher Bilder schon beachtlich. Um einiges mehr, als man wohl durch ein übliches Fernglas erkennen kann (kleiner mag +10). Warum ist das hier für dieses Bild so wichtig? Offensichtlich ist in dieser Himmelsgegend außer ein paar hellen Sterne so gut wie nur die schwarze Leere des Weltraums zu sehen! Das dachten auch alle bis vor ca. 10 Jahren. Die Radioastronomen wussten es schon länger, die Amateurastrofotografen können es aber seit einigen Jahren auch fotografisch herausarbeiten, selbst mit unseren einfachen Mitteln: Die "Polarspur". Es sind Staubpartikel die außerhalb unserer Milchstraße das Licht unsere Galaxie zurückwerfen. Ein zweites Beispiel am Komet "C/2020 F3 Neowise" der uns kurz im Sommer 2020 verzückte. Leider sehr Horizont nahe, kurz vor und nach Sonnenuntergang. Mein Bild vom 13.7. ist ja breiter bekannt, damals wirklich sehr nahe des Horizonts. 7 Tage später sollte er etwas höher stehen und klarer sein. Leider musste ich in Wien arbeiten habe aber den StarAdventurer mitgenommen und bin auf einen nahen wohl bekannten Aussichtspunkt gefahren, die Sophienalpe. Ja er war höher, aber bedingt durch den Dunst war es auch nicht besser. Natürlich will man dann die Daten schnell bearbeiten aber ich hatte keine Flat gemacht. (Hatte ich vergessen mitzunehmen und die Umgebenden anderen Astrofotografen hätten mich wohl gekillt 😉 denn Lichtquellen außer dunkles Rot sind ein NoNo! - da liebe ich meinen Garten, da kann ich mache was ich will 🙂 ) Also hier mal wieder ein Einzelbild - OOC und darunter mit Autokorrektur (ACDSee): (E-M10.II und mFT75/1.8 F/2.2 ISO800 30s) Nach Stacken ohne Flat/BIAS, aber Hintergrundextraktionsversuchen war klar: Mit meinem Wissen um Bildbearbeitung komme ich hier nur mühsam weiter. Zu stark die verschiedenen Gradienten. Vor allem mit dem Wissen: Einfach Flat nachmachen und hinterher weniger Ärger mit dem Hintergrund, anstatt stundenlang Zeit vergeuden.... Also habe ich dann bei nächster Gelegenheit bei den selben Einstellungen an Blende und Fokus die Flats und BIAS nachgeholt. Hier der Vergleich in meiner Bildbearbeitung (PixInsight). Rechts zum Besseren sichtbar machen, eine schnelle Automatische Hintergrundextraktion (ABE). Links oben: Der Stack nur mit Darks. Rechts daneben: mit ABE zeigt den abenteuerlichen Mix an Gradienten. Links unten: Stack mit Dark/Flat/BIAS korrektur. Rechts unten: Wohl eine um einiges bessere Ausgangsbasis für mehr. Noch dazu ohne viel Aufwand und ohne dass irgendwelche ausgeklügelte Algorithmen Daten vernichteten oder zugefügt haben. Um die Sache noch etwas zu verkomplizieren will ich beim Kometenstack hier nicht verheimlichen: Noch vor dem Stacken wurden die kalibrierten Bilder mittels "Hintergrund Normalisierung" (BN) verbessert. Denn so nahe am Horizont und starker Lichtverschmutzung würde ein großer Teil der Bilder, die bei nicht optimalen Stand in der Atmosphäre zu beeinträchtigt sind wohl das Endergebnis stark negativ beeinflussen. Der Komet selbst ist ja so hell, dass er in den ganzen Bildern kaum kaum Schaden nimmt, aber der Hintergrund, wo sich manche Teile nur schwach abheben, zu hell. Schlussbetrachtung: Ein solches Bild bei optimalen Bedingungen, wäre eine leichte Übung für Bildbearbeitungsprofis ! Da wir es meist nicht sind (ich zumindest nicht) müssen wir unsere Bilder so aufbereiten, dass die Ausgangsbasis schon möglichst gut ist. Um ein nahezu perfektes Bild noch perfekter zu machen, bedarf es ja kaum tiefer Kenntnisse der Bildbearbeitung, wie wir aus der Alltagsfotografie wissen. Klar kommt man nicht an die Qualität von "Profis" unter besten Bedingungen heran. Aber Bilder, nicht ganz so Kundiger, denen ein besserer Standort und ihre möglicherweise viel bessere Ausrüstung vergönnt ist, sehr wohl, wenn wir sie nicht gar überflügeln. Letztendlich aber zählt ja wohl das eigene Erreichte! Nicht darüber Verzweifeln, was man alles (noch) nicht kann. In der Rückschau, wird man dann auch sehen, wie sehr man die Grenzen des Möglichen verschieben konnte. Das Geheimnis einer Astrofoto Bearbeitung liegt nämlich zunächst mal genau in diesen 3 einfachen Schritten zu Beginn: 1.) kalibrierte Einzelbilder 2.) stacken 3.) Hintergrundsextraktion Siegfried-
- 2
-
-
-
- astrofotografie
- neowise
- (und 6 weitere)
-
methodik Kometen fotografieren
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Kometen fotografieren Vielleicht ergibt sich ja noch schnell die Gelegenheit mal einen helleren Kometen zu fotografieren. Und wenn nicht, der nächste kommt bestimmt 😉 Zunächst müssen wir sie mal finden: Es braucht jedenfalls Vorbereitung um die Suche einzugrenzen. Im Stellarium kann man sich im Modul Sonnensystem Editor aktuelle Bahndaten hereinholen und wenn man bei „Teleskopen“ seine Brennweiten und Sensoren hinterlegt hat, auch einfach das Bildfeld der jeweiligen Optiken simulieren. Mit LiveView Ext. II kann man Teile des Kometen dann vielleicht schon im Display sehen, wenn man mal weiß wo er steht 😉 Ein Fernglas zur Suche ist sicher sehr hilfreich, aber auch Fotos machen und sie bei höchster Vergrößerung durchsuchen… hilfreich wenn helle Sterne / Planeten in der Umgebung. An sich ist es zunächst nicht schwieriger, als normale „Deep Sky“ Fotografie. Was allerdings die Sache schwieriger gestaltet: Je näher sie uns sind, desto schneller bewegen sie sich vor dem Hintergrund, was die zur Verfügung stehende Belichtungszeit schon stark reduziert. Kometen verhalten sich mitunter recht dynamisch, so wie das Flackern einer Kerze. Und sie können uns auch mit Helligkeitsausbrüchen (leider auch Einbrüchen) überraschen. In Sonnennähe kommt es immer wieder zu Abspaltungen von Trümmern. Das geht auch bis zu einer Auflösung oder Ausbrennen in Sonnennähe. Diese Dynamik dann auch noch in Animationen zu zeigen, ist aber eher für absolute Kometenprofis. Wir sind ja schon froh ein tolles Bild zu bekommen. Daher braucht es eine lichtstarke Optik um die Belichtungszeit auf 10-30 Sekunden beschränken zu können. Wie lang genau, muss man sich ansehen und ist abhängig was wir tolerieren wollen. Gerade der helle Kern wird ja schnell deutlich in die Länge gezogen. ISO1600 ist hier sicher kein Fehler und problemlos möglich um genügend Signal zu haben. Kontrolle am Histogramm Der Peak sollte 30-50% von links stehen. Wenn sie hell sind und einen schönen Schweif ausbilden sind sie auch recht groß. Ein vielfaches des Mond wie er uns am Himmel erscheint. Daher braucht es dann auch keine langen Brennweiten, was uns insgesamt das Nachführen wesentlich erleichtert. Wer keine hat, kann es auch vom Stativ versuchen, aber dann eher nur mit starkem Weitwinkel und wird die Belichtungen eher unter 10 Sekunden halten müssen. Das sehe ich dann auch eher ISO3200, vielleicht auch 6400?. Profis nehmen vielfach natürlich hochempfindliche gekühle s/w Kameras mit Filtern was die Sache um viele Aspekte aufwändiger gestaltet. Mit einer „normalen“ Farbkamera ist man da aber insofern oft besser gestellt, dass man z.b. das orange Natriumleuchten auf den Bildern finden kann. Dieses Licht wird bei Filter gegen Lichtverschmutzung und R/G/B Filteren stark ausgeblendet. Was wir jedenfalls brauchen: Am besten 20-40 Bilder, was das Signal/Rauschverhältnis ja stark verbessert, business as usual 😉. Die letzten hellen Kometen waren bei uns oft in Horizontnähe, und entweder kurz vor Sonnenaufgang oder Untergang. Das stellt schon sehr hohe Anforderungen an den Himmel, der auch da noch möglichst klar sein muss. Zur Planung der Belichtungen muss man auch beachten, dass man eine Serie mit gleichmäßigen Abständen hat. Also die Zeitabstände zwischen den Belichtungen gleich halten. Ansonsten kann es je nach Methode der Ausarbeitung zu unschönen Mustern kommen. Lange Rede kurzer Sinn: Man muss es einmal mehr schaffen: Einige gute gelichtete Bilder zu bekommen, deren Zeitabstände auch gleich sind. Die nachträgliche Bearbeitung geht von relativ einfach bis sehr schwer. Der einfachste Weg wird ein Stack wie üblich auf die Sterne sein. Das führt aber zu einem verwischen des Kometen. Der bessere Weg ist hier, dass man auf den Kometen selbst stackt. Da gibt es z.b.: beim Deep Sky Stacker eine eigene Funktion dazu. Man muss vorher dem Stacker dann natürlich helfen und zumindest im ersten und letzten Bild den Kern des Kometen markieren. Die Werte dazwischen werden interpoliert, weshalb es dann eben Bilder mit den selbe zeitliche Unterschieden braucht. Man erhält so recht schnell ein Bild, wo der Komet eben dann still steht und die Sterne mehr oder weniger Striche oder Punktspuren bilden. Schon wesentlich schwieriger ist es aber zu einem Bild zu kommen, dass den Kometen vor dem Sternen zeigt. Zumindest die Theorie dazu ist einfach: Man stackt auf die Sterne. Dazu sind die „rejection“ Parameter so eingestellt, dass der Komet, der da ja durchs Bild zieht herausgerechnet wird. Und man stackt auf den Komenten und die Sterne die jetzt durchs Bildfeld ziehen werden herausgerechnet. In der Praxis bleiben da leider immer Sterne bezw. Teile des Kometen über. Daher ist eine aufwendige Bearbeitung zur Bereinigung dieser Spuren angesagt. Schwierig auch schwache Sterne hinter dem Schweif und helle Sterne in der Nähe des hellen Kometenkerns, der Coma. Rejection Algoritmen arbeiten auch besser, wenn man längere Zeitabstände zwischen den einzelnen Bildern hat. Denn damit wird besser erkannt was nur einmal an der selben Stelle im Bild ist und damit verworfen werden kann. Trennt man den Kometen von den Sternen wird man bald ein weiteres Problem bemerken: Wie macht man den Farbabgleich im „nur Komet“ Bild? Beim Sternen Bild gibt es ja einiges an Vorgangsweise. Man sollte also einen Weg suchen, wie man die Parameter des Farbabgleiches dann auf das gleich bearbeitete Kometen Bild überträgt. Klar: Schummeln durch verdrehen der Farbmischer geht immer, aber wäre es nicht besser, ein möglichst richtiges Bild auch was Farben betrifft (wenn auch wie immer stark verstärkt) zeigen zu können? Dem Problem, wie man möglichst Artefaktfreie „nur Sterne“ und „nur Kometenbild“ Stacks bekommt, tragen einige Workflows Rechnung. Man versucht dann z.b. das Sternen Bild in einem weiteren Stack schon beim Stacken aktiv vom dem des Kometen abzuziehen. Hinterher vereinigt man dann das Sternenbild mit dem Kometenbild. Kann man das in einem früheren Stadium des Workflows machen, hat man es natürlich einfacher mit dem Farbabgleich. Allerdings ist es einfacher, ein „nur Sterne“ und einen „nur Kometen“ Stack mal getrennt vorher nach allen Regeln der Kunst zu verfeinern. Mit der heute einfacheren Möglichkeit Sterne aus eine Bild zu entfernen, ergibt sich jetzt auch ein alternativer Weg: Die zwei Sternentfernungsprogramme die auf ein trainiertes neuronales Netzwerk zurückgreifen sind kostenfreie StarNet++ und der neue kostenpflichtige StarXterminator (30 Tage Testversion). Das ermöglicht uns jetzt auch eine Sternentfernung schon sehr früh im Workflow: Und zwar an Bildern, die auf den Kometen ausgerichtet wurden. StarXterminator Man würde dann versuchen auf den kalibrierten jeweiligen Einzelbildern schon eine Sternentfernung durchzuführen. Da man da dann schon üblicherweise in PI (PixInsight) arbeitet,das ja schier unendlich viele Möglichkeiten bietet, kann man jetzt die alten zurechtgelegten hergebrachten Workflows erweitern oder verlassen: Bei den einzelnen kalibrierte Bilder bereits Sterne entfernen und Lokale Normalisierungen und GradientenScaleNormalisierungen durchführen (gerade in Horizontnähe nötig). Umgekehrt kann man dann auch gleich für die Bilder des „Sternen Stacks“ den Kometen vorab herausrechen. Danach erst den hoffentlich möglichst „reinen“ Kometen stacken. Und auf Sterne sowieso… Ok, zuletzt Geschriebene könnte wohl mehr verwirren, weil es tiefe Kenntnisse und Erfahrungen voraussetzt, die man aber im Laufe der Zeit sammelt. Für alle und immer wichtig: Kalibriert Eure Bilder sorgfältig: Also Darks und Fllat/BIAS (bezw. FlatDarks). Das ergibt das bestmögliche Ausgangsmaterial, denn der Rest ist schwer genug! Flats/BIAS (oderFlatDarks) lassen sich bei Fotooptiken ja leicht auch später schnell machen. Ist meist keine Hexerei! Und einmal mehr: Die Kunst ist es, sich an dem zu Erfreuen, was man selbst hervorbringt und nicht an dem zu Verzweifeln was Profis zeigen oder so Manche hinzufaken versuchen. Siegfried BTW: Das Bild zeigt einen Screenshot beim Ausarbeiten bei meinen Versuche letzten Jahr am C/2020 F3 Neowise…. -
methodik 01 Astrofotografie - Dateiformate
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
JPG, ORF oder gar Video? Ganz einfach: ORF ! Wer bei gutem Licht und gleichmäßiger Ausleuchtung fotografiert findet ja üblicherweise mit dem Standard Bildformat JPG sein Auslangen. Leichte Korrekturen sind da noch möglich, aber sobald es darum geht, stärkere Farbkorrekturen oder aus sehr dunklen Stellen was ins Helle zu dringen, wird man sich wünschen auf ein RAW file zurückgreifen zu können. Bei Olympus sind das die ORF Dateien. ORI bei speziellen Modi ist auch nur ein ORF und kann man umbenennen. Wahrscheinlich kann man sich bei recht vollem Mond, wo es auch kaum Kontraste gibt, leisten mit JPG zu fotografieren. Sobald man aber versucht dramatische Wolkensituationen mit ins Bild zu bringen, wird man die nur noch am ORF herauskitzeln können. Bei dem hellen Vollmondlicht wird selbst das nicht gelingen, zu stark ist der Kontrast. Aber wenn man eine Situation hat, wo das Mondlicht zusätzlich durch Wolken stark gedämpft wird, kann man durchaus nette Bilder bekommen: Warum ist das so? Ein Farbbild besteht aus Pixel, die den 3 Farben: R(ot) G(rün) B(lau) zugeordnet werden. Das bekannte RGB Bild. Wie hell jetzt ein Pixel ist wir dann in der Computer üblichen Diktion beschrieben. Die kleinste Einheit ist 1 Bit und hat entweder den Wert 0 oder 1. Für ein reines Schwarz/Weiß Bild reicht also 1 Bit an Information. Daher sind solche Bilder so klein. Man muss nur die Anzahl der Pixel x 1 Bit pro Pixel für die Helligkeit speichern. Ein JPG Bild benützt für jedes der 3 Farbpixel 8 Bit um die unterschiedlichen Helligkeitswerte abzubilden. Mit 8 Stellen 0 oder 1 kann man einen Wert von maximal 256 abbilden (2^8). 0 = schwarz 256 ist gesättigt. JPG hat also je Farbkanal 256 Abstufungen und 256x256x256 ergibt die große Zahl 16,77 Millionen unterschiedliche Farbtöne. Ist auf jeden Fall genug für die Anzeige. Die Elektronik und Sensoren der derzeitigen Olympus Kameras können die Werte des Sensors mit 12 Bit Auflösung ausgelesen. Und das findet sich in den RAW/ORF Files wieder. 2^12 sind 4096 Abstufungen je Farbkanal. Und das brauchen wir, wenn man in den dunkelsten Stellen noch brauchbare Bildinformationen herausholen will. Eines darf auch nicht verschwiegen werden: Das JPG Format ist ein verlustbehaftetes Format. Wie hoch der Verlust ist, hängt von der Einstellung ab, die man trifft. Dabei werden bevorzugt Werte eliminiert, die unser Auge im bestehendem Bild kaum unterscheiden kann. Dumm nur wenn man die dann hinterher herausholen wollte, dann sieht man die Kompressionsartefakte und es ist nicht mehr viel da, das man hervorholen könnte. Video, soweit mir bekannt, ist bei Olympus Kameras immer verlustbehaftet. Wo man es aber versuchen kann wäre bei Mond, Planeten, Sonne wo man besonders viele Bilder in möglichst kurzer Zeit sammeln will, um das Luftflimmern zu minimieren. Da man also möglichst keinerlei der mühsam eingefangenen Daten am Sensor verlieren will, wird man also RAW bevorzugen. Es ist das unveränderbare Original, das von der Kameraelektronik erzeugt Bild und hier wird nur ein eventuell kamerainternes Dunkelbild abgezogen. Weißabgleich, Entrauschen und sonstige Spezialeffekte werden lediglich als „Vorschlag“ für einen spätere Entwicklung hinterlegt, aber hatten noch keine Möglichkeit unser ORF zu verunstalten. RAWs sind ja kameraspezifische Formate und zur bestmöglichen Entwicklung braucht es angepasste Software . Leider lassen sich da die Kameranetwickler nicht in die Karten schauen. Olympus hat bald mal begonnen, die ORF verlustfrei zu komprimieren, darum sind sie relativ klein. Es gibt aber auch Freeware RAW Entwickler Module wie derzeit das derzeit meist verwendete LibRAW, worauf auch viele Programme zurückgreifen. Video Da wird meist nur ein Teil der verfügbaren Pixel des Sensors herausgeschnitten (HD hat ja diese 1920x1080 Pixel) und dass dann möglichst komprimiert und die Datenmengen klein zu halten. MPEG (motion jpg) als Beispiel nimmt ein JPG (also nur geringe Farbtiefe) und damit nicht jedes mal das komplette JPG gespeichert werden muß, wird nur die Änderung zum Vorgängerbild gespeichert. Damit es nicht auseinander läuft z.b. Bildsprünge kann man festlegen, nach wie vielen "Einzelbildern" wieder ein ganzes Bild gespeichert wird, von dem man dann wider nur die Änderungen speichern muß. Die JPG Kompression kann natürlich auch bestimmt werden. Das Bild wird in Quadrate zerlegt und jedes Quadrat mathematisch so erfasst, dass es möglichst ohne Verluste komprimiert wird. Je höher die Kompression, desto größer sein die betrachteten Quadrate. Deshalb der Effekt, wenn defekte Filmdateien angezeigt werde, meist: weil der Sender Aussetzer hatte: Man sieht zunächst nur Quadrate.. bis wieder ein ganzes Bild übertragen wurde. Vor allem am Mond und Planeten würde es sich anbieten Natürlich gibt es auch unkomprimierte Formate. Aber wir können leider in den Fotoapparaten nicht ein FOV (field of view) bestimmen, wir müssen immer das gesamte Bildfeld speichern. TIFF: Ein sehr altes, aber daher sehr universelles Format, dass ohne Verlust 16bit Bilder speichern kann bietet sich deshalb zumindest als Austauschformat an. Da es aber nur von allen anderen Programmen gelesen werden kann, wenn keine der vielen möglichen Kompressionen angewendet wurde, sind Bilder aber recht groß. Wir erinnern uns: Ein Bild wird dadurch beschrieben dass man die Anzahl der Pixel * Farbtiefe (16bit) speichern muss. Wer z.B. ein JPG Bild mehrmals bearbeiten und speichern muss, verliert immer etwas an Information. Ob man das sieht ist natürlich eine Frage des Anspruchs. Da wäre dann auf jeden Fall angebracht sein Bild als TIFF zwischen zu speichern. Da TIFF variabel gestaltet ist wäre ein 8/24bit (3x8bit) TIFF für JPG ausreichend. Damit verliert man bei jedem Speichern zumindest nichts durch Kompression. Wer also Bilder in seiner „Lieblings Software“ verarbeiten will, kann mal mit einem beliebigen Programm sein 12bit ORF als 16 bit TIFF speichern. Dann findet man alle Daten unverändert im seinem TIFF Bild. Es bedarf dazu keinerlei Kaufprogramme! Sobald man allerdings wirklich tiefer in „Deep Sky“ Astrofotografie einsteigt, wird man beim Stacken direkt die RAW Dateien verwenden. Da liegen die Daten nämlich noch linear vor und mit den „ungestreckten“ Daten sind einige, aber wesentliche Verarbeitungsschritte um einiges leichter (für die Software) zu machen. In der Astrofotografie sind neben (RAW der heutigen Astrokameras) das FITS Format (1981 von der NASA geschaffen) verbreitet. Da können in den Metadaten nicht nur Coordinaten sondern auch verwendete Filter etc. geschrieben werden. Auch ob es sich um Flat/Darks/BIAS etc handelt, was eine Verarbeitung erleichtert, wenn automatisch die richtigen Dateien beim Stacken zugeordnet werden können. Es ist aber nicht ganz so starr, so daß manche Kamerahersteller da die Eckpunkte unterschiedlich angeben und ob ein Bild gespiegelt ist oder nicht. In PI gibt es mittlerweile das xisf format. Die Formate können aber ineinander gewandelt werden. Seti Astro hat vor kurzem ein kleines Programm geschrieben: XISF Liberator Damit kann man dann auch Bilder recht einfach austauschen ohne Datenverlusten. Egal ob 16 oder 32 bit, gestreckt oder Linar. Linear/ungestreckt - Was ist dass denn wieder? Betrachten wir den Wert der Helligkeit, den ein Pixel gerade am Sensor hat: So liegt (weitgehend) ein linearer Zusammenhang zwischen der Anzahl der Lichtteilchen und dem ausgelesenen Helligkeitswert vor: Also doppelt so viel Licht ergibt einen doppelt so hohen Wert für die Helligkeit. 4 x mehr Licht, 4x höherer Wert... Wir sprechen dann von linearen Daten und wenn man damit arbeitet, eben im linearen oder ungestreckten Zustand. Um es vorwegzunehmen: Lineare Bilder sind, zumindest bei 12 Bit, an sich schwarz am Bildschirm (siehe weiter unten). Daher werden sie durch Fotosoftware bei der Entwicklung gestreckt, also delinearisiert. Das ist das was man herkömmlich gewohnt ist und dem entspricht wie unsere Augen und der „Prozessor“ dahinter arbeitet. Ein Pixel das doppelt so hell ist, ist es nachher z.b. 4x so hell. Diese Kurve, kann man dann eben ein wenig beim Entwickeln beeinflussen. Wer also photometrische Auswertungen, also das Messen von Helligkeiten machen will, wird nur linear arbeiten, denn wenn man nicht weiß, wie der Streckalgoritmus genau funktioniert hat, kann man nicht zurückrechnen. Aus demselben Grund ist es auch einfacher, Bearbeitungsmodule für lineare Bilder zu schreiben, denn bei gewissen Funktionen müsste man wissen, wie ein Bild genau gestreckt wurde weil ja kein einfacher linearer Zusammenhang zwischen Helligkeit und Signal mehr besteht. So gibt es bei sehr fortgeschrittenen Programmen (PixInsight, Siril) eben Programmmodule, die nur im Linearen Bereich arbeiten oder im gestreckten, aber auch Module, die in beiden Welten angewendet werden können. Weil es hier auch passt und warum man bei DeepSky mit RAW-Entwicklern wie LR nicht weiterkommt: Solange man die Datenwerte, die das Bild beschreiben nicht beschneidet, kann man dieses um arrangieren wie immer man will. Am schnellsten fällt einem das auf, sobald man einen mehr oder weniger großen (meist aber mehr 😉 ) Farbstich im Bild hat. Keine Panik !!! es ist mal völlig egal, denn solange alles an Werten, die die Pixel beschreiben da ist, kann man hinterher das beheben. Damit nichts (versehentlich) beschnitten wird, ist es wichtig, immer sehr genau auf sein Histogramm zu sehen, wenn man da etwas ändert. Das Histogramm zeigt ja die Verteilung der Helligkeiten unsere Pixel im Bild. Am linken Ende der dunkle Bereich und rechts der helle Bereich. Wer dann eben oben (heller Bereich) oder unten (am dunklen Ende) etwas verschiebt, sollte hier nichts wegschneiden. Idealerweise zeigt das Programm genau an, wie viel man an Informationen wegschneidet. Da stößt man bei Photoshop derzeit noch immer nicht genau wie viel das ist, bei PixInsight (vielleicht auch der Freeware Siril mal oder kann es bereits?) sieht man auch wie viele Pixel man genau opfert, nicht nur %. Klar, 10-50 Pixel kann man schon mal opfern, wenn man 20 Mpixel hat, aber was weg ist ist unwiederbringlich verloren. Und man beschneidet natürlich auch, wenn man die Farbtiefe reduziert. Also von z.B. 16 bit oder 12bit auf 8 bit wie sie bei JPG zur allgemeinen Verwendung gebräuchlich sind, geht. Man kann ja die vielen Werte nicht mehr mit weniger bit abbilden und muss sie zwangsläufig „zusammenstreichen“. Ein Zurück ist da nicht mehr, man könnte nur fehlende Zwischenwerte künstlich durch Interpolation schaffen. Wenn unser Kameras nur 12 bit Auflösung bieten, warum haben wir jetzt mehr als 12 Blenden Kontrastumfang ? Das liegt daran, dass der Sensor und die Ausleseelektronik eben so gestaltet wurde, dass er vor allem im oberen Bereich einfach nicht mehr ganz linear abbildet. Je mehr Licht, desto etwas weniger Signal wird dann „produziert“. Die hellen Stellen brennen dann nicht ganz so leicht aus. Hier ist auch der Vorteil von 14 oder 16 bit Sensoren, die jetzt immer mehr verfügbarer werden zu sehen. Jetzt rein rechnerisch betrachtet (ohne auf spezifische Sensoreigenschaften einzugehen): Zunächst wollen wir mal herausfinden, ob ein Pixel gesättigt ist: Wenn wir unser Bild im üblichen 16bit Raum des Computerbildschirm betrachten, dann ist bei 16 bit ein Pixel dann ausgebrannt, wenn er 100% an Wert zeigt. Mehr geht halt nicht. PixInsight zeigt nicht in % an, sondern geht von 0 - 1. Ein rein schwarzer Hintergrund (gerade bei Deep Sky sieht nicht schön aus, auch wenn man damit vieles verbergen kann. Daher wird man ihn da in PS bei um die 10-15% halten wollen. Bei PI halt um die 0,09 - 0,12. Wenn man ein 12bit Lineares Bild hat, dann ist ein gesättigtes Pixel bei gerade mal bei 6,25% (in PI entsprechend bei 0,0625 liegen was halt schon sehr sehr dunkel 😉 ist. Also: 16bit=100% (=1 bei PI), /2 (=15bit)=50% /2 (=14bit)=25% ....bis man bei 12bit landet mit den 6,25% (0,0625). Gemessen bei unseren Sensoren liegen minimal übrigens bei um die 0,0038 herum. Also unser Bild ist dann hoffentlich zwischen diesen 0,003 und 0,0625 zu finden. Bei einer 14 Bit „Kamera“ kann man 4x so lange belichten bis ein Pixel gesättigt (der maximale Wert der abgebildet werden kann) ist als bei einer 12 Bit Kamera. Denn der Werteraum von 12 Bit reicht nicht aus. Belichtet man bei 12 Bit doppelt so lange (doppelt so viel Licht) muss einen doppelt so hohen Wert abgespeichert werden können als bei 12bit, das geht nur, wenn man mindestens 13 Bit zur Verfügung hat. Und wenn man nochmals doppelt so lange belichten will, braucht es dann eben 14 Bit um den Wert abzubilden. 2^14 sind übrigens 16384 Helligkeitswerte die ein Pixel annehmen kann. Aber auch die reichen nicht um den unheimlichen Kontrastumfang zwischen Sternen und DeepSky Objekten abzubilden. In der Praxis brennen hellere Sterne unter einer Sekunde aus für den Rest sind dann 4 Minuten angesagt. Nur an besonders hellen Objekten wie die Andromeda Galaxie oder noch extremer: Orion Nebel, kommt einem das dann natürlich sehr gelegen, weil man sich zwingende unterschiedliche Belichtungsreihen einsparen kann. Aber um den Unterschied den 14 Bit gegen 12 Bit dann bei der eigenen Ausarbeitung noch zu nützen, bedarf es schon sehr viel Erfahrung in der Bildbearbeitung. Da liegen die Hürden über längere Zeit wohl ganz wo anders. Abhalten sollte uns dieser Unterschied jedenfalls nicht. Siegfried -
methodik Dateiformate
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Überarbeitet 12/24: -
Rauschminderung / Rauschfilter ? Mit Rauschminderung bezeichnet Olympus den Dunkelbildabzug. Jeder Sensor rauscht, Je höher die Temperatur und je länger die Belichtungszeit desto mehr. Mit der üblichen Einstellung AUTO ist man an sich gut bedient. Die Kamera macht dann bei längerer Belichtungszeit (so ab 1-2 Sekunden) eine zweites Bild bei geschlossenem Vorhang. Genauso lang wie das vorhergehenden "normal" Bild (=Lightframe). Dieses Bild ohne Licht nennt sich Dunkelbild oder Darkframe. Es enthält damit das Rauschen des Sensors bei den selben Einstellungen (ISO und Temperatur und Zeit) des eigentlichen Bilds und wird dann in der Kamera abgezogen. Das entstandene Bild wird dann als ORF geschrieben, ins JPG sowieso. Das kostet natürlich Zeit. Solange man jede Menge Zeit hat oder nur kurz Belichtet oder mit sonst nichts auseinandersetzen will, ist es das Mittel der Wahl. Gerade bei DeepSky ist aber die Zeit am Himmel oft sehr eingeschränkt und will bestmöglich genutzt sein. Daher wird man diese Dunkelbilder dann extern abziehen. Ich mach es zwischendurch, wenn Wolken durchziehen, meist aber wenn ich alles abbaue: Objektivdeckel auf die Kamera und bei den selben Belichtungseinstellungen wie die Lights: Also ISO und Zeit und wenn verwendet Livetimemodus gleich lassen. Einiges an Bilder machen, Dabei die Kamera draußen lassen damit in etwa die selbe Temperatur wie bei den Lights herrscht. Unsere Olympus Kameras sind da recht gutmütig. Früher oder später wird man aber auch Flat und BIAS Korrekturen machen wollen, denn sie berücksichtigen andere Bildfehler und schaffen so die Grundlage für eine wesentlich fehlerfreieres Bild. Ausführliches zu dem Thema "Bildkalibration" hat Thomas Henne hier zusammengefasst. Wie ich es handhabe habe ich auch mal hier beschriebe: Rauschfilter Das ist nichts anderes als eine softwaremäßige Entrauschung. Normalerweise steht sie bei mir auf Aus oder Niedrig. Da man aber sowieso mit dem RAW arbeitetet ist es egal, denn diese Bearbeitung wird nur ins JPG geschrieben. Klar sieht ein Bild am Computerschirm immer sehr schlimm aus, kann man es ja beliebig vergrößern, aber wenn das Motiv passt, wird sich keiner am Rauschen stören, bei den üblicherweise am Internet gezeigten kleinen Bildern schon gar nicht. Beste "Eigentherapie": Ausbelichten lassen und beim richtigen Betrachtungsabstand ansehen 🙂 Entrauschen kostet wenn man es nicht selektiv macht immer Details. Gerade im dunklen Hintergrund wird man kleine Galaxien und Strukturen entsorgen. Durch das Zusammenrechnen vieler Bilder wird das Rauschen aber erheblich reduziert. Bei einigen Sony Kameras kam es 2016 mit einem Firmewareupdate dabei zu einem weiteren Problem: Die Kamera eliminiert kleine Sterne weil sie sie als Rauschen erkennt. Dieses Problem ist als "Star Eater" bekannt und dazu gibt es unzählige Artikel. Ich hoffe, dass uns OM Systems weiterhin die Möglichkeit lässt, an eine möglichst unverfälschtes Rohbild zu kommen ! Siehe auch folgender Post zur OM-1: Siegfried
- 1 Antwort
-
- astrofotografie
- rauschen
-
(und 1 weiterer)
Markiert mit:
-
methodik 04 Astrofotografie - Scharfstellen
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Scharfstellen die 2018er Version 😉 Außer mit starkem Teleobjektiv am Mond verlasse ich mich da nie auf den Autofokus. Schon im Hinblick darauf, dass man ja üblicherweise nicht ein Bild sondern sehr sehr viele macht, die Aufgrund der Wetterlage nicht unbedingt einfach wiederholbar sind, stelle ich eben lieber manuell scharf ein. Zumindest überprüfe ich dann an einem Probebild ob es passt, bevor man mit Serienbildern beginnt. Die Funktion "Objektivrückstellung" schalt ich bei dem Kameras die ich meist für Astrofotografie verwende aus. Oft will ich eine Belichtung unterbrechen, was ich dann einfach durch Ausschalten der Kamera mache, anstatt Minutenlang zu warten. Dann ist es nützlich, dass die Schärfen ebene des Objektives bleibt wo sie ist. Zunächst muss man aber überhaupt mal einen hellen Stern am Kameradisplay finden, was bei einem stärkeren Fehlfokus schon meist nicht mal möglich ist, weil das schwache Licht ja über eine große Fläche verteilt ist, und so nicht mehr angezeigt wird. Daher bietet sich an, an einer möglichst weit entfernten Lichtquelle mal vorläufig scharf zu stellen. Dann einen möglichst hellen Stern in die Bildmitte bringen und mit LiveView Vergrößerung (14x) so fokussieren dass der Stern so klein wie möglich ist. Der MF Assistent im Kameramenü ist dazu ausgeschaltet, aber ich lege mir auf eine Funktionstaste die Vergrößerungsfunktion. Ein Klick auf OK verlässt dann wieder den Vergrößerungsmodus. Bei starken Teleobjektiven gibt es eine Einstellhilfe inform einer speziellen Maske, die man vors Objektiv gibt: Die Bahtinovmaske Das beigefügte Bild zeigt den Effekt an einem 135mm Objektiv und dem sehr hellen Stern Capella. Bei Brennweiten unter 60mm wird man kaum mehr etwas erkennen, zu klein sind die Sterne. Vor allem bei langen Brennweiten, ist die Bahtinovmaske das Mittel der Wahl: Es kommt ja dazu, dass bei solchen Brennweiten jeder Fokus versuch zu mehr oder wenigen starkem wackeln führt, was die Sache visuell meist zur Herausforderung macht. Da sind die Sterne ja durch das Flimmern der Luft schon stark aufgebläht, was auch eine Beurteilung schwieriger macht. Ist das Objektiv wesentlich wärmer als die Umgebung oder kühlt es dann weiter stark ab, sollte man unbedingt vor allem Anfangs alle 5-10 Minuten den korrekten Fokus kontrollieren. Daher vorher akklimatisieren lassen. Gerade bei langen Brennweiten spielt die Kontraktion der Optiken in einer Kalten Nacht eine sichtbare Rolle. Deshalb mag ich meinen gepimpten Newton (Lacerta Fotonewton) so: Sowohl Spiegel (Pyrex oder Quark, jedenfalls kein PK7 Glas!!) Kohlefasertubus und sehr guter Okularauszug sorgen dafür, dass sich Fokus während der gesamten Nacht nicht verstellt. Zumindest nicht sichtbar solange ich bei DSLM bleibe. Bei Objektiven mit manueller Blende nicht vergessen, die Blende ganz zu öffnen. Bei dem heutigen OM-D's gibt es mittlerweile eine LiveView Erweiterung II. Man sieht da dann wirklich sehr viele Sterne (aber auch Hotpixel!). Die Verzögerung macht es aber schwierig damit scharf zu stellen. Hat man den Fokus wirklich getroffen, sieht man auch den einen oder anderen schwächere Sterne im LiveView Modus I. Wenn man Glück hat in der Nähe der Bildmitte und kann so schnell den Fokus kontrollieren. Bei Optiken, wo die Schärfe gegen den Bildrand stark abfällt, ist es günstig ca 1/3 der Bildmitte scharf zu stellen. Geht das alles nicht befriedigend, kann man anhand von Probebildern den Fokus überprüfen und gegebenenfalls neu einstellen, alles sehr Zeitaufwändig. Mit der Praxis kommt man schnell drauf, welche Tragweite die obigen Anmerkung hat: Bei schwer auffindbaren Objekten, wo nichts im Bildfeld ist, wo man die Schärfe einfach kontrollieren kann, das man sich alle 15-20 Minuten wieder eine Feld suchen muß, wo man scharf stellen kann um dann erneut möglichst genau sein Feld wiederzufinden. GoTo kann hier einige Erleichterungen bieten, aber ist nicht immer das Allheilmittel, wenn man so gar nichts im Bildfeld sieht, wo man dann die finale Feineinstellung wiederfindet. Also man stellt scharf, was sagen wir mal 30 Sekunden dauert, dann sucht man das Feld und mit Probebelichtungen untermauert. Das kann schon mal 3 -? Minuten dauern. Dann belichtet man endlich 3-5 Bilder um danach das Spiel mit Fokussieren erneut anzustoßen. Ist natürlich ein worst case sceneario. Aber gerade Anfangs verfügt man nicht über Gerätschaften, die einem bis hin zur Automatisation die Sache erleichtern. Auch ist man da schon schnell sehr weit weg vom einfachen Aufstellen, Scharfstellen und Foto machen lassen. Am Mond ist es am besten in der Nähe des Terminators scharf zustellen, auch der Jupiter bietet sich an: Da sieht man die Galileischen Monde , die recht schnell verschwinden sollte der Fokus nicht mehr recht passen. Bei den bei uns verwendeten Optiken reicht es auch, an einem hellen Stern scharf stellen und dann auf den Mond zu schwenken. An der Sonne (natürlich nur mit entsprechen dafür geeigneten Filtern) entweder an einem großen Sonnenfleck oder dem Rand. Schwierigkeiten ergibt sich aber hier wegen des hellen Umfelds. Da wird man wohl mit einer Abdeckung der Kamera und Blick durch den Sucher arbeiten müssen. Verwendet man eine modifizierte Kamera, wird man um helle Sterne einen roten Saum sehen, weil das viele langwellige rote Licht ja nicht mehr in den Fokus zu bringen ist, wenn gleichzeitig blau und grün scharf sind. Der optimale Fokus ist dann, wenn dieser rote Saum genau verschwindet. Dann ist zwar das "normale Licht" etwas aus dem Fokus, aber das rote nicht ganz so unscharf. Spiegelteleskope wie ein Newton Teleskop ist allerdings farbrein, da sind alle Wellenlängen im Fokus. Da ist die Bahtinov Maske dann ein Segen. bearbeitet 30. Dezember 2018 von iamsiggi- 1 Antwort
-
- 1
-
-
- fokus
- astrofotografie
-
(und 3 weitere)
Markiert mit:
-
methodik 05 Astrofotografie - Brennweiten
iamsiggi hat einem Thema gepostet in Astrofotografie's Hardware, Methodik und Software
Brennweiten Ist man der Fotografie verhaftet, denkt man in Brennweiten und lernt schnell in etwa abzuschätzen, wie formatfüllend Objekte bei welchen seiner Objektive werden. Solange man bei einer Sensorgröße bleibt, wie jetzt beim FT Sensorformat von Olympus, braucht da auch nicht groß umdenken. Wer unterschiedliche Kameras einsetzt mit unterschiedlichen Sensorgrößen weiß um den "Crop" und muss halt etwas Rechnen. Es gibt aber eine Messgröße, die würde das alles vereinheitlichen und uns speziell bei kleinen Objekten in der Astrofotografie schneller einen Begriff geben kann, welche Brennweite benötigt wird: Der Bildwinkel Für unsere FT Sensoren habe ich mir für meine gängigsten Brennweiten mal den diagonale Bildwinkel im Bezug auf die Brennweite herausgesucht: 800mm: 1,55° 280mm: 4,42° 200mm: 6,2° 100mm: 12,35° 75mm: 16,4° 60mm: 20,44° 50mm: 24,4° 30mm: 39.65° 14mm: 75.38° 12mm: 84.06° 7mm: 114,18° Zur Erinnerung: 1 Grad (als Winkel oder Bogengrad, im englischen als arc bezeichnet) wird unterteilt in 60 Minuten, 1 Minute in 60 Sekunden, darunter in Kommastellen, betrifft uns praktisch nur im ersten Zehntel. Mond und und Sonne nehmen am Himmel 0,5 Grad oder 30 Winkelminuten ein. Der Unterschied in der Größe des Mondes in Erdnähe oder Erdferne ist gerade mal 10-15%, also vernachlässigbar. Vergleichsweise klein ist der Mond mit seinem 0,5 Grad gegen einige der großen Gasnebel, die schon mal einige Grad am Himmel füllen. Einzig unsere Unempfindlichkeit des Auges im Dunklen (wo wir dann nur noch schwarz/weiß sehen) gegen das Leuchten des Wasserstoffs (H-alpha, H-II) verhindert, dass wir sie mit freiem Auge sehen. Meist sind sie aber auf jedem etwas länger belichteten Fotos selbst mit Weitwinkel identifizierbar. Die gesamte Sphäre der Andromeda Galaxie an unserem Himmel füllt eine Fläche des Großen Wagens, fotografisch für uns sinnvoll nutzbar sind da um die 10 Grad, also reichen 100-200mm völlig aus, um sie formatfüllend am Bild zu haben. Die Auflösungsgrenze unsere Augen liegt bei ca 1-2 Winkelminuten. Sterne funkeln durch Luftunruhe, während helle Planeten Aufgrund ihrer Größe nahe 1 arc min das nicht tun: Venus erreicht am erdnächsten Punkt gerade mal diese Größe am Himmel. Jupiter ist mit max. 47 Bogensekunden nicht sehr viel kleiner. Saturn mitsamt dem Ring auch in etwa. Saturn und Mars messen zwischen 25 bezw, 20 Bogensekunden, Neptun nur noch 2,3 . Ein mFT75/1.8 löst gegen 10 arcsec auf, so viel, wie Barnards Pfeilstern pro Jahr wandert. Die Ringe des Saturn und die Galileischen Monde des Jupiters sind ohne weiteres mit einem 200mm am Bild zu sehen. Unser Himmel (laut einem Vortrag eines Astronomen in der Sternwarte 😉 ) lässt nicht viel mehr als günstigsten Fall 1 Bogensekunde Auflösung zu, bei allerbesten Himmel. Wenn ich den "Seeingvorhersagen" so vertrauen kann, habe ich meist nur so 2,5 bis 4 arcsec. Nichts desto trotz kann ich praktisch mit mein Teleskop mit 200mm Spiegel, durch einfaches* stacken (*ohne zu drizzeln) die Auflösung erhöhen, sodass ich das Epsilon-Lyrasytem, wo 2 Doppel Doppelsterne stehen, deren Paare nur maximal 2,4 Bogensekunden Abstand haben, auf jeden Fall trennen kann. Mit terrestrischen Teleskopen (so ca. um die 10m derzeit, die >30m gehen ja erst demnächst in Betrieb) bei heutigen Techniken kommt man derzeit auf Auflösungen von unter 0,01 arcsec. Genug, um auf der Oberfläche der großen roten Riesen Beteigeuze im Orion und Antares Skorpion "Sonnenflecken" auszumachen. Nur so viel zur Anmerkung, bevor Verzweiflung hochkommt.... da geht nichts, brauch ich gar nicht erst anzufangen 🙂 Zurück zum Mond: Die Faustformel (für Kleinbild) sagt: Der Mond bei einer Brennweite von 2,2 m formatfüllend wird, also beim Verwendung von FT Sensoren bin ich da bei meinen 800mm Teleskop und einem 1,4x Telekonverter schon gut da. Und es bleibt noch etwas "Fleisch" rundherum, dass man sich bei der Bildbearbeitung rühren kann. Anders schaut es aus, wenn man ein Video macht (um nachher zu stacken). Da wird ja nur ein ein Teil des Sensors benötigt. Da ist er dann schon bei 800mm genügend groß, bei 1,4x Telekonverter (in der Astronomie als Barlow Linse bezeichnet) geht nur noch ein Teil drauf. Der Vollmond ist aber durch den geringen Kontrast nicht wirklich interessant. Hat man einen 1/4-1/2 Mond und man dreht die Kamera, dann passt der beleuchtet Teil trotzdem ins Bildfeld. Soweit ich bei Gesprächen mit Anderen erfahren habe, die auch an großen Geräten arbeiten ist an Öffnung (=Auflösung) das Optimum bei 12" (zoll - also 30cm) erreicht. Danach steigen die Probleme sehr stark an. Auch kann ja mittlerweile Gerätezeit bei einigen Remote Sternwarten Stundenweise mieten. Das geht bis zu einem 1m Gerät, aber Preis/Leistungsmäßig hat man von einem 1/2m Gerät mehr, so deren praktische Erfahrung. Wer sich an der Bearbeitung an Rohbildern aus dem Wissenschaftlichem Bereich wir das HST versuchen will, der kommt auch an die Rohdaten..... Um am Himmel tätig zu sein, braucht man jetzt aber wirklich nicht Langbrennweitiges. Es heißt ja: "Jedes Teleskop hat seinen Himmel", das gilt auch für normale Fotolinsen. Wohl die meisten hier haben schon mal einen Vorteil: Man hat sie bereits 🙂 Wer sich in Richtung Macro versuchen will, wäre auch schlecht beraten, gleich mal das Beste zu Kaufen ohne zu wissen, ob einem das liegt. Zum Probieren tut es auch ein vorhandenes Objektiv. Wer sich dann spezialisiert, ist dann auch gut Beraten nicht gleich Spontankäufe zu tätigen. Bei den wirklichen HighEnd/Optimum hält einem ja meist der Preis ab, aber in Zuge der Überlegungen über Alternativen kann man durchaus zum Schluss kommen: Lieber das Geld sparen indem man eine halbherzige Lösung anschafft um dann festzustellen es war eine Fehlinvestition. Wer ein zweites mal kaufen muss, kauft denn wirklich teuer! Um von den langen Brennweiten nach unten zu gehen: Im für uns gerade zu Anfang sinnvoll einsetzbaren Teleskopbereich bewegt man sich so um die 750-1000mm (bei F/4-6) Brennweite. Die Lücke zu nach unten wird an sich nur* durch Linsenfernrohre (APO's) gefüllt (*oder man hat ab 4000 Euro für einen TAK Epsi..) und man bewegt sich dann bei ca. 400-500mm (F5.5-F7). Zumal diese Geräte gerade mal zwischen 500 und 1000 Euro angesiedelt sind. Wenn man so ansieht, was die Astrofotografen die "widefield Astrofotografie" machen, so verwenden, sieht man sehr häufig Brennweiten zwischen 100 und 200mm. Da haben ja viele eine lichtstarkes Tele herumliegen oder günstig gebraucht erworben. Und wenn sie Glück haben eines dass auch mit ihren KB oder Crop Kameras gute Leistung abliefert. An unserem FT Sensor sind wir da also mit Objektivbrennweiten von 75-150mm schon sehr gut, wenn nicht sogar besser dabei. Die Optiken sind klein und Lichtstark, was wenig Ansprüche an eine Nachführung stellt. Gewicht spielt bei einer Nachführungen auch eine nicht unerhebliche Rolle. Die Angaben der maximalen Tragfähigkeit kann man meist halbieren. Es gibt da einiges an Objekten am Himmel, die sind einige Grad groß, wenn ich an Andromeda denke, sind eben 300mm schon fast zu viel, Orion mit seinem Umfeld ist mit jeder Brennweite ein Erlebnis. Man darf auch nicht vergessen: Ein Lichtstarkes 130-150mm Objektiv ist in der Praxis wesentlich leichter zu handhaben als ein lichtschwaches 300er. Wie ihr wisst, setzte ich oft das Samyang 135/2, ebenso das 75/1.8 ein. Hätte ich das Tönnchen (FT150/2) wäre ich wohl auch sehr glücklich, wenn es Offenblende nur wenig CA zeigt. Manche Sternbilder sind selbst für ein 25mm Objektiv zu groß, sie bieten aber genug Auflösung um Objekte des Messier Katalogs zu finden. Eine der tollsten großen Strukturen für Brennweiten um die 20-70 mm ist wohl Rho-OPH zwischen dem Stern Antares und der Milchstraße im Sommer. Naturgemäß sehr beliebt sind Weitwinkelobjektive, vor allem bei den "Milchstraßen" Bildern. Bei genügend hoher ISO kann man selbst ohne Nachführen zu müssen mit 15-20 Sekunden schon ansatzweise genug Licht sammeln um in der Milchstraße die einen oder anderen großen Gasnebel zu sehen, und vor allem schon genügend Hintergrund des Dunklen Himmel mit abzubilden. Denn der gibt ja einem Bild den nötige Unterstützung. Denn was gibt es schlimmeres als Bilder des Sternhimmels wo man ein paar helle undefinierte Punkte auf ansonsten schwarzen Grund sieht. Je weiter den Winkel, desto mehr bekommt man aber auch Probleme mit einem nicht so gutem Himmel. Sei es das immer wieder Wolken im Bild sind und den Helligkeitsgradienten über den Himmel. Auch die Bildverzerrungen nehmen stark zu, was eine Astrometrierung erschwert. Aber auch hier: Es kommst drauf an, was man will. Welche Brennweite welchen Himmelsbereich erfassen kann man leicht mit Stellarium planen. Wenn wir jetzt die Linsen hinsichtlich der Lichtstärke betrachten und deren Auswirkung für die Praxis. Um genügend Licht für die Bearbeitung zu haben, brauchen wir am dunklen Himmel bei F/2 ISO800 eine bequeme Minute Belichtungszeit. Bequem deshalb, weil man ja die Kamera mit der Serienbildfunktion bis 60 Sekunden lang belichten lassen kann. Länger bedarf einen Sequenzer etc. Klar fürs Erste kann man auch immer wieder den Auslöser drücken. Es kann aber über das Steuersignal einer Nachführung etc. auslösen lassen. Das bedeutet bei einer Blende 4 schon 4 Minuten Belichtungszeit bei ISO800. Verwenden wir eine Nachführung, so ist es recht leicht, auch bei bei einer nicht exakten Einnordung bei einem weitwinkeligen Objektiv da über Minuten nachzuführen, ohne das Sterne Striche werden. Da braucht es auch nicht gleich die F/1,2er .... mit F1.8 oder 2.8. Den Qualitätsunterschied wird man Anfangs über längere Zeit kaum merken. Natürlich kann man sich dann bei einem 1,2er ein Abblenden leicht leisten, bei 1.8 ist es angebracht :-). Leistbare Telebrennweiten mit guter Abbildungsleistung und hoher Lichtstärke zu finden ist schon schwierig. Hier haben wir da zum Glück eben ein 45/1.8 das 75/1.8 oder Samyang 135/2 etc. die am FT Sensor schon in Richtung kleine Teleskope gehen. Selbst bei Abblenden ist man dann noch schneller (=Lichtstärker) unterwegs als mit einem kleinen APO, die meist max. F/6 haben. Weil jetzt das Wort "schnell" gefallen ist: Man spricht von schnellen und langsamen Systemen und meint damit die Lichstärke eines Systems. Schnell deshalb, weil man in kürzerer Zeit mehr Licht sammeln kann. Und wenn eine Belichtung kurz gehalten werden kann hat das zwei Vorteile: Die Nachführung ist nicht so anspruchsvoll und man kann mehr Einzelbilder für das nachfolgende Stacken sammeln. Je mehr Bilder, desto besser ist ja das Ausgangsmaterial für die nachfolgende Bearbeitung. Je mehr man sich an der Grenze der Nachführung befindet, desto mehr Bilder muss man vor dem Stacken ausscheiden. Von der notwendigen Nachführpräzision ist man bei 75mm noch im Grünen (ich spreche jetzt bei Verwendung des StarAdventurer als Nachführung), bei 135 wird es schon etwas schwieriger ist aber sicher machbar ohne hohen Aufwand. Wer sich wirklich genügend Zeit nimmt zur genauen Einnordung kann auch höher gehen. Ein 300/4 würde ich da aber außer bei Andromeda und Orion nicht mehr sehen. Beides sind extrem helle Objekte, wo man nicht ganz so lange Belichten muss, weshalb da auch noch mit Belichtungen von 1 Minuten trotz F/4 schon einiges Möglich ist. Gerade bei Orion braucht man mehrere Unterschiedliche Belichtungszeiten um den extremen Helligkeitsumfang besser darstellen zu können. Ist natürlich ein Mist, dass gerade die zwei bekanntesten größten und hellsten Objekte zu den am schwierigsten Abzubildenden zählen. Aus den obigen Zusammenhängen ergab sich auch mein Weg bisher: Zuerst habe ich mir ein Teleskop mit 800mm und F/4 und gerade noch transportierbarer Montierung angeschafft. Huckepack kann ich eine zweit Kamera mit einem Objektiv verwenden. Beide Fotoapparate wurden über einen Kabelauslöser (Y-Verzweigung) synchron ausgelöst. Da ich für das Teleskop 4 Minuten Belichtungen brauchte, musste ich beim Objektiv entsprechend Abblenden. Letztlich sammelte ich dann halt genauso viele Bilder wie mit dem Großen. Später habe ich mir dann den StarAdventurer zugelegt, so konnte ich bei größerer möglicher Blende viel mehr Bilder in Kurzer Zeit sammel. Zudem ist das ganze binnen einiger Minuten aufgestellt und läuft dann mal vor sich hin. Da ich ja über eine bestmögliche Montierung verfüge, verwende ich bei schwierigeren Fällen vor allem ab 100mm Brennweite auch oft diese Große anstatt mich um eine noch präziserer Einnordung der kleinen Nachführung kümmern zu müssen..... Das Bild ist eine "quick und dirty" Bearbeitung meines 1st Light mit der astromod. OM-5 und dem mFT20/1.4 am Stenbild Stier mit Jupiter: Siegfried- 2 Antworten
-
- 6
-
-
- astrofotografie
- brennweiten
-
(und 2 weitere)
Markiert mit: