Jump to content
Die PEN, OM-D & E-System Community
  • entries
    7
  • comments
    86
  • views
    3.373

Bildberarbeitung in der Astrofotografie

Als Olympus Anwender ist man ja sehr verwöhnt, was die Bildqualität „out of Cam“ betrifft: Meist stimmt der Weißabgleich und für mehr als 90% der Alltagssituationen reicht das JPG.

Wem die Bilder zu konservativ „flau“ sind, wenn sie die Wirklichkeit zeigen, der darf gerne hinterher noch den Kontrast und Sättigung erhöhen und stark Nachschärfen und so eine drastische Reduktion an Daten herbeiführen. Dafür sieht das Ergebnis auf dem ersten Blick dann knackig aus wie bei anderen „Consumer DSLR“ Fotoapparaten. Jedem das Seine.
 

Bei der Astrofotografie wird man schnell merken, ohne eine speziellere Bildbearbeitung nach allen Regeln der Kunst wird man schnell nicht mehre sehr weiterkommen.

Wie üblich will ich mich hier auch eher auf die Praxis beziehen, so wie ich mir die Sache aneignen konnte über die nunmehr bald 6 Jahren.
Bis ins letzte Detail fehlt mir aber auch da das Wissen, ich bin da mehr Ergebnisorientiert.

Nicht verschweigen will ich, dass die Bildverarbeitung ein fortwährende Entwicklungsprozess ist, ein stetiges Lernen und spezielle Werkzeuge die einem das Leben etwas leichter machen sollten. Es gibt zwar einen groben Arbeitsablauf, aber jedes Objekt stellt seine eigenen Herausforderungen.

Softwaremäßig kommt man mit kostengünstiger Bildbearbeitungstool auch weit (wenn man die notwendigen Vorarbeiten erledigt hat), aber wie man in der Praxis sieht, verwenden die "Profis" letztlich Photoshop (PS) und/oder in der Astrofotografie Pi Insight (PI). Für meinen Sonstigen Lieblink Corel gibt es einfach zu wenig Anleitungen, aber ich denk ist genauso geeignet.
Ich verwende PI, weil ich Adobe nicht so mag und für einen schnellen finish der Bilder ACDsee.
Wenn ich viel viel Zeit habe, vielleicht auch mal meine PS Lizenzen, das durch eingebaute „Intelligenz“ in manchen Bereichen das Arbeiten sicher erleichtert. Dazu reicht aber auch CS2 oder CS6.
Ansonsten gibt es vieles an Freeware, die sich dann speziellen Problemen annehmen. Für PS auch kostenpflichtige Plugins deren Anschaffung man mit einplanen sollte.

Was man eher weniger braucht: RAW Entwickler wie Lightroom, das kann man günstiger auch machen. Ein Bild wird durch Zahlenwerte der einzelnen Pixel beschrieben. Und solange man da nichts an Informationen vernichtet (beschneiden des Histogramm oder Reduktion der Bit tiefe), kann man sie nachher umarrangieren. Also reicht ein RAW Entwickler, der nur die Zahlen ohne Manipulation besten eben „linear“ entwickelt oder eben gestreckt in ein TIFF z.B.

Zwei Grundsätze, die erfahrene Bildbearbeiter immer wieder erwähnen:

Wenn man mit einem Werkzeug etwas am Bild arbeitet, schaut den Effekt genau an. Auch an verschiedenen Stellen im Bild. Wenn ihr an den Stellen,  wo ihr ihn einsetzen wollt um eine Problemzone zu verbessern eine sichtbare Wirkung seht, dann wendet ihr ihn nur zu 50% an. Lieber mit verschiedenen Werkzeugen an einem Problem arbeiten. Jedes Werkzeug hat seine Stärken und Schwächen. Daher so gut wie möglich die negativen Seiten auch beobachten. Sonst schüttet man eine Baustelle zu, produziert aber gleichzeitig weitere Probleme, die man auch behandeln muß. Also immer mit Fingerspitzengefühl. Und lieber eine Tool öfter mit ganz geringer Wirkung einsetzen, als einmal in einem Rutsch!

Während der Bildbearbeitung macht man ja sehr viele Schritte. Wenn man es schafft, bei jedem Berabeitungsschritt auch nur 10% besser zu sein, dann wird man das am Endergebnis sehen !

Da sich unser Rohmaterial durch lagern auf Festplatte ja an sich nicht ändert, aber unser Können in der  Bildbearbeitung steigt, lohnt es sich durchaus Altes mit mehr können neu zu bearbeiten.
Und wenn die Rohbilder von damals schon gut waren, sind sie immer willkommen, sie dann gemeinsam mit neuem Material zu verwenden um die Gesamtbelichtungszeit zu erhöhen.

Jetzt aber mehr zu den Praktischen Dingen


Was braucht es zunächst mal:

Eine Software, die einem schnell die gemachten Bilder durchsehen lässt.
Einmal in der Übersicht und einmal in 100%
oder mehr Ansicht auf kritische Stellen.
Sind kann man gleich mal grobe Ausreißer, was Schärfe betrifft oder ob der Himmel noch passt, wie z.B. verschleiern Wolken die Sicht und finden wir sonstiges unvorhergesehenes (Reflexionen) oder unerwartetes wie Kometen.

Günstig auch, wenn einem zur Beurteilung ein Histogramm zur Seite steht und die Belichtungswerte, wenn man verschiedene Belichtungsregime hatte und dann in entsprechende Ordner verschieben will.

Auch sollte man sich angewöhnen zu notieren, was man da Fotografierte mit wichtigen Eckpunkten

Kamera/Belichtungszeit/ISO/Blende, Umgebungsbedingungen wie Himmelsgüte etc.
Dann kann man schnell mal nachsehen. Manche Projekte ziehen sich ja über Tage Wochen und Jahre…

Warum es überhaupt eine andere Bildbearbeitung braucht, liegt im großen und ganzem an zwei Faktoren: Die Luftschichte, die alles mehr oder weniger verwischt und da wir meist sehr lange Belichten und die Objekte dennoch nur wenig Licht am Sensor hinterlassen, bewegt man sich hier in einem Bereich, wo es stark rauscht und den müssen wir extrem verstärken.

Daher ist das wichtigste Werkzeug das am Beginn der eigentlichen Bearbeitung steht ein Prozess mit Namen Stacken. Das verrechnen vieler möglichst guter Einzelbilder.

  • Gefällt mir 1
  • Danke 2


18 Kommentare


Empfohlene Kommentare

"Ein Bild, ist kein Bild"   -  Stacking

Astrofotografie ist ja ein weites Feld:

Von der Fotografie von Sonnensystemkörper wie Sonne, Mond und Planeten und „DeepSky“:
Nebel und Galaxie

Oder gar Kombinationen daraus: Kometen oder mit Irdischem Vordergrund (Milchstraßenfotografie).

Bei Sonne / Mond und Planeten hat man üblicherweise genug Licht zur Verfügung was kurze Belichtungszeiten erlaubt, aber gerade Planeten bedürfen hoher Vergrößerung. Und da spielt dann die Güte des Himmels (Seeing) einen gewichtigen Faktor. Man wird sehr viele Einzelbilder brauchen um aus schlingernden Einzelbilder ein vernünftig scharfes Bild zu bekommen.
Einzelne Projekte sind dann meist eine Belichtungsserie, die letztlich im Minutenbereich
erledigt sind.
Einige Planeten oder der Mond ändern über kürzere Zeiträume bereits ihr Aussehn zu stark.


Bei Deep Sky braucht man lange Belichtungszeiten (Minutenbereich) weshalb es schwierig wird, da viele Einzelbilder zu bekommen. Wird man Anfangs glücklich ein, von einem Objekt in einer Nacht einige Bilder sammeln zu können, ziehen sich dann die Projekte bald über mehrere Nächte.  Später über Wochen, Monate oder Jahre.

Es gibt da dieses Signal/Rauschverhältnis, kurz s/n (signal/noise). Bei jeder Vervierfachung an eingesetzten Einzelbilder wird das s/n um den Faktor 2 besser.

Was bedeutet das in der Praxis:

Anfangs reichen schon relativ wenige Bilder (6-12 herum), um ein signifikant besseres Ausgangsmaterial für die doch schwierige Ausarbeitung zu bekommen.
40-150 Bilder sorgen dann noch mal für einen gehörigen Schub an Qualität.
Ob man allerdings dann auch noch bis 500 Bilder kommt oder darüber bezweifle ich an unserem Himmel und kurzen Zeitfenstern, die einem zur Verfügung steht.

Bei Sonnensystemkörpern hat man da natürlich einfach mehr Einzelbilder zur Verfügung.

Da das Stacken üblicherweise nicht einfach ein mitteln aller Bilder ist, sondern über statistische Beurteilung arbeitet, damit besonders schlechte Bilder erst gar nicht das Ergebnis verwässern können, gilt Schummeln, wie z.b. einfach Kopien ein und des selben Bildes um die Anzahl zu erhöhen, nicht.

Bei Deep Sky führt auch ein getrenntes
stacken einzelner Stacks der Sessions hinterher, lang nicht zu Ergebnis, als wenn man alle Rohbilder gemeinsame stackt.
Man muß schon alle 100 Bilder gemeinsam stacken und nicht 10 Stacks zu 10 Bildern oder 4x25....

Je nach Art braucht man auch verschiedene Stackingprogramme :

Für Deep Sky ist das Prinzip mal relativ „einfach“: Sie müssen nur Sternmuster in den Bildern erkennen und diese zur Deckung bringen und dann eben die Signale de
r übereinander gestapelten Pixel entsprechen bewerten.
Es gibt da gute Freeware: DeepSkyStacker (DSS) und neuerdings Siril.

Anders bei großflächigen Objekten wie Sonne, Mond und Planeten: Da ist ein sehr aufwendiger Algorithmus nötig, der Strukturen erkennt um diese in Deckung zu bringen.
Für Planeten die man mit Webkameras (kleine Auflösung und >>1000 Bilder) gibt es da schon lange Freeware. Sie scheitern aber schnell an den Bildgrößen unserer heutigen Kameras.

Da gibt es seit einiger Zeit eine wirklich gute Software: Autostakkert (AS!3)
Zum Wandeln von File /Videoformaten bietet PIPP eine Vielzahl an Möglichkeiten


Und bei Milchstraßenfotografie oder wenn sich ein Komet durchs Bildfeld bewegt:
Da werden dann beide Objekte (Vordergrund und Hintergrund)
extra behandelt.
Für die Milchstraßenfotografie gibt es da mittl
erweile eine einfach Freeware für den Anfang: Sequinator und für Mac User: Starry Landscape Stacker

 

  • Gefällt mir 1
  • Danke 2

Diesen Kommentar teilen


Link zu diesem Kommentar

Stacken von Mond, Sonne und Planeten I   - PIPP

Mond und Sonne (nur mit geeignetem Filter) sind bei unseren FT Sensoren bei ca 1,1m Brennweite formatfüllend. Wer einen 1,4x Telekonverter sein eigen nennt, kommt also bequem mit 800mm Brennweite dahin. Mit „Silent Shutter“ kann man bis zu 60 Bilder / Sekunde hochauflösend erhalten. Also man kann relativ leicht seine vielen  hundert Einzelbilder erhalten. Natürlich verwenden wir RAW, bei Vollmond, der ja kaum einen Kontrastumfang zeigt, reicht  sehr wahrscheinlich auch JPG. Bei einem HD-Video reichen aber 800mm Brennweite, weil selbst ein HD-Video nur ein Bruchteil der maximal möglichen Auflösung der Sensors bietet. Leider  nicht unkomprimiert.


Für wirklich hohe Auflösung brauchen wir nebst guter Optik auch noch ein gutes „Seeing“. Damit die Luft möglichst wenig Einfluß auf das Bild nehmen kann, muß er eben möglichst hoch stehen – also um Mitternacht. Im Frühjahr ist die beste jahreszeit.

Bei so hellen Objekten kann man kurz belichten und womit man die Luftschlieren einfrieren kann. (Lucky Image). Braucht man länger, dann zieht sich eine Unschärfezone durchs Bild,
was eben dann eine Verwendung des HR Modus, der ja wesentlich längere Belichtungszeiten braucht eher unnütz erscheinen lässt.
Sollte man wirklich mal ein tolles Seeing erwischt haben, kann man HR ja mal probieren.

Um meine Bilder zu sammel verwende ich den langsamen Silent Shutter Modus. Langsam deshalb, weil man über längere Zeit Bilder sammeln kann und vielleicht ein paar Momente erwischt, wo das Seeing recht gut ist.

Beim gezeigtem Beispiel jetzt verwendete ich meinen günstigen 432/72 APO also 432mm Brennweite bei F/6. Nicht nachgeführt sondern ein einfaches Stativ.

Damit ich in kurzer Zeit viele Bilder machen konnte, verwendete ich den schellen Serienbildmodus. Der Mond wandert ja auch dann schon merklich durchs Bildfeld.
Da ich ihn sowieso hinterher herausschneiden lasse, ist es nur wichtig rundherum genügend Platz zu lassen. War letztlich kein Problem, eher schon am wackligem Stativ manuell scharf zu stellen,  außerdem war immer wieder mal Wind.
Für die Einzelbilder verwendete ich den Touchscreen zum Auslösen mit Auslöseverzögerung, für die Bilder zum Stacken dann einen Fernauslöser.

Die Bilder entstanden kurz nach Mondaufgang, also nur wenig über Horizont. Lauf Stellarium waren das dann die 18 fache Luftmasse als im Zenit. Dadurch wurde die Helligkeit auf ein 1/8 reduziert und er war merklich orange, aber das kennen wir ja. Bei ISO 400 ergab sich dann 1/200sec.

Wir suchen also mit unserem Lieblingsfotovorschauprogramm die Bilder heraus für die Serie.
Es sollten halt die selben Belichtungsdaten  haben und wenn es wirklich arge Fehlerhafte gibt, werden die dann nicht miteinbezogen, denn vielleicht verwirren sid ann eines unsere Programme. Motto: „Zu viel Schlechtes, verdirbt den Brei beim Stacken


001_OlyF_Stacking_01_acdsee_s.jpg.a218c657a8fd5d7ddef717c7df07cee9.jpg

Wir laden die Bilder mit „Add Image Files“
Wer Darkframes BIAS/Flats hat kann sie hier beigeben, hier für meine guten Optiken verzichte ich darauf. Bie weniger als 2 Sekunden Belichtungszeit wird man auch keine Darks brauchen.
Wie man sieht, kann man links unten noch Voreinstellungen wählen. Aber bevor ich einen verstellten Parameter in den Tiefen der Möglichkeiten übersehe, mache ich die paar wichtigen Einstellungen lieber von Hand.


Es wird dann automatisch eine Meldung kommen dass „Join Mode“ gewählt wird… das passt, denn alle unsere exportierten Files wollen wir in einem Verzeichnis wiederfinden.  Es wäre etwas mühsam, wenn für jeden File ein eigenes Verzeichnis angelegt würde.

002_OlyF_Stacking_02_PIPP1-open_s.jpg.3446958519011d1223dd466d854a7825.jpg

Wichtiger sind mal beim 2. Reiter „Input Options“ . Da stelle ich auf VNG Algoritmus. Der wird uns die RAW Files bestmöglich entwickeln.

Sicherheitshalber setze ich rechts dann noch auf Colour (Farbe)... würde etwas falsch interpretiert würde eventuell nur ein schwarz/weiß Bild entwickelt.
Motto: „Wozu sich auf Automatik verlassen, wo man es ja einfach selber vorgeben kann


003_OlyF_Stacking_02_PIPP2-inputoption_s.jpg.13aad2f2f11feea671fb10e02efe68bf.jpg

Prozessing Option“ ist der wichtigste Teil:

Um Datenmengen einzusparen lasse ich hier das Bild zentriert herausschneiden. Bei stark wanderndem Objekt erleichtert es natürlich das Stacken.

1.) Zunächst wählen wir unseren Mode „Object/Planetary“

2.) Wir aktivieren „Enable Object Detection Parameters“ und dann „Centre Object in each frame“

danach klicken wir 3. „Test…“ und kurze Zeit später sehen wir in Rot am Vorschaufenster, was als Objekt gefunden wurde.
Bei „Object Detection Paramters“ könnte man mit denWerten spielen, aber bei solchen Bildern ist es wohl gar kein Problem, das die Software erkennt wo der Objekt unsere Begierde liegt.

 

004_OlyF_Stacking_03_PIPP3-31ProcessingOption_centre.jpg.4e4fccc7dbc77d61319a25891eabb3a2.jpg

 

Um das Objekt zu croppen (herauszuschneiden) kann man bei 2. die Breite und Höhe in Pixel eingeben, kann man ja auch vorher mal in seiner Lieblingssoftware beschneiden und die Pixel merken und hier dann eintragen oder man probiert herum. Ob der Beschnitt passt zeigt einem 1. „Test Option“  das Ergebnis am Vorschaufenster. Das dauert etwas.
Ist das Objekt nicht so im Bildfeld wie wir es benötigen, kann man es bei 3. herumschieben indem man Pixel in X und/oder Y vorgibt und dann halt wieder mit „Test“ das Ergebnis überprüft.


Wer dabei gleich noch sein Bild drehen will, kann es links unten machen.
Wem das Bild zu dunkel / hell wäre (zu hell wäre schlecht), kann links oben bei „Gain“ noch eingreifen.

005_OlyF_Stacking_03_PIPP3-32ProcessingOption_crop.thumb.jpg.b3a208982340970eb376472e8aba1b6b.jpg

Wer im Dateinamen die Bilder mit der Qualität bezeichnen will kann es unter dem nächsten Reiter machen. Brauch ich nicht, kostet Zeit.

Wir sind fast fertig:
Wir wählen bei „Output Option“ das Format für die Ausgabe. Ich nehme TIFF, es geht auch AVI.
Wer als Quelldatei ein komprimiertes Video hat, kann es hier auf unkomprimiertes AVI wandeln lassen und das versteht dann auch unser Stacker AS!3.

Kleiner Tipp: Wer immer schon mal einfach Animationen aus Einzelbilder erstellen wollte: Hier geht es einfach indem man als Ausgabe AVI oder animiertes GIF wählt

Unten bei „Output Options“ kann man noch den Speicherort der Exportdateien angeben. Ich bin faul und lasse es wie es ist, dann wird man im Dateifolder der Ausgangsdatein eine Ordner finden, wo die Dateien abgelegt werden. Samt einer Logdatei, wo auch die Parameter für den PIPP Gespeichert sind. Kann man ja laden, sollte man es wieder brauchen.

Achtung. Wer nahezu formatfüllende Ausgangsdateien hat, wird bei 32 GB an 20 MPixel ORF (1800 Bilder herum) etwas weniger als 200GB an TIFF Dateien generieren, wird stärker gecroppt, entsprechend weniger. Was dann je nach Festplatte und CPU gerne mal um die 2 Stunde dauert. Lasse ich im Hintergrund laufen oder über Nacht.

006_OlyF_Stacking_03_PIPP4-OutputOption.jpg.4768515b23eb6d773b9ef7877c783990.jpg

Das war es dann auch schon, und wir drücken am letzten Reiter „Start Prozessing“ … zum Schluß gibt es eine Zusammenfassung.
Wenn alles gut läuft, haben wir ein Verzeichnnis mit unseren TIFF Files (oder unkomprimiertem AVI) und können dann mit AutoStakkert stacken.

007_OlyF_Stacking_03_PIPP6-final.jpg.66479860c27f585fcf6669c2b47d86c6.jpg

 

  • Gefällt mir 2
  • Danke 3

Diesen Kommentar teilen


Link zu diesem Kommentar

Stacken von Mond, Sonne und Planeten II   -  AutoStakkert (AS!3)

Seit langem gibt es  spezialisierte Software für die Planetenfotografie: Giotto oder Registax zum Beispiel. Aber sie werden seit geraumer Zeit nicht mehr weiterentwickelt und sind nur für kleine Dateigrößen ausgelegt. Einzig mit FITSworks konnte ich bis 20 MPixel  Bilder des Mondes erfolgreich stacken. Bei HR Dateien, skalierte FITSWork stark herunter. Eine Stack von ausgewählten 100 Bildern dauert so einen halben bis ganzen Tag….

Schon ein „Lucky Image“ aus der Fülle der Bilder herauszufischen ist sehr anstrengend. Zum Glück gibt es da aber jetzt Hilfe: AutoStakkert (AS!). Die ß-Version ist die letzte Verison 3 und in 64bit.  Wer sich dann noch mit Planetenfotografie herum schlägt, wird schnell den Wunsch verspüren, das viele schwarze Rundherum wegzuschneiden. Das erledigt souverän PIPP (Planetary Imaging PreProcessor), Anleitung siehe oben. Als Startdatei kann man sowohl Video (AVI/MOV etc) wie auch TIFF oder ORF Files verwendet. Das Ergebnis dann als TIFF/FITS oder unkomprimiertes AVI Speichern lassen. Das versteht dann AS!.
Wer sich ffmpeg herunterlädt und das ffmpeg.exe in das Verzeichnis von AS! legt, der kann direkt auch die MOV Datei seiner Kamera als Ausgangsbasis verwenden. Wer allerdings ORF Files in AS! stacken will, muss sie vorher in TIFF Files umwandeln . Also entweder mit Olympus Workspace,r PIPP oder was auch immer das ORF File als TIFF exportieren.

Was macht AS! so besonders ?

Während anders Stacker normalerweise die Bildqualität nach gewissen Parametern versuchen zu Beurteilen (was AS! natürlich auch macht) und die beim Stacken die Besten Bilder zum Stacken verwendet, kann man bei AS! das Bild in vielen Bereiche aufteilen, sogenannte AP (Alignment Points), und da wird innerhalb jedes AP's die besten Bilder für den Stack ausgewählt. Also nicht das ganze als gute befunden Bild, sondern unabhängig davon das beste innerhalb des AP's.   Gerade beim großen Mond kommt es ja dazu dass es verschieden gute Bereiche gibt, weil z.b. Blasen/Schlieren warmer Luft durchziehen.

Wir verwenden jetzt die mit PIPP zentriert herausgeschnittenen und als TIFF exportiereten Mondbilder zum Stacken.

Als erstes importieren wir unsere Einzelbilder. Unten vorher das Fileformat wählen. Also mit Ctrl-A alles markieren....


010_OlyF_Stacking_03_AS3-1_open_s.jpg.e0bce477dd3230d1738ce24bc8bc211c.jpg

Das Bildfenster mit dem Objekt kann beim Zoomregler (1) dann entsprechend skalieren.
Ich wähle immer "Improve Stacking" und "Surface" (Oberfläche) (2)
Als Ort, wo AS! versucht die Qualität der Einzelbilder zu bestimmen klicke ich dann mit "CTRL + Maustaste" auf den Bereich wo noch am ehesten Kontrast oder Strukturen zu finden sind.
Danach einfach au 2.) Analyse drücken... und schon läuft es.
011_OlyF_Stacking_03_AS3-2_Analyse_s.thumb.jpg.0b034ad5ad13dacdf9807660394fa14b.jpg

AS! zeigt uns dann in einer Grafik an, wie die Qualität über die Einzelbilder ist. Die blauen Striche sind nur der Marker für 25, 50 und 75%. Die grüne Linie den Qualitätsverlauf insgesamt. So können wir abschätzen, wie viele Bilder sollten wir Versuch zu stacken. Immer so viel wie möglich, weil es ja das Signal zu Rauschen erhöht und Strukturen besser hervorheben kann. Sind aber zu viele schlechte Bilder dabei, mindert es die Qualität des Stacks.
Die graue Linie zeigt an wie die Qualität der Einzelbilder in den Einzelbildern liegt.
Bei 1. kann wird angezeigt, wie viele Einzelbilder insgesamt geladen wurden (hier: 324) und das wievielte Bild unter den Einzelbildern das Beste ( Q 100% unterhalb) ist.
Man kann die grüne Linie auch an andere Position innerhalb der Grafik klicken und so herausfinden, welches Bild das Schlechteste etc ist.

 Oft sieht man den Qualitätsunterschied der fertigen Stacks nur sehr sehr schwer und so lasse ich bei 3. "Sharpen" noch eine geschärfte Version ablegen.  Die schaue ich mir in großer Ansicht durch an kritischen Stellen und finde hoffentlich heraus, welches der optimale Stack war.
 

012_OlyF_Stacking_03_AS3-2_Ergebnis_s.thumb.jpg.f48cf29dc184dcfa70e2fa13fba61b96.jpg

Vor dem Stacken setzten wir jetzt die AP's (Alignment Points) also Bereiche über das Objekt, die einzeln für auf Schärfe geprüft werden und um dann gestackt zu werden. Die dürfen Überlappen und verschieden Groß sein.
Wir müssen sie nicht selbst setzten sonder lassen sie generieren. Parameter dazu ist die Größe (bei 1 auszuwählen, aber die kann man auch kleiner oder größer machen) und die Helligkeit: unterhalb bei "Min Bright" sollten zu wenige AP's gesetzt werden, wenn wir auf "Place AP grid" drücken.
Man kann dann jederzeit welche dazuklicken, oder einfach erneut setzen lassen.
3. zeigt die Anzahl der AP's.

013_OlyF_Stacking_03_AS3-3_AP_s.jpg.0dd7d2933e94ca6bbebd6c697042c93a.jpg

 

Gleich ist unser Teil geschafft:
Bei 1 können wir einfach eingeben wie viele der besten Bilder/Bereiche (Number of Frames to stack) oder wieviel % (Frame percentage..) der besten Bilder/Bereiche wir stacken lassen wollen.

Sharpen für einen Schärfungsprozess aus, dabei wird zusätzlich eine extra Version abgelegt und bezeichnet.
Sind die Objekte schon tiefer am  Himmel (Venus z.b,) dann sieht man in der Großen Vorschau bei der Bildbeurteilung, ein Aufspalten des Rot und Blaukanals durch die Atmosphäre. Das repariert "RGB Align" wieder.
Und "Save in Folders" legt dann einfach für jeden einzelnen Stack ein Verzeichnis an.

Unter "Advanced Settings" gibt es die Option drizzle:
Drizzle ist in etwa der Prozess, den Olympus bei Freihand HR einsetzt.
Bei Drizzle wird ein feinerer Raster über ein Bildfeld gelegt und verdreht zum Originalraster. Durch "zittern = drizzle" von Bild zu Bild, wird das Licht bei einem Pixel nicht immer auf der selben Stelle am Sensor fallen, sondern etwas daneben. So ergeben sich dann auch Zwischenwerte und letztlich steigt die Auflösung und bei OSC (one shot Cameras - also Farbkameras wie wir sie haben) auch die Farbdefinition.
Beim HR Modus bei Olympus vom Stativ wird dadurch Anfertigen von mehreren Bildern erzielt, aber zwischen den Bildern der Sensor verschoben.
Es kann sich jeder ausrechnen, was passiert, wenn man dabei wackelt, oder beim Handheld HR Modus zu stak wackelt, oder gerade Luftschlieren jedes der angefertigen Einzelbilder stark ändern und das Zusammenrechnen keine verwertbaren Strukturen findet.

Das Bild wird dann halt um ein vielfaches größer. Kann was bringen oder auch nicht. Vor allem bei kleinen Objekten wie Planeten wird man es bevorzugt einsetzen.
Wenn alles passt drücken wir auf 3.) Stack und es läuft.....
nach Fertigstellen, wird eine Statistik gezeigt.

014_OlyF_Stacking_03_AS3-4_drizzle3s.jpg.7402a9801fae714637a433f4962f4778.jpg

So sieht die automatisch angelegte Verzeichnisstruktur aus:
In AS_Pxx sind die % gestackten Bilder  AS_Fxx wären Anzahl von Frames.
Von PIPP ist noch zu sehen der Ordner mit dem Logfile und settings, und der Exxxx ist auch von PIPP da wo die Software meine exportierten Einzelfiles speicherte.
 

015_OlyF_Stacking_03_AS3-5_files.jpg.407501ac3147eee6afc3691b07a702a4.jpg

Danach bleibt "nur" noch eines: Wählt den besten Stack zum Bearbeiten aus. Man kann jetzt wesentlich mehr schärfen. Nur irgendwann wird man auch da an Grenzen stoßen. Ist so, Je nach  Seeing und Optik  ist halt manches mal nicht mehr drin.

bearbeitet von iamsiggi
  • Gefällt mir 3
  • Danke 2

Diesen Kommentar teilen


Link zu diesem Kommentar

Was konnte ich bei dem obigen Beispiel erreichen:

Ein Einzelbild 100% Crop (432mm Brennweite)
Nur ausgeschnitten aus dem RAW mit ACDsee und beschnitten.

OOC_E1285351.thumb.jpg.2aa1b50bc2d5d22306e0ac8bebf6829b.jpg

Mein Endergebnis: Von 324 Einzelbildern wurden 5% gestackt  (344 AP/Bereiche)
Bearbeitet mit PixInsight : Deconvolution, Wavelet / Frequenztrennungstool und die Farben auf die Extinktion am Originalbild angepasst, das ich bei 1/120 sec. machte - siehe unten:


Fertig_Oly-F_MondAPO_05p_F324_E1285333_lapl4_ap344_Dec_MLT_LHE_Dec_ACDSee.thumb.jpg.89ebe647834503533bfebf29e3a53e38.jpg

Das war eine schnelle Montage mit ACDSee und das gesamte Feld mit 432mm:
Vordergrund: 5 Sek - Mond eingefügt 1/120 sek (aber nur Einzebild) ..... bei 5 Sek war der Mond ja weiß.....

fb_Engabrunn_Kirche_E1285313.thumb.jpg.bd6e503be9d1ac53e4b0d2f74282b472.jpg

  • Gefällt mir 3
  • Danke 1

Diesen Kommentar teilen


Link zu diesem Kommentar
iamsiggi

Geschrieben (bearbeitet)

Das ganze geht natürlich auch für Planeten wie z.B. derzeit die Venus.

Zunächst die Ausgangssituation:

Entstanden sind die Einzelbilder mit meinem 800mm "Newton ohne Namen" unter Einsatz eines MC14, MMF1 und EC14 was so fast 1600mm Brennweite ergibt, bei F/8. Belichtet wurde mit 1/400sec ISO200 mit der E-M1.II

Die Venus selbst bewegt sich gerade auf die Erde zu, dabei wird sie sehr groß aber auch immer "sicheliger" . Mit freiem Auge bleibt die Helligkeit immer so um die mag -4, was sie nach Sonne und Mond zu hellsten Objekt am Himmel macht (abgesehen von kurzzeitigen Ereignisse wie ISS Überflug im Zenit und hellen Meteoriten oder Reflexionen an Satelliten).

Zum Fotozeitpunkt 12.5.2020 war sie noch 20 Grad über dem Horizont. Die Helligkeit war mag -4,24 .... da bereits 3 Luftmassen die Helligkeit von -4,6 senkten.
Beleuchtet war sie zu 13,8%  ( Phasenwinkel 136 Grad)
Entfernung war 53.183 Mio km und die größe am Himmel war bei 46,94 Bogensekunden, schon ca 1/48 der des Vollmond am Himmel.
MeteoBlue  hatte ein Seeing von 2 Bogensekunden angegeben.

Ich machte mal ein kurzes Video, das ich schnell mit PIPP 1:1 herausschneiden ließ und als VIDEO speicherte:

kurz_E1223356_pipp.avi

Schon heftig, was sich da abspielt.... und man kann sich jetzt vorstellen, warum Mondbilder in der Nähe des Horizont oder bei schlechtem Seeing nicht wirklich scharf sind.

Ich hatte das dann mit PIPP einfach zentriert herausschneiden gelassen - 1040 Bilder hatte ich mit Silentshutter gemacht wie man sieht.

200512_PIPP_Venus_r.jpg.cb4b348d2bece2e20ed8f9eca884693a.jpg

Aus den ersten 100 Bildern habe ich noch ein Video speichern lassen: Da sieht man schon, dass es gleich stabiler ist, weil ja zentriert gecroppt:

100F_10fps_E1223610_pipp.avi

Die exportierten 1040 Bilder als TIFF wurden wie üblich in AS!3 gestackt - 10% hatte ich genommen
200512_AS3_Venus_r.thumb.jpg.7f585d215bf8438ad25c28d6bae8782e.jpg

 

Das ist Bild 720 - der am besten gefunden - 100% Ausschnitt:

E1224324_q100p.jpg.36db5ec4850820fce8db21180ab79ab8.jpg

Hier das gestackte Ergebnis - und schärfen lassen mit AS!3 100% Ansicht

Venus10p_1040F_E1223605_lapl4_ap23_conv.jpg.7ad31882d64fe5f48f7682236aa1f74f.jpg

Und hier der 3x drizzle stack  - unbearbeitet: 100%
Venus10p_1040F_E1223605_lapl4_ap23_Drizzle30r.thumb.jpg.ece6d73e6446481ea232587ba4718b59.jpg

 

Ohne eine Funktion wie ROI (Region of Interest) also die Definition eine Bildausschnittes  vor Aufnahme der Bilder bei so kleine Objekten wie Planeten sind unsere Digitalkameras eher ungeeignet weil es Unmengen an Daten generiert. Bei Großen wie Venus ohne für uns sichtbare Strukturen (die kommen nur im UV und IR) ist es aber möglich zumindest dokumentarisch etwas zu erhalten.

Siegfried

 

bearbeitet von iamsiggi
  • Gefällt mir 1
  • Danke 1

Diesen Kommentar teilen


Link zu diesem Kommentar

Sehr informativ und wie immer gut dokumentiert, für mich als Laie auch verständlich. Danke dafür, auch wenn ich nicht jedesmal was schreibe lese ich Deine Beiträge regelmäßig, auch öfter durch. LG Roland

Diesen Kommentar teilen


Link zu diesem Kommentar

[Astro]  Deep Sky Astrofotobearbeitung 1 – Vorwort/Grundlegendes

Letzte Woche bin ich über eine kurze Aufnahmesession vom Juni an der Milchstraße gestoßen. Zugegeben, überhaupt keine leichte Sache, hier einen meiner Arbeitsabläufe zu zeigen, aber vielleicht deshalb geeignet um die vielen Probleme zu besprechen, die einem da so begegnen können.


Mir ist bewusst, dass man beim schnellem drüber lesen bald mal zum Eindruck kommen könnte: Das ist alles so Anders, das kann ich nicht „nach kochen“ wozu brauch ich dieses „Wissen“ überhaupt….
Wer da wirklich einsteigen und weiterkommen will, muss aber einen etwas tieferen Zugang haben. Es macht es leichter gewisse Effekt, gewünscht oder unerwünscht, zu verstehen. Auch ich kratze oft nur an der Oberfläche und kann nur das so wiedergeben, wie ich es verstanden hab. Dabei versuche ich es so einfach wie möglich herüberzubringen.
Es wird auch kein „Kurs“ für PI, aber gewisse Funktionen muss ich erklären um zu verstehen, was man am Bild/Screenshots sieht.

Einige Wort zu meinem, vielen recht unbekannten Programm das ich da verwende: PixInsight, kurz PI.

Es ist neben Photoshop (PS) das Programm das letztlich alle im Bereich DeepSky Astrofotografie verwenden. Ebenso schwierig, wenn man einsteigt wie Photoshop (PS), weil man sich das ja erst dann antut, weil man mit anderer einfacher Software, einfach nicht mehr wirklich weiterkommt. Maskenerstellung und Feintuning dieser und dann noch den Überblick über seinen „Stapel“ zu behalten, ist in PS sicher eine Herausforderung. Man kommt aber in Genuss sein Ergebnis jeweils so zu sehen wie es ein wird. Und das ist bei PI so nicht möglich.

PI ist mehr eine Toolbox, wo man sein Bild schön langsam aufbaut. Und wie es bei unzähligen Tools ist, ist es nicht leicht das richtige Werkzeug zu nehmen. Gerade am Anfang kommt man im Stress, weil man meint man müsse alles anwenden. Aber meist kommt man mit einer Handvoll durch. Aber jedes hat unzählige Möglichkeiten, oft sind aber die vorgeschlagenen Werte gut. Aber wer wesentlich mehr will und muss um spitzfindige Probleme zu lösen muss sich natürlich  intensiver damit befassen.

Hauptunterschied zwischen PI und allen anderen Bildbearbeitungsprogrammen ist aber die Art des öffnen eines Bildes: Es werden nur die Werte der Pixel eingelesen und es wird nicht automatisch auf unsere gewohnten Bildeindruck gestreckt. Das bedeutet zunächst mal: Unsere Bilder sind zunächst mal so gut wie schwarz! Einzig ein ausgebrannter heller Stern ist dunkel zu sehen.
Bilder so wie wir sie normalerweise ansehen und bearbeiten werden sind immer gestreckt beim Entwickeln. Und das ist keine lineare Streckung, wo doppelt so viel Licht  dann doppelt so hell wären, sondern exponentiell. Das was wir gewöhnt sind an Bildern spielt sich zwischen ca. 8-12% (dunkel – gerade noch sichtbar) und 100% (weiß) ab.

Bei PI werden Helligkeitswerte nicht von 0-100 (%) angeben, sondern einfach nur von 0-1
Wie ich schon mal schrieb (Blog / technisches) hat ein gesättigtes Pixel bei unseren 12 bit RAW eben einen Wert von 0,0625  und das ist schon sehr sehr dunkel.

12 bit sind 2^12 Möglichkeiten an Helligkeitsinformationen also 4096 Helligkeitsstufen.

Wie kommt man dann auf diese 0,0625 Helligkeitswert beim 16 bit Bild (TIFF z.b. wenn man sein RAW ungestreckt öffnet):
100% Hell = bei PI 1 bei 16bit. 1 bit weniger wäre ein 15 bit RAW und mit 1 Bit weniger man kann dann nur die Hälfte an Helligkeitswerten abbilden. Also wäre ein gesättigtes Pixel nur bei 0,5.
14 bit nur bei 0,25! Das haben bessere Vollformatkameras. 12 bit sind dann 2 bit weniger als nur ¼.
Also wenn bei 12bit etwas ausbrennt, kann man bei 14 bit Kameras 4x so lange belichten.
In PI kann man den Arbeitsablauf (Workflow) in zwei Bereiche unterteilen: Linear und Gestreckt.

Es gibt Arbeitsschritte, die man nur im linearen Zustand machen kann(sollte). Und welche, die nur am gestreckten Bild möglich sind. Es gibt aber auch Tools, die in „beiden Welten“ anwendbar sind.
Am linearen Bild lassen sich einige grundlegende Schritte wesentlich einfacher bewerkstelligen, als am gestreckten Bild.

Bei PS oben habe ich geschrieben: Man sieht da gleich das Bild so wie es wäre, würde man hier die Bearbeitung abbrechen. Bei PI sieht man ja am ungestreckten Bild genau nichts… daher kann man das Bild im Linearen Zustand immer nur sehen, indem man eine automatische Streckung macht. Das wird mit der „ScreenTransferFunction“ oder kurz STF gemacht. STF wirkt sich nur auf die Ansicht aus, nicht aufs Bild. Es streckt also nur das Bild. Das ist wichtig zu wissen. Erkennbar ist ein angewendetes STF dass der Dateiname eines Bildes der immer links am Rand steht grün markiert ist.
Man sieht also sein Bild lange zeit nur künstlich und meist extrem stark gestreckt. Das kann schon irritieren weil es oft ziemlich schrecklich aussieht, wenn allerkleinste Unterschiede extremst überzeichnet dargestellt werden.

STF kann nicht nur einfach strecken, sondern da ist ein „Kettensymbol“, das anzeigt ob man auch einen „Autoweißabgleich“ will oder nicht. Auch eine Quelle der Irritation ist oft, dass ein Stack Anfangs einen starken Farbstich hat, von grün bis rot ist alles drin 😉
Wenn man da die Farbkanäle eben dann in STF „verlinkt“ wird das Bild schon recht neutral und gut aussehen.  Aber es ist halt nur die Ansicht.

Die gute Nachricht: Die Helligkeitswerte der Pixel sind nur Zahlenwerte an Helligkeit. Solange wir da nicht die Zahlenwerte beschneiden (im Histogramm und/oder Reduktion der Bit tiefe des Bildes), kann man die ohne Verluste hin und herschieben.

Es ist zunächst mal unerheblich ob ein Stack einen starken Farbstich hat oder nicht.

Soweit das was ich vorausschicken will.
Es kommt sicher einiges an komprimierter Information.
Auch wenn man Anfangs vielleicht jetzt nicht alles so ganz versteht, ist es gut mal gehört/gelesen zu haben.
Gerade Anfangs wird man sich nicht den Details und Feinheiten widmen könne, denn es geht zunächst mal ums grobe Ganze. Ausfeilen kann man immer noch.
So wird sich hoffentlich so nach und nach alles irgendwann mal zu einem besseren Bild fügen und letztlich in besseren Bildern münden.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1  -  Ausgangssituation

 

Hier ein Bild der Aufnahmesession gemacht mit dem  mFT8/1.8.
Kamera auf dem StarAdventurer als Nachführung. Blick Richtung Süden.


01_OlyF_SA_MW_Setup1_E1283946r2.thumb.jpg.8efd9cab3e216d60fd0f6350cf5e77ef.jpg

Links ist das viele Licht unserer Dorfkirche und die Lichtglocke von Wien in ca. 60km Entfernung, Rechts die Kirche der Nachbarortschaft. Leider immer am Wochenende eingeschaltet.

Ende Juni ist die Nacht noch dazu recht kurz.  Das Zeitfenster für die tief stehenden Regionen der Milchstraße ist dazu noch recht kurz. Da man ja wirklich dunklen Himmel benötigt darf der Mond auch nicht stören. Im Prinzip hat man also die Nächte ohne Mond. Im April ist die Nacht noch lange und man sieht diese Konstellation am frühen Morgen. Da ist oft auch noch die Luft recht trocken. Im Sommer wäre es ideal so um Mitternacht, aber eben nur kurz Dunkel. Im Herbst wird die Luft zunehmende feuchter, aber das Ganze wäre auch noch zu Beginn der Nacht an dieser Stelle.
Verpasst man diese Zeitfenster muss man eben wieder auf das nächste Jahr warten.

 

So sieht eines der Einzelbilder, OOC (out of cam) also ohne Bearbeitung aus. So wie es ACDsee automatisch zur Ansicht streckt. Selten habe ich hier einen so tiefen Blick in den Süden. Der Stachel des Skorpion in der Milchstraße ist knapp über dem Horizont zu sehen. Meist ist es eben gegen den Horizont bewölkt.  Der Größte Teil des Schützen ist aber zu sehen.

02_OOC_O6M84875s.thumb.jpg.ff1c4210f6d6e968fb1baf0d321434d1.jpg
 

Was einem gleich auffällt: Die verschiedenen Gradienten im Bildfeld. Sowohl in Helligkeit als auch in Farben. Solche Extreme hat man bei schlechterem Himmel und je näher man dem Horizont kommt. Das grün ist typische dunklerer Landhimmel umgeben von größeren Ortschaften und Städten. Es ist das viele Licht, das Trübstoffe und Dunst zurückwirft.
So in etwa ist der Himmel in der Bortle Skala um 4 herum.

Diese Gradienten müssen dann entfernt werden. Wenn sie so stark sind ist das schwer. Bei Bildern, die nur einen kleinen Ausschnitt am Himmel zeigen wird das natürlich einfacher. Hier habe ich keine Wahl: So tief im Süden wird es nicht besser, also kann ich nur versuchen es zu probieren.


Letztlich sollte man sich auch bewusst sein, in welche Richtung man bei der Ausarbeitung gehen will. Ich also hier diese Region tief im Süden, weniger ein stimmungsvolles Milchstraßenbild mit Vordergrund. Dazu wäre eine normale Bildbearbeitung angebrachter.

 

 

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1   Bildauswahl

WF_MW12mm_200627_001_Vorschau.thumb.jpg.c4d4f2ad45ad34263358b27ef605085c.jpg

Man versucht ja möglichst viele Bilder anzufertigen, weil der Signal/Rauschabstand besser wird. Damit nicht zu viele schlechte Einzelbilder das Ergebnis mindern, muss man sich die Bilder zunächst mal gut ansehen. Man sieht dann oft recht auffällig, wann Wolken ins Bildfeld einwandern, oder Dunst oder Nebel die Sterne beginnt aufzublähen oder allzu sehr das Sternenlicht verschluckt.
Da für die langen Belichtungszeiten immer eine Nachführung gebraucht wird, kann es auch sein, dass Bilder dabei sind, die einfach nicht gut sind.
Gerade wenn die Nachführung an die Grenzen stößt, wird der Ausschuss immer mehr werden.  
Hier bei 12mm Weitwinkel ist das nicht das Problem, wohl aber der Horizont, der dann rechts immer höher steigt und mir zu viel des Bildfeldes unterhalb kosten wird, auf den ich aus bin.

Links habe ich meinen Textfile darübergelegt:  Es ist anzuraten, sich die Eckpunkte mitzuschreiben. Hier hatte ich  2 Objekte parallel laufen, dieses hier ist das untere.
Da notiere ich mir die wichtigsten Dinge:  SA=StarAdventurer, Kamera E-PL6 m (klarglasmodifiziert) und deshalb brauch ich ein UVIRCutfilter: Hier das Haida UVIR 750nm Filter. Optik das mFT12/2 bei Blende 2,8 (der Himmel ist ja recht hell gewesen und der Sternabbildung zu den Ecken kommt es etwas zu Gute). 60 Sekunden Belichtungszeit.
Ich schreibe mir die Temperatur mit, denn je wärmer, desto mehr rauscht der Sensor. Die Luftfeuchte ist natürlich interessant. Und mit einem Skyqualitymeter die gemessene Helligkeit des Himmels.  Hier natürlich schwer möglich, so habe ich in etwas die Bildmitte gemessen.

Da kann man oft sehen, wenn sich Nebel bildet. Dann wird der Himmel merklich heller.

Ich sehen mir also die Bilder in einem „Leuchtkasten“ grob an. Ich verwende das ACDsee. Am Histogramm sieht man auch schon oft beginnender Dunst, weil die Farbkanäle breiter werden. Und wenn es heller wird, verschiebt sich das Ganze in den helleren Bereich. Bei so einem großen Feld nicht gleich zu sehen, wenn man dann aber in 100% Ansicht nachsieht werden es schon schöne Peaks.
Rechts die EXIF Daten.

 

Nachdem der groben Übersicht sehe ich mir die Einzelbilder als Ganzes durch. Danach die ausgewählten dann in der 100% Ansicht an einer kritischen Stelle durch:

WF_MW12mm_200627_002_Crop100pHistos.thumb.jpg.0f966e56aa74508c2ee71371f602c9f6.jpg

Hier also die 100% Ansicht. Wir sehen einen aufleuchtenden Satelliten. Rechts sieht man, dass dank der modifizierten Kamera die zwei hellen Nebel (Omega und Adlernebel) schon ziemlich viel zeigen.
Das Histogramm zeigt das viele Grün: Viele Pixel und das ganz zum linken Hellen Teil verschoben, kann es nur zu grün sein. Aber auch natürlich viel rot durch die Modifizierung der Kamera, die jetzt alles rote Licht der Gasnebel registrieren kann. Bei dieser Wellenlänge 2/3 mehr.
Bei einer unmodifizierten Kamera wäre das Rot als schwächer und der Peak im Histogramm wandert weiter nach rechts, also in den dunklen Bereich. Die blauen Welllängen sind immer recht schwach.

Beim Durchsuchen in 100% Ansicht achtet man besonders auf die Sterne: Ob sie auch rund sind oder schon etwas länglich und die Schärfe noch stimmt.

Alles was nicht passt, sollte man schweren Herzens ausschließen.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1 Stacken

Zunächst mache ich eine schöne Ordnerstruktur, wo die Lights (unsere Bilder des Objekts) und die Korrekturbilder (Darks/Dunkelbilder, Flat und BIAS) abgespeichert werden.

Zum Stacken  nehme ich für problemlose Fälle meist ein Script, das mir das erledigt. Ansonsten kann man alles und viel mehr auch einzeln machen.
Als Freeware steht hier eben "DeepSkyStacker" oder Siril zur Verfügung.


WF_MW12mm_200627_003_PBBs.thumb.jpg.30e92a6e268dbba6f924aa87f4740902.jpg
 

Dazu lade ich einfach meine BIAS/Darks/Flats und natürlich die „Lights“.

Danach wählt man ein Bild (Master) aus, auf das die anderen Bilder anhand der Sternmuster „registriert“ (ausgerichtet) werden sollen.  Und man lässt das Ergebnis in einen Ordner schreiben. Bei mir nenn ich ihn einfach „out“.

Das meiste ist voreingestellt und man wird darauf aufmerksam gemacht, wenn etwas fehlt oder der Stackingalgoritmus angepasst werden sollte.
Da gibt es einige und je nach Anzahl der Bilder arbeiten sie verschieden gut.

Wenn alles gelaufen ist, habe ich folgendes in meinem Projektordner stehn:


WF_MW12mm_200627_003b_PBBordner.jpg.729144fea5207d80696b15ae50706a1e.jpg
 

Damit ich die Ordner schneller finde, benenne ja schon meinen Projektordner kurz nach Datum, Objekt, Kamera.
Dann die Folder für die B (BIAS) D (Darkframes - Dunkelbilder) F (Flat) und L (Lights).

 

Der "out" Folder wir vom Stacking script  gefüllt:

Unter "calibrated" werden die Kalibrierungsdaten  abgelegt. Stacken ist ja nicht ein Prozess sondern besteht aus einigen.
Zunächst werden die Einzelbilder „kalibriert“. Das bedeutet: Jedes Lightframe wird mit dem Dunkelbild korrigiert und danach (wenn man es hat) wird das Ganze noch mit den Flat/BIAS Bildern korrigiert.
Bildstörungen wie Hotpixel aber auch Helligkeitsgradienten durch das optischen Systems (Vignettierung/Staub) sollten korrigiert sein. also perfekte Bilder. Was bleibt sind die Störungen am Himmel.

Die kalibrierten Bilder werden dann debayert und finden sich dann in diesem Folder.
Danach werden die kalibrierten und debayerten Bilder anhand der Sternenmuster am gewählten  „Master“ ausgerichtet und jedes einzelne in der Ordner „Registered“ geschrieben. Und danach wird das Ganze zu einem Bild gestackt.
Im Ordner „master“ findet man dann seinen Stack, aber auch die MasterDarks, Flat/BIAS. Sollte man nochmals kalibrieren oder Stacken müssen, braucht man nicht die einzelnen D/F/B Files – sondern nimmt die zurechtgerechneten Master Dark/Flat/Bias Datei.

Zu beachten ist hier: Die ursprünglichen (komprimierten) RAW Files werden als 32 Bit Files in die Ordner geschrieben. Da kommen also bald mal einige GB an Daten zusammen. Wenn alles gut ist, braucht man dann natürlich nur das Stackergebnis.

Hat man aber mehrere Nächte, dann muss man alle kalibrierten Files zusammenstacken, denn die Korrekturfiles müssen ja zu den jeweiligen Lights der verschieden Nächte passen.
Die statistischen Methoden entfalten nur ihre volle Wirkung, wenn man alle zusammen legt. Nur die Stacks von verschieden Nächten ausrichten + Stacken bringt nicht viel.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1 Stacking Ergebnis

So sieht der geöffnete Stackfile aus. Er enthält 3 Bilder:

WF_MW12mm_200627_004_lightstack.thumb.jpg.a10f213be29fb365459bd263747230f0.jpg
Links am Rand steht der Dateiname, hier der Standard Name: links oben unser Stack Ergebnis das man dann weiter ausarbeitet. Und es gibt ein Bild, wo alle Bildfehler (Statistische Ausreißer) zu finden sind. Hier etwas langweilig. Jedenfalls alles das über oder unterhalb des Mittelwerts ist. Da findet man also z. B. Flugzeugspuren etc.

Im linken Bild habe ich die Helligkeiten gemessen: Zur Erinnerung: 1=gesättigt/maximaler Wert. Also hier hat z.B.  Rot einen Wert von 0,0175  Grün ist sehr viel heller, 1daher der Grünstich.
Rechts unten das Histogramm. Alles klebt am dunklen Ende.


Die Bilder wurden nicht gestreckt, daher sind sie so dunkel und damit wir sie hier überhaupt sehen gibt es eine Automatik, die das Bild streckt. Das ist die STF (ScreenTransferFunktion). Das sie aktiv ist, sieht man beim Dateinamen am grünen Rand.
Es gibt bei STF auch dieses „Kettensymbol“ links. Ist das nicht verkettet, wird kein Autoweißabgleich gemacht. Deshalb sehen wir jetzt noch den Farbstich. 
STF ändert nichts an den Bildaten nur damit wir etwas sehen, denn sonst wäre das Bild schwarz.
Typische Astrobilder haben im sichtbaren Hintergrund eine Helligkeitswert von um die 10% also einen Wert von 0,1. Unser Stack hat hier aber unter 0,02.  Oftmals bei Deep Skybildern habe ich hier gerade mal unter 0,001 !  Aber es sind nur Zahlen, die die Helligkeitsinformation wiedergeben.

Derzeit sind wir also noch im Linearen Zustand: Doppelt soviel Licht ist doppelt so hell.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1:  Hintergrundsextraktion

Darunter versteht man einen gängigen, aber sehr wichtigen Prozess bei der astrofotografischen Bildbearbeitung, in dem man versucht, die Einflüsse, die unsere Atmosphäre so mit sich bringt, zu entfernen.
Die störenden Helligkeits- und Farbverläufe werden dabei herausgezogen / extrahiert (daher der Begriff „ Background extraction“ oder „subtraction“). Dabei wird der Himmel quasi flach gemacht daher auch als „ Background flatten“ genannt.

Man kann sich vorstellen,  dass das bei dem gewählten Beispiel wohl nie so ganz geht, aber ich will für mein Bild zumindest sehen, wie weit bis zum Horizont man da hinbekommt.

In der nördlichen Hemisphäre wird man so gut wie keinen Ort haben, wo sich nicht ein Gradient einschleicht. Und natürlich hat man es leichter, wenn man sich nur auf einen kleineren Ausschnitt an einem möglichst guten Bereich seines Himmels beschränkt. Allerdings kommt man da dann auch oft an die Grenzen, weil man z.B. mitten in einem Bildfeld landet, wo es genau genommen keinen Hintergrund gibt.

Warum will man das überhaupt:
Die Objekte liegen normalerweise  in der Helligkeit nur sehr knapp (1-10% ?) über dem Himmelshintergrund. Will man das jetzt verstärken, ohne den Hintergrund mitzunehmen, wird man eine Maske machen, die nur den Hintergrund abdeckt, aber den Rest zur Bearbeitung frei lässt. Das geht natürlich einfach, wenn man den Hintergrund in der Helligkeit überall im Bild gleich bekommt. Dann braucht man nur eine Maske über die Helligkeit zu definieren. Ist der Hintergrund jetzt eben nicht flach, wird es so nicht funktionieren, eine Maske zu erstellen, denn nur über die Helligkeit wird die Maske an einem Ende nichts abdecken und am andern Ende den Hintergrund mitsamt seinen schwachen Objekten.

In den diversen Bildbearbeitungen kann dieser Schritt verschieden gehandhabt werden.

Bei Photoshop gibt es spezialisierte kommerzielle Plugins. Vom Prinzip her wird man aber versuchen, ein Modell des Hintergrundes zu erstellen, in dem man sein Bild extrem weichzeichnet, so dass man nur noch den Helligkeitsverlauf im Bild hat. Den kann man vom Bild abziehen.
Eine andere Möglichkeit hat man auch durch die Anwendung von Frequenztrennung (frequency separation) Tools. In PixInsight (das zu einem großen Teil auf solchen Techniken aufbaut) wird das als „Wavelet“ bezeichnet. Hochfrequente Bildteile (da wo sich auf engstem Raum sehr viel ändert) wird man das Rauschen finden (darauf basieren die guten Entrauschungstools) bei höher frequenten Bildbereichen die Objekte und in den niederfrequentesten Bereichen die großflächigen  Strukturen also Gradienten. Da es leider aber nie so ganz 100%ig geht, führt wohl eine Kombination der Techniken zum Ziel für ein akkurates Modell.
Soweit ich weiß hat Gimp auch eine solche Funktion eingebaut. Bei spezialisierten Programmen für die Astrofotografie gibt es auch spezialisierte Hintergrundextraktions Funktionen wie bei Siril oder Fitsworks, um weitere Freeware zu erwähnen. Wie viel man aber da bei der Automatik beeinflussen kann, weiß ich nicht, aber einen Versuch ist es sicher wert!  Vor allem bei Himmelsbereichen wo viel Hintergrund zu finden ist, sind die automatischen Hintergrund Extraktionstools schon recht gut.

In PI gibt es prinzipiell zwei Module ein ABE (AutomaticBackgroundExtraction) und die DBE (DynamicBE) letztere ist quasi die manuelle, für schwierige Fälle. …aber auch nicht leichter 😉

ABE führt hier zu Bereichen die unnatürlich Dunkel werden, wohl auch weil hier unnatürliche Strukturen in Form von schwarzem Horizont im Bild sind, die Algorithmen verwirren, bringt also weitere Probleme. Daher also DBE.

Damit kann man die Bereiche (in Form von Quadraten von einstellbarer Größe) markieren wo Hintergrund ist.  Es gibt eine Automatik, die das automatisch verteilt und danach verschiebt man die Kästchen dahin, wo kein Objekt ist oder man löscht es. Hier setze ich sie von Hand. Hier etwas mehr als normal, ansonsten würden auch wenige reichen, denn das Programm errechnet ein Hintergrundmodell. Weitere Markierungen verfeinern ja nur das Modell.
Gerade wenn schwierige kleinräumigere Gradienten sind, wird man die „zupflastern“ und das Modell an der Stelle verfeinern. Beim Setzten muss man jedenfalls vermeiden, dass man in ein Objekt oder in unmittelbarer Nähe klickt. Sterne (vor allem helle) haben einen großen Halo, ebenso wie bei Objekten die ja meist nicht abrupte Grenzen haben. Also einfach fern halten!

Hier habe ich zunächst mal eine grobe DBE gemacht, dann sehe ich vor allem in oberen Teil der fast nur mehr Milchstraße enthält, besser, wo ich Hintergrund für mein Modell finde.

Sieht dann so aus:

WF_MW12mm_200627_005_DBE_test.thumb.jpg.96aed78d77b5843cd5dd7e935f6f4ade.jpg

Im DEB Modul wir das jeweilige Kästchen in groß gezeigt -das ist das Quadrat rechst. So sieht es eben aus, wenn man einen Stern mitnimmt (Das grüne X im Bild) alles was dunkel ist, wird bei der Modellberechnung zwar ignoriert (wenn man es will), aber besser das ganze Kästchen woanders hin verschieben wo nichts ist, oder wie hier löschen! Man ist hier schon zu nahe an der Milchstraße.  Das würde dann auch Teile unsere Milchstraße entfernen. Wie man sieht, ist links oben besonders viel Milchstraße.

Hier das was ich dann genommen habe:

WF_MW12mm_200627_006_DBE1.thumb.jpg.6b6ea66b3ac7a717636a03fde7fcb15f.jpg

Links oben: Unser Ausgangsbild (der Stack). Rechts daneben ein Bild mit der STF und Auto weiß Abgleich (also STF mit Verkettet angewendet) damit man die gewählten Hintergrundproben besser sieht. Darunter ist das errechnete Modell des Hintergrundes, enthält schon recht viel Grünes der lichtverschmutzung.
Links unten mein Ergebnis. Es ist bedeutend farbneutraler und man sieht einen schon recht guten Helligkeitsverlauf. Ganz unten wo schon Wolken sind und starker Aufhellungen ist wohl natürlich nicht wirklich mehr möglich. So belasse ich es dabei.

Im eingeblendeten Histogramm sieht man jetzt was geschehen ist: Ehemals waren die Peaks noch recht breit, vor allem der grüne Kanal war ja breit und stärker langgezogen.  
Ein typisch lineares Bild. Der Großteil der Pixel (Hintergrund) bildet den scharfen Peak.  Die paar hellen Sterne sind hier nicht zu sehen und wären irgendwo ziemlich weit rechts zu finden.
Die „DeepSky“ Objekte wie Nebel etc. findet man ca. etwas knapp links der Spitze des Peaks (Dunkelwolken z.B.) und der weitaus größte Teil im Bereich des Peaks rechts. Und diesen Teil müssen wir dann strecken, damit man das heraustrennen kann.

Also bisher haben wir lediglich unsere  Bilder gestackt und den Hintergrund geebnet/extrahiert wie immer man das nennen will und man hat schon ein recht eindrucksvolles Bild, wenn hier halt noch nicht gestreckt. Wenn es schnell gehen sollte: Ich lasse es wie hier automatisch Strecken und exportiere es als Bild und mache in paar Kontrastanpassungen.

Ich würde meinen, die Hintergrundextraktion ist das Geheimnis einer Astrofotobearbeitung.

Da dieser Schritt ja einiges zerstören kann, wenn man nicht sorgfältig vorgeht, investiert man hier oft einiges an Zeit. Aber er legt die Basis für weiteres, daher lohnt es sich allemal.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1Beschnitt

An sich nichts Spannendes. Weiß jeder wie das geht, mit seinem Liebelingsfotoausarbeitungsprogramm.


WF_MW12mm_200627_007_DCrop.jpg.77756029b5beb4331097073ceb81cea2.jpg

Hier habe ich mich für einen recht späte Beschnitt entschlossen, denn ich wollte ja vorher besser sehen, was ich herausschneiden kann.

An der Stelle möchte einen tieferen Blick zu Vorgangsweisen von PixInsight geben

Wenn man ein Modul anwendet, kann man einfach mit dem Dreieck unten (neben dem grünen Häkchen für Ausführen) das jeweilige Modul mitsamt den eingestellten Parameter auf der Oberfläche ablegen und benennen. So hat man etwas Überblick was man so alles gemacht hat und mit welchen Einstellungen.
Hat man z.B. 2 oder mehr Bilder, die man gleich beschneiden will, braucht man nur das Modul ablegen und kann dann auf die weiteren Bilder denselben Beschnitt anwenden.
Daneben gibt es eine Historie, wo man jeden Zwischenschritt bei den Bildern wiederherstellen kann, auch die angewendeten Module mitsamt Parametren werden dann wieder gezeigt. Es gibt einen Container für Batchverabeitung …..

Um einen Überblick zu haben, was ich so alles angewendet habe, ergänze ich in den Namen des Bildes immer um die Bezeichnung. Hier also das (gestackte) Bild: Dazu verwende ich für mich eindeutige Abkürzungen.
Hier habe ich das Bild gleich mal umbenannt in SGR (Sternbild Schütze =  Sagittarius = SGR) 12mm Optik, 28 Lights mit der modifzierten E-PL6. Danach habe ich DBE gemacht. Nach DynamicCrop ergänze ich dann mit Dcr.

Nochmals zurück zur Hintergrundextraktion:

Beim Stacken entstehen Stackingränder durch das unterschiedliche Ausrichten der Bilder untereinander. Bei mehreren Nächten wird man das Feld nicht ganz genau treffen, so daß auch Rotationen drinnen sind. Letztlich Ränder, wo weniger zusammen gerechnet ist.
Diese Ränder sollte man vorher wegschneiden um ein sauberes Bildfeld zu bekommen. Unnatürliche Artefakte können die Hintergrundextraktionsalgorithmen nämlich außer Tritt bringen.

Damit der Verschnitt gering bleibt, sollte man sein Bildfeld gut planen, vor allem, wenn man mehre Nächte Bilder sammelt und das wird man früher oder später machen. Daher am besten aufschreiben in welcher Ausrichtung man sein Bildfeld gemacht hat. Ich mach das am Teleskop normalerweise senkrecht oder waagrecht. Ich weiß in etwa, wie die Kamera angebracht wird. Das Feintuning mach ich dann an einem hellen Stern und bewege das Teleskop links/rechts und an der eingeblendeten Gitterlinie am Sucher drehe ich die Kamera so, dass der Stern genau waagrecht oder senkrecht wandert. Bei Fotolinsen merke ich mir markante Sterne im Bildfeld. Da hilft auch die Gitterline am Sucher. So finde ich in etwa die gleiche Ausrichtung wieder.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1  Astrometrierung

Frei nach Mai Thi Nguyen-Kim sehr zu empfehlenden Videoblog „MaiLab“:

 „Freunde der Sterne,  nehmt Euch einen Tee und lehnt Euch zurück“ 😂 weil es nur um ein Randthema geht, aber ich es aus praktischen Gründen an dieser Stelle spätestens Versuche, was angenehm für das nächsten Kapitel „Farbkalibrierung“ ist.

Zur Anmerkung: Man kann seine eigenen Bilder auf Astrometry.net analysieren lassen und es gibt auch ein eigenständiges Programm das auf Linux läuft, aber bei PI hat es den Vorteil, dass die Koordinaten  im Bild verankert werden.

Was versteht man jetzt unter Astrometrierung:  Das Bildfeld wird analysiert um herauszufinden, an welchen Himmelskoordinaten wir uns befinden.
Man kann sich denken, dass es schon einiges an Zeit kosten kann, wenn man ein schlechtes Bildmaterial hat und damit noch ein „blindes Imagesolving“ versucht, also alles ohne Angabe der Vergrößerung und wo am Himmel das Programm suchen soll.
Das kann nach langem Warten auf ein Ergebnis dann dazu führen, dass das Feld gar nicht gefunden wird.

Wer eine kleine Kamera hat, kann das auch als „Plate solving“ bekannte Verfahren auch dazu benützen um seine Montierung genau einzunorden. Man richtet sein Montierung oder Guider auf die Standartstellung aus: 90 Grad Richtung Polarstern. Die Kamera mach ein Bild und der Laptop findet heraus wo genau die Sterne stehen zum „Soll“ (genaue Ausrichtung auf den Himmelnordpol) danach schwenkt man das Ganze  um ca. 90 Grad. Anhand des zweiten IS (Imagesolving, wie ich es abkürze) wird dann eingeblendet wohin ein Stern jetzt verschoben gehört, damit die Rotationsachse der Montierung genau auf den Pol ausgerichtet ist...

Soviel zu den Anwendungen – zurück zu meinem Bild und dem Script für das ImagePlateSolving:

WF_MW12mm_200627_008_IS.jpg.54ff9e69b9dbcb851715c757a41a8b24.jpg

Damit „Versuch und Irrtum“ nicht zu langwierig wird, gebe ich im IS Modul ein Objekt an, dass ca. in der Mitte des Bildfeldes ist. Vor allem bei so weiten Winkel und verzerrenden Optiken wichtig. Danach gibt man die Pixelgröße seines Sensors an (16Mpixel FT Sensoren also 3,8 bei 20 MPixel 3,3) und was man noch braucht: Die Brennweite oder die Auflösung (Bogensekunden pro Pixel). Letzteres kann man zwar berechnen lassen: ( http://celestialwonders.com/tools/imageScaleCalc.html ) aber einfacher ist halt die Brennweite.

Wenn alles gut läuft bekommt man ein Ergebnis, wenn nicht muss man nochmals Probieren und Parameter für Verzerrung, Rauschen und Analyse ändern.

Hier hat es geklappt:
WF_MW12mm_200627_009_ISdistortion.thumb.jpg.aaae0060b1117b48b5c7d4952ca70bb5.jpg

Ich habe jetzt unten auch ein Bild der gefunden Verzeichnung (Distortion), die Abweichung von den echten Koordinaten anzeigen lassen. Beim unkorrigierten mFT 12mm ist es ziemlich wild, weil es fast eine psychedelische Wirkung entfaltet.

Hier ist nämlich genau eines der Probleme die man hier hat wenn man nur elektronisch korrigierte Linsen hat und auf möglichst hohe Präzision Wert legt:
Um den linearen Weg bei der Bildbearbeitung zu bestreiten muss ich vom RAW ausgehen. Und die sind eben nicht korrigiert.
Beim Entwickeln mit Oly.Workspace werden die hinterlegten Korrekturen angewendet und man erhält ein korrigiertes (aber natürlich gestrecktes) Bild.

PI schreibt immer mit was es tut und am Schluss zeigt es einem dann die Koordinaten und dass wir hier eine Auflösung von 63,7 Bogensekunden pro Pixel haben. Zur Erinnerung: Laut Seeing vorhersagen habe ich meist ein Flimmern der Luft um 1,5 meist aber 2-3 Bogensekunden. Der beste Himmel auf Erden (Namibia Himmel) hat nur so 1 arcsec oder leicht darunter. Warum man dennoch auf besser Auflösungen kommt, liegt an den großen Öffnungen guter Fernrohre und das Sammeln möglichst vieler Bilder für einen guten Stack. Am Mond entspricht 1 Bogensekunde einen Kraterdurchmesser von 1,8 km. Mit meinem Teleskop mit 200mm Öffnung kann ich das aber selbst bei meinem nicht ganz so guten Himmel auch am Bild auflösen.
 

Für mich aber hier wichtig: Die Koordinaten werden im Bild verankert.
Und weil das so ist, kann ich mir dann ein Bild erstellen, wo ich dann Objekte einzeichnen lasse:

WF_MW12mm_200627_010_Annotation.jpg.c6f8d2516fdc9fe346731c223f3f3a2e.jpg

Recht praktisch jedenfalls:

WF_MW12mm_200627_010b_Annotation.thumb.jpg.5c63c562a727b27d484fc1a16b9ad01c.jpg

 

bearbeitet von iamsiggi

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1  Farbkalibrierung

 

Das Thema Farbabgleich ist ein schwieriges, man sollte sich zumindest bemühen es so gut wie möglich hinzubekommen.

Angleich der 3 Farbkanäle für einen Weißabgleich

Ein (älterer) Weg war folgender: Der Himmel selbst ist ja schwarz (was aber keine Farbe wäre) also als neutrales Grau zu betrachten. Grau definiert sich dass alle 3 Farbkanäle (Rot/Grün/Blau) die selbe Intensität haben. Am Histogramm wäre das gegeben, wenn die 3 Peaks der Farbkanäle dann genau übereinander liegen. Der Peak sind die meisten Pixel und das ist normalerweise der Himmelshintergrund. Man passt also die Helligkeit der 3 Farben einfach aneinander an.

Wer in seinem Programm beim Histogramm die R/G/B Werte verschieben kann macht das im Prinzip, wenn er damit die Peaks übereinander schiebt. An sich auch die Pipette beim Weißabgleich. Nur man sollte aber ein größeres Feld wählen können sonst kann man viele mögliche Weiß abgleiche erzielen ;-).

In PI gibt es ein Modul Namens LinearFit (LF)
An ist es das Mittel der Wahl, wenn  man zwei Bilder in der Helligkeit anpassen will um sie zu mischen.

WF_MW12mm_200627_013_LF_WB.thumb.jpg.d999eccb4e9b0303a2adb8e2824992f1.jpg

Dazu splittet man sein Bild zunächst in die 3 Bilder der einzelnen Farbkanäle. Also man hat 3 Graustufenbilder, erkennbar am Filenamen mit der Ergänzung des Farbkanal (R/G oder B).  Üblicherweise nimmt man dann als Referenz für die Helligkeitsanpassung dann den Farbkanal, der am stärksten ist. Normalerweise der Grüne, bei unserem Bild hier sowieso. Danach braucht man das nur noch auf die Bilder die den Roten und Blauen Kanal enthalten anwenden.

Mit ChannelCombination (CC) erstellt man dann aus den 3 Farbauszügen wieder sein RGB Bild.
(Bei der IR Fotografie wird auch oft ein Kanaltausch gemacht, das geht also mit Aufspalten und der CC ganz einfach).

Hintergrundneutralisation und Weißabgleich:

WF_MW12mm_200627_012_BNWB.thumb.jpg.ef67194a272f51231a94829b900bbe0d.jpg

Zunächst werden „Proben“ des Hintergrundes genommen. Da darf aber wirklich nur repräsentativer Hintergrund sein ohne Sterne oder Objekt. Das ist hier schwierig, weil es eben so viel Sterne gibt. So bleibt nur über, einfach übers Bildfeld verteilt relativ kleine Bereiche zu wählen. Je größer die Probe und je mehr man hat, desto besser natürlich.
In Pi kann man einfach Bereiche als Vorschau (Preview) wählen und beliebig in ein Bild hineinzoomen um genau zu arbeiten. Links oben ist das Ausgangsbild wo der Hintergrund als Previews gewählt wurde. Dann kann man mit „PreviewAggregation“ aus den Previews ein Bild erstellen: das ist das kleine Bild oben in der Mitte, die zusammengefassten Hintergrundproben.
Die werden in Prozess: Hintergrundneutralisation (BackgroundNeutralization / kurz BN) aufs Bild angewendet.

Danach geht es weiter: Im Durchschnitt sind die Sterne weiß. Ausnahmen sind einige Galaxien, wo Teile eine andere Farbe aufweisen, was man beim Nachforschen herausfinden kann, aber normalerweise stimmt es schon recht gut, wenn man einfach eine große Anzahl Sterne wählt oder seine Galaxie. Auch hier habe ich ein paar Proben gemacht und zu meiner Probe für den Weißabgleich (Aggregated_4_WB – aggregiert für den Weißableich) erstellt.
Das ganze fließt in  den Prozess ColorCalibration (CC – Farbabgleich), rechts oben.
Man braucht als Referenz unseren Hintergrund (Background) und eben unser Referenz für den Weißabgleich. Das Ergebnis ist rechts unten.
Es gibt auch ein automatisches Script, das das recht gut macht: AutoColor

von Hartmut Bornemann.

Fotometrische Farbkalibrierung:

Seit 2-3 Jahren gibt es  Methoden, anhand der  Sternfarben aus den Katalogen der wissenschaftlichen Messungen die Farben anzupassen. Leider wurde die Windowsversion namens FluXX zurückgezogen, das über Astrometry.net ein Imagesolving machte und hernach die Katalogdateien nach den Sternfarben durchsucht um die Korrekturfaktoren für die Farbkanäle anzuzeigen.
FluXX ist sicher das besten Programm (ein freies Script für PI von Hartmut Bornemann der uns viele tolle Scripts schreibt http://www.skypixels.at/pixinsight_scripts.html) aber bei solchen Sternenfeldern mit zig Tausenden Sternen schaff ich es meist nicht, denn es werden ziemliche Datenmengen gewälzt… Mittlerweile liefert ja die Raumsonde GAIA die genauen Ergebnisse und das sind derzeit über 1 Mrd. Sterne! Darauf kann ich in PI einfach zurückgreifen).

PI hat jetzt einen ähnliche Prozess der einfacher ist: PhotometricColorCalibration (PCC).

WF_MW12mm_200627_011_PCC.thumb.jpg.d0a48860fa0e1ef5b7e01a49ed328b92.jpg

Den nehme ich wenn er zum Ziel führt oft.

Es ist der Grund warum ich recht bald eine Astrometrierung /ImageSolving mache: Hier kann ich einfach die Koordinaten in das Programm übernehmen. Ansonsten muss es das Programm machen und es kann lange dauern, bis das Feld astrometriert wird, vor allem bei den Verzeichnungen der Optik.

PCC macht eine automatische Hintergrundneutralisierung und danach wird der Weißabgleich anhand der Sterne im Bild gemacht.
Ist einfach und relativ genau.





Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1 Entrauschen

In der wissenschaftlichen Astrofotografie ist Entrauschen an sich nicht gestattet. Es kostet einfach Details. Ganz schwache Dinge werden wegradiert etc.
Rauschen wird überbewertet. Am Bildschirm ist es ein leichtes stark hineinzuzoomen und Kontraste nach belieben zu verändern. Da sehen die Bilder oft recht schlecht aus. Am besten ist es einfach mal ein paar seiner Bilder ausbelichten zu lassen!

Rauschen wird schon alleine durch Stacken stark reduziert. Ein Bild rausch vor allem im dunkelsten Bereich. Daher ist es angebracht auch nur da leicht zu entrauschen. Wichtig ist jedenfalls dass man sein Bild an kritischen Stellen genau ansieht um festzustellen ob Teile des Objekts oder feinste Strukturen beeinträchtigt werden.
Besonders hier gilt: Wenn man die Wirkung sieht, dann nur 50% anwenden. Lieber verschiedene Entrauschungstool anwenden, als nur eines.

Auch ein Ansatzpunkt um Rauschen zu entfernen wäre er Einsatz von Frequenztrennungs/Wavelets.
Rauschen ist in den Höchst Frequentesten Bereich (erste Waveletlayer)  zu finden. Also kann man hier ansetzten.
Oft kommt ein verstärktes Rauscheindruck durch unnatürlich dunkle Pixel zustande. Dem kann man mit Pixelmathematik entschärfen: Man schüttet die Löcher quasi zu. Das ganze ist unter dem Begriff „SchwarzePixelkanone“ (black pixel cannon) getauft 😊

Die Formel wäre: iif( $T < 0.xxxx,((med($T) - $T)/2)+$T, $T)  xxxx ist der gemessene Wert der dunklen Teile, med=Median und $T das Bild

Hier verwende ich eines: TGV
WF_MW12mm_200627_016_TGV.thumb.jpg.00968d448b27997d6f006b9aabc13d30.jpg
Es ist nach wie vor wohl der besten Algorithmus gegen Rauschen, das 2014 vorgestellt wurde (
https://imsc.uni-graz.at/optcon/projects/bredies/tgv.html )

Von der Uni Graz für medizinische Zwecke entwickelt, wo feinste Details im stark verrauschtem NMR etc. Bild nichts wegradiert werden darf.

Viel mehr mach ich meist nicht. Wenn das Farbrauschen zu stark ist, entsättige ich den Hintergrund etwas.

Bei vielen Astrofotos ist ein Überhang aus Grün zu sehen. Am Himmel gibt es das aber nicht. Weder ist ein grüner Stern bekannt, noch ein grüner Nebel.

Um das zu beheben gibt das SCNR Modul.
Das PS Plugin „HLVG – Hasta La Vista, Green“ basiert auf diesem Algorithmus und ist Freeware.
Es ist nicht sonderlich wichtig, wann man es anwendet, meist am Ende der Bildbearbeitung. Man wird feststellen dass dann das blau (Sauerstoff, O-III) und rot (Wasserstoff, H-alpha) besser wird.

Da unser Gehirn sehr viel korrigiert, wenn man nur lang genug arbeitet, kann man mit Farbstichen im Laufe der Zeit wunderbar klarkommen. Daher lieber einen Tag später  mit „frischen Augen“ nochmals sein Bild beurteilen.

WF_MW12mm_200627_015_SCNR.jpg

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1 Strecken

Wie schon geschrieben, werden normalerweise die Bilder in den üblichen Fotoprogrammen für den Hausgebrauch bereits gestreckt im Gegensatz zu
 PixInsight, wo man (normalerweise) ja ungestreckt öffnet.
Um sie also auf ein normales Helligkeitsniveau zu bringen muß man sie strecken. Weil damit der lineare Zusammenhang zwischen Intensität und Helligkeit verloren geht, spricht man dann von Delinearisieren, bez. man arbeitet dann am „delinearen“ oder eben „gestrecktem“ Bild.

Es gibt dazu natürlich viele Möglichkeiten wie man das tun kann, alle haben Vor und Nachteile.

Histogramm stretch

Der einfachste Weg dazu wäre einfach am "Helligkeitsregler“ zu drehen oder schieben. Dazu hat man wie überall 3 Schieber:
Schwarzwert (Shadows), Weißwert (Hightlights) und den Mitteltonregler (Midtone). Größte Vorsicht ist bei den allermeisten Programmen beim Ändern des Schwarzwert und Weißwert geboten: Da wird schnell mal herum geschoben, das Bild wird Kontrastreicher, aber man schneidet meist jede Menge an Dunklen und Hellen Pixel weg, helle Bereiche werden gesättigt und man hat meist eben keine genaue Kontrolle darüber wie viel das jetzt ist. Die sind dann unwiederbringlich verloren, während beim Mitteltonregler mal nichts schlimmes passiert.

Das relatuv einzigartige bei PI dabei ist: Man kann beliebig in sein Histogramm hineinzoomen.
Unten bei Shadow und Highlight wird nicht nur angezeigt, wie viel % wir von Histogramm am Dunklen und am Hellen Pixelwerte abgeschnitten werden, sondern auch wie viele Pixel. Letztlich ist es natürlich egal, wenn wir ein paar Pixel im Dunklen abschneiden - wird haben ja 16 oder 20 MPixel. Im Hellen natürlich sehr gefährlich, weil immer mehr Pixel in die Sättigung kommen.


WF_MW12mm_200627_018_HTStr.thumb.jpg.47af3db8af901255d9ee32962391daf0.jpg

Links oben unser Bild, aber nicht durch STF zur Ansicht automatisch gestreckt, daher schwarz.
In der Anzeige der HistogramTranfromation (HT) wird das Histogramm des gewählten Bildes (blaue Beschriftung oben) gezeigt, also unser ungestrecktes Bild von links oben.

Unten ist das zugehörige Histogramm, der schmale Peak im ganz dunklen Bereich, darum sehen wir ja nichts. Das obige Histogramm zeigt immer an, wie das Histogramm sein wird, wenn wir da Änderungen vornehmen. Hier wird der „Mitteltonregler“ (der Gammaregler bei andern Programmen) nach rechts verschoben. Man sieht, dass die Dunklen Teile stark aufgehellt werden, während zum hellen Ende, kaum mehr getreckt wird. Im hellsten Teil gar nicht. Sonst würde ja alles sehr helle sofort übersättigt. Es wurde nur der  Mitteltonregler verschoben. Der Histogrammpeak kommt mehr ins Helle, weil ja dunkles heller wird und der Peak wird breiter (gestreckt).

Man sollte immer trachten so viele Pixel wie möglich zu behalten, beschneiden könnte man immer noch. Das gibt natürlich dann mehr Kontrast, aber weg ist weg und unwiederbringlich verloren.

Egal: Hier sehen wir: Es wird nichts beschnitten. Unten links das Ergebnis des Streckens, nicht wirklich berauschend und flau und wenn man darauf STF zur automatisch gestreckten Ansicht anwendet (Ansicht links oben) sieht es schon besser aus.

Aber wir können schon am Histogramm erkennen, warum wir nur ein helleres graues Bild sehen: Der Peak ist jetzt breiter und in einen Bereich verschoben, wo wir schon etwas sehen. Ca. um die 10-15 % der Helligkeit.
Die hellsten Objekte (Jupiter und Saturn unten links und oben links Altair) sind schon auf den Rohbildern ausgebrannt. Da aber ein Stern durch die Luftunruhe nicht Punktförmig ist, sondern ausläuft in der Helligkeit, würde ein Beschnitt im hellen Bereich, weiter Bereich ausbrennen lassen, sie werden dann größer.
Das automatisch gestreckte Bild (STF Stretch) geht da z.B. aggressiver vor: Es schneidet auf jeden Fall im dunklen Bereich Pixel weg, der Weißpunkt (rechter Regler) wird auf den hellsten gefundenen Wert gestellt. Gibt dann mehr Kontrast, aber wie man an Jupiter sieht: Er wird größer, weil ja schwaches Umfeld auch heller wird.  Das sehen wir uns hier an:

STF/HT Stretch

WF_MW12mm_200627_019_STFStr.thumb.jpg.31a40b2fc14ab4cf459852d2f5355af3.jpg

Man kann auch die Werte, mit der STF streckt ganz einfach in den HT (HistogramTransfer) übertragen. Dazu braucht man einfach nur das blaue Dreieck von STF in die untere Leiste von HT ziehen. Was dieses Automatische Strecken anstellt sieht man jetzt:

Unten sieht man das Histogramm unseres zuvor manuelles HT gestrecktes Bild, links oben zu sehen.

Der Peak im dunkelgrauem Bereich. Oben das was jetzt gemacht wird: Rechst der Regler des Schwarzwertes wird an den Anfang des Peaks gesetzt. Dabei werden 107140 Pixel im dunklen Bereich weggeschnitten, 0,86%.  Hand aufs Herz: Bei diesem Bild ist es wohl zu verkraften!
Im hellen Bereich wird zum Glück nichts beschnitten. Aber natürlich wird insgesamt alles heller.

Also für schnelles Strecken, vielleicht aber etwas eingreifen um weniger zu beschneiden durchaus zu gebrauchen. Für den Anfang 😉
Den Rest kann ja sein "Lieblings Bildverarbeitungsprogramm" anpassen.


ArcSin Stretch

Anfangs fällt einem immer auf: Wo sind die Farben im Bild nach dem Stacken hingekommen? Nun, die muss man hinterher immer verstärken.
Ich weiß zwar nicht im Detail was ArcSin Stretch genau macht, aber mittlerweile ist es ein gern genommen Programm zum Strecken, denn es verstärkt auch die Farben und die Sterne werden nicht all zu groß.


WF_MW12mm_200627_019_ArcSinStr.thumb.jpg.7c381373bca17df2142c993cec5bb055.jpg

Links oben wieder das wohl bekannte Ausgangsbild, unten das Ergebnis, rechts oben das Ergebnis mit STF betrachtet. Ich achte darauf, dass vor dem Peak fast nichts abgeschnitten wird. Ich messe dazu einen möglichst dunklen Bereich, der Schwarzwert (Black point). Schau mir das Ergebnis an, und wenn der Peak zu stark beschnitten wird, reduziere ich den Wert...

Ich gehe da auch eher konservativer vor, denn Farben kann man ja recht leicht hinterher dann weiter anpassen. Die restliche Streckung mache ich dann anders. Meist ein Gemisch aus HT Stretch und vielleicht auch MaskStretch


MaskStretch

Vor vielen Jahren war es das probateste Mittel um zu strecken. Der Trick ist dabei recht einfach:
Zunächst fertig man ein Kopie seine Bildes an. Dieses Bild wird als Maske allerdings Invertiert übers Bild gelegt. Wenn man jetzt mit HT Streckt, sind die hellsten Stellen stark maskiert, während die schwächsten Stellen nicht maskiert sind. Daher kann hier die Funktion am stärksten wirken.

In der Bildbearbeitung sollte man die meisten Prozesse niemals gleich mit voller Stärker anwenden. Lieber kleinere Schritte und öfter. Mitunter fallen dann unerwünschte Nebeneffekte geringer aus.

Und deshalb machen wir hier nur eine kleine Streckung. Danach wiederholen wir den Vorgang: Ergebnis des ersten kleinen maskierten Strecken klonen und als invertierte Maske am Bild anwenden und wieder ein klein wenig strecken. Und man ahnt es bereits: Das ganze machen wir in 100-200 kleinen Schritten. Genau das nimmt uns das MaskStretch (MStr) ab

WF_MW12mm_200627_020_MStr_s.thumb.jpg.f3d776c222a5cc51acca23391d09df6f.jpg

Es gibt auch  nicht viel zu steuern: Bis wie hell soll es strecken (Target background). Wenn man es genau will, kann man einen Bereich definieren, auf dem geschaut wird bis die Helligkeit erreicht ist. Die meisten mögen es heller zu Strecken als man am Ende braucht, dunkler machen kann man dann immer noch.
Wie oft (iterations) und wie aggressiv darf es sein, also wie viele Pixel dürfen beschnitten werden (Clipping fraction).

Links ein Ausschnitt aus unserem vorgestreckten Bild. Oben das Original unten das Ergebnis.
Schwaches wird stark verstärkt, Helles nicht ausbrennen.

Ein Nachtteil besteht natürlich wieder: Schwache Halos um helle Sterne z.B. werden natürlich auch stark verstärkt und damit heller.

Diesen Kommentar teilen


Link zu diesem Kommentar

Deep Sky Astrofotobearbeitung 1  Selektives Arbeiten/Masken

Damit ich jetzt mal schnell zu einem Schluss komme noch was leichtes, sofern man bereits mit Masken  arbeiten kann.

Zur Auffrischung: mit einer Maske über einem Bild kann man selektive Bereich für einen Bearbeitungsschritt freigeben oder umgekehrt, ausschließen.
Jetzt kann man natürlich großzügig eine eigene Maske malen, was vielfach in PS gemacht wird. Aber  es ist viel besser, eine passende Maske aus dem eigenen Bild erstellen. Je nachdem wie „durchsichtig“ die Maske ist, wird dann ein schöner Übergang zwischen den eher unbearbeiteten (maskierten) Teil und dem bearbeiteten unmaskierten Teil werden.
Daher wird man kaum harte „binären“ schwarz/weiß Masken verwenden, sondern eher Graustufen. Man kann aber auch harte Masken weichzeichnen.

Wenn Kreativität gefragt ist, dann hier, denn man kann praktisch alles an Hilfsmittel verwenden um zu seinen Masken zu kommen. Normalerweise ist es nämlich nicht gar so leicht eine exakt passende Maske zu bekommen. Oft ist etwas dabei, dass man genau nicht haben will, aber der Rest passt. Wenn z.B. noch ein Sternen- oder Nebelrest da ist, aber der Rest passt, dann greife ich auch zum Clonepinsel um ihn wegzuradieren, ansonsten bin ich ein ganz schlechter Maler und versuche es zu vermeiden.

PS und andere fortgeschrittene Bildbearbeitungsprogramm haben hier sehr ausgeklügelte Assistenten, die in etwas wissen, wie ein schönes Foto aussehen soll. PI hat das nicht, es macht nüchtern genau das was man einstellt ohne selbsttätig ein Eigenleben zu entwickeln, auch wenn es vielleicht zum Vorteil gereicht. Man bastelt sich also sein Bild von Grund auf selbst zusammen. Daher nehmen die meisten den letzten Schritt durch gängige Bildbearbeitungsprogramme vor.

An dieser Stelle noch eine Anmerkung zu den 2 Welten: Gerade Anfangs ist man oft versucht zwischen zwei oder mehr Programmen hin und her zu wechseln, weil gewisse Funktionen eben in einem anderem Programm besser gelöst sind, aber meist beherrscht man halt sein angestammtes Programm um vieles besser als ein gänzlich Neues. Das Hin und Herwechseln kosten normalerweise „Reibungsverluste“, auch wenn PS jetzt 32bit kann. An sich sind 16 Bit genug, aber nach dem Stacken ist es schon gut, einen Werteraum von 32bit zu haben um aus dem Vollen zu schöpfen und nichts an Daten zu beschneiden. Danach reichen 16 bit. Auch wenn es möglich ist in PI: 64bit ist der Overkill und brauch man wirklich nicht ! Auch Profiastronomen bleiben bei 32bit.
Man sollte sich die Zeit geben, sein Werkzeug wirklich zu erlernen um ein hin- und her wechseln zu vermeiden. Ist in etwas so, wie wenn man anstatt einer Maus ein Grafiktablett  einsetzen will: Beides hat Vor und Nachteile, aber wer eines von zwei wirklich beherrscht, braucht das andere nicht!

Ok weiter zu den Masken:

Eine gängige Maske ist eine Luminazmaske, ein Graustufenbild der Helligkeitswerte des Bildes. Das kann man jetzt für seine Bedürfnisse durch ändern des Kontrast anpassen.

Oder wie hier: Mit „RangeSelection“ zum Erstellen eine RangeMask (RM) bestimmen, welcher Helligkeitsbereich unsere Maske umfassen soll.

WF_MW12mm_200627_022_Lumi_RMask_s.thumb.jpg.965bb6d80717c48d9d7817d5efc6c6fa.jpg

Fuzziness kann schwache erkannte Strukturen auch noch besser sichtbar machen, muss man einfach probieren. Natürlich sollten wir hier die Maske noch etwas Weichzeichnen, damit der Übergang nicht ganz so abrupt ist.

Links oben unser gestrecktes Bild. Unterhalb der Luminazauszug. Rechts oben das Modul RangeSelection und mit dem Roten Kringel kann man sich ein Vorschaufenster einblenden, wo man das Ergebnis sehen kann.

Ein Bild Maskieren ist in PI recht einfach: Einfach seine Maske auf das Bild legen. Die braune Farbe links oben am Rand des Bildes zeigt an, dass ein Maske aktiv ist.
Man kann auch die Maske sichtbar machen, dann ist (standardmäßig) alles rot, was abgedeckt ist.

WF_MW12mm_200627_023_CT_LumiRMask_s.thumb.jpg.de658e25bacf3e6b884abb9c300c38e8.jpg

Es  ist auch einfach die Maske zu invertieren, also alles was vorher abgedeckt wird ist nachher ungeschützt und umgekehrt. Wenn der Himmelshintergrund einfach zu viel Farbrauschen hat, kann man dann die Objekte schützen, und nur beim Hintergrund die Farbsättigung senken und ihn etwas entfärben. Weil man ja das Farbrauschen des dunklen Hintergrund nicht noch stärker sichtbar machen will, wenn man die Objektfarben verstärkt, ist es eben notwenig da mit Masken zu arbeiten.

Hier ist darüber die vorherig erstellte „RangeMask“ und mit CurvesTransformation (CT) kann man jetzt z.B. die Helligkeit anheben. Meist auch die Farbsättigung. Links unten wieder das Vorschaufenster.

PI kann nur eine Maske  über einem Bild haben, keine Stapel wie es in PS oder anderen Programmen möglich ist. Deshalb gibt es Pixel Mathematik. Da kann man dann wirklich alles mache, so man kann…. Ich kann nur eine paar Befehle.  Um eben zwei oder mehr Bilder zu vereinigen kann man dann die Bilder mit PixMath zusammenrechnen was auch immer.

Da PI ja zu einem Großen teil auf Wavelet Algorithmen / Frequenztrennungstools aufbaut, kann man z.B. hier Masken basteln die auf die Größe von Strukturen basieren.
Niedere Layer (hohen Frequenzen) beinhalten z.b. Rauschen. Höhere die Sterne, je nach Größe und die ganz niederfrequenten Teile (höchste Layer in Wavelets) große Strukturen.

Gerade Sternmasken braucht man oft. Aber da sie verschieden groß sind, wird man nur immer eine Sterngröße in der Maske finden. Daher wird man nicht umhinkommen, mehrere Masken zu erstellen und die dann zu einer zu vereinigen.

Mit einer guten Sternenmaske kann man z.B. Größenänderungsverfahren von Sternen anzuwenden um Sterne kleiner zu rechnen. Um Sterne komplett zu entfernen gibt es eine Freeware: StarNet++ (läuft auf allen Plattformen).  
Bei heiklen schwachen Strukturen ist es viel einfacher hier ohne die störenden Sterne zu arbeiten, denn die Gefahr ist groß, dass man den Rest des Bildes sehr stark beeinträchtigt beim Versuch diese schwachen Dinge herauszukitzeln. Danach muss man die zwei Bilder (Nebel und Rest) wiedervereinigen.

Ein akkurate Maske ist bei der Bearbeitung immer Gold wert!  Letztlich wird man ohne sie nicht auskommen.
 

Das war's mal fürs Erste - ich hoffe es hilft etwas weiter und verwirrt nicht mehr !

Letztlich für den Anfang würde ich eine Stacken mit DeepSkyStacker oder Siril (ist neuer und kann offenbar mehr) empfehlen, dann eine Hintergrundextraktion in Siril oder Fitsworks und Strecken. Zumindest bei FitsWorks muß man aber aufpassen und etwas die Anleitungen lesen (immer gut bei so komplexen Programmen, aber es gibt da doch einiges an Anleitungen im Internet zu finden) was man beachten sollte, damit nicht was weggeschnitten wird das man brauchen könnte.  Danach ist das Bild bereit um mit normaler Bildbarbeitung weiter verfeinert zu werden......

Siegfried

 

bearbeitet von iamsiggi

Diesen Kommentar teilen


Link zu diesem Kommentar
Gast
Add a comment...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung