Jump to content

Die PEN, OM-D & E-System Community

Empfohlene Beiträge

Hallo Gemeinde,

Ich würde gerne in die Astro-Fotografie mit meiner OM-D EM1 einsteigen. Offensichtlich läuft das normalerweise über einen Adapter, der T2 -Innengewinde auf der einen Seite und MFT auf der anderen Seite besitzt. Also habe ich mir einen solchen Adapter besorgt, und ein entsprechendes T2-Gegenstück, um in den Okularauszug zu kommen. Leider ist die Tiefe des T2-MFT-Adapters zu groß, ich komme nicht in den Fokus meines Teleskops. Momentan warte ich auf einen Adapter von Dörr, der zumindest im Internet so flach aussieht, dass ich in den Focus kommen könnte.

Gibt es Adapter, die direkt in den 2"-Okularauszug passen, also ohne den Umweg über T2?

 

Viele Grüße,

Thomas 

Link zum Beitrag
Auf anderen Seiten teilen
vor 30 Minuten schrieb TMildenberger:

Leider ist die Tiefe des T2-MFT-Adapters zu groß, ich komme nicht in den Fokus meines Teleskops

Theoretisch kannst Du die Einstellung auf Unendlich auch bewirken, wenn es Dir gelingt, eine konkave Vorsatzlinse vor die Optik (heisst bei Dir wohl 'Teleskop'?) zu setzen. Allerdings müsste das wohl idR eine sehr schwache konkave Vorsatzlinse sein (die Dioptrie kann man theoretisch ausrechnen), die sehr schwer erhältlich sind (vielleicht eher in der Astro-Branche??) und sie müsste natürlich im Durchmesser groß genug sein. Aber ein passender Adapter ist natürlich die optimale Lösung. Gruß, Hermann

Link zum Beitrag
Auf anderen Seiten teilen

Ohne die genauen Teile zu kennen ist es schwierig.

@iamsiggiist da Spezialist und hat auch viele Komponenten auf seiner HP. https://www.austrianaviationart.org/cms/category/astronomy/astrofoto/

 

Eventuell ist der Okulartubus beim Teleskop zu lang? Ich denke es gab da mal spezielle Foto-tauglichen Teleskope mit kurzen Okular Tubus um in den Fokus einer Kamera zu kommen. 

 

Link zum Beitrag
Auf anderen Seiten teilen
vor 2 Stunden schrieb TMildenberger:

.... ich komme nicht in den Fokus meines Teleskops. Momentan warte ich auf einen Adapter von Dörr, der zumindest im Internet so flach aussieht, dass ich in den Focus kommen könnte.

Gibt es Adapter, die direkt in den 2"-Okularauszug passen, also ohne den Umweg über T2?

Hallo Thomas,

Was ist das für ein "Teleskop" ? Und was willst du da fotografieren.

Normalerweise nimmt man bei einem 2" AOZ (was ja schon mal gut ist) einen Comacorrektor bezw flattener und der hat M43 Gewinde. Da schraubt man dann entweder einen M43/mFT Adapter oder via 3mm M43->2" den mFT2" Adapter an.

Was hier kritisch ist: Den Abstand zwischen Korrektor und Kamera zu finden. Wenn der nicht stimmt, sieht man es an den Sternen am Bildrand.
Das ist für jedes Teleskop und Korrektor  zu finden. Leider ist da nichts genormt.

Wenn Du die Kamera weiter weghälts, kommst Du da in den Fokus ( der Mond bietet sich da ja an). Dann kannst du in etwa abschätzen wo der Fokus liegt.
Wenn er näher sein muß als der AOZ erlaubt muß man ihn kürzen, aber da habe ich keine Erfahrung. Und solche Sachen sind heikel.....

Hier ist der Link, wo ich damals alles probierte was bei meinem Newton (gepimpter Skywatcher Quattro) so machen kann:
https://www.austrianaviationart.org/cms/adaption_olympuskameras/

Siegfried
 

bearbeitet von iamsiggi
Link zum Beitrag
Auf anderen Seiten teilen

Danke für die Antworten! Da hätte ich gleich mal bei Siggi nachschauen sollen! Das hätte mir viel raten erspart...

Mein "Teleskop" (meine Optik) ist ein 8" f/6-Newton (Galaxy, als Beginner-Röhre) auf einer Losmandy G11 (für die Nachhaltigkeit 😉

Ich wohne mitten in Köln, der Himmel ist also recht hell. Ich wollte einfach mal probieren, "was geht". Mit zunehmender Erfahrung weiß ich dann auch besser, was ich brauche, hoffe ich...

Ein Komakorrektor...  Siggi, empfiehlst Du bestimmte Hersteller? Man möchte das ja nur einmal kaufen....

Thomas

 

Link zum Beitrag
Auf anderen Seiten teilen
vor 2 Stunden schrieb TMildenberger:

ein 8" f/6-Newton (Galaxy, als Beginner-Röhre) auf einer Losmandy G11 (für die Nachhaltigkeit 😉

Ein Komakorrektor...  Siggi, empfiehlst Du bestimmte Hersteller? Man möchte das ja nur einmal kaufen....

Da hab ich mal gegoogelt...
Offenbar als Dobson wiederverwendet ? aber egal. Spiegel ist PK7.  Der verformt sich ziemlich bei Temperaturänderung - für den Anfang aber nicht so wichtig.
Aber F6 bei 8" ist schon 1200mm das ist schon ziemlich viel am Himmel - der Mond geht sich da Formatfüllen bei Vollmond wohl grad nicht mehr ganz aus am Sensor 🙂

Losmandy G11 - das ist ja richtig teuer wenn der Preis stimmt (<4000) den ich gefunden hatte.
Für DeepSky (außer sehr helle Nebel) glaub ich aber nicht dass sie bei der Brennweite am FT Sensor präzise genug ist um ohne Guiding weiterzukommen.
Für Nachführung von guten Teleobjektiven müsst sie aber sehr gut funktionieren. 
Gerade jetzt wo Andromeda gut steht und sehr groß ist, kann man da ja auch mit 75-150mm Brennweite gute Bilder bekommen.

So sehr der Profi bin ich nicht - habe halt eins gekauft und ließ mich vor Kauf noch nach ausführlicher Internetrecherche noch final beraten, ob das alles so passt.
Über die Jahre habe ich aber einiges mitbekommen:

Das Problem mit den Komakorrektoren ist halt, dass sie genau für das Teleskop passen müssen und dann natürlich der Abstand zum Sensor. F/6 ist natürlich gutmütig, Da müsstest Du rausfinden / beraten lassen  bei jemanden der das Teleskop kennt.
Da kann ich leider nicht weiterhelfen.

Da sie nicht günstig sind, wenn sie wirklich gut sein sollen, und falls Deep Sky Dein Ziel ist, würde ich es derzeit dann doch mal ohne probieren und schlimmsten Fall den Rand wegschneiden, sollte es zu schlecht sein. Denn man wird dann bald einen F/5 wenn nicht F/4 (SkyWatcher Quattro z.b.) wollen - und dann ist wohl ein neuer passender Komakorrektor fällig....

Viel Erfolg beim in den Fokus kommen!

Siegfried


 

Link zum Beitrag
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

  • Gleiche Inhalte

    • Von iamsiggi
      Das es viele verschiedene Faktoren gibt, die einem Fehlbilder bringen und so eine der oft seltenen wirklich guten Nacht kosten könnte, überlasse ich da wo ich etwas selbst beeinflussen kann, nichts dem Zufall.

      So auch beim Scharfstellen
      Bei der E-M1 mark III gibt es zwar diesen Sternen AF, zwischenzeitlich (RTFM 😉 ) bekomme ich das aber gut hin (größerer Cluster an Focusfeldern). Wenn man sich einen Stern in ganz großer Vorschau ansieht kann man zusehen, wie die Kamera scharfstellt (intra/extrafocal). Bei längerbrennweitigen Objektiven (so ab 75mm) habe ich den Eindruck, dass ich besser manuell scharfstellen kann.  Bei unter 25mm ist der StarryAF ein Segen.  An Planeten wie Mars, Venus geht es auch mit dem lichtschwachen  mFT100-400er. Es müssen halt möglichst punktförmige Objekte sein.  Trotz hilfreichem StarryAF ist es aber immer angebracht anhand eines Bildes mal den Fokus zu überprüfen.

      Außer mit starkem Teleobjektiv am Mond verlasse ich mich da nie auf den Autofokus.
      Schon im Hinblick darauf, dass man ja üblicherweise nicht ein Bild sondern sehr sehr viele macht und die wirkliche Bildqualität dann erst hinterher am großen Computermonitor sieht, stelle ich lieber manuell scharf ein.
      Die Funktion "Objektivrückstellung" schalt ich bei dem Kameras die ich meist für Astrofotografie verwende aus. Oft will ich eine Belichtung unterbrechen, was ich dann einfach durch Ausschalten der Kamera mache, anstatt Minutenlang zu warten. Dann ist es nützlich, dass die Schärfen ebene des Objektives bleibt wo sie ist.

      Zunächst muss man aber überhaupt mal einen hellen Stern am Kameradisplay finden, was bei einem stärkeren Fehlfokus schon meist nicht mal möglich ist, weil das schwache Licht ja über eine große Fläche verteilt ist, und so nicht mal mehr angezeigt wird.
      Bei dem heutigen OM-D's gibt es mittlerweile eine LiveView Erweiterung II. Man sieht da dann wirklich sehr viele Sterne (aber auch Hotpixel!). Die Verzögerung macht es aber schwierig damit scharf zu stellen. Hat man den Fokus wirklich getroffen, sieht man auch den einen oder anderen schwächere Sterne im LiveView Modus I.
      Man kann mal zuerst an einer möglichst weit entfernten Lichtquelle mal vorläufig scharf zu stellen oder auf eben, wenn man hat, LV Erweiterung II zu schalten. Der ist zwar verzögert, aber so lichtstark, dass man schon recht schwache Sterne sehen kann, Helle dann sowieso.
      Um schnell von LV Erweiterung I auf II zu schalten kann man sich da bei den neueren Kameras im Menü es so einrichten, dass man der "Restlicht" Modus ab 60 Sekunden zugeschaltet wird, sonst aber auf LV Erweiterung I bleibt. Dann braucht man nur schnell von 60 Sekunden auf Bulb oder Livetime zu schalten.

      Die E-M1.III hat eine extra Einstellung für Bulb/Livetime am Modusrad. Wo man dann halt am Modusrad drehen muss, beim M habe ich jetzt auf die Schnelle nicht gefunden, wie ich da über 60s einstellen könnte. Egal.

      Dann einen möglichst hellen Stern in die Bildmitte bringen und mit Liveview Vergrößerung (14x) so fokussieren dass der Stern so klein wie möglich ist. Der MF Assistent  im Kameramenü ist dazu ausgeschaltet, aber ich lege mir auf eine Funktionstaste die Vergrößerungsfunktion.
      Ein Klick auf OK verlässt dann wieder den Vergrößerungsmodus.

      Bei starken Teleobjektiven gibt es eine Einstellhilfe inform einer speziellen Maske, die man vors Objektiv gibt: Die Bahtinovmaske
      Das beigefügte Bild zeigt den Effekt an einem 135mm Objektiv und dem sehr hellen Stern Capella.



      Bei Brennweiten unter 60mm wird es dann halt schwierig, zu klein werden die Sterne.
      Bei Modifizierten Kameras sieht man aber auch da den roten Saum recht gut den ich mit dem Stern zu vereinigen suche.

      Vorsicht bei Temperaturänderung:

      Üblicherweise verstellt sich der Fokus wenn sich die Temperatur ändert. Die Tuben sind aus Metall, Linsen ändern sich wohl auch.
      Ist das Objektiv wesentlich wärmer als die Umgebung oder kühlt es dann weiter stark ab (üblicherweise in klaren Nächten), sollte man unbedingt  vor allem Anfangs alle 5-10 Minuten den korrekten Fokus kontrollieren. Wenn geht, daher schon vorher an die Umgebungstemperaturen abpassen lassen.
      Wenn man Glück hat ist in der Nähe der Bildmitte ein heller Stern an dem man zwischendurch mal schnell den Fokus kontrollieren kann. Ansonsten kann das es sehr aufwendig werden, den Fokus zwischendurch mal an einem geeigneten Stern außerhalb des Bildfeldes zu überprüfen, weil man ein mühsam gefundenes Bildfeld möglichst genau (Stichwort: Stackingränder) wiederfinden muss.
      Da hilft eine "GoTo" Astromontierung, kann aber auch heikel werden - wenn man so gar nichts sieht, weil man keine LV Erweiterung II hat, wie bei den E-PLx Kameras, oder älteren E-M10.

      Einzig ein Spiegelteleskop mit dem richtigen Spiegelmaterial (Pyrex oder besser Quarz, jedenfalls kein PK7 Glas!), einen Kohlefasertubus und sehr guten verschraubten Okularauszug bleibt hier wirklich fokusstabil. Zumindest merke ich da bei meiner Ausrüstung nichts an den Bildern. Und schon aus Paranoia kontrollierte ich schon ofter hinterher nochmals ob der Fokus auch noch stimmt. Wie immer: Kostet um einiges mehr, aber erspart sehr viel Ärger.

      Bei Objektiven mit manueller Blende nicht vergessen, vorher die Blende ganz zu öffnen.

      Geht das alles nicht befriedigend, kann man anhand von Probebildern den Fokus überprüfen und gegebenenfalls neu einstellen, alles sehr Zeitaufwändig.

      Am Mond ist es am besten in der Nähe des Terminators scharf zustellen, Am Jupiter sieht man die Galileischen Monde , die recht schnell verschwinden sollte der Fokus nicht mehr recht passen.

      Verwendet man eine Modifizierte Kamera, wird man um helle Sterne einen roten Saum sehen, weil das viele langwellige rote Licht ja nicht mehr in den Fokus zu bringen ist, wenn gleichzeitig blau und grün scharf sind. Der optimale Fokus ist dann, wenn dieser rote Saum genau verschwindet.

      Schärfeverlauf / Sensorverkippungen:
      Wir sind an sich von unseren sehr guten Fotooptiken verwöhnt, aber gerade wer Fremdobjektive oder Teleskope verschiedener Bauart an der Kamera anschließt, sollte beachten, dass man hier oft mit starken Abweichungen der Schärfe übers Bildfeld und/oder Verkippungseffekten hat.
      Wenn bei einer Optik die Schärfe stark zwischen Zentrum und Rand abweicht, dann kann es günstiger sein, nicht in der Mitte, sondern ca. 1/3 herum scharf zu stellen. Damit minimiert man dieses Ungleichgewicht.
      Wer mal einen hellen Stern möglichst groß ansieht und Fokussiert, sollte im Bildzentrum bei Intra-  und extrafokaler Betrachtung (einfach wenn man über die Schärfe in beide Richtungen hinaus fährt) alles zentrisch sehen. Das Sternchen wird ja zur Scheibe und je nach Bauart sieht man dann hellere konzentrische Ringe. Ist hier etwas verkippt, wird dieser Kreismittelpunkt nicht genau konzentrisch sein, sonder außerhalb des Zentrum liegen. Am Rand bei den Optiken  bei kleineren Brennweiten wird man staunen, wie sehr man da sieht, dass Sterne fast dreieckig abbilden. Solange das in jeder Ecke gleich aussieht, wird alles in Ordnung sein. Anders wenn es in den Ecken ungleichmäßig wird. Dann ist entweder die Optik dezentriert und/oder Sensor verkippt. Bei unseren Olympus Kameras meist nach Modifikation.
      Je lichtstärker eine Optik, desto deutlicher treten diese Fehler zu Tage. Daher sind Fernrohre ab F/5-F/6 natürlich wesentlich gutmütiger was Justierung betrifft.
      Ein Test an einer punktförmigen Lichtquelle, wie man es praktisch nur an Sternen hat, verbergen nichts was optische Fehler betrifft!
      Allerdings für die Alltagsfotografie hat das wohl zunächst kaum sichtbare Auswirkungen, durch Stacken / Mitteln viele Bilder und nachfolgender Bearbeitungsschritte kann man auch einiges korrigieren.
      Für Verkippungen an einem Teleskop gibt es eigene Ringe, womit man das dann ausgleichen kann.
      Gerade bei Fernrohren hat man zwischen Teleskop und Kamera noch sogenannte Flattener oder Komakorrektoren. Die sollen die Fehler der entsprechenden Optik ausgleichen. Hier ist es wichtig herauszufinden, ob der Flattener überhaupt für die Bauart seines Teleskopes geeignet ist.
      Da zählt nicht nur Bauart (APO oder Newton z.B.) sondern auch deren Lichtstärke. Und man muß dann den geeigneten Abstand zwischen den Flattener und dem Sensor herausfinden. Ob man dann zu weit oder zu nahe ist, zeigen einem Striche oder Banananförmige Sterne gegen den Bildrand. Und ob man dann etwas mehr Zwischenringe geben muss oder weniger kommt auf das  Teleskop an.
      Man sieht: Sobald man die normierte Fotowelt verlässt, wird es sehr kompliziert und gleich mal teuer. Gute Comakorrektoren kosten gerne mal ab 200 - sehr sehr viel mehr!


      Es gibt übrigens einen Vorteil, bewusst unscharf zu bleiben:

      Wenn man kein Weichzeichenfilter hat (Cokin P830) und man will den Sternenhimmel so abbilden, dass helle Sterne und damit die Sternbilder natürlich zu erkennen sind, kann man leicht unscharf stellen. Damit wird das Licht sehr heller Sterne über eine größere Fläche verteilt. Sie brennen dann nicht sofort aus und man sieht dann auch noch schön deren unterschiedlichen Farben, die über die Temperatur Aufschluß gibt.
      Bei gut scharf gestellten Sternen Himmel werden ja bei den üblicherweise längeren Belichtungszeiten ja alle hellen Sterne aber auch etwas schwächere Sterne sofort ausgebrannt, verlieren damit die Farben sein und das Auge sieht nur noch weiße Punkte auf schwarzem Grund. Da finden sich bald nur noch sehr Geübte zurecht.

      Hier ein Ausschnitt unbearbeitet mit dem mFT8/1.8



      möglichst selber Ausschnitt durch ein Cokin P830 Weichzeichenfilter:


    • Von Chris-W201-Fan
      Hallo zusammen,
       
      ich bin noch recht neu hier, und seht es mir bitte nach, wenn ich vielleicht etwas hie rim Forum noch nicht ganz nach den hier üblichen Gepflogenheiten mache. Sollte da was "stören" bitte einfach sagen, ich bin durchaus lernfähig 😉
       
      Kommen wir zum Thema 😉
      Ich habe eine E-M1 Mark I und auch eine E-M10 III. Bei der 10.3 kann ich im Sucher die Veränderung des Bildes sehen, wenn ich die Belichtungszeit anpasse, das zeigt mri die E-M1 nicht an.
       
      Nun habe ich dazu gestern erstmal Tante Google befragt udn habe auch mehrere Threads hier im Forum gefunden, die mir teilweise helfen konnten.
       
      Damit bin ich durchaus soweit gekommen, dass ich auf den Display hinten jetzt die Beleichtungsänderung auch in form von hellerem oder dunklerem Bild sehe. Im Sucher selbst funktioniert dies aber immer noch nicht.
      Mache ich da was falsch, oder kann die E-M1 das auf Grund ihres Alters so gar nicht?
      Wichtig ist mir das ganze eigentlich nur im M-Mous, da meine Cameras eigentlich zu 99% der Zeit nur darin benutzt werden 😉
       
      Jetzt hoffe ich mal auf die geballte Wissenssammlung des Forums, um mich hier auf zu schlauen.
       
      Ich danke euch schon jetzt mal für eure Hilfe; Danke.
       
      MfG
      Chris
       
    • Von TorstenR
      Der Bildtitel bezieht sich auf die wirtschaftlich labile Situation vieler Werften. Zu sehen sind Kräne der Pella Sietas Werft in Hamburg.
    • Von iamsiggi
      JPG, ORF oder gar Video?
      Ganz einfach: ORF !

      Wer bei gutem Licht und gleichmäßiger Ausleuchtung fotografiert findet ja üblicherweise mit dem Standard Bildformat JPG sein Auslangen. Leichte Korrekturen sind da noch möglich, aber sobald es darum geht, stärkere Farbkorrekturen oder aus sehr dunklen Stellen was ins Helle zu dringen, wird man sich wünschen auf ein RAW file zurückgreifen zu können. Bei Olympus sind das die ORF Dateien. ORI bei speziellen Modi ist auch nur ein ORF und kann man umbenennen.

      Wahrscheinlich kann man sich bei recht vollem Mond, wo es auch kaum Kontraste gibt, leisten mit JPG zu fotografieren. Sobald man aber versucht dramatische Wolkensituationen mit ins Bild zu bringen, wird man die nur noch am ORF herauskitzeln können. Bei dem hellen Vollmondlicht wird selbst das nicht gelingen, zu stark ist der Kontrast. Aber wenn man eine Situation hat, wo das Mondlicht zusätzlich durch Wolken stark gedämpft wird, kann man durchaus nette Bilder bekommen:

      Warum ist das so?
      Ein Farbbild besteht aus Pixel, die den 3 Farben: R(ot) G(rün) B(lau) zugeordnet werden. Das bekannte RGB Bild. Wie hell jetzt ein Pixel ist wir dann in der computerüblichen Diktion beschrieben. Die kleinste Einheit ist 1 Bit und hat entweder den Wert 0 oder 1. Für ein reines Schwarz/Weiß Bild reicht also 1 Bit an Information. Daher sind solche Bilder so klein. Man muss nur die Anzahl der Pixel x 1 Bit pro Pixel für die Helligkeit speichern.

      Ein JPG Bild benützt für jedes der 3 Farbpixel 8 Bit um die unterschiedlichen Helligkeitswerte abzubilden. Mit 8 Stellen 0 oder 1 kann man einen Wert von maximal 256 abbilden (2^8). 0 = schwarz 256 ist gesättigt.
      JPG hat also je Farbkanal 256 Abstufungen und 256x256x256 ergibt die große Zahl 16,77 Millionen unterschiedliche Farbtöne. Ist auf jeden Fall genug für die Anzeige.

      Die Elektronik und Sensoren der derzeitigen Olympus Kameras können die Werte des Sensors mit 12 Bit Auflösung ausgelesen. Und das findet sich in den RAW/ORF Files wieder. 2^12 sind 4096  Abstufungen je Farbkanal. Und das brauchen wir, wenn man in den dunkelsten Stellen noch brauchbare Bildinformationen herausholen will.

      Eines darf auch nicht verschwiegen werden: Das JPG Format ist ein verlustbehaftetes Format. Wie hoch der Verlust ist, hängt von der Einstellung ab, die man trifft. Dabei werden bevorzugt Werte eliminiert, die unser Auge im bestehendem Bild kaum unterscheiden kann. Dumm nur wenn man die dann hinterher herausholen wollte, dann sieht man die Kompressionsartefakte und es ist nicht mehr viel da, das man hervorholen könnte.

      Video, soweit mir bekannt, ist bei Olympus Kameras immer verlustbehaftet. Wo man es aber versuchen kann wäre bei Mond, Planeten, Sonne wo man besonders viele Bilder in möglichst kurzer Zeit sammeln will, um das Luftflimmern zu minimieren.

      Da man also möglichst keinerlei der mühsam eingefangenen Daten am Sensor verlieren will, wird man also RAW bevorzugen. Es ist das unveränderbare Original, das von der Kameraelekronik erzeugt Bild und hier wird nur ein eventuell kamerainternes Dunkelbild abgezogen.
      Weißabgleich, Entrauschen und sonstige Spezialeffekte werden lediglich als „Vorschlag“ für einen spätere Entwicklung hinterlegt, aber hatten noch keine Möglichkeit unser ORF zu verunstalten.

      RAWs sind ja kameraspezifische Formate und zur bestmöglichen Entwicklung braucht es angepasste Software . Leider lassen sich da die Kameranetwickler nicht in die Karten schauen. Olympus hat bald mal begonnen, die ORF verlustfrei zu komprimieren, darum sind sie relativ klein.
      Es gibt aber auch Freeware RAW Entwickler Module wie derzeit das derzeit meist verwendete LibRAW, worauf auch viele Programme zurückgreifen.

      TIFF: Ein sehr altes, aber daher sehr universelles Format, dass ohne Verlust 16bit Bilder speichern kann bietet sich deshalb zumindest als Austauschformat an. Da es aber nur von allen anderen Programmen gelesen werden kann, wenn keine der vielen möglichen Kompressionen angewendet wurde, sind Bilder aber recht groß.
      Wir erinnern uns: Ein Bild wird dadurch beschrieben dass man die Anzahl der Pixel * Farbtiefe (16bit) speichern muss.
      Wer z.B. ein JPG Bild mehrmals bearbeiten und speichern muss, verliert immer etwas an Information. Ob man das sieht ist natürlich eine Frage des Anspruchs. Da wäre dann auf jeden Fall angebracht sein Bild als TIFF zwischen zu speichern. Da TIFF variabel gestaltet ist wäre ein 8/24bit (3x8bit) TIFF für JPG ausreichend. Damit verliert man bei jedem Speichern zumindest nichts durch Kompression.

      Wer also Bilder in seiner „Lieblings Software“ verarbeiten will, kann mal mit einem beliebigen Programm sein 12bit ORF als 16 bit TIFF speichern. Dann findet man alle Daten unverändert im seinem TIFF Bild. Es bedarf dazu keinerlei Kaufprogramme!

      Sobald man allerdings wirklich tiefer in „Deep Sky“ Astrofotografie einsteigt, wird man beim Stacken direkt die RAW Dateien verwenden. Da liegen die Daten nämlich noch linear vor und mit den „ungestreckten“ Daten sind einige, aber wesentliche Verarbeitungsschritte um einiges leichter (für die Software) zu machen.

      Linear/ungestreckt - Was ist dass denn wieder?

      Betrachten wir den Wert der Helligkeit, den ein Pixel gerade am Sensor hat: So liegt (weitgehend) ein linearer Zusammenhang zwischen der Anzahl der Lichtteilchen und dem ausgelesenen Helligkeitswert vor: Also doppelt so viel Licht ergibt einen doppelt so hohen Wert für die Helligkeit. 4 x mehr Licht, 4x höherer Wert...
      Wir sprechen dann von linearen Daten und wenn man damit arbeitet, eben im linearen oder ungestreckten Zustand.
      Um es vorwegzunehmen: Lineare Bilder sind, zumindest bei 12 Bit, an sich schwarz am Bildschirm. Daher werden sie durch Fotosoftware bei der Entwicklung gestreckt, also delinearisiert.
      Das ist das was man herkömmlich gewohnt ist und dem entspricht wie unsere Augen und der „Prozessor“ dahinter arbeitet.
      Ein Pixel das doppelt so hell ist, ist es nachher z.b. 4x so hell. Diese Kurve, kann man dann eben ein wenig beim Entwickeln beeinflussen.
      Wer also photometrische Auswertungen, also das Messen von Helligkeiten machen will, wird nur linear arbeiten, denn wenn man nicht weiß, wie der Streckalgoritmus genau funktioniert hat, kann man nicht zurückrechnen.

      Aus demselben Grund ist es auch einfacher, Bearbeitungsmodule für lineare Bilder zu schreiben, denn bei gewissen Funktionen müsste man wissen, wie ein Bild genau gestreckt wurde weil ja kein einfacher linearer Zusammenhang zwischen Helligkeit und Signal mehr besteht.
      So gibt es bei sehr fortgeschrittenen Programmen (PixInsight, Siril) eben Programmmodule, die nur im Linearen Bereich arbeiten oder im gestreckten, aber auch Module, die in beiden Welten angewendet werden können.

      Weil es hier auch passt und warum man bei DeepSky mit RAW-Entwicklern wie LR nicht weiterkommt: Solange man die Datenwerte, die das Bild beschreiben nicht beschneidet, kann man dieses um arrangieren wie immer man will. Am schnellsten fällt einem das auf, sobald man einen mehr oder weniger großen (meist aber mehr 😉 ) Farbstich im Bild hat. Keine Panik !!! es ist mal völlig egal, denn solange alles an Werten, die die Pixel beschreiben da ist, kann man hinterher das beheben.
      Damit nichts (versehentlich) beschnitten wird, ist es wichtig, immer sehr genau auf sein Histogramm zu sehen, wenn man da etwas ändert. Das Histogramm zeigt ja die Verteilung der Helligkeiten unsere Pixel im Bild. Am linken Ende der dunkle Bereich und rechts der helle Bereich. Wer dann eben oben (heller Bereich) oder unten (am dunklen Ende) etwas verschiebt, sollte hier nichts wegschneiden. Idealerweise zeigt das Programm genau an, wie viel man an Informationen wegschneidet. Da stößt man bei Photoshop derzeit noch immer nicht genau wie viel das ist, bei PixInsight (vielleicht auch der Freeware Siril mal oder kann es bereits?) sieht man auch wie viele Pixel man genau opfert, nicht nur %. Klar, 10-50 Pixel kann man schon mal opfern, wenn man 20 Mpixel hat, aber was weg ist ist unwiederbringlich verloren.
      Und man beschneidet natürlich auch, wenn man die Farbtiefe reduziert. Also von z.B. 16 bit oder 12bit auf 8 bit wie sie bei JPG zur allgemeinen Verwendung gebräuchlich sind, geht. Man kann ja die vielen Werte nicht mehr mit weniger bit abbilden und muss sie zwangsläufig „zusammenstreichen“. Ein Zurück ist da nicht mehr, man könnte nur fehlende Zwischenwerte künstlich durch Interpolation schaffen.

      Wenn unser Kameras nur 12 bit Auflösung bieten, warum haben wir jetzt mehr als 12 Blenden Kontrastumfang ?
      Das liegt daran, dass der Sensor und die Ausleseelektronik eben so gestaltet wurde, dass er vor allem im oberen Bereich einfach nicht mehr ganz linear abbildet. Je mehr Licht, desto etwas weniger Signal wird dann „produziert“. Die hellen Stellen brennen dann nicht ganz so leicht aus.

      Hier ist auch der Vorteil von 14 oder 16 bit Sensoren, die jetzt immer mehr verfügbarer werden zu sehen.

      Jetzt rein rechnerisch betrachtet (ohne auf spezifische Sensoreigenschaften einzugehen):
      Bei einer 14 Bit „Kamera“ kann man 4x so lange belichten bis ein Pixel gesättigt (der maximale Wert der abgebildet werden kann) ist als bei einer 12 Bit Kamera. Denn der Werteraum von 12 Bit reicht nicht aus.
      Belichtet man bei 12 Bit doppelt so lange (doppelt so viel Licht) muss einen doppelt so hohen Wert abgespeichert werden können als bei 12bit, das geht nur, wenn man mindestens 13 Bit zur Verfügung hat. Und wenn man nochmals doppelt so lange belichten will, braucht es dann eben 14 Bit um den Wert abzubilden.
      2^14 sind übrigens 16384 Helligkeitswerte die ein Pixel annehmen kann. Aber auch die reichen nicht um den unheimlichen Kontrastumfang zwischen Sternen und Deep Sky Objekten abzubilden.

      In der Praxis brennen hellere Sterne unter einer Sekunde aus für den Rest sind dann 4 Minuten angesagt. Nur an besonders hellen Objekten wie die Andromeda Galaxie oder noch extremer: Orion Nebel, kommt einem das dann natürlich sehr gelegen, weil man sich zwingende unterschiedliche Belichtungsreihen einsparen kann.
      Aber um den Unterschied den 14 Bit gegen 12 Bit dann bei der eigenen Ausarbeitung noch zu nützen, bedarf es schon sehr viel Erfahrung in der Bildbearbeitung. Da liegen die Hürden über längere Zeit wohl ganz wo anders. Abhalten sollte uns dieser Unterschied jedenfalls nicht.
    • Von iamsiggi
      Eine detaillierte Ansicht des Setup für längere lichtschwache Brennweiten.

      Kamera (Olympus E-M10 mark II) mit dem 100-400mm Objektiv bei 400mm auf meiner stabilen Astromontierung (SkyWatcher AZ-EQ6 GT).
      Das Ganze wird dann vom kleinen Kasterl rechts unten gesteuert. (MGenII Autoguider).

      Der korrigiert die Genauigkeit der Nachführung indem ein kleiner Kamerakopf am Sucherfernrohr einen Stern fixiert. indem er bei Abweichungen Steuersignale an die Nachführung sendet. Daneben löst er die Kamera aus und zwischen den Belichtungen verstellt er etwas das Bildfeld (nennt sich dithering) damit nicht immer ein möglicherweise defektes Pixel mit dem selben Objektdetails belichtet wird.

      Klingt kompliziert, ist aber schnell ( ca 20 Minuten) aufgebaut und läuft dann so vor sich hin....

      Entstand einfach mit dem eingebauten Blitz der E-M10.II und dem mFT25/1.8 ......
  • Wer ist Online   0 Benutzer

    Keine registrierten Benutzer online.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung