Jump to content

Die PEN, OM-D & E-System Community
Ignoriert

OMD M1 iii RAW Dateien


Empfohlene Beiträge

Hallo Liebe Ole Freunde!

Kann mir jemand weiterhelfen bezüglich der Anzeige von Raw Dateien bei der neuen Kamera. Bei meinen Apple Geräten (IOS und OSX) werden die Raw Dateien Werder im Finder noch in FOTO angezeigt. Bei der OMD M5 Mark2 hat dies Problemlos funktioniert.

LG

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Susanne,

das liegt ausschließlich an Apple. Wenn du dir die Liste anschaust vermisst man auch Kameras anderer Hersteller, die schon länger auf dem Markt sind.

Es gibt aber zukünftig wohl auch für dich eine Lösung:

Sobald ADOBE seinen kostenlosen DNG- Konverter für die M1.3 erweitert hat ( https://supportdownloads.adobe.com/support/downloads/product.jsp?product=106&platform=Macintosh ), kannst du die ORF in ein DNG umwandeln. Dabei kann man sogar das ORF zusätzlich im DNG-Container abspeichern und später bei Bedarf wieder entpacken. Nachteil: Ein solches DNG hat dann um die 40 MB.

Das DNG liest dann auch Fotos problemlos.

Ich mache dies mit meiner M5.3 auf diese weise.

Gruß 

Karl-Heinz

bearbeitet von FotoKalle
Link zum Beitrag
Auf anderen Seiten teilen

Ja, das ist leider so,  wenn die Konvertierung generell in das Betriebssystem integriert ist, um Raws dann in allen Apps öffnen zu können. Oftmals gibt es auch kein Update für ein „älteres“ macOS vom letzten Jahr. Die zusätzlichen ORI-Dateien von HiRes können sie auch nicht öffnen, obwohl nur das 1. Bild in normaler Auflösung als Raw.

Geduld ist angesagt.

Link zum Beitrag
Auf anderen Seiten teilen
Am 1.3.2020 um 07:45 schrieb t0rge:

Die zusätzlichen ORI-Dateien von HiRes können sie auch nicht öffnen, obwohl nur das 1. Bild in normaler Auflösung als Raw.

Korrektur: die ORI-Dateien lassen sich unter macOS öffnen (= Raw des 1. Bilds), das HiRes in ORF nicht.

Warum Olympus für das 1. Raw einen neuen Dateityp eingeführt hat obwohl es dem standard-Raw entspricht, und nicht für das HiRes bleibt wohl für immer ihr Geheimnis.

Link zum Beitrag
Auf anderen Seiten teilen
vor 19 Stunden schrieb Moedlinger:

Für DxO PhotoLab User: Der geplante Raw Converter für die Mark Iii benötigt nach Auskunft des Supports dann ein Upgrade auf PhotoLab 3. 

Lieben Gruß Anton 

Das ist so nicht richtig. Ich nutze DXO PhotoLab3 seit Monaten, inzwischen 3.1.1

Leider fehlen die optischen Module für unsere M1-MKIII

SG, Heinz

Link zum Beitrag
Auf anderen Seiten teilen

Danke. Ich meinte, PhotoLab2 (das noch unter Win 7 läuft) wird keine ORF Dateien der Mark III lesen können, dafür benötigt man dann den Umstieg auf PhotoLab 3, das nur unter Win10 läuft. Die optischen Module zu einer neuen Kamera kommen immer später, so sind erst seit kurzem die Module für die beiden Converter im System (auch unter PhotoLab 2, das ich noch verwende).

Lieben Gruß Anton

Link zum Beitrag
Auf anderen Seiten teilen

Bei mir ist es so (EM-1 III mit iPad Pro 11'' und iOS 13.3.1):

  • Bilder ausschließlich mit RAW aufgenommen
  • USB-C Verbindung Kamera > iPad
  • direkter Transfer in Lightroom problemlos möglich; ABER erst nachdem ich das 3rd-Party-Kabel durch ein Apple-Kabel getauscht habe. Es werden auch *.jpg-Bilder übertragen > Dateityp im (i)-Button von Lightroom. Es kommt die volle ca. 20 MB Auflösung an.
  • (das funktioniert auch zum WIN-PC mit dem Kamerakabel USB-C zu USB-A)

Insofern habe ich kein Apple-Problem bei mir feststellen können. Den Export in die Camera-Roll von iOS teste ich später.

Gruß, Horst

Link zum Beitrag
Auf anderen Seiten teilen
vor 1 Minute schrieb haibaer49:

Bei mir ist es so (EM-1 III mit iPad Pro 11'' und iOS 13.3.1):

  • Bilder ausschließlich mit RAW aufgenommen
  • USB-C Verbindung Kamera > iPad
  • direkter Transfer in Lightroom problemlos möglich; ABER erst nachdem ich das 3rd-Party-Kabel durch ein Apple-Kabel getauscht habe. Es werden auch *.jpg-Bilder übertragen > Dateityp im (i)-Button von Lightroom. Es kommt die volle ca. 20 MB Auflösung an.
  • (das funktioniert auch zum WIN-PC mit dem Kamerakabel USB-C zu USB-A)

Insofern habe ich kein Apple-Problem bei mir feststellen können. Den Export in die Camera-Roll von iOS teste ich später.

Gruß, Horst

Nachtrag: auf dem iPad habe ich bei RAW natürlich *.ORF-Dateien

Link zum Beitrag
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

  • Gleiche Inhalte

    • Von iamsiggi
      JPG, ORF oder gar Video?
      Ganz einfach: ORF !

      Wer bei gutem Licht und gleichmäßiger Ausleuchtung fotografiert findet ja üblicherweise mit dem Standard Bildformat JPG sein Auslangen. Leichte Korrekturen sind da noch möglich, aber sobald es darum geht, stärkere Farbkorrekturen oder aus sehr dunklen Stellen was ins Helle zu dringen, wird man sich wünschen auf ein RAW file zurückgreifen zu können. Bei Olympus sind das die ORF Dateien. ORI bei speziellen Modi ist auch nur ein ORF und kann man umbenennen.

      Wahrscheinlich kann man sich bei recht vollem Mond, wo es auch kaum Kontraste gibt, leisten mit JPG zu fotografieren. Sobald man aber versucht dramatische Wolkensituationen mit ins Bild zu bringen, wird man die nur noch am ORF herauskitzeln können. Bei dem hellen Vollmondlicht wird selbst das nicht gelingen, zu stark ist der Kontrast. Aber wenn man eine Situation hat, wo das Mondlicht zusätzlich durch Wolken stark gedämpft wird, kann man durchaus nette Bilder bekommen:

      Warum ist das so?
      Ein Farbbild besteht aus Pixel, die den 3 Farben: R(ot) G(rün) B(lau) zugeordnet werden. Das bekannte RGB Bild. Wie hell jetzt ein Pixel ist wir dann in der computerüblichen Diktion beschrieben. Die kleinste Einheit ist 1 Bit und hat entweder den Wert 0 oder 1. Für ein reines Schwarz/Weiß Bild reicht also 1 Bit an Information. Daher sind solche Bilder so klein. Man muss nur die Anzahl der Pixel x 1 Bit pro Pixel für die Helligkeit speichern.

      Ein JPG Bild benützt für jedes der 3 Farbpixel 8 Bit um die unterschiedlichen Helligkeitswerte abzubilden. Mit 8 Stellen 0 oder 1 kann man einen Wert von maximal 256 abbilden (2^8). 0 = schwarz 256 ist gesättigt.
      JPG hat also je Farbkanal 256 Abstufungen und 256x256x256 ergibt die große Zahl 16,77 Millionen unterschiedliche Farbtöne. Ist auf jeden Fall genug für die Anzeige.

      Die Elektronik und Sensoren der derzeitigen Olympus Kameras können die Werte des Sensors mit 12 Bit Auflösung ausgelesen. Und das findet sich in den RAW/ORF Files wieder. 2^12 sind 4096  Abstufungen je Farbkanal. Und das brauchen wir, wenn man in den dunkelsten Stellen noch brauchbare Bildinformationen herausholen will.

      Eines darf auch nicht verschwiegen werden: Das JPG Format ist ein verlustbehaftetes Format. Wie hoch der Verlust ist, hängt von der Einstellung ab, die man trifft. Dabei werden bevorzugt Werte eliminiert, die unser Auge im bestehendem Bild kaum unterscheiden kann. Dumm nur wenn man die dann hinterher herausholen wollte, dann sieht man die Kompressionsartefakte und es ist nicht mehr viel da, das man hervorholen könnte.

      Video, soweit mir bekannt, ist bei Olympus Kameras immer verlustbehaftet. Wo man es aber versuchen kann wäre bei Mond, Planeten, Sonne wo man besonders viele Bilder in möglichst kurzer Zeit sammeln will, um das Luftflimmern zu minimieren.

      Da man also möglichst keinerlei der mühsam eingefangenen Daten am Sensor verlieren will, wird man also RAW bevorzugen. Es ist das unveränderbare Original, das von der Kameraelekronik erzeugt Bild und hier wird nur ein eventuell kamerainternes Dunkelbild abgezogen.
      Weißabgleich, Entrauschen und sonstige Spezialeffekte werden lediglich als „Vorschlag“ für einen spätere Entwicklung hinterlegt, aber hatten noch keine Möglichkeit unser ORF zu verunstalten.

      RAWs sind ja kameraspezifische Formate und zur bestmöglichen Entwicklung braucht es angepasste Software . Leider lassen sich da die Kameranetwickler nicht in die Karten schauen. Olympus hat bald mal begonnen, die ORF verlustfrei zu komprimieren, darum sind sie relativ klein.
      Es gibt aber auch Freeware RAW Entwickler Module wie derzeit das derzeit meist verwendete LibRAW, worauf auch viele Programme zurückgreifen.

      TIFF: Ein sehr altes, aber daher sehr universelles Format, dass ohne Verlust 16bit Bilder speichern kann bietet sich deshalb zumindest als Austauschformat an. Da es aber nur von allen anderen Programmen gelesen werden kann, wenn keine der vielen möglichen Kompressionen angewendet wurde, sind Bilder aber recht groß.
      Wir erinnern uns: Ein Bild wird dadurch beschrieben dass man die Anzahl der Pixel * Farbtiefe (16bit) speichern muss.
      Wer z.B. ein JPG Bild mehrmals bearbeiten und speichern muss, verliert immer etwas an Information. Ob man das sieht ist natürlich eine Frage des Anspruchs. Da wäre dann auf jeden Fall angebracht sein Bild als TIFF zwischen zu speichern. Da TIFF variabel gestaltet ist wäre ein 8/24bit (3x8bit) TIFF für JPG ausreichend. Damit verliert man bei jedem Speichern zumindest nichts durch Kompression.

      Wer also Bilder in seiner „Lieblings Software“ verarbeiten will, kann mal mit einem beliebigen Programm sein 12bit ORF als 16 bit TIFF speichern. Dann findet man alle Daten unverändert im seinem TIFF Bild. Es bedarf dazu keinerlei Kaufprogramme!

      Sobald man allerdings wirklich tiefer in „Deep Sky“ Astrofotografie einsteigt, wird man beim Stacken direkt die RAW Dateien verwenden. Da liegen die Daten nämlich noch linear vor und mit den „ungestreckten“ Daten sind einige, aber wesentliche Verarbeitungsschritte um einiges leichter (für die Software) zu machen.

      Linear/ungestreckt - Was ist dass denn wieder?

      Betrachten wir den Wert der Helligkeit, den ein Pixel gerade am Sensor hat: So liegt (weitgehend) ein linearer Zusammenhang zwischen der Anzahl der Lichtteilchen und dem ausgelesenen Helligkeitswert vor: Also doppelt so viel Licht ergibt einen doppelt so hohen Wert für die Helligkeit. 4 x mehr Licht, 4x höherer Wert...
      Wir sprechen dann von linearen Daten und wenn man damit arbeitet, eben im linearen oder ungestreckten Zustand.
      Um es vorwegzunehmen: Lineare Bilder sind, zumindest bei 12 Bit, an sich schwarz am Bildschirm. Daher werden sie durch Fotosoftware bei der Entwicklung gestreckt, also delinearisiert.
      Das ist das was man herkömmlich gewohnt ist und dem entspricht wie unsere Augen und der „Prozessor“ dahinter arbeitet.
      Ein Pixel das doppelt so hell ist, ist es nachher z.b. 4x so hell. Diese Kurve, kann man dann eben ein wenig beim Entwickeln beeinflussen.
      Wer also photometrische Auswertungen, also das Messen von Helligkeiten machen will, wird nur linear arbeiten, denn wenn man nicht weiß, wie der Streckalgoritmus genau funktioniert hat, kann man nicht zurückrechnen.

      Aus demselben Grund ist es auch einfacher, Bearbeitungsmodule für lineare Bilder zu schreiben, denn bei gewissen Funktionen müsste man wissen, wie ein Bild genau gestreckt wurde weil ja kein einfacher linearer Zusammenhang zwischen Helligkeit und Signal mehr besteht.
      So gibt es bei sehr fortgeschrittenen Programmen (PixInsight, Siril) eben Programmmodule, die nur im Linearen Bereich arbeiten oder im gestreckten, aber auch Module, die in beiden Welten angewendet werden können.

      Weil es hier auch passt und warum man bei DeepSky mit RAW-Entwicklern wie LR nicht weiterkommt: Solange man die Datenwerte, die das Bild beschreiben nicht beschneidet, kann man dieses um arrangieren wie immer man will. Am schnellsten fällt einem das auf, sobald man einen mehr oder weniger großen (meist aber mehr 😉 ) Farbstich im Bild hat. Keine Panik !!! es ist mal völlig egal, denn solange alles an Werten, die die Pixel beschreiben da ist, kann man hinterher das beheben.
      Damit nichts (versehentlich) beschnitten wird, ist es wichtig, immer sehr genau auf sein Histogramm zu sehen, wenn man da etwas ändert. Das Histogramm zeigt ja die Verteilung der Helligkeiten unsere Pixel im Bild. Am linken Ende der dunkle Bereich und rechts der helle Bereich. Wer dann eben oben (heller Bereich) oder unten (am dunklen Ende) etwas verschiebt, sollte hier nichts wegschneiden. Idealerweise zeigt das Programm genau an, wie viel man an Informationen wegschneidet. Da stößt man bei Photoshop derzeit noch immer nicht genau wie viel das ist, bei PixInsight (vielleicht auch der Freeware Siril mal oder kann es bereits?) sieht man auch wie viele Pixel man genau opfert, nicht nur %. Klar, 10-50 Pixel kann man schon mal opfern, wenn man 20 Mpixel hat, aber was weg ist ist unwiederbringlich verloren.
      Und man beschneidet natürlich auch, wenn man die Farbtiefe reduziert. Also von z.B. 16 bit oder 12bit auf 8 bit wie sie bei JPG zur allgemeinen Verwendung gebräuchlich sind, geht. Man kann ja die vielen Werte nicht mehr mit weniger bit abbilden und muss sie zwangsläufig „zusammenstreichen“. Ein Zurück ist da nicht mehr, man könnte nur fehlende Zwischenwerte künstlich durch Interpolation schaffen.

      Wenn unser Kameras nur 12 bit Auflösung bieten, warum haben wir jetzt mehr als 12 Blenden Kontrastumfang ?
      Das liegt daran, dass der Sensor und die Ausleseelektronik eben so gestaltet wurde, dass er vor allem im oberen Bereich einfach nicht mehr ganz linear abbildet. Je mehr Licht, desto etwas weniger Signal wird dann „produziert“. Die hellen Stellen brennen dann nicht ganz so leicht aus.

      Hier ist auch der Vorteil von 14 oder 16 bit Sensoren, die jetzt immer mehr verfügbarer werden zu sehen.

      Jetzt rein rechnerisch betrachtet (ohne auf spezifische Sensoreigenschaften einzugehen):
      Bei einer 14 Bit „Kamera“ kann man 4x so lange belichten bis ein Pixel gesättigt (der maximale Wert der abgebildet werden kann) ist als bei einer 12 Bit Kamera. Denn der Werteraum von 12 Bit reicht nicht aus.
      Belichtet man bei 12 Bit doppelt so lange (doppelt so viel Licht) muss einen doppelt so hohen Wert abgespeichert werden können als bei 12bit, das geht nur, wenn man mindestens 13 Bit zur Verfügung hat. Und wenn man nochmals doppelt so lange belichten will, braucht es dann eben 14 Bit um den Wert abzubilden.
      2^14 sind übrigens 16384 Helligkeitswerte die ein Pixel annehmen kann. Aber auch die reichen nicht um den unheimlichen Kontrastumfang zwischen Sternen und Deep Sky Objekten abzubilden.

      In der Praxis brennen hellere Sterne unter einer Sekunde aus für den Rest sind dann 4 Minuten angesagt. Nur an besonders hellen Objekten wie die Andromeda Galaxie oder noch extremer: Orion Nebel, kommt einem das dann natürlich sehr gelegen, weil man sich zwingende unterschiedliche Belichtungsreihen einsparen kann.
      Aber um den Unterschied den 14 Bit gegen 12 Bit dann bei der eigenen Ausarbeitung noch zu nützen, bedarf es schon sehr viel Erfahrung in der Bildbearbeitung. Da liegen die Hürden über längere Zeit wohl ganz wo anders. Abhalten sollte uns dieser Unterschied jedenfalls nicht.
    • Von Trubadour
      Hier möchte ich mal auf eine von womöglich noch mehr Sites hinweisen, die Styles für die Bildbearbeitung unter Darktable anhand von Beispielen zeigen und welche diese Styles auch zum Download anbieten:
      https://dtstyle.net/
    • Von leacaloni
      Hallo!
      Die Tough TG-6 ist ein wunderbare Instrument fü nebenbei!
      Aber: Die ORF-Dateien lassen sich sowohl in Lightroom als auch in Photoshop CS6 nicht öffnen, bzw. in DNG konvertieren.
      Hat jemand von Euch eine Lösung dafür? Adobe hat sein Camera-RAW aktualisiert.
      Gruß Jürgen
    • Von mccs
      Aufnahme mit Minolta Rokkor 1.4/50mm bei Blende 1.4. Raw entwickelt mit Photoshop. Dabei etwas gespielt mit den Reglern "Dunst entfernen" - "Klarheit" und "Dynamik". Vorher Belichtung ermitteln lassen und nachkorrigiert. Beschnitten auf 3:2.
    • Von mccs
      Aufnahme mit Minolta Rokkor 1.4/50mm bei Blende 1.4. Raw entwickelt mit Photoshop. Dabei etwas gespielt mit den Reglern "Dunst entfernen" - "Klarheit" und "Dynamik". Vorher Belichtung ermitteln lassen und nachkorrigiert. Beschnitten auf 3:2.
  • Wer ist Online   0 Benutzer

    Keine registrierten Benutzer online.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung