Jump to content

Die OM System Community

Community durchsuchen

Zeige Ergebnisse für die Stichwörter "'raw'".

  • Suche mithilfe von Stichwörtern

    Trenne mehrere Stichwörter mit Kommata voneinander
  • Suche Inhalte eines Autors

Inhaltstyp


Olympus Forum

  • Olympus-Produkte
    • Olympus News und Aktionen
    • Olympus OM-D / PEN Kameras
    • Olympus M.Zuiko Objektive
    • Olympus OM-D- & PEN-Zubehör
    • Micro Four Thirds allgemein
    • Olympus E-System, Four Thirds und Altglas
  • Fototechnik und -gestaltung
    • Software, Bildbearbeitung & Archivierung
    • Video
    • Bildgestaltung
    • Tipps & Hilfestellung
  • Forum / Community
    • Willkommen & Vorstellung
    • Events & Usertreffen
    • Success Stories
    • Small Talk
    • Gesuche
  • Bilder
    • Bildthema des Monats
    • Menschen & Portrait
    • Landschaft
    • Experiment & Kreativ
    • Sport
    • Technik
    • Architektur
    • Tiere & Natur
    • Reise und Ausflüge
  • Hamburger Olympus Stammtisch's Programm
  • Oly-Hackers's Hardware-Forum
  • Münchner Olympusstammtisch's Themen
  • Münchner Olympusstammtisch's Termine
  • Kölner Olympus Stammtisch's Themen
  • Kölner Olympus Stammtisch's Kölner Olympus Stammtisch
  • Saarland-Pfalz-Bergstrasse's Themen
  • Saarland-Pfalz-Bergstrasse's Willkommen im Club
  • Düsseldorfer Olympus Stammtisch's Themen
  • Infrarot mit Olympus's Diskussionsbereich
  • Infrarot mit Olympus's Bilder
  • Infrarot mit Olympus's Linksammlung Infrarotfotografie
  • Astrofotografie's Hardware, Methodik und Software
  • Astrofotografie's Clubverwaltung
  • Berliner Olympus Stammtisch's -Training-
  • Berliner Olympus Stammtisch's -Tips-
  • Berliner Olympus Stammtisch's -Treffen-
  • Berliner Olympus Stammtisch's -Stammtisch-
  • Hannoveraner OM - Stammtisch's Themen
  • Wochenthema's Themen
  • Oly im wilden Süden (BaWü)'s Themen

Kalender

  • Community Kalender
  • Hamburger Olympus Stammtisch's Termine
  • Münchner Olympusstammtisch's Termine
  • Kölner Olympus Stammtisch's Termine
  • Düsseldorfer Olympus Stammtisch's Termine
  • Lightpainting (Lichtkunst)'s Termine
  • Olympus Stammtisch Karlsruhe's Termine Fotostammtisch Karlsruhe
  • Westfalen's Termine
  • Astrofotografie's Termine Astrofotografie
  • Berliner Olympus Stammtisch's Termine
  • Hannoveraner OM - Stammtisch's Termine
  • Oly im wilden Süden (BaWü)'s Veranstaltungen

Finde Suchtreffer ...

Suchtreffer enthalten ...


Erstellungsdatum

  • Beginn

    Ende


Zuletzt aktualisiert

  • Beginn

    Ende


Suchtreffer filtern nach ...

Benutzer seit

  • Beginn

    Ende


Gruppe


Über mich

8 Ergebnisse gefunden

  1. mccs

    Stockach - Treppenaufgang Kirche

    Aufnahme mit Minolta Rokkor 1.4/50mm bei Blende 1.4. Raw entwickelt mit Photoshop. Dabei etwas gespielt mit den Reglern "Dunst entfernen" - "Klarheit" und "Dynamik". Vorher Belichtung ermitteln lassen und nachkorrigiert. Beschnitten auf 3:2.
  2. mccs

    Stockach - Beim Treppenaufgang Kirche

    Aufnahme mit Minolta Rokkor 1.4/50mm bei Blende 1.4. Raw entwickelt mit Photoshop. Dabei etwas gespielt mit den Reglern "Dunst entfernen" - "Klarheit" und "Dynamik". Vorher Belichtung ermitteln lassen und nachkorrigiert. Beschnitten auf 3:2.
  3. Hallo @nils-häußler, Es war sehr wahrscheinlich eine zu komplexe Frage für die nette Veranstaltung gerade eben. Aber ich würde trotzdem gerne darüber diskutieren. Deshalb präzisiere ich jetzt: Es geht mir um Darktable. Open Source bietet Ideen, Potential und in der Regel eine Kommunity, welche sich sehr gut auskennt. Hinzu kommt, dass in diesem mir wichtigen Fall (Darktable) Einsteigern eine Möglichkeit gegeben wird, kostengünstig eine semi-profesionelle RAW-Entwicklung zu nutzen und damit sehr viel über Bildentwicklung zu lernen und den eigenen "Look" zu erzeugen. Mit der neuen Sensortechnik kann ich mir vorstellen, dass die Vorzüge der OM-1 nicht 1:1 ohne Weiteres auf bestehende RAW-Algorithmen übertragbar sind. Das lässt sich womöglich auch nicht einfach mal nachprogrammieren. Wenn doch, supi... VG, jens
  4. Hallo Liebe Ole Freunde! Kann mir jemand weiterhelfen bezüglich der Anzeige von Raw Dateien bei der neuen Kamera. Bei meinen Apple Geräten (IOS und OSX) werden die Raw Dateien Werder im Finder noch in FOTO angezeigt. Bei der OMD M5 Mark2 hat dies Problemlos funktioniert. LG
  5. Hallo miteinander, ich verwalte / bearbeite meine Bilder mit Olympus Workspace. Komishcerweise zeigt mir die Software entweder RAW oder JPEG Bilder, aber nie beides gemeinsam. (was das Programm bisher machte) Habeich eine IEnstellungen übersehen? Gruß Glubbschauge
  6. JPG, ORF oder gar Video? Ganz einfach: ORF ! Wer bei gutem Licht und gleichmäßiger Ausleuchtung fotografiert findet ja üblicherweise mit dem Standard Bildformat JPG sein Auslangen. Leichte Korrekturen sind da noch möglich, aber sobald es darum geht, stärkere Farbkorrekturen oder aus sehr dunklen Stellen was ins Helle zu dringen, wird man sich wünschen auf ein RAW file zurückgreifen zu können. Bei Olympus sind das die ORF Dateien. ORI bei speziellen Modi ist auch nur ein ORF und kann man umbenennen. Wahrscheinlich kann man sich bei recht vollem Mond, wo es auch kaum Kontraste gibt, leisten mit JPG zu fotografieren. Sobald man aber versucht dramatische Wolkensituationen mit ins Bild zu bringen, wird man die nur noch am ORF herauskitzeln können. Bei dem hellen Vollmondlicht wird selbst das nicht gelingen, zu stark ist der Kontrast. Aber wenn man eine Situation hat, wo das Mondlicht zusätzlich durch Wolken stark gedämpft wird, kann man durchaus nette Bilder bekommen: Warum ist das so? Ein Farbbild besteht aus Pixel, die den 3 Farben: R(ot) G(rün) B(lau) zugeordnet werden. Das bekannte RGB Bild. Wie hell jetzt ein Pixel ist wir dann in der computerüblichen Diktion beschrieben. Die kleinste Einheit ist 1 Bit und hat entweder den Wert 0 oder 1. Für ein reines Schwarz/Weiß Bild reicht also 1 Bit an Information. Daher sind solche Bilder so klein. Man muss nur die Anzahl der Pixel x 1 Bit pro Pixel für die Helligkeit speichern. Ein JPG Bild benützt für jedes der 3 Farbpixel 8 Bit um die unterschiedlichen Helligkeitswerte abzubilden. Mit 8 Stellen 0 oder 1 kann man einen Wert von maximal 256 abbilden (2^8). 0 = schwarz 256 ist gesättigt. JPG hat also je Farbkanal 256 Abstufungen und 256x256x256 ergibt die große Zahl 16,77 Millionen unterschiedliche Farbtöne. Ist auf jeden Fall genug für die Anzeige. Die Elektronik und Sensoren der derzeitigen Olympus Kameras können die Werte des Sensors mit 12 Bit Auflösung ausgelesen. Und das findet sich in den RAW/ORF Files wieder. 2^12 sind 4096 Abstufungen je Farbkanal. Und das brauchen wir, wenn man in den dunkelsten Stellen noch brauchbare Bildinformationen herausholen will. Eines darf auch nicht verschwiegen werden: Das JPG Format ist ein verlustbehaftetes Format. Wie hoch der Verlust ist, hängt von der Einstellung ab, die man trifft. Dabei werden bevorzugt Werte eliminiert, die unser Auge im bestehendem Bild kaum unterscheiden kann. Dumm nur wenn man die dann hinterher herausholen wollte, dann sieht man die Kompressionsartefakte und es ist nicht mehr viel da, das man hervorholen könnte. Video, soweit mir bekannt, ist bei Olympus Kameras immer verlustbehaftet. Wo man es aber versuchen kann wäre bei Mond, Planeten, Sonne wo man besonders viele Bilder in möglichst kurzer Zeit sammeln will, um das Luftflimmern zu minimieren. Da man also möglichst keinerlei der mühsam eingefangenen Daten am Sensor verlieren will, wird man also RAW bevorzugen. Es ist das unveränderbare Original, das von der Kameraelekronik erzeugt Bild und hier wird nur ein eventuell kamerainternes Dunkelbild abgezogen. Weißabgleich, Entrauschen und sonstige Spezialeffekte werden lediglich als „Vorschlag“ für einen spätere Entwicklung hinterlegt, aber hatten noch keine Möglichkeit unser ORF zu verunstalten. RAWs sind ja kameraspezifische Formate und zur bestmöglichen Entwicklung braucht es angepasste Software . Leider lassen sich da die Kameranetwickler nicht in die Karten schauen. Olympus hat bald mal begonnen, die ORF verlustfrei zu komprimieren, darum sind sie relativ klein. Es gibt aber auch Freeware RAW Entwickler Module wie derzeit das derzeit meist verwendete LibRAW, worauf auch viele Programme zurückgreifen. TIFF: Ein sehr altes, aber daher sehr universelles Format, dass ohne Verlust 16bit Bilder speichern kann bietet sich deshalb zumindest als Austauschformat an. Da es aber nur von allen anderen Programmen gelesen werden kann, wenn keine der vielen möglichen Kompressionen angewendet wurde, sind Bilder aber recht groß. Wir erinnern uns: Ein Bild wird dadurch beschrieben dass man die Anzahl der Pixel * Farbtiefe (16bit) speichern muss. Wer z.B. ein JPG Bild mehrmals bearbeiten und speichern muss, verliert immer etwas an Information. Ob man das sieht ist natürlich eine Frage des Anspruchs. Da wäre dann auf jeden Fall angebracht sein Bild als TIFF zwischen zu speichern. Da TIFF variabel gestaltet ist wäre ein 8/24bit (3x8bit) TIFF für JPG ausreichend. Damit verliert man bei jedem Speichern zumindest nichts durch Kompression. Wer also Bilder in seiner „Lieblings Software“ verarbeiten will, kann mal mit einem beliebigen Programm sein 12bit ORF als 16 bit TIFF speichern. Dann findet man alle Daten unverändert im seinem TIFF Bild. Es bedarf dazu keinerlei Kaufprogramme! Sobald man allerdings wirklich tiefer in „Deep Sky“ Astrofotografie einsteigt, wird man beim Stacken direkt die RAW Dateien verwenden. Da liegen die Daten nämlich noch linear vor und mit den „ungestreckten“ Daten sind einige, aber wesentliche Verarbeitungsschritte um einiges leichter (für die Software) zu machen. Linear/ungestreckt - Was ist dass denn wieder? Betrachten wir den Wert der Helligkeit, den ein Pixel gerade am Sensor hat: So liegt (weitgehend) ein linearer Zusammenhang zwischen der Anzahl der Lichtteilchen und dem ausgelesenen Helligkeitswert vor: Also doppelt so viel Licht ergibt einen doppelt so hohen Wert für die Helligkeit. 4 x mehr Licht, 4x höherer Wert... Wir sprechen dann von linearen Daten und wenn man damit arbeitet, eben im linearen oder ungestreckten Zustand. Um es vorwegzunehmen: Lineare Bilder sind, zumindest bei 12 Bit, an sich schwarz am Bildschirm. Daher werden sie durch Fotosoftware bei der Entwicklung gestreckt, also delinearisiert. Das ist das was man herkömmlich gewohnt ist und dem entspricht wie unsere Augen und der „Prozessor“ dahinter arbeitet. Ein Pixel das doppelt so hell ist, ist es nachher z.b. 4x so hell. Diese Kurve, kann man dann eben ein wenig beim Entwickeln beeinflussen. Wer also photometrische Auswertungen, also das Messen von Helligkeiten machen will, wird nur linear arbeiten, denn wenn man nicht weiß, wie der Streckalgoritmus genau funktioniert hat, kann man nicht zurückrechnen. Aus demselben Grund ist es auch einfacher, Bearbeitungsmodule für lineare Bilder zu schreiben, denn bei gewissen Funktionen müsste man wissen, wie ein Bild genau gestreckt wurde weil ja kein einfacher linearer Zusammenhang zwischen Helligkeit und Signal mehr besteht. So gibt es bei sehr fortgeschrittenen Programmen (PixInsight, Siril) eben Programmmodule, die nur im Linearen Bereich arbeiten oder im gestreckten, aber auch Module, die in beiden Welten angewendet werden können. Weil es hier auch passt und warum man bei DeepSky mit RAW-Entwicklern wie LR nicht weiterkommt: Solange man die Datenwerte, die das Bild beschreiben nicht beschneidet, kann man dieses um arrangieren wie immer man will. Am schnellsten fällt einem das auf, sobald man einen mehr oder weniger großen (meist aber mehr 😉 ) Farbstich im Bild hat. Keine Panik !!! es ist mal völlig egal, denn solange alles an Werten, die die Pixel beschreiben da ist, kann man hinterher das beheben. Damit nichts (versehentlich) beschnitten wird, ist es wichtig, immer sehr genau auf sein Histogramm zu sehen, wenn man da etwas ändert. Das Histogramm zeigt ja die Verteilung der Helligkeiten unsere Pixel im Bild. Am linken Ende der dunkle Bereich und rechts der helle Bereich. Wer dann eben oben (heller Bereich) oder unten (am dunklen Ende) etwas verschiebt, sollte hier nichts wegschneiden. Idealerweise zeigt das Programm genau an, wie viel man an Informationen wegschneidet. Da stößt man bei Photoshop derzeit noch immer nicht genau wie viel das ist, bei PixInsight (vielleicht auch der Freeware Siril mal oder kann es bereits?) sieht man auch wie viele Pixel man genau opfert, nicht nur %. Klar, 10-50 Pixel kann man schon mal opfern, wenn man 20 Mpixel hat, aber was weg ist ist unwiederbringlich verloren. Und man beschneidet natürlich auch, wenn man die Farbtiefe reduziert. Also von z.B. 16 bit oder 12bit auf 8 bit wie sie bei JPG zur allgemeinen Verwendung gebräuchlich sind, geht. Man kann ja die vielen Werte nicht mehr mit weniger bit abbilden und muss sie zwangsläufig „zusammenstreichen“. Ein Zurück ist da nicht mehr, man könnte nur fehlende Zwischenwerte künstlich durch Interpolation schaffen. Wenn unser Kameras nur 12 bit Auflösung bieten, warum haben wir jetzt mehr als 12 Blenden Kontrastumfang ? Das liegt daran, dass der Sensor und die Ausleseelektronik eben so gestaltet wurde, dass er vor allem im oberen Bereich einfach nicht mehr ganz linear abbildet. Je mehr Licht, desto etwas weniger Signal wird dann „produziert“. Die hellen Stellen brennen dann nicht ganz so leicht aus. Hier ist auch der Vorteil von 14 oder 16 bit Sensoren, die jetzt immer mehr verfügbarer werden zu sehen. Jetzt rein rechnerisch betrachtet (ohne auf spezifische Sensoreigenschaften einzugehen): Bei einer 14 Bit „Kamera“ kann man 4x so lange belichten bis ein Pixel gesättigt (der maximale Wert der abgebildet werden kann) ist als bei einer 12 Bit Kamera. Denn der Werteraum von 12 Bit reicht nicht aus. Belichtet man bei 12 Bit doppelt so lange (doppelt so viel Licht) muss einen doppelt so hohen Wert abgespeichert werden können als bei 12bit, das geht nur, wenn man mindestens 13 Bit zur Verfügung hat. Und wenn man nochmals doppelt so lange belichten will, braucht es dann eben 14 Bit um den Wert abzubilden. 2^14 sind übrigens 16384 Helligkeitswerte die ein Pixel annehmen kann. Aber auch die reichen nicht um den unheimlichen Kontrastumfang zwischen Sternen und Deep Sky Objekten abzubilden. In der Praxis brennen hellere Sterne unter einer Sekunde aus für den Rest sind dann 4 Minuten angesagt. Nur an besonders hellen Objekten wie die Andromeda Galaxie oder noch extremer: Orion Nebel, kommt einem das dann natürlich sehr gelegen, weil man sich zwingende unterschiedliche Belichtungsreihen einsparen kann. Aber um den Unterschied den 14 Bit gegen 12 Bit dann bei der eigenen Ausarbeitung noch zu nützen, bedarf es schon sehr viel Erfahrung in der Bildbearbeitung. Da liegen die Hürden über längere Zeit wohl ganz wo anders. Abhalten sollte uns dieser Unterschied jedenfalls nicht.
  7. Hier möchte ich mal auf eine von womöglich noch mehr Sites hinweisen, die Styles für die Bildbearbeitung unter Darktable anhand von Beispielen zeigen und welche diese Styles auch zum Download anbieten: https://dtstyle.net/
×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung