Jump to content

Die OM System Community
Ignoriert

irgendwie unscharf


Empfohlene Beiträge

Hallo Fotofreunde,

ich habe ja zu meiner em10mii die em5mii wegen des besseren Stabis, dem Highres und Klappdisplay gekauft. Alles andere ist ja sehr ähnlich der em10mii und ich bin auch super zufrieden. 

Nun ist mir aber bei Objektivtest zufällig aufgefallen, dass die em5 deutlich unschärfer abbildet. Wenn ich also mit genau den gleichen Voraussetzungen und  Einstellungen das selbe Bild mache, (12-100, mit und ohne Stabi) und ich dann in das fertige Bild reinzoome, kann ich bei der em10mii locker auf eine 7x fache Vergrößerung zoomen und das Bild ist immer noch sehr gut. Bei der em5mii ist bei der 3x fachen Vergrößerung schluss. Das Bild sieht dann so aus, als wenn ich bei der 10er auf maximale Zoomstufe bin. Also verschwommen.

Klar, das fällt nur bei dieser extremen Betrachtung auf, aber trotzdem, irgendwie stört mich das. 

Habt Ihr eine Idee, was das sein könnte. Ich habe schon alles durchgesehen und verglichen. Bin aber nicht fündig geworden.

Gruß in die Runde

 

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Minuten schrieb olyander1971:

auf eine 7x fache Vergrößerung zoomen

Also auf dem Display? Fotografierst du vielleicht Jpg mit der EM10 und RAW mit der EM5? Bei nur RAW ist das eingebettete Jpg Bild kleiner. Mal auf dem PC angeschaut?

Gruss Jochen

Link zu diesem Kommentar
Auf anderen Seiten teilen

Alles was bei den meisten Kameramodellen über eine 3x Fache Vergrößerung geht wird auf dem Kameradisplay unscharf dargestellt. Einige Kameras können die Darstellung bis 5x Fach Vergrößerung. Danach wird die Auflösung reduziert.  Dies ist einzig und allein der Prozessor Leistung für die Darstellung geschuldet. 

Warum auch,deine Schärfe entsteht über die Kamera Objektiv Kombination. 

Ist das Bild gemachte unscharf, ist der Fehler hier, im eingestellten Menu  oder hinter dem Sucher zu suchen. 

Grüße Wolfgang 

bearbeitet von blitz
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo nochmal, ich habe bei beiden Kameras SF+RAW eingestellt. Demnach sollte die Bildansicht auf dem Display dann auch gleich sein, oder? Und, ich habe beide Kameras auf das gleich eingestellte Stativ gesetzt und mit Selbstauslöser 12sec. fotografiert. Gleiche ISO/Verschlusszeit und Brennweite. Fokusiert habe ich manuell mit Fokuspeaking. Demnach sollten die Voraussetzungen gleich sein. 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 26 Minuten schrieb popeye71:

Demnach sollten die Voraussetzungen gleich sein. 

 

Vermutlich sind die Bilder auch gleich. Wie schon ausgeführt wurde hat die vergrößerte Darstellung auf dem Display nicht unbedingt etwas mit dem real gespeicherten Bild zu tun.

Möglicherweise benutzen die beiden Kameras unterschiedliche Software-Interpolationen für die Anzeige auf dem Display.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo in die Runde,

ich habe nun nochmal die Bilder betrachtet und auch zusätzlich neue gemacht. Ich bin die einzelnen Menüpunkte ebenfalls durchgegangen um ja auch die gleichen Einstellungen zu haben. Es ist so, die EM10 bildet schärfer ab als die em5. Ich habe die beiden Bilder beigefügt und hoffe, dass man das irgendwie erkennen kann. Das Motiv spielt jetzt keine Rolle. wie seht ihr das?

em5.jpg

em10.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Stunden schrieb wolfcgn:

Äh ja... reine Neugier von mir - nutzt Du verschiedene Profile, unter denen Du hier schreibst?

... ja, und ich bitte die Admins ganz offiziell darum, dass der eine gelöscht wird und der "alte" (popeye71) erhalten bleibt. Die Profile springen ständig hin und her !

Link zu diesem Kommentar
Auf anderen Seiten teilen

m5-m10.jpg.f247ac668fe0c5fa0a86cb1cb3fce6b5.jpg

Also - gehen wir mal systematisch an das Thema ran...

Beide Kameras haben eine Sensorauflösung (4:3) von 4.608 x 3.456 Pixel. Das ist für alle weiteren Betrachtungen wichtig!

Was ist eigentlich (Bild-) Schärfe? Meist meint man damit, wie klein ein kleines Teil abgebildet werden kann. Daher mal ganz genau: wir haben ein kleines Objekt (Stecknadel), das abgebildet werden soll. Wenn wir das gleiche Objektiv nehmen und Abstand, Beleuchtung und Belichtung (=Blende und Zeit) sind gleich und zusätzlich noch die Entfernung sorgfältig eingestellt ist, dann entsteht auf einer Leinwand ein identisch gleiches Bild. In einer Kamera ist die Leinwand der Sensor. Die Fläche beider Sensoren ist gleich gross (sonst würden Objektive unterschiedlich abbilden). Die Anzahl der Pixel in Breite und Höhe ist auch gleich. Wenn also nun das Abbild einer sehr dünnen Stecknadel auf dem Sensor kleiner ist als die Pixelbreite dort, dann kann nicht mehr entschieden werden, wo die Kante der Stecknadel genau ist. Das Pixel hat ja nur einen Lichtwert, egal, ob das Stecknadelbild mehr links oder rechts ist. Der Ort kann nicht noch genauer bestimmt werden.

Entspricht das Stecknadelabbild grössenmässig aber etwa einer Pixelbreite, dann muss man mind. 2 Fälle unterscheiden:
1. Das Abbild "füllt" ein Pixel genau aus: dann ist die Schärfe 100%
2. Das Abbild liegt auf der Kante zwischen 2 Pixeln: Dann ist die Schärfe nur noch 50%. Jedes der beiden beteiligten Pixel macht Fehler. Niemand kann z.B. sagen, ob das Abbild parallel zur Pixelkante oder diagonal liegt. Eigentlich kann man in diesem Fall gar nichts mehr sagen. Eine Leinwand hat mit einer genauen Abbildung keine Probleme, da sie keine Pixel hat. Die Pixel spielen also eine entscheidende Rolle. Denn: jedes Pixel "mischt" Farb- und Helligkeitsunterschiede zu einem Mittelwert.

Überlegt man sich das mal genau zu Ende, kann es keine Unterschiede in der Schärfe geben bei Sensoren, die gleich gross sind, gleichgrosse Pixel haben und gleiche Anzahl und Verteilung. Das sind rein pysikalische Grössen mit immer gleichen Ergebnis. 4.608 x 3.456 Pixel bilden ausschliesslich 4.608 x 3.456 ab. Weniger geht, aber mehr geht nicht!

Daher muss ein etwaiger Schärfeunterschied (im Bild sichtbar) andere Ursachen haben. Was passiert denn beim schärfen? Zusätzliche Pixel einbauen, um eine Kante genauer darstellen zu können, wäre der einzig korrekte Weg. Aber genau der funktioniert digital nicht, weil: die Pixel bleiben so, wie sie definiert sind. In Grösse und Lage!

Man behilft sich mit einem Trick: das Bild wird auf Helligkeitsunterschiede bei benachbarten Pixeln untersucht (im Abbild ist eine Hauskante der Ort mit grösseren Helligkeits- oder Farbunterschieden). Sind solche gefunden, erhöht man den Kontrast dieser benachbarten Pixel und erzeugt so einen schärferen Bildeindruck. Übertreibt man das, bilden sich allerdings hässliche Klötzchen, das Bild wird unbrauchbar.

Zur Befürchtung, dass eine M5 unschärfer ist als eine M10: komplett unbegründet, kann nicht sein, physikalisch nicht möglich.
Das Abbild erscheint jedoch anders; es ist bereits massiver vorgeschärft. Das M5-Bild kann ich noch weiter schärfen, Klötzchen erscheinen erst später.

Im angefügten 100% Beispielbild habe ich M5II mit Photoshop maskiert geschärft (0,7 Pixel, 250%, 5 Stufen). Voilà - nun ist die M10 unschärfer. :classic_cool:
Musste das Bild abschneiden, da hier nur 1000x1000 Pixel zulässig sind und wir brauchen 100% Bilddarstellung.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Antwort: keinen. Voraussetzung bei solchen Vergleichen muss doch sein: Bis auf den Sensor alles gleich (Optik, Beleuchtung, Belichtung, ISO usw.).

Also: bei beiden Kamera MUSS das gleiche Objektiv mit exakt den gleichen Einstellungen verwendet werden (also Objektiv umschrauben von Kamera zu Kamera!).

Sonst vergleichen wir Objektive...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die Filter sitzen vor dem Sensor. (SSWF, Infrarot, UV, Tiefpass (mal mehr, mal weniger)). Der Filterstack ist bei MFT knapp 4 mm stark und wird bei der Objektivrechnung berücksichtigt. Im Blog von Lensrentals gibt es dazu interessante Artikel.

Gruß

Wolfgang

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 21 Stunden schrieb mccs:

Antwort: keinen. Voraussetzung bei solchen Vergleichen muss doch sein: Bis auf den Sensor alles gleich (Optik, Beleuchtung, Belichtung, ISO usw.).

Also: bei beiden Kamera MUSS das gleiche Objektiv mit exakt den gleichen Einstellungen verwendet werden (also Objektiv umschrauben von Kamera zu Kamera!).

Sonst vergleichen wir Objektive...

... also erstmal vielen Dank für die Darstellung. Etwas harte Kost und ich musste das auch 2x durchlesen :-) aber jetzt habe ich das soweit verstanden nur, hatte ich doch alles bei beiden Kameras identisch eingestellt. Heißt das für mich jetzt, das im Grunde "nur" die Software in der Kamera schon mehr schärft? Das könnte ich vielleicht bei einem JPG verstehen aber bei einem RAW? da sollte es doch dann gleich sein!

Hm......?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich klinke mich mal in das Thema ein, da ich bei meiner Em1 II gegen die Em10 II das gleiche beobachte! Und ich kann es mir auch nicht erklären. 

Gleiche Einstellung, Stativ, RAW

Betrachtet in Lightroom bei 100% 

Der Unterschied ist nicht riesig, aber sichtbar. Sogar im Vergleich zur EM10 I. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb einmanaulfur:

Ich klinke mich mal in das Thema ein, da ich bei meiner Em1 II gegen die Em10 II das gleiche beobachte! Und ich kann es mir auch nicht erklären. 

Gleiche Einstellung, Stativ, RAW

Betrachtet in Lightroom bei 100% 

Der Unterschied ist nicht riesig, aber sichtbar. Sogar im Vergleich zur EM10 I. 

Bin jetzt nicht der große Kenner von Lightroom. Stimmen den die Kameraprofile in Lightroom für die Kameras? Nicht das es hier zu Eingriffen und den von dir genannten Unterschieden kommt.

Grüße Wolfgang 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich antworte nochmal:

Verwendet man Adobe-Produkte zur Bildbearbeitung (RAW bzw. ORF, immer auch bei  JPG), wird automatisch ein nicht änderbares Entwicklungsprofil vorgegeben.

Ich füge hier mal 3 Screenshots ein, die das zeigen:
1. Bild aufgenommen mit M.Zuiko digital 1:2,8 12-40mm: Profil fest vorgegeben (s. Pfeil)
2. Bild aufgenommen mit Altglas Minolta Rokkor 1:3,5 35-70mm: (für dieses Objektiv habe ich noch kein Profil) Pfeile beachten, Vorgabe für mögliche Einstellungen.
3. Bild aufgenommen mit Altglas Minolta Rokkor 1:3,5 35-70mm: hier habe ich zur Demonstration ein falsches Objektiv ausgewählt, nämlich 1:2 45mm.

In den Objektivprofilen sind feste Vorgaben enthalten, um Objektivfehler beim Entwickeln zu korrigieren (z.B. Kissen-/Tonnenverzeichnung, Vignetierung, Farbringe (CA's), Schärfung ua.). Für M. Zuiko-Objektive sind die fest und nicht veränderbar, bei den Altglas Minolta kann ich eingreifen und/oder mir selber ein passendes Profil erstellen.

Da in unserem Beispiel sich nur die Kamera geändert hat (also nur der Sensor), können vorgeschaltete Filter bezüglich der Schärfe keine Rolle spielen (solange Pixel bei beiden Sensoren exakt gleiche Breite und Höhe haben) und: wenn das selbe Objektiv angeschraubt wird. Schärfe ist allein eine Funktion der zugrundeliegenden Pixel. Die Filter beeinflussen nur Dinge wie Farbfilterung (Bayer) und Kontrastunterschiede benachbarter Pixel (für Autofocus) u.a., aber nie die Schärfe.

Es gibt andere Bildbearbeitungsprogramme (z.B. DxO), wo die Objektivparameter immer einstellbar bleiben - mit teilweise erstaunlichen Ergebnissen. Ein Beispiel ist hier zu bestaunen: Beispiel für Verzeichnung

 

scharf-1.jpg

scharf-2.jpg

scharf-3.jpg

bearbeitet von mccs
Schreibfehler
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb mccs:

Die Filter beeinflussen nur Dinge wie Farbfilterung (Bayer) und Kontrastunterschiede benachbarter Pixel (für Autofocus) u.a., aber nie die Schärfe.

Irrtum! Vor nicht so lang vergangener Zeit war eine der Hauptaufgaben des Filterstacks Unschärfe zu erzeugen um Moiré und Treppchen zu vermindern. Wie stark sich das heute Software und Glas teilen, weiß niemand von uns. „Kein Tiefpassfilter“ bedeutet nicht, dass UV und Infrarot nicht mehr rausgefiltert werden müssen. Welchen Einfluss (fehlende) 4 mm optisches Glas im Strahlengang haben, ist sehr eindrucksvoll hier zu lesen: 

https://www.lensrentals.com/blog/2014/06/the-glass-in-the-path-sensor-stacks-and-adapted-lenses/

Gruß

Wolfgang

Link zu diesem Kommentar
Auf anderen Seiten teilen

Physikalisch bzw. optisch gesehen ist die maximale Schärfe der kleinste Abstand einzelner Bildpixel unterschiedlicher Helligkeit. In einem Siemensstern kann man den Abstand einzelner Linien stufenlos ändern, insbesondere so weit verkleinern, bis einzelne schwarze Linien nicht mehr unterscheidbar sind. Dort zerfliessen sie zu einer grauen Fläche. So kann man die maximal sinnvolle Schärfe definieren. Das menschliche Auge (und seine beschränkte Fähigkeit) spielt dabei die Hauptrolle und bestimmt sogar die Einheit.

Physikalisch bleibe ich dabei: die Schärfe wird allein durch Anordnung und Grösse von Pixeln auf einem Sensor bestimmt. Übrigens: wenn man eine einheitlich mittelgraue Fläche fotografiert, kann man nie Schärfeunterschiede im fertigen Bild entdecken! Richtiger Fokus oder Schärfeleistung vom Objektiv: egal !?!
Wenn dann Kameras nicht mehr durchblicken und aus mittelgrauen Flächen farbige Punkte produzieren - dann ist sie reif für den Müll! Das Beispiel zeigt aber auch: landläufig versteht man unter höherer Schärfe ausschliesslich höheren Kontrast! Die optische (Schärfe-) Leistung eines Objektivs (wieviele Linien kann es pro mm?) wird übrigens genau so definiert.

Den Bericht hinter dem obigen Link beschreibt teilweise schlechtere Ergebnisse, wenn man nicht füreinander konstruierte Objektive und Kameras kombiniert und einsetzt. Am Ende wird dann der Kontrast am Sensor gemessen und wie folgt bewertet: hoher Kontrast = hohe Schärfe. Mehr nicht. Allgemeingültig ist da nichts. Nirgendwo steht da, dass ein 4mm dicker Filter-/Glasstapel zu schlechten Ergebnissen führt. Sondern höchstens nur: Kamera und Objektiv haben (vermutlich) dann optimale Schärfe (=Kontrast), wenn Objektiv und Kamera für einen gleich dicken Glasstapel berechnet wurden.

Interessant jedoch genannte Ergebnisse beim 35mm Leitz Objektiv: dort ist die Rede von Astigmatismus - ein starker Hinweis, dass einzelne Linsen im optischen Weg nicht 100% zentriert oder winkelrecht eingebaut sind. Ich denke, bei Leitz Objektiven ist das sehr unwahrscheinlich, da kommt wohl nur ein Metabones-Adapter in Frage.

Was mir aber komplett fehlt ist der Versuchsaufbau. Ohne Kenntnis des Aufbaus ist eine Fehlerbetrachtung unmöglich. Wieder ein Beispiel, dass im Internet vorwiegend Unsinn zu finden ist (oder wie Trump sagt: "Fake").

Nehmen wir mal an, ein 4mm Glass-/Filterstapel verschlechtere immer die Schärfe (genauer: den Kontrast an Kanten im Bild). Dann wäre der Blick durch eine Fensterscheibe unscharf sehen! Bzw. genauer: man müsste einen Kontrastverlust sehen können. Sieht das jemand? Mit seiner Antwort hat jeder den obigen Bericht bewertet.

Natürlich gibt es noch andere Dinge bei der Entstehung digitaler Bilder, die man sehen muss. Manchmal lässt man grundsätzlich schwerwiegende Nachteile links liegen und diskutiert heftig an Nebenschauplätzen. Ein Beispiel: Jeder Sensor hat einzelne Pixel, also kleine Flächenstücke, die einen definierten Strom erzeugen, wenn Licht auf das Pixel fällt. Jedes Pixel kann also nur messen, wie hell es ist. Bei Farbbildern will man aber Farben messen und benutzt dazu einen sog. Bayer-Filter. Wenn bestimmte Filter vor dem Pixel nur rotes Licht durchlassen, kann man dort (und nur dort) rote Helligkeit messen. Durch besondere Filter kann ich also rot-grün-blau (oder RGB) getrennt messen und später im Bild einem farbigen Bildpunkt berechnen. Der Sensor mit Bayer-Filter liefert die Rohdaten. Er nutzt für einen farbigen Bildpunkt 2 grüne und je 1 rotes und blaues Pixel. Ein Bildpunkt in Farbe "verbraucht" 4 Pixel; ein 16 Megapixel-Sensor kann so "eigentlich nur noch" 4 Millionen farbige Bildpunkte. 🤨

Ja, es wird sogar noch abstruser: wenn eine Hausecke aus der Realwelt durch eine Optik auf einen Sensor abgebildet wird, verbraucht man (mindestens) 4 Pixel (in Anordnung 2x2), um eine Kante am korrekten Sensor-Ort farbig abzubilden. 2 Pixel breit sind aber niemals genau! Ausserdem muss man noch Farben aus benachbarten Pixeln in einen passenden Bildinhalt umrechnen. Um einen Farbpunkt im Bild zu sehen, muss ich (mindestens) 4 Pixel anschauen. Die Lage einer Kante kann so nie durch ein Pixel beschrieben werden; Unschärfe ist da bereits ins System eingebaut: statt 1 genauen Pixel brauche ich (mindestens) deren 4 mit (mindestens) 4 unterschiedlichen Orten. Wie genau schiesst ein Gewehr, wenn es beim Zielen auf 1 Pixel alle Treffer auf (mindestens) 4 Pixel verteilt? 😬

Zurück zur Schärfe bzw. zum Anfang dieses Threats: die Hersteller von MFT-Kameras und Objektiven wissen vom 4mm Glasstapel am Sensor und werden alles optimal berechnen. Wenn ich aber Altglas unterschiedlicher Hersteller "gesetzeswidrig" an die MFT-Kamera schraube und verwende, kann es sein, dass sich ein Objektiv als unbrauchbar herausstellt. Vielleicht ist dann der Glasstapel schuld. Vielleicht passt auch was anderes nicht. Wir wissen es nicht.

Komischerweise besitze ich kein schärferes Objektiv als ein Minolta-Makro-Objektiv aus 1975; da kann selbst das 1:2,8 12-40mm Pro am Ende (DIN A2 Print) nicht mithalten. Alles betrachtet nach der Kohl-Regel: entscheidend ist das, was hinten raus kommt (also nach Bildbearbeitung).

Bei der Bewertung unterschiedlich scharf aussehender Bilder von M5 und M10 bleibe ich dabei: nur Software ist schuld. Aber mit Bildbearbeitung sind mir (unscharfe) Bilder aus der M5 lieber, weil ich dann was besser brauchbares hinten raus bekommen kann. Die Rohdaten sind gleich, wenn beide Kameras gleich eingesetzt werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb mccs:

Den Bericht hinter dem obigen Link beschreibt teilweise schlechtere Ergebnisse, wenn man nicht füreinander konstruierte Objektive und Kameras kombiniert und einsetzt.

Nein

vor 2 Stunden schrieb mccs:

Am Ende wird dann der Kontrast am Sensor gemessen und wie folgt bewertet: hoher Kontrast = hohe Schärfe.

Nein

vor 2 Stunden schrieb mccs:

Was mir aber komplett fehlt ist der Versuchsaufbau. Ohne Kenntnis des Aufbaus ist eine Fehlerbetrachtung unmöglich. Wieder ein Beispiel, dass im Internet vorwiegend Unsinn zu finden ist (oder wie Trump sagt: "Fake").

https://wordpress.lensrentals.com/blog/2014/03/rogers-new-toy-needs-a-name/

http://www.olafoptical.com/home.html

 

Geh einfach davon aus, dass es auch im Internet Menschen gibt, die wissen was sie tun.

Dort werden die Optiken vermessen, ohne Einfluss des Kamerasensors,  auf der optischen Bank. Das tun sie dort zur Qualitätssicherung für den eigenen Verleihservice und inzwischen als Dienstleistung für andere.

 

vor 2 Stunden schrieb mccs:

Nirgendwo steht da, dass ein 4mm dicker Filter-/Glasstapel zu schlechten Ergebnissen führt.

Das stimmt. Das steht da wirklich nirgendwo.

Da steht, dass die Herren Cicala (Lensrentals) und Caldwell (Entwickler des Metabones Speedboosters) beim Testen des Prototyps eines Speedboosters für MFT auf der optischen Bank, nicht das erwartete Ergebnis erreichten. Nach Beilegen von 4 mm optischem Glas (entspricht in der Dicke dem MFT-Filterstack) war dann alles gut. (stark verkürzte Darstellung).

Warum nun diese lange Antwort - deine noch längeren Darstellungen beziehen sich auf ein optisches System, dass so in einer Olympus-Kamera nicht existiert.

Veteranen werden sich noch erinnern, dass die Bilder aus der E-1 in jedem damaligen Test durchfielen und stark geschärft werden mussten ( nicht wahr HKO 😉 ) - Ursache - der extreme Tiefpass vor dem Sensor.

Deshalb mein erster Hinweis ganz oben - ungleiche Schärfe bei gleichen Sensoren in unterschiedlichen Kameramodellen kann durch das Filterpaket vor dem Sensor erzeugt werden.

Gruß

Wolfgang

 

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 46 Minuten schrieb wteichler:

Deshalb mein erster Hinweis ganz oben - ungleicher Schärfe bei gleichen Sensoren in unterschiedlichen Kameramodellen kann durch das Filterpaket vor dem Sensor erzeugt werden

Es ist vergebene Liebesmühe. Er braucht doch bloß vorn reinzuschauen, um zu erkennen, dass da nicht nur der Filterstack vorm Sensor kommt sondern auch noch die Scheibe vom SSWF. Und wenn er ein paar mal auf IR umgebaut hat, sieht er alleine an der Farbe, dass dieser Stack keineswegs für alle Kameras gleich ist - Standard hin oder her. Und er würde merken, dass das Ergebnis mal richtig schlecht wird, wenn nur noch der SSWF drin ist.

Aber es ist natürlich schön, wenn man in einer schwarz-weißen, kugelförmigen Welt im Vakuum lebt.

Viele Grüße, Alex

Link zu diesem Kommentar
Auf anderen Seiten teilen

Zitat

Geh einfach davon aus, dass es auch im Internet Menschen gibt, die wissen was sie tun.

Gerne. Aber dann verlange ich auch ausreichende Informationen über das Behauptete und wie es zustande kommt. Dazu gehört nun mal unverzichtbar Versuchsaufbau und Fehlerbetrachtung. Ist in der Wissenschaft so üblich. Sagt man doch: "Wer misst misst Mist!".

Zitat

Dort werden die Optiken vermessen, ohne Einfluss des Kamerasensors,  auf der optischen Bank. Das tun sie dort zur Qualitätssicherung für den eigenen Verleihservice und inzwischen als Dienstleistung für andere.

Und hier sind wir an dem entscheidenden Punkt: es werden Optiken vermessen. Also einfach gesprochen: schwarze Rohre mit Linsen drin. Kein Wort von Sensoren, Pixeln, Abbildungseigenschaften, Verschlüssen, Blenden, Software usw.
Zum Testen werden 3 Kollimatore verwendet. Ein einfacher Kollimator ist z.B. die Beleuchtung für ein Mikroskop. So bezeichnet man Geräte, die paralleles Licht erzeugen können. Streng mathematisch ist das auch machbar; man braucht "nur" eine punktförmige Lichtquelle und eine Lupe. Das Problem ist: es gibt keine punktförmigen Lichtquellen. Und somit ist kollineares Licht nicht herstellbar. Man kann die Genauigkeit sehr weit treiben und den Punkt sehr klein machen. Aber Durchmesser Null geht nicht. Also wieder ein Fehler in der Messvorrichtung und ich möchte/muss wissen, wie gross der ist und wie er sich auswirkt.

Man schickt das parallele Licht durch kleinste Öffnungen mit 5µm. Was ist mit Beugung? Die Lichtpunkte zeigen alle RGB-Farben. Warum nimmt man nicht monochromatisches Licht? So spielt auch eine Rolle, ob die zu testende Optik nur achromatisch oder apochromatisch korrigiert ist. Sowohl Beugung im Messgerät als auch Farbfehler in der Optik können schlechte Farbpunkte erzeugen. Auch eine kleine Blende erzeugt schlechte Farbpunkte. Es soll Fälle geben, wo sich Fehler in der Messvorrichtung und im fehlerhaft funktionierenden Gerät gegenseitig aufheben. Ein Beispiel: Da soll ein Sender auf 100,6 MHz senden; tut es aber nicht. Sondern er sendet auf 100,8 MHz. Der Empfänger ist auch falsch eingestellt, empfängt aber prima und störungsfrei. Mit diesem Versuchsaufbau kann man bestens Radio hören, aber nicht messen.

Zwei weitere Einschränkungen müssen erwähnt werden: Optiken werden für die Entfernung unendlich gerechnet. Nur dort erbringen sie i.d.R. optimale Leistung. (Ausnahme: Makro-Objektive). Ändert man die Entfernungseinstellung (und das ist auf der Erde eigentlich der Normalfall!), ändert sich die Qualität der Abbildung. Die ganze aufwändige Messerei und Einstellerei von Objektiven betrachtet also nur den eher seltenen Sonderfall unendlich. Bei Zoom-Objektiven wird die Messreihe sehr lang. Verzeichnungen (Tonne, Kissen) interessieren offenbar gar nicht. Erstaunlich!

Damit es klar ist: solche Messungen und Einstellungen sind mit erstaunlicher Genauigkeit machbar und auch sinnvoll. Ein sauber justiertes Objektiv ist besser. Sinnvoll ist aber wichtig: keiner wird die Breite einer 6-spurigen Autobahn in 1/100mm angeben oder messen. Dort reicht die Angabe in 10cm genau völlig.

Bei Kameras muss ebenfalls das Gesamtpaket passen. Es würde sich nicht lohnen, eine Optik zu bauen, die millionstel mm verarbeiten kann, für einen Sensor der nur hundertstel mm kann. Ausserdem müsste man dann auch noch auf die Temperatur achten, weil Dinge bei höherer Temperatur grösser werden und vieles andere mehr. Und für unser Problem ist ein Objektiv durchmessen nur Thema verfehlen. Denn: es wurde das gleiche Objektiv an 2 Kameras M5 und M10 verwendet.

Nun sind einige neue Meldungen eingetrudelt, also auch hier gleich eine Antwort:

Es gibt einen Unterschied zwischen MFT (=Micro Four Thirds) und MTF (=Modulation Transfer Function). Ersteres ist klar. Das Zweite meint "Kontrastübertragungsfunktion".
Offensichtlich spielt Kontrast eine wichtige, wenn nicht die entscheidende Rolle im Disput. Auch ich darf verlangen, dass Mitstreiter beim Thema bleiben und MFT und MTF unterscheiden können und wollen. Lens Rentals nennt MFT nie - aber sehr oft MTF, redet also ausschliesslich über Kontrast. Wie ich übrigens auch.

An AKauffmann: Wer die Kombination Filterstack und Objektiv stört, kann i.d.R. schlechtere Ergebnisse erwarten. Ich darf aber darauf hinweisen, dass der Threatstarter den Filterstack nicht entfernt oder umgebaut hat und das nicht mein Thema oder Anliegen ist. Keiner von uns kann Aussagen machen, welcher eingebaute Filterstack besser oder schlechter ist. Was wir aber können, ist folgendes: die RAW-Urdaten ohne jegliche Kamerarechnung mal genau analysieren, vergleichen und schauen, wann eine Bildbearbeitung z.B. beim Schärfen zuerst Artefakte erzeugt. Das ist das sichere Zeichen, dass man sinnvolle Kontraste überschreitet und zeigt die Grenzen der jeweiligen Kamera auf. Keiner konnte bisher einen brauchbaren Hinweis nennen, ob die beiden Sensoren mit den serienmässigen Filtern bezüglich Kontrast unterschiedliches leisten.

Nach wie vor kann auch niemand widerlegen, dass eine M10 nur stärker schärft als eine M5. :classic_cool:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Uff, Respekt vor so viel Text, sofern er denn vom Inhalt fehlerlos ist. 

Dies zu überprüfen, dazu fehlt mir das Wissen. Jeder hat auf seine Art in seinen Punkten Recht und kann etwas zur Klärung beitragen.

Bleibt bitte Fair und sachlich bei euren Ausführungen.

Wer sich die Mühe macht,  alles durchliest und selektiert ,der geht wieder etwas schlauer durchs Leben. 

Allen schreibern die etwas dazu beitragen ,Danke.

Grüße Wolfgang 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Noch einmal kurz, sachlich fair:

Am 6.3.2019 um 19:03 schrieb mccs:

Überlegt man sich das mal genau zu Ende, kann es keine Unterschiede in der Schärfe geben bei Sensoren, die gleich gross sind, gleichgrosse Pixel haben und gleiche Anzahl und Verteilung. Das sind rein pysikalische Grössen mit immer gleichen Ergebnis. 4.608 x 3.456 Pixel bilden ausschliesslich 4.608 x 3.456 ab. Weniger geht, aber mehr geht nicht!

 

Es geht mir um den ersten Teil dieser Aussage. Sie ist in ihrer Absolutheit falsch in Bezug auf real existierende Digitalkameras. Um die geht es dem Fragesteller.

Praktische Beispiele:

2012 bis ca. 2015 hatte Nikon die D800 und die D800E im Portfolio. Beide waren bis auf das Filterpaket vor dem Sensor baugleich, gleicher Sensor, gleicher Prozessor, gleiche Mechanik. Die E hatte eine wesentlich höhere Schärfe/Auflösung.

2019 hat Olympus die E-M1 Mk II und die E-M1X im Portfolio. Beide haben den gleichen Sensor (inzwischen offiziell bestätigt) aber leicht unterschiedliche Schärfe/Auflösung zu Ungunsten der E-M1X. Ermittelt auf Basis unterschiedlicher Methoden (Anders Uschold - DCTau; Wüller   - IQ-Lab und Teichler - Wohnzimmer mit gut eingefahrenem ISO 12233 (alt) Testchart).

Damit genügt es mir auch. Unser Disput interessiert außer uns beiden niemand und hilft olyander/popeye nicht weiter.

Gruß

Wolfgang

 

 

 

 

 

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hm...was soll ich jetzt zu all dem Text noch beitragen. Ich hätte nicht gedacht, dass so viel dahinter stecken "kann". Ich habe alles durchgelesen aber vieles auch nicht verstanden. Für mich war es erstmal komisch, dass die vermeintlich bessere Kamera ein "schlechteres" Bild liefert. Aber nach dem Vergleich omd em1/m1x bin ich schon etwas entspannter. 

Ich danke allen Beteiligten für die enorme Aufklärung. Aber lesen muss ich das Ganze trotzdem nochmals. :-) 

 

Gerne gerne weiter so. Ist echt interessant!

Gruß popeye71

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung