Jump to content

Die OM System Community
Ignoriert

EM5MKII Pixelshift / Auflösungsvermögen MFT Objektive


Empfohlene Beiträge

Hallo, ich hätte da folgende Frage zum allg. Verständnis: Wenn ich mit meiner EM5-II Aufnahmen mit der Pixelshift-Funktion mache, bekomme ich gestochen scharfe, hochauflösende Fotos die sich qualitativ deutlich von den sonst üblichen 16 MP Aufnahmen unterscheiden (Stativ und statische Objekte natürlich vorausgesetzt). Das heißt doch aber, das die bei den 40MP Aufnahmen von mir verwendeten Objektive durchaus in der Lage sind deutlich höhere Auflösungen zu liefern. Wir hatten ja gestern das Thema 20MP Sensor in einer neuen EM1-MKII: Ist das sinnvoll oder nicht? Da wurde ja auch die Frage diskutiert, ob denn die vorhandenen Objektive überhaupt in der Lage sind, diese Auflösungen zu liefern. Also, wenn die Optiken mit 40MP Pixelshift klar kommen, dann sollten doch die Gläser auch mit (gemutmaßten) 20MP Sensoren in neuen OMDs locker klar kommen? Oder habe ich da einen Denkfehler? Gruß, Ralf.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • Antworten 57
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

wenn die Optiken mit 40MP Pixelshift klar kommen,
naja warum sollte ein Pixelshift die Auflösung einer Linse verbessern oder erhöhen? Es werden immer mehrere Aufnahmen nacheinander gemacht und am Schluss verrechnet.
20MP Sensoren in neuen OMDs locker klar kommen
Also digitalkamera.de hat mal die e-5 mit dem 50er f2.0 Makro getestet und festgestellt dass das eine besondere Linse ist. man spekulierte das die Linse deutlich mehr als 12mp auflösen kann. Mutig geschätzt wurden 16MP in den Raum gestellt. Aber sonst gab es nur Spekulationen das die TopPro Linsen bis auf 20 MP gerechnet sein könnten. Es gab aber keine Möglichkeit den Beweis anzutreten. Aber TopPro Linsen sind ein anderes Kaliber als mFT Linsen. LG Thomas
Link zu diesem Kommentar
Auf anderen Seiten teilen

Na, der kleine Physiker in mir ist arg gespannt, wie das Rätsel jetzt gelöst wird... Mal ein Gedankenexperiment Wir haben einen Sensor mit rund 4.600 x 3.450 Bildpunkten und ein Objektiv, was genau dies auflösen kann (16MPix). Nun fotografiere ich ein schwarz-weißes Strichmuster, welches exakt die weißen Linien auf meine Pixelspalten (von oben nach unten) abbildet. Was bekomme ich? Eine weiße Fläche! Der Sensor erfasst nämlich die Zwischenräume zwischen den Pixeln nicht und "merkt" gar nicht, dass es da dunkel ist (die schwarzen Linien meines Strichmusters). Nun mache ich mir die Mühe, den Sensor in feinen Schritten zu verschieben, und so auch die Zwischenräume zwischen den Pixeln des statischen Sensors nach und nach abzutasten. Was bekomme ich? Gar keine sauberen Linien (kann ja mein Objektiv gar nicht auflösen), aber zumindest ein schwankendes Helligkeitsprofil. Und mit etwas Glück macht daraus der Bildprozessor so etwas ähnliches, wie ein schwarz-weißes Strichmuster. Obwohl das Objektiv gar nicht höher auflösen kann als 16MPix bekomme ich doch mehr Informationen, weil die Zwischenräume zwischen den Pixeln, die normalerweise völlig unter den Tisch fallen, durch den Pixelshift abgescannt werden und dem Bildprozessor so zusätzlichen Input liefern. Folge: mehr Details im Bild! Also, zur Klarstellung: Weder besitze ich eine Cam mit Pixelshift rsp. HighRes-Modus noch habe ich mich mit der Technik des Systems beschäftigt. Mein Gedankenexperiment ist reine Vermutung... lg + Gute Nacht Martin

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Trick der Highres Technik ist ja gerade, daß man mit vergleichsweise niedrig auflösendem Sensor (und damit relativ weniger Anspruch an Sensor und Optik) Pixel "synthetisiert". Das hat mit Fotografie nur bei der Einzelaufnahme zu tun, der Rest ist Computerarbeit. Deswegen kommen ja auch Ergebnisse heraus, von denen die Nutzer von Sensoren mit 40 bis 50 MP nur träumen können. Auf Dpreview gibts ja schöne Vergleichsfotos zum Thema. Klappt das bei der E-M1, wei angekündigt auch "handheld", gibts eine Revolution auf dem Markt. Horst

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ernsthaft jetzt? Vodoo? Also wenn das Gedankenexperiment richtig wäre Martin, also wenn das Objektiv tatsächlich nur 16 MP auflöst und auf die Fläche des Sensors projeziert, dann dürfte auch durch Pixelshift ja nicht mehr an Details rauszuholen sein als 16 MP. Sind ja nicht mehr da. Der Detailzuwachs beim Hires-Shot ist aber enorm. Das würde bedeuten, dass entweder der 16 MP Sensor uns bemogelt und gar keine 16 MP an Details liefert und erst Hires die vollen 16MP des Objektivs aufdeckt. Oder es stecken eben doch mehr als 16 MP im Objektiv. Schätze es ist tatsächlich Vodoo.

Link zu diesem Kommentar
Auf anderen Seiten teilen

 HKO said:
(und damit relativ weniger Anspruch an Sensor und Optik)
Wo habt Ihr eigentlich den Teil mit den geringen Ansprüchen an die Optik her? Ich erinner mich nur an die Infos, dass Hires für einen echten Mehrwert auch die echt guten Optiken braucht.
Link zu diesem Kommentar
Auf anderen Seiten teilen

 slainte said:
Ernsthaft jetzt? Vodoo? ... Das würde bedeuten, dass entweder der 16 MP Sensor uns bemogelt und gar keine 16 MP an Details liefert...
Du weißt doch: 16MPix buntes Bild sind eigentlich 4MPix Helligkeit aus Rot, 4MPix Helligkeit aus Blau, und 8MPix Helligkeit aus Grün. Bunte 16MPix sind auch schon Voodoo! ;-)
Link zu diesem Kommentar
Auf anderen Seiten teilen

Wo habt Ihr eigentlich den Teil mit den geringen Ansprüchen an die Optik her? Ich erinner mich nur an die Infos, dass Hires für einen echten Mehrwert auch die echt guten Optiken braucht.
Ich habe nicht von geringen sondern von relativ weniger Anspruch geredet: die Alternative wäre eben, zu versuchen, 42 MP direkt herauszuholen, und das wird nicht gelingen. Der Anspruch an die betreffende Optik ist halt die eines jeden 16 MP Einzelbildes, d.h. nicht mehr oder weniger als sonst auch bei normalen Bildern. Horst PS: Für den Winter habe ich mir fest vorgenommen, mal wieder Kirchen u.ä. auf diese Weise vorzunehmen, darauf freue ich mich schon. Noch aber ist Outdoor-Saison in der Natur, da bleibt keine Zeit für diese Spiele.
Link zu diesem Kommentar
Auf anderen Seiten teilen

also wenn das Objektiv tatsächlich nur 16 MP auflöst und auf die Fläche des Sensors projeziert, dann dürfte auch durch Pixelshift ja nicht mehr an Details rauszuholen sein als 16 MP. Sind ja nicht mehr da.
Doch, weil es dem Objektiv völlig egal ist, ob es gerade die hellen oder die dunklen Stellen liefert - nur beides zusammen kann das Objektiv nicht liefern (und die dünnen Striche auch nicht knackscharf, sondern eher verschwommen, wie im Gedankenexperiment auch so gesagt). Der Denkfehler den viele dabei haben ist, dass das Objektiv nicht "zeilenweise" arbeitet wie ein Sensor, sondern eben analog und da bringt ein leichtes verücken des Sensors um eine halbe Zeile eben auch mehr Informationen ins Bild - abgesehen davon, dass man durch die ganzzeilige Verrückung auch noch sauberere Farbinformationen erhällt, da man dadurch 16 Echtfarbpixel bekommt und nicht 4xeinzelfarbinformationen interpolieren muss. Aber ja: um sauber arbeiten zu können, sollte die Linienauflösung eines Objektives eher über der Zeilenanzahl des Sensors liegen - aber im konkreten Fall sind eben keine Linienauflösungen nötig, die man für einen 42 Megapixelsensor brauchen würde. Und auch ja: es ist eine Art Voodoo - wie die ganze Fotografie :-D Andy auflösend
Link zu diesem Kommentar
Auf anderen Seiten teilen

Diese Theorie halte ich auch für Unfug. Wenn die Optik das begrenzende wäre, würde HighRes nur leere Vergrößerung bringen (was ja nun erkennbar nicht so ist). Aaaber: Unsere 16MP-Sensoren interpolieren bei einer normalen Aufnahme kräftig, da es sich ja um 8MP grüne Pixel, und je 4 MP rote und blaue Pixel handelt. Mit Pixelshift wird erstens jedes Pixel mit allen Farben gesampelt (je 2x grün, rot und blau) und zusätzlich noch die „Kantenpixel“. Alleine dieses Oversampling bringt erheblich echte Auflösung gegenüber der Standardaufnahme, solange die Linse nicht das begrenzende Element ist. Spannend wäre die Frage, inwieweit die Highres-Aufnahme gegenüber einer aus ihr heruntergerechneten 16MP-Aufnahme tatsächlich weitere Details enthält. Klaus

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ja es ist sicherlich interessant darüber nachzudenken was da vor sich geht bei HR. Aber ich finde die Ergebnisse einfach nur WOW und das ist mir im Moment wichtiger. Ich benutze für meine Mikroaufnahmen alte (Mikro/Makro-Objektive) Photar, Luminar, Zuiko. Was diese Objektive in echt auf den Sensor bringen weiß ich gar nicht. Aber der Unterschied zwischen normaler Aufnahme und HR-Aufnahme ist beachtlich. Gruß Edgar Müller

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich erweitere das Gedankenexperiment mal. Wenn zwei Menschen, der eine normalsichtig, der andere leicht kurzsichtig, einen Text auf einer Wandtafel lesen, und der Kurzsichtige kann gerade knapp erkennen um welche Buchstaben es sich handelt, dann wird ihm sein Gehirn [Rechner] [wenn es die Buchstaben kennt, also weiß wie ein K etc. aussieht] helfen zu demselben "klaren" Ergebnis zu kommen wie der Normalsichtige, und ein Aussenstehender würde am Ergebnis [die Ansage des erkannten Buchstaben] nicht unterscheiden können wer von beiden das schlechtere "Objektiv" [Auge] hat. Ins Extrem vorgeführt hat das übrigens im Film "Spacecowboys" Donald Sutherland: Er liest im Sehtest praktisch vollkommen "blind" alles perfekt richtig, weil er sich die Zeichenabfolge in kürzester Zeit auswendig hat merken können, als sein Kollege vor ihm die Zeichen aufgesagt hat . . . . auf die Objektiv/Sensor/Rechner-Kette bezogen würde das bedeuten, wenn der Rechner in der Kamera "weiß", welches Motiv er geliefert bekommt, dann kann er aus der "Erfahrung" ähnlicher Bilder errechnen, daß z.B. Gras immer grün ist und eine ganz spezifische Oberflächenstruktur hat . . . auch wenn er davon ein relativ unscharfes Bild geliefert bekommt . . .

Link zu diesem Kommentar
Auf anderen Seiten teilen

 slainte said:
Okay, dann bin ich jetzt raus. Die Theorie, dass 20 MP via Sensor nicht versorgt werden können, aber 40 via Pixelshift ist mir zu abstrus.
Der Unterschied ist, dass 20MPix auf gleicher Fläche wiederum kleinere Pixel mit (vielleicht auch kleineren) Zwischenräumen bedeutet. D.h. der tolerierte Zerstreuungskreis für pixelscharfes Abbilden wird auch kleiner. Das Objektiv bildet jetzt an seiner Auflösungsgrenze einen Lichtpunkt als größeren Fleck mit gauß'schem Helligkeitsprofil ab. Dummerweise fällt ein Teil davon auf die Zwischenräume und wird nicht erfasst. Der Bildprozessor berechnet jetzt seine Werte nur aus den "getroffenen" Pixeln und kommt da, je nach "Trefferquote" zu ungenauen Ergebnissen... Scanne ich mittels Pixelshift die komplette durch das Objektiv beleuchtete Fläche, dann erfasse ich das gauß'sche Helligkeitsprofil meines eigentlich unscharf abgebildeten Lichtpunktes komplett! Und selbst in der Unschärfe liegen wertvolle Informationen! (Nicht umsonst ist eine der besten Bildschärfungsmethoden analog wie digital "unscharf maskieren"!). Der Clou ist, dass ich über den HighRes Modus Informationen von der gesamten Sensorfläche ohne Lücken bekomme (in der Hoffnung, dass sich zwischen den Einzelaufnahmen nichts geändert hat). Bei jedem noch so hoch auflösenden Sensor gehen mir jedoch durch die Pixelzwischenräume Informationen verloren. Selbst wenn mein Helligkeitsfleck meinen Pixel genau trifft bekommen ich nur einen Wert. Und der gibt keine Information darüber, wie das Helligkeitsprofil des Fleckes beschaffen ist, sondern stellt nur eine Integration über die gesamte Lichtmenge dar. Verschiebe ich nun meinen Pixel etwas in alle Richtungen bekomme ich mehrere, leicht unterschiedliche Lichtmengenwerte. Daraus kann ich das Helligkeitsprofil des Flecks sehr genau berechnen und Rückschlüsse auf den ursprünglichen Lichtpunkt ziehen. Wenn ich irgendwann mal viel Zeit habe mache ich dazu ein Maling... ;-) LG, Martin
Link zu diesem Kommentar
Auf anderen Seiten teilen

wenn der Rechner in der Kamera "weiß", welches Motiv er geliefert bekommt, dann kann er aus der "Erfahrung" ähnlicher Bilder errechnen, daß z.B. Gras immer grün ist und eine ganz spezifische Oberflächenstruktur hat . . . auch wenn er davon ein relativ unscharfes Bild geliefert bekommt . . .
Jein... Der Prozessor braucht keine "Erfahrung" bzgl. der Bildinhalte. Er braucht nur die Kenntnis der Übertragungsfunktion des Objektivs (oder eine gute allgemeingültige Näherung, die für viele Objektive passt). Wenn der Prozessor weiß, wie das Objektiv aus einem Lichtpunkt einen Helligkeitsfleck macht, und er diesen Helligkeitsfleck in seiner Gesamtheit durch das Pixelshiftscannen sehr gut kennt, kann er durch die "inverse Objektivabbildungsfunktion" den ursprünglichen Lichtfleck sehr gut berechnen. Bekommt der Prozessor dagegen nur einen Ausschnitt aus dem Helligkeitsprofil geliefert, dann "weiß" er noch nicht einmal, ob der Ausschnitt nun der Berg oder die Flanke des Lichtflecks ist. Er hat viel weniger Input für seine Berechnungen, die Rückrechnung wird viel ungenauer... lg Martin
Link zu diesem Kommentar
Auf anderen Seiten teilen

So, jetzt doch noch das Maling dazu... Von oben nach unten: Lichtpunkt wird unscharf als Helligkeitsverteilung (Gauß'sche Glockenkurve) auf den Pixel (blau) abgebildet. Der Sensor sammelt das Licht, integriert zur Lichtmenge (gelb) und der Bildprozessor schlussfolgert: "Ah, heller Punkt!". Gauß'sche Glocke trifft den Pixel nicht ganz genau. Weniger Lichtmenge, nicht so heller Punkt (was nicht ganz stimmt). Viele Lichtpunkte bilden viele Glocken, die exakt die Pixel treffen. Viele, große Lichtmengen. Bildprozessor: "Ah, überall hell => helle Fläche!" Was NICHT stimmt! Gleiche viele Glocken treffen Sensor höherer Auflösung. Viele unterschiedliche Lichtmengen. Bildprozessor (re-) konstruiert eine schwankende Helligkeitsverteilung. Besser als davor, aber auch nicht wirklich richtig. Die Glocken treffen wieder den alten, weniger auflösenden Sensor, aber nicht genau auf die Pixel. Viele, etwas kleinere Lichtmengen. Bildprozessor: "Ah, überall halb-hell => halb-helle Fläche!" Falsch! Die Glocken treffen immer noch den alten, weniger auflösenden Sensor, aber recht exakt die Zwischenräume. Viele, sehr kleinere Lichtmengen. Bildprozessor: "Ah, überall recht dunkel => dunkle Fläche!" Falsch! Aber aus Grafik 3, 5 und 6 ZUSAMMEN (und noch weiteren Schritten dazwischen) kann der Bildprozessor das ursprüngliche Helligkeitsprofil deutlich exakter rekonstruieren, als der höher auflösende Sensor in Grafik 4! soweit der kleine Physiker für heute Martin

Link zu diesem Kommentar
Auf anderen Seiten teilen

Vielen Dank Martin und Reinhard für die sehr anschaulichen Erklärungen. Ich hatte es schon vorher, bei der Erklärung des Hi-Res-Shots der E-M5 Mk II, verstanden. Ich kann aber gut nachvollziehen, dass dieses Thema sehr verwirrend sein kann, denn man hat ja am Ende 40 MP und wo kommen die denn her und ist dann die Auflösung der Linsen auch so hoch, etc.? Und die sehen auch noch so viel besser aus... Ich erinnere mich noch, wie ich die ersten Fotos der D800 gesehen hatte und dachte: Das sollen jetzt Fotos mit 36 MP sein? Das sieht aber sehr mickrig aus. Viele Grüße Markus

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung