Jump to content

Die OM System Community
Ignoriert

EM5MKII Pixelshift / Auflösungsvermögen MFT Objektive


Empfohlene Beiträge

  • Antworten 57
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

 Martin W. said:
So soweit der kleine Physiker für heute Martin
Hallo Martin, es nicht so dass beim "Unscharf Maskieren" etwas ähnliches passiert, allerdings in viel kleinerem Maßstab? So wie wenn Du ein Pseudo HDR aus einem Bild mit einem aus 5 oder 7 reell geschossenen mit entsprechenden EV Differenzen vergleichst? Viele Grüße Wolfgang
Link zu diesem Kommentar
Auf anderen Seiten teilen

Nachtrag...

 slainte said:
Die Theorie, dass 20 MP via Sensor nicht versorgt werden können, aber 40 via Pixelshift ist mir zu abstrus.
Pixelshift macht, ich habe noch mal nachgelesen, was Reinhard auf Pen-and-tell geschrieben hat, acht Belichtungen pro HighRes-Bild. Das entspricht also nicht 20 oder 40 MPix, sondern 16 x 8 = 128 MPix. Und diese 128 MPix werden nun mittels schlauem Algorithmus auf die 40 MPix des JPG oder 63 MPix des RAW herunter gerechnet. Der Clou ist wohl einerseits die hohe Informationsdichte und andererseits die Software, die daraus ein Bild berechnen kann, was schärfer ist, als das Objektiv eigentlich abbildet, weil sie die Unschärfen herausrechnet (ähnlich einer de-blur Software). Ich vermute, mit einem 128 MPix-Sensor und dem gleichen Algorithmus dahinter würden wir auch ähnliche Ergebnisse erzielen können. Nur von 128 MPix auf einem 4/3-Sensor sind wir noch etwas entfernt ;-) lg Martin
Link zu diesem Kommentar
Auf anderen Seiten teilen

 Martin W. said:
Nachtrag... Pixelshift macht, ich habe noch mal nachgelesen, was Reinhard auf Pen-and-tell geschrieben hat, acht Belichtungen pro HighRes-Bild. Das entspricht also nicht 20 oder 40 MPix, sondern 16 x 8 = 128 MPix. Und diese 128 MPix werden nun mittels schlauem Algorithmus auf die 40 MPix des JPG oder 63 MPix des RAW herunter gerechnet. Der Clou ist wohl einerseits die hohe Informationsdichte und andererseits die Software, die daraus ein Bild berechnen kann, was schärfer ist, als das Objektiv eigentlich abbildet, weil sie die Unschärfen herausrechnet (ähnlich einer de-blur Software). Ich vermute, mit einem 128 MPix-Sensor und dem gleichen Algorithmus dahinter würden wir auch ähnliche Ergebnisse erzielen können. Nur von 128 MPix auf einem 4/3-Sensor sind wir noch etwas entfernt ;-) lg Martin
Tja, das ist schon genial, was Olympus da macht und die Bilder, die ich bisher gesehen habe waren wirklich beeindruckend aber ich zumindest muss keine 128 MP auf einem FT Sensor haben, mir reichen die 16 MP. Wenn ich aber HiRes aus der Hand haben kann in einer E-M1 Mk II, das fände ich auch sehr, sehr beeindruckend. Schauen wir mal, was da noch kommt. Viele Grüße Markus
Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Olympus Entwicklungschef, hat dies in den Bereich des Möglichen gerückt. Siehe Interview bei dpreview. Also sicher nicht zeitgleich aber sehr, sehr schnell. Wenn man die Technologie im Griff hat, wovon ich ausgehe, erscheint - mir zumindest - das durchaus möglich. Aber das ist natürlich wirklich High-Tech, würde ich mal denken. Viele Grüße Markus

Link zu diesem Kommentar
Auf anderen Seiten teilen

 Frank Schwenke said:
Dazu müssten dann 8 Bilder mit unterschiedlichen Sensoreinstellungen quasi Zeitgleich aufgenommen werden...
Naja, sagen wir mal so... Bei den HDRs aus der E-M1 funktioniert das schon ganz gut. Schau'n wir mal, was da noch alles kommt! Aktuell vermisse ich den HighResModus jedoch noch nicht an meinen E-M1en ;-) jm2c Martin
Link zu diesem Kommentar
Auf anderen Seiten teilen

Zuallererst: ein Objektiv hat keine festgelegte Auflösung. Bei der Bestimmung der Auflösung eines Objektives wird der Kontrast, mit dem schwarz-weisse Linienpaare abgebildet werden, gemessen. Diese Kontrastwerte, sieht man für unterschiedliche Liniendichten in den berühmten MTF Diagrammen. Man sagt, ein Objektiv kann die Linien auflösen, wenn dieser Kontrast einen bestimmten Wert übersteigt. Z.B. > 10%. Dieser Kontrast ist auch nie ganz 100%. Deshalb kann man bei hohen Sensorauflösungen auch eher auf die Antialiasing-Filter verzichten, weil die Begrenzung des Kontrastes eine ähnliche Wirkung hat, Licht, das auf ein Sensorpixel fällt, fällt auch zu einem kleinen Teil auf die Nachbarpixel. Eine Olympus tastet das Bild, das die Linse erzeugt, momentan mit 16 Megapixeln ab, die aber leider auch noch von unterschiedlichen Farbfiltern bedeckt sind. Durch die Interpolationen bei der Umwandlung von RAW-Bildern werden wieder 16 Megapixel daraus, aber diese haben nicht die volle Auflösung - wir hatten ja nur z.B. 4 rote Megapixel. Als Daumenregel kommen wir so zu etwa 8 Megapixeln Informationen. (Sieht man gut im Vergleich zu den Foveon-Sensoren, die ja in jedem Pixel ohne Interpolation die kompletten Farben aufzeichnen). Was der Sensorshift macht, ist zweierlei. Zuerst werden 4 Bilder so aufgenommen, indem der Sensor um genau einen Pixelabstand bewegt wird. Dadurch alleine bekommen wir ein echtes 16 Mp RGB Bild das keinerlei Interpolation benötigt. Damit alleine haben wir die nutzbare Auflösung verdoppelt. (Und auch hierbei schon etwas höhere Anforderungen an das Objektiv gestellt als ohne den Shift) Danach wird derselbe Prozess mit einer Verschiebung von 0.5 Pixel wiederholt. Wir erhalten also 2 verschobene 16 Mp Bilder. Aus denen wiederum wird das entgültige 40 Mp Ausgabebild errechnet. Die dazu gehörenden RAW Bilder haben 64 Mp, es wäre interessant zu betrachten, was da genau drin steht - vermutlich wurden einfach die doppelten grünen Pixel nicht gespeichert. Durch einige Cleverness gelingt es also mit dem 16 Mp Sensor das Bild feiner abzutasten. Der Überlapp zwischen den Pixeln beim Verschieben wirkt dabei eher erschwerend als helfend.. Aber man kann es drehen und wenden wie man will, kein noch so cleveres Verfahren kann durch Abtastung Informationen aufzeichnen, die das optische Bild auf dem Sensor nicht enthält. Damit kann man ganz einfach Sagen: die verwendeten Objektive haben ganz offensichtlich genug Auflösung um das resultierende 40Mp Bild zu erzeugen. Damit ist auch klar, das Sensorauflösungen bis weit über 40 Mp hinaus Verbesserungen in der Auflösungen bringen. Nach der Daumenregel würde in etwa ein 80 Mp Bayer-Sensor in etwa die Bildergebnisse bringen, wie sie mit dem Sensorshift erzielt werden. Um es ganz einfach zusammenzufassen: - höhere Sensorauflösungen werden höher aufgelöste Bilder produzieren, mindestens bis 80 Mp hinauf - das Shiftverfahren ist ein genialer Weg, die Bildauflösung zu erhöhen, bei Motiven die das erlauben - momentan nur statische Motive, bei einem ideal schnellen Sensor würde es zumindest 3 Blendenstufen Empfindlichkeit kosten. Viele Grüße, Peter

Link zu diesem Kommentar
Auf anderen Seiten teilen

 Peter Herth said:
Zuallererst: ein Objektiv hat keine festgelegte Auflösung.
Jepp! Das geht hier zwar manchmal etwas durcheinander, aber ich glaube das ist den meisten hier schon klar. Umgangssprachlich meinen wir mit "Auflösung des Objektivs" halt jene, bei denen ein Sesor mit Auflösung X gerade eben noch "pixelgenau" bedient werden kann. Das ist zwar immer eine Dicke-Daumen-Sache, aber nun mal anschaulicher, als MTF-Charts.
 Peter Herth said:
Was der Sensorshift macht, ist zweierlei. Zuerst werden 4 Bilder so aufgenommen, indem der Sensor um genau einen Pixelabstand bewegt wird. Dadurch alleine bekommen wir ein echtes 16 Mp RGB Bild das keinerlei Interpolation benötigt. Danach wird derselbe Prozess mit einer Verschiebung von 0.5 Pixel wiederholt. Wir erhalten also 2 verschobene 16 Mp Bilder. Aus denen wiederum wird das entgültige 40 Mp Ausgabebild errechnet. Die dazu gehörenden RAW Bilder haben 64 Mp, es wäre interessant zu betrachten, was da genau drin steht - vermutlich wurden einfach die doppelten grünen Pixel nicht gespeichert.
Weißt du oder vermutest du? Anders gefragt: gibt es irgendwo eine "offizielle" Dokumentation, dass das bei dem Oly-HighRes-Modus so gemacht wird?
 Peter Herth said:
Damit kann man ganz einfach Sagen: die verwendeten Objektive haben ganz offensichtlich genug Auflösung um das resultierende 40Mp Bild zu erzeugen. Damit ist auch klar, das Sensorauflösungen bis weit über 40 Mp hinaus Verbesserungen in der Auflösungen bringen. Nach der Daumenregel würde in etwa ein 80 Mp Bayer-Sensor in etwa die Bildergebnisse bringen, wie sie mit dem Sensorshift erzielt werden.
Wie ich oben schon grob abgeschätzt habe: ein extrem hoch auflösender Sensor würde wohl ähnliches ergeben, ja. Wobei ich ganz stark davon ausgehe, dass da noch ein Schärfungsalgorithmus (o.ä.) hinter steckt. OK, Detailzuwachs durch "echtes" Auslesen der 16 MPix der Bayer-Matrix, ja. Aber 80 MPix Sensorauflösung nativ pixelscharf per Objektiv zu bedienen geben meines Wissens die MTF-Chats unserer Objektive nicht her...
 Peter Herth said:
Um es ganz einfach zusammenzufassen: - höhere Sensorauflösungen werden höher aufgelöste Bilder produzieren, mindestens bis 80 Mp hinauf
Auf jeden Fall! Nur ist der Zuwachs an Informationen (Details) nicht proportional zum Zuwachs an Pixeln. Wie wir ja bei den angesprochenen Pixelboliden der Oly-Mitbewerber sehr schön sehen können.
 Peter Herth said:
das Shiftverfahren ist ein genialer Weg, die Bildauflösung zu erhöhen, bei Motiven die das erlauben - momentan nur statische Motive, bei einem ideal schnellen Sensor würde es zumindest 3 Blendenstufen Empfindlichkeit kosten.
Magst du das mit den -3EV mal kurz darlegen, warum das so sein sollte? Bei einem "ideal schnellen Sensor" mache ich doch einfach acht Aufnahmen, die ich kombiniere, statt aus einer Aufnahme zu interpolieren. Warum kostet das drei Blendenstufen? lg Martin
Link zu diesem Kommentar
Auf anderen Seiten teilen

 Martin W. said:
Magst du das mit den -3EV mal kurz darlegen, warum das so sein sollte? Bei einem "ideal schnellen Sensor" mache ich doch einfach acht Aufnahmen, die ich kombiniere, statt aus einer Aufnahme zu interpolieren. Warum kostet das drei Blendenstufen?
Das kostet 3 Blendenstufen, weil 2^3=8 ist ;-)
Link zu diesem Kommentar
Auf anderen Seiten teilen

 Martin W. said:
Das geht hier zwar manchmal etwas durcheinander, aber ich glaube das ist den meisten hier schon klar. Umgangssprachlich meinen wir mit "Auflösung des Objektivs" halt jene, bei denen ein Sesor mit Auflösung X gerade eben noch "pixelgenau" bedient werden kann. Das ist zwar immer eine Dicke-Daumen-Sache, aber nun mal anschaulicher, als MTF-Charts.
Das Problem ist halt "pixelgenau" hängt von der Kontrastgrenze ab, die man noch bereit ist zu akzeptieren. Aber damit wirds auch einfach. Wenn man mit den aktuellen Objektiven mit 16 Mp eine "Pixelgenaue" Auflösung erreicht, dann auch mit 16+x Mp, maximal mit einem etwas verringertem Kontrast :)
Weißt du oder vermutest du? Anders gefragt: gibt es irgendwo eine "offizielle" Dokumentation, dass das bei dem Oly-HighRes-Modus so gemacht wird?
Ich meine mich an mehrere Grafiken erinnern zu können, gefunden habe ich auf die Schnelle dieses: http://www.dpreview.com/reviews/olympus-om-d-e-m5-ii/4
Wie ich oben schon grob abgeschätzt habe: ein extrem hoch auflösender Sensor würde wohl ähnliches ergeben, ja. Wobei ich ganz stark davon ausgehe, dass da noch ein Schärfungsalgorithmus (o.ä.) hinter steckt. OK, Detailzuwachs durch "echtes" Auslesen der 16 MPix der Bayer-Matrix, ja. Aber 80 MPix Sensorauflösung nativ pixelscharf per Objektiv zu bedienen geben meines Wissens die MTF-Chats unserer Objektive nicht her...
Ja, ganz klar, jede signifikante Vergrößerung der Auflösung gebenüber den aktuellen 16 MP wird nur einen Teil davon als Bildaufösung zurückgeben. Mein Punkt war nur, dass die Objektive zumindest soviel können, wie der Shiftmodus demonstriert.
Magst du das mit den -3EV mal kurz darlegen, warum das so sein sollte? Bei einem "ideal schnellen Sensor" mache ich doch einfach acht Aufnahmen, die ich kombiniere, statt aus einer Aufnahme zu interpolieren. Warum kostet das drei Blendenstufen?
Eine einfache Überschlagsrechnung. Wenn man 8 Bilder in der Zeit aufnimmt, in der man ansonsten 1 Bild aufnimmt, bekommt jedes Bild nur noch 1/8 der Lichtmenge ab, das wären genau 3 Blendenstufen. Natürlich kann man auch beim Rauschen genauso wie bei der Auflösung interpolieren, gerade die grünen Pixel werden ja mehrmals gesampled, ausserdem hat man den teilweisen Überlapp, andererseits ist die Zeit den Sensor zu Verschieben noch nicht eingerechnet, und ein derartig schnelles Auslesen des Sensors kann auch zu einem zusätzlichen Rauschen führen. Viele Grüße, Peter
Link zu diesem Kommentar
Auf anderen Seiten teilen

Das Problem ist halt "pixelgenau" hängt von der Kontrastgrenze ab, die man noch bereit ist zu akzeptieren. Aber damit wirds auch einfach.
jo. wenn man alles einfach weglässt wird's in der Physik immer ganz einfach.
"Pixelgenaue" Auflösung erreicht, dann auch mit 16+x Mp,
Diese Aussage widerspricht allem bisherigen, das man in der Literatur so findet. Allein die begrenzte Telezentrie der Objektive macht dir da einen Strich durch die Rechnung. Ebenso die Beugung welche dann sehr schnell nur noch Pixelmatsch liefert.
Mein Punkt war nur, dass die Objektive zumindest soviel können, wie der Shiftmodus demonstriert.
Das sind schlicht 16MP und kein einziges Pixel mehr. Ein Objektiv liefert keine größere Schärfentiefe nur weil ich Bilder erzeugen kann die aus vielen Einzelbildern eines mit großer Schärfentiefe mache.
und ein derartig schnelles Auslesen des Sensors kann auch zu einem zusätzlichen Rauschen führen
Bei entsprechend erforderlicher Geschwindigkeit können die Bauteile gar nicht mehr so schnell schalten. LG Thomas
Link zu diesem Kommentar
Auf anderen Seiten teilen

 TKK-Pictures said:
Das Problem ist halt "pixelgenau" hängt von der Kontrastgrenze ab, die man noch bereit ist zu akzeptieren. Aber damit wirds auch einfach.
jo. wenn man alles einfach weglässt wird's in der Physik immer ganz einfach.
Was willst Du damit sagen?
"Pixelgenaue" Auflösung erreicht, dann auch mit 16+x Mp,
Diese Aussage widerspricht allem bisherigen, das man in der Literatur so findet.
Welcher Literatur widerspricht das in welchem Sinne? Meine Aussage war: wenn jemand die 16 Mp der jetzigen Kameras mit den jetzigen Objektiven als "Pixelgenau" empfindet (und aus den beschriebenen Gründen ist das eher eine Empfindung als ein Messwert), dann werden nach dem Empfinden die Objektive auch sicherlich 20 Mp auflösen.
Allein die begrenzte Telezentrie der Objektive macht dir da einen Strich durch die Rechnung. Ebenso die Beugung welche dann sehr schnell nur noch Pixelmatsch liefert.
Was hat Telezentrie damit zu tun? Und die Beugung erlaubt immer noch die 40Mp des Highres-Modus.
Mein Punkt war nur, dass die Objektive zumindest soviel können, wie der Shiftmodus demonstriert.
Das sind schlicht 16MP und kein einziges Pixel mehr. Ein Objektiv liefert keine größere Schärfentiefe nur weil ich Bilder erzeugen kann die aus vielen Einzelbildern eines mit großer Schärfentiefe mache.
Schärfentiefe ist ein ganz anderer Effekt als die Abtastung des Bildes auf dem Sensor. Ob wir das Bild per mehr Pixel oder per Shift abtasten, ist egal, im Gegenteil, durch den erheblichen Überlapp sind die Shift-Verfahren eher ineffizienter als mehr Megapixel. (Wir tasten 128 Mp ab um ein Bild zu erhalten was vielleicht ein 60 Mp Bayer Sensor liefen könnte). Der Vorteil des Shift-Verfahrens ist halt, dass der 16 Mp Sensor ausreicht. Ein 60+ Mp Bayer sensor ist momentan nicht vernünftig zu fertigen.
und ein derartig schnelles Auslesen des Sensors kann auch zu einem zusätzlichen Rauschen führen
Bei entsprechend erforderlicher Geschwindigkeit können die Bauteile gar nicht mehr so schnell schalten.
Du hast dafür Zahlen? Sensoren mit 1000 fps und mehr existieren. Ich bezweifele nicht, dass ein solche Rate im 4/3rds Format extrem wäre, zumindest als die nächste Iteration der existierenden Sensoren, aber auch nicht unmöglich. Viele Grüße, Peter
Link zu diesem Kommentar
Auf anderen Seiten teilen

Es ist kein Geheimnis, dass alle Sensorhersteller an einem globalen elektronischen Shutter arbeiten, weil man damit nicht nur diese Fälle, sondern auch noch das Rolling-Shutter-Problem im Videobereich erledigen würde… Sobald ein solcher Sensor da ist, wird das von Olympus für die Zukunft angedeutete Scenario spannend. P.S.: Vermutlich entfällt dann der mechanische Verschluss gleich auch noch. Klaus

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Sensor der neuen Sony RX1 kann bis zu 960 Bilder pro Sekunde auslesen.
Wo kann man das nachlesen? Weil die offizielle Serienbildrate liegt bei bescheidenen 5 Bilder/s. Und für einen 35 mm Sensor eine bescheidene Auflösung von 24,3 MPx.
Einen 16Mp Sensor mit 1000 fps auszulesen, klingt zwar noch sehr Spekulativ, ist aber auch nicht vollkommen Undenkbar.
Klar die Technologie entwickelt sich weiter. Doch langsam sind ein paar Grenzen schon erreicht bei denen es langsam sehr eng wird. LG Thomas
Link zu diesem Kommentar
Auf anderen Seiten teilen

 TKK-Pictures said:
Der Sensor der neuen Sony RX1 kann bis zu 960 Bilder pro Sekunde auslesen.
Wo kann man das nachlesen? Weil die offizielle Serienbildrate liegt bei bescheidenen 5 Bilder/s. Und für einen 35 mm Sensor eine bescheidene Auflösung von 24,3 MPx.
Sorry, ich habe bei der Kamerabezeichnung 2 Nullen vergessen, Es ist die RX-100, siehe hier: http://www.dpreview.com/reviews/sony-cybershot-dsc-rx100-iv Und es ist auch klar, dass das eine kleinere Auflösung ist. Aber es bedeutet, es gibt im Handel eine Kamera, die einzelne Pixel mit 1000 fps auslesen kann. Die Auflösung wird dann wohl über die Bandbreite des Systems beschränkt werden. Ist sicher noch eine Menge zu tun, bis man komplette Sensoren so schnell auslesen kann, aber es zeigt, dass es grundsätzlich bei Produktionssystemen möglich ist. Viele Grüße, Peter
Link zu diesem Kommentar
Auf anderen Seiten teilen

 Peter Herth said:
Eine einfache Überschlagsrechnung. Wenn man 8 Bilder in der Zeit aufnimmt, in der man ansonsten 1 Bild aufnimmt, bekommt jedes Bild nur noch 1/8 der Lichtmenge ab, das wären genau 3 Blendenstufen.
Ah, ok! Ich gehe eigentlich davon aus, dass die Bilder alle "richtig" belichtet werden. Also weder durch Erhöhung der Iso noch durch Pushen der Werte (was aufs gleiche heraus kommt) die Belichtungszeit verkürzt wird. Klar, 8 x 1/60 (plus Ausleseverzögerung) ist dann auch nicht wirklich freihandtauglich. Aber 8 x 1/1.000 (bei kürzerer Ausleseverzögerung) sollte freihand machbar sein. Egal, alles Spekulatius :-) Wir werden sehen... lg Martin PS.: Danke für den Link zum dpreview. Das ist schön anschaulich dargestellt! PPS.: Ich glaube aber immer noch nicht, dass das Abbildungsvermögen der heutigen Objektive für pixelscharfe Bilder auf einem nativen 80 MPix-Sensor ausreicht. Klar, es wären sicher mehr Details und ein höherer Schärfeeindruck da, wenn ich ein natives 80 MPix-Bild runterskaliere und gleichgroß mit heutigen nativen 16 MPix-Bildern vergleiche. Aber beim Pixelpeepen, Richtig-Groß-Vergrößern oder Ausschnitt-Vergrößern wird sich das gleiche zeigen, was die Kollegen mit den Pixelwundern im KB-Bereich derzeit erleben: der Detailzuwachs ist nicht proportional zum Pixelzuwachs. Ich glaube, im HighRes-Modus ist auch eine ganze Menge Voodoo (neuforisch für "Software") mit im Spiel, um die Bilder nachzuschärfen.
Link zu diesem Kommentar
Auf anderen Seiten teilen

Welcher Literatur widerspricht das in welchem Sinne?
Och Zeiss hat da ganz tolle Artikel rausgebracht, welche da sehr detailliert drauf eingehen. wie man das überhaupt messen kann usw.
Was hat Telezentrie damit zu tun?
Weil schräge Strahlengänge mit Pixelverlusten einhergehen. je höher der Pixelpitch um so mehr gehen verloren. Also geht die Annahme 16MP+x eben nicht unbegrenzt.
Und die Beugung erlaubt immer noch die 40Mp des Highres-Modus.
Der aber trotz allem noch auf 16MP basiert.
Schärfentiefe ist ein ganz anderer Effekt als die Abtastung des Bildes auf dem Sensor.
Das war nur als Vergleich das man Bilder hochrechnen kann. Dieses hochrechnen aber nicht mehr Pixel bedeuten.
Ob wir das Bild per mehr Pixel oder per Shift abtasten, ist egal
nö ganz sicher nicht.
im Gegenteil, durch den erheblichen Überlapp sind die Shift-Verfahren eher ineffizienter als mehr Megapixel.
Stimmt so auch nicht. Denn genau diese Verfahren ermöglichen erst optische Messtechnik, welche Auflösungen bringen welche die Sensoren gar nicht haben. LG Thomas
Link zu diesem Kommentar
Auf anderen Seiten teilen

 TKK-Pictures said:
Was hat Telezentrie damit zu tun?
Weil schräge Strahlengänge mit Pixelverlusten einhergehen. je höher der Pixelpitch um so mehr gehen verloren. Also geht die Annahme 16MP+x eben nicht unbegrenzt.
Und die Beugung erlaubt immer noch die 40Mp des Highres-Modus.
Der aber trotz allem noch auf 16MP basiert.
Ob wir das Bild per mehr Pixel oder per Shift abtasten, ist egal
nö ganz sicher nicht.
im Gegenteil, durch den erheblichen Überlapp sind die Shift-Verfahren eher ineffizienter als mehr Megapixel.
Stimmt so auch nicht. Denn genau diese Verfahren ermöglichen erst optische Messtechnik, welche Auflösungen bringen welche die Sensoren gar nicht haben. LG Thomas
Jau, Thomas, gute Argumente! Ich bleibe auch dabei: Mehrfachsampling mit grober Auflösung kann u.U. bessere Ergebnisse liefern, als Einfachsampling mit feiner Auflösung! Alles eine Frage der Auswertungs-Software! Übrigens ist dieser Umstand im Mikroskopbau nicht ganz unbekannt - und wir kennen da ja einen Hersteller, der ist im Mikroskopbau kein ganz kleines Licht ;-) jm2c Martin
Link zu diesem Kommentar
Auf anderen Seiten teilen

 TKK-Pictures said:
Welcher Literatur widerspricht das in welchem Sinne?
Och Zeiss hat da ganz tolle Artikel rausgebracht, welche da sehr detailliert drauf eingehen. wie man das überhaupt messen kann usw.
Was hat Telezentrie damit zu tun?
Weil schräge Strahlengänge mit Pixelverlusten einhergehen. je höher der Pixelpitch um so mehr gehen verloren. Also geht die Annahme 16MP+x eben nicht unbegrenzt.
Was ist ein "Pixelverlust" ? Könntest Du ein Zitat zu einem der Zeiss-Artikel angeben? Ich habe nicht gesagt das 16+x unbegrenzt, und vor allem nicht exakt proportional gelten.
Und die Beugung erlaubt immer noch die 40Mp des Highres-Modus.
Der aber trotz allem noch auf 16MP basiert.
Das hat welche Relevanz? Wenn man N Bildpunkte mit unterschiedlichen Pixelgrößen sampled, wird immer die kleinere Pixelgröße die höhere Auflösung ergeben, weil der Überlapp die Schärfe des Samplings reduziert.
Schärfentiefe ist ein ganz anderer Effekt als die Abtastung des Bildes auf dem Sensor.
Das war nur als Vergleich das man Bilder hochrechnen kann. Dieses hochrechnen aber nicht mehr Pixel bedeuten.
Natürlich wird beim Olympusverfahren rumgerechnet wie wild. Aber dass die 40Mp Bilder deutlich mehr Detaillinformation liefern als die einfach 16 Mp sollte ja wohl unbestritten sein.
Ob wir das Bild per mehr Pixel oder per Shift abtasten, ist egal
nö ganz sicher nicht.
im Gegenteil, durch den erheblichen Überlapp sind die Shift-Verfahren eher ineffizienter als mehr Megapixel.
Stimmt so auch nicht. Denn genau diese Verfahren ermöglichen erst optische Messtechnik, welche Auflösungen bringen welche die Sensoren gar nicht haben.
Natürlich liefert das Shiftverfahren eine Auflösung, die ein 16 Mp Sensor nicht hat. Grob geschätzt die eines Bayer Sensors mit 60 MP. Viele Grüße, Peter
Link zu diesem Kommentar
Auf anderen Seiten teilen

 Martin W. said:
Ich bleibe auch dabei: Mehrfachsampling mit grober Auflösung kann u.U. bessere Ergebnisse liefern, als Einfachsampling mit feiner Auflösung! Alles eine Frage der Auswertungs-Software! Übrigens ist dieser Umstand im Mikroskopbau nicht ganz unbekannt - und wir kennen da ja einen Hersteller, der ist im Mikroskopbau kein ganz kleines Licht ;-)
Ich wäre schon daran interessiert zu Wissen, unter welchen Umständen das Sampling mit grober Auflösung bessere Ergebnisse liefern kann. Jetzt von dem reinen Sampling her. Dass der grobere Sensor als Sensor selber technische Vorteile (Rauschen) gegenüber dem Feineren hat, ist klar. Wenn man nur die erreichbare Auflösung betrachtet, sollte man die Pixel so klein wie möglich machen. Viele Grüße, Peter
Link zu diesem Kommentar
Auf anderen Seiten teilen

Nichts davon muss irgendjemand auch nur im Geringsten kapiert haben, um Fotos machen zu können.
Gott sein dank. sonst würde es bei mir vielleicht nicht so dolle aussehen. Naja Auto fahren kann ich ja auch ohne zu verstehen wie das alles zusammen spielt. LG Thomas ,-))
Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung