Jump to content
Die PEN, OM-D & E-System Community

Empfohlene Beiträge

vor 51 Minuten schrieb mindtrust:

vor 2 Stunden schrieb Omzu Iko:

vor 3 Stunden schrieb mindtrust:

Ein Auszug wegen der Pixelgröße: "Dies läßt sich einfach durch die Beugung erklären: Die Pixel sind so klein, daß die Optik bei kurzer Brennweite und damit höherer Lichtstärke (z. B. 1:2,8) gerade noch ausreichend Auflösung bringt, um diese getrennt zu belichten. Beim Wechsel zur längeren Brennweite und durch die damit oft verbundene geringere Lichtstärke (z. B. 1:5,6), wird das Airy-Scheibchen so groß, daß nicht mehr ein einzelnes Pixel belichtet werden kann, die Auflösung geht runter."

Nein, die Auflösung geht nicht deswegen runter, weil die Pixel nicht mehr einzeln belichtet werden. Sondern sie geht deswegen runter, weil die Beugung zunimmt. Mit der Pixelgröße hat das gar nichts zu tun. Die Auflösung geht immer runter, wenn die Beugung zunimmt – einerlei, ob die Pixel größer, gleich groß oder kleiner sind als die Airy-Scheibchen ... und auch dann, wenn gar keine Pixel im Spiel sind, also auf Film.

Da ich in Physik noch nie gut war, verlasse ich mich schon zu einem gewissen Teil darauf, was in diversen Artikeln im Internet steht.

Merke dir einfach folgende Faustregel: Irgendwelche Artikel im Internet, die irgend ein Phänomen mit Hilfe von Pixelgröße, Pixelabstand oder Pixelzahl erklären wollen, sind fast immer falsch.

.

vor 51 Minuten schrieb mindtrust:

Ich will es jetzt einfach mal verstehen. Wovon hängt es denn ab, ab welcher Blende die Beugung einsetzt bzw. sichtbar wird?

Von der Vergrößerung. Und damit: Vom Aufnahmeformat. Denn kleinere Aufnahmeformate müssen für die gleiche Print-Größe stärker vergrößert werden.

Der weitverbreitete Irrglaube, es seien hohe Pixelzahlen bzw. kleine Pixelabstände, die zu stärkeren Beugungsverlusten führten, rührt daher, daß höhere Pixelzahlen im Prinzip auch höhere Vergrößerungen zulassen. Und bei höherer Vergrößerung fällt die gleiche Beugung natürlich stärker ins Auge. Doch daraus einen Kausalzusammenhang zwischen Pixelzahl und Beugung abzuleiten, ist ein mentaler Kurzschluß ... dieser Zusammenhang ist nur ein indirekter, kein kausaler. Es ist die die Vergrößerung, die ursächlich ist, nicht die Pixelzahl.

Um das einzusehen, braucht man sich doch nur folgendes zu überlegen: Hat man zwei gleich große Prints von Aufnahmen, die mit zwei verschiedenen Kameras mit gleich großen Sensoren und gleicher Blende, aber unterschiedlicher Pixelzahl aufgenommen wurden, so wird das Ausmaß an Beugungsunschärfe in beiden Prints grad genau gleich groß sein. Und fertigt man andererseits zwei verschieden große Prints von ein und derselben Aufnahme an, so wird man die Beugungsverluste im größeren Print deutlicher sehen – obwohl die Pixelzahl für beide Prints exakt die gleiche ist.

Ein weiterer Irrglaube besteht in der Annahme, die Größe von Streuscheibchen – einerlei, ob durch optische Aberrationen, Verwackelung, Defokussierung oder Beugung verursacht – hätte keinerlei Einfluß auf die Bildschärfe, solange sie nur kleiner seien als der Pixelabstand. Das klingt auf den ersten Blick so plausibel, daß alle es glauben, keiner darüber nachdenkt und jeder es dem anderen nachplappert. Doch es stimmt nicht. Tatsächlich ist ein sauber fokussiertes Bild immer schärfer als ein leicht defokussiertes, selbst wenn die Streuscheibchen nur z. B. die Hälfte oder Dreiviertel des Pixelabstandes ausmachen. Ein besseres Objektiv gibt immer ein schärferes Bild, einerlei, wieviele Pixel der Sensor hat. Und die stärkere Beugung gibt (bei gleicher Vergrößerung) immer das unschärfere Bild, auch wenn die Airy-Scheibchen kleiner sind als ein Pixel.

Denn schließlich wird nicht nur ein einziger Bildpunkt verwackelt, gestreut oder gebeugt. Sondern alle. Sicher bleiben dabei einige innerhalb "ihres" Pixels ... andere aber nicht. Und das senkt nun einmal die Bildschärfe.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Vielen Dank für die ausführliche Ausführung 🙂 Ich habs mir jetzt dreimal durchgelesen ... habe ich das richtig verstanden, daß es bei gleicher Sensorgröße bezüglich der Beugung egal ist, wie viele Megapixel dieser hat, nur fällt diese z.B. bei einer 100% Vergrößerung eben bei den höheren Megapixeln besser auf?

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 1 Minute schrieb mindtrust:

... habe ich das richtig verstanden, daß es bei gleicher Sensorgröße bezüglich der Beugung egal ist, wie viele Megapixel dieser hat, nur fällt diese z. B. bei einer 100-%-Vergrößerung eben bei den höheren Megapixeln besser auf?

Du bist dir doch hoffentlich darüber im klaren, daß 100 % von viel mehr ist als 100 % von wenig.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Ich würde empfehlen, mal dieses Video 

zum Thema anzuschauen. Ich denke, dann wird vieles klarer.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Das Video werde ich mir auf jeden Fall zu gemüte führen und wenn ichs dann auch noch nicht vertanden habe melde ich mich nochmal 😉

Ich finde das Thema auf jeden Fall sehr interessant. Es kann natürlich auch u.U. an Haarspaltereien in den Begrifflichkeiten liegen, naja schau ma mal 🙂

bearbeitet von mindtrust

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Ich habe mir einen Teil des Videos angesehen und dann gestoppt. Hier geht es um harte Physik, die man messen kann. Die Zusammenhänge sind von vielen Wissenschaftlern überprüft worden; man kann davon ausgehen, dass die Erkenntnisse wahr sind.

Sicher hat der eine oder andere schon mal den Begriff "Dualismus des Lichtes" gehört. Darunter versteht man, dass Licht sowohl Eigenschaften von festen Körpern als auch von Wellen hat. So verlässt das Licht eine Taschenlampe wie die Kugel ein Gewehr: nämlich auf einer geraden Linie (die Erdanziehung mal ausser Acht gelassen).

Andererseits verhält sich Licht wie eine Welle; die kennt auch jeder, der schon mal einen Stein ins Wasser geworfen hat.

Ein Lichtstrahl durch einen Spalt mit Körpereigenschaften würde dann unverändert durch den Spalt "fliegen". Hinter dem Spalt hat der durchgegangene Lichtanteil die gleiche Farbe, Richtung und Leuchtkraft (pro gleichen Querschnitt) wie vor dem Spalt.

Ein Versuch zeigt aber was ganz anderes: Es entsteht hinter dem Spalt eine Ausbreitung des Lichtes, die man nur als Kugelwelle ab dem Spalt beschreiben kann. Das Licht kann plötzlich "Kurve"!

Um das besser zu verstehen hier Links: https://de.wikipedia.org/wiki/Beugung_(Physik) und hier: https://de.wikipedia.org/wiki/Optischer_Spalt .

Der Effekt bei kleinen Blenden (=grosser Blendenwert) ist dann, dass das Licht aus Bildbereichen mit hartem Kontrast (Linien) von der geraden Linie abweicht und sich eine Art Grauzone zwischen hellen und dunklen Bereichen aufmacht. Im Bild sieht man das als Unschärfe. Je kleiner die Blende, umso grösser dieser Effekt, den man auch als Beugungsunschärfe bezeichnet.

Für MFT mit seinen relativ kleinen Sensoren gilt: die grösste Schärfe bekommt man bei Blendenwerten 4 und 5,6. Blendenwerte wie 8, 11, 16  (oder gar 22 und 32) erzeugen manchmal mit blossem Auge sichtbare Unschärfen. Blenden 2,8 (und grösser) wirken manchmal weniger scharf. Meist ist dann aber die Ursache eine nicht 100% korrekte Entfernungseinstellung.

 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor einer Stunde schrieb mccs:

Für MFT mit seinen relativ kleinen Sensoren gilt: die grösste Schärfe bekommt man bei Blendenwerten 4 und 5,6. Blendenwerte wie 8, 11, 16  (oder gar 22 und 32) erzeugen manchmal mit blossem Auge sichtbare Unschärfen. Blenden 2,8 (und grösser) wirken manchmal weniger scharf. Meist ist dann aber die Ursache eine nicht 100% korrekte Entfernungseinstellung.

 

Dies kann ich anhand soeben ausgewerteter Probeaufnahmen mit der M5 II und der M10 II und verschiedenen Objektiven absolut bestätigen: bei Blende 8,0 beginnt der kritische Bereich, wobei für mich persönlich bei den (nicht-PRO) Festbrennweiten 25mm, 45mm, 60mm und 75mm die 8,0 in vielen Fällen noch im wirklich akzeptablen Bereich liegt. Bei großen Blendenöffnungen ab Offenblende 1,8 haben mich insbesondere die Schärfeleistungen des 45mm und des 75mm (Stativ, IS-OFF, manueller Fokus bei ca. 2,50m) ziemlich überzeugt, wobei nach meinem Empfinden auch das 25mm sehr gut dasteht. 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 2 Minuten schrieb Karsten H.:

Festbrennweiten 25mm, 45mm, 60mm und 75mm die 8,0 in vielen Fällen noch im wirklich

Ich bin wirklich pingelig was Details betrifft, Testserien habe ich aber nur mit wenigen gemacht, das 60er Macro ist bis F/11 zu gebrauchen und überrascht hat mich das 75er bis F/16 waren die Facetten von einer Libelle perfekt abgebildet

HG Frank

  • Gefällt mir 1
  • Danke 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Beugung ist eine mathematisch sauber beschriebene Form der Bildfaltung (Convolution). Entsprechend kann man sie auch durch ein inverses Verfahren wieder "wegrechnen" (Deconvolution).  Von Fuji und Olympus ist bekannt, dass sie dies Verfahren verwenden. Solange man Systemobjektive und Systemsoftware nutzt, muss man sich um Beugung eigentlich keine Gedanken machen.

Anbei ein Beispiel, wo die Wirkung ungebremst duchschlägt- es wurde mit der M5.2 und einer effektiven Blende von ca. 230 aufgenommen. Dabei kommt natürlich auch Sensordreck zutage, und um die Dreckklümpchen erkennt man deutlich die Wellenfronten des Lichts. Sie erinnern paradoxerweise an Schärfungshalos.

Y4210373f180.jpg

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor einer Stunde schrieb EyeView:

Testserien habe ich aber nur mit wenigen gemacht, das 60er Macro ist bis F/11 zu gebrauchen

Speziell beim MFT 60/2.8 Macro fand ich interessant, dass es beim Schließen der Blende früher an Schärfe verliert als das alte FT 50/2 Macro. Blende 11 finde ich beim 60er schon nicht mehr akzeptabel, während ich das 50er problemlos auf 11 abblende. Einer der Gründe, aus denen ich das 50er nicht weggeben werde...

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
Zitat

Beugung ist eine mathematisch sauber beschriebene Form der Bildfaltung (Convolution). Entsprechend kann man sie auch durch ein inverses Verfahren wieder "wegrechnen" (Deconvolution). 

Stimmt nicht ganz: Eine Faltung kann mathematisch genau berechnet werden, nicht jedoch die Umkehrung (oder zurück rechnen). Der Grund ist ganz einfach: Durch Faltung verlorene Inhalte (oder allgemein: Daten) sind weg - für immer. Ein Beispiel zum nachvollziehen, von was hier geredet wird und das jeder mal ausprobieren kann:

  • man nehme ein scharfes Bild
  • man erhöhe die Unschärfe (z.B. gauss' sche Unschärfe)
  • man schärfe zurück

Ergebnis: das scharfe Ursprungsbild ist nicht zu toppen. Die Bildfaltung (hier: Unschärfe streng nach Gauss berechnet) kann nicht zu 100% zurückgerechnet werden.

Auch Systemobjektive und -software eines Herstellers können Physik nicht überlisten und was herbeizaubern. Allerdings kann man davon ausgehen, dass sie eine sehr optimale Rechenformel gefunden haben und anwenden, um bestmögliche Ergebnisse zu schaffen.

Bei der Beugung durch kleine Blende muss man auch noch berücksichtigen, dass verschiedene Wellenlängen (des sichtbaren Lichtes, also die Farbe) unterschiedlich abgelenkt werden. Wird man noch kritischer, kann man auch postulieren: jedes Luftmolekül beugt...

Das Berechnen wird so nicht einfacher.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor einer Stunde schrieb mccs:

Bei der Beugung durch kleine Blende muss man auch noch berücksichtigen, dass verschiedene Wellenlängen (des sichtbaren Lichtes, also die Farbe) unterschiedlich abgelenkt werden. Wird man noch kritischer, kann man auch postulieren: jedes Luftmolekül beugt...

Das Berechnen wird so nicht einfacher.

Beugung ist zunächst mal nur die Fähigkeit von Wellen, sich im Schattenraum eines Hindernisses auszubreiten. Dies sorgt nach einer Blendenkante dafür, dass die Lichtstrahlen, die genau an diese Kante stoßen, nach nicht geradlinig, sondern auch nach außen hin ausbreiten. Interferieren diese Lichtstrahlen je nach Wellenlänge und Beugungswinkel, entstehen Bereiche gegenseitiger Verstärkung und Abschwächung (Beugungsringe). Diese Lichtstrahlen, die ja mittels Linsen etc. für einen bestimmten Zielpunkt auf dem Sensor treffen sollen, verfehlen ihr Ziel somit ein wenig, wodurch der Zielpunkt etwas verwaschen und damit unscharf wird. Dieser Effekt ist immer da, aber er wird größer, je flacher der Einfallswinkel der äußeren Strahlen ist und je weniger mittlere, also ungebeugte, Strahlen es gibt, die diese Störung überlagernd vermindern. Beides ist bei kleinen Blenden der Fall. Beugung hängt von der Wellenlänge, also der Farbe ab. Mit rein optischen Mitteln ist es schwer, dem entgegen zu wirken, weil die Effekte immer in die gleiche Richtung wirken und nicht umkehrbar sind. Ein Ansatz lautet wohl Apodisation.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.


  • Wer ist Online   0 Benutzer

    Keine registrierten Benutzer online.

×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist.