Jump to content

Die OM System Community
Ignoriert

Beugung / Off Topic aus "dpreview Interview mit Aki Murata"


Proust

Empfohlene Beiträge

vor 36 Minuten schrieb Proust:

Früher gab es noch das physikalisch bedingte Thema der Beugung, in Abhängigkeit von Pixelabstand und Blende. Wie wurde dies ausgehebelt, so daß die Pixelzahl immer weiter nach oben geschraubt werden kann?

Ich verstehe Deine Frage nicht. Beugung ist eine Eigenschaft des Objektivs und, ja, abhängig von der Blende - und zunehmende Beugung führt zu einer Verringerung der Auflösung, wiederum als Eigenschaft des Objektivs. Erst auf dem Sensor (mit einer gewissen Pixelzahl/dichte, von mir aus mit einem gewissen Pixelabstand) stellt sich dann heraus, ob die Auflösung des Objektivs im Verhältnis zum Pixelabstand (bei zunehmender Pixelzahl/dichte, bzw. abnehmendem Pixelabstand) nicht mehr ausreichend ist für eine gute Bildqualität.

Aber es gibt doch nicht das physikalisch bedingte Thema der Beugung in Abhängigkeit von Pixelabstand; auch nicht früher.

Um fair zu sein, versuche ich eine fachliche Direkt-Antwort darauf, wie ich Deine Bemerkung letztlich verstanden habe: Heutzutage sind manche Objektive in der Auflösung (zumindest ohne erhöhte Beugung) besser als das, was von den bestehenden Sensoren verlangt wird; da wäre dann noch eine Reserve drin zur Erhöhung der Pixelzahl/dichte, bzw. zur Erniedrigung des Pixelabstandes 😉

Gruß, Hermann

bearbeitet von Nieweg
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 54 Minuten schrieb Proust:

Früher gab es noch das physikalisch bedingte Thema der Beugung, in Abhängigkeit von Pixelabstand und Blende. Wie wurde dies ausgehebelt, so daß die Pixelzahl immer weiter nach oben geschraubt werden kann?

Nein aber es wird dem Fotografen überlassen das er nur das beste Objektiv bei der optimalsten Blende verwendet und auch nicht gesagt wie viel von der Auflösung es tatsächlich noch ins Bild schafft.

Bei der HiRes Funktion haben sie zumindest eine Sperre eingebaut das man wegen der Beugung keine Blende über 8 verwenden kann.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Axel.F.:

Oder den Preis...

 

 

Das glaube ich kaum. Die sind da schon am oberen ende was für m4/3 geht und für F4.5 zu bekommen wäre. Das Nikkor 180-400 F4 z.B. kann man mittlerweile für um die 10.000 bekommen.

 

B

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Proust:

Früher gab es noch das physikalisch bedingte Thema der Beugung, in Abhängigkeit von Pixelabstand und Blende. Wie wurde dies ausgehebelt, so daß die Pixelzahl immer weiter nach oben geschraubt werden kann?

Hermann Nieweg hat recht: Da gibt's nichts "auszuhebeln". Denn Beugung war noch nie vom Pixelabstand abhängig – weder früher noch heute oder in Zukunft. Die Beugung selbst hängt (für gegebenes Licht) allein von der Blende ab, und der dadurch verursachte Schaden, also die Beugungsunschärfe, auch noch vom Aufnahmeformat. Pixel bzw. deren Größe, Anzahl oder Abstand kommen in diesem Zusammenhang überhaupt nicht vor.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb Proust:

Früher gab es noch das physikalisch bedingte Thema der Beugung, in Abhängigkeit von Pixelabstand und Blende. Wie wurde dies ausgehebelt, so daß die Pixelzahl immer weiter nach oben geschraubt werden kann?

Beugung ist eine sauber definierte Form der Bildfaltung (Konvolution). Die kann man durch eine entsprechende Gegenrechnung (Deconvolution) in Grenzen wieder entfernen. Machen Fuji und Oly schon heute - und die Smartphones wahrscheinlich sowieso.

  • Gefällt mir 1
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb rodinal:

Beugung ist eine sauber definierte Form der Bildfaltung (Konvolution). Die kann man durch eine entsprechende Gegenrechnung (Deconvolution) in Grenzen wieder entfernen. Machen Fuji und Oly schon heute - und die Smartphones wahrscheinlich sowieso.

Beugung ist eine Form von Konvolution - in der Form so erklärbar, die Parameter variieren; der Pixelabstand ist nicht einer dieser Parameter. Dass Olympus Deconvolution in ihren Kameras (oder meinst Du in ihrer Objektiven?) betreibt, wusste ich nicht; wäre mE ein ganz beträchtlicher Rechen-Aufwand, auch mit Bedarf an Randbedingungen als Input.

bearbeitet von Nieweg
Link zu diesem Kommentar
Auf anderen Seiten teilen

Beugung ist zunächst einmal nur die Eigenschaft von allen Wellen, sich im Schattenbereich eines Hindernisses oder einer Grenze (z.B. Blendenrand) auszubreiten. Dies ist spätestens seit dem 17. Jahrhundert bekannt. Die strahlenoptisch unerwünschten Effekte, die dies nach sich zieht, wirken bei kleinen Blendenöffnungen stärker. Unschärfe entsteht, wenn Licht von einem Gegenstandspunkt nicht genau auf einem Punkt der Bildebene gebündelt wird, sondern auf mehreren Punkten der Bildebene landet. Im nanoskopischen Bereich spielt das Verhältnis zwischen Öffnungsbreite und Wellenlänge eine entscheidende Rolle. Dann spricht man von Interferenzen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 56 Minuten schrieb Nieweg:
vor 2 Stunden schrieb rodinal:

... kann man durch eine entsprechende Gegenrechnung (Dekonvolution) in Grenzen wieder entfernen. Machen Fujifilm und Olympus schon heute ...

Daß Olympus Dekonvolution in ihren Kameras [...] betreibt, wußte ich nicht ...

Nur weil rodinal so etwas behauptet, muß es noch lange nicht stimmen.

bearbeitet von Omzu Iko
Link zu diesem Kommentar
Auf anderen Seiten teilen

Sorry, ich muss das klar stellen. Auch wenn hier nichts ganz falsches geschrieben wurde, ist einiges doch missverständlich.

vor 11 Stunden schrieb rodinal:

Beugung ist eine sauber definierte Form der Bildfaltung (Konvolution). Die kann man durch eine entsprechende Gegenrechnung (Deconvolution) in Grenzen wieder entfernen. Machen Fuji und Oly schon heute - und die Smartphones wahrscheinlich sowieso.

Ja, man kann das Bild auf dem Sensor als Faltung zwischen „echtem“ oder „idealem“ Bildsignal und der Punktabbildungsfunktion sehen, die bei einem geometrisch perfekt korrigiertem Objektiv durch die Beugungsfunktion (hier mehr auf Wikipedia) definiert wird.

Man hat früher diese komplexe Beugungsfunktion reduziert auf das sog. Airy-Scheibchen, dessen Winkelgröße abhängt von Wellenlänge und Blendendurchmesser und daraus ein Maximum an Auflösung ausgerechnet. Verkürzt gesagt: Wenn Beugungsscheibchen größer als Sensorpixel, bringt mehr Auflösung nix.

Dabei wurde so getan, als ob das Beugungsbild ein homogenes Scheibchen ist, dabei ist das ein „Buckel“. Und wenn man die Eigenschaften dieses Buckels genau kennt, kann man noch etwas mehr Auflösung rauskitzeln. Fujifilm macht das mit der LMO Funktion.

Wer sich für die ausführliche Begrüdung interessiert, hier ist auf photoscala eine gute Erklärung.

Mit dieser Funktion kann man aber auch nur sehr begrenzt mehr Auflösung rausholen!

Nur um dem Missverständnis vorzubeugen, man könne die Konvolution einfach durch eine De-Konvolution wieder rausrechnen. Das ist, als ob man einen Rührteig einfach wieder entrühren möchte…

vor 9 Stunden schrieb Karsten H.:

Beugung ist zunächst einmal nur die Eigenschaft von allen Wellen, sich im Schattenbereich eines Hindernisses oder einer Grenze (z.B. Blendenrand) auszubreiten. Dies ist spätestens seit dem 17. Jahrhundert bekannt. 

Ja, das kann man so sagen.

vor 9 Stunden schrieb Karsten H.:

Die strahlenoptisch unerwünschten Effekte, die dies nach sich zieht, wirken bei kleinen Blendenöffnungen stärker. 

Beugung ist umso stärker, je kleiner die Blende ist – das ist aber Wellenoptik und keine Strahlenoptik oder „strahlenoptisch unerwünscht“.

vor 9 Stunden schrieb Karsten H.:

Unschärfe entsteht, wenn Licht von einem Gegenstandspunkt nicht genau auf einem Punkt der Bildebene gebündelt wird, sondern auf mehreren Punkten der Bildebene landet.

 

Unglücklich formuliert…

Ein Punkt ist unendlich klein, daher kann in der realen Welt nie ein echtes Punktbild entstehen. Das ist für die Optik eine Abstraktion, die in der reinen Strahlenoptik funktioniert, aber alle optischen Fehler und Beugungsphänomene ignoriert.

Ich würde so formulieren: Unscharf ist, wenn die Abbildungsgröße des Punktbildes größer als die Auflösung des Systems ist – Wahrnehmung des menschlichen Auges oder Auflösung des Sensors. Die Abbildung eines Punktbildes sind auch nie „mehrere Punkte“ sondern eine zweidimensionale Funktion – vereinfacht kann das eine Kreisfläche sein.

vor 9 Stunden schrieb Karsten H.:

Im nanoskopischen Bereich spielt das Verhältnis zwischen Öffnungsbreite und Wellenlänge eine entscheidende Rolle. Dann spricht man von Interferenzen.

Das Beugungsbild ist IMMER abhängig von Blendengröße und Wellenlänge. Alle drei Werte (Blendengröße, Wellenlänge und sich ergebendes Beugungsbild) können alle mögliche Bereiche erreichen – Beugung gilt nicht nur für Licht und Fotografie.

Auch wenn wir nur von Fotografie und sichtbarem Licht sprechen: Wellenlängen liegen im Bereich 400 – 800 nm, Blendendurchmesser im Bereich Millimeter, Beugungsunschärfe im Bereich Mikrometer.

vor 9 Stunden schrieb Karsten H.:

Dann spricht man von Interferenzen.

Nein, Interferenzen sind die wellenoptischen Überlagerung mehrerer Wellen, das ist für das Thema Beugung nicht relevant.

Gruß
Andreas

  • Gefällt mir 1
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Andreas J:

Ja, man kann das Bild auf dem Sensor als Faltung zwischen „echtem“ oder „idealem“ Bildsignal und der Punktabbildungsfunktion sehen, die bei einem geometrisch perfekt korrigiertem Objektiv durch die Beugungsfunktion definiert wird.

Deswegen habe ich in #7 es auch so geschrieben Beugung ist eine Form von Konvolution - in der Form so erklärbar. Danke, Andreas, für Deinen Beitrag. Gruß, Hermann

Link zu diesem Kommentar
Auf anderen Seiten teilen

In der Praxis ergibt sich aus der Beugug und anderen Einflüssen für jedes Objektiv (jedes Objektivmodell) eine bestimmte optimale Blende. Und die Kennzeichnung der opt. Blende in der Blendenreihe.

Was wünsch ich mir daher? Einen Menüpunkt in der Kam, wo ich einstellen kann, dass die optimale Blende je nach angesetztem Objektiv eingestellt wird. Für alle, die jetzt sagen brauch ich nicht, hamma noch nie gehabt usw.: Muss man nicht einschalten, soll auswählbar sein.

bearbeitet von king kong
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Andreas J:

Ein Punkt ist unendlich klein, daher kann in der realen Welt nie ein echtes Punktbild entstehen. Das ist für die Optik eine Abstraktion, die in der reinen Strahlenoptik funktioniert, aber alle optischen Fehler und Beugungsphänomene ignoriert.

Ich würde so formulieren: Unscharf ist, wenn die Abbildungsgröße des Punktbildes größer als die Auflösung des Systems ist – Wahrnehmung des menschlichen Auges oder Auflösung des Sensors. Die Abbildung eines Punktbildes sind auch nie „mehrere Punkte“ sondern eine zweidimensionale Funktion – vereinfacht kann das eine Kreisfläche sein.

Das erscheint mir jetzt widersprüchlich. Also gibt es jetzt "Punktbilder" oder nicht? Und wenn die Abbildungsgröße des "Punktbildes" bei gleichem Abbildungsmaßstab genau so groß ist wie die Gegenstandsgröße, dann ist das Bild doch scharf, oder? Das bedeutet auch, dass es größer als das Auflösungsvermögen des Auges sein muss. Natürlich hängt die Unschärfewahrnehmung vom Auge ab, aber rein physikalisch auch vom Sensor? Schärfe und Unschärfe gibt es schließlich auch bei analogen Kameras und sogar bei Lochkameras. An letzterer kann man Unschärfe übrigens sehr gut studieren. Allerdings handelt es sich hierbei nicht um Beugungsunschärfe, sondern um rein strahlenoptische Unschärfe. Auch Deine Definition von Unschärfe als "Auflösungsvermögen des Systems" hat ebenfalls nichts mit Beugung zu tun. Die Beugung, die ich ansprach, ist ein Effekt am Blendenrand und hat nichts mit der Auflösung des Systems zu tun.

vor 3 Stunden schrieb Andreas J:

Nein, Interferenzen sind die wellenoptischen Überlagerung mehrerer Wellen, das ist für das Thema Beugung nicht relevant.

Also ich mache immer viele schöne Versuche mit denen man zeigen kann, wie aus Beugung Interferenz entsteht (Beugung am Spalt, Beugung am Doppelspalt, Beugung am Gitter und am optischen Gitter, Braggreflexion, Röntgenkristallographie)

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb king kong:

Was wünsch ich mir daher? Einen Menüpunkt in der Kam, wo ich einstellen kann, dass die optimale Blende je nach angesetztem Objektiv eingestellt wird. Für alle, die jetzt sagen brauch ich nicht, hamma noch nie gehabt usw.: Muss man nicht einschalten, soll auswählbar sein.

Klar!

Ich würde das Ganze noch um ein Untermenü ergänzen, in dem, das seit Truepic VII vorhandene, brennweiten- und blendenabhängige „Fine Detail Enhancement“ deaktiviert werden kann, damit nicht mehr vorhandene Beugungseffekte nicht zweimal verringert oder vermieden werden.

Weiterhin wäre bei aktiviertem Menüpunkte „IchWähleJetztDieOptimaleBlendeFürDich“ eine rote Einblendung im Sucher und Display sinnvoll. Vorschlag: „Vergiss nicht mich zu deaktivieren“

Ein weiterer Warnhinweise sollte beim vergeblichen Versuch die Blende über das Optimum hinaus zu schließen angezeigt werden. Vorschlag: „Du hast doch eben „IchWähleJetztDieOptimaleBlendeFürDich“ aktiviert“

Als letztes sollten wir im Forum für den Bereich FaQ mit der Formulierung einer Antwort auf die Frage: „Ich habe ein Objektiv mit kleinster Blende 22 gekauft. Es blendet aber immer ungefragt nur auf Blende 8 ab. Betrügt OMDS oder muss ich jetzt das System wechseln?“ zu beginnen. 😉😉😉

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

Zitat: "Also ich mache immer viele schöne Versuche mit denen man zeigen kann, wie aus Beugung Interferenz entsteht (Beugung am Spalt, Beugung am Doppelspalt, Beugung am Gitter und am optischen Gitter, Braggreflexion, Röntgenkristallographie) "

Durch Beugung einer Welle am Spalt entstehen (grob gesprochen) zwei Wellen, die sich dann überlagern und daurch Interferenzen Bilden. Ist jetzt die Blende des Objektives ein Spalt in diesem Sinne?

bearbeitet von king kong
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Karsten H.:

Also gibt es jetzt "Punktbilder" oder nicht? Und wenn die Abbildungsgröße des "Punktbildes" bei gleichem Abbildungsmaßstab genau so groß ist wie die Gegenstandsgröße, dann ist das Bild doch scharf, oder? Das bedeutet auch, daß es größer als das Auflösungsvermögen des Auges sein muß. Natürlich hängt die Unschärfewahrnehmung vom Auge ab, aber rein physikalisch auch vom Sensor? Schärfe und Unschärfe gibt es schließlich auch bei analogen Kameras und sogar bei Lochkameras. An letzterer kann man Unschärfe übrigens sehr gut studieren. Allerdings handelt es sich hierbei nicht um Beugungsunschärfe, sondern um rein strahlenoptische Unschärfe. Auch deine Definition von Unschärfe als "Auflösungsvermögen des Systems" hat ebenfalls nichts mit Beugung zu tun. Die Beugung, die ich ansprach, ist ein Effekt am Blendenrand und hat nichts mit der Auflösung des Systems zu tun.

Wenn ich jetzt die Zeit und die Geduld hätte, auf diesen Beitrag näher einzugehen, so wüßte ich gar nicht so recht, wo ich anfangen sollte. Du redest ganz schön viel wirres Zeug. :classic_dry:

.

vor einer Stunde schrieb Karsten H.:

Also ich mache immer viele schöne Versuche, mit denen man zeigen kann, wie aus Beugung Interferenz entsteht (Beugung am Spalt, Beugung am Doppelspalt, Beugung am Gitter und am optischen Gitter, Bragg-Reflexion, Röntgenkristallographie).

Schön. Dann zeig doch mal die Interferenz durch Beugung am Spalt.

.

vor 32 Minuten schrieb king kong:

Durch Beugung einer Welle am Spalt entstehen (grob gesprochen) zwei Wellen, die sich dann überlagern und dadurch Interferenzen bilden.

Doppelspalt. Für zwei Wellen braucht's zwei Spalte. Und dann klappt's auch mit der Interferenz.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Karsten H.:

Also gibt es jetzt "Punktbilder" oder nicht?

Gemeint ist:

Wie sieht die Abbildung auf Bildseite eines Lichtpunkts auf Gegenstandseite aus? Also „Abbildung eines Punktes“.

Theoretisch kann man das Punktbild per Simulation errechnen, experimentell muss man natürlich mit einer Näherung arbeiten.

Zum Schärfebegriff: Es kann in der realen Welt keine perfekte Schärfe geben – es gibt immer zumindest Beugung, egal wie groß die Blende bzw. die Eintrittspupille ist.

Daher ist es nur sinnvoll zu formulieren, WIE unscharf es denn höchstens sein soll.

Für die ganzen Berechnungen von Tiefenschärfe wird z.B. von der menschlichen Wahrnehmung ausgegangen. Nach dieser Definition ist scharf, was bei Betrachtung aus Entfernung = Bilddiagonale durch das menschliche Auge aufgelöst werden kann oder nicht.

Für ein Kamera-Objektiv-System ist es sinnlos, das Objektiv zu verbessern (oder die Beugung durch Öffnen der Blende zu reduzieren), wenn der Sensor nicht in der Lage ist, das bessere Bild auf dem Sensor überhaupt zu erfassen.

vor einer Stunde schrieb Karsten H.:

Also ich mache immer viele schöne Versuche mit denen man zeigen kann, wie aus Beugung Interferenz entsteht

Tolle Sache. Hat aber nix mit den Beugungsphänomenen zu tun, die für Bildschärfe etc. relevant sind.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Minuten schrieb Omzu Iko:

Doppelspalt. Für zwei Wellen braucht's zwei Spalte. Und dann klappt's auch mit der Interferenz.

Wirres Zeug? Da hat wohl einer damals in Physik nicht aufgepasst! Beim Einzelspalt gibt es auch zwei Spalte. Nur ist zwischen diesen beiden Spalten kein Abstand. So wird es elegant erklärt mit Hilfe des Huygensschen Prinzips. Dämmert's?

(Nachhilfe gibt es bei: Metzler Physik (Hrsg: Grehn, Krause) 5. Auflage, Westermann Schulbuch Verlag 2020, S. 313)

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 14 Minuten schrieb Andreas J:

Tolle Sache. Hat aber nix mit den Beugungsphänomenen zu tun, die für Bildschärfe etc. relevant sind.

Habe ich auch nicht behauptet.

Schön, dass Beiträge vom Moderator 1. sachlich richtig gestellt, 2. zum Wohle der Community umformuliert und 3. auf strenge Relevanz geprüft werden. Du wirst mich sicher belehren, wenn ich frage, ob das auch alles so in den Community-Regeln steht?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 12 Minuten schrieb Andreas J:

Für ein Kamera-Objektiv-System ist es sinnlos, das Objektiv zu verbessern (oder die Beugung durch Öffnen der Blende zu reduzieren), wenn der Sensor nicht in der Lage ist, das bessere Bild auf dem Sensor überhaupt zu erfassen.

Uh oh.

Diese Aussage ist zwar im Prinzip richtig. Doch leider induziert sie bei den meisten Lesern jede Menge falscher Vorstellungen darüber, wann genau ein Sensor nicht in der Lage wäre, eine verbesserte Objektivleistung zu erfassen.

Die laienhafte und weitverbreitete Auffassung hierzu geht davon aus, die Nichtpunktförmigkeit der Abbildung eines Punktes (sei es als Defokussierungs-Streuscheibchen, als Beugungsscheibchen, als Verwacklungsspur, als Seidel'scher Abbildungsfehler etc.) hätte keinen Einfluß auf die Bildschärfe, solange deren spatiale Ausdehnung (Durchmesser bzw. Länge) kleiner ist als der Pixelabstand des aufzeichnenden Sensors.

Und das wäre falsch.

Das heißt, in der Praxis – also bei realen Objektiven und realen Sensoren nach heutigem technischen Stand – bringt eine Verbesserung der Objektivleistung immer etwas. Und eine Verbesserung der Sensorauflösung bringt ebenfalls immer etwas. Beide Auflösungen – also sowohl die des Objektives als auch die des Sensors – müßten schon extrem hoch sein, damit eine zusätzliche Steigerung nichts mehr brächte. Soweit ist die aktuelle Technik aber noch nicht ... zumindest die nicht, die wir gerade noch so bezahlen können.

Link zu diesem Kommentar
Auf anderen Seiten teilen

 

vor 12 Minuten schrieb Omzu Iko:

Uh oh.

Diese Aussage ist zwar im Prinzip richtig. Doch leider induziert sie

Ich switsche hier von Beitrag zu Beitrag zwischen „technisch einigermaßen sauber“ und „pragmatisch für die Anwendung formuliert“.

Oben hatte ich das durchaus ausführlicher erklärt (und eine noch ausführlichere Erklärung verlinkt😞

vor 5 Stunden schrieb Andreas J:

Man hat früher diese komplexe Beugungsfunktion reduziert auf das sog. Airy-Scheibchen, dessen Winkelgröße abhängt von Wellenlänge und Blendendurchmesser und daraus ein Maximum an Auflösung ausgerechnet. Verkürzt gesagt: Wenn Beugungsscheibchen größer als Sensorpixel, bringt mehr Auflösung nix.

Dabei wurde so getan, als ob das Beugungsbild ein homogenes Scheibchen ist, dabei ist das ein „Buckel“. Und wenn man die Eigenschaften dieses Buckels genau kennt, kann man noch etwas mehr Auflösung rauskitzeln. Fujifilm macht das mit der LMO Funktion.

Wer sich für die ausführliche Begründung interessiert, hier ist auf photoscala eine gute Erklärung.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Minuten schrieb Andreas J:

Oben hatte ich das durchaus ausführlicher erklärt ...

Äh ... nein. Denn der Unterschied zwischen der vereinfachten Modellvorstellung eines Beugungsmusters als simples Airy-Scheibchen und der tatsächlichen Form als "Buckel, umgeben von Ringen" ist hier gar nicht der entscheidende Punkt. Einerlei, ob einförmiges Scheibchen oder differenzierter Buckel – so oder so ist der Pixelabstand nicht direkt maßgeblich. Mehr Pixel sind besser. Immer. Oder na schön, praktisch immer.

.

vor 4 Minuten schrieb Andreas J:

... und eine noch ausführlichere Erklärung verlinkt.

Ja, hattest du. Ich selber habe schon öfter (hier und anderswo, und jedesmal vergebens) auf jenen Artikel von Randolf Butzbach verwiesen. Doch sogar Thomas Maschke selbst – der damalige, leider viel zu früh verstorbene Betreiber von photoscala.de – hatte den Artikel seines Gastautoren schon damals nicht verstanden und die darin widerlegten Mythen nur wenig später schon wieder aufs neue zum besten gegeben. Warum sollte ihn heute irgend jemand verstehen?

Link zu diesem Kommentar
Auf anderen Seiten teilen

In der Praxis ists noch ein Bisschen komplizierter, weil nicht nur die Blende beugt, sondern auch der Schlitzverschluss (natürlich nur, wenn nicht ein Zentralverschluss verwendet wird). Und dieses SchlitzSpaltBeugungsInterferenzmuster bewegt sich auch noch und überlagert sich mit allen anderen optischen Fehlern.

bearbeitet von king kong
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb king kong:

In der Praxis ists noch ein Bisschen komplizierter, weil nicht nur die Blende beugt, sondern auch der Schlitzverschluss (natürlich nur, wenn nicht ein Zentralverschluss verwendet wird). Und dieses SchlitzSpaltBeugungsInterferenzmuster bewegt sich auch noch und überlagert sich mit allen anderen optischen Fehlern.

Das wäre mir komplett neu – und ich kann mir nicht vorstellen, dass irgendeinen Effekt haben könnte, den man auch nur im entferntesten messen könnte.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung