Jump to content

Die OM System Community
Ignoriert

Hi Res Shot: Anforderungen an die Objektive


Empfohlene Beiträge

vor 33 Minuten schrieb McForester:

Meiner Meinung nach gibt es bei High Res. Aufnahmen keine höheren Anforderung an die Objektive. Da die höhere Auflösung durch das verrechnen von Einzelbildern ensteht, bleiben die Anforderungen immer gleich. Steigen würden sie nur bei einer nativ höheren Auflösung des Sensors.

An McForester: Grob vereinfacht gesprochen war mein Ansatz zum Thread folgender: Wenn die Einzelbilder (weil gemacht mit 'schlechten' Objektiven) schon so schlecht sind, dass eine HiRes-Verrechnung  von weiteren Einzelbildern (die nur 1/2 Pixelbreite verschoben sind) auch keine Verbesserung bringen kann, sollte man da nicht gleich bessere Einzelbilder (sprich: Höher auflösende PRO-Objektive) machen?

Ein Zahlenbeispiel, stark übertrieben: Wenn ein 'schlechtes' Objektiv nur 3 Pixelbreiten auflöst, dann macht doch eine Verschiebung um ein halbes Pixel keinen Sinn.

Und dann würde auch Deine Vermutung, Zitat: Steigen würden sie nur bei einer nativ höheren Auflösung des Sensors auch nicht greifen.

Zum Glück hat ja die Diskussion des Threads einige einteressante und positive Beiträge gebracht. Danke dafür und Gruß, Hermann

bearbeitet von Nieweg
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb McForester:

Meiner Meinung nach gibt es bei High Res. Aufnahmen keine höheren Anforderung an die Objektive. Da die höhere Auflösung durch das verrechnen von Einzelbildern ensteht, bleiben die Anforderungen immer gleich. Steigen würden sie nur bei einer nativ höheren Auflösung des Sensors.

So sehe ich das auch. Gegenstimmen?

bearbeitet von Martin Groth
Link zu diesem Kommentar
Auf anderen Seiten teilen

Die vom Objektiv erzeugte Abbildung definiert den maximalen Informationsgehalt, salomonisch gesprochen kommt es daher darauf an, um welchen High-Res-Modus es geht. Beim normalen High-Res-Modus gilt, dass sich diese Abbildung und damit der Informationsgehalt zwischen den Aufnahmen nicht ändert (vorausgesetzt, das Motiv verändert sich nicht), es spielt daher keine Rolle ob der Sensor nativ besonders hoch auflöst oder durch Verschieben eine hohe Auflösung erzeugt wird - die Anforderungen wären jeweils gleich und damit für einen maximalen Nutzen höher als bei einer normalen Aufnahme. Beim Handheld-High-Res-Modus hingegen verändert sich der Informationsgehalt der Abbildung durch das Bewegen des Objektivs bei jeder Aufnahme, so dass eine höhere Auflösung erzielt werden kann auch wenn das Objektiv diese Leistung selbst gar nicht bringt. Dementsprechend unterscheiden sich hier die Anforderungen nicht von denen einer normalen Aufnahme.

In der Praxis gibt es allerdings keine harten Grenzen, das Verrechnen von mehreren Aufnahmen verbessert die Bildqualität auch über die reine Auflösung hinaus und der Faktor Zeit kann durchaus auch eine Rolle spielen, insofern lohnt sich selbst mit einem schlechteren Objektiv der normale High-Res-Modus, selbst wenn der Auflösungsgewinn überschaubar bleibt. Will man aber die maximale Leistung, dann sollte das Objektiv dazu auch in der Lage sein. 

  • Gefällt mir 1
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb Helios:

Will man aber die maximale Leistung, dann sollte das Objektiv dazu auch in der Lage sein. 

So sieht es aus, ich nutze den HiRes-Modus nun schon ein paar Jahre für statische Motive, der zusätzliche Aufwand ist überschaubar und die Ergebnisse sind diesen Aufwand wert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 15 Stunden schrieb McForester:

Meiner Meinung nach gibt es bei High Res. Aufnahmen keine höheren Anforderung an die Objektive. Da die höhere Auflösung durch das verrechnen von Einzelbildern ensteht, bleiben die Anforderungen immer gleich. Steigen würden sie nur bei einer nativ höheren Auflösung des Sensors.

 

Vielleicht liege ich mit meiner Meinung auch komplett daneben🤔

Ja du liegst daneben, weil die höhere Auflösung eben durch das Verrechnen unterschiedlicher Einzelbilder entsteht. Das heißt konkret: Der Bildinhalt eines um 1/2 Pixel verschobenen Bildes, ist ein anderer als der des Ursprungbildes und deshalb muß das Objektiv das auch liefern können. Ob die Auflösungssteigerung durch Verschieben des Sensors und anschießendes Verrechnen, oder durch einen höher auflösenden Sensor erfolgt,  ist für die Auflösung irrelevant. Deshalb ja auch die Auflösungsunterschiede zwischen verschiedenen Objektiven bei High Res. Hochauflösende Objektive profitieren deutlich stärker. Wenn ein Objektiv die Verschiebung um 1/2 Pixel nicht auflösen könnte, gäbe es auch mit High- Res keinen Gewinn.

Gruß Thorsten

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Was die Dinge so kompliziert macht, ist das beim HR-Modus die Auflösung auf 2 Weisen vergrößert wird. Als Erstes werden ja 4 Bilder mit einem ganzen Pixelversatz aufgenommen. Damit erhält man ein Bild, das zwar nominell die selbe Auflösung hat wie ein Einzelbild, aber an jedem Punkt alle 3 Farben aufgezeichnet hat. Die Bayer-Interpolation ist also nicht mehr notwendig und damit alleine steigt schon die Bildqualität und Auflösung.

Dann werden noch mal 4 Bilder um 1/2 Pixel verschoben aufgenommen, wir bekommen also ein zweites Bild von all den Zwischenpunkten. Das würde die Bildauflösung sehr deutlich nach oben schrauben. Allerdings wurde zwar an doppelt so vielen Punken abgetastet, aber die Größe der Pixel ist gleich groß geblieben, damit überlappen sie natürlich jeweils um 50%. Das ist vergleichbar zu einem Sensor mit höherer Auflösung, allerdings mit einem Antialiasing-Filter. Aber wenn die Verschiebung mehr Auflösung liefert, müssen natürlich genug Details im Bild, das das Objektiv auf den Sensor wirft, vorhanden sein. Dabei wird ein besseres Objektiv mehr Kontrast in diesen kleinen Details liefern, was auch zu mehr Details im aufgenommenen Bild führt.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nur eine kleine Anmerkung dazu.

Das vorhin analysierte gilt natürlich nur unter idealen Bedingung, die wir aber wohl in den seltensten Fällen haben.
Sobald die Luftgüte dazwischen ein Wörtchen mitzureden hat, kommt dieser weitere Faktor ins Spiel.
Und dann hilft sowieso nur mehr viel hilft viel, was dann in exzessivem Stacking endet.

Natürlich wird da eine gut auflösende Linse auch mehr Potential an Auflösung bringen und sollte sie das ausspielen können werden zumindest weniger Bilder reichen um auf ein gewisses Niveau zu kommen.
Beim Einsatz einer schlechteren Linse wird man viel schneller ans Machbare stoßen. Wer fertigt schon Millionen an Bildern an.....

Bekommt man bei HR natürlich gleich augenscheinlich ein größeres Bild, bei normalen Stacken sieht man den Mehrwert des Aufwandes aber augenscheinlich zunächst mal  nicht.
Erst wenn wir hinterher den Stack schärfen, werden wir sehen, dass da sehr viel mehr geht, als beim Einzelbild.
Denn die Artefakte, sind mehr oder weniger weg.
Je nach Güte des Stacks stößt man dann aber auch hier bald mal an Grenzen, wo einfach nicht mehr möglich ist. Die zu erkennen und nicht mehr zu wollen als ein Bild hergibt, ist auch eine Kunst.

Das Schärfen, so wie es die meisten kennen und haben, ist aber oft nur ein hervorheben von Kontrastkanten, was Informationen im Bild zerstört.

Da kommt dann Deconvolution (entfalten) ins Spiel.

Kurz gesagt: Es ist das  Gegenteil von "falten" (convolution) 😉

Unser Bild wird durch Störquellen "gefaltet" also verfälscht. Wenn wir jetzt wissen, wie es gestört (=PSF, point spread function)  wurde, kann man sein Bild also rekonstruieren. Dieses mathematische Verfahren der Bildrekonstruktion wurde breit bekannt, da es zur Korrektur des fehlsichtigen Hubble Space Teleskop angewendet wurde.

Salopp gesagt, wäre Deconvolution in der Lage, aus gemahlenem Kafee die Kafeebohne und mehr zu rekonstruieren.
Leider ist aber der Algoritmus nicht eindeutig umkehrbar und insgesamt heikel, denn er produziert sobald er nicht genau trifft Artefakte bis zum Abwinken.
Es kann dann durchaus sein, dass man statt dem Kafeebaum einen Bananbaum erhält.

Ich hab noch jemand im Ohr: "Decon ist wirklich harter Stoff, nur in kleinen Dosen und vorsichtig zu verwenden....."

Und bei einem recht schnellem Computer (16 Rechenknechte eines Ryzen7) dauert das schon mal 2 Minuten bei einfachen Parametern...

Siegfried

bearbeitet von iamsiggi
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 5 Stunden schrieb iamsiggi:

... kommt dann Deconvolution (entfalten) ins Spiel. Kurz gesagt: Es ist das  Gegenteil von "falten" (convolution) ...

Siggi, mal eine Frage streng OT: Hat aber nichts mit dem mathematischen Vorgang 'Falten' von Zeit-Funktionen (Fourier) zu tun, um z.B. in der Signal-/Regeltechnik von der Zeitebene (Variable t) in die Bildebene (Variable s) zu kommen, oder? Gruß, Hermann

bearbeitet von Nieweg
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich bin da ganz weit weg, die Details dahinter zu verstehen, geschweige denn in Mathematik bewandert.

Wahrscheinlich aber ist es der selbe "Dunstkreis" wo es auch um eine verschmieren von Information geht. Hier halt weniger in zeitlicher sonder in räumlicher Dimension.
Letztendlich kommt es aber wohl aufs selbe heraus.

https://de.wikipedia.org/wiki/Dekonvolution

Von daher muß ich passen 🙂
Siegfried
 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Nieweg:

Siggi, mal eine Frage streng OT: Hat aber nichts mit dem mathematischen Vorgang 'Falten' von Zeit-Funktionen (Fourier) zu tun, um z.B. in der Signal-/Regeltechnik von der Zeitebene (Variable t) in die Bildebene (Variable s) zu kommen, oder? Gruß, Hermann

Ich nehme dazu immer den Fluxkompensator, hier lässt sich leichter mit rechnen. 😎 https://de.m.wikipedia.org/wiki/Zurück_in_die_Zukunft#Der_Fluxkompensator

Grüße Wolfgang 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Weil ich mich gerade mit einem Mondbild herumspiele - zur Illustration

Ein Screenshot 100% Ansicht der hellste Stelle am Mond, im linken oberen Teil des Mondes zu finden.
Wird einem auf jedem Bild ins Auge stechen, das diesen Teil zeigt.
Nennt sich Schröter Tal (wahrscheinlich ein eingestürzter Lavatunnel) und der extrem helle Krater Aristachus.
Die Schichten dieses Jungen Kraters liegen so, dass sie das Licht direkt zur Erde reflektieren.

Egal - zum Screenshot:
Rechts oben: Das ist das schärfste Einzelbild (ORF)
Links oben: Das gestackte Bild ( 6% von ca. 1800 Bildern )
Links unten: da habe ich mit unscharfmaskiertem Schärfen versucht was man so kriegt.
Rechts unten: Das war mit Deconvolution erreichbar.

Siegfried

200207_Mond_RAWSTACKDECON.jpg

bearbeitet von iamsiggi
  • Gefällt mir 3
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung