Jump to content

Die OM System Community
Ignoriert

Neuer mft Sensor 30+MP / 8k video


Te Ka

Empfohlene Beiträge

Am 14.4.2021 um 15:21 schrieb Johannes.Eudes:

Und Eye Control autofocus....

Für mich ein "gamechanger". Statt AF-Studium wäre endlich wieder ich verantwortlich, wenn der Fokus nicht da sitzt, wo ich ihn haben will.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich fürchte, ich verstehe hier Einiges nicht. Ich beginne mal mit einigen der Punkte, die ich zu verstehen glaube. Aber auch das kann falsch sein, aber dann werde ich hier ziemlich sicher darauf hingewiesen werden 😀. Und das finde ich auch gut so.
 
Meine Fragen kommen dann zum Schluss.
 
1.) EIn Sensor eines Fotoapparats besteht einerseits aus Millionen ("Megapixel") von quasi voneinander abgetrennten Halbleiter“kacheln“ (bei der EM1.3, sind dass effektiv 5184 x 3888 „Kacheln“ und ein paar mehr "nichteffektive"), die über mittels inneren photelektrischen Effekt messen, wieviele Photonen auf der Kachel auftreffen. Andererseits hat eine Sensor auch Elektronik für alle Kacheln, die dann die Messergebnisse zumindest mal zwischenaufbereitet. 
 
2.) Die Halbleiter“kacheln“ sind prinzipiell (fast) farbenblind, daher gibt man jedem dieser Pixel eine Art „Sonnenbrille“ in den Farben rot, grün oder blau. Die Hälfte der Pixel kriegen dabei einen grünen Filter, je ein Viertel kriegt rot und blau. Die Verteilung der Sonnenbrillen erfolgt in bestimmten Mustern. Ein Muster hat ein Hr. Bayer der Fa. Kodak „erfunden", das finden viele Kamera-Hersteller auch heute noch gut. Die Firma Fuji, nimmt ein anderes Muster. Dass es auch andere Sets von „Sonnenbrillen“ gibt ignorieren wir. D.h., die Pixel mit den grünen Sonnenbrillen messen nur das grüne auftreffende Licht, die mit den blauen und roten eben deren Farben. Damit es für die grünen „Sonnenbrillenträger“ nicht so peinlich wird, gar keine Ahnung zu haben, was sich an an ihrem Platz so in rot und blau abgespielt hat, hilft eine nachgeschaltete Elektronik (nicht unbedingt jene des Sensors) jedem der Pixel. Die Elektronik fragt bei den andersfarbigen Nachbarn in der Umgebung des „Grünen“ was sie denn so gemessen haben und schätzt daraus einen Wert für die anderen Farben als grün. 
 
3.) Jedes Pixel hat einen gewissen Messbereich. Auf der einen Seite („oben, beim Vollauschlag“) werden es dem Pixel irgendwann zu viele Photonen, es werden mehr als das Pixel zählen kann. Und „unten, bei gerade noch messbar" wird es irgendwann fad, weil sich gar nichts tut. Da kommt so selten ein Photon vorbei, das Pixel hat durch Langeweile Probleme sich beim Zählen zu konzentrieren. Außerdem hat jedes Pixel das Problem, dass es manchmal den EIndruck hat, da wäre ein Photon, obwohl in Wirklichkeit gar keines vorbeigekommen ist (Dunkelstrom). Je heißer es ist, umso häufiger passiert es (Temperaturabhängigkeit). Prinzipiell sind größere „Kacheln“ ein bisschen besser beim Konzentrieren als die kleineren. V.a. aber passiert es den größeren Kacheln seltener, dass sich gar keines der ungeordnet herbeiströmenden Photonen bei ihm auftrifft. Schon einmal statistisch.
 
4.) Den Abstand zwischen „höchsten messbaren Wert" und „niedrigsten sinnvoll messbaren Wert" nennen wir Dynamikumfang und den geben ihn für Fotosensoren in Blendenwerten an. 
 
5.) Bei gegebenen Umgebungslicht kann ich die Menge des Lichts das durch das Objektiv pro Kachel auftrifft nur durch 2 Parameter verändern: Blende und Verschlusszeit. Dass f-Stop und T-Stop nicht das Gleiche ist, lassen wir dabei außer acht. 
 
6.) Durch Veränderung (z.B. Erhöhung) des ISO-Werts kann ich nur einstellen, wie „hell“ das Mess-Ergebnis dargestellt wird. Dafür werde die Messergebnisse verstärkt oder man wendet andere Tricks an. Wenn ich bei der Belichtungseinstellung ISO gleichwertig verwende, wie Blende und Belichtungszeit, werde ich genau so viel Lichtwerte (also Information) „verschenken“, wie der Abstand zwischen eingestelltem ISO und Basis-ISO ist. Prinzipiell wird dieses Foto also mehr rauschen, weil ich weniger Information (Licht) nutze. Weil es rauscht eher in den Bereichen der unteren Messgrenze, weil sich dort die Fehler häufen (Signal/Rauschabstand). 
 
7.) Wenn wir Sensoren unterschiedlicher Größen, aber gleicher Pixelgrößen vergleichen, dann ändert sich dadurch zunächst nicht sehr viel. Nehmen wir an, es existiert ein MFT-Sensor mit genau 26% (also grob 1/4) der Pixel eines KB-Sensors gleicher Bauart und Generation. Zwar wird die Menge des eingefallenen Lichts in Summe beim größeren Sensor mehr, aber pro Pixel wird alles bleiben wir gehabt. Wenn es wenig regnet, kommt zwar auch weniger Regen in kleineren Gärten an, als in größeren Gärten, für die darin befindlichen Planzen ist das aber meistens egal. Der KB-Sensor wird zwar ungefähr (wegen 26%, nicht 25%) 4x so viel Licht einfangen wie der MFT-Sensor, muss damit aber auch die 4-fache Sensorfläche bespielen. Ein Nullsummenspiel. Die ganze Logik der f-Stops beruht auf diesem Prinzip. Zwar ist die Blendenfläche (= Fläche des Lochs der Blende) eines 50mm-Objektives genau 4-mal so groß wie Blendenfläche eines 25mm Objektivs bei gleicher Blendenzahl, aber das was das 25mm Objektiv sieht, ist genau 4-mal so groß, wie das was das 50mm Objektiv sieht. 
 
8.) Wenn Astrofotografen (z.B. @iamsiggi ihre Kamera mit Objektiv auf eine Montierung schnallen, die durch Einberechnung z.B. der geografischen Breite, Himmelskörper „objektivstationär“ halten können, dann machen sie viele Fotos und stapeln dann diese Fotos übereinander. Damit die Bilder auch ja genau ausgerichtet sind, verwenden sie zB. Software die sehr genau stapeln kann. Dann berechnen sie z.B. einen Durchschnittswert (oder so) aller übereinanderliegenden Pixel und kriegen so das Rauschen (also die statistischen Fehler der einzelnen Aufnahmen) aus den Bildern weg.  
 
9.) Die Verstärkung eines Signals hängst in der Qualität des Ergebnisses stark davon ab, wie "unverändert" es ist vor der Verstärkung (die nicht immer nur Gain ist). Ein JPEG ist schwerer zu "verbessern" als ein RAW. (Fast) kein RAW besteht aus Rohdaten, aber es ist weniger verbogen als ein JPEG. Bei Dual-ISO nimmt man einen zweiten höheren ISO-Wert neben dem bauartbedingten Basis-ISO Wert und verändert die Prozessschritte in der Nachbearbeitung so, dass man man die für Verstärkung kritischen Prozessschritte, weiter hinten macht (@Libelle103 hat das etwas flüssiger formuliert, als ich hier)
 
 
Und jetzt 2 meiner bewussten Lücken, oben offenbare ich ja nur „unbewusste" Lücken 🙂:
 
a.) Ein Fotograf wird vielleicht zwar nicht absolut sagen können, ob ein Portrait mit 25mm (f=x) oder mit 50mm (f=2x) fotografiert wurde. Im direkten Vergleich wird er (oder natürlich auch sie) aber eindeutig sagen können, welches Portrait mit der kürzeren Brennweite fotografiert wurde. Die längere Brennweite „verflacht“ das Gesicht mehr, als die kürzere Brennweite (ist das überhaupt richtig, oder stimmt das nur, wenn ich z.B. das Gesicht gleich "hoch" belasse, indem ich die Perspektive ändere indem ich mich z.B. beim 25mm mehr annähere?). Auch wird man feststellen, dass das das kürzere Objektiv eine höhere Schärfentiefe hat. Doppelte Brennweite f=2x bei einer bestimmten Blendenwert y hat so ca. die gleiche Schärfentiefe wie Brennweite f=x bei Blendenwert y-2 Blendenstufen. Dass der Bildwinkel bezogen auf die Sensordiagonale bei einem Objektiv f=x auf MFT gleich groß ist wie bei einem Objektiv f=2x auf KB ist meiner Meinung nach nur ein verwirrendes Detail.
 
b.) Wenn ein sehr kompetenter Forumsteilnehmer wie @Justus H sagt "Und deswegen rauscht MfT auch mehr als Vollformat: Weniger Fläche = bei gleicher Belichtung 1/4 der Informationen..“ und das auch vom ebenfalls sehr kompetenten @Omzu Iko bestätigt wird, dann vermute ich, dass ich was Grundlegendes noch nicht verstehe (dabei bin ich gar nicht mehr so jung). 1/4 der Information für ein 1/4 der Fläche scheint mir ausgewogen, wo ist mein Denkfehler? Bitte 🙂 
 
Freue mich schon auf die Antorten, weil ich es wirklich verstehen will. Mir gefällt das Forum hier sehr gut, ich lerne viel hier.
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Manfred-Wien:
 
b.) Wenn ein sehr kompetenter Forumsteilnehmer wie @Justus H sagt "Und deswegen rauscht MfT auch mehr als Vollformat: Weniger Fläche = bei gleicher Belichtung 1/4 der Informationen..“ und das auch vom ebenfalls sehr kompetenten @Omzu Iko bestätigt wird, dann vermute ich, dass ich was Grundlegendes noch nicht verstehe (dabei bin ich gar nicht mehr so jung). 1/4 der Information für ein 1/4 der Fläche scheint mir ausgewogen, wo ist mein Denkfehler? Bitte 🙂 
 
Freue mich schon auf die Antorten, weil ich es wirklich verstehen will. Mir gefällt das Forum hier sehr gut, ich lerne viel hier.

Die Information ist nicht 1/4. Sofern du das Bild allerdings auf nur 1/4 der Größe reduzieren würdest würde sich auch das Rauschen auf den gleichen Level verringern.

Im übrigen kann man auch nicht sagen das KB weniger rauscht, das Raschen hängt nicht vom Sensor sondern allein von der Lichtstärke des Objektivs ab.

Ein KB Kamera mit einem Kit Objektiv das bei 90mm nur noch Blende 5.6 schafft wird immer stärker rauschen als eine mFT Kamera mit dem kleinen 45/f1.8

Bei einer äquivalenten Optik also bei mFT halbe Brennweite und 2 Stufen lichtstärker ist das Ergebnis zu 100% identisch was Rauschen, Bildwinkel, Tiefenschärfe und Verzerrungen betrifft.

In diesem Fall wird das viertel der Fläche mit der 4fachen Lichtintensität genau ausgeglichen.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Manfred-Wien:

Wenn es wenig regnet, kommt zwar auch weniger Regen in kleineren Gärten an, als in größeren Gärten, für die darin befindlichen Planzen ist das aber meistens egal.

Schöner kann man das nun wirklich nicht formulieren! 

Im mft Garten ist zwar alles nur halb so groß, aber aus der Vogel Perspektive von Zaun zu Zaun kommt das wieder aufs selbe raus. 

Schade das Vergleiche immer hinken.

  • Gefällt mir 2
  • Haha 3
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb systemcam-neu:

Im übrigen kann man auch nicht sagen das KB weniger rauscht, das Raschen hängt nicht vom Sensor sondern allein von der Lichtstärke des Objektivs ab.

Also ich glaub ja viel, aber die Lichtstärke ermöglicht nur dass mehr Licht pro Zeit auf den Sensor kommt.
Wenn dann sollte man schon das Rauschen bei gleicher Lichtmenge die auf den Sensor kommt, vergleichen.

Wenn ich jetzt noch einwerfe, dass die "Norm" ISO bei mFT 200 und beim KB ja 100 ist, artet das jetzt aus .....

Und die Verzerrung eines Objektives hat mal nichts mit dem Sensor zu tun.
Da würde ich eher vermuten, dass das Bild beim mFT Sensor besser sein wird, weil man ja eher den besseren Teil der Optik "herausschneidet".

Ist mir aber egal:
Jedes System hat seine Vor und Nachteile und es kommt sich dann unterm Strich zumindest für mich aufs selbe raus.

Siegfried

Link zu diesem Kommentar
Auf anderen Seiten teilen

Manfred-Wien, deine Punkte 1 bis 9 in Beitrag #302 sind weitgehend richtig. Aber Abschnitt a ist kompletter Quark.

Die perspektivische Darstellung eines Objektes – also ob z. B. ein Gesicht verflacht oder mit übersteigerter räumlicher Tiefe dargestellt wird – hängt vom Aufnahmeabstand ab, nicht von der Brennweite. Die Brennweite bestimmt – bei sonst gleichen Parametern – die Abbildungsgröße. Damit das Abbild des gleichen Objektes bei gleichem Aufnahmeabstand ins kleinere Aufnahmeformat paßt, braucht's eben eine kürzere Brennweite. Auf die perspektivische Darstellung hat das keinen Einfluß.

Das größere Aufnahmeformat erlaubt eine höhere Bildqualität mit weniger Rauschen, weil es (bei äquivalenter Brennweite und gleicher Belichtung) das gleiche Bild aus einer größeren Lichtmenge formt ... so wie der größere Garten bei gleichem Wetter mehr Regen abkriegt. Ob es in wenige große oder viele kleine (oder gar keine) Pixel unterteilt ist, spielt dabei keine Rolle.

  • Gefällt mir 2
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb Manfred-Wien:

8.) Wenn Astrofotografen (z.B. @iamsiggi ihre Kamera mit Objektiv auf eine Montierung schnallen, die durch Einberechnung z.B. der geografischen Breite, Himmelskörper „objektivstationär“ halten können, dann machen sie viele Fotos und stapeln dann diese Fotos übereinander. Damit die Bilder auch ja genau ausgerichtet sind, verwenden sie zB. Software die sehr genau stapeln kann. Dann berechnen sie z.B. einen Durchschnittswert (oder so) aller übereinanderliegenden Pixel und kriegen so das Rauschen (also die statistischen Fehler der einzelnen Aufnahmen) aus den Bildern weg. 

Ja kann man so vereinfacht sagen, Manfred.

Wobei es hier eher um das Signal/Rausch Verhältnis geht:  Damit kann man dann eben schwache Signale auch verstärken, ohne das Rauschen selbst dabei stark hervorzuheben.
Das ist auch der Grund, warum es besser ist 40x60 Sekunden zu belichten als 400x6 Sekunden, und selbst 4000x6 Sekunden wird's nicht breingen.
Da wo keine (brauchbares) Signal ist, kann man halt auch nichts verstärken.

Da gibt es eine Menge mehr Tricks, die aber alle durch das Stapeln dann die Bilder verbessern. Jede Menge verschiedener Algorithmen wo man einiges Optimieren kann.

Aber, und jetzt wird es finde ich wirklich interessant, weil man ja immer den letzten Quäntchen Auflösung und Rauschfreiheit hinterherzuhetzen scheint:

Das geht auch alles mit ganz normalen, allerdings (üblicherweise) statischen Bildmotiven.

Jeder der in die Macro Fotografie einsteigt ist natürlich angetan von "in Camera focusstacking". Aber das was da möglich wird, ist nur ein Anfang wie man z.b. EyeView ja eindrucksvoll zeigt.

Klar weisen 16 Bilder die man da so stabelt schon mal in die richtige Richtung, aber das lässt sich ausreizen:  Hunderte Bilder und die vielleicht sogar noch vorher auf Qualität überprüft um schlechte auszusieben.

Das Selbe trifft genauso auf den HR Modus zu, hier sogar mehr, weil man da besonders ein Augenmerk darauf legen sollte schlechte Bilder, die einem die Suppe schnell versalzen, tunlichst nicht mitzuverarbeiten.

Warum wird stacken nicht bei Landschaftbildern gemacht ?
Dazu noch Korrekturfiles um Fehler des "optischen Pfad" zu korrigieren.  Besser geht dann nur noch, es öfter zu probieren um dann mal den optimalen Zeitpunkt zu erwischen wo wirklich alles stimmt.
Das erinnert mich jetzt wieder sehr an Mond und Planetenfotografie. Dazu muß man wahrscheinlich geboren sein 😉

Und jetzt wo in der große weiten Welt der RAW Entwickler das Wörtchen "pure Raw" in Aufregung versetzt:

Egal welche Algoritmen sie da auf ein Einzelbild loslassen, das Ergebnis das man aus einem Einzelbild durch Interpolation hervorzuzaubern wird können, mag eher nur am Anfang begeistern. Solange man eben nicht genau hinsieht und man überhaupt weiß wo man hinzusehen hat.

Und hier schließt sich der Kreis, den Du oben erwähnt hast und ich als "statistisch abgesicherte Information" bezeichnen würde:
Einen perfekt korrigierter Stapel in "pure raw" am linearen Bild mit den richtigen Algorithmen  und tiefen Kenntnissen dann vorbereitet um das Bild dann zu "entwickeln" ist eine ganz andere Ausgangsbasis um ein Bild dann wirklich zu bearbeiten.

Und ich glaube auch nicht, dass jetzt die RAW Entwickler schon allein hier bei "Pure RAW", was alleine Schärfen und Entrauschen so viele Möglicheiten bieten muß, wie z.b. nur beispielsweise diese 2 Module, wovon es noch mehr gibt:

OLYF_MLT_Deconv.jpg.1babe7a248b03430f0e7c31c733eae8e.jpg


Da ist halt noch sehr viel Luft nach oben, und die will Scheibchenweise an den Kunden verscherbelt werden.


Allerdings auch hier:
Wer braucht's wirklich noch, wenn er nichts anders vorhat, als es dann nur im Fotobuch ausdrucken zu lassen. 

Siegfried




 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Omzu Iko:

Manfred-Wien, deine Punkte 1 bis 9 in Beitrag #302 sind weitgehend richtig. Aber Abschnitt a ist kompletter Quark.

Die perspektivische Darstellung eines Objektes – also ob z. B. ein Gesicht verflacht oder mit übersteigerter räumlicher Tiefe dargestellt wird – hängt vom Aufnahmeabstand ab, nicht von der Brennweite. Die Brennweite bestimmt – bei sonst gleichen Parametern – die Abbildungsgröße. Damit das Abbild des gleichen Objektes bei gleichem Aufnahmeabstand ins kleinere Aufnahmeformat paßt, braucht's eben eine kürzere Brennweite. Auf die perspektivische Darstellung hat das keinen Einfluß.

Das größere Aufnahmeformat erlaubt eine höhere Bildqualität mit weniger Rauschen, weil es (bei äquivalenter Brennweite und gleicher Belichtung) das gleiche Bild aus einer größeren Lichtmenge formt ... so wie der größere Garten bei gleichem Wetter mehr Regen abkriegt. Ob es in wenige große oder viele kleine (oder gar keine) Pixel unterteilt ist, spielt dabei keine Rolle.

Danke. Beim Punkt a.) war ich mir ohnehin nicht sicher 🙂. Ich hatte das schon mitreinformuliert gehabt, meine Zweifel an der eigenen Aussage.

Dein Argument zu meinem Punkt b ist nochmal mit meinen Worten: Die beiden Fotos mit f und f/Blendenzahl auf MFT und 2f und 2f/BZ-2Blendenstufen auf KB sind „gleich“. Sagen wir f sei 50mm, BZ sei 2. Dann ist das Blendenloch beim MFT Bild „optische“ 25mm Durchmesser. Beim KB sind es ebenfalls 100mm/4=25mm (weil: 2 - 2,8 - 4). Und weil der KB Sensor fast 4-fache Fläche hat im Vergleich zum MFT Sensor fängt er fast 4mal mehr Licht ein. 

Jetzt muss ich nur noch behirnen, woher das Mehr an Licht im KB-Senor herkommt, wenn aufgenommenes Objekt (also eigentlich reflektierende Fläche), Blende und Belichtungszeit gleich sind 🙂 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 19 Minuten schrieb Manfred-Wien:

Sagen wir f sei 50 mm, Blendenzahl sei 2. Dann ist das Blendenloch beim MFT Bild „optische“ 25 mm Durchmesser.

Urgs.

Dann hat die Eintrittspupille 25 mm Durchmesser.

.

vor 19 Minuten schrieb Manfred-Wien:

Beim Kleinbildformat sind es ebenfalls 100 mm / 4 = 25 mm [...]. Und weil der Kleinbild-Sensor fast vierfache Fläche hat im Vergleich zum Vierdrittel-Sensor, fängt er fast viermal mehr Licht ein.

Kann es sein, daß du Blende und Eintrittspupille nicht richtig auseinanderhältst? Lichtmenge und Belichtung auch nicht?

Der Kleinbild-Sensor fängt (ungefähr) die vierfache Lichtmenge ein, wenn die Belichtung gleich ist. Blendest du nun um zwei Stufen weiter ab (f/4 statt f/2), so müßtest du für die gleiche Belichtung viermal so lange belichten. Belichtest du aber trotz kleinerer Blende gleich lang, so empfängt der Kleinbildsensor die gleiche Lichtmenge – denn 4 × 1/4 = 1. Faktor vier wegen der größeren Fläche, Faktor 1/4 wegen der kleineren Blende – das hebt sich auf.

.

vor 19 Minuten schrieb Manfred-Wien:

Jetzt muß ich nur noch behirnen, woher das Mehr an Licht im Kleinbild-Senor herkommt, wenn aufgenommenes Objekt [...], Blende und Belichtungszeit gleich sind.

Von der größeren Eintrittspupille.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 7 Stunden schrieb Omzu Iko:

Kann es sein, daß du Blende und Eintrittspupille nicht richtig auseinanderhältst? Lichtmenge und Belichtung auch nicht?

Könnte sein, könnte aber auch sein, dass "optischer" Durchmesser zu missverständlich formuliert war 🙂, wäre "optisch wirksamer" Durchmesser besser gewesen, oder auch nicht?

Tatsächlich weiß ich aber nicht so genau, wo exakt die Eintrittspupille entlang der optischen Achse liegt, ich könnte sie aber mit einem Ding, genannt "Nodalpunktadapter" (warum das auch immer so heißt) praktisch ermitteln.

Ich glaube (kann aber falsch liegen), dass ich Beleuchtung (also in Lumen/m2) und Lichtmenge (also in Lumen*s) auseinanderhalten kann. Bei Belichtung hätte ich entweder das Set aus Blende und Belichtungszeit (ISO setze ich jetzt konstant und kürze es) im Kopf oder die Beleuchtung mal Zeit oder die Lichtmenge pro Fläche (des Sensors), aber das kann falsch sein.

vor 7 Stunden schrieb Omzu Iko:

Der Kleinbild-Sensor fängt (ungefähr) die vierfache Lichtmenge ein, wenn die Belichtung gleich ist. Blendest du nun um zwei Stufen weiter ab (f/4 statt f/2), so müßtest du für die gleiche Belichtung viermal so lange belichten. Belichtest du aber trotz kleinerer Blende gleich lang, so empfängt der Kleinbildsensor die gleiche Lichtmenge – denn 4 × 1/4 = 1. Faktor vier wegen der größeren Fläche, Faktor 1/4 wegen der kleineren Blende – das hebt sich auf.

Wenn die Belichtung gleich ist bei 50mm und bei 100mm, dann habe ich, glaube ich, nicht das gleiche Bild, oder? Dann habe ich unterschiedliche Schärfentiefen, oder falsch? Wenn ich das gleiche Bild will, dann muss ich statt 50mm/2 = 25mm und 100mm/2 = 50mm (gleiche Belichtung, unterschiedliche Eintrittspupille) auf 100mm/4 = 25mm abblenden. 

Das deckt sich ja auch mit dem was @systemcam-neu in #323 sagt. Dein Statement, und Danke, dass Du Dir die Zeit nimmst zu antworten @Omzu Iko

vor 10 Stunden schrieb Omzu Iko:

Das größere Aufnahmeformat erlaubt eine höhere Bildqualität mit weniger Rauschen, weil es (bei äquivalenter Brennweite und gleicher Belichtung) das gleiche Bild aus einer größeren Lichtmenge formt ... so wie der größere Garten bei gleichem Wetter mehr Regen abkriegt. Ob es in wenige große oder viele kleine (oder gar keine) Pixel unterteilt ist, spielt dabei keine Rolle.

 kann ich dagegen noch nicht einordnen (es formt dann nicht das gleiche Bild, wegen der Schärfentiefe, oder?).

Zum "Quark" 🙂

vor 10 Stunden schrieb Omzu Iko:

Manfred-Wien, deine Punkte 1 bis 9 in Beitrag #302 sind weitgehend richtig. Aber Abschnitt a ist kompletter Quark.

Das ist, natürlich, ein Topfen. Ich habe das ja auch schon selbst bemerkt bei eigenen Fotos. Aber ich habe das Studiendesign dieses Artikels über Focal Length Affects Depicted Shape and Perception of Facial Images (Entfernung variiert) schlampig gelesen gehabt. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Stunden schrieb iamsiggi:

Ja kann man so vereinfacht sagen, Manfred.

Wobei es hier eher um das Signal/Rausch Verhältnis geht:  Damit kann man dann eben schwache Signale auch verstärken, ohne das Rauschen selbst dabei stark hervorzuheben.
Das ist auch der Grund, warum es besser ist 40x60 Sekunden zu belichten als 400x6 Sekunden, und selbst 4000x6 Sekunden wird's nicht breingen.
Da wo keine (brauchbares) Signal ist, kann man halt auch nichts verstärken.

Da gibt es eine Menge mehr Tricks, die aber alle durch das Stapeln dann die Bilder verbessern. Jede Menge verschiedener Algorithmen wo man einiges Optimieren kann.

Aber, und jetzt wird es finde ich wirklich interessant, weil man ja immer den letzten Quäntchen Auflösung und Rauschfreiheit hinterherzuhetzen scheint:

Das geht auch alles mit ganz normalen, allerdings (üblicherweise) statischen Bildmotiven.

Jeder der in die Macro Fotografie einsteigt ist natürlich angetan von "in Camera focusstacking". Aber das was da möglich wird, ist nur ein Anfang wie man z.b. EyeView ja eindrucksvoll zeigt.

Klar weisen 16 Bilder die man da so stabelt schon mal in die richtige Richtung, aber das lässt sich ausreizen:  Hunderte Bilder und die vielleicht sogar noch vorher auf Qualität überprüft um schlechte auszusieben.

Das Selbe trifft genauso auf den HR Modus zu, hier sogar mehr, weil man da besonders ein Augenmerk darauf legen sollte schlechte Bilder, die einem die Suppe schnell versalzen, tunlichst nicht mitzuverarbeiten.

Warum wird stacken nicht bei Landschaftbildern gemacht ?
Dazu noch Korrekturfiles um Fehler des "optischen Pfad" zu korrigieren.  Besser geht dann nur noch, es öfter zu probieren um dann mal den optimalen Zeitpunkt zu erwischen wo wirklich alles stimmt.
Das erinnert mich jetzt wieder sehr an Mond und Planetenfotografie. Dazu muß man wahrscheinlich geboren sein 😉

Und jetzt wo in der große weiten Welt der RAW Entwickler das Wörtchen "pure Raw" in Aufregung versetzt:

Egal welche Algoritmen sie da auf ein Einzelbild loslassen, das Ergebnis das man aus einem Einzelbild durch Interpolation hervorzuzaubern wird können, mag eher nur am Anfang begeistern. Solange man eben nicht genau hinsieht und man überhaupt weiß wo man hinzusehen hat.

Und hier schließt sich der Kreis, den Du oben erwähnt hast und ich als "statistisch abgesicherte Information" bezeichnen würde:
Einen perfekt korrigierter Stapel in "pure raw" am linearen Bild mit den richtigen Algorithmen  und tiefen Kenntnissen dann vorbereitet um das Bild dann zu "entwickeln" ist eine ganz andere Ausgangsbasis um ein Bild dann wirklich zu bearbeiten.

Und ich glaube auch nicht, dass jetzt die RAW Entwickler schon allein hier bei "Pure RAW", was alleine Schärfen und Entrauschen so viele Möglicheiten bieten muß, wie z.b. nur beispielsweise diese 2 Module, wovon es noch mehr gibt:

OLYF_MLT_Deconv.jpg.1babe7a248b03430f0e7c31c733eae8e.jpg


Da ist halt noch sehr viel Luft nach oben, und die will Scheibchenweise an den Kunden verscherbelt werden.


Allerdings auch hier:
Wer braucht's wirklich noch, wenn er nichts anders vorhat, als es dann nur im Fotobuch ausdrucken zu lassen. 

Siegfried




 

 

Ja, das bedeutet halt die Digitalisierung der Fotografie 🙂, die Trennung des Inhalts vom Medium.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 21 Stunden schrieb iamsiggi:

Also ich glaub ja viel, aber die Lichtstärke ermöglicht nur dass mehr Licht pro Zeit auf den Sensor kommt.

Ja und damit wird zwangsläufig auch die Lichtmenge bestimmt die auf den Sensor fällt. Und von dieser hängt das Rauschen ab.

Zitat


Wenn dann sollte man schon das Rauschen bei gleicher Lichtmenge die auf den Sensor kommt, vergleichen.

Bei gleicher Lichtmenge ist das Rauschen zwangsläufig immer gleich egal wie groß der Sensor ist.

Das mFT mehr rauscht wurde ja daraus hergeleitet das die Lichtmenge die bei mFT auf den Sensor fällt nur ein 1/4 beträgt weil die Fläche nur 1/4  beträgt.

Das kann so sein muss aber nicht so sein und hängt einzig und allein von der Lichtstärke der Objektive ab. Bei einem äquivalenten Objektiv (gleiche Eintrittspupille = 2 Stufen lichtstärker) ist die Lichtmenge trotz 1/4 Fläche gleich weil die Lichtintensität viel mal so hoch ist.

 

Zitat

Und die Verzerrung eines Objektives hat mal nichts mit dem Sensor zu tun.

Da ging es um die perspektivische Verzerrung die der TO unter Punkt a.) genannt hatte.

Zitat


Jedes System hat seine Vor und Nachteile und es kommt sich dann unterm Strich zumindest für mich aufs selbe raus.
 

Stimmt aber die Frage ob oder was besser ist wurde überhaupt nicht gestellt.

bearbeitet von systemcam-neu
Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 18.4.2021 um 20:38 schrieb Manfred-Wien:
Wenn es wenig regnet, kommt zwar auch weniger Regen in kleineren Gärten an, als in größeren Gärten, für die darin befindlichen Planzen ist das aber meistens egal.🙂

Am Regenbeispiel lässt sich auch das Photonenrauschen gut erklären. Wenn es dunkel ist,  also nur wenige Photonen - resp. Regentropfen - fallen, kann es sein, dass auf einer Kachel drei, auf der nächsten vier und auf der übernächsten fünf Tropfen landen. Selbst wenn die alle korrekt gemessen werden, gibt das ein sehr unruhiges Ergebnis. Mit der Grösse der Einzelkacheln steigt die Chance, dass sich die Ergebnisse ausmitteln, also das Rauschen sinkt. Hier haben entsprechende Systeme tatsächlich Vorteile.

Man kann das "Ausmitteln" aber auch nachträglich herbeiführen, indem man ein hochauflösendes Bild verkleinert oder eine Aufnahmesequenz verrechnet. Und wir reden hier von Lichtstärken, bei denen die Katze einen Blindenhund braucht....

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 18.4.2021 um 20:38 schrieb Manfred-Wien:

Nehmen wir an, es existiert ein MFT-Sensor mit genau 26% (also grob 1/4) der Pixel eines KB-Sensors gleicher Bauart und Generation.

Das hat es, zumindest bei FT, einmal gegeben. Der Sensor der E-1 und der M9 war praktisch identisch, nur dass der 35mm-Sensor natürlich entsprechend mehr Pixel hatte.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Was hier und in vorangegangenen Diskussionen zum Thema bisher keine Berücksichtigung gefunden hat, ist die theoretische Möglichkeit, dass die Photodioden in den Sensoren verschiedener Hersteller auch unterschiedliche Wirkungsgrade und Empfindlichkeiten in Abhängigkeit der Lichtfrequenzen und Temperatur haben könnten. Wer weiß, vielleicht hier noch ein Germanium Atömchen und dort noch ein wenig Phosphor hineindotiert und schon ist die Diode empfindlicher oder das Grundrauschen ist geringer oder sie ist über die wichtigen Lichtfrequenzen linearer... Aus meiner Sicht macht das ganze Vergleichen also womöglich nur dann Sinn, wenn man von exakt gleicher Sensortechnik ausgeht.

Warum kühlt man eigentlich die Sensoren nicht ein wenig mit einem rückseitigen Peltierelement?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 35 Minuten schrieb Trubadour:

Aus meiner Sicht macht das ganze Vergleichen also womöglich nur dann Sinn, wenn man von exakt gleicher Sensortechnik ausgeht.

Da hast Du 100% recht. Aber wir sind hier noch im Grundlagenkurs :-). Also ich zumindest. Der Sensorenmarkt für Fotokameras hat ja nur wenige Spieler. Ich glaube auch, dass sich SW-seitig noch mehr tun könnte, siehe zB #307

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb Manfred-Wien:

Der Sensorenmarkt für Fotokameras hat ja nur wenige Spieler. Ich glaube auch, dass sich SW-seitig noch mehr tun könnte, siehe zB #307

Das mag für statischere Motive Sinn machen. Bei schnelleren Objekten, ich bleibe jetzt mal bei BIF, benötige ich kurze Belichtungszeiten. Und die sorgen auch bei Offenblende schnell für höhere ISO Werte. Da hilft nur, wenn neuere Sensoren da dann rauschärmer wären. Klar, mit DxO oder Denoise AI kann man noch viel in der Nachbearbeitung hinbiegen. Aber es ist hinterher nicht das gleiche, wie eine Basis-ISO Aufnahme.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 53 Minuten schrieb Trubadour:

Warum kühlt man eigentlich die Sensoren nicht ein wenig mit einem rückseitigen Peltierelement?

Das braucht leider sehr viel Strom und man hat dann bald mal ein Tauproblem im Gehäuse, das nicht einfach ist zu beherrschen.  Und vibrieren sollt es auch nicht ;-)

Allerdings wird das üblicherweise bei den spezialisierten Astrocameras gemacht. Und die Sensoren, die hier so besprochen werden: Ein nicht unerheblicher Teil wird bereits seit einigher zeit genau dafür eingesetz.

Der Panasonic Sensor der E-M1 (halt ohne die Olympusspezifischen zubauten für den Autofokus) wird seit langem sehr erfolgreich eingesetzt (zB ASI 1600). Ungekühlt in der Nacht bei langen Belichtunsgzeiten ist die E-M1 zu vergessen ...zumindest wenn man sie mit de Sony 16 MPIxel CMOS Kameras die ich gerne einsetze, vergleicht.
Sie hat mittlerweile den fast 20 Jahre alten Kodak KAF8300 CCD Sensor (den Olympus bei der E-300 verbaute) nahezu abgelöst.
Auch diese Kamera, so gut sie damals war, würde ich jetzt nicht mehr einsetzen wollen. Ich hatte ja über die Jahre einen großen teil  aller Kameramodelle seit der OM2n im Einsatz.

Die Wärmeabfuhr bei der E-M1.III wurde aber offenbar auch verbessert, weil zumindest bei meiner E-M1.II hatte ich in den sehr dunklen Bereichen dann starkes Sensorglühen inform großer roter/grüner Bereiche. Das ist bei der IIIer jetzt gut beherrschbar.

Was ich aber wirklich schätze: Mit den Olykameras ist es halt einfach: Kamera  ans Fernrohr oder Fotolinse und dann ratetter alles so vor sich hin. Mit den gekühlten Kameras wird es mit Laptop und mehr Strom halt schon aufwändig. Bei s/w dann aber extrem aufwändig, wo ich nicht sicher bin genügend klaren Himmel zu haben.

Natürlich reizt es mich, mir eine moderne gekühlte Kamera zu kaufen wie die ASI2600, aber derzeit bleibe ich noch dabei, schon um zu zeigen,  was mindestens möglich ist mit unseren einfachen Kameras.

Siegfried

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb iamsiggi:

und man hat dann bald mal ein Tauproblem im Gehäuse, das nicht einfach ist zu beherrschen.

deshalb schrieb ich ja

vor einer Stunde schrieb Trubadour:

ein wenig

Dann ist die Idee ja nicht neu. Vielleicht muß man auch nur kühlen, wenn gerade was passiert. Aber es ist schon interessant, was dann wohl eine gute Wärmeabfuhr leisten kann.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wo es sowieso noch einen gehörigen Schub geben würde (nur bei statischen Motiven geeignet):

Wie in alten Zeiten: s/w Sensor und dann R/G/B Belichtungen.
Das erhöht mit einem Schlag die Auflösung und Empfindlichkeit.
Und wer es noch besser will: L/RGB

Siegfried

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 7 Stunden schrieb iamsiggi:

Wo es sowieso noch einen gehörigen Schub geben würde (nur bei statischen Motiven geeignet)

Olympus möchte aber in der Sparte Wildlife punkten. Und das Life darin bewegt sich. Also bleiben nur empfindlichere Sensoren oder lichtstärkere Objektive im Telebereich. Da die Fressnelllinsen-Optik schon auf dem Stammtisch von Nils negiert wurde, blieben dann nur teure größere Gläser. Daran glaube ich nicht. Vielleicht werden ja die Pixel, die dazukommen, zur Rauschminderung wieder zusammengerechnet. Wobei dann aber ja davon ausgegeangen werden muß, dass die kleineren Pixel neuer Sensoren wirklich zumindest genauso empfindlich sind.

Oder wir werden reine Schönwetterfotografen im schnellen Wildlife...

Link zu diesem Kommentar
Auf anderen Seiten teilen

 
Fresnel wird noch Nikon’s Grosses Super Argument sobald die Große und die klassischen Tüten da sind. Das muss OMDS auf dem Schirm haben.

An der ISO Schraube wird Olympus nicht allzuviel machen können außer BSI.

Wichtig wird Geschwindigkeit sein - egal ob nun 24 oder 30 MP.  Höhere Auslesegeschwindihkeit ermöglicht bessere Responsiveness des AF und vielleicht HH HRS mit 1/300-1/500 anstatt der bisherigen 1/125.

Und dann natürlich noch CPU basierte Funktionen die von Geschwindigkeit profitieren wie im Interview benannt.

B

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 20 Minuten schrieb Borbarad:

Fresnel wird noch Nikon’s Grosses Super Argument

Wie ist es mit der Bildqualität? Gibt es Beispiele mit den Unterschieden zwischen den Objektiven mit Fresnel und konventionellen Linsen?

bearbeitet von pit-photography
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb Trubadour:

Also bleiben nur empfindlichere Sensoren oder lichtstärkere Objektive im Telebereich.

Lichtstärkere Objektive nützen Dir nur selten. Die Schärfentiefe ist bereits knapp genug. Das ist ja sowieso die Krux der ganzen Diskussion: Klar hätten wir alle gern mehr Licht eingefangen, aber in den vielen Scenarien wird man dann zu offen. Nur wenn ich verhältnismäßig viel Fleisch um's Tier brauche, sind da überhaupt Reserven da.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 28 Minuten schrieb pit-photography:

Wie ist es mit der Bildqualität? Gibt es Beispiele mit den Unterschieden zwischen den Objektiven mit Fresnel und konventionellen Linsen?

Ja, die Fresnel  sind grob gesagt Gegenlicht anfälliger und nicht ganz so scharf und Bokehisch - dafür aber deutlich leichter und kleiner und „erschwinglich“.

Das 500 ist genial. Ist etwa so wie das 300er Oly und war auf sehr lange Zeit ausverkauft. Gibt’s einige YouTube Videos.

Der Knackpunkt wird sein sollte es ein 600mm F5.6 Fresnel geben. Die 500 war super aber oft wurde es mit Konverter genutzt.

B

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung