Jump to content
Die PEN, OM-D & E-System Community

elwoody

Mitglieder
  • Gesamte Inhalte

    924
  • Benutzer seit

  • Letzter Besuch

Reputation in der Community

518 Ausgezeichnet

1 Benutzer folgt diesem Benutzer

Über elwoody

  • Rang
    elwoody

Persönliche Informationen

  • Einverständnis Bildbearbeitung
    Nein

Letzte Besucher des Profils

1.218 Profilaufrufe
  1. Richtig. Deswegen waren diese Werte von mir zu keinem Zeitpunkt als Fakt dargestellt. Das hatte ich bereits im zweiten Absatz meines Postings klargestellt.
  2. Wenn ich die Rechnungen mit dem Faktor 3,85 statt 4 vornehme, dann Ändert das nichts an den daraus resultierenden Aussagen. Zu der Sache mit dem "Geheimnis" - Deine erste Auslassung zeigte, daß Du an anderen Punkten Kritik äußern wolltest. Nachdem ich Dich jetzt ja quasi mit der Nase auf diesen Punkt gestossen habe, greifst Du diesen natürlich gerne auf. Du versuchst hier mit Querschüssen abzulenken. Kein guter Argumentationsstil. Ja, meine erste Aussage war auf die Voraussetzung gleicher Pixelzahlen bezogen. Ist sie unter dieser Voraussetzung falsch? Mir scheint, Du versuchst nichtmal, die Argumentation anderer nachzuvollziehen. Deswegen verstehst Du so oft auch nicht, was sie eigentlich aussagen wollen. Ich beobachte das schon ein Weilchen und ich kann bei Deinen Versuchen, anderen zu erklären, warum sie wieder und wieder falsch liegen, gut erkennen, daß Du nicht Imstande bist, Ihre Sichtweise nachzuvollziehen, deswegen scheiterst Du auch beim Versuch es ihnen verständlich zu machen. Gut, wir haben jetzt die Schiene einer sinnvollen Diskussion mal wieder weit verlassen. Du beginnst wieder auf die diskussionstechnisch niedrigste Ebene zu gehen und die Person mit der Du Dich unterhältst direkt anzugreifen - von daher ist diese Diskussion mit Dir hier an dieser Stelle für mich beendet.
  3. Nachtrag: ich muß noch anmerken (wie mir gerade auffiel), in meiner Betrachtung nicht berücksichtigt zu haben, daß KB-Sensoren gegenüber MfT meist eine höhere Pixelzahl aufweisen, d.h. die Annahme von 1/4 der Pixelgröße bei MfT so nicht zu halten ist. Damit gilt das Geschriebene natürlich nur für eine kleine Zahl der aktuellen KB-Kameras. Ich möchte aber den Off-Topic-Rahmen den ich hier im Thread aufgespannt habe nicht weiter belasten, verzichte von daher darauf, nochmal einen umfangreichen Beitrag mit korrigierten Werten nachzuschieben. (die Quintessenz bleibt die Gleiche: Pro darstellbarer Blendenstufe steht bei vielen der heutigen Kameras in etwa die gleichen Zahl Bits zur Verfügung).
  4. Wie in meinem Beitrag #80 geschildert ergeben diese sich aus der Annahme einer full well capacity von 7500 e- und einem read-noise von 1,5 e-. Diese Zahlen beruhen auf typischen Werten von Sensoren, müssen also nicht dem realen Wert der Sony-Sensoren in unseren Kameras entsprechen. Da sich jedoch die daraus resultierenden Bitzahlen ganz gut mit denen unserer Kameras decken, gehe ich davon aus, daß wir zumindest in der Nähe der Realität liegen. (Soll heißen: die absoluten genannten Zahlen sollen in erster Linie ein Anhaltswert sein um das Prinzip zu verdeutlichen.)
  5. Ich entnehme Deiner Betrachtung, daß Du die Bildqualität als Mittelwert aller Bildpunkte oder einer gegebenen Fläche betrachtest. Das widerspricht dem, wie wir Menschen ein Bild wahrnehmen, zumindest bei der Betrachtung aus der Nähe. Vermutlich musst Du deswegen diese Argumentation hier im Forum so oft wiederholen. 😉 Zu Deiner Betrachtung der Sensorgröße: Wenn ein großes Pixel aufgrund der full well capacity einen Bereich von 90 dB darstellen kann und ein nur ein Viertel so großes Pixel 78 dB, dann bleiben das erstmal 78 dB pro Pixel. Erst wenn Du Du vier dieser Pixel nebeneinander aufsummierst, bekommst Du einen größeren Wert - das ist, soweit ich Dich verstehe, Deine Betrachtung. Läßt sich auch leicht errechnen: 4x78 dB = 90 dB Aber: Der Noise-Floor beim Auslesen der Pixel ist weitgehend eine Konstante und ändert sich nicht proportional zur Pixelgröße. Dadurch verlierst Du bei jeder Verkleinerung der Pixelgröße an darstellbarem Bereich. Auch nimmt das Rauschen zu. Nein, nicht wenn Du das Gesamtrauschen im System betrachtest. Aber das Rauschen zwischen zwei einzelnen Bildpunkten. Um wieder meine Zahlen mit read-noise zu benutzen, 58 dB bei MfT und 86 dB bei KB: 4x58dB=70dB Nur durch den read-noise verlieren wir also durch die Verkleinerung der Pixel auf ein Viertel 16 dB (entsprechend 2 Bit) gegenüber einem Einzelpixel der gleichen Fläche.
  6. Nun, der limitierende Faktor ist nicht so einfach zu setzen. Ich möchte den Punkt mit den größeren Fotodioden ansprechen (für mehr Pixel haben wir bei MfT ja die HiRes-Aufnahmen). Vorab: ich habe keine echten Daten (wie sie im Datenblatt zu finden wären) für die MfT-Sensoren. Von daher müssen viele Annahmen getroffen, bzw. mit "branchenüblichen" Werten gerechnet werden. Das folgende soll nur eine grobe Näherung sein, ich bin mir durchaus bewusst, daß hier noch andere technische Parameter Einfluss haben. Beginnen wir mit den Lichtquanten. Hier zählt die "full-well capacity" des einzelnen Pixels in der Kamera. Typische Werte sind hier bei Kleinbild 30000 Elektronen, die ein Pixel maximal aufnehmen kann. Afaik werden die meisten heutigen Sensoren vor der Aufnahme mit den Elektronen gefüllt und jedes eintreffende Lichtquant entleert sie (um ein Elektron). Wir leben in keiner idealen Welt, nicht jedem Lichtquant gelingt es, ein Elektron abzuführen. Das ist die Quanteneffizienz, ein typischer Wert sind 60% Quanteneffizienz, d.h. 60% der Lichtquanten entfernen ein Elektron. Die Pixel bei MfT sind kleiner als bei KB (1/4), dementsprechend ist davon auszugehen, daß sie auch nur eine full-well capacity von einem viertel haben, d.h. 7500e-. 7500 Elektronen entsprächen einem Dynamikbereich von 78 dB, respektive 13 Bit Auflösung. Dem gegenüber stehen die 30000 Elektronen bei Kleinbild mit 90dB, entsprechend 15 Bit Auflösung. Wir haben das Rauschen noch nicht berücksichtigt, denn dieses reduziert die Auflösung wieder. Typisch ist hier bei einfacher Verstärkung wohl ein Rauschen in der Größenordnung von 1,5 Elektronenladungen bei CMOS und 10 e- bei den früheren CCDs. Das Rauschen ist weitgehend unabhängig von der Pixelgröße (da es vor allem aus den Verstärkern und A/D-Wandlern in der Elektronik hinter den Pixeln resultiert, was dem MfT jetzt zum Nachteil gereicht. Der reale Dynamikbereich ist dann 20log(full well capacity/read noise) Also bei unseren theoretischen Sensoren und 1,5 e- als Noise: MfT: 58 dB, entsprechend 13 Bit KB: 86 dB, entsprechend 15 Bit Das trifft ganz gut die Bitwerte, die heute auch in der Realität verwendet werden. Damit wissen wir jetzt auch, warum wir bei MfT derzeit 2 Bit weniger als bei Kleinbild haben... und warum Mittelformatkameras heutzutage nochmal 2 Bit mehr als eine Sony an Dynamic Range machen. Wir sehen, es gibt einen Unterschied. AAABER: Wer von uns benutzt einen Bildschirm mit 13 oder 15 Bit Auflösung? Eher keiner, die heutig übliche Bittiefe bei Monitor/Grafikkarte sind 10 Bit. Relevant wird die höhere Bitzahl theoretisch erst wieder, wenn wir die Bilder bearbeiten, da bekommen wir mehr Spielraum... wenn da nicht der nächste Aspekt noch wäre: ================================================================================================================ Das alles war jetzt mal nur ein bischen Fingerübung für das grundlegende Verständnis. Aber letztlich ist die Lösung, warum das alles nicht relevant ist, eine ganz andere: Es kommt jetzt noch ein weiterer Aspekt dazu: Die Erweiterung des Dynamikbereichs der Kameras (d.h. höhere Bittiefe), wird bei vielen Kameras genutzt, den darstellbaren Helligkeitsbereich zu vergrößern, aber nicht, die Helligkeitsauflösung zu erhöhen. D.h. bei einer Verdoppelung der eingetroffenen Photonen werden nicht mehr Bits zur Darstellung genutzt. Das ist gut an den hier bereits gezeigten Diagrammen von www.photonstophotos.net zu erkennen. Wenn eine Kamera eine Helligkeitsstufe feiner auflösen soll, dann muß sie bei gleichbleibendem max. Dynamic-Range mehr Bits haben. Unabhängig davon, wie viele Photonen der Sensor aufnehmen kann (denn letztlich ausschlaggebend für unsere mögliche Auflösung ist die Bitzahl. Wenn eine KB-Kamera mit 14 Bit Auflösung aufwarten und dabei sagen wir 10 Blendenstufen abbilden könnte, dagegen eine Mft-Kamera mit 12 Bit diese 10 Blendenstufen abbildet, dann hat die MfT-Kamera den gleichen Dynamic-Range, aber sie hat eine geringere Helligkeitsauflösung pro Blendenstufe. Wenn aber eine KB-Kamera - so wie es heute oft der Fall ist - mit ihren 14 Bit 12 Blenden stufen abbildet und die MfT-Kamera mit ihren 12 Bit 10 Blendenstufen, dann haben beide Kameras etwa die gleiche Helligkeitsauflösung. D.h. die größeren Pixel könnten zwar dafür genutzt werden, feinere Abstufungen zu erzeugen, werden es in der Praxis aber nicht. Anders ausgedrückt: Es wird zur Darstellung einer Blendenstufe bei beiden Formaten die gleiche Photonenzahl genutzt - nur bei den größeren Pixeln der KB-Sensoren können mehr Photonen aufgenommen werden, ehe das Pixel "voll" ist. Ergo: Damit bleiben letztlich noch Unterschiede im Rauschen und im maximal erfassbaren Kontrast. 😉 https://www.adimec.com/read-noise-versus-shot-noise-what-is-the-difference-and-when-does-it-matter/ https://andor.oxinst.com/learning/view/article/understanding-read-noise-in-scmos-cameras Nachtrag: bitte Post #89 lesen
  7. Ich sehe nicht, wieso ein größerer Sensor eine "reichere Tonwertpalette" mit weicheren oder feineren Farbverläufen erzeugen sollte. Das sind imho Punkte, die sich aus dem Farbraum und der Bittiefe ergeben. Für mich liest sich das momentan noch wie die Story, daß Objektive eine nichtlineare Helligkeitswiedergabe haben sollen (den mir auch noch niemand hier erklären konnte). Sorry, aber ich komme mir ehrlich gesagt vor wie in einer Diskussion in einem Audio-Forum über Klangfarben von Netzkabeln. Nicht ein einziger hat hier bisher einen nachvollziehbaren Nachweis für die gemachten Aussagen getroffen, aber alle reden darüber, als wären es unumstößliche Fakten. Und ja, selbst wenn es so sein sollte, daß "der erfahrene Fotograf", manche Unterschiede deutlicher wahrnimmt - auch das ließe sich in einem a/b-Vergleich zweier Bilder hier überprüfen. In einem Vergleich zweier völlig unterschiedlicher Bilder ist es stets ein Ratespiel, was der Situation und was der Technik geschuldet ist. Nicht zuletzt mag sich ja auch noch der eine oder andere Fotograf anders verhalten, sobald er glaubt, eine Kamera könne bestimmte Dinge nicht so gut abbilden. Bitte erklärt mir doch mal den technischen Hintergrund, wieso bei größeren Sensoren weichere Farbverläufe entstehen.
  8. Und hat auch schonmal einer einen echten Vergleich gemacht? Also gleiches Motiv bei gleichem Licht mit unterschiedlichen Kameras? Wenn mir einer ein Portrait mit Mft zeigt und dann ein Bergpanorama im Vollformat als Vergleich für einen butterweichen Schmelz zeigt, dann kann man diesen Vergleich doch letztlich nur in der Tonne rauchen. (Ganz zu schweigen davon, daß ich eigentlich bei keinem Bild eine Information dazu sehe, mit welcher Software die Bilder entwickelt wurden)
  9. Ja, ich kenne das Problem ja auch, habe da bisher auch noch keine Lösung. Wenn ich das 12-40 2.8 an der E-M1 iii habe, reibt die Augenmuschel auch am Körper. Bei der M5 iii kommt gegenüber der M1 iii noch vorteilhaft dazu, daß sich die Gurtbefestigung weiter unten an der Kamera befindet, wodurch diese eher wegkippt. Wobei ich nicht finde, daß die Augenmuschel extrem weit übersteht.
  10. Na, das sollte ja möglich sein, diesen Ring so zu fixieren, daß er nicht mehr abgeht. 🙂
  11. Nachdem ich gestern ein Weilchen mit einem Exif-Viewer in einem mit C1 exportiertem Jpg gestöbert habe und dort nicht sehen konnte, ob ich das Bild mit S-AF oder C-AF aufgenommen habe, kam ich mal auf die Idee, das ORF mit dem Exif-Viewer anzusehen. Hmpf. Ja, es steht drin. Aber nicht wenn man es mit C1 exportiert. Bin ich der einzige Mensch auf dieser Welt, der mit dem Produkt arbeitet und dem solche Sachen auffallen? Okay, da ich wohl der einzige bin, ein Ticket aufgemacht. Dort geschildert, daß auch wenn ich beim Exportieren im Metadata-Exportfeld alle Checkmarks setze, nicht alles exportiert wird. Ratet mal, was heute als Antwort kam? "be sure you have All Other Metadata checked in the metadata tab of the export recipe. Camera-specific information will be stored there." Ich glaube, ich hole mir einen Beißstock. 😁
  12. Hat eigentlich schonmal jemand näher untersucht, was da an der Streulichtblende des 40-150 2.8 immer kaputtgeht? Ich lese immer nur, daß die Kugeln rausfallen, aber nicht warum. Sollte ja möglich sein, das dann präventiv zu verstärken.
  13. @m1testit Du übersiehst den Kontext meiner Aussage. Sie bezog sich auf die Notwendigkeit, den kleinen Finger der rechten Hand an der Kamera zu haben. Das ist nur dann notwendig, wenn die rechte Hand die Haltearbeit übernimmt. Ja, ich hatte mich ungenau ausgedrückt. Es muß heißen: "Die stabile Haltung des Kamerasystems kommt primär aus der linken, nicht der rechten Hand." Ich nehme aber an, Du wusstest eh, was ich eigentlich meine. 😉 Es geht dabei um die Kräfteverteilung: wer übernimmt die Halte- und wer die Führungsarbeit. Wenn ich - so wie es sich gehört - den linken Ellenbogen am Körper habe, mache ich Dir auch mit'm Teleobjektiv noch brauchbare Aufnahmen in Deiner Variante 1. Deine Variante 2 gelingt mir nur mit einem leichten Objektiv - und dann habe ich nach 2 Minuten einen Krampf in der Hand, besonders wenn ich dabei mit einzelnen Fingern noch filigrane Bewegungen machen soll. Wohlgemerkt bei Nutzung des Suchers.
×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung