Jump to content

Die PEN, OM-D & E-System Community
Ignoriert

Hochauflösender Sensor über mehrere Ebenen


Empfohlene Beiträge

Reinhard Wagner hat auf seiner Seite einen hoch spekulativen aber sehr interessanten Artikel geschrieben: https://pen-and-tell.de/2021/04/100mp-auf-ft/

Er geht von der Aussage von Aki Murata aus dem Interview letzte Woche aus, dass dieses Jahr noch ein sehr interessantes Produkt kommt, und dass die PRO-Objektive auch mit 100MP Sensoren zusammen arbeiten würden. Man kann über RW denken, wie man will, er gehört in jedem Fall zu den "gewöhnlich gut unterrichteten Kreisen". 

Die Idee, die er skizziert, und von der er erzählt, dass es vor einiger Zeit schon ein "gut funktionierendes" Prototypenmuster gab, ist ähnlich wie der Foveon-Sensor. Ein System, das 3 Sensoren übereinander platziert. Foveon macht das monolithisch, d.h. auf einem Sensor. Olympus wohl 3 (sehr sehr dünne) Sensoren übereinander - um eine ganze Kleinigkeit versetzt.

Das löst mit einem Schlag eigentlich so gut wie alle Probleme (bis auf die Freistellung, die manchen so wichtig ist). Man hat gewissermaßen die 3-fache Fläche und macht 3 Aufnahmen, die man verrechnet. Das heißt, das Rauschen geht runter, die Auflösung rauf, und man kann den Autofocus noch wunderbar beschleunigen (indem man z.B. einen Sensor nur dafür verwendet). Man kann sich das so vorstellen, dass man eine HighRes-Aufnahme macht, aber gleichzeitig. 

Ich selbst bin Ingenieur im Halbleiterbereich und kann Euch sagen: Denkbar und machbar. Es ist nicht einfach (sonst hätte es mit Sicherheit schon der eine oder andere gemacht), aber es gibt kein Problem, das völlig unlösbar erscheint. Der Prozessor muss ein Monster werden, aber auch das ist kein Problem.

Falls das wirklich in Richtung des WOW-Produktes geht, dann ist WOW noch untertrieben. Und dann kann ich voll und ganz verstehen, warum die gesamte Firma die Klappe hält. Erstens will man keine schlafenden Hunde wecken (Wettbewerb), und zweitens niemand vom Kauf von Kameras abhalten - denn ich z.B. würde sicherlich keine alte Kamera mehr kaufen bis ich das Teil gesehen hätte - auch wenn eines sicher ist: Billig wird sowas nicht!

  • Gefällt mir 3
  • Danke 2
Link zum Beitrag
Auf anderen Seiten teilen
  • Antworten 411
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

Keine Ahnung was für Probleme du da mit der X hattest, die EM1MK3 hat da jedenfalls keine großen Probleme.              

Das wiederum finde ich etwas zu pauschal formuliert. Zumindest dann, wenn man nicht bspw. irgendein Stillleben mit Obst o. ä. fotografiert. Natürlich erleichtert eine Kamera mit Features und Leistun

Vielleicht war man bei Olympus auch ein wenig überrascht über die Prioritäten des normale Endkunden von heute. Hätte vor ein paar Jahren im Entwicklermeeting jemand angedeutet, dass der Foto-Enthusias

Posted Images

Klingt spannend. Ich dachte allerdings immer, dass der Raum zwischen den einzelnen Pixeln für Verdrahtung benötigt wird, sonst könnte man die Pixel ha dicht an dicht auf einem Sensor anordnen.

Das zweite, was ich nicht verstehe: wie löst man das Problem der korrekten Fokussierung? Wenn das Bild auf dem ersten Sensor scharf ist, dann ist es das doch auf dem dritten Sensor nicht mehr.

Gruß 

Hans 

Link zum Beitrag
Auf anderen Seiten teilen
vor einer Stunde schrieb Dscheidschei:

Reinhard Wagner hat auf seiner Seite einen hoch spekulativen aber sehr interessanten Artikel geschrieben: https://pen-and-tell.de/2021/04/100mp-auf-ft/

Er geht von der Aussage von Aki Murata aus dem Interview letzte Woche aus, dass dieses Jahr noch ein sehr interessantes Produkt kommt, und dass die PRO-Objektive auch mit 100MP Sensoren zusammen arbeiten würden. Man kann über RW denken, wie man will, er gehört in jedem Fall zu den "gewöhnlich gut unterrichteten Kreisen". 

Die Idee, die er skizziert, und von der er erzählt, dass es vor einiger Zeit schon ein "gut funktionierendes" Prototypenmuster gab, ist ähnlich wie der Foveon-Sensor. Ein System, das 3 Sensoren übereinander platziert. Foveon macht das monolithisch, d.h. auf einem Sensor. Olympus wohl 3 (sehr sehr dünne) Sensoren übereinander - um eine ganze Kleinigkeit versetzt.

Das löst mit einem Schlag eigentlich so gut wie alle Probleme (bis auf die Freistellung, die manchen so wichtig ist). Man hat gewissermaßen die 3-fache Fläche und macht 3 Aufnahmen, die man verrechnet. Das heißt, das Rauschen geht runter, die Auflösung rauf, und man kann den Autofocus noch wunderbar beschleunigen (indem man z.B. einen Sensor nur dafür verwendet). Man kann sich das so vorstellen, dass man eine HighRes-Aufnahme macht, aber gleichzeitig. 

Ich selbst bin Ingenieur im Halbleiterbereich und kann Euch sagen: Denkbar und machbar. Es ist nicht einfach (sonst hätte es mit Sicherheit schon der eine oder andere gemacht), aber es gibt kein Problem, das völlig unlösbar erscheint. Der Prozessor muss ein Monster werden, aber auch das ist kein Problem.

Falls das wirklich in Richtung des WOW-Produktes geht, dann ist WOW noch untertrieben. Und dann kann ich voll und ganz verstehen, warum die gesamte Firma die Klappe hält. Erstens will man keine schlafenden Hunde wecken (Wettbewerb), und zweitens niemand vom Kauf von Kameras abhalten - denn ich z.B. würde sicherlich keine alte Kamera mehr kaufen bis ich das Teil gesehen hätte - auch wenn eines sicher ist: Billig wird sowas nicht!

Also der Artikel hat mich jetzt nicht besonders beeindruckt. Vor allem verstehe ich nicht, wie R.W. annehmen kann, dass sich die Beugung dafür interessiert, wie das Bild abgetastet wird. Ob man jetzt mehr Pixel oder eine Sensorverschiebung nutzt.

Bezüglich eines "gestapelten" Sensor mit Pixelverschiebung würde mich interessieren, wie das funktionieren soll, ohne das sich die Sensoren gegenseitig abschatten. Das kann ich mir irgendwie nicht vorstellen.

 

  • Gefällt mir 2
  • Danke 1
Link zum Beitrag
Auf anderen Seiten teilen
vor 11 Minuten schrieb Hacon:

Klingt spannend. Ich dachte allerdings immer, dass der Raum zwischen den einzelnen Pixeln für Verdrahtung benötigt wird, sonst könnte man die Pixel ha dicht an dicht auf einem Sensor anordnen.

Ja, bei klassischen Sensoren liegen die Pixel und die Elektronik pro Pixel (das sind einige Transistoren) sowie die Verdrahtung nebeneinander. Das ist der Vorteil von BSI-Sensoren, da wird der Chip sozusagen umgedreht und die Verdrahtung liegt damit hinter den Pixeln und es gibt entsprechend mehr Fläche für die Pixel. Aber so oder so würde die Verdrahtung und die Pixel die darunter liegenden Chips abschatten, die Farbfilter genauso. Daher verstehe ich nicht, wie der R.W.-Sensor funktionieren soll.

vor 11 Minuten schrieb Hacon:

Das zweite, was ich nicht verstehe: wie löst man das Problem der korrekten Fokussierung? Wenn das Bild auf dem ersten Sensor scharf ist, dann ist es das doch auf dem dritten Sensor nicht mehr.

Das ist allerdings auch ein guter Punkt.

Link zum Beitrag
Auf anderen Seiten teilen
vor 31 Minuten schrieb Dscheidschei:

Das löst mit einem Schlag eigentlich so gut wie alle Probleme (bis auf die Freistellung, die manchen so wichtig ist). Man hat gewissermaßen die 3-fache Fläche und macht 3 Aufnahmen, die man verrechnet. Das heißt, das Rauschen geht runter, die Auflösung rauf, und man kann den Autofocus noch wunderbar beschleunigen (indem man z.B. einen Sensor nur dafür verwendet). Man kann sich das so vorstellen, dass man eine HighRes-Aufnahme macht, aber gleichzeitig. 

Ich selbst bin Ingenieur im Halbleiterbereich und kann Euch sagen: Denkbar und machbar.

Weder denkbar noch machbar und es löst auch überhaupt keine Probleme. Wenn Sachen übereinander liegen kommt nicht mehr Licht an sondern viel weniger. Das war auch der Grund weshalb der Foveon floppte der war so unempfindlich das er überhaupt nicht konkurrenzfähig zu den Bayer Sensoren war.  Und wenn es einen Versatz gibt ist das äquivalent zu einer höheren Auflösung in einer Ebene. Das könnte man ohne die ganzen Nachteile mit dem Lichtverlust auch in einer Ebene mit mehr Pixeln machen. Da hat man wieder das Auflösungsproblem für die Optiken und gleichzeitig noch ein Rauschproblem weil dann pro Pixel zu wenig Signal ankommt. Bei HighRes hat man das Problem nicht weil durch die Mehrfachbelichtung auch entsprechend mehr Licht ankommt.

Denkbar ist also theoretisch nur eines. Versuchen den Multishot so weit zu beschleunigen das es evtl. für langsame Bewegungen des Motivs noch reicht.

Link zum Beitrag
Auf anderen Seiten teilen

Der 3D stacked Sensor, den Olympus vor einigen Jahren vorgestellt hat, funktioniert jedenfalls nach einem komplett anderen Prinzip.

Es würde mich überhaupt nicht wundern wenn sich herausstellt, das RW da einfach nur ins Blaue schwadroniert.

Link zum Beitrag
Auf anderen Seiten teilen
vor 24 Minuten schrieb finnan haddie:

Es würde mich überhaupt nicht wundern, wenn RW da einfach nur ins Blaue schwadroniert.

Das macht er bestimmt nicht.

  • Danke 1
  • Haha 1
Link zum Beitrag
Auf anderen Seiten teilen

Nun, es dürfte gesichert sein, dass der gute Herr ein wenig ins Blaue schwadroniert. Wenn er wirklich konkretes wüsste, dürfte und würde er's wohl nicht sagen 😉 Ich finde seine Artikel aber stets sehr viel unterhaltsamer als das, was in letzter Zeit sonst so auf den üblichen Spekulationswebsiten auftaucht^^

Aber! Man kann durchaus gut überlegt schwadronieren: Ein Olympus Top-Manager quaselt kürzlich über 100Mp mit denen die Objektive zusammenarbeiten können. Irgendeinen Hintergrund wird das ja wohl haben... Aber wirklich? 100Mp? Olympus dürfte genau so gut wie wir wissen, dass das für eine MFT Kamera momentan Blödsinn wäre. Zumindest im traditionellen Sinne. Also kann man schwadronieren:

  • Ein mehrschichtiger Sensor von Olympus ist bekannt. Hier: image-sensors-world.blogspot.com/2015/... Das war schon 2015 und dort verwendet Oly quasi unter einem klassischen Bayer-Bildsensor noch einen zweiten Infrarot Sensor. Der klassische Sensor ist transparent für IR und statt das Licht wegzuschmeißen fällt es auf den unteren Sensor und kann verwendet werden. Man könnte da schon behaupten doppelte Auflösung zu haben (z.B. "50" statt 25Mp). Das Infrarot-Bild könnte z.B. zur Fokussierung verwendet werden, um den Konttrast zu erhöhen, oder tatsächlich einfach für nette IR Fotografie...
  • Jetzt sind über 5 Jahre ins Land gegangen seit Olympus darüber gequatscht hat. Man kann also annehmen, dass sie seitdem nicht untätig waren. Warum also nicht statt einer zusätzlichen Schicht mehrere mit unterschiedlichen Farbsensitivitäten verwenden (Da bewegen wir uns in Richtung Foveon)? Oder die Schichten gegeneinander verschieben um mehr Räumliche Auflösung zu bekommen? Und ab der 3. Schicht sind wir schon schnell sehr nah an "100Mp" mit denen die Objektive zusammenarbeiten müssen.

Was mich interessieren würde (@Dscheidschei), wäre wie die transparenzen verschiedener gängiger Substrate in der Halbleitertechnologie so ausschauen. Kann man das mehr oder weniger beliebig konstruieren? Könnte ich mir ein Substrat basteln, was z.B. mit 20% Wahrscheinlichkeit Photonen sichtbaren Lichts in nutzbare Elektronen umwandelt, die restlichen 80% (statistisch) aber mehr oder weniger unverändert in tiefere Ebenen durchlässt?

Ich finde, ins blaue Spekulieren macht ziemich viel Spaß 😄

Link zum Beitrag
Auf anderen Seiten teilen
vor 1 Minute schrieb MeisterKaos:

Aber! Man kann durchaus gut überlegt schwadronieren: Ein Olympus Top-Manager quaselt kürzlich über 100Mp mit denen die Objektive zusammenarbeiten können. Irgendeinen Hintergrund wird das ja wohl haben... Aber wirklich? 100Mp? Olympus dürfte genau so gut wie wir wissen, dass das für eine MFT Kamera momentan Blödsinn wäre. Zumindest im traditionellen Sinne.

Olympus hat doch bereits eine Auflösung von 80MP, insofern ist der Schritt zu 100MP doch überschaubar und lässt also höchstens auf einen kommenden 24MP-Sensor schließen, der dann im HighRes-Modus eben 100MP bringt. (Und ja, wir hatten hier schon recht oft geklärt, dass die Anforderungen des High-Res-Modus an das Objektiv die gleichen sind, wie bei einem nativ so hoch auflösendem Sensor. Diese Diskussion müssen wir hier also nicht schon wieder führen).

Ich kann mir nicht vorstellen, dass OMDS in 2021 mit irgendeiner ganz revolutionären Sensortechnologie rausrückt und auch gleich eine marktreife und konkurrenzfähige Kamera mit diesem Sensor vorstellt. Die Entwicklungsabteilung dort ist sicher nicht die blödeste, wird aber kaum mit den großen Sensorherstellern mithalten können. Ich erwarte da wirklich nur Anpassungen vorhandener Sensoren. Alles andere übersteigt das Budget  der Firma doch deutlich.

Außerdem: Wenn jetzt etwas so Revolutionäres marktreif entwickelt wäre, wieso hätte sich dann Olympus von seiner Kamerasparte getrennt? Mit der Aussicht auf einen Sensor, der die KArten am Kameramarkt neu mischt, hätte man wohl noch ein, zwei Jahre durchgehalten.

Gruß

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Interessant, dass ein Thread über höhere Auflösungen über mehrschichtige Sensoren zum Austausch von Teekannenbildern genutzt wird - wir sind einfach ein kreatives Bilderforum 😎

Dank an Meister Kaos, Hacon und finnan haddie für konstruktive Beiträge- und an aperture 8 für die Zweckentfremdung 😉 

Wie Finnan schon gefunden hat, langwelliges Licht kann Silizium ziemlich gut durchdringen. Das ist überhaupt der Grund, dass wir heute CMOS Sensoren haben - die ersten "zufälligen" Sensoren waren eigentlich DRAM-Speicher, die auch eine sehr regelmäßige Struktur haben, und von der man plötzlich feststellen konnte, dass sie lichtabhängig funktionierten. Im langwelligen Licht ist nun wenig Farbinformation, aber wer dieser Tage versucht hat, mit den neuen Apple Telefonen mit LIDAR ein "Nachtbild" anzufertigen, sieht, dass das nicht unbedingt eine Problem ist. Substrate haben damit übrigens nichts zu tun - hier irrt Reinhard Wagner. Einen CMOS-Bildsensor baut man monolithisch auf, d.h. aus einem Stück Silizium. Man muss es allerdings "dotieren", d.h. gezielt verunreinigen, und das kann man noch nicht so gezielt, bzw. das war bislang nicht vorgesehen weil nicht notwendig. Wenn man solches plötzlich machen müsste, müssten neue Maschinen entwickelt werden, die das unterstützen - und an sowas scheitern derartige Pläne gerne (ich spreche da aus Erfahrung - wenn das jemanden interessiert, stehe ich gerne per PN Rede und Antwort). 

Fest steht, dass in tiefer liegenden Leveln weniger (Abschattung durch Leiterbahnen, die aus Metall sind, auch im monolithischen Sensor) und andersfarbiges Licht ankommen würde, aber wenn man ihn ausreichend dünn macht - was fertigungstechnisch kein Problem darstellt - kommt auf jeden Fall Licht an. Ob das ausreicht vermag ich nicht zu sagen - ich bin Elektroniker, kein Optiker, aber denkbar ist, dass man mit dieser Information durchaus sinnvolle Dinge machen kann (Autofocus, Rauschminderung, zusätzliche Bildinformation), und mit zugeordneter (massiver) Rechenpower kommt dabei auch etwas raus. Ob das dann alle befriedigt, steht woanders.

Und ich bin davon überzeugt (@Hacon) dass eben gerade in solch einer Situation, eine Ausgliederung sinnvoll ist. Man versucht der neuen Sparte mehr Bewegungsfreiheit zu verschaffen, weil man eben nicht im Voraus sagen kann, wie die neue Technologie einschlägt. Daimler hat die LKW-Sparte nicht ausgegliedert, weil die kein Geld verdienen (das Gegenteil ist der Fall), sondern weil es ein anderes Geschäft ist, und ein kleineres Schiff schneller die Richtung wechseln kann als ein Supertanker.

  • Gefällt mir 3
  • Danke 2
Link zum Beitrag
Auf anderen Seiten teilen
vor 8 Minuten schrieb Dscheidschei:

Und ich bin davon überzeugt (@Hacon) dass eben gerade in solch einer Situation, eine Ausgliederung sinnvoll ist. Man versucht der neuen Sparte mehr Bewegungsfreiheit zu verschaffen, weil man eben nicht im Voraus sagen kann, wie die neue Technologie einschlägt. Daimler hat die LKW-Sparte nicht ausgegliedert, weil die kein Geld verdienen (das Gegenteil ist der Fall), sondern weil es ein anderes Geschäft ist, und ein kleineres Schiff schneller die Richtung wechseln kann als ein Supertanker.

Das kann ich nachvollziehen. Und das könnte ja ein (oder der) Grund sein, warum JIP überhaupt ein Interesse an der Kamerasparte hatte. Insofern: strategisch gesehen sicher richtig. Aber 1,5 Jahre vor Markteinführung solch eines Sensors sollte intern doch schon eine Klarheit über den Sensor und seine Marktchancen herrschen. Aber gut, wir wissen nicht, wie lange die Entwicklung bereits dauert, welche Schwierigkeiten und Verzögerungen es vielleicht gab und wer dann wann die Geduld verloren hat.

Gruß

Hans

Link zum Beitrag
Auf anderen Seiten teilen
vor 17 Stunden schrieb Dscheidschei:

Reinhard Wagner hat auf seiner Seite einen hochspekulativen, aber sehr interessanten Artikel geschrieben: https://pen-and-tell.de/2021/04/100mp-auf-ft/

O je. :classic_dry:

.

vor 17 Stunden schrieb Dscheidschei:

... und daß die M.Zuiko-Pro-Objektive auch mit 100-MP-Sensoren zusammenarbeiten würden.

Ja, selbstverständlich tun sie das! Alle Objektive würden auch mit 100-MP-Sensoren zusammenarbeiten.

.

vor 17 Stunden schrieb Dscheidschei:

Ein System, das drei Sensoren übereinander plaziert. [...] Das löst mit einem Schlag eigentlich so gut wie alle Probleme ...

Was für "Probleme" hättest du denn da im Sinn?

.

vor 17 Stunden schrieb Dscheidschei:

Man hat gewissermaßen die dreifache Fläche und macht drei Aufnahmen, die man verrechnet.

Deine Art, bis drei zu zählen, unterscheidet sich offenbar fundamental von meiner. Tatsächlich hätte man weiterhin dieselbe Fläche und machte eine Aufnahme.

.

vor 17 Stunden schrieb Dscheidschei:

Das heißt, das Rauschen geht runter ...

Du nimmst offenbar an, wenn das Licht wisse, daß es gleich auf einen dreifach gestapelten Sensor treffen werde, dann würde es sich Extra-Mühe geben, besonders hell zu leuchten. Oder was?

.

vor 17 Stunden schrieb Dscheidschei:

... die Auflösung rauf [...]. Man kann sich das so vorstellen, daß man eine High-Res-Aufnahme macht, aber gleichzeitig.

Ja genau. Und prompt kommen dieselben Phantastereien über angeblich geringere Anforderungen an die Objektivleistung und das "Austricksen" der Beugung im Vergleich zu einem einschichtigen hochauflösenden Sensor, wie sie unter weniger verständigen Gemütern auch schon seit geraumer Zeit im Zusammenhang mit dem Konzept der Hochauflösung durch Sensorverschiebung im Umlauf sind.

.

vor 17 Stunden schrieb Dscheidschei:

Ich selbst bin Ingenieur ...

Das abgefahrendste in jenem "sehr interessanten Artikel" ist die Behauptung, eine höhere Sensorauflösung führe letztlich zu unschärferen Bildern. Da müssen sich doch jedem Ingenieur die Zehennägel aufrollen. Findest du nicht?

Link zum Beitrag
Auf anderen Seiten teilen

Die Frage ist ja auch, was am Ende dabei herausspringt. Wenn am Ende die Bildqualität (Auflösung, Rauschverhalten, Dynamik) doch unterhalb der KB-Konkurrenten bleibt und OMDS aufgrund der neuen Technik einen sehr hohen Preis verlangen will (z.B. 5.000 € für ein Gehäuse) wird das am Markt nicht laufen.

Link zum Beitrag
Auf anderen Seiten teilen
vor 32 Minuten schrieb tgutgu:

...und OMDS aufgrund der neuen Technik einen sehr hohen Preis verlangen will (z.B. 5.000 € für ein Gehäuse) wird das am Markt nicht laufen.

Also der größte Teil der MFT User wird imho für kein Geld der Welt zu KB wechseln, noch dazu wenn eine absolute High-End MFT-Kamera noch ein paar Tausender günstiger ist als das KB Pendant.

Link zum Beitrag
Auf anderen Seiten teilen
vor 2 Stunden schrieb Omzu Iko:

 

Was für "Probleme" hättest du denn da im Sinn?

Naja, Rauschen ist schon stärker - vor allem, wenn man das 100-400 verwendet...  und auch Unschärfe durch vermehrt Beugung könnte man umgehen.

.

Deine Art, bis drei zu zählen, unterscheidet sich offenbar fundamental von meiner. Tatsächlich hätte man weiterhin dieselbe Fläche und machte eine Aufnahme.

. Nicht ganz - man hätte 3 Sensoren über einander - oder vielleicht auch 2. Die wären ein wenig verschoben, und man hätte 2-3 Bilder von jeweils 20-25MP Auflösung, die man verrechnet.

Du nimmst offenbar an, wenn das Licht wisse, daß es gleich auf einen dreifach gestapelten Sensor treffen werde, dann würde es sich Extra-Mühe geben, besonders hell zu leuchten. Oder was?

. auch nicht ganz. Langwellige Strahlen gehen tiefer - das machen sie auch ohne sich extra Mühe zu geben... Man muss sich nur von der Vorstellung frei machen, dass alle 3 Ebenen genau das gleiche Bild zeigen - oder 3 verschiedene Farben, so wie sich Foveon das mal vorgestellt hat... 

Ja genau. Und prompt kommen dieselben Phantastereien über angeblich geringere Anforderungen an die Objektivleistung und das "Austricksen" der Beugung im Vergleich zu einem einschichtigen hochauflösenden Sensor, wie sie unter weniger verständigen Gemütern auch schon seit geraumer Zeit im Zusammenhang mit dem Konzept der Hochauflösung durch Sensorverschiebung im Umlauf sind.

. Das sehe ich nicht so - Objektive müssen mindestens die Verschiebung zwischen den Sensoren auflösen... ich bin kein Optiker - aber ich denke, ich hätte 2-3 Sensoren mit 2-3 Bildern, die ich miteinander verrechne - also nicht eine große Fläche mit extrem kleinen Pixeln. Meiner Ansicht nach würde ich schon die Beugung austricksen... bis zu einem gewissen Grad. Ob ich die sehe oder nicht hängt von meiner Pixelgröße ab, und die bleibt ja gleich...

Das abgefahrendste in jenem "sehr interessanten Artikel" ist die Behauptung, eine höhere Sensorauflösung führe letztlich zu unschärferen Bildern. Da müssen sich doch jedem Ingenieur die Zehennägel aufrollen. Findest du nicht?

Sagt er ja nicht - OK, Übertreibung veranschaulicht - Das Bild wird nicht unschärfer, aber die Beugung wird - ohne Rechenmaßnahmen - eher sichtbar.

... außerdem rollen meine Zehennägel nicht, die klappen... 😉 

 

Link zum Beitrag
Auf anderen Seiten teilen
Geschrieben (bearbeitet)
vor 1 Stunde schrieb Axel.F.:

Also der größte Teil der MFT User wird imho für kein Geld der Welt zu KB wechseln, noch dazu wenn eine absolute High-End MFT-Kamera noch ein paar Tausender günstiger ist als das KB Pendant.

Da wäre ich mir erstens nicht so sicher (aber der *größte* Teil wird wohl nicht wechseln) und entscheidend ist auch, wieviele Neukunden OMDS überzeugen kann. Stammkunden sind offensichtlich zu wenig (sonst wäre die Marke Olympus nicht in der gegenwärtigen Lage) und sie werden auch älter und mit der Zeit weniger kaufen. Und selbst unter den Stammkunden dürfte nur ein relativ geringer Teil für eine Kamera 5.000 € ausgeben können und wollen. 5.000 € wäre ungefähr ein Viertel dessen, was ich bislang für Olympus Produkte ausgegeben habe und es übertrifft allein, was ich seit 2015 für Olympus Kameras ausgegeben habe.

Entscheidend werden jüngere Käufer (30 bis 45) sein, welche sich die angebotenen Produkte auch auch leisten können.

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen
Geschrieben (bearbeitet)
vor 4 Stunden schrieb Axel.F.:

Also der größte Teil der MFT User wird imho für kein Geld der Welt zu KB wechseln, noch dazu wenn eine absolute High-End MFT-Kamera noch ein paar Tausender günstiger ist als das KB Pendant.

Warum nicht? Ich denke, nicht wenig MFT Nutzer fahren zweigleisig. Oftmals wohl MFT und KB, jedes hat so Vor- und Nachteile. Ist doch bei allen Gebrauchsgegenstaenden so. Z. B. Auto: Fuer Transporte und mit der Familie in Urlaub ein grosser Kombi und fuer den täglichen Weg zur Arbeit ein verbrauchsguenstiger Kleinwagen. Warum sollte ich mich auf einen Hersteller beschränken? Als Kleinwagen ein schicker Fiat 500 und als Kombi einen grossen Volvo, nur als Beispiel.

Eine High End  MFT- Kamera, wird niemals erheblich günstiger sein, als eine technisch vergleichbare High End KB Kamera, da der Preisunterschied zwischen MFT und KB Sensor gar nicht mehr so gross ist. Irgendwo las ich kürzlich mal etwas von ca 200-300 €. Die Differenz ist deutlich gesunken. Wenn du auf die Top- Kameras von Canon und Sony, im Vergleich zur EM1-x anspielst, diese Kameras haben auch z.B. ein deutlich besseres AF System und deutlich hoeher auflösende Sucher. Der Sensor wird gar nicht den Haupt- Preisunterschied ausmachen. Und durch die höhere Auflösung dieser Kameras benötigen Sie deutlich schnellere und leistungsfähige und damit teurere  Prozessoren und Schnittstellenbauteile fuer den benötigten deutlich höheren Datendurchsatz. Deshalb sind sie in erster Linie teurer. 

Nur gleichwertige Objektive werden bei KB deutlich teurer und grösser, das wird auch so bleiben.

 

bearbeitet von Libelle103
Link zum Beitrag
Auf anderen Seiten teilen
vor 4 Stunden schrieb Axel.F.:

Also der größte Teil der MFT User wird imho für kein Geld der Welt zu KB wechseln, noch dazu wenn eine absolute High-End MFT-Kamera noch ein paar Tausender günstiger ist als das KB Pendant.

Also ich habe das gerade gemacht, nachdem ich mich seit der E-M1II und allen Nachfolgern mit einem unzuverlässigen C-AF und einem unbrauchbaren Tracking rumgeärgert habe. Ich dachte auch, dass ich eine E-M1III und die 12-40, 17 1.2, 45 1.2, 75 1.8 behalte um etwas kompaktes für unterwegs zu haben.

Ich bin mir da aber nicht mehr sicher. Mit der A9II habe ich jetzt endlich zuverlässig scharfe Bilder und selbst jagende Schwalben werden knackscharf sofern man sie im Sucher halten kann 😅 - Der AF der A9 ist einfach unglaublich.

Mehr noch hat mich aber nach den ersten Bilder der reine Zugewinn an Bildqualität beeindruckt, damit habe ich in diesem Maße nicht gerechnet. Der Gewinn an Dynamik und Lebendigkeit, an Auflösung und Kontrast ist derart immens, dass ich wohl kaum noch zur Olympus greifen werden.

Link zum Beitrag
Auf anderen Seiten teilen
Geschrieben (bearbeitet)
vor 1 Stunde schrieb Te Ka:

Also ich habe das gerade gemacht, nachdem ich mich seit der E-M1II und allen Nachfolgern mit einem unzuverlässigen C-AF und einem unbrauchbaren Tracking rumgeärgert habe. Ich dachte auch, dass ich eine E-M1III und die 12-40, 17 1.2, 45 1.2, 75 1.8 behalte um etwas kompaktes für unterwegs zu haben.

Ich bin mir da aber nicht mehr sicher. Mit der A9II habe ich jetzt endlich zuverlässig scharfe Bilder und selbst jagende Schwalben werden knackscharf sofern man sie im Sucher halten kann 😅 - Der AF der A9 ist einfach unglaublich.

Mehr noch hat mich aber nach den ersten Bilder der reine Zugewinn an Bildqualität beeindruckt, damit habe ich in diesem Maße nicht gerechnet. Der Gewinn an Dynamik und Lebendigkeit, an Auflösung und Kontrast ist derart immens, dass ich wohl kaum noch zur Olympus greifen werden.

Der AF der A9 II ist super! Aber man sollte nicht vergessen, dass das zu einem verflucht  großen Teil dem BSI Stacked zu verdanken ist

Und Canikon werden da auch nachziehen so das Sony da dann kein Alleinstellungsmerkmal mehr hat.

Die Frage ist wird Olympus da endlich nachziehen und die 5 Jahre alte Sensortechnologie aufs Altgleis schieben? Die Antwort darauf kann nur „muss“ sein.

 

B

 

 

bearbeitet von Borbarad
  • Gefällt mir 2
  • Danke 1
Link zum Beitrag
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

  • Wer ist Online   0 Benutzer

    Keine registrierten Benutzer online.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung