Jump to content

Die OM System Community
Ignoriert

E-M1X


Empfohlene Beiträge

Huiii, hier geht es aber in die tiefsten Tiefen des kommenden Flaggschiffs . 

Im November hatte ich noch geschrieben , daß Olympus die M1-X nicht vor April vorstellen wird und keine Beteiligung an der photokina im Mai stattfinden wird . Bub , es scheint , daß die Gerüchte aus USA stimmen , zumal bezweifelt wurde , daß es einen neuen Sensor geben würde und offensichtlich stimmt auch das.

Die schiere Größe wird meines Erachtens den top-pro Objektiven zu ganz neuem Glanz verhelfen . Leider wird es da software-mäßig keine Verbesserungen mehr geben - zu groß wäre die Konkurrenz zu den neu entwickelten mft-Objektiven .

Ich hoffe , daß ich im April wieder nach einer völlig aus dem Ruder gelaufenen Hals-Op wieder in der Lage bin , das Flagg-Schiff in Händen halten zu können ...

zZt ist das iPhone schon eine Herausforderung .  

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Stunden schrieb Olympikus:

Huiii, hier geht es aber in die tiefsten Tiefen des kommenden Flaggschiffs . 

Im November hatte ich noch geschrieben , daß Olympus die M1-X nicht vor April vorstellen wird und keine Beteiligung an der photokina im Mai stattfinden wird . Bub , es scheint , daß die Gerüchte aus USA stimmen , zumal bezweifelt wurde , daß es einen neuen Sensor geben würde und offensichtlich stimmt auch das.

Die schiere Größe wird meines Erachtens den top-pro Objektiven zu ganz neuem Glanz verhelfen . Leider wird es da software-mäßig keine Verbesserungen mehr geben - zu groß wäre die Konkurrenz zu den neu entwickelten mft-Objektiven .

Ich hoffe , daß ich im April wieder nach einer völlig aus dem Ruder gelaufenen Hals-Op wieder in der Lage bin , das Flagg-Schiff in Händen halten zu können ...

zZt ist das iPhone schon eine Herausforderung .  

Gute Besserung 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 10 Stunden schrieb Olympikus:

Ich hoffe , daß ich im April wieder nach einer völlig aus dem Ruder gelaufenen Hals-Op wieder in der Lage bin , das Flagg-Schiff in Händen halten zu können ...

zZt ist das iPhone schon eine Herausforderung .  

Das klingt ja übel... Gute Besserung...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 29.12.2018 um 23:15 schrieb OhWeh:

CPU ist auf jeden Fall die falsche Bezeichnung für den Prozessor, über den wir reden. Es ist ein ASIC mit viel hartverdrahteter Parallelverarbeitung.

Magst Du mal ausführen, worin der spezifische Vorteil dieses Konstruktes liegt?

Angesichts der Leistungen,  die Mobilgeräte mittlerweile an den Tag legen, stellt sich aber durchaus die Frage, ob denn das so sinnvoll ist und bleiben kann. Parallelverarbeitung können moderne GPUs ja offenbar auch ganz gut bzw. kann man ja durchaus auch an spezialisierte Chips delegieren. Nur warum sollte man heute noch hergehen, und für UI und allgemeine Prozesskontrolle nicht auf eine CPU setzen?

Danke

Klaus

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 21 Stunden schrieb Olympikus:

Ich hoffe , daß ich im April wieder nach einer völlig aus dem Ruder gelaufenen Hals-Op wieder in der Lage bin , das Flagg-Schiff in Händen halten zu können ...

zZt ist das iPhone schon eine Herausforderung .  

Auch von mir gute Besserung! Für Deine FT-Linsen brauchst Du doch ohnehin mehr Kondition als wir reinen mFT-Jünger 😉

Link zu diesem Kommentar
Auf anderen Seiten teilen

Merci Leute ,

ich wollte den thread nicht mit meinen wehwehchen kapern sondern mich nur zurückmelden .

Mag mir Jemand erklären , warum Ihr zum erstenmal (?) so in die elektronischen hardware-Tiefen eintaucht bei der M1-X , das war bei der M1-2 meines Wissens nicht der Fall . Ohne den Unterschied von GPU und CPU zu kennen , wofür ist das jetzt für das Endergebnis : bessere Bildqualität , schnellerer AF , etc wichtig ?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 14 Stunden schrieb Kabe:

Magst Du mal ausführen, worin der spezifische Vorteil dieses Konstruktes liegt?

Angesichts der Leistungen,  die Mobilgeräte mittlerweile an den Tag legen, stellt sich aber durchaus die Frage, ob denn das so sinnvoll ist und bleiben kann. Parallelverarbeitung können moderne GPUs ja offenbar auch ganz gut bzw. kann man ja durchaus auch an spezialisierte Chips delegieren. Nur warum sollte man heute noch hergehen, und für UI und allgemeine Prozesskontrolle nicht auf eine CPU setzen? 

Danke

Klaus

Je mehr ein Algorithmus direkt in der Hardware verdrahtet ist, nicht erst aus Software übersetzt werden muss, desto schneller und stromsparender geht es.

Eine GPU (Graphic processing Unit) hat gewisse Bildverarbeitungsalgorithmen fest verdrahtet, aber es braucht dann min. noch einen zweiten Prozessor (extra Chip) der die Nichtstandardalgorithmen übernimmt. Die Kommunikation zwischen Chips ist immer viel langsamer und aufwendiger, als innerhalb eines Chips. Außerdem braucht es dann auch noch Speicherchips zum Zwischenspeichern der halbverarbeiteten Daten, bevor sie weiter geschickt werden.

Optimal ist Parallelverarbeitung: Jeder Pixel, jede Kontrastkante,  etc. werden gleichzeitig verarbeitet, und dann nach der ersten Verarbeitungsstufe alle Rohdaten an die zweite Stufe (Gesichtserkennung, Objektbewegung, etc...) weitergegeben, ohne dass (große, am ungünstigsten externe) Speicher als Zwischenablage gebraucht werden. Dann kommt Stufe 3 z.B. die JPEG-Komprimierung, etc. etc.

Zusätzlich gibt es aber genug Arbeit, die eine CPU GPU nicht kann (für die eine CPU GPU nicht gebaut ist) : Objektiv ansteuern, Schnittstellen (SD-Karte, HDMI, ...) verwalten, Audio, ... Außerdem sind CPUs GPUs meist nicht massiv-parallel angelegt.

Ein ASIC (Anwendungs Spezifischer IC) macht genau das: da ist eine massivparallele Bildverarbeitung und die anderen Dinge in einem Chip. Aber er muss halt extra für die Aufgabe gebaut werden, was richtig Geld kostet. RAndrae hat min. 80 Mio USD genannt, das halte ich sogar für optimistisch. Sprich es lohnt sich nur für wirklich große Stückzahlen. Olympus ist da etwas klein für.

Deshalb meine Spekulation(!), dass so was wie die genannte Zynq-Chip-Familie das übernehmen könnte. Die sind genau für solche Aufgaben gebaut, sind aber noch flexibel für z.B. Olympuseigene Features, auf der anderen Seite verbrauchen sie etwas mehr Strom als ASICs (Aber lang nicht so viel wie CPU + Extraprozessor + Extraspeicher).

Die Handy-Chips von Qualcomm etc. sind ja auch hochspezialisierte Chips, nur dass der Handymarkt dank der Riesenstückzahlen verschiedene Modelle (mit unterschiedlicher Performance) erlaubt.

bearbeitet von OhWeh
Fehler siehe oben
  • Gefällt mir 2
  • Danke 7
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 54 Minuten schrieb Olympikus:

Ohne den Unterschied von GPU und CPU zu kennen , wofür ist das jetzt für das Endergebnis : bessere Bildqualität , schnellerer AF , etc wichtig ?

Weil Du in einer Kamera neben den Kosten zwei ganz starke Beschränkungen hast: Stromverbrauch muss niedrig sein, weil sonst die Batterie schnell leer ist. Stromverbrauch muss niedrig sein, weil die Abwärme ein Riesenproblem ist. (4K-Video nur 10 Minuten läuft, dann abschalten muss, etc.)

Du kannst nicht einfach einen Nividia-Chip mit 75Watt Verlustleistung nehmen. 😉

 

  • Gefällt mir 1
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb OhWeh:

Je mehr ein Algorithmus direkt in der Hardware verdrahtet ist, nicht erst aus Software übersetzt werden muss, desto schneller und stromsparender geht es.

Eine GPU (Graphic processing Unit) hat gewisse Bildverarbeitungsalgorithmen fest verdrahtet, aber es braucht dann min. noch einen zweiten Prozessor (extra Chip) der die Nichtstandardalgorithmen übernimmt. Die Kommunikation zwischen Chips ist immer viel langsamer und aufwendiger, als innerhalb eines Chips. Außerdem braucht es dann auch noch Speicherchips zum Zwischenspeichern der halbverarbeiteten Daten, bevor sie weiter geschickt werden.

Optimal ist Parallelverarbeitung: Jeder Pixel, jede Kontrastkante,  etc. werden gleichzeitig verarbeitet, und dann nach der ersten Verarbeitungsstufe alle Rohdaten an die zweite Stufe (Gesichtserkennung, Objektbewegung, etc...) weitergegeben, ohne dass (große, am ungünstigsten externe) Speicher als Zwischenablage gebraucht werden. Dann kommt Stufe 3 z.B. die JPEG-Komprimierung, etc. etc.

Zusätzlich gibt es aber genug Arbeit, die eine CPU nicht kann (für die eine CPU nicht gebaut ist) : Objektiv ansteuern, Schnittstellen (SD-Karte, HDMI, ...) verwalten, Audio, ... Außerdem sind CPUs meist nicht massiv-parallel angelegt.

Ein ASIC (Anwendungs Spezifischer IC) macht genau das: da ist eine massivparallele Bildverarbeitung und die anderen Dinge in einem Chip. Aber er muss halt extra für die Aufgabe gebaut werden, was richtig Geld kostet. RAndrae hat min. 80 Mio USD genannt, das halte ich sogar für optimistisch. Sprich es lohnt sich nur für wirklich große Stückzahlen. Olympus ist da etwas klein für.

Deshalb meine Spekulation(!), dass so was wie die genannte Zynq-Chip-Familie das übernehmen könnte. Die sind genau für solche Aufgaben gebaut, sind aber noch flexibel für z.B. Olympuseigene Features, auf der anderen Seite verbrauchen sie etwas mehr Strom als ASICs (Aber lang nicht so viel wie CPU + Extraprozessor + Extraspeicher).

Die Handy-Chips von Qualcomm etc. sind ja auch hochspezialisierte Chips, nur dass der Handymarkt dank der Riesenstückzahlen verschiedene Modelle (mit unterschiedlicher Performance) erlaubt.

Vielen Dank für diese verständliche kurze Übersicht 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Oben waren drei Fehler, ich hab sie auch oben in meinem Text ausgebessert:

Zusätzlich gibt es aber genug Arbeit, die eine CPU GPU nicht kann (für die eine CPU GPU nicht gebaut ist) : Objektiv ansteuern, Schnittstellen (SD-Karte, HDMI, ...) verwalten, Audio, ... Außerdem sind CPUs GPUs meist nicht massiv-parallel angelegt.

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Stunden schrieb Olympikus:

Merci Leute ,

ich wollte den thread nicht mit meinen wehwehchen kapern sondern mich nur zurückmelden .

Mag mir Jemand erklären , warum Ihr zum erstenmal (?) so in die elektronischen hardware-Tiefen eintaucht bei der M1-X , das war bei der M1-2 meines Wissens nicht der Fall . Ohne den Unterschied von GPU und CPU zu kennen , wofür ist das jetzt für das Endergebnis : bessere Bildqualität , schnellerer AF , etc wichtig ?

Die Diskussion ergab sich, weil es konkrete Gerüchte über die Details des Prozessors gab, die einige Frage aufwirft. Da dies auch ein technisches Forum ist, ist hier doch der richtige Platz um solche technische Fragen zu diskutieren. Schnellerer AF und evtl. auch bessere Bildqualität kann sehr von der Leistungsfähigkeit der Rechenhardware der Kamera abhängen. Man betrachte nur die Leistungen eines modernen Smartphones. Und schliesslich gibt es auch einfach nur das technische Interesse: man will halt wissen und verstehen, wie das Gerät genau aufgebaut ist und funktioniert, auch wenn nicht jedes Detail eine direkte Relevanz für die Fotografie hat.

Peter

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Stunden schrieb OhWeh:

Je mehr ein Algorithmus direkt in der Hardware verdrahtet ist, nicht erst aus Software übersetzt werden muss, desto schneller und stromsparender geht es.

Eine GPU (Graphic processing Unit) hat gewisse Bildverarbeitungsalgorithmen fest verdrahtet, aber es braucht dann min. noch einen zweiten Prozessor (extra Chip) der die Nichtstandardalgorithmen übernimmt. Die Kommunikation zwischen Chips ist immer viel langsamer und aufwendiger, als innerhalb eines Chips. Außerdem braucht es dann auch noch Speicherchips zum Zwischenspeichern der halbverarbeiteten Daten, bevor sie weiter geschickt werden.

Optimal ist Parallelverarbeitung: Jeder Pixel, jede Kontrastkante,  etc. werden gleichzeitig verarbeitet, und dann nach der ersten Verarbeitungsstufe alle Rohdaten an die zweite Stufe (Gesichtserkennung, Objektbewegung, etc...) weitergegeben, ohne dass (große, am ungünstigsten externe) Speicher als Zwischenablage gebraucht werden. Dann kommt Stufe 3 z.B. die JPEG-Komprimierung, etc. etc.

Zusätzlich gibt es aber genug Arbeit, die eine CPU GPU nicht kann (für die eine CPU GPU nicht gebaut ist) : Objektiv ansteuern, Schnittstellen (SD-Karte, HDMI, ...) verwalten, Audio, ... Außerdem sind CPUs GPUs meist nicht massiv-parallel angelegt.

Ein ASIC (Anwendungs Spezifischer IC) macht genau das: da ist eine massivparallele Bildverarbeitung und die anderen Dinge in einem Chip. Aber er muss halt extra für die Aufgabe gebaut werden, was richtig Geld kostet. RAndrae hat min. 80 Mio USD genannt, das halte ich sogar für optimistisch. Sprich es lohnt sich nur für wirklich große Stückzahlen. Olympus ist da etwas klein für.

Deshalb meine Spekulation(!), dass so was wie die genannte Zynq-Chip-Familie das übernehmen könnte. Die sind genau für solche Aufgaben gebaut, sind aber noch flexibel für z.B. Olympuseigene Features, auf der anderen Seite verbrauchen sie etwas mehr Strom als ASICs (Aber lang nicht so viel wie CPU + Extraprozessor + Extraspeicher).

Die Handy-Chips von Qualcomm etc. sind ja auch hochspezialisierte Chips, nur dass der Handymarkt dank der Riesenstückzahlen verschiedene Modelle (mit unterschiedlicher Performance) erlaubt.

ASIC steht je heutzutage nicht mehr für einen festverdrahteten Chip, sondern eher generell für einen Chip für einen spezifischen Zweck. So sind z.B. die Qualcomm oder die Apple Chips für Telefone sicher hochspezialisiert, bestehen aber aus sehr unterschiedlichen Komponenten. Da gibt es frei programmierbare CPUs (ARM), sogar in unterschiedlichen Ausführungen (Big+Little), da gibt es eine GPU, also eine "Grafikarte", da gibt es Einheiten, die zur Video(de-)kodierung in Hardware dienen und vieles mehr, alles auf einem Stück Silizium "Die". Dabei erstreckt sich die Programmierbarkeit von beliebig (CPU), mittel (GPU) bis kaum (Videodecoder). Dazu kommt noch eine Handvoll von Spezialisten, die als einzelne Bausteine auf der gemeinsamen Platine landen, wie z.B. der Speicher, die Accelerometer, die Funk-Chips, etc.

Was genau ein einem TruePic Prozessor verbaut ist, da habe ich keine Ahnung. Aber alles, was per Firmware anpassbar ist, muss auf einer Software oder zumindest programmierbaren Parametern beruhen. Daher vermute ich, das da mindestens ein ARM-Core (oder Vergleichbares) vorhanden ist, um das User-Interface und das grundsätzliche Verhalten der Kamera zu steuern und mehr oder weniger spezialisierte Einheiten für die rechenintensiven Prozesse. Wenn man z.B. an die ART-Filter denkt, dann wird dafür sicherlich Hardwareunterstützung vorhanden sein, aber vermutlich nicht in der Form, das die einzelnen Filter festverdrahtet wären, eher ist eine für die Bildbearbeitung spezialisierte Form von DSP (digital signal processor) vorhanden, der es erlaubt vorgegebenen Funktionen auf ein ganzes Bild anzuwenden.

Ich halte es durchaus für wahrscheinlich, das die TruePic-Prozessoren Olympus-spezifisch sind. Die Zahl von 80 Millionen halte ich dabei für zu hoch. Generell kann man sehr viele der Einzelkomponenten, wie eine CPU, eine USB-Schnittstelle, etc. als sogenannte IPs bekommen. Das sind schon komplett entworfene Komponenten, die als Entwurfsdateien vorhanden sind und dann wie Textblöcke in der Textverarbeitung in das Chip-Layout kopiert werden können. Gerade ARM ist da ein typisches Beispiel. ARM verkauft nur die Entwurfsdateien, baut selber aber keine Chips. Aber jeder, der auf seinen Chips eine CPU braucht, kann dem Portfolio die passende CPU einkaufen und verwenden.

Daher lassen sich die Kosten für solche Chips von Aussen nur schwer abschätzen, dafür müsste man mehr über die Funktionen wissen und wie viel Aufwand bei dem Entwurf getrieben wurde. Das kann von der Platzierung einiger einfacher IPs bis hin zu ganz komplexen Entwürfen gehen.

Peter

  • Gefällt mir 1
  • Danke 4
Link zu diesem Kommentar
Auf anderen Seiten teilen

Spannend ist dabei wirklich das Objektiv. Das ist kaum größer, als das 300er. Wenn es das 150-400 ist - wovon ich ausgehe -, ist es nicht F4.0, sondern maximal F4.5. Zweite Neuigkeit: Der Termin. Wir dürfen uns auf den 24. Januar freuen.

Gruß

Hans

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bei Sekunde 1-3 sieht´s aus wie das 300er PRO und im weiteren Verlauf des Videos (ab Sek. 5) wird meiner Meinung nach das 40-150 PRO mit anderer Geli gezeigt.

meint Erk

P.S.: Lustig, dass der Sucherbuckel fast so aussieht wie seiner Zeit der von der E-3 / E-5.
         Steckt da doch ein Blitz drin? :classic_ninja:

bearbeitet von Noctiluchs
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Noctiluchs:

Bei Sekunde 1-3 sieht´s aus wie das 300er PRO und im weiteren Verlauf des Videos (ab Sek. 5) wird meiner Meinung nach das 40-150 PRO mit anderer Geli gezeigt.

 

Hmm. Ich befürchte,  du hast Recht. Das könnte wirklich das 40-150 sein. Schade.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Stunden schrieb Noctiluchs:

im weiteren Verlauf des Videos (ab Sek. 5) wird meiner Meinung nach das 40-150 PRO mit anderer Geli gezeigt.

Dafür sieht es meiner Meinung nach viel zu lang aus.

Stimmt!

bearbeitet von Kabe
Richtigstellung
Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung