Jump to content

Die OM System Community
Ignoriert

Olympus OM-D E-M1X: Innovationen, Belastbarkeit und intuitive Bedienung


Empfohlene Beiträge

Am 24.1.2019 um 22:05 schrieb fotonoid:

Ich arbeite seit der E3 mit allen Kameras die Olympus herausgebracht hat. ALLE.  Jede dieser Kameras wurde von mit Freude erwartet und auch gekauft. ALLE. Dies ist die erste Olympus die mit grosser Skepsis in Bezug auf die aktuelle Marktsituation betrachte. Vielleicht ändert es sich wenn ich sie teste. Aber diesmal ist es halt anders.

2 Gründe (aus professioneller Sicht):

- Es sollte nach Jahren endlich wieder ein deutlicher Schritt gemacht werden in Bezug auf die Bildqualität. Die vielen Features werden nur wenige Anwender überzeugen wenn sich da nichts mehr tut.

- Ein Flagschiff sollte bei den Videofähigkeiten viel mehr zu bieten haben.... 4:2:0, 8 bit, Keine Änderung im Cine 4K Modus gegenüber der Mark II. Die zugefügten Features sind ganz normaler Standard bei sämtlichen Neuvorstellung in dieser Preisklasse. Da im Profibereich immer mehr die Hybridfähigkeit Photo/Video erwartet wird, sollte ein Flagschiff für 3.000 Euro diese Erwartung erfüllen und zumindest mit der Konkurrenz im mft Sektor gleichziehen die inzwischen auch 2 Jahre auf dem Markt sind.

 

Nochmal zum Verständis. Ich liebe meine Olympussachen. Aber ich will mich auch mit meiner Hausmarke kritisch auseinander setzen dürfen und können.

Das kann ich zu 100% unterschreiben (bis auf die E-3, bei mir wars ne C3030).

 

Am 25.1.2019 um 11:36 schrieb Hacon:

Ist der Sucher wirklich blackoutfrei bei allen Serienaufnahmen mit elektronischem Verschluss? Ich konnte da bisher keine eindeutige Aussage finden. Bei ProCapture wird das zwar erwähnt, aber ist das auch bei normalen Serienaufnahmen der Fall?

Gruß

Hans

Laut Petr Bambousek und diversen anderen Infoquellen leider nur bei ProCapture, nicht bei normalen Serienbildern, wobei es wohl nur minimale Blackouts sind. Wenn MORITZ keine bemerkt hat und normale Serienbilder gemacht hat, ist das schon mal ein gutes Zeichen.

 

Am 25.1.2019 um 16:36 schrieb wteichler:

„The answer surprised me: The E-M1X evaluates focal distance for all points across the entire sensor simultaneously, rather than processing the individual AF points separately. It sounds like it does indeed process all the phase-detect data depending on the maximum aperture of the lens in use, but the most interesting bit of information to me was that the E-M1X essentially develops a depth map across the entire image area, feeding that information to higher levels of subject detection and area-of-interest processing. [But not, as noted previously, to the AI subject recognition system; rather, this applies to normal AF processing only. This was the first time I'd heard that a camera calculates a full-image depth map as part of routine AF processing.“

Das klingt doch superspannend, warum bewirbt man die Neue denn nicht mit solchen tollen Innovationen?

Ganz ehrlich: Ich hatte eine Kamera erwartet, die als 3000€ teueres Flagship das zum 100ten Geburtstag erscheint, natürlich State of the Art Komponenten verbaut hat, Verbesserungen beim AF, der Bildqualität und dem Userinterface bietet und zusätzlich ein paar tolle und ebenso innovative wie nützliche Features besitzt.

Was ich sehe, ist eine große extrem robuste Kamera mit veralteten „getweakten“ 😜 Komponenten, kleinen Verbesserungen, die man entweder völlig übertrieben oder gar nicht bewirbt und ein paar spannenden Features, die auf KI basieren und die man auch besser verkaufen könnte.

Das was man beworben hat, erfüllt zum Teil nicht die Ansprüche der bisherigen Reviewer, weshalb es zu mehr oder weniger harten Verrissen gekommen ist. Und das was toll oder zumindest vielversprechend für die Zukunft ist, wird gar nicht angesprochen. Viele Leute können sich unter einer smarten Kamera oder KI in der Kamera wenig vorstellen, ohne konkrete tolle Anwendungsbeispiele zu sehen, mit denen auch Nichtinformatiker etwas anfangen können.

Zumindest im Internet ist die Kamera scheinbar bereits durchgefallen und das hätte vermieden werden können, wenn man noch ein paar AF Tracking Motive mehr entwickelt, zeitgemäße Komponenten verbaut, am Ui gearbeitet und die Kamera am Ende dieses Jahres als Krönung des Jubiläumsjahres vorgestellt hätte. Dann wäre es auch nicht mehr so lang bis zum Erscheinen des 150-400 in 2020 gewesen. 

Im Januar hätte man vielleicht besser ein neues Brot und Butter Modell mit 20 Mpx und funktionieredem C-AF vorstellen sollen, dass für den Massenmarkt interessant gewesen wäre - also den lange überfälligen Nachfolger der E-M5 II.

Seufz 🤓

bearbeitet von acahaya
  • Gefällt mir 9
  • Danke 3
Link zu diesem Kommentar
Auf anderen Seiten teilen

Wobei die KI hier im Wesentlichen ja doch ohnehin nur im Labor stattfand, in der Kamera sind nur deren Ergebnisse als klassischer, in keinster Weise lernfähiger Algorithmus bzw. Datenbestand drin. Insofern wurden mit dem Hinweis auf KI wohl auch falsche Erwartungen geweckt...

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 31 Minuten schrieb king kong:

Genau. Geht jetzt schon - wie ich schrieb. Dafür musst du nicht aufs ND-Filter warten oder unbedingt ein Glasfilter verwenden. Schon probiert?

Ich nehm an, dass die Neue das auch haben wird.

Nur erreichst du mit einer Veränderung der Gradiation keine Erweiterung des Dynamikbereichs, den der Sensor aufnehmen kann, mit einem Verlaufsfilter aber schon. Beschäftige dich mal mit den Fingern, für Landschaftsfotografie sind die schon eine feine Sache.

Gruß 

Hans

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb pit-photography:

Ein Schmankerl wäre es, wenn dieser Filter einen Verlaufsfilter simuliert.

Wenn der ND-Filter die Einzelaufnahmen integriert – wonach es ja aussieht – dann sollte das problemlos in der Nachbearbeitung gehen. Man wird sehen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb pit-photography:

Ein Schmankerl wäre es, wenn dieser Filter einen Verlaufsfilter simuliert. Dann spart man sich die Belichtungsreihe und man hat einen korrekt belichteten Wolkenhimmel und Landschaft. So wie man mit dem echten Verlaufsfilter machen würde. 

Das sollte eigentlich nicht allzu schwierig sein. Man multipliziert die Signalwerte aus einem Teil der Zeilen mit einer Zahl < 1 bevor man sie aufaddiert.

Peter

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Peter Herth:

Das sollte eigentlich nicht allzu schwierig sein. Man multipliziert die Signalwerte aus einem Teil der Zeilen mit einer Zahl < 1 bevor man sie aufaddiert.

Klar. Es muss nur implementiert sein und man muss ein oder zwei Parameter einstellbar haben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also ich bin insgesamt nicht unzufrieden: Meine 1,5 Jahre alte e-m1ii ist technisch in allen Punkten, die ich brauche und nutze, auf der Höhe der Zeit. Handgehaltener HiRes wird  in der Neuen intern verrechnet. Das kann man natürlich - genauso wie den simulierten Graufilter - auch mit Photoshop machen. Ich habe mich heute nachmittag mal hingesetzt und das mit Photoshop nachgemacht. Ich habe 4 Bilder im schnellen Serienmodus aufgenommen, in Lightroom bearbeitet und dann an Photoshop übergeben. Anschließend die Bilder auf 200% vergrößert und verrechnet. Um vergleichen zu können, habe ich das Ergebnis dann wieder auf die ursprüngliche Größe verkleinert und tatsächlich: man sieht in der 1:1-Ansicht schon einen deutlichen Gewinn. Unter dem folgenden Link sind die beiden Bilder als jpeg herunterzuladen: https://1drv.ms/f/s!AjnIjbifgIs7gc9KzP4_cYGKaHqWKA

Wahrscheinlich kann man auch noch bessere Ergebnisse erzielen mit dem Verrechnen von mehr Bildern und mit etwas mehr Erfahrung. Ich habe heute und morgen dafür wenig Zeit, behalte die Möglichkeit aber auf jeden Fall im Hinterkopf. Die Neue hat mir also eine interessante Anregung gebracht. Vielleicht stellt Olympus seine Algorithmen ja allen Oly-Nutzern mit der kommenden neuen Software zur Verfügung (anstelle eines Kameraupdates).

  • Gefällt mir 1
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb Peter Herth:

ND-Verlaufsfilter: Das sollte eigentlich nicht allzu schwierig sein. Man multipliziert die Signalwerte aus einem Teil der Zeilen mit einer Zahl < 1 bevor man sie aufaddiert.

 

vor 10 Minuten schrieb uprantl:

Man kann man natürlich den simulierten Graufilter auch mit Photoshop machen. Ich habe mich heute nachmittag mal hingesetzt und HiRes mit Photoshop nachgemacht. Ich habe 4 Bilder im schnellen Serienmodus aufgenommen, in Lightroom bearbeitet und dann an Photoshop übergeben. Anschließend die Bilder auf 200% vergrößert und verrechnet. Um vergleichen zu können, habe ich das Ergebnis dann wieder auf die ursprüngliche Größe verkleinert und tatsächlich: man sieht in der 1:1-Ansicht schon einen deutlichen Gewinn.

Wahrscheinlich kann man auch noch bessere Ergebnisse erzielen mit dem Verrechnen von mehr Bildern und mit etwas mehr Erfahrung. Ich habe heute und morgen dafür wenig Zeit, behalte die Möglichkeit aber auf jeden Fall im Hinterkopf.

Tu das uprantl und tu uns einen Gefallen, bitte: Simulier doch mal mit dieser Methode in Photoshop den ND-Verlaufsfilter! Gruß, Hermann

bearbeitet von Nieweg
  • Gefällt mir 2
  • Danke 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 11 Minuten schrieb Nieweg:

 

Tu das uprantl und tu uns einen Gefallen, bitte: Simulier doch mal mit dieser Methode in Photoshop den ND-Verlaufsfilter! Gruß, Hermann

Ich habe von Graufilter (ND-Filter)  gesprochen, so wie ihn auch die Neue hat, nicht von Verlaufsfilter.

bearbeitet von uprantl
Ergänzung
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 11 Minuten schrieb Nieweg:

Tu das uprantl und tu uns einen Gefallen, bitte: Simulier doch mal mit dieser Methode in Photoshop den ND-Verlaufsfilter! Gruß, Hermann

Einen Verlaufsfilter gibts in fast jedem RAW Konverter, er kann halt nur das was sich von der Dynamik her abdunkeln lässt.

Ein echter ND Filter bzw. dessen Verwisch-Effekte ist nicht ganz einfach und geht wohl nicht ohne händische Masken - oder ein intelligentes Skript, dass eine Bildserie auswerten und aufgrund der EXIF Daten und der Bildinhalte  Bewegung erkennen und entsprechend herausarbeiten kann.

Mit Live Composite kann man ja heute schon bei Belichtungszeiten von 1/2 Sekunde ohne ND Filter ähnliche Effekte erzielen, zumindest was ziehende Wolken und fließendes Wasser angeht. Wenn der simulierte ND Filter statt Helligkeit Bewegung, d.h. geänderte Bildteile anzeigt, könnte das sogar als FW Update möglich sein.

bearbeitet von acahaya
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Minute schrieb uprantl:

Verlaufsfilter, mit denen man z.B. den Himmel abdunkeln kann, gibt es doch in praktisch allen Bildbearbeitungsprogemmen.

Ja, aber wenn es mit diesen Schritten geht "Man multipliziert die Signalwerte aus einem Teil der Zeilen mit einer Zahl < 1 bevor man sie aufaddiert", dann wäre das doch die Art funktionsfähiges Rezept, wie man es in der Kamera implementieren könnte!

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb acahaya:

Das geht wohl nicht ohne Masken

Ein herkömmlicher realer Verlaufsfilter vor dem Objektiv formt ja auch keine komplizierten Form-Masken, sondern wirkt im Prinzip ja zeilenweise. Die Zeilen (ihre Lage und Stärke) könnte man eben mit zwei Parametern einstellbar/justierbar machen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 15 Stunden schrieb Rob. S.:

Wobei die KI hier im Wesentlichen ja doch ohnehin nur im Labor stattfand, in der Kamera sind nur deren Ergebnisse als klassischer, in keinster Weise lernfähiger Algorithmus bzw. Datenbestand drin. Insofern wurden mit dem Hinweis auf KI wohl auch falsche Erwartungen geweckt...

Ich habe das bisher anders gelesen. Die KI soll demnach lernfähig sein. 

LG Karl 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 20 Minuten schrieb kgb51:

Die KI soll demnach lernfähig sein.

Nein, auf der Kamera selbst lernt da nix, das wäre auch zu aufwendig. So etwas dauert auf wirklich gut ausgestatteten Maschinen Stunden bis Tage.

Was geht, ist dass solchermaßen entwickelte neue KI – zum Beispiel für Hunde, Kleinkinder, BIF 😉 – mit Firmware-Updates zur Kamera hinzugefügt werden können.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 24 Minuten schrieb kgb51:

Die KI soll demnach lernfähig sein. 

 

 

Ja, aber nicht die Kamerasoftware. Wenn mich die Erinnerung nicht täuscht, wurde das auch während des „LiveStreams“ in brüchigem German- oder Japaneseenglish dahingenuschelt.

Ich bin auch der Meinung, dass das Lernen im wesentlichen außerhalb der Kamera erfolgen sollte. Sonst braucht man über kurz oder lang soviel Firmwarevarianten, wie es Nutzer gibt.

Weiterhin fände ich es nicht toll, wenn meine Kamera für mich lernt wie man Gullideckel im Licht von LED-Straßenlampen optimal ablichtet, weil ich gerade meine zweijährige „Gullideckelphase“ habe und dabei „vergisst“ wie man den AF-C bei Handball benutzt.

Gruß

Wolfgang

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 46 Minuten schrieb kgb51:

Ich habe das bisher anders gelesen. Die KI soll demnach lernfähig sein. 

LG Karl 

Eigenständig Lernfähig wäre sie, wenn man mit Ihr z.B. im Erkennungsmodus für Flugzeuge fliegende Adler fotografiert, die Kamera erkennt, dass das keine Flugzeuge sind aber auch etwas was fliegt, fragt was das ist und ob das Verhalten und die Form analysiert werden sollen, die Unterschiede im Vergleich zu dem was sie kennt - nämlich Flugzeug - feststellen und entsprechend interpretieren kann und man auf diese Weise selbst mit vielen Versuchen und ein bisserl Feedback (Gut/Schlecht) an die Kamera einen Trackingmodus für fliegende Adler schaffen kann. Basierend darauf dann einen für Meisen .... Selbst lernend basiert immer darauf, dass Bekanntes auf Neues angewendet wird und daraus ggf. mit Feedback das Neue zu etwas Bekanntem wird, was nun wieder als Grundlage für Neues gelten kann, ohne dass der Hersteller da etwas programmieren muss. Letzteres wäre bloss unselbständiges Lernen bzw. externes erweitern der Wissensbasis, wobei eine erweiterbare Wissensbasis, deren Wissen per FW Update verbreitet werden kann, ja auch schon eine gute Sache ist. 🤓

Ich glaube zwar nicht dass das Motiv Tracking wirklich selbständig dazulernt, es scheint jedoch zumindest Bekanntes auf Ähnliches anwenden zu können, wenn auch nicht perfekt. Der Flugzeugmodus für Vögel im Gleitflug zu funktionieren  (Video von Oly Ambassador Kevin Raber) und die Verfolgung der Helme bei Rennfahrern und Motorradfahrern  kann ja vielleicht nicht nur bei Motorsport sondern auch bei American Football, Skirennen und anderen „Helm“ Sportarten eingesetzt werden. Denn eine der beiden Zutaten (worauf fokussiere ich = Helm aus allen denkbaren Perspektiven und wie bewegt sich das), nämlich der Helm als Fokus-Ziel kann ja schon erkannt werden. Die Bewegungsmuster sind natürlich andere und müssten sukzessive ergänzt werden.

Ich bin gespannt, ob einer der Visionaries mit EMIX das mal ausprobieren mag (#zaunpfahl), bisher habe ich davon mit Ausnahme des Videos von Kevin Raber mit dem Adler im Flugzeugerkennungsmodus nichts gelesen.

 

bearbeitet von acahaya
  • Gefällt mir 2
  • Danke 2
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Minuten schrieb acahaya:

Eigenständig Lernfähig wäre sie, wenn man mit Ihr z.B. im Erkennungsmodus für Flugzeuge fliegende Adler fotografiert, die Kamera erkennt, dass das keine Flugzeuge sind aber auch etwas was fliegt, fragt was das ist und ob das Verhalten und die Form analysiert werden sollen, die Unterschiede im Vergleich zu dem was sie kennt - nämlich Flugzeug - feststellen und entsprechend interpretieren kann und man auf diese Weise selbst mit vielen Versuchen und ein bisserl Feedback (Gut/Schlecht) an die Kamera einen Trackingmodus für fliegende Adler schaffen kann. Basierend darauf dann einen für Meisen .... Selbst lernend basiert immer darauf, dass Bekanntes auf Neues angewendet wird und daraus ggf. mit Feedback das Neue zu etwas Bekanntem wird, was näun wieder als Grundlage für Neues gelten kann, ohne dass der Hersteller da etwas programmieren muss. Letzteres wäre bloss unselbständiges Lernen bzw. externes erweitern der Wissensbasis 🤓.

Ich glaube nicht dass das Motiv Tracking wirklich selbständig dazulernt, es scheint jedoch zumindest Bekanntes auf Ähnliches anwenden zu können, wenn auch nicht perfekt. Der Flugzeugmodus für Vögel im Gleitflug zu funktionieren  (Video von Oly Ambassador Kevin Raber) und die Verfolgung der Helme bei Rennfahrern und Motorradfahrern  kann ja vielleicht nicht nur bei Motorsport sondern auch bei American Football, Skirennen und anderen „Helm“ Sportarten eingesetzt werden. Denn eine der beiden Zutaten (worauf fokussiere ich und wie bewegt sich das), nämlich der Helm als Fokus-Ziel kann ja schon erkannt werden.

Ich bin gespannt, ob einer der Visionaries mit EMIX das mal ausprobieren mag (#zaunpfahl#), bisher habe ich davon mit Ausnahme des Videos von Kevin Raber mit dem Adler im Flugzeugerkennungsmodus nichts gelesen.

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Minuten schrieb kgb51:

Ich bin gespannt, ob einer der Visionaries mit EMIX das mal ausprobieren mag (#zaunpfahl#), bisher habe ich davon mit Ausnahme des Videos von Kevin Raber mit dem Adler im Flugzeugerkennungsmodus nichts gelesen.

Du musst nicht glauben das jeder Visionarie die neuste Hardware bekommt und wie viel sind hier im Forum

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 18 Minuten schrieb acahaya:

Eigenständig Lernfähig wäre sie, wenn man mit Ihr z.B. im Erkennungsmodus für Flugzeuge fliegende Adler fotografiert, die Kamera erkennt, dass das keine Flugzeuge sind aber auch etwas was fliegt, fragt was das

Da kam mir die Idee auf und hab schnell mal was gebastelt. Die neue PEN-F X mit KI und intregrierter Lern-Modus, die Kamera ist noch im geheimen Entwicklungslabor:

PEN-FX.thumb.jpg.a395263737c74a6bf025f1e832bbce14.jpg

:classic_laugh:

  • Gefällt mir 4
  • Haha 5
Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung