Jump to content
Die PEN, OM-D & E-System Community

Helios

Members
  • Content Count

    22
  • Joined

  • Last visited

Community Reputation

26 Excellent

About Helios

  • Rank
    Helios

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Irgendwie ist das eine merkwürdige Diskussion. Ich bearbeite schon seit einigen Jahren produktiv High-Res-Aufnahmen von Olympus mit Capture One und habe auch schon ein paar Gespräche mit dem Support von Phase One deswegen gehabt (Anfangs gab es tatsächlich Probleme, die aber recht schnell durch einen Bugfix gelöst werden konnten). Da das Programm nichts über die Pixelgröße der Datei skaliert funktionieren High-Res-Aufnahmen problemlos, das weiß auch der Hersteller. Es findet aber keine Bug-Prüfung statt, zudem wird das ORI-Format für die Low-Res-Aufnahmen nicht unterstützt (man kann die Bilder durch Umbenennung nutzen, muss dann aber auf das C1-Objektivprofil verzichten und entweder das generische oder das Originalprofil nutzen), deswegen erfolgt der Hinweis, dass High-Res nicht unterstützt wird. Ich habe schon mehrfach angemerkt, dass man das vielleicht besser formulieren sollte - aber nunja, vielleicht ist es nicht schlecht, wenn immer wieder Leute deswegen nachfragen 😉
  2. Eine weise Entscheidung, denn sie läuft sonst immer weiter, und weiter, und weiter (und wird dabei durchaus auch warm).
  3. Die technische Limitierung liegt bei der Auslesegeschwindigkeit des Sensors. ND2 funktioniert ab 1/30 Sekunde Gesamtbelichtungszeit (oder länger), ND4 ab 1/15, ND8 ab 1/8, ND16 ab 1/4 und ND32 ab 1/2. Nur so ist sichergestellt, dass es zu keinen Abrissen zwischen den Aufnahmen und entsprechenden Artefakten im finalen Bild kommt. Die wären bei noch kürzeren Belichtungszeiten, was sich technisch durchaus realisieren ließe, hingegen in zunehmendem Maße vorhanden. Zudem würde die direkte Abhängigkeit zwischen Aufnahmedauer und Gesamtbelichtungszeit verloren gehen. Ich kann daher durchaus verstehen, warum dies so nicht umgesetzt wurde. Ich ergänze diesen Abschnitt noch im Testbericht. Selbst wenn es durch höhere Auslesegeschwindigkeiten möglich wäre, auch mit kürzeren Zeiten Live ND zu verwenden, so ist natürlich die Frage, ob man dies dann noch als "Langzeitbelichtung" bezeichnen wollte. Aber da geht es dann eher um Begriffsdefinitionen, genauso wie auch "viel Licht" relativ ist. Sofern man ohne Live ND auf 1/60 Sekunde kommt, kann man ihn einsetzen, was mir auch zur Mittagszeit in einem sonnendurchfluteten Wald gelungen ist. Ästhetisch war das allerdings Murks. 😉
  4. Wenn ein klassisches ND-Filter eingesetzt wird, um mehr Spielraum beim Einsatz von Verschlusszeit und Blende zu gewinnen (bspw. Offenblende im strahlenden Sonnenschein, bestimmte Verschlusszeit für Video), dann ist Live ND dafür schon prinzipbedingt kein Ersatz. Ist das Ziel hingegen die Belichtungszeitverlängerung innerhalb der Grenzen der sonstigen Technik, dann funktioniert es mit viel Licht genauso gut wie mit wenig Licht. Natürlich muss man genau auf die Belichtung achten, das gilt allerdings bei einem klassischen ND-Filter genauso.
  5. Vor allem entscheidet Japan darüber, wer was wann erfährt, und ist dabei schon immer zurückhaltend und zunehmend zurückhaltender. Wobei das nicht nur für Olympus gilt.
  6. Das Sigma 135 mm f/1,8 zum Beispiel ist mit dem Metabones BT2 und aktueller Firmware spürbar schneller an der E-M1X im Vergleich zur E-M1 Mark II, "sporttauglich" (das sagt man doch so schön) ist es aber immer noch nicht.
  7. Dann wird der Sensor in "deiner" E-M1X noch immer 20 MP und die gleiche Qualität liefern, denn der wird weder mutieren, noch kommt jemand vorbei und baut dir heimlich einen Neuen ein. 😉 Ernsthaft, die wichtigere Frage ist eigentlich, ob dir die Qualität reicht oder nicht. Wenn dies der Fall ist, lehne dich zurück, denn schlechter wird es auch bei zukünftigen Modellen nicht mehr werden - egal wohin sich die Pixelzahl entwickelt. Und wenn es jetzt hingegen nicht passt, dann würde ich nicht groß darauf bauen, dass das irgendwann schon der Fall sein wird.
  8. Vielleicht hilft es dir ja, womit ich gut klar komme speziell bei der E-M1X (und als Ergänzung der anderen Tipps): unter A1 "C-AF Mitte Start" für alle Modi aktivieren, bei Bedarf auch "C-AF Mitte Priorität" aktivieren (hängt davon ab, wie gut du nachführen kannst), dazu dann 5x5 oder alle Felder. Unter A2 "Feldmodus-Einstellung" kannst du dir auch selbst noch eine Auswahl erstellen, vielleicht ist es nützlich, ich fand es nicht unbedingt notwendig.
  9. Die Sucherdarstellung kannst du unter "Zahnrad I" (wenn ich mich jetzt nicht irre) anpassen, Stil 1 und 2 zeigen die Aufnahmedaten unterhalb des Sucherbildes (siehe dein erstes Bild), Stil 3 im Sucherbild (siehe dein zweites Bild). Bei der E-M1X ist im Stil 1 und 2 das reine Sucherbild in etwa so groß wie der gesamte Sucher bei der E-M1 Mark II im Stil 3, richtig deutlich wird der Unterschied aber erst, wenn man beide Kameras im gleichen Darstellungsstil vergleicht.
  10. Wenn man Kameras nur über ihre Bildqualität definiert, dann hätten die Topmodelle bei allen Herstellern keine Existenzberechtigung.
  11. Nein, sowas hat die G9 nicht (und es ergibt auch nicht wirklich Sinn, was da geschrieben steht). Panasonic hat im Rahmen der Photokina mittels einer G9 demonstriert, wie Deep Learning in Zukunft zur Verbesserung des Autofokus eingesetzt werden kann, etwa in dem die Gesichtserkennung hin zu einer "Menschenerkennung" erweitert wird. Das alles passiert aber zwangsläufig außerhalb der Kamera, denn Deep Learning bedeutet zum einen eine große Datenmenge, um überhaupt zu vernünftigen Ergebnissen zu kommen (was wiederum eine sehr große Rechenleistung erfordert, deutlich mehr, als die reine Umsetzung der Ergebnisse, und schon die ist nicht ohne), zum anderen auch eine Kontrolle und Bestätigung der ermittelten Zusammenhänge, um zielgerichtetes maschinelles lernen zu ermöglichen. Nur so sind dann auch konsistente Ergebnisse möglich, die für ein kommerzielles Produkt zwingend notwendig sind. Genau das hat Panasonic so auch auf der Photokina demonstriert, ohne allerdings irgendwelche Zusagen zu machen, wann es in welcher Form tatsächlich zum Einsatz kommt. Was man in dem Zusammenhang auch nicht vergessen sollte ist, dass "Deep Learning" zur Zeit ein großes Schlagwort ist (genauso wie AI bzw. KI), sich dahinter aber keine eigene Funktion verbirgt, sondern nur eine Methode, Funktionen für uns Nutzer zu verbessern oder zu entwickeln. Schaut man sich die Historie an, dann erkennt man bereits eine deutliche Entwicklung im Bereich des Autofokus, von "intelligenter" Motiverkennung mit automatischer Umschaltung bis hin zur Augenerkennung mit Prioritätsmodi. Diese Entwicklung könnte nun steiler verlaufen, aber sie wird zumindest in naher Zukunft nicht grundsätzlich aus den Angeln gehoben, weil die Methode erstmal keinen Einfluss auf die Umsetzung der Ergebnisse hat. Umgekehrt erfordern die Ergebnisse aber mit zunehmender Detaillierung natürlich auch einen immer höheren Rechenaufwand für die Umsetzung, so dass die Hersteller zwangsläufig in dem Bereich die Priorität sehen (ich hoffe es ist verständlich, was ich damit ausdrücken möchte). In den Kameras ergibt "lernen" jetzt und in naher Zukunft nur im Bereich der Interaktion zwischen dem Gerät und dem Photographen einen Sinn, in der Form, dass die Kamera wiederkehrende Elemente richtig einordnet und daraufhin Voreinstellungen trifft, beispielsweise bei einem Landschaftsphotographen abblendet und in den manuellen Fokus wechselt, sobald ein Stativ erkannt wird. Und schon das ist nicht trivial 😉
  12. Ohne mich jetzt inhaltlich dazu zu äußern, aber die gibt es nicht. Es gibt professionelle Sichtweisen, die sich entsprechend den jeweiligen Anforderungen (und durchaus auch persönlichen Vorlieben) unterscheiden können, selbst bei ähnlichen Genres, besonders aber bei gänzlich unterschiedlichen Ausrichtungen. Das merke ich immer wieder, wenn ich mich über die verschiedensten Themen rund um Objektive und Kameras mit Kollegen austausche. Unabhängig davon, ob ich eine Meinung teile oder nicht habe ich daher auch immer wieder ein Problem damit, wenn irgendjemand durch die Art der Darstellung impliziert, wie meine Sichtweise zu sein hat oder aussieht.
  13. Gerade wenn ich zwei Kameras verwende, finde ich es angenehm, sie auch optisch unterscheiden zu können. Bei sehr ähnlich aussehenden Objektiven ist das für mich sogar praktisch, ebenso, wenn ich sie für unterschiedliche Situationen voreinstelle (was doch häufiger vorkommt). Andere können damit nichts anfangen, das ist auch in Ordnung und muss nicht gerechtfertigt werden (darum ergeben diese pseudomoralisierenden Gründe auch keinen Sinn).
  14. Moin Hans, dokumentiert ist bisher ein Problem bei Nutzung der Rauschminderung (also dem Dunkelbildabzug), bei dem dann die Kamera versucht in die Endlosschleife zu speichern. Schaltet man die Funktion ab, kann man die Kamera ohne weitere Einschränkungen (abgesehen vom dann natürlich fehlenden Dunkelbildabzug) zumindest weiter benutzen. Für Langzeitbelichtungen ist das natürlich doof, da hilft nur warten auf die neue Firmware. schönen Gruß Sascha
  15. Helios

    Helios

×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.