Jump to content

Die OM System Community
Ignoriert

All about focusing with OM-1


Empfohlene Beiträge

vor 13 Stunden schrieb acahaya:

Meine 2cnt zum Thema AF und Motiverkennung nach einem guten Jahr aber viel zu wenig Zeit fürs Fotografieren mit der OM1

  1. Motiverkennung findet meistens das Motiv und zeigt einen grünen Rahmen darum, wenn das Motiv gelockt ist. Dieser Rahmen ist nicht der fürs Af Feld.
  2. Der AF fokussiert da, wo das gewählte Af Feld bzw. der AF Bereich ist. 
  3. Bei Alle Fokusfelder oder wenn Motivrahmen und Fokusbereich übereinander liegen, klappt es mit dem AF. Sonst meist nicht aber unerklärlicher Weise manchmal doch 🤔
  4. C-AF OHNE Tracking funktioniert dann, wenn ich einen passend großen Fokusbereich gewählt habe und so gut nachführen kann, dass dieser immer auf dem Motiv liegt und möglichst nichts dahinter oder davor, dass das Af System als spannender empfindet (abhängig von eingestellter Empfindlichkeit)
  5. C-AF MIT Tracking funktioniert dann, wenn sich das Motiv innerhalb meines Fokusbereichs bewegt und darin von der Kamera verfolgt werden kann, ohne dass ich sonderlich stark nachführe. 
  6. Selbst Nachführen und C-AF MIT Tracking stören sich meiner Erfahrung nach oft gegenseitig, es sei denn man hat alle Fokusfelder gewählt. Dann klappt es auch bei Falken im Flug, sofern sie im Bild bleiben 😉

Bei Motiverkennung verwende ich meist  C-AF OHNE Tracking mit einem kleineren Fokusfeld, also z.B. 5x5, wenn ich z.B. den Vogel in einer Gruppe selbst bestimmen will und auch selbst nachführe.

Motiverkennung und C-AF MIT Tracking verwende ich entweder mit allen Fokusfeldern oder zumindest mit einem recht großen Feld. Dabei gibts das Motiv dann hoffentlich nur einmal und es bewegt sich möglichst nur innerhalb meines Fokusbereichs, d.h. ich führe nicht oder minimal nach, sondern lasse das die Kamera erledingen.
Funktioniert sowohl bei BIF am Himmel als auch bei auch bei unruhigem Hintergrund ganz gut. Es darf nur nichts störendes vor dem Motiv sein, weil das den AF leider oft ablenkt. Es ist nicht einfach hier die Richtige Empfindlichkeit einzustellen, bei der der Af einerseits auf Bewegungen des Motivs reagiert, sich andererseits aber nicht so leicht vom Motiv ablenken lässt. Ich wünschte, OMDS würde den Af so fixen, dass er zuverlässig auf einmal erkannten Augen bleibt, egal ob Tier, Mensch ider Scheinwerfer.

Ohne Motiverkennung ist C-AF + TR meiner Erfahrung nach für die Tonne, sobald es im Bild irgend etwas gibt, das den AF ablenken könnte. Deshalb verwende ich da grundsätzlich nur C-AF OHNE Tracking und führe selber mit.

Erkenntnisse zur Motiverkennung: Flugzeug funktioniert auch bei Libellen und Vogelerkennung klappt bei Zieseln besser als Hund/Katze 🦫🕊️🐈🦮

Die bisher beste Erklärung die ich hier gelesen habe. 👍👏

Ich gehöre zu den die alle AF Felder immer benutzen grade weil zentral (fast) nicht immer was für mich ist und ich eher außerhalb der Mitte positioniere.

Und man kann besser Beobachten um zu schauen was das „Tier“ vor hat.

Daher sind für mich die 1053 AF Felder auf der ganzen Fläche so ein Bonus über die EM1X wo man sich auf 5x5 beschränken sollte.

Und Eben bei allen AF Feldern ist für mich CAF mit AI gegenüber CAF+TR mit AI komplett unterlegen. Anders ist es mit 5x5 oder so. Aber m.M. verliere ich mit so kleinen AF Bereichen immer Wertvolle Zeit um zu Positionieren / umzuschwenken oder die AF Felder zu verschieben.

Und zur Motiverkennung. M.M. nach Funktioniert Bird AI auch bessere bei z.B. Eichhörnchen, Mäusen, Reptilien etc. Bei Igel geht Animal AI genauso. Und bei Reh, Fuchs & Co ist Animal AI besser… sollte es auch….


Plane AI habe ich noch nie bei Libellen & Co probiert.

 

B

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Minuten schrieb Borbarad:

Und zur Motiverkennung. M.M. nach Funktioniert Bird AI auch bessere bei z.B. Eichhörnchen, Mäusen, Reptilien etc. Bei Igel geht Animal AI genauso. Und bei Reh, Fuchs & Co ist Animal AI besser… sollte es auch….

Mich würde das mal gerne von den Entwicklern erfahren, was genau die feinen Unterschiede bei Vogel und Tier sind. Wenn ich Vogel aktiviert habe und plötzlich taucht ein Feldhase auf und ziele auf den Hasen, wird auch der AF  den Hasen erkennen. Man könnte fast meinen es sei egal ob man auf Tier oder Vogel eingestellt hat.

wie ein Vogel oder Tier aussieht weiß ich natürlich aber was sagt der Algorithmus?

bearbeitet von pit-photography
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb feffef:

 

Das deckt sich mit meinen Erfahrungen, aber ich frage mich manchmal: welchen Mehrwert hat dann die Motiverkennung noch? Unter den Bedingungen funktioniert ja auch der C-AF ohne AI Unterstützung sehr gut, weil es bei der OM-1 ja eine klare Tendenz gibt, den Fokus auf das am weitesten im Vordergrund liegende Element zu setzen. 

Es bleibt zwar noch die automatische Erkennung und Priorisierung der Augen. Das ist aber wieder der wackeligste Teil der Motiverkennung, und in vielen Situationen macht es jetzt auch nicht wirklich einen Unterschied ob genau auf die Augen oder eben einfach auf das vorderste Körperteil (z.B. Schnabel) fokussiert wird. Dafür ist bei weiten Entfernungen ja doch oft genug Schärfentiefe da.

 

Eben. Der Sinn der AI ist es eben die Augen oder zumindest den Kopf als AF Ziel zu erwischen. CAF alleine kann da nix und es Glücksache was der AF grade festgestellt hat.

Und man man muss m.M. bei CAF ohne Tracking halt den AF Bereich verkleinern damit das Objekt das man haben will auch gefunden wird. Mit Tracking kann man den CAF innerhalb aller AF Felder sagen welches Objekt man will oder so…..

Tracking große Schwäche sind Grashalme…. Wehe eins schwenkt vor Objekt. Äste sind deutlich weniger problematisch….

Wer viel AF Felder (5x5 etc.) verschiebt kommt sehr gut mit CAF plus AI klar und sieht keinen Sinn von Tracking. Ich mach das mit der OM1 kaum (mit der X ja).

Bei der OM1  nutze ich ich den Joystick  fast nur um im SAF das Fokusfeld zu verschieben.

Daher auch mein Wunsch in der OM1X  nach Dual TruePic X für ordentlich Rechenpower bei allen AF Feldern.

B

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Minuten schrieb pit-photography:

Mich würde das mal gerne von den Entwicklern erfahren, was genau die feinen Unterschiede bei Vogel und Tier sind. Wenn ich Vogel aktiviert habe und plötzlich taucht ein Feldhase auf und ziele auf den Hasen, wird auch der AF  den Hasen erkennen. Man könnte fast meinen es sei egal ob man auf Tier oder Vogel eingestellt hat.

wie ein Vogel oder Tier aussieht weiß ich natürlich aber was sagt der Algorithmus?

Grundsätzlich sollte es eigentlich egal sein wenn man genug Rechenpower hat, weil es schlussendlich nur um den EyeAF geht.

Somit ist meine Theorie halt, dass die Erkennung erstmal dafür da ist um das Erkennungsprogramm abzukürzen und Rechenpower freizuschaufeln, sprich „Vergiss Federvieh, konzentriere dich auf Hasenohren“

B

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 11 Minuten schrieb Borbarad:

Grundsätzlich sollte es eigentlich egal sein wenn man genug Rechenpower hat, weil es schlussendlich nur um den EyeAF geht.

Somit ist meine Theorie halt, dass die Erkennung erstmal dafür da ist um das Erkennungsprogramm abzukürzen und Rechenpower freizuschaufeln, sprich „Vergiss Federvieh, konzentriere dich auf Hasenohren“

Nein das sind neuronale Netze die mit Beispielbildern trainiert wurden. Wenn du ein falsches Programm einstellst erkennt die Kamera entweder gar nichts wenn du bspw. Züge eingestellt hast oder die Tiere deutlich schlechter. Erkennen tut sie trotzdem noch was weil einige Merkmale bspw. die Augen oder anderes auch bei Vögeln und Hasen vorhanden sind. Die Erkennung ist aber deutlich schlechter und es kann auch zu Fehlerkennungen, Augen an der falschen Stelle und zu häufigeren Verlust des Motives führen.

Wenn man optimale Ergebnisse will sollte man schon das richtige Programm einstellen.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 43 Minuten schrieb systemcam-neu:

Nein das sind neuronale Netze die mit Beispielbildern trainiert wurden. Wenn du ein falsches Programm einstellst erkennt die Kamera entweder gar nichts wenn du bspw. Züge eingestellt hast oder die Tiere deutlich schlechter. Erkennen tut sie trotzdem noch was weil einige Merkmale bspw. die Augen oder anderes auch bei Vögeln und Hasen vorhanden sind. Die Erkennung ist aber deutlich schlechter und es kann auch zu Fehlerkennungen, Augen an der falschen Stelle und zu häufigeren Verlust des Motives führen.

Wenn man optimale Ergebnisse will sollte man schon das richtige Programm einstellen.

 

Das ist mit klar. Mit geht es ums was des Ziel der Erkennung schlussendlich ist: EyeAF.

Und sollte man irgendwann mal so viel  Rechenpower haben wird es keine Motive mehr geben sondern nur noch die Augensuche.

B

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Stunden schrieb Manfred-Wien:

Leider hatte ich das EE1 daheim gelassen und die Bienenfresser fliegen ja doch zu unberechenbar ...

Ich gehöre auch zu denen, die die EE-1 meist zu Hause lasse. Aber heute habe ich sie mit:

IMG_4192.thumb.JPG.48b6d9beaefc454f81dacdf44cfcf5ed.JPG

Es hilft wirklich enorm. Aber nicht nur zum Nachziehen der unberechenbar fliegende Objekte sondern auch zum schnellen Anvisieren von Objekten, wenn man versucht mit der sehr langen Brennweite auf das Motiv zu zielen. Ohne muss man schon suchen und das ist bei engen Blickwinkel nicht einfach und wenn man gefunden hat, ist das Motiv schon längst weg.

 

bearbeitet von pit-photography
  • Gefällt mir 5
  • Danke 2
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 16 Minuten schrieb pit-photography:

Ich gehöre auch zu denen, die die EE-1 meist zu Hause lasse. Aber heute habe ich sie mit:

IMG_4192.thumb.JPG.48b6d9beaefc454f81dacdf44cfcf5ed.JPG

Es hilft wirklich enorm. Aber nicht nur zum Nachziehen der unberechenbar fliegende Objekte sondern auch zum schnellen Anvisieren von Objekten, wenn man versucht mit der sehr langen Brennweite auf das Motiv zu zielen. Ohne muss man schon suchen und das ist bei engen Blickwinkel nicht einfach und wenn man gefunden hat, ist das Motiv schon längst weg.

 

Man erkennt den Beruf 🙂. Mir taugt es auch am Blitzschuh

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 36 Minuten schrieb pit-photography:

Ich gehöre auch zu denen, die die EE-1 meist zu Hause lasse. Aber heute habe ich sie mit:

IMG_4192.thumb.JPG.48b6d9beaefc454f81dacdf44cfcf5ed.JPG

Es hilft wirklich enorm. Aber nicht nur zum Nachziehen der unberechenbar fliegende Objekte sondern auch zum schnellen Anvisieren von Objekten, wenn man versucht mit der sehr langen Brennweite auf das Motiv zu zielen. Ohne muss man schon suchen und das ist bei engen Blickwinkel nicht einfach und wenn man gefunden hat, ist das Motiv schon längst weg.

 

Dazu hättest du auch die Zoom-Möglichkeit. Mit kürzerer Brennweite orientieren und dann zur passenden Stelle zoomen.

Wobei ich es bis 400mm fast immer schaffe, das Motiv ohne Kamera zu finden und dann die Kamera passend ans Auge zu führen. Mit dem TC muss ich noch mehr üben.

Gruß 

Hans

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb Hacon:

Dazu hättest du auch die Zoom-Möglichkeit. Mit kürzerer Brennweite orientieren und dann zur passenden Stelle zoomen.

Das kenne ich, nur ist das mir nicht so praktikabel. Mit EE-1 bist du wesentlich schneller auf dem Punkt als wenn du vorher auf 150 zurückzoomst und dann ranholst. Manchmal zu langsam (wie ich 😉 )

Aber man muss die EE-1 auch vorher exakt justieren und nicht mit allen Brennweite stimmt der Fadenkreuz mit dem Fokuspunkt überein, das ist leider der einzige Nachteil.

 

bearbeitet von pit-photography
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 7 Stunden schrieb pit-photography:

Mich würde das mal gerne von den Entwicklern erfahren, was genau die feinen Unterschiede bei Vogel und Tier sind. Wenn ich Vogel aktiviert habe und plötzlich taucht ein Feldhase auf und ziele auf den Hasen, wird auch der AF  den Hasen erkennen. Man könnte fast meinen es sei egal ob man auf Tier oder Vogel eingestellt hat.

wie ein Vogel oder Tier aussieht weiß ich natürlich aber was sagt der Algorithmus?

Wenn der Algorithmus wirklich künstlich Intelligent wäre, sollten die ganzen Spezialmodus unnötig sein. Das zeigt mir eher, dass die Technik noch nicht wirklich ausgereift ist. 

Matthieu Gasket von mirrorlessons.com hatte dazu mal einen klugen Satz geschrieben: Die AF-Systeme mit weniger Einstellmöglichkeiten funktionieren besser, als die mit vielen Optionen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Stunden schrieb Borbarad:

Das ist mit klar. Mit geht es ums was des Ziel der Erkennung schlussendlich ist: EyeAF.

Und sollte man irgendwann mal so viel  Rechenpower haben wird es keine Motive mehr geben sondern nur noch die Augensuche.

Ich würde das suboptimal finden wenn die Kamera auch noch auf Sachen fokussieren würde nur weil sich evtl. auch ein Auto oder was anderes was die Kamera auch noch so kann im Bild befindet das ich aber gar nicht haben will.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 22 Stunden schrieb Borbarad:

Und Eben bei allen AF Feldern ist für mich CAF mit AI gegenüber CAF+TR mit AI komplett unterlegen. Anders ist es mit 5x5 oder so. Aber m.M. verliere ich mit so kleinen AF Bereichen immer Wertvolle Zeit um zu Positionieren / umzuschwenken oder die AF Felder zu verschieben.

Was ich hier nicht verstehe: welcher Aspekt des AI-Modus funktioniert bei dir nicht, wenn du alle Felder, aber kein Tracking verwendest. Werden Motive erst gar nicht erkannt und umrahmt? Scheitert die Auswahl des "aktiven" Motivs oder springt sie hin und her? Oder sieht im Sucher alles korrekt aus, aber die Schärfeebene in den Bildern ist nicht dort wo es suggeriert wurde?

 

vor 22 Stunden schrieb Borbarad:

Und man man muss m.M. bei CAF ohne Tracking halt den AF Bereich verkleinern damit das Objekt das man haben will auch gefunden wird. Mit Tracking kann man den CAF innerhalb aller AF Felder sagen welches Objekt man will oder so…..

 

Auch hier verstehe ich nicht, worin der Unterschied bei +TR besteht, der es dir erlaubt "zu sagen welches Objekt man will". Mein Eindruck ist, dass das "Finden" der Objekte genau gleicht funktioniert, egal ob +TR eingeschaltet ist, oder welche Fokusfeldgröße man auswählt. Es werden ja auch Motive außerhalb des Fokusfelds gefunden und umrahmt. Und erst wenn man dann mit dem Fokussieren anfängt verhalten sich C-AF und +TR unterschiedlich, und die Feldgröße spielt eine Rolle.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der AI Funktioniert egal womit. Das ist doch nicht das Problem.
 

Es ist CAF, der nicht weis was und wo. Der nimmt nur das was die AI findet und springt dann um bei Bewegung - ob nun Empfindlichkeit -2 oder +2. Tracking macht das nicht vom Grunde her - nur grade wenn Grass dazwischen kommt oder zu lange keine Bewegung herrscht.

Die AI Findet das Objekt, per BBF setzte mit Tracking das Objekt fest und kann dann umschwenken und konzentrieren und beobachten oder so. CAF kann da nicht  bzw. nur wenn man die AF Felder auf 5x5 oder so reduziert und dann mit dem Joystick bewegt….. 

Bei BIF  - also schon im Flug und dann anvisieren - empfinde ich bei allem AF Feldern keinen wirklichen Unterschied. Nur bei ganz schnellen und hibbeligen Tiere wie Schwalbe würde ich sagen hat der CAF die Nase vorne.

B

bearbeitet von Borbarad
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe ja gestern beim Fotografieren von Schwan-Küken die Idee für ein neues Focus-Feature gehabt:

Problemstellung war die folgende: Die 5 Kücken saßen brav in einer geraden Linie hintereinander auf einer schmalen Schlamminsel, mein Standort war allerdings nicht ganz im 90°-Winkel zu dieser Linie, d.h. das hinterste Küken war etwas weiter von der Linse entfernt als das vordeste. Alle 5 Küken wurden von der Motiverkennung brav erkannt. Wäre jetzt elegant, wenn es eine Möglichkeit gäbe, dass die Kamera nach vorgewählter Verschlusszeit dann Blende und ISO so einstellt, dass alle von der Motivkennung identifizierten Objekte scharf abgebildet werden. Ich hoffe ich hab richtig erklärt, was ich meine.

bearbeitet von livrio
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 52 Minuten schrieb livrio:

Ich hoffe ich hab richtig erklärt, was ich meine.

Die Idee ist gut und habe verstanden was du meinst. Trotzt Ebenen-Versatz sollte die Blende so eingestellt sein, dass die Schärfentiefe von dem vordersten erkannten Objekt bis entferntesten erkannten Objekt scharf abgebildet wird. Das wäre ein Kracher und man ärgert nicht, dass man nicht zu sehr Offenblende genutzt hat.

Allerdings gibt es ein Problem: Die "gemessene" Entfernung ist nicht so genau und wie soll das Erkannte Objekt gemessen werden? Die Entfernung wird erst ermittelt und errechnet, wenn auf das Motiv scharf gestellt ist. Das heißt, der AF abwechselnd in schneller Folge auf alle erkannten Motive scharfstellen und dann ermitteln und stellt auf das Motiv in der mittleren Entfernung zwischen vorne und hinten scharf und schließt die Blende entsprechend.

Ob das machbar ist ...?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 32 Minuten schrieb pit-photography:

Die Idee ist gut und habe verstanden was du meinst. Trotzt Ebenen-Versatz sollte die Blende so eingestellt sein, dass die Schärfentiefe von dem vordersten erkannten Objekt bis entferntesten erkannten Objekt scharf abgebildet wird. Das wäre ein Kracher und man ärgert nicht, dass man nicht zu sehr Offenblende genutzt hat...

Canon hatte so was schon vor Jahren!

Man hat zwei Schärfepunkte mit AF anvisiert und dann hat der AF automatisch den Schärfepunkt optimal gesetzt und die Blende eingestellt.

Das war bei der analogen (!) Canon EOS 650 der sog. DEPTH Modus. Habe ich früher selber genutzt.

image.thumb.png.e36853780a2d36a66c962112bdde2215.png

 

Quelle: https://global.canon/en/c-museum/product/film122.html

bearbeitet von gstar2002
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb gstar2002:

Canon hatte so was schon vor Jahren!

Man hat zwei Schärfepunkte mit AF anvisiert und dann hat der AF automatisch den Schärfepunkt optimal gesetzt und die Blende eingestellt.

Das scheitert schon daran das es in vielen Situationen schon physikalisch gar nicht möglich ist und man Fokusstacking benötigen würde um das überhaupt hinzubekommen.

Da kann ich auch einfach abblenden und sehe auch ob es reicht oder nicht und ich kann dann auch selber entscheiden ob es wegen der zu kleinen Blende zu viel Beugungsunschärfe dabei geben würde.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung