Jump to content

Die OM System Community
Ignoriert

Hilfe - Unscharfe Bilder


Empfohlene Beiträge

Hallo liebe Fotofreunde,

inspieriert von den vielen tollen Fotos im Forum, wollte ich versuchen Möwen zu fotografieren, was aber mislungen ist.

Daher brauche ich Eure Hilfe, was ich falsch gemacht habe.

Ich habe eine OMD 1 M II und mit dem 40-150 mm f 4-5.6 fotografiert, nur die Schwäne sind mit dem 12-40mm gemacht.

1.Foto Möwe mit Ast:   f 7.1   1/1000    150mm    ISO 800     

2.Foto Möwe Sturzflug:   f 5.6   1/2500    74 mm    ISO 800

3.Foto Schuhe:   f 5.6    1/125    150mm    ISO 100  Blitz  (als Vergleich, dass das Objektiv scharf abbildet)

4.Foto Schwan:    f 11   1/1000    25mm   ISO 800     (Objektiv:   12-40   2.8)

Wetter war Sonne mit viel Wolken..

Fotos sind bis auf leichtes Schärfen unbearbeitet

 

Vielen Dank für Eure Hilfe im Vorraus

Yvonne

P4290004.jpg

P7204567.jpg

P7204101.jpg

P7204296.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo Wupperknips,

für mich ist das "Meckern auf hohem Niveau!".

Zu den Schuhen sage ich nichts, da sie "nur" Vergleich sind.

1. Schwarze Schwäne: Blende 11 schafft grossen Bereich, wo Gegenstände in unterschiedlicher Entfernung noch scharf für das menschliche Empfinden erscheinen. Andererseits muss man schon mit Folgen der Beugung leben. Der scharfe Bereich ist hier erstaunlich lang; so sind beide Schwäne 'scharf' (im Sinne von Bildschärfe). Hier würde ich kaum was bemängeln *).

2. Zwei Möven: Die Maserung im Ast verrät die Länge des scharfen Bereiches. Die Beine der rechten Möve sind wohl fast der korrekte Fokus, Er könnte sogar noch weiter vorne liegen. Federn von Schwanz und linken Flügeln (Möve rechts) sind gut getroffen, was weiter vorne bestätigen würde. Damit liegt dieser Kopf zu weit hinten. Die linke Möve hat links scharfe Federn im Flügel. Sie ist also näher an der Kamera als die Möve rechts. Der Kopf links zeigt Bewegungsunschärfe.

Bei einer solchen Konstellation kann sich die Bildstabilisierung nicht entscheiden, muss es aber. Der rechte Kopfe ist relativ ruhig, der linke in Bewegung. Entscheidet sich die Stabilisierung für den bewegten Kopf links  (versucht in scharf zu halten), wird automatisch der Kopf der rechten Möve unscharf. Umgekehrt passiert das gleiche. Welchen Algorithmus der Stabilisator bevorzugt - ich weiss es nicht. Ich vermute aber einen Vorrang des ruhigen Bildteils *). Dann würde der Kopf links unscharf. Versucht der Algorithmus  einen Mittelweg *), wird das Ergebnis vermutlich so wie in diesem Beispiel. Das ist hier schwierig zu entscheiden.

3. Möve Sturzflug: Regelkonform wäre ein scharfes Auge; hier genau sollte der Fokus sitzen. Er sitzt aber eher 10 cm näher zum Objektiv (vgl. Federn im rechten Flügel (aus der Sicht des Vogels)). Die Wasserwellen liefern leider keinen brauchbaren Vergleich, wo der Fokus genau sitzt.

*) Allgemein: grosse Bilder scheinen schärfer zu werden, wenn man sie verkleinert (hier auf ca. 20-25%). Gut wären daher 100% Ausschnitte wichtiger Bilddetails. Also Augen, Federn u.ä. Bei Verkleinerungen verschwinden die Fehler leider (z.B schwarze Schwäne).

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb mccs:

Bei einer solchen Konstellation kann sich die Bildstabilisierung nicht entscheiden, muss es aber. Der rechte Kopfe ist relativ ruhig, der linke in Bewegung. Entscheidet sich die Stabilisierung für den bewegten Kopf links  (versucht in scharf zu halten), wird automatisch der Kopf der rechten Möve unscharf.

Die Bildstabilisierung entscheidet auf der Basis von Daten der Gyrosensoren und des Beschleunigungssensors wie sie durch Ausgleichsbewegungen des gesamten Sensors die durch Schwankungen unseres Körpers und aufgeregtes Zittern der Hände verursachten Bewegungen der Kamera ausgleichen kann und hat Nullkommagarnichts mit der Fokussierung auf irgendwelche Mövenköpfe zu tun.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 19 Minuten schrieb wteichler:

Die Bildstabilisierung entscheidet auf der Basis von Daten

Ich würde mal vermuten, mccs hat “Bildstabilisierung” geschrieben, aber “Autofokus” gemeint. Jedenfalls habe ich beim ersten Lesen unbewusst die umgekehrte Umsetzung gemacht, und die Verwechslung ist mir erst nach Deinem Kommentar aufgefallen …

Link zu diesem Kommentar
Auf anderen Seiten teilen

Oha! Da muss ich nachjustieren...

Zuerst: es gibt das Schuhe-Bild mit dem Zusatz: "als Vergleich, dass das Objektiv scharf abbildet". Für mich der Hinweis, Unschärfen und mögliche Ursachen dafür zu betrachten.

Gyrosensore "messen" Beschleunigungen. Also die Auswirkung einer zittrigen Hand auf das Kameragehäuse. Ergebnis: die Kamera zittert mit.

Es gibt mindestens 2 völlig unterschiedliche Situationen: 
1. völlig unbeweglicher Lattenzaun (=Motiv) und Kamera in zittriger Hand. Klar, der Gyrosensor misst was, das Gemessene kann dann mithelfen zu korrigieren oder stabilisieren.
2. völlig unbewegliche Kamera (Stativ, Fernauslöser) und bewegtes Motiv (z.B. Biene). Der Gyrosensor misst nichts und kann/darf auch nicht korrigieren. 

In beiden Situationen soll die Stabilisierung helfen, scharfe Bilder zu bekommen. Der Gyrosensor kann nur Fall 1 bearbeiten. Im Fall 2 sollte er sogar deaktiviert werden, denn jede Beeinflussung durch Gyrosensor wäre bei fest fixierter Kamera fehlerhaft. In diesem Fall kann allein der Autofokus für scharfe Bilder sorgen. Ja richtig gelesen: auch Autofokus ist natürlich Stabilisierung. Zum Beispiel auch dann, wenn der Fotograf beim Auslösen einen Schritt zurück/vor macht oder aus dem fahrenden Auto fotografiert. 

Um das zu verdeutlichen, will ich erst mal einen Urzustand definieren (soll faire Diskussion erlauben). Der Kamerastandort soll durch ein 3D-Koordinatensystem definiert sein. Der Nullpunkt liege im Mittelpunkt der Sensoroberfläche. Der Sensor sei unbeweglich fest (was ja im Zeitpunkt des Auslösens sein muss). Dann sind 3 lineare Bewegungen möglich: links-rechts, oben-unten, vor-zurück. Weiter sind 3 Drehbewegungen möglich: drehen um horizontale und vertikale Achse und um optische Achse Objektiv. Die meisten OM-D's können 5 Achsen stabilisieren (es fehlt vor-zurück - das kann der Sensor nicht korrigieren, das erledigt der Autofokus).

Auch für das Motiv lässt sich ein 3D Koordinatensystem definieren, welches ebenso wie die Kamera 6 Freiheitsgrade hat, sich also auch in 6 Achsen bewegen kann. Die Kamera kann das nur bedingt berücksichtigen, ausserdem hätte die Biene keinen Gyrosensor, der Daten an die Kamera schickt. Die Kamera greift sich also ersatzweise ein kontrastreiches Detail (Feder) heraus und versucht optimale Schärfe zu halten. Mangels Daten vom Bienen-Gyrosensor muss die Kamera also auf anderem Weg stabilisieren: sie vergleicht Pixeldaten auf dem Sensor und versucht, Flächen mit Kontrastunterschieden möglichst klein zu halten (=scharfer Fokus); was gleichbedeutend auch möglichst kleine graue Unschärfebereiche bedingt.

Genau diesen Fall beschreibt mein oben genanntes Beispiel mit den 2 Mövenköpfen. Dieses Problem/dieser Fehler ist grundsätzlich durch eine Stabilisierung per Sensorbewegung oder Im-Objektiv nicht lösbar (bei fixierter Kamera); es/er kann jedoch durch sehr kurze Belichtungszeiten sehr klein werden. Insofern wären kurze Belichtungszeiten eine weitere bisher nicht betrachtete Art Stabilisierung. Nochmal, damit dieser Punkt klar wird: eine Möve (rechts) sitzt fixiert, während die andere Möve fliegt, sich also bewegt. Der Abstand beider Köpfe variiert. Um das theoretisch korrigieren zu können, müsste sich der plane Sensor bei fixierter Kamera verkrümmen können (zum Glück tut er das nicht). Oder im Objektiv sich eine Linse "aufblasen" können. Keine Kamera der Welt kann beide Kopfe gleichzeitig scharf abbilden. Der PC in der Kamera versucht mit seinen vorprogrammierten Entscheidungswerten einen brauchbaren Kompromiss oder Mittelweg - mehr geht nicht. Zuletzt bleibt nur eine Stabilisierung durch sehr kurze Belichtungszeit mit einem zu akzeptierenden Fehler.

Noch etwas: ein Fotograf, der seine Kamera einem fliegenden Vogel nachführt, will einen scharf abgebildeten Vogel und keine Korrektur durch Gyrosensoren. Letzterer würde scharfe Flug-Bilder zuverlässig unmöglich machen. Wobei man selbst hier genau hinsehen muss: ein Vogel, der gleichmässig (linear) von links nach rechts fliegt, bleibt durch gleichmässiges Nachführen im Sucher; keine Beschleunigung, kein Messwert durch Gyrosensor. Ein Vogel mit Kreisbahnen ganz anders: hier gibt es pro voll geflogenen Kreis 2 mal Beschleunigungsmesswerte vom Gyrosensor. Fazit: man muss schon sehr genau hinsehen, was gemessen wird und welche Wirkung geplant ist oder verhindert werden soll.

Wenn man also Bilder untersucht, warum irgend etwas nicht optimal sein könnte, sollte man das ganze Repertoire an möglichen Ursachen berücksichtigen. Frühes festlegen auf nur eine, evtl. auch naheliegende Ursache führt dann leicht zu falschen Ergebnissen wie z.B. durch Nullkommagarnichts angedeutet.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sehr ausführlich, sehr abenteuerlich, dazu neue Definition der Begriffe „Stabilisierung“ und „Fokussierung„! Alle Achtung! Vielleicht kannst du noch kurz auf die Rolle des Beschleunigungsensors eingehen.

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb mccs:

Die meisten OM-D's können 5 Achsen stabilisieren (es fehlt vor-zurück - das kann der Sensor nicht korrigieren, das erledigt der Autofokus).

Das erledigt auch der Autofokus nicht. Je nach Konfiguration des IS ist dieser dauernd aktiv oder zumindest beim Zeitpunkt des vollen Drücken des Auslösers. Genau zu diesem Zeitpunkt erfolgt auch die endgültige Stabilisierung. Ein Autofokus fokussiert auf das Objekt bereits bei halb gedrückten Auslöser. Wenn der Fotograf nun während halb- und voll drücken des Auslösers vor oder zurück schwankt wird da auch nichts ausgeglichen. Daher soll man sich ja auch soweit auf den Autofokus "verlassen" und gleich voll durchdrücken, um einer Verschiebung des Fokuspunktes nach vorne oder hinten entgegen zu wirken.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da heute ein Termin ausfällt, habe ich Zeit auf deinen ausführlichen Text zu antworten, da dieser an einigen Stellen gut geeignet ist Verwirrung zu stiften:

Allgemein: Ich sehe keine Notwendigkeit, die in der Fotografie etablierten Begriffe „Stabilisierung“, „Fokussierung“ und „Belichtungszeit“ neu zu definieren bzw. der „Stabilisierung“ zuzuordnen, zumal dein Text zeigt, dass du einige Sachverhalte völlig falsch verstanden hast oder bestimmte Kamerafunktionen nicht kennst.

Im Einzelnen:

vor 22 Stunden schrieb mccs:

Gyrosensore "messen" Beschleunigungen. Also die Auswirkung einer zittrigen Hand auf das Kameragehäuse. Ergebnis: die Kamera zittert mit.

Gyrosensoren messen Drehbewegungen. Beschleunigungen werden mit dem Beschleunigungssensor gemessen. Aktuelle Olympus Kameras mit „5-Achsen-Stabilisierung“ nutzen einen 3-Achsen Beschleunigungssensor und drei, den Raumachsen zugeordnete, Gyrosensoren.

vor 22 Stunden schrieb mccs:

1. völlig unbeweglicher Lattenzaun (=Motiv) und Kamera in zittriger Hand. Klar, der Gyrosensor misst was, das Gemessene kann dann mithelfen zu korrigieren oder stabilisieren.
2. völlig unbewegliche Kamera (Stativ, Fernauslöser) und bewegtes Motiv (z.B. Biene). Der Gyrosensor misst nichts und kann/darf auch nicht korrigieren. 

In beiden Situationen soll die Stabilisierung helfen, scharfe Bilder zu bekommen. Der Gyrosensor kann nur Fall 1 bearbeiten. Im Fall 2 sollte er sogar deaktiviert werden, denn jede Beeinflussung durch Gyrosensor wäre bei fest fixierter Kamera fehlerhaft.

Die Stabilisierung der Olympus-Kameras kann auch auf dem Stativ aktiviert bleiben. Bei bombenfestem Stativ passiert nichts und beim Wackelreisestativ stabilisiert sie.

vor 22 Stunden schrieb mccs:

ja richtig gelesen: auch Autofokus ist natürlich Stabilisierung. Zum Beispiel auch dann, wenn der Fotograf beim Auslösen einen Schritt zurück/vor macht oder aus dem fahrenden Auto fotografiert. 

Siehe oben. Das ist „Fokussierung“. Außerdem hast du die Funktion des AF nicht verstanden. Im S-AF wird je nach Kameraeinstellung der Fokus bei halb gedrücktem Auslöser gespeichert oder aber erst im Moment der Auslösung fokussiert. Bei C-AF wird Bewegungsrichtung und Geschwindigkeit des Motivs ermittelt und daraus der notwendige „Vorhalt“ ermittelt, an dem die Kamera das Motiv zum Zeitpunkt des Verschlussablaufs vermutet. Das funktioniert vielleicht aus dem fahrenden Auto, mit großer Wahrscheinlichkeit aber nicht bei Körperschwankungen. 

vor 22 Stunden schrieb mccs:

Die meisten OM-D's können 5 Achsen stabilisieren (es fehlt vor-zurück - das kann der Sensor nicht korrigieren, das erledigt der Autofokus).

siehe oben.

vor 22 Stunden schrieb mccs:

Die Kamera greift sich also ersatzweise ein kontrastreiches Detail (Feder) heraus und versucht optimale Schärfe zu halten. Mangels Daten vom Bienen-Gyrosensor muss die Kamera also auf anderem Weg stabilisieren: sie vergleicht Pixeldaten auf dem Sensor und versucht, Flächen mit Kontrastunterschieden möglichst klein zu halten (=scharfer Fokus); was gleichbedeutend auch möglichst kleine graue Unschärfebereiche bedingt.

Die Kamera greift sich weder ersatzweise noch überhaupt ein kontrastreiches Detail, sondern der Fotograf wählt über die Auswahl des Fokusfeldes oder einer Fokusfeldgruppe aus, auf welchen Bereich des Bildes fokussiert werden soll. Eine Ausnahme bildet die Auswahl „Alle Fokusfelder“. Dabei versucht die Kamera auf der Grundlage von Objekterkennung und Entfernungsinformationen (über die Auswertung der PDAF Pixel) zu Vermuten, was ich gern ablichten würde. Zur genauen Funktion des Hybrid-AF der Olympus-Kameras in der Kombination aus Kontrast-AF, Phasendetektions-AF und Elementen der Motiverkennung, die je nach gewählter Fokusmethode einzeln oder kombiniert verwendet werden, schreibe ich nichts. Da reicht die Zeit bis zum nächsten Termin aber auch meine „Hintergrundinformation“ nicht. 😉

Nur eines - so wie du ihn beschreibst funktioniert der  AF nicht. 

vor 22 Stunden schrieb mccs:

Genau diesen Fall beschreibt mein oben genanntes Beispiel mit den 2 Mövenköpfen. Dieses Problem/dieser Fehler ist grundsätzlich durch eine Stabilisierung per Sensorbewegung oder Im-Objektiv nicht lösbar (bei fixierter Kamera); es/er kann jedoch durch sehr kurze Belichtungszeiten sehr klein werden. Insofern wären kurze Belichtungszeiten eine weitere bisher nicht betrachtete Art Stabilisierung.

Belichtungszeit ist keine Art Stabilisierung. Belichtungszeit ist ein Element der Belichtungssteuerung und/oder ein Element der Bildgestaltung.

vor 22 Stunden schrieb mccs:

Nochmal, damit dieser Punkt klar wird: eine Möve (rechts) sitzt fixiert, während die andere Möve fliegt, sich also bewegt. Der Abstand beider Köpfe variiert. Um das theoretisch korrigieren zu können, müsste sich der plane Sensor bei fixierter Kamera verkrümmen können (zum Glück tut er das nicht). Oder im Objektiv sich eine Linse "aufblasen" können. Keine Kamera der Welt kann beide Kopfe gleichzeitig scharf abbilden.

Diese Aussage ist falsch. Bei ausreichend großer Tiefenschärfe und hinreichend kurzer Belichtungszeit können dies beiden Mövenköpfe mit nahezu jeder Kamera scharf abgebildet werden, ohne dass Sensoren verbogen werden müssen.

vor 22 Stunden schrieb mccs:

Noch etwas: ein Fotograf, der seine Kamera einem fliegenden Vogel nachführt, will einen scharf abgebildeten Vogel und keine Korrektur durch Gyrosensoren. Letzterer würde scharfe Flug-Bilder zuverlässig unmöglich machen.

Falsch. Es gibt vier Einstellungen für den IBIS, zwei davon speziell für „Mitzieher“. „Auto“ erkennt Mitzieher ebenfalls. Inwieweit bei extrem kurzen Belichtungszeiten der IBIS bei BIF Sinn macht, kann man diskutieren.

vor 22 Stunden schrieb mccs:

Wobei man selbst hier genau hinsehen muss: ein Vogel, der gleichmässig (linear) von links nach rechts fliegt, bleibt durch gleichmässiges Nachführen im Sucher; keine Beschleunigung, kein Messwert durch Gyrosensor. Ein Vogel mit Kreisbahnen ganz anders: hier gibt es pro voll geflogenen Kreis 2 mal Beschleunigungsmesswerte vom Gyrosensor.

Siehe ganz oben - selbstverständlich gibt es keine Beschleunigungsmesswerte vom Gyrosensor. Aber es gibt Werte vom Beschleunigungssensor, und dass ein paar hundert Mal pro Sekunde und nicht nur zweimal pro Kreis und sogar auch bei scheinbar linearen Bewegungen.

vor 22 Stunden schrieb mccs:

Fazit: man muss schon sehr genau hinsehen, was gemessen wird und welche Wirkung geplant ist oder verhindert werden soll.

Sag ich doch!

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

Habe die Antwort erst heute gelesen. Normalerweise lasse ich dann Schwamm drüber. Aber hier müssen einige Dinge gerade gerückt werden.

 

Wenn eine Kamera stabilisiert, dann ist das nicht anderes, als 1. die eigene Wacklerei zu korrigieren (es zu versuchen) oder 2. die Wacklerei des Objekts zu korrigieren oder 3. beides gleichzeitig.


Dabei ist (mir) völlig egal, wie Kamerahersteller oder Nutzer sowas bezeichnen oder definieren. Hier hat Naturwissenschaft und Mathematik sowie Eigenschaften und Regeln bei Abbildungen alleiniges Sagen. Unter diesem Aspekt ist Autofokus in Fällen 1 und 2 pure Stabilisierung. Das kann man AF nennen oder sonstwie: es bleibt Stabilisierung in Richtung der Optischen Achse. Eine Korrektur ist möglich durch Änderung des Kamerastandortes (nach vorne oder hinten laufen) oder durch Änderung der Entfernung am Objektiv (natürlich könnte man als Sonderfall auch das Objekt verschieben). Andere Korrekturmöglichkeiten existieren jedoch nicht.

Aus physikalischen Gründen gibt es genau eine Entfernung, die durch eine Optik scharf abgebildet werden kann. Diesen Umstand sollte man nicht verwechseln mit der üblichen Vereinbarung, einen Bereich mit Tiefenschärfe oder Schärfentiefe (sucht Euch das passende raus) zu tolerieren. Dann wird ein Unschärfe-Fehler toleriert, der (physikalisch) nicht mehr scharf abgebildet wird, aber noch scharf aussieht. Masstab dieser Vereinbarung ist die Auflösung des menschlichen Auges. Die wiederum hat nichts mit Eigenschaften eines Objektivs oder einer Kamera zu tun. Könnte man einen Adler fragen: "Ist das scharf?" würde er in vielen Fällen Unschärfe bemängeln, wo Menschen behaupten: es ist scharf.

Wenn man also 2 Köpfe gleichzeitig scharf erscheinend abbilden kann, ist das die Konsequenz der schlechten menschlichen Sehschärfe und der daraus resultierenden grossen Tiefenschärfe. Letzteres ist leider keine pysikalische Grösse, sondern ein Fehler, genauer ein Messfehler. Eine kleine Blendenöffnung arbeitet in die gleiche Richtung und verändert die vom Mensch als scharf empfundene Tiefenschärfe nochmal. Aus der Sicht einer Abbildung ändert sich aber gar nichts: noch immer ist nur eine Entfernung scharf abbildbar. Nur die Tiefenschärfe ändert sich.

Meine oben erwähnte Sensor-Krümmung oder Linsenblase wäre eine andere Lösungsmöglichkeit. Übrigens: das Auge "nutzt" Sensorkrümmung (kurz- und weitsichtig, Sphärische Sehfehler). Sowas gibt es also schon.

Menschen dürfen unterschiedlich einschätzen, bezeichnen, definieren. Physik nicht. Versteht und akzeptiert man letztere, dann versteht man z.B. die Funktion der Automatiken in einer Kamera auch ohne einen definierten, speziellen Begriff wie z.B. Autofocus. Ja, auf solche Begriffe könnte man sogar getrost verzichten. Aber: wenn man mit anderen Menschen redet, empfiehlt sich eine Übereinkunft, wie man den Begriff Autofocus verwenden möchte oder eine Erläuterung, was damit genau gemeint sein soll.

Um Focus zu messen (= Vorausetzung für Autofocus bzw. Stabiliserung in Richtung Optischer Achse) gibt es genau 2 Möglichkeiten: 1. Die Kamera sendet einen Messstrahl aus und empängt das Echo wieder. Der Zeitunterschied zwischen senden und empfangen liefert bei Kenntnis der Geschwindigkeit des verwendeten Signals die Entfernung. 
Einzige Voraussetzung, die erfüllt sein muss, damit es funktioniert: das anvisierte Objekt muss reflektieren. Geeignet wären z.B. Schall, Infrarotlicht, Radar usw.. Mit einer solchen Anordnung wäre eine Focusbestimmung auf eine stille Wasseroberfläche oder zur Sonne hin aber nur schwer möglich. Pech!

Zum Glück gibt es noch eine 2. Methode, nämlich die von mir erwähnte: die Kamera versucht, Kontrastzonen schon auf dem Sensor "klein" zu gestalten, indem sie den Focus variiert. Diese Methode funktioniert im Dunkeln eher schlecht. Begründung: es gibt keine starken Kontraste. Und da unsere Kameras genau dieses Verhalten zeigen, ist dies ein starker Hinweis, das nicht per Reflektion gemessen wird.

Nun hat die Kamera ein Infrarotlicht, welches die Bestimmung des Focus unterstützen soll. Wird nun die Laufzeit des Lichtstrahls inkl. Reflektion verwendet? Oder die besseren Kontraste durch erhöhte Helligkeit?

Ich weiss es nicht, kann es aber so überprüfen: Vorgabe: das Objekt sei 1m entfernt. Das Licht muss also 2m Strecke zurücklegen. Die Lichtgeschwindigkeit ist (im Vakuum) ca. 300.000km/s. In 1 Sekunde legt das Licht (genauer) 299.792.458m zurück. Ein Prozessor mit 1GHZ Takt könnte so eine kleinste Strecke von ca. 3m noch unterscheiden, wenn er das in 1 Takt abarbeiten könnte. Er könnte also nur Unterschiede im Raster von 3m entdecken. Läuft die CPU schneller, z.B. mit 3 GHz, verkürzen sich die Messbaren Längen auf ca. 1m. Das ergäbe ein Raster von 0,5m Entfernungen. Man könnte also 0,5m oder 1m oder 1,5m usw. erkennen. Aber nie 1,25 oder 33cm! Wenn die CPU aber 3 oder 4 Takte braucht, dann multiplizieren sich alle Werte um diesen Faktor.

Ich denke, solche einfachen Überlegungen zeigen: die Lichtgeschwindigkeit wird nicht verwendet für Entfernungsmessungen bei einer Kamera. Wohl aber Kontrasterhöhung.

Soll die Kamera ein Fokusfeld benutzen, um scharf zu stellen, passiert in diesem Feld daher exakt das gleiche: es wird Kontrast ausgewertet. Die Messmethode ist unabhängig von einer grossen oder kleinen Messfläche; das Ergebnis i.d.R. bei kleinen Messflächen aber wahrscheinlich öfter zutreffend und daher brauchbarer. Warum? Die Zunahme der brauchbaren Ergebnisse bei kleinen Messflächen ist nachvollziehbar, denn: die Wahrscheinlichkeit, in einer kleinen Messfläche grosse Entfernungsunterschiede zu bekommen, ist geringer. Ausserdem hat die CPU weniger Arbeit, weil die zu untersuchende Fläche klein wird.

 

Diese Beschreibung erläutert, was die Kamera misst und welche Ergebnisse daraus gewinnbar sind. Wenn ich also die exakte Bedeutung einer reinen naturwissenschaftlichen Grössen voraussetze und definierend annehme, dann darf ich einen Kommentar erwarten, der diese Voraussetzung als Grundlage für Gegenargumente akzeptiert und verwendet. Jeder Physiker weiss, 2 Köpfe in unterschiedlicher Entfernung sind nicht scharf abbildbar. Blende, Belichtungszeit sind andere Baustellen. Aber bitte nicht vermengen. Da hat nämlich niemand was davon.

 

Noch kurz zu IBIS: man muss den reinen Messvorgang unterscheiden von der Auswertung der Messwerte (Interpretation in der Kamera). Das sind zwei verschiedene Dinge, die man auch getrennt lassen muss. Das eine misst Messwerte (meist dimensionslose Zahlenwerte), das andere stellt Entscheidungshilfen zur Verfügung, wie diese Messwerte behandelt werden sollten, damit möglichst oft gewünschte Ergebnisse entstehen. Weil das so ist und sehr viele Messwerte in sehr kurzer Zeit ausgewertet werden und dann zu passend eingeschätzen Einstellungen in der Kamera führen müssen, braucht die Kamera auch hierfür einen leistungsfähigen Computer, der das schnell kann. Und noch wichtiger: sehr gute Vergleichswerte als Entscheidungshilfe  und einen extrem schnellen Algorithmus für Vergleiche!

 

Gryossensor: Ja, das habe ich verwechselt, es werden Beschleunigungen für Drehbewegungen gemessen und nicht für lineare Beschleunigungen. Danke für die Korrektur.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bring doch bitte nicht noch mehr durcheinander. Ich habe wahrlich keine Lust, diese Ausarbeitung wieder zu zerlegen.

Nur ein kleiner Hinweis zu einem Punkt. Schon meine Olympus E-10 aus dem Jahr 2000 hat eine Kombination aus aktivem infrarotbasiertem Autofokus und passivem Kontrast AF benutzt.

Edit: Ergänzung, Natürlich wird beim Infrarot-AF nicht die Laufzeit gemessen, sondern ein Triangulationsverfahren angewendet.

bearbeitet von wteichler
Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 9.8.2020 um 18:16 schrieb mccs:

Habe die Antwort erst heute gelesen. Normalerweise lasse ich dann Schwamm drüber. Aber hier müssen einige Dinge gerade gerückt werden.

 

Wenn eine Kamera stabilisiert, dann ist das nicht anderes, als 1. die eigene Wacklerei zu korrigieren (es zu versuchen) oder 2. die Wacklerei des Objekts zu korrigieren oder 3. beides gleichzeitig.

 

 

Das ist völlig daneben.

1. ist korrekt

2. Nein, das geht bei keiner Kamera auf dem Markt, da die Kamera keinerlei Ahnung hat, was das Objekt macht.
    Hier kansst du lediglich durch Wahl einer sehr kurzen Verschlusszeit versuchen die Wackelei einzufrieren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 14 Stunden schrieb kdww:

2. Nein, das geht bei keiner Kamera auf dem Markt, da die Kamera keinerlei Ahnung hat, was das Objekt macht.
    Hier kansst du lediglich durch Wahl einer sehr kurzen Verschlusszeit versuchen die Wackelei einzufrieren.

Folgende Anordnung: Kamera auf Stativ. Amsel in ca. 10m Entfernung trippelt auf dem Rasen hin und her. In ca. 20m Entfernung Gebüsch. Focus C-AF hat Amsel "entdeckt", der Focus folgt der Amsel (solange sie komplett im Sucher bleibt). 

Das war mit Objekt-Wacklerei gemeint.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 7 Stunden schrieb mccs:

Folgende Anordnung: Kamera auf Stativ. Amsel in ca. 10m Entfernung trippelt auf dem Rasen hin und her. In ca. 20m Entfernung Gebüsch. Focus C-AF hat Amsel "entdeckt", der Focus folgt der Amsel (solange sie komplett im Sucher bleibt). 

Das war mit Objekt-Wacklerei gemeint.

Das hat absolut nichts mit dem Stabi zu tun, sondern ist eine eigenschaft des Autofokussystems, das bei entsprechender Einstellung ein markiertes Objekt verfolgt.

Und das kann dann immer noch verwackelt sein, wenn die Belichtungszeit zu kurz ist.

 

Deswegen sollte man die Begrifflichkeiten nicht durcheinander werfen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Stunden schrieb mccs:

Folgende Anordnung: Kamera auf Stativ. Amsel in ca. 10m Entfernung trippelt auf dem Rasen hin und her. In ca. 20m Entfernung Gebüsch. Focus C-AF hat Amsel "entdeckt", der Focus folgt der Amsel (solange sie komplett im Sucher bleibt). 

Das war mit Objekt-Wacklerei gemeint.

Wenn, dann musst Du in dem %all aber einen Kugelkopf verwenden, damit Du mit C-AF amit dem Fokusfeld immer brav auf der Amsel bleiben kannst .... oder Du müsstest C-AF+TR verwenden. Letzteres würde der Amsel folgen, sofern die Amsel im Trackingrahmen durch grünes Blinken bestätigt würde und sich im Bild sonst nichts anderes mit Kontrast befände.

Mit dem Stabi hat das alles nichts zu tun, den kannst Du bei S-IS-Auto einfach eingeschaltet lassen oder Du kannst ihn ausschalten.  Der Stabi hilft weder gegen Bewegungsunschärfe noch beim Tracken von Motiven. Er bringt Dir bloss ein stabilisiertes Sucherbild, sofern die Funktion eingeschaltet ist. Am Stativ ist das Sucherbild aber eh ruhig.

 

Sag mal, kann es sein, dass Du uns alle ein bisserl ver*rschst? 😉

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung