Jump to content

Featured Replies

Topaz bietet eine neue Bildverbesserungssoftware, dabei werden 4 Vorschläge unterbreitet. Einige sind sehr der KI-Phantasie entsprungen (s.3. Bild) das Erste ist das Original

 

Alle Bilder mit dem 100-400 bei 400mm

x-bfo-250611OMD30674-verb.jpg.7f1c3e51e0229022e85cbbe0ef22a627.jpgx-bfo-250611OMD30674-verb-2.jpg.1556e83a908409c88a99963c5d77d17b.jpgx-bfo-250611OMD30674-verb-1.jpg.2dfb545593a1936b4e0f8833fd463619.jpgx-bfo-250611OMD30674-verb.jpg.7f1c3e51e0229022e85cbbe0ef22a627.jpg

Na ja, so Boom finde ich es jetzt nicht, als Fotograf. Eher was für "Creative Creators" mit blühender Fantasie. Deswegen heißt es wahrscheinlich auch Bloom (mit "L") 😉

Ich warte stattdessen immer noch auf eine Bildbearbeitungssoftware (am Desktop), die ähnlich überzeugende Ergebnisse bei mangelhafter (bzw. de facto nichtexistierender) Freistellung liefert wie zB Apple auf seinen neueren iPhones. Dagegen kann Adobe Lens Blur nicht mal im Ansatz anstinken. Eine, bei der man das emulierte Objektiv aus einer großen Liste auswählen kann 😉😄

Ich bin mit der Unschärfefunktion in Lightroom schon zufrieden. Passt nicht immer (besonders bei Objekträndern mit feinen Details), aber für vieles ist die Funktion sehr hilfreich.

Besonders gefällt mir die Darstellung der Schärfebereiche, so dass ich gezielt auswählen kann, was ich freistellen will und was nicht. Weiterhin kann man den Unschärfebereich mit Masken beeinflussen.

Es ist erst der Anfang der Entwicklung. Und der ist schon beachtlich.

vor 49 Minuten schrieb Karsten:

Eine, bei der man das emulierte Objektiv aus einer großen Liste auswählen kann

Hat Apple in den Iphones nicht Tiefendaten in den Kameras? Das wäre notwendig für richtig gute Simulation.

vor 31 Minuten schrieb boddah:

Hat Apple in den Iphones nicht Tiefendaten in den Kameras? Das wäre notwendig für richtig gute Simulation.

Nehme an dass das Smartphone zusätzlich den LiDAR Scanner einsetzt. Nur meine Vermutung.

vor 24 Minuten schrieb pit-photography:

Nehme an dass das Smartphone zusätzlich den LiDAR Scanner einsetzt. Nur meine Vermutung.

Hab's gerade nachgeschaut du liegst richtig.

Ab iPhone 12 Pro sind Lidar Sensoren verbaut.

 

Spannenderweise gab's gestern erst Gerüchte zu einem entsprechenden Kleinbild Sensor von Sony der Lidar integriert hat, der wohl aber einen dermaßen hohen Stromverbrauch hat das er in Cinema Kameras landen wird. 

Edited by boddah

AFAIR dient der LIDAR-Scanner der iPhones abgesehen von der Unterstützung des AF nicht für das Erfassen von Tiefinformationen bei Fotos. Nur z.B. zum 3D-Scannen für VR- und AR-Anwendungen.

Für die Tiefeninfos bei Fotos (zuvor nur im Porträtmodus, bei neueren Modellen auch im normalen Modus und auch nachträglich anwendbar) werden wohl mit den diversen Objektiven Daten erfasst und verrechnet.

Edited by embe71

Wenn das erste Bild das Original ist, dann bin ich immerhin überrascht, wie viel Schärfe nachträglich in ein Motiv hineingerechnet werden kann. Im zweiten Bild ist der Vogel (Eichelhäher?) wesentlich schärfer.

Das dritte finde ich eigentlich ganz lustig. Als ob die KI Pilze gefuttert hätte 😵‍💫

Edited by Olyver

  • Author
vor 18 Minuten schrieb Olyver:

Wenn das erste Bild das Original ist, dann bin ich immerhin überrascht, wie viel Schärfe nachträglich in ein Motiv hineingerechnet werden kann. Im zweiten Bild ist der Vogel (Eichelhäher?) wesentlich schärfer.

Das dritte finde ich eigentlich ganz lustig. Als ob die KI Pilze gefuttert hätte 😵‍💫

Wohl jede Menge

Gruss Bernd

  • 1 month later...
Am 12.6.2025 um 12:09 schrieb tgutgu:

Ich bin mit der Unschärfefunktion in Lightroom schon zufrieden. Passt nicht immer (besonders bei Objekträndern mit feinen Details), aber für vieles ist die Funktion sehr hilfreich.

Besonders gefällt mir die Darstellung der Schärfebereiche, so dass ich gezielt auswählen kann, was ich freistellen will und was nicht. Weiterhin kann man den Unschärfebereich mit Masken beeinflussen.

Es ist erst der Anfang der Entwicklung. Und der ist schon beachtlich.

Ich kann dem nur zustimmen.

In der Vergangenheit habe ich oft eine relativ kurze Brennweite gewählt, weil ich zu faul war, mein 12 - 40er durch das 40 - 150er auszutauschen oder Letzteres einfach nicht noch zusätzlich mit mir rumschleppen will. Im Nachhinein kommt dann doch die Überlegung, dass ich eigentlich einen knapperen Bildausschnitt besser fände. Dann mache ich eine entsprechende Ausschnittsvergrößerung, und die ist dann eben relativ weich. In der Vergangenheit habe ich dann oft versucht, die Bildqualität mit Topaz zu retten. Das ist mir, ehrlich gesagt, eigentlich doch zu viel künstlich ins Bild hineingerechnet.  Mittlerweile habe ich mir auch schon überlegt, einfach bessere Bilder zu machen, die ich möglichst nicht mehr entrauschen muss. Vielleicht kündige ich auch mein Topaz Abo.

Create an account or sign in to comment

Recently Browsing 0

  • No registered users viewing this page.

Important Information

Wenn Sie diese Seite nutzen, stimmen Sie den Guidelines zu. We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Mehr Informationen in unserer Privacy Policy

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.