Jump to content
Die PEN, OM-D & E-System Community

rodinal

Mitglieder
  • Gesamte Inhalte

    244
  • Benutzer seit

  • Letzter Besuch

Reputation in der Community

61 Ausgezeichnet

Letzte Besucher des Profils

Der "Letzte Profil-Besucher"-Block ist deaktiviert und wird anderen Benutzern nicht angezeigt.

  1. Dir ist klar, dass du mir solchen undifferenzierten Schuldzuweisungen jede seriöse Diskussion um die Ursachen des Insektensterbens unterbindest? Zum Thema beizutragen hätt ich ein Thymianwidderchen, ein Schachbrett und zwei Kaisermäntel, denen ich reichlich Nachwuchs wünsche.
  2. Neben dem unvermeidlichen Distelfalter (M5.1, 5,6/105 Rodagon) hätt ich noch den seltener portraitierten Rotrandbär (E-510, 5,6/150 Componon) und einen grünen Zipfelfalter (M5.1, 4,5/135 Zuiko) anzubieten- alle etwas gecroppt.
  3. Eine ganz kleine Ergänzung aus dem richtigen Leben: Wir waren neulich auf einer Fotoausstellung. Gute Bilder, volle Vernissage, positives Presseecho. Natürlich habe ich gefragt: Wo lässt du drucken? Antwort: Bei Aldi. Ist doch sonst unbezahlbar. Und die Aldi-Bildoptimierung ist gar nicht mal so schlecht....
  4. Wenn diese Stuckpixel in Gruppen auftreten, ist das sicher ein Servicefall. Normalerweise sind das Einzeltäter. Es ist auch untypisch, dass alle die gleiche Farbe haben. Entfernt denkbar wäre ein Systemfehler, z.B. beim Interpolieren der an sich farbenblinden PDAF-Sensel. Nähere Informationen bekommst du, wenn du ein RAW mit möglichst homogenen, eher dunklen Hintergrund in RawTherapee lädst. Dann gehst du in die 600%-Ansicht und schaltest das Demosaicing ab. Du siehst jetzt das typische Bayer-Pattern : Grüne Sensel in grün, rote in rot... Die Übeltäter sollten dann leuchtend hervorstechen, und du kannst Farbe und Lage präzise identifizieren - auch als Info für den evtl. notwendigen Service.
  5. So etwas gibt es schon- aber nur bei speziellen Kameras. In der Fotografie nützt das nichts, denn irgendwann wird die übertragbare Dynamik vom Objektiv begrenzt. Iliah Borg zeigt in diesem schönen Versuch https://www.rawdigger.com/howtouse/Dynamic-range-fair-share-of-flare-and-glare dass sich selbst Spitzenoptiken schwer tun, auch nur 12EV zu übertragen, wenn die helle Fläche des Motivs grösser als in der durchaus problematischen DxO-Anordnung ist. Den Versuch kannst du übrigens problemlos nachstellen- dazu genügen ein Bildschirm, ein Stück Pappe und die Möglichkeit, Raw-Daten direkt zu lesen (z.B. mit der kostenlosen LibRaw oder dem RawDigger). Ich frag mich, warum das niemand macht- vermutlich hat keiner den Mut, über die Ergebnisse öffentlich zu reden.
  6. Jedenfalls nicht von der Auflösung - die bestimmt lediglich die Feinheit der Abstufung. Bei 14EV Dynamik und 14Bit Auflösung bleibt für die "unterste" Blende allerdings nur eine Stufe übrig - für die oberste dagegen über 8000 Stufen. Ob es fotografisch sinnvoll ist, dabei 14 oder gar mehr EV auszunutzen, kannst du dir sicher selbst beantworten. M.E. braucht man für eine saubere Schattenabstufung bei hoher Dynamik 16Bit . Die gibts z.Zt. nur im sogenannten Mittelformat. Die 12Bit bei den meisten mft-Cams sind m.E. unzureichend (wobei Sony-KB bei manchen Aufnahmemodi auch nicht mehr bietet). Nach oben begrenzt wird die Dynamik durch die Speicherkapazität des Einzelsensels (FullWellCapacity) - und diese Grenze ist eigentlich entscheidend. Zu Urzeiten hing die direkt von der Senselgrösse ab. Bei der Einführung von Nikons CX-Klasse hat man aber erstmals einen Sensor genutzt, bei dem jedes Sensel einen zusätzlichen abschaltbaren Kondensator besass. Den kannst du natürlich nahezu beliebig dimensionieren - mit entsprechenden Auswirkungen. Damit erhält ein Sensor genau die Dynamik, die der Hersteller wünscht. Die Untergrenze der Dynamik hängt vom Rauschen ab. Das wird natürlich von der Sensortechnik bestimmt, aber auch stark von der Sensortemperatur. Damit sind Vergleichsmessungen ohne Temperaturangabe wertlos. Im wirklichen Leben hat die DSLR damit einen uneinholbaren Vorteil gegnüber der DSLM- deren Sensor bleibt nämlich kälter. Die Messung der generischen Sensordynamik gehört zu den einfachsten Dingen überhaupt- mir ist völlig unverständlich, warum so viele Leute nur fremde Daten nutzen. Wie man das macht, habe ich schon zu R. Wagners Zeiten hier im Forum gezeigt. Zur Erinnerung hier nochmal der Vergleich zwischen G1 und E-M5.1:
  7. Alle RAWs sind von der Struktur her TIFFs. Die ORFs sind nach dem allgemein bekannten, sehr effektiven Olympus-Verfahren komprimiert, die DNGs nach dem ebenso bekannten, gleichfalls effektiven Adobe-Code. Technisch gibts also keine Gründe, warum Oly-Raws in Zukunft nicht mehr gelesen werden können. Sollte ein Hersteller aus kommerziellen Gründen die Unterstützung einstellen, bleiben dir immer noch die freien Konverter. Die liefern heute schon bessere Ergebnisse als der Marktführer und werden zudem schneller weiterentwickelt. Beim Konvertieren ins DNG werden Informationen aus der Datei entfernt. So werden die Daten zur Objektivkorrektur in die deutlich gröber gestuften Adobe-Opcodes umgerechnet und manche Maker-Notes -z.B. die Stabi-Brennweiteneinstellung bei Altgläsern - sucht man hinterher vergebens. Dafür werden neue, technisch nutzlose Informationen - z.B. "Baseline_Exposure" hinzugefügt, die nur für Adobe-Software nötig sind, dir bei anderen Konvertern aber u.U. verfälschte Ergebnisse bescheren. Zur Zeit können alle Konverter ORFs lesen. Wandelst du die Dateien in DNGs, steigt zumindest die Oly-Software aus. Damit ist das Original das universellere Format, und ich vermute, das bleibt auch so.
  8. Es greift zu kurz, die G'MIC-Suite nur in Verbindung mit dem m.E. nach wie vor gruseligen Gimp zu sehen. Die Filter sind ein eigenständiges Programm, sowohl mit Bedienoberfläche als auch von der Kommandozeile aus nutzbar. Plugins gibts auch für andere Bildbearbeitungen - z.B. Krita oder Paint.NET. Die M.E. sehr gelungenen Filmsimulationen sind schon seit ewigen Zeiten Bestandteil von RawTherapee. Als besonderes Schmankerl stellen die Entwickler ein Web-Interface zur Verfügung: https://gmicol.greyc.fr/ Dort kann man eigene Bilder hochladen und an ihnen die Wirkung verschiedener Filter testen, ohne das Programm selbst zu installieren. Ursprünglich kommt die Software aus dem wissenschaftlich-technischen Bereich und kann dazu dienen, die Visualisierung spezieller Effekte zu verbessern. Dazu hat sie auch eine eigene Programmiersprache. Trotzdem sollten selbst Adobe-Amateure damit zurechtkommen.
  9. Der Bildkontrast hängt also vom Vergrösserungsmassstab ab? Mit der Ansicht stehst du in der digitalen Welt aber ziemlich allein da. Wenn das Objektiv etwas taugt, sollte man selbst Blende 11 nach Möglichkeit meiden- unabhängig vom Sensorformat. Als Beleg mal ein 1:1-Crop aus der Pana G1, deren Pixelpitch etwa der D850 entspricht- der Vergleich gilt also formatübergreifend. Das Bild wurde aufgenommen mit dem frühen Tamron 2,5/90, entwickelt in RT, selbstverständlich ungeschärft. Erste Aufnahme mit f5,6, zweite mit f11. Vor allem auf dem Flash-Chip sieht man mit der kleineren Blende eine weniger akzentuierte Abbildung der feinen Schmutzpartikel, und im direkten Vergleich fällt auch der Beugungsschleier auf. F11 ist hier keinesfalls optimal und allenfalls einer leichten Weichheit förderlich.
  10. Schon bei Abb.1 des Wikis wird klar: Wer die Beugung nur als Scheibchen betrachtet, repräsentiert einen ähnlichen Erkenntnisstand wie jemand, der die Erde als Scheibchen sieht. Beugung erzeugt Wellenfronten, deren Summe sich auf den Gesamtkontrast des Bildes auswirkt. Deutlich wird das beim "p" der zweiten Abbildung des Wiki: Beim Schliessen der Blende wird Weiss abgedunkelt und Schwarz aufgehellt. Die zunehmende Beugung wirkt wie ein kontrastmindernder Schleim, der sich über das gesamte Bildfeld legt. Damit entpuppt sich die Äquivalenztheorie als Blödsinn. Ein mit Blende 8 und mft aufgenommenes Bild wird aufgrund der geringeren Beugungseinflüsse stets sauberer und kontrastreicher (Blogsprech: "digitaler") aussehen als mit KB und Blende 16 - selbst wenn sonst alle Teile des Equipments vergleichbar sind. Eigenartig, dass nur selten so weit gedacht wird. Ein Schelm, wer böses dabei denkt...
  11. Oh je, Chipworks! Deren Analysen kann man für teures Geld kaufen, ist dann aber aus guten Gründen zur Geheimhaltung verpflichtet. Du ahnst, was ich über Leute denke, die darüber im Internet schreiben? Digitalkameras haben keine ISO, die man im klassischen Sinn messen kann. Für die Ermittlung eines ähnlichen Wertes gibt es (mindestens) drei Ansätze: Lichterbasiert, schattenbasiert oder japanisch (Cipa). Einstellen kann man nur den dritten Wert, deshalb kann seine Nutzung als Referenz kaum falsch sein. Andere Methoden ergeben andere Ergebnisse- das liegt in der Natur der Sache. Wie man sie anwendet und ohne weitere Hilfsmittel Empfindlichkeit und Dynamikbereich seiner Kamera ermittelt, habe ich schon zu R. Wagners Zeiten hier im Forum gezeigt. Ich gebe nicht grundlos B. Claff den Vorzug gegenüber DxO. Aber mit deinen Einlassungen hast du dich um eine Stellungnahme zu meiner Grundthese herumgedrückt: Die Leistung eines Sensors ist von weitaus mehr Dingen abhängig als von Grösse und Pixelpitch.
  12. Halbwegs seriös kann man über das Thema nur reden, wenn man das Rauschen in seine Hauptbestandteile unterteilt und diese näher betrachtet. Ich nehm mir mal zwei vor: DSNU (Dark Signal Non Uniformity, Schattenrauschen) und PRNU (Photo Response Non Uniformity). Letzteres ist z.B. für das beliebte Himmelgrieseln verantwortlich. Auflistungen gibts z.B. bei Bill Claff http://photonstophotos.net/Charts/Sensor_Heatmaps.htm und hier zeigt sich, dass beide Bestandteile weder mit der Sensor- noch mit der Pixelgrösse signifikant korrelieren. Deutlich wird das, wenn man z.B. M1.2 und M1.X auf der einen, die Pen F auf der anderen Seite betrachtet. Alle haben ja angeblich den gleichen Sensor. Trotzdem schneiden die ersten beiden mit 22% resp. 21% DSNU weit unterdurchscnittlich, die PenF mit 5% DSNU überdurchscnittlich ab. Auch bei der PRNU ist die Pen deutlich besser. Vielleicht kann ja einer der hiesigen Helden mal erklären, woher diese Differenzen bei identischer Sensorauslegung kommen.
  13. Die Meinung muss man nicht teilen- mich stören diese Artefakte extrem. Und sie werden schliesslich nicht von jedem Objektiv erzeugt. Das 14-54(1) - erstes Bild - ist dagegen nach meiner Erfahrung tatsächlich ziemlich resistent. Noch besser ist das FT9-18 (zweites Bild) - bei dem ist es fast ein Kunststück, Flares zu erzeugen. Für mich sind das Killerlinsen, die ein Teil dazu beitragen, mich beim System zu halten. Bilder ooc.
  14. Anfangsblende 4.0 hat der "Joghurtbecher". Der TO hat aber das "fette" Telezoom mit Metallbajonett. Dessen Leistung wurde seinerzeit noch höher eingeschätzt.
  15. Nachdem dir hier allerlei vom Hörensagen erzählt wurde, hier mal ein Stück Realität: Ein 1:1-Ausschnitt, aufgenommen mit dem alten FT 14-45 an der M5.1, angeschlossen über einen 30€-Billigadapter. Zur Fokusgeschwindigkeit: Ich nutze an der M5.2 neben Altgläsern ausschliesslich FT-Objektive. Von der Geschwindigkeit her sind das keine Überflieger, aber mit etwas Geschick bekommt man auch bewegte Motive scharf. So gut wie mit dem traurigen Phasen-AF der kleinen FT-Cams werden die Bilder allemal.
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist.