Jump to content
Die PEN, OM-D & E-System Community

rodinal

Mitglieder
  • Gesamte Inhalte

    228
  • Benutzer seit

  • Letzter Besuch

Reputation in der Community

38 Ausgezeichnet

Über rodinal

  • Rang
    rodinal

Letzte Besucher des Profils

Der "Letzte Profil-Besucher"-Block ist deaktiviert und wird anderen Benutzern nicht angezeigt.

  1. Wie mans nimmt. Wenn man beliebige homogene Bereiche- z.B. den Himmel- mal durchrechnet, rauscht das zweite Bild in allen Kanälen ca. doppelt so stark wie das erste. Es stammt daher mit hoher Wahrscheinlichkeit aus der Adobe-Software. M.E. wäre es gerade für Vergleiche sinnvoll, andere Konverter zu nutzen.
  2. Klar - aber bislang auf die harte Art: Kabelfernauslöser geschlachtet und die passenden Kabel per Relais kurzgeschlossen. Eine freilandtaugliche Lösung sollte aber über Wifi funktionieren. Darüber denke ich gerade nach.
  3. Die ganze Äquivalenztheorie beruht auf der Hypothese, eine KB-Cam würde bei allen Betriebszuständen bei ISO800 genau so stark rauschen wie eine mft-Cam bei ISO200. Anhand eines Vergleichs von M5.1 und A7.1 habe ich nachgewiesen, dass dies noch nicht einmal für gleichalte Sensoren desselben Herstellers gilt- die Sony rauscht in den Mitteltönen in diesem Betriebszustand mehr als doppelt so stark wie die Oly. Pauschale Äquivalenzrechnungen sind also unseriöser Unsinn- man kann allenfalls einzelne Kameras im gewünschten Arbeitsmodus vergleichen und muss dabei auf alle Feinheiten achten. Als Beispiel ziehe ich mal die Sony A7.3 heran. Die kann durchaus brauchbare Bilder liefern. Das verliert sich aber, wenn man bei der Einstellung "compressed Raw" in den Serienbildmodus - egal ob elektronisch oder mechanisch- schaltet. Dann arbeitet der Sensor nur im 12Bit-Modus, und die Dynamik bricht um bis zu 1,4EV ein. Absolut bewegt sich die Cam dann auf dem Niveau der ollen M5.1, nach der Äquivalenzrechnung kann sie allerdings schlechter abschneiden als die noch ältere E-5. Im Prinzip sollte das jeder Wildlife- oder Sportfotograf merken und laut aufschreien. Trotzdem wird die Kamera gelobt. Allmählich bin ich der Meinung, Äquivalenz findet vor allem im Kopf statt.
  4. Ich habe auch keinesfalls behauptet, dass die Kombination eines Balgens mit modernen Objektiven sinnvoll sei. Die Dinger entfalten gerade in Verbindung mit Altgläsern ihre Stärken, vor allem wenn man sie ein wenig "pimpt". Ich zeige hier mal ein paar Möglichkeiten aus meiner Praxis: 1. Weil M42-OM-Adapter schwer zu bekommen sind, habe ich einen M39-M42-Reduzierring in einen alten Soligor-T2-Adapter eingeklebt. Die Konstruktion trägt hier das hervorragende 2,8/63 EL-Nikkor. 2. Weil der normale OM-mft-Adapter zu weit aufträgt, habe ich mir unter reichlichem Einsatz von Zweikomponentenkleber eine verkürzte Variante gebaut. Damit erweitert sich der Einsatzbereich aller Objektive deutlich, der 4,0/80 Zuiko Makrokopf fokussiert so von unendlich bis 2,5 facher Vergrösserung. Das ist schon komfortabel. 3. Netterweise sitzen die Begrenzungsschrauben des Balgens in einem M6-Sackloch. Das motiviert zu zerstörungsfreien Veränderungen. Hier habe ich z.B. ein Aluprofil mit eingeklebter M6-Mutter montiert. Die Schraube (oder eine beliebig lange Gewindestange) schiebt so die Standarte bei jedem Schritt der Knarre um 0,023mm weiter. Das hat bislang für jeden Anwendungsfall gereicht. Natürlich schreit diese Primitivkonstruktion nach einem weiteren Ausbau. Man könnte z.B. den Handbetrieb durch einen NEMA17-Schrittmotor ersetzen. Der würde dann durch ein Arduino-Board gesteuert, das auch die Kamera nach jedem Schritt auslöst und seinerseits mit einer alten TV-Fernbedienung berührungslos bedient wird. Ein Prototyp liegt bereits auf dem Schreibtisch, allerdings ist der umgebende Drahtverhau noch nicht einmal labortauglich. Wenn das ganze fertig ist, zeige ich Bilder.
  5. Daminion ist eine richtige Bildverwaltung- also mehrplatzfähig, modular und skalierbar. Jeder Aufrüstungsschritt kostet, und wenn du eine Fotoagentur damit ausrüstest, kann das richtig teuer werden. Dafür gibts die Einzelplatz-Schneckenversion schon für einmalig 79€.
  6. Habe spasseshalber mal ein XP mit Word2007 hochgefahren. Dort funktioniert es schon einwandfrei- jedenfalls mit Unicode-Zeichensätzen. Da sollte es mit Vista erst recht klappen. Möglicherweise frisst deine Ziffernblock-Simulation dir die Eingaben weg und braucht Streicheleinheiten mit regedit. Hoffentlich kann dir irgendein Windows-Crack im Forum helfen. Ich bin aus naheliegenden Gründen weitgehend zu Linux migriert.
  7. ∞ hat die Unicode-Nummer 221E (hex) oder 8734 (dez). Unicode-Zeichen solltest du in jedem Betriebssystem mit der Tastatur eingeben können. M.W klappt das unter Win bei gedrückter ALT-Taste und Eingabe von 8734 auf dem Ziffernblock. Kann ich leider nicht ausprobieren- schreibe grad unter Linux.
  8. Überlegen wir doch mal, was es zur Objektivherstellung alles braucht: Die Berechnung ist kein Hexenwerk, und eine Grafikkarte hat heute mehr Rechenleistung als vor ein paar Jahren ein ganzer Optikkonzern. Ein guter Mann davor- und schon hat man ein paar vielversprechende Entwürfe. Die mechanische Fertigung hat bezüglich Materialwahl und Qualität unvorstellbare Fortschritte gemacht. Was vor ein paar Jahren noch HighEnd war, entspricht heute Grobschmiedniveau. Wer Ersatzteile für den Fahrzeugbau liefern kann, kann auch Objektive bauen- hier gibts keine prinzipiellen Probleme. Glas kann man in jeder benötigten Menge und Qualität kaufen. Selbst Exotensorten von Schott sollten den Verkaufspreis nicht ungebührlich belasten. Mit Vergütungen sieht es etwas kritischer aus, aber T*- Niveau von 1975 sollte Allgemeingut sein. Das reicht für Spitzenergebnisse aus. Bei der Fertigung sphärischer Linsen habe ich die Schleiferei von Zeiss(West) von 1978 vor Augen. Deren Arbeitsmethoden und -bedingungen würde heute jeder chinesiche Garagenproduzent als primitiv und unzumutbar ablehnen. Aber auch so konnte man brauchbare Objektive fertigen. Saubere Asphären kriegen auch heute nur Leica und Pana hin - die Zwiebelringe älterer Canon- Linsen haben die Kundschaft aber nicht gestört. Hier wird also Pfusch toleriert. Bleiben Zusammenbau und Qualitätskontrolle als m.E. wichtigste und kostenintensivste Bereiche. Wer es schafft, diese Fertigung ins küstenferne chinesische Hinterland zu verlegen, wo Arbeit noch billig ist und Staatszuschüsse sprudeln, hat einen unschlagbaren Kostenvorteil. Dann müssen nicht Billigprodukte, sondern können auch preisgünstige Spitzenprodukte auf dem Markt erscheinen.
  9. Ich hänge hier auch das Raw-Histogramm des ISO64-Bildes an. Es ist identisch mit dem das ISO200-Raws, folglich sollten identische Konvertereinstellungen auch identische Bilder ergeben. Warum die Belichtungsregler von Workspace und ACR dem Nutzer etwas anderes vortäuschen, ist mir nicht klar.
  10. Dies ist allerdings eine spezielle Adobe-Arbeitsweise, die kein anderer Konverter verwendet. Sie hat den Nachteil einer doppelten Farbraumkonversion - und jede Konversion bringt Verluste mit sich. Sinnvoller ist es, den nativen Kamerafarbraum als Arbeitsfarbraum zu nutzen - so macht das C1 - oder den Ausgabefarbraum auch als Arbeitsfarbraum einzustellen (RawTherapee). Das zusammenquetschen der von der Kamera aufgezeichneten Farben ist die eigentliche Aufgabe der Konversion- sRGB macht schliesslich nur 2,5% des Farbraums einer M5.1 aus.
  11. SRGB repräsentiert den Farbraum eines Röhrenmonitors von 1994. Drucker arbeiten nach einem anderen Darstellungsverfahren - sie können also andere Farben erzeugen. Die verlierst du, wenn du dich auf sRGB beschränkst. Auf dieser Seite https://www.iccview.de/3d-color-space.html kannst du die unterschiedlichen Farbräume sehr schön vergleichen. Du kannst dort auch dein eigenes icc-Druckerprofil hochladen. Da du einen hochwertigen Drucker nutzt, sollte das sogar ein wenig über AdobeRGB hinausgehen. Fürs 4k-Fernsehen hat sich die Industrie übrigens auf den riesigen rec2020-Farbraum geeinigt. Wenn du den Möglichkeiten künftiger Glotzen gerecht werden willst, ist der keine schlechte Wahl.
  12. Nö. Anbei ein ganz simples Beispiel: Ich fotografiere ein Farbtarget einmal mit dem 4,0/50 EL-Nikkor, einmal mit dem 2,8/50 Rodagon, jeweils Blende 5,6. Die Jpegs ooc kann ich kaum unterscheiden, weil die Kamera die Ausgabe "optimiert". Erst wenn ich die Raws - hier die Zeile "J" - untersuche, kann ich feststellen, dass der Vierlinser den Sechslinser bei der Wiedergabe von Makrokontrasten förmlich deklassiert.
  13. War Herr Uschold nicht der Experte, der es noch nicht einmal schafft, Raws direkt auszulesen und zu analysieren? Wie will er bei diesem begrenztem Fachwissen eigentlich die Qualität von Objektiven beurteilen?
  14. Zunächst einmal: Die Links funktionieren nicht- auch unter dem ersten liegt das 200er ORF. Zum zweiten: Das Bild ist überbelichtet- im Rotkanal gibt es nichts zu retten. Ausserdem überschreitet es den möglichen Kontrastumfang des Sensors. Zum Beleg das Raw-Histogramm. Zum dritten: Weil es nichts zu retten gibt, müssen die ausgefressenen Stellen mit Tricks kaschiert werden. Adobe nimmt dafür üblicherweise einen Grauschleier- m.E. oft die hässlichste Lösung. RawTherapee (Anhang) versucht es mit aus den angrenzenden Farben abgeleiteten Verläufen. Das kann deutlich besser aussehen. Zum vierten: In der RT-Ansicht finden sich auf dem Fell Unmengen scharf abgegrenzter, schwarzer Fusseln. Weder Workspace noch ACR bilden die adäquat ab. Wer Wert auf Details legt, sollte also beide Konverter meiden.
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Ihrem Gerät platziert, um die Bedienung dieser Website zu verbessern. Sie können Ihre Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Sie damit einverstanden sind.