Jump to content

Die OM System Community

Community durchsuchen

Zeige Ergebnisse für die Stichwörter "'software'".

  • Suche mithilfe von Stichwörtern

    Trenne mehrere Stichwörter mit Kommata voneinander
  • Suche Inhalte eines Autors

Inhaltstyp


Olympus Forum

  • Olympus-Produkte
    • Olympus News und Aktionen
    • Olympus OM-D / PEN Kameras
    • Olympus M.Zuiko Objektive
    • Olympus OM-D- & PEN-Zubehör
    • Micro Four Thirds allgemein
    • Olympus E-System, Four Thirds und Altglas
  • Fototechnik und -gestaltung
    • Software, Bildbearbeitung & Archivierung
    • Video
    • Bildgestaltung
    • Tipps & Hilfestellung
  • Forum / Community
    • Willkommen & Vorstellung
    • Events & Usertreffen
    • Success Stories
    • Small Talk
    • Gesuche
  • Bilder
    • Bildthema des Monats
    • Menschen & Portrait
    • Landschaft
    • Experiment & Kreativ
    • Sport
    • Technik
    • Architektur
    • Tiere & Natur
    • Reise und Ausflüge
  • Hamburger Olympus Stammtisch's Programm
  • Oly-Hackers's Hardware-Forum
  • Münchner Olympusstammtisch's Themen
  • Münchner Olympusstammtisch's Termine
  • Kölner Olympus Stammtisch's Themen
  • Kölner Olympus Stammtisch's Kölner Olympus Stammtisch
  • Saarland-Pfalz-Bergstrasse's Themen
  • Saarland-Pfalz-Bergstrasse's Willkommen im Club
  • Düsseldorfer Olympus Stammtisch's Themen
  • Infrarot mit Olympus's Bilder
  • Infrarot mit Olympus's Diskussionsbereich
  • Infrarot mit Olympus's Linksammlung Infrarotfotografie
  • Astrofotografie's Clubverwaltung
  • Astrofotografie's Hardware, Methodik und Software
  • Berliner Olympus Stammtisch's -Stammtisch-
  • Berliner Olympus Stammtisch's -Fototreffen-
  • Berliner Olympus Stammtisch's -Training-
  • Berliner Olympus Stammtisch's -Tips-
  • Hannoveraner OM - Stammtisch's Themen
  • Wochenthema's Themen
  • Oly im wilden Süden (BaWü)'s Themen

Kalender

  • Community Kalender
  • Hamburger Olympus Stammtisch's Termine
  • Münchner Olympusstammtisch's Termine
  • Kölner Olympus Stammtisch's Termine
  • Düsseldorfer Olympus Stammtisch's Termine
  • Lightpainting (Lichtkunst)'s Termine
  • Olympus Stammtisch Karlsruhe's Termine Fotostammtisch Karlsruhe
  • Westfalen's Termine
  • Astrofotografie's Termine Astrofotografie
  • Berliner Olympus Stammtisch's Termine
  • Hannoveraner OM - Stammtisch's Termine
  • Oly im wilden Süden (BaWü)'s Veranstaltungen

Finde Suchtreffer ...

Suchtreffer enthalten ...


Erstellungsdatum

  • Beginn

    Ende


Zuletzt aktualisiert

  • Beginn

    Ende


Suchtreffer filtern nach ...

Benutzer seit

  • Beginn

    Ende


Gruppe


Über mich

15 Ergebnisse gefunden

  1. High5

    Olympus OM-D Webcam Beta

    Obwohl die Beta der diesen Sommer releasten Webcam Software offiziell nicht supportet wird, habe ich dennoch ein Leid zu teilen: Seit dem Body Update meiner EM-5 MK2 auf FW 4.1 wird die "Olympus OM-D Webcam Beta" scheinbar nicht mehr unterstützt. Die software ist bei skype, teams, webex zwar auswählbar, allerdings kommt kein Bild. Verbindung mir Originalkabel bei mehreren usb schnittstellen gemäss online-Anleitung. Win10, lief mit der alten FW 2.xxx einwandfrei. Gibt es jemanden, die/der ähnliches bemerkt mit 4.1?
  2. Da es gestern offiziell vorgestellt wurde, lege ich Euch für die Gradientenentfernung aus DeepSky Bildern dieses Software ans Herz: Ist Freeware und für alle Plattformen kompiliert. Derzeit hackelt noch die Umsetzung für den MAC.... aber da geht Frank noch im Video drauf ein und Rückmeldungen sind willkommen. Ich habe es vor 2-3 Wochen ausprobiert und funktioniert recht einfach und sehr gut. Wann kommt dieser Schritt: Nach dem Stacken. Das ist das was unter "Hintergrundextraktion", "Backgroundextraction" oder "Hintergrund ebnen" etc. bekannt ist. Frank hat dazu ein Video gestern veröffentlicht: https://www.youtube.com/watch?v=GBswbn-RnOwIst Für heute ist auch eine englischen Version in Arbeit...Ist gerade fertig geworden: https://www.youtube.com/watch?v=RVLvohS0qW0 Zum Download: entweder: https://www.graxpert.com/ oder gitHub: https://github.com/Steffenhir/GraXpert/releases/tag/v0.1.2 Viel Spaß! Siegfried
  3. Vor einigen Tagen hatte ich ja einen ersten brauchbaren Versuch am Hexenkopfnebel gezeigt: Nur schnell, die das Objekt nicht so kennen: IC2118 ist eine Dunkelwolke rechts des hellen Stern Rigel im Orion, der dessen Licht reflektiert. Rigel (ß-ORI) hat eine Helligkeit von um die 0 mag (Magnitute). Der Nebel selbst ist mit mag +13 schon recht dunkel, und hebt sich nur bei relativ dunklem Himmel überhaupt ab. Jede mag bedeute 2,5x weniger Licht. Zwar ist er groß und so um die 150mm Brennweite ist am FT Sensor schon fast zu groß, aber aufgrund der Lichtschwäche ist es eine große Herausforderung, ihn abzulichten. Ein möglichst dunkler Himmel hilft hier sehr. Lichtverschmutzungsfilter helfen bei solchen Reflexionsnebel auch nicht. Die zugrunde liegenden Daten konnte ich am 8.2.2019 sammeln, als es mal kurz klar war. Beim Sichern meiner vielen Daten bin ich auch auf die Rohdaten vom 14.2.2021 gestoßen. Die hatte ich mal schnell gestackt und nicht viel mehr.... So sammeln sich halt viele Projekte im Laufe der Zeit, selbst wenn der Himmel meist keine Bilder erlaubt. An diesem Screenshot zeige ich mal nur am fertigen Stack, warum es hier extrem wichtig eine Hintergrundextraktion und ein möglichst guter Himmel. hier vor allem nach unten hin, weil er bei uns ja relativ tief steht. Und natürlich erleichtern gut kalibrierte Bilder (mit Flat/BIAS oder FlatDarks) die Arbeiten wesentlich. Links oben das Bild nach dem Stacken. Da es "linear ist" habe ich es automatisch gestreckt. Rechts daneben habe ich zusätzlich den automatischen Weißabgleich angewendet. Der bringt die Farbkanäle übereinander, der Farbstich durch meine Himmel ist also raus. Man sieht auch sofort: Links ist unten am Himmel, da wird der Himmel heller. Das ist natürlich in Horizontnähe immer schlimmer und mit einer so kurzen Brennweite der einen großen Bereich am Himmel abdeckt ist der Helligkeitsunterschied zwischen dem dunkelsten Bereich und dem hellsten bald sehr groß. Da spielt nicht nur die Höhe am Himmel eine Rolle währende der Session, sondern mischen sich dann auch lokale Gegebenheiten am Himmel dazu. Mehr aber weiter unten: Stichwort "local normalization" Nach dem Stacken kommt ja der 2. wichtige Schritt: Hintergrundextraktion. Hier zur Demo schnell eine Automatische. (ABE) den Parameter der bestimmt wie viel er da als Hintergrund werten darf, kann man recht schnell durch Simulieren herausfinden. Von 0,8 bin ich also dann bei 2.0 gelandet. Hier also das Ergebnis: Links unten: Das was aus dem Bild an Hintergrund gezogen wurde, mitsamt dem Farbstich und rechts unten: Befreit vom Hintergrundgradienten sehen wir erstmals den Hexenkopfnebel. Das Bild ist natürlich automatisch gestreckt, aber ohne automatischen Weißabgleich. Für den Anfang reicht dieser Weißabgleich hier, ich lasse natürlich dann einen "Photometrischen Weißabgleich" bez. Farbkorrektur machen, damit die Farben mit den echt am Himmel gemessen Farben übereinstimmen. Der Unterschied wird hier aber nicht groß sein. Gestern gab es einen größeren Update meiner Bildbearbeitungssoftware PixInsight. Da gab es einiges an Neuerungen und Verbesserungen. Unter Anderem was praktisches, durch die Cooperation mit AstroBin quasi als "Abfallprodukt": Finding Chart So kann aus meinem Bild jetzt einfach die Himmelsumgebung zeigen lassen. Didaktisch durchaus nützlich: Kommen wir jetzt zu den "....fortlaufenden Arbeiten": Da ist es so, dass sich in letzter Zeit die Möglichkeiten enorm entwickelt haben. Wenn ich an meine Anfänge zurückblicke was man 2014/2015 so an Techniken hatte gegen 2020/21 war die Entwicklung enorm. Die weitaus meisten, heute zu Allgemeingut gewordenen Algorithmen, stammen hier aus der Raumfahrt allem voran der NASA: Stacken, Deconvolution, Dithering, Wavelets, um nur einige zu nennen. 2016 wurden mit TGV ein neuer effektiver Entrauschungsalgorithmus aus der bildgebenden Medizin, verfügbar. Seit den letzten 2 Jahren sind durch die genauen Durchmusterungen (Gaia) jetzt genaue Daten über Farben, Positionen und Geschwindigkeit verfügbar. Alles ist frei zugänglich und wird laufend verbessert. Auch halten trainierte Neuronale Netzwerke immer mehr Einzug z.B: StarNet++. Entrauschung und Schärfen mittels "KI" wie in der Fotografie mittlerweile bekannt, produzieren allerdings Artefakte, die es nicht gibt, weshalb man sie in der Astrofotografie, die mit Wissenschaft kooperieren nicht verwendet werden (auch nicht Entrauschen, egal wie!). Es gibt daneben eine weitere Anzahl an Algorithmen die in letzter Zeit immer weiter verfeinert werden und ursächlich zu einem besserem Ausgangsmaterial führen. Manche dieser Änderungen sind mehr eine Evolution denn eine Revolution. Eines dieser Probleme an dem sich derzeit viel tut ist die Frage wie bekommt man zu einem möglichst guten Stack kommt. Der Stack ist letztlich unser Ausgangsmaterial und je besser der ist, desto leichter geht die eigentliche Bildbearbeitung. Auch hat man dann nur mehr 1 (oder von jeder Farbe einen) File, was die Datenmenge erheblich reduziert: Von den ursprünglichen Files der Session(s) am Objekt (Lights) inkl. Darks/Flats/BIAS was oft nur wenige GB an Daten ist, werden zwischenzeitlich große Datenmengen produziert. Da sind mehr als 100 GB keine Seltenheit. Es liegen ja die Lightframes zunächst alle in min. 16 bit meist aber eher 32bit unkomprimiert vor. Jeder Verbesserungsschritt produziert nochmals ein großes Fileset. Der Rechenaufwand ist daher auch oft entsprechend. Und letztlich wird dass alles dann zum Stack eindampft! Alleine der Schritt: Welche der Einzelbilder ist gut genug, um sie zu stacken. Wir erinnern uns: Letztlich bestimmt die Mehrzahl eines Pixelwertes unser Endergebnis. Werden zu viele schlechte Bilder gestackt, beeinflussen sie maßgeblich unser Stacking Ergebnis. Das ist das Prinzip "Müll rein -> Müll raus). Wer sehr kritisch ist bei der Beurteilung der Rohbilder, dem bleiben oft am Ende zu wenige, aber perfekte, Bilder zum Stacken über. Die Lösung sind eine Analyse der Einzelbilder und damit die Möglichkeit Gewichtungen über Qualität dem Stacking Programm mit zu übergeben. Bei Sternen wird man den Parameter Schärfe und wie Rund (Exzentrizität) sie sind mehr Gewicht beimessen, als Helligkeit des Hintergrundes. Bei Nebel wird mehr Gewicht auf Dunkelheit gelegt. Beim Stacking Algorithmus gibt es einiges an Algorithmen die auch Helligkeitsgradienten die sich Aufgrund des Standes am Himmel über die Session automatisch ändern, berücksichtigt werden. Dazu kam dann auch einen Zwischenschritt (Local Normalization) vor dem Stacken, bei dem schlechter Hintergrund vorher mit dem Hintergrund ersetzt wird, wo dieser Teil noch besser war. Bald stellte sich aber heraus: In einem Parameter als Besser eingestufte Bilder werden bei anderen Parametern schlecht bewertet, obwohl sie augenscheinlich besser sind! Einfachstes Beispiel: Signal/Rauschen: Fliegt ein Flugzeug oder Satellit durchs Bild, wird rechnerisch das s/n besser. Obwohl das Bild so schlecht ist, dass man es besser nicht berücksichtigt. Daher hat man sich diese "Local Normalization" jetzt erneut vorgenommen und wird gerade in letzter Zeit auf ein neues Niveau gehoben. Ein stark verbesserter Algorithmus soll jetzt das Problem der falschen Gewichtungen beheben. Hier schließt sich der Kreis zu unserem Hexenkopfnebel: Diese Entwicklungen der letzten Zeit macht es nötig, in der Ausarbeitung ganz von vorne zu beginnen. Vor sicher 3-4 Jahren hatte ich mal gescherzt: "Wir werden alle damit enden: Ein Set aus Einzelbildern eines Objekte immer wieder neu mit gestiegenem Wissen und Möglichkeiten der Bildbearbeitung auszuarbeiten" In diesem Sinne: Auf eine Gutes Neues Jahr! Siegfried
  4. Es gibt jetzt die Version 2 von StarNet++ Hier hat uns der Autor informiert (inkl. Links zu den Downloads): https://www.astrobin.com/zqcm64/. Auf Cloudy Nights hat er einiges an Informationen zur neuen Version veröffentlicht. Wer es nicht kennt: Anfang 2019 war es das erste Programm wo ein neuronales Netzwerk darauf trainiert wurde, Sterne aus einem Bild zu entfernen. Das ganze ist Freeware und gibt es für MacOS (nicht M1), Windows und später sogar als Modul für PixInsight. Wozu kann man das brauchen: Es ist einfacher, wenn man Sterne und Hintergrund getrennt bearbeitet und dann das ganze hinterher vereinigt. Das wird jeder, der mal Deep Sky Bilder bearbeitet nachfühlen können 😉 Letztes Jahr wurde von Jemanden mit dem StarXTerminator ein sehr ähnliches, aber kostenpflichtiges Tool veröffentlicht. Es gibt aber eine 30 Tage Testversion, die man einfach nutzen sollte. Für mich hatte das den Vorteil, dass es auch mit linearen* Bildern arbeiten kann. Und je nach Material, lieferte mal das Eine und mal das Andere ein besseres Ergebnis. Beide hatten eines gemeinsam: Sie wurden mit Sternen aus "Linsen" Teleskopen trainiert. Damit wurden die Spikes, die Newton Teleskope bei Sternen liefern, nicht wirklich gut entfernt. Wie aufwändig ist es ein Neuronales Netzwerk zu trainieren? Fabian Neyer ein begnadeter Schweizer Astrofotograf und Bildbearbeiter stellte uns auf der CEDIC 2017 Tagung seine Methode der Sternentfernung vor (Links zum PDF Dokument). Adam Block hat 2 Videos dazu gemacht. Die wirklich guten Bildbearbeiter in meiner Umgebung benötigen in etwa 4 Stunden um ein sternloses Bild zu erstellen. Nun: Davon braucht man dann möglichst viele, so ein paar Hundert sollten es dann schon sein, um das neuronale Netzwerk darauf zu trainieren.... Was versteht man überhaupt unter einem Neuronalen Netzwerk? Wem jetzt neuronales Netzwerk nicht so geläufig ist: So funktioniert unser Gehirn, daher der Name. Wir lernen so: Sinneseindrücke verknüpfen und verfestige Verbindungen zu anderen Zellen im Gehirn (Neuronen). Sobald ähnliche Signale in unserem Hirn eintreffen, werden gleichartige "Muster" aktiviert: Die Neuronen "feuern", und wir "erkennen" etwas wieder. So ist es möglich, dass wir bald ein "Haus" erkennen, auch wenn sie sehr verschieden aussehen oder wir gar nur Teile davon sehen. Normale Computerprogramme würden schnell an solcher Aufgaben scheitern, weil sie ja nur in "Ja" oder "Nein" "denken": Ein Haus sieht so aus und wenn es von der Vorlag abweicht, ist es kein Haus mehr. So ist es für uns auch einfach möglich: Text in einem Bild automatisch zu lesen. Ein Computer muß erst eine "optische Zeichenerkennung" (OCR) machen um einen Text zu "verstehen", ansonsten besteht ein Bild blos aus Pixel mit Farb- und Helligkeitsinformationen. In der Bildgebenden Medizin gibt es sie mittlerweile auch: Sie werden z.b. darauf trainiert Krebs in den Röntgenbildern der Vorsorgeuntersuchungen zu erkennen, oder zumindest vorzuselektieren. Noch eine Anmerkung: Jede gleichartige Reizung verfestigt diese Strukturen/Vernetzungen. Mit positiven wie negativen Auswirkungen, und es ist schwer, hinterher solche eingefahrenen "Wege" wieder aufzubrechen. So hat man bei manchen psychischen Erkrankungen allem voran z.B. bei Schizophrenie, nicht viel Zeit, dass man sie auch erfolgreich Behandeln kann. Kommen wir aber zurück zu dem , was ich eigentlich zeigen wollte: Version 2 von StarNet++ kommt jetzt offenbar auch mit Bildern aus dem Newton Teleskop zurecht und es geht auch jetzt an Linearen Bildern. Hier ein kurzer Test an einem Bild, das mit der E-PL6 an meinem 800mm Spiegelteleskop ("Newton ohne Namen") enstanden ist. Hier konnte ich bei ISO1250 47 Bilder zu 4 Minuten Belichtungszeit sammeln, also 11 3/4 Stunden Gesamtbelichtungszeit. Das Objekt ist im Sternbild Perseus zum Stier zu finden und als junges großes großes Sternentstehungsgebiet ein Sammelsurium aus Emissions- und Reflektionsnebel. Also von allem etwas! Es steht als NGC 1333 in den Katalogen und ist umgangssprachlich als Embryo-Nebel bekannt: Oben: Mein lineares Bild nach Stacken und Farbkorrektur (PCC - Photometrischen Farbkorrektur) Links unten: mit der letzten Version von StarXterminator. Rechts oben: Automatisch gestreckt und StarNet++ Version 1 Rechts unten: Lineares Bild mit StarNet++ Version 2 *Lineares Bild Ein vollkommen ungestrecktes Bild aus einem RAW (pureRAW). Doppelt so viel Licht = ergibt doppelt so viel Signal in der Helligkeit. In diesem Zustand sieht man zwar nur ein nahezu schwarzes Bild, um es zu sehen muss man es zur Ansicht strecken, aber es gibt einiges an Algorithmen, die an linearen Bildern besonders gut arbeiten. Mittlerweile gibt es ja da so sensationelle Tools für die Fotografie, die da dann besonders gut entrauschen oder schärfen können. Teilweise mit trainierten neuronalen Netzwerken, die dann plausible Strukturen zaubern können, die aber real nicht immer da sind. Daher eher ein NoNo bei Astrofotografie. "Entwickler" wie LightRoom, DarkTable etc. machen an sich nichts anderes, als lineare Daten aus einem RAW ein für unser Sehempfinden gestrecktes Bild zu produzieren. Ich kann mir aber auch gut vorstellen, dass die eingestellten Korrekturen zunächst mal im Hintergrund an ungestreckten Daten vorgenommen werden. Vor allem Farbkorrekturen, Entrauschen und Schärfen. Noch eine Anmerkung: Da hier wirklich sehr komplexe Algorithmen zu Gange sind, muss man je nach Prozessorleistung schon etwas Geduld aufbringe. Vorsichtig beim Ändern von Parametern wo man nicht weiß was man da tut, es kann nötige Zeit fürs Abarbeiten auch ums x-fache erhöhen. Also einfach mal Kaffee trinken und den Computer machen lassen 😉 Siegfried
  5. Hallo, miteinander, heute wollte ich mal wieder meine Kamera Em10 MArk 2 updaten mit der Olympus Workspace Anwendung. (gibt es seit Wechsel zu OM eine andere Möglichkeit?) Leider zeigte mir das Programm nach anklicken auf update folgende Fehlermeldung an: "Diese Funktion kann mit dieser Kamera nicht verwendet werden!" - Schluck... Bisher hatte das immer geklappt. Hat jemand Rat? Gruß Steffen
  6. Hallo zusammen, weiß jemand, wo Workspace die Xmp-Dateien ablegt? In der Hilfe zu Workspace heißt es:“ Sie können Bewertungen mit einer fünfstufigen Skala hinzufügen. Bewertungsinformationen werden im XMP-Format gespeichert und können im Windows Explorer und anderer Imaging-Software überprüft werden.“ Jetzt suche ich die XMP-Dateien und frage mich, ob Workspace wie LR zu jeder ORF-Datei eine eigene XMP anlegt. Die Idee ist, die in Workspace vorgenommenen Bewertungen in LR nutzen zu können. Hat jemand hier Erfahrungen bzw. einen ähnlichen programmübergreifende Workflow? Ich würde mich über eine Rückmeldung freuen. Danke und viele Grüße bela.s
  7. Hallo Zusammen, ich versuche seid Tagen die GPS Position meiner Bilder bzw. den Weg meines "Foto-Works" mit Hilfe de "Map"-Funktion von Olympus Viewer 3 anzuzeigen. Leider bekomme ich die Fehlermeldung: "Hoppala ! Ein Fehler ist aufgetreten. Google Maps wurde auf dieser Seite nicht richtig geladen. Technische Details dazu entnimmst du der JavaScript-Konsole" Hat jemand eine Workaround ?? Idee zur Lösung ??? Idee wie ich den Fehler in der JavaScript-Konsole sehen kann ?? Idee wie ich einen andern Maps-Anbieter neben Goggle z.B. Bing, OpenStreetMap nutzen kann Danke im Voraus Gruß Stephan
  8. Seit dem update von DxO PhotoLab auf 3.2 habe ich ein Problem mit dem Programm: An sich läuft alles zügig wie vor dem update, aber: Sobald ich auf ein anderes geöffnetes Programm wechsle und anschließend wieder zu DxO zurück will, friert dieses für ~25s ein. Nach dieser Zwangspause ist alles wieder gut. Das ist streng wiederholbar. Meine Suche im DxO-forum ergab als Ursache ein Problem mit dem Netzwerk. Das dort empfohlene Einschalten von LAN erst nach DxO bringt es nicht. Schalte ich LAN und WLAN ab, ist das Einfrieren für die ½ Minute weg. Aber das kann doch nicht die Lösung sein? Hat das Problem noch jemand und hat jemand eine Lösung? (iMac, 10.14 Mojave, bloß Nutzer und kaum Programm- Kenntnisse) Dankbar für Hilfestellung und Gruß, Gerhard Damit es nicht so trocken ist ein Netzwerk das funktioniert (FT 12-60 bei 60mm f/13! und doch Bokeh)
  9. https://www.darktable.org/news/ Das neue Minor Release enthält wieder viele Neuerungen, Verbesserungen und Bugfixes. Es ist noch so frisch, dass es im Moment offenbar noch nicht auf alle Spiegelserver für Linux verteilt wurde. Gegebenenfalls muss man sich noch ein paar Minuten oder Stunden gedulden. (In meiner digital extrem rückständigen Schule hat es wunderlicherweise allerdings schon geklappt). Ob die OM-D E-M1 III beim Import unterstützt wird, kann ich daher noch nicht mitteilen.
  10. Hallo Ich bin auf der Suche nach einem einfachen Bildbearbeitungsprogramm welches bei mir als Ersatz für Picasa dienen soll, es muss so intuitiv wie möglich zu bedienen sein, da ich nicht gerne vor dem Rechner sitze, sondern lieber draußen bin und fotografiere, es sollte Bildbearbeitung und -Speicherung / Verwaltung können und es muss auf meinem IMac funktionieren. Ich benötige nicht so etwas mächtiges wie Lightroom oder ähnliches und es muss auch nicht so viel können, wichtig ist mir auch noch, dass die Menüsprache deutsch ist und es darf auch etwas kosten. Gibt es da etwas, was für mich infrage kommt, oder bin ich gezwungen, mich erst einmal eine ganze Zeit in etwas einzuarbeiten, was ich nachher nicht benötige? Gruß Frank
  11. Thema ist hier falsch, bitte löschen.
  12. Das Betreiben des OlyViewer 3 unter macOS Mojave Version 10.14.2 zeigt bei Anspruch.- und Reaktionszeiten je Mausklick von 2-5 Sekunden. Manchmal sogar mehr ( Arbeitsspeicher 16 GB ). Unter High Sierra lief alles ganz normal. Dies erschwert die Nutzung enorm, ja macht sie im Grunde für mich unmöglich. Die in einem anderen Beitrag angesprochene Softwareaktualisierung der EM 1 II konnte ich auch nicht durchführen. Es kam Sinngemäß der Hinweis, die Software sei nicht für Mojave geeignet, bitte wenden sie sich an den Entwickler. Auf meinem älteren MacBOOK läuft noch High Sierra, da konnte ich das Update der EM 1 II dann ohne Probleme durchführen. Habt Ihr ähnliche Erfahrungen gemacht ? Weis jemand ob OLYMPUS das Problem kennt, bzw. daran arbeitet ? Grüße aus Landau und schöne Weihnachten Thomas
  13. Hallo, ich bin unschlüssig, womit ich weitermache: Habe auf dem iMac Foto (Apple), Photoshop Elements 2019, Olympus Workspace. Am einfachsten für mich als Noch-Laien scheint Foto zu sein, aber ich habe Zweifel, ob das auf Dauer reicht. Am wenigsten komme ich bislang mit Workspace klar. Was sind denn Erfahrungen / Empfehlungen? Danke schon mal!
  14. Bin irgendwo drüber gestolpert über die freie Software Stellarium PC und webApp und bin totoal begeistert! Kurzanleitung und shortcuts gibts es auf Deutsch und ein ausführliches Benutzerhandbuch in Englisch. Das ist ein guter Ersatz für das Calsky. Eine Stunde Einstellen von Standort und Präferenzen sowie Ausprobieren waren schon mal top! Hab mir die Starlinks für heute Abend angeschaut, aber leider trüber Himmel heute. Und so sieht es eben am Himmel ohne Atmosphäre aus: Alle Planetenund Sonne fast in Konjunktion
  15. Hallo, habe wieder Corona-bedingt Zeit anders verwendet und ein bisschen etwas über Autofokus zusammengeschrieben, wie das ungefähr technisch funktioniert (oder wie ich es mir halt vorstelle) und wie man sich das Leben leichter machen kann. Teils allgemeingültig für alle Kameras, teils spezifisch für Olympus: https://www.smile.pics/autofokus/
×
×
  • Neu erstellen...

Wichtige Information

Wenn Sie diese Seite nutzen, stimmen Sie den Community-Regeln zu. Wir haben Cookies gesetzt, um die Bedienung des Forums zu verbessern. Du kannst deine Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass du damit einverstanden bist. Mehr Informationen in unserer Datenschutzerklärung