Jump to content

Olympus OM-D E-M1 III: Volle Performance, kompaktes Format


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 4 Minuten schrieb flyingrooster:

Ich weiß, diese Erkenntnis ist so alt wie beide erwähnte Systeme. Nutze beide (mFT und KB DSLMs) jeweils seit ihrer Ersterscheinung parallel.

Es wird ja manchmal vergessen, dass das SKF auch ein Forum für Leute ist, die nicht von Anfang an dabei sind und sich womöglich auch über das Mitteilen von schon älteren Erkenntnissen freuen 😉  

Link zum Beitrag
Auf anderen Seiten teilen

23 minutes ago, supmylo said:

Es wird ja manchmal vergessen, dass das SKF auch ein Forum für Leute ist, die nicht von Anfang an dabei sind und sich womöglich auch über das Mitteilen von schon älteren Erkenntnissen freuen 😉  

Und ich dachte der lexikale Charakter der OT-vermeidenden Themen erfüllte bereits diesen Zweck. ;)

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb flyingrooster:

Und ich dachte der lexikale Charakter der OT-vermeidenden Themen erfüllte bereits diesen Zweck. ;)

Man könnte ja mal ein Lexikon der schon tausendfach mitgeteilten Erkenntnisse anlegen. „Jedes System hat seine Vor- und Nachteile.“, „MFT ist tot.“, „KB ist schwer und teuer.“ etc. mit Verlinkungen zu Zitaten inkl. der Kontrapositionen. Wenn man dann etwas schreibt, teilt einem das System mit, dass flyingrooster dieselbe Erkenntnis schon vor 5 Jahren hatte, oder so... 😜

Link zum Beitrag
Auf anderen Seiten teilen

12 minutes ago, supmylo said:

Man könnte ja mal ein Lexikon der schon tausendfach mitgeteilten Erkenntnisse anlegen. „Jedes System hat seine Vor- und Nachteile.“, „MFT ist tot.“, „KB ist schwer und teuer.“ etc. mit Verlinkungen zu Zitaten inkl. der Kontrapositionen.

Ich glaube dann könnte man das Forum schließen … ;)

Link zum Beitrag
Auf anderen Seiten teilen

Mal was (relativ) Neues: Weiß zufällig jemand (oder hätte eine Quelle dafür) wie die Funktion Live ND Filter abläuft, sprich wieviele Aufnahmen dabei, eventuell in Abhängigkeit von der gewählten Stufe und Belichtungszeit, geschossen und gemittelt werden? Die Bedienungsanleitung der E-M1 III (und E-M1X) beschreibt leider einzig die Durchführung selbst. Danke.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 26 Minuten schrieb flyingrooster:

Ich glaube dann könnte man das Forum schließen … ;)

Ja, das ist wohl so...

Zurückkommend zum Thema würde mich interessieren, wie gut oder schlecht der Hand-held-HiRes-Modus in der Praxis funktioniert. Fotos aus der M1X fand ich ziemlich überzeugend. Dass sich nichts bewegen darf und die Verschlusszeiten kurz sein sollten, ist klar.

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Nikoniac:

Inwieweit RAWs kameraintern geschärft werden, entzieht sich meiner Kenntnis.

Deshalb würde ich mir nicht nur das Rauschen ansehen, sondern immer auch die Detailwiedergabe berücksichtigen.

vor 1 Stunde schrieb Nikoniac:

Das beeinflusst letztlicht nicht die Aussage, dass der ältere Sensor der Olympus mit aktuellen mindestens mithalten kann. Und das sogar ohne die sagenumwobene BSI-Technik.

Wie gesagt, Olympus ist bei hohen ISO-Werten erstaunlich gut, aber auf Kosten der bestmöglich Bildqualität (also Basis ISO) bei normaler Einzelaufnahme. Bei zurückhaltender Belichtung (um ein Ausbrennen der Lichter zu vermeiden) habe ich schon hier und da selbst bei Basis-ISO eine starke Körnung erhalten in gleichmäßigen Flächen, die ich erst mit Topaz Denoise wirklich zufriedenstellen in den Griff bekomme habe. Mit APS-C ohne BSI, aber Basis ISO 100, hatte ich das Problem nicht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb pizzastein:

 

 Mit APS-C ohne BSI, aber Basis ISO 100, hatte ich das Problem nicht.

Beim Vergleich der Leistungsfähigkeit von Sensortechnik macht es in erster Linie Sinn, die Pixelgrößen zu vergleichen. Deshalb sagt "Mit APS-C ohne BSI" erstmal nichts aus. War das jetzt ein 6MP oder ein 60MP APS-C Sensor? Ausschießlich die benutzte Chip-Technologie sowie die Pixelgröße sind die Parameter, die die Qualität bestimmen. Die Vergleichbarkeit leidet leider sehr darunter, dass intern noch einiges durch Algorithmen verschleiert wird und keine echten RAWs ausgegeben werden.

Ich bin selbst kein großer Fan von 100% Pixel-Peeperei, ich wundere mich eher über Menschen, die FORDERN, dass Olympus doch bitteschön mal den Sensor zu überarbeiten hätte, also mehr Auflösung und aus jeden Fall mit BSI. Nur aus diesem Grund habe ich neuere Sensoren mit dem alten der Olympus Kameras verglichen, mit der Ergebnis, dass dieser technologisch aktuell ist und erwartbares, vergleichbares Rauschen erzeugt.

bearbeitet von Nikoniac
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb flyingrooster:

Und ich dachte der lexikale Charakter der OT-vermeidenden Themen erfüllte bereits diesen Zweck. ;)

Das ist hier kein Gesundheitsforum, deswegen wird Andreas mir möglicherweise nicht zustimmen.

Eine Gesundheitsberaterin empfahl mir als Demenzvorsorge: Machen sie etwas anderes, putzen Sie mit der linken Hand die Zähne, bürsten Sie gegen den Strich. Also (das hat sie nicht gesagt, weil sie das Forum nicht kennt) schreiben Sie OT. 🥴

Link zum Beitrag
Auf anderen Seiten teilen

Gibt es bei der Mark 3 eine Möglichkeit, das 30 Minuten Limit bei Video zu entfernen? Bei der Mark 2 geht das nur bis Firmware 3.0. Das wäre für mich der einzige Grund über einen Kauf der Mark 3 nachzudenken. Ansonsten warte ich lieber auf die GH6, die soll ja dieses Jahr rauskommen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb flyingrooster:

Mal was (relativ) Neues: Weiß zufällig jemand (oder hätte eine Quelle dafür) wie die Funktion Live ND Filter abläuft, sprich wieviele Aufnahmen dabei, eventuell in Abhängigkeit von der gewählten Stufe und Belichtungszeit, geschossen und gemittelt werden? Die Bedienungsanleitung der E-M1 III (und E-M1X) beschreibt leider einzig die Durchführung selbst. Danke.

Du bekommst so wie bei LiveComposite immer nur 1 Bild (JPG + RAW). Der ND Effekt ergibt sich aus der Kombination von eingestellter Belichtungszeit und gewählter Stärke des ND Filters.
Man kann das ganz gut aus der Hand nutzen.

Link zum Beitrag
Auf anderen Seiten teilen

1 hour ago, acahaya said:

Du bekommst so wie bei LiveComposite immer nur 1 Bild (JPG + RAW). Der ND Effekt ergibt sich aus der Kombination von eingestellter Belichtungszeit und gewählter Stärke des ND Filters.
Man kann das ganz gut aus der Hand nutzen.

Danke für deine Info.

Am Ende nur ein einziges Bild zu erhalten ist mir bewusst. Da der ND-Filter nicht physischer Natur ist, werden bei dieser Funktion jedoch mehrere Aufnahmen hintereinander angefertigt und anschließend, für das eine Gesamtbild, gemittelt. Ich frage mich nun wieviele Einzelbilder (oder in welcher Frequenz) je nach Einstellung dafür aufgenommen werden um grob abschätzen zu können wie „rund“ das kombinierte Endergebnis wirkt und ob es eine vollumfängliche Alternative zu physischen Filtern darstellen könnte (mal abgesehen von der Grenze von max. +5 EV Verlängerung). Live Composite, welchem vermutlich ähnliche Aufnahmemethodik zugrunde liegt, wirkt bspw. bei Wolken durchaus interessant, aber recht artifiziell (sofern man fließendere Übergänge als natürlicher einstufen mag) und nicht sonderlich „rund“. Wobei dieser Eindruck aufgrund des alleinigen Hinzufügens hellerer Pixel, anstatt einer helligkeitsunabhägigen Mittelung wie bei ND, auch täuschen mag.

Da ich mich vermehrt für Langzeitaufnahmen (bspw. hier) begeistern kann, hielte ich die Funktion Live ND Filter grundsätzlich auch bei den Olys für interessant. Ein paar Aufnahmen von fließendem Wasser mittels Live ND Filter habe ich gefunden und diese wirken, bis auf Wasserspritzer, durchaus „rund“. Da sich Wolken jedoch meist (relativ gesehen) langsamer durchs Bild bewegen, könnte dies in vergleichbar fließender Form ohne sichtbare Übergänge fordernder sein.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Es ist schwer zu sagen, wieviele Bilder gemacht und verrechnet werden, weil Du das - anders als bei Live Composite - nicht mitbekommst. Man könnte das vielleicht ausrechnen, wenn man tatsächliche Belichtungszeit und gewählte Filterstärke mit herkömmlich gemachten  Bildern vergleicht. Aber wenn zusätzlich die Bewegungsrichtung von allem was sich bewegt analysiert und mit einberechnet wird, scheint mir das schwierig.

Link zum Beitrag
Auf anderen Seiten teilen

Ich wäre jetzt ganz naiv davon ausgegangen, dass bei ND2 zwei Bilder gemacht werden, 4 Bilder bei ND4 usw., ganz einfach damit die Belichtung vom Sensor her passt. Ansonsten müssen Lichter ausbrennen (längere Belichtungszeit) oder deutlich mehr Bilder miteinander kombiniert werden (kürzere Einzelbelichtungen).

vor 23 Minuten schrieb acahaya:

Aber wenn zusätzlich die Bewegungsrichtung von allem was sich bewegt analysiert und mit einberechnet wird, scheint mir das schwierig.

Werden wirklich Bildinhalte analysiert  (wie es z.B. Photoshop macht zum Ausrichten übereinandergelegter Bilder) oder meinst Du Daten der Bildstabilisierung, um die Einzelbilder korrekt übereinanderzulegen?

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Stunden schrieb Nikoniac:

Finde ich gar nicht. Bildrate, Baugröße, Gewicht, Stabilisierung, Hi-Res, ProCapture, LiveComposite etc. Nur wer Rauschen und Freistellpotential isoliert betrachtet, findet das Datenblatt schlechter.

In Puncto Rauschen und "überholter" Sensor möchte ich, auch wenn es schon totdiskutiert wurde, noch eines anmerken: habe kürzlich (wie andere vermutlich auch) mal den Vergleich bei DPReview zwischen der Sony A7R IV und der E-M1 Mark II gemacht. Die Sony hat 61 MP, die E-M1 II 20 MP. D.h. die Pixeldichte ich bei der Olympus höher. Die A7 müsst ja theoretisch 80 MP mit der Pixeldichte der Oly aufweisen. In der 100% Ansicht bei z.b. ISO 3200 konnte ich nur feststellen, dass die Sony etwas mehr rauscht, obwohl die Pixeldichte geringer ist. Was bedeutet: der Olympus Sensor ist technisch auf der Höhe der Zeit, egal welche Technik zum Einsatz kommt, ob BSI oder nicht.

So ist es. Wer sich die Technik mal genauer angesehen hat, dem ist das schon viel früher aufgefallen.

vor 20 Stunden schrieb cyco:

Skalier mal das Sony-Bild auf 20 MP runter. Dann macht der Vergleich mehr Sinn.

Macht keinen Sinn, wenn es um den Technologiestand geht.

vor 20 Stunden schrieb Nikoniac:

Nein, absolut nicht. Dass der Sony Sensor größer ist und mehr Pixel besitzt, ist nicht das Thema. Es geht um die Technologie, die ja angeblich veraltet ist. Und das ist sie nicht, wenn man die 100% Ausschnitte vergleicht. Ganz im Gegenteil, müsste doch der Olympus-Sensor mehr rauschen, da er eine höhere Pixeldichte aufweist.

Genau deshalb.

Über den Vorteil der größeren Fläche brauchen wir hier nicht zu diskutieren. Das müssten eigentlich die meisten schon mit der Muttermilch aufgesogen haben.

Für Stills kannn man dann ja auch mal HighRes mFT mit nativ hochauflösend KB vergleichen.....

Inzwischen werden die hochgelobten und teuren KB-Boliden von vor ein paar Jahren von der Technologie in dem gern gedissten mFT-Sensor problemlos in die Tasche gesteckt. Und wenn wir dann auch noch darüber reden, was wofür noch sinnvoll ist, dann sind wir endgültig aus dem Alter des Quartettspielens heraus gewachsen.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

3 hours ago, acahaya said:

Es ist schwer zu sagen, wieviele Bilder gemacht und verrechnet werden, weil Du das - anders als bei Live Composite - nicht mitbekommst.

Meist kann man heutzutage Anfang und Ende der Aufnahmen nichtmal akustisch zuordnen – diese elektronischen Verschlüsse sind ein Hund … ;)

2 hours ago, pizzastein said:

Ich wäre jetzt ganz naiv davon ausgegangen, dass bei ND2 zwei Bilder gemacht werden, 4 Bilder bei ND4 usw., ganz einfach damit die Belichtung vom Sensor her passt. Ansonsten müssen Lichter ausbrennen (längere Belichtungszeit) oder deutlich mehr Bilder miteinander kombiniert werden (kürzere Einzelbelichtungen).

Wäre eine Möglichkeit.

Ich habe nun übrigens hier bei Getolympus auch mal zumindest ein Bild mit Wolken gefunden (das oberste Foto). Aufgrund der Belichtungszeit von 60 Sekunden bei strahlendem Sonnenschein, vermute ich eine der höheren (oder die höchste) Stufe des digitalen Filters, trotz ISO 64 und f/10. Leider werden die jeweils getätigten Einstellungen dieser Funktion, trotz Erläuterung eben selbiger, nicht angegeben – ausgesprochen sinnvoll …
Vor allem im oberen, mittleren Bereich des Bildes sind bei den Wolken deutliche Abstufungen zu erkennen. Deiner durchaus naheliegenden Vermutung zugrunde, @pizzastein, sowie meiner Annahme der höchsten Filterstufe, wären hierbei 32 Aufnahmen zu schießen. Es lässt sich zwar nur grob schätzen, aber mir sieht das nach deutlich weniger aus.

So oder so scheint mir die Funktion auf den ersten Blick nicht unbedingt als das Mittel der Wahl für Bilder mit Wolken. Bei fließendem Wasser sieht die Sache weitaus „flüssiger“ aus. Vermutlich daher auch die bildseitige Konzentration darauf. Auch dabei wirkt Weniges nicht wie mit physischen Filtern (muss es aber auch nicht zwangsläufig), bspw. beim vierten Bild von oben, dessen für mich an gebürstetes Metall erinnernde Look der Highlights entwickelt jedoch wieder einen ganz eigenen Reiz …

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb flyingrooster:

Vor allem im oberen, mittleren Bereich des Bildes sind bei den Wolken deutliche Abstufungen zu erkennen.

Das sieht in der Tat sehr merkwürdig aus. Ich hätte gedacht, die technische Umsetzung von LiveND wäre trivial, da manuell selber hier und da eingesetzt (Serienaufnahme und Bilder in Photoshop ausrichten lassen und übereinandergelegt). Irgendwie habe ich das Gefühl, Olympus realisiert das über eine technische Verrenkung, die nicht frei von Artefakten ist, aber warum :confused:

Link zum Beitrag
Auf anderen Seiten teilen

Vor allem weist das Wasser des Baches auch Artefakte auf, die das Bild für mich Richtung "unbrauchbar" gehen lassen würden. Bei ziehenden Wolken sieht auch der Live-Composite Effekt ähnlich aus.

Eigentlich haben beinahe alle berechneten Effekte, die eine herkömmliche Methode ersetzen sollen, immer irgendwelche Nachteile. Egal ob LiveND, LiveComposite, HiRes oder in-Camera Focus-Stacking. Alles lässt sich in Handarbeit zwar aufwändiger, aber Qualitativ besser umsetzen, von Hi-Res mal abgesehen, wobei selbst das funktionieren kann.

Anbei noch ein Bildchen, das zwar im Prinzip gelungen ist, dem aber auch Artefakte von der Kamera mitgegeben wurden. Erstellt wurde es mit LiveComposite und einer E-M10 II. Im Unterschied zu einer "echten" Langzeitbelichtung sind die weißen Linien der Scheinwerfen leider unterbrochen. Vermutlich durch die sehr kurze Dunkelzeit, in der die Kamera die Daten des Sensors übernimmt, dieser dafür kein Licht sammeln kann.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Nikoniac
Ergänzung
Link zum Beitrag
Auf anderen Seiten teilen

Nun mag es sein, dass das Bild an der einen oder anderen Ecke ein paar "Artefakte" hat. Aber wem fällt das im Vollbild auf, wenn das Motiv und die Bildidee sonst stimmen und den Betrachter beeindruckt? Wieviel Aufwand müsste ich mit einer anderen Methode anwenden, um auf das "artefaktfreie" Äquivalent zu kommen.

Die "Live" Funktionen von Olympus sind darauf ausgerichtet, dem Anwender "out of the box" Dinge zu ermöglichen, die sonst nur mit erheblichem Aufwand und zusätzlichem Equipment möglich sind (und auch deutlich mehr Fachwissen). Nach dem Paretoprinzip werden dafür ein paar Kompromisse (d.h. hier Artefakte) in Kauf genommen, welche aber die betrachtete Zielgruppe kaum auffallen oder stören würden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb tgutgu:

Nun mag es sein, dass das Bild an der einen oder anderen Ecke ein paar "Artefakte" hat. Aber wem fällt das im Vollbild auf, wenn das Motiv und die Bildidee sonst stimmen und den Betrachter beeindruckt? Wieviel Aufwand müsste ich mit einer anderen Methode anwenden, um auf das "artefaktfreie" Äquivalent zu kommen.

Ja, dem stimme ich zu. Nur sollten Funktionen dann auch entsprechend ihrer Eignung/Einschränkungen beschrieben werden. Und so sollte niemand behaupten, dass man in Zukunft seinen ND-Filter nicht mehr braucht. Die eingebauten Verlängerungsfaktoren sind ja eh sehr begrenzt.

Die Frage ist dann irgendwann vielleicht, wo man die Grenze zieht. Wer sich zum Beispiel Haare auf Portraits anschaut, die vom iPhone stammen und eine Freistellung erfahren haben, findet wohl, dass die Grenze dort überschritten wurde. Aber ok, für Instagram reicht das wohl meistens aus.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...