Jump to content

Olympus stellt die neue OM-D E-M5 vor


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

So dachte ich, ja. Man könnte nun die Gefahr des Ausfressens bis zu einem gewissen Grad ignorieren. Aber man merkt schon, das ist keine triviale Angelegenheit. Bei den Schatten kann sich schon etwas tun, den das zufällig verteilte Rauschen wird nun durch übereinanderlegen teilweise ausgeglichen. WENN der Konrastumfang bekannt ist, DANN kann die Belichtungsmessung entscheiden ob Mehrfachauslesen oder nicht. Man könnte es auch grundsätzlich machen oder wie bei den Fujis per 200% oder 400% (weils so gut klingt, aber es sind ja eigentlich eine oder zwei Stufen) vorwählen, wenn die Kamera hohen Kontrastumfang meldet (Histogramm, sie merkt es ja). Die ganze Sache macht ja auch nur begrenzt Sinn, denn die schwarze Katze bei Gegenlicht unter der Treppe durchgezeichnet abbilden und gleichzeitig die Sonnenflecken der prallen Sonne zählen können wird nicht das tolle Bild ergeben. Abgesehe davon, dass dann noch ein paar andere Gesetzmäßigkeiten ungebeten mitspielen und uns die Suppe versalzen. Vor dem Sensor befindet sich in der Regel ja auch noch ein Objektiv, dessen Eigenschaften bei solchen Dynamikbetrachtungen gerne unterschlagen werden. Bei kleinem Flächenanteil der Lichtquelle und nicht gerade der Helligkeit der Sonne kann man aber schon ganz schön weit kommen, bis zum sichtbaren Glühfaden bei Nachtaufnahmen zum Beispiel. Ob das "schön" ist sei mal dahingestellt.

 

ein Gedankenspiel:

nehmen wir mal an, dass dies alles -ohne anderer Probleme wie Doppelkonturen und Geisterbilder - funktionieren würde...

wäre das dann wirklich ein Dynamic-Gewinn...?:rolleyes:

oder eher eine Daten-Kompression?

denn eigentlich werden da dann doch "nur" die Lichter beschnitten oder besser: zusammengestaucht (was ich schon mal toll fände ;))

nur wird dabei die Dynamic negativ verändert. Es ist also eher eine Empfindlichkeits-Senkung - vielleicht auf 100ASA (was ich auch gut fände)

weil nun die Schatten mehr Licht bekommen und die Lichter kompremiert werden.

Nur: wenn ich dann 2 Lampen mit 60W und 100W fotografiere ....

würde dann wohl eine 60W Lampe und eine 100W Lampe gleich hell erscheinen.:rolleyes:

weil in den Lichtern die Dynamic verloren ginge...

Es wäre also wohl eher eine Dynamic-Verschiebung, von den Lichtern in den Schatten...

aber kein echter Dynamic-Gewinn...:rolleyes:

 

Es ist doch wie bei der Musik, keine CD liefert die tatsächliche Dynamic eines Konzertes, das könnte sich auch wohl kein Mensch wirklich anhören, darum wird es Eingangseitig kompremiert...

oder ein anderes Beispiel: nehmen wir an, wir haben einen Tunnel (Dynamic) mit 4m Höhe, ein Bus mit 4,1m Höhe kommt da aber nicht durch. Läßt man aber die Luft aus den Reifen, dann passt er durch... nur der Tunnel (Dynamic) ist dabei doch gleich geblieben ....:rolleyes:

einfach ein Gedankenspiel....

bearbeitet von dibo
Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 569
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

@dibo:

Kein falsches Gedankenspiel. Was machen wir denn eigentlich IMMER? Wir quetschen die Motivdynamik in die Ausgabedynamik des Papiers oder des Monitors. Würden wir das nicht tun und die Ausgabemedien könnten die Original-Motivdynamik wiedergeben, dann müssten wir uns bei der Betrachtung unserer Hochgebirgspanoramen mit der Sonnenbrille und Sonnenschutzchreme vor den Monitor setzen. Mit der Mehrfachauslesemethode quetschen wir nur eben noch etwas mehr Motivdynamik in das Ausgabemedium. Das ist es doch das, was gewollt ist. Ich fürchte nur, dass es dann eine Menge Leute geben wird, die sich über die dann so flauen Bilder beschweren. Wie das dann aussieht, kannman ja ausprobieren, indem man den Kontrast der aktuellen Bilder bis zum Abwinken verringert. Als Resultat wird man dann die Schatten und Lichter in vielen Fällen wieder beschneiden, damit es einigermaßen natürlich aussieht. Wetten dass?;)

Link zum Beitrag
Auf anderen Seiten teilen

...

Nö, mein Lieber Olympus gibt tatsächlich nur 0,3 EV mehr Dynamikumfang an!

 

Das entspricht 33 % mehr Photonen die die Photodiode aushält bevor sie schlapp macht....

 

Nun, da der Dynamikumfang zwei Enden hat, reicht die Angabe der Sättigungsgrenze aber nicht aus.

Was ist mit dem anderen Ende?

Angenommen, die Angabe von 1,5 Blendenwerten weniger Rauschen stimmt, dann bekommen wir ein Problem mit "nur" 0,3 EV mehr Dynamikumfang - das würde nämlich bedeuten die Photodioden halten nicht mehr aus, sondern erheblich weniger.

 

 

...

Pekka Potka hat sich da extrem vermessen.

 

Oder sein Testen und Messen basiert auf einem Potkemischen Dorf.

...

 

Ich behaupte das gilt für alle "Dynamikmessungen" die da herumgeistern, weil einfach die Einflüsse der Signalaufbereitung sich so gravierend auf das untere Ende (den Divisor) auswirken, daß da größtenteils Quatsch herauskommt. Deshalb differieren die Messungen auch so extrem - oftmals auch zwischen baugleichen Sensoren in verschiedenen Kameras. Daß ein Pixel des selben (oder sehr ähnlichen Sensors) in Kamera X plötzlich 2-oder 4 mal soviel Kapazität hat wie in Kamera Y, halte ich für ungefähr so plausibel, wie das Erscheinen des Osterhasen.

 

Es bleibt aber die Hoffnung, daß DXO und Co. zu ähnlichen Ergebnissen kommen wie Pettka, damit endlich auch die FT/µFTler beruhigt schlafen können.

Mit so einem Dynamikzertifikat kann man nicht nur besser fotografieren, sondern tut sich auch in Internetdiskussionen viel leichter.

 

LG Horstl

Link zum Beitrag
Auf anderen Seiten teilen

. . . Als Resultat wird man dann die Schatten und Lichter in vielen Fällen wieder beschneiden, damit es einigermaßen natürlich aussieht. Wetten dass?;)

 

Hallo Wolfgang,

 

 

am Anfang passiert vielleicht genau das - bis man gelernt hat, mit den zusätzlichen Informationen richtig umzugehen.

 

Ich bin beispielsweise kein Freund "gepuschter HDR Montagen", aber wenn ein Könner die Technik behutsam einsetzt kann er wahre Wunder vollbringen: Der HDR-Effekt gerade so justiert, dass er fast schon nicht nicht mehr auffällt. Nur bin ich nicht der Typ, um mit Stativ die dafür erforderlichen Sequenzen einzufangen um sie anschließend mittels spezieller HDR-Software aufzubereiten - erstens will ich Spontanität beim Fotografieren, zweitens läuft mein Workflow in Lightroom ab, zusätzliche Software einzusetzen ist nur schwerfälliger Umweg.

 

Meine Hoffnung ist es daher, die Kamera mit "integrierter HDR Sequenz" zu erhalten - die volle Helligkeitsinformation in einer einzigen (RAW-) Aufnahme. Die OM-D ist sicher ein Schritt in die richtige Richtung, aber vermutlich auch noch nicht das Ende der Fahnenstange.

 

Aber es freut mich, dass es überhaupt einen Kamerahersteller gibt, der das Risiko eingeht, solche Details abseits des "Massengeschmacks" zu optimieren um damit eine ganz spezielle Kundschaft anzusprechen. Ich hoffe, das Konzept geht auf.

 

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Irgendwie ist das hier doch alles Flüsterpost :rolleyes::D

 

Und dank Pekka haben wir jetzt noch eine Grafik, von der wir nicht so recht wissen, was sie eigentlich aussagt, da wir weder die verglichenen Fotos sehen können, noch genau wissen, was er da eigentlich gemessen hat.

 

Ich habe seine Aussagen so verstanden, dass er den bewältigten Dynamikumfang verglichen hat (nicht gemessen). Und da hat er eben bei der E-M5 in den Lichtern 0,3, und in den Schatten 1,7 EV Vorsprung gesehen.

Macht nach seiner Herangehensweise nunmal 2 EV Differenz. Fairerweise schreibt er sogar noch dazu, dass das schon mit einem anderen Konverter anders aussehen könnte. Aber wenns so wäre, wäre es doch schön, oder? Selbst "nur" 1,5 EV in den Schatten helfen ungemein...

 

LG Holger

Link zum Beitrag
Auf anderen Seiten teilen

und ich warte bis der Body merklich unter die 1000E Grenze gesunken ist,

am liebsten waere mir sowieso eine gebrauchte.

 

Bis dahin werde ich jetzt erstmal mit meiner gerade guenstig erworbenen E3 und dem 50-200 vergnuegen. :D

Link zum Beitrag
Auf anderen Seiten teilen

Beides hat Vor- und Nachteile. Ich bevorzuge momentan das voll schwenkbare Display.

 

Ich auch - der schwenk- und drehbare Monitor ist sicher die flexibelste Lösung, die jeder Situation gerecht wird. Es ist mir schlicht unverständlich, warum Olympus die EM-5 nur mit einem Klappdisplay ausgestattet hat - nachdem ja sowohl die E-3 wie auch die E-5 mit dem schwenk- und drehbaren Bildschirm bestückt worden waren. Meiner Ansicht nach ein eindeutiger Rückschritt!

Aber soweit ich das aus den Spezifikationen ersehen kann der einzige Nachteil dieser sonst fast perfekt ausgestatteten Kamera.

Ob ich (als Lumix GH2-Fotograf) die Oly OM-D aber auch kaufe, hängt einzig von den Eigenschaften der noch kommenden Lumix GH3 ab - was sehr für die Olympus spricht ist der 5achsige Stabilisator - wer die Qual hat hat die Wahl!

 

Gruss, Markus

Link zum Beitrag
Auf anderen Seiten teilen

Ich auch - der schwenk- und drehbare Monitor ist sicher die flexibelste Lösung, die jeder Situation gerecht wird. Es ist mir schlicht unverständlich, warum Olympus die EM-5 nur mit einem Klappdisplay ausgestattet hat - nachdem ja sowohl die E-3 wie auch die E-5 mit dem schwenk- und drehbaren Bildschirm bestückt worden waren. Meiner Ansicht nach ein eindeutiger Rückschritt!

 

Das ist halt immer eine Frage der persönlichen Bedürfnisse. Das Schwenkdisplay an meiner E-30 / E-5 und auch meiner G1 verwende ich nie. Das Klappdisplay der E-PL3 hingegen nutze ich fast ständig - wie einen Lichtschachtsucher. Das geht mit Schwenkdisplays einfach nicht, weil sie nach links ausgeklappt ein komfortables Halten der Kamera praktisch unmöglich machen. Und dass das Display dann weit von der optischen Achse entfernt ist, macht MIR das Komponieren des Bildes auch deutlich schwerer.

 

Mir ist aber auch klar, dass ein Schwenkdisplay für Hochformat-Fotografie und für Makro-Fotografie vom Stativ die sinnvollere Variante ist.

 

Fazit: Für mich ist das Klappdisplay kein Rückschritt sondern einfach ein anderer Ansatz, der MEINEN Bedürfnissen wesentlich mehr entgegenkommt.

Link zum Beitrag
Auf anderen Seiten teilen

 

Danke für den link.

Es handelt sich also um rotatorische Gegenbewegungen des Sensors um drei Achsen und translatorische entlang zwei Achsen? Rotiert der Sensor tatsächlich ein Stückchen um die drei Achsen? Erstaunlich!

Link zum Beitrag
Auf anderen Seiten teilen

(...) Rotiert der Sensor tatsächlich ein Stückchen um die drei Achsen? Erstaunlich!

Dachte ich, erstaunlich! Mich würde als Techniker ja zu sehr interessieren, wie sie es mit der Rotation um die beiden senkrecht zur optischen Achse gelegenen Achsen realisiert haben. Viel Auslenkung braucht man da ja nicht, aber gerade auf dem kleinen Weg bei hoher Lichtstärke präzise zu regeln stelle ich mir nicht einfach vor. Vielleicht denke ich auch zu kompliziert.

Link zum Beitrag
Auf anderen Seiten teilen

Welche fünf Stabilisierte Achsen sind das eigentlich?

 

1. von vorne nach hinten durch das Objektiv

2. von links nach rechts durch die Kamera

3. von oben nach unten durch die Kamera

4. ?

5. ?

 

Entlang der 3 Raumachsen Verschiebung / Translation plus 3 mal Rotation um dieselben Achsen (=6) abzüglich der Translation in Längsachse Kamera = 5.

 

Translation in Längsachse Kamera erledigt der AF.

 

Könnte so sein, aber sicher weiß ich es auch nicht.

 

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Dachte ich, erstaunlich! Mich würde als Techniker ja zu sehr interessieren, wie sie es mit der Rotation um die beiden senkrecht zur optischen Achse gelegenen Achsen realisiert haben. Viel Auslenkung braucht man da ja nicht, aber gerade auf dem kleinen Weg bei hoher Lichtstärke präzise zu regeln stelle ich mir nicht einfach vor. Vielleicht denke ich auch zu kompliziert.

 

Hallo Wolfgang,

 

Um diese "5 Achskorrektur" zu realisieren, muss man den Sensor möglicherweise nicht um 5 Achsen bewegen können.

 

Meine Theorie hierzu ist, dass mittels Gyrosensoren aus den Bewegungen über 5 Achsen (3 Raumachsen Translation + 3 Rotation abzüglich Längsachse Kamera, da auf der "Projektionsfläche Sensor" praktisch vernachlässigbar) eine Korrektur über die X- und Y-Richtung des Sensors berechnet wird (diese Verschiebung kann einige mm betragen, weiß ich noch aus den Sony Unterlagen), sowie, und das ist das Neue am Verfahren, eine Rotation des Sensors um ein möglicherweise frei definierbares Zentrum, also nicht zwangsweise die Mitte, aber eine Rotation parallel zur Sensorebene. Letztere Korrektur kann möglicherweise sehr klein sein, bedingt durch die Abbildung der Kamerabewegung auf die Sensorfläche. Und das Olympus Video scheint zu belegen, dass eine solche Rotation stattfindet.

 

Meine Kernaussage ist also, dass 5 Achsen / Bewegungen erfasst, dass aber auf Sensorebene (!) nur 3 korrigiert werden, bedingt dadurch, dass wir ja "nur" eine korrigierte, 2-dimensionale Abbildung haben wollen, und bei dieser Projektion werden halt einige "dreidimensionale Freiheitsgrade" plattgemacht. In erster Näherung.

 

Zu kompliziert denkst Du hier sicher nicht: Nicht zuletzt das in den letzten Jahren stark angestiegene Interesse an Drohnen hat nämlich genau zu den erforderlichen Technologien geführt: Hochwertigste Gyrosensoren sowie Prozessoren und Software zur Lagestabilisierung finden wir mittlerweile in jedem Modellhubschrauber bzw,. Quadrokopter, und zwar zum Bruchteil des Preises von noch vor 3 Jahren bei dramatisch gestiegener Qualität. Hier ist vieles verbaut, was der Markt an Miniaturisierung hergibt, und die Technologie ist alles andere als simpel.

 

Gruß Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...