Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Genau solche Phänomene wären als Erklärungsansatz denkbar - immer her damit! Die Verschiebung der Fokusebene beim Abblenden habe ich ja dadurch ausgeschlossen, daß ich immer für jedes ausgewählte Detail in der Festbrennweitenaufnahme die schärfste Entsprechung aus den 5 Zoombildern gesucht (und auch gefunden!) habe. Vielleicht gehe ich auch von falschen Voraussetzungen aus, was die Linearität der "Schärfewahrnehmung" angeht? Ich meine, daß wenn die Zoombilder am Punkt der höchsten Schärfe nur knapp hinter den Festbrennweiten liegen, sich dieses Verhältnis über den gesamten betrachteten Bildausschnitt nicht verändern  - also die Schärfe auch beim Zoom nur langsam und in gleicher Relation zur Festbrennweite abnehmen - sollte. Ist das vielleicht mein "Denkfehler" und die Schärfentiefe nimmt nur subjektiv schneller ab, weil die "Reserven" einfach eher aufgebraucht sind und der Bereich der zu großen Zerstreuungskreise und damit der unscharfen Wahrnehmung erreicht wird? Nach meinem Verständnis sollte das aber doch eine lineare Funktion sein... Wer von den Experten kann was dazu sagen?

 

LG Holger

 

Ja, wie schon erwähnt wurde hängt die Unschärfe ja nicht nur vom Abstand zur Schärfe-Ebene ab, sondern eben z.B. auch vom Abstand von der opt. Achse.  Um das zu separieren müsstest Du mit beiden Linsen jeweils ein flaches Objekt aufnehmen (d.h. alle Details im selben Abstand), und wirst sehen daß die Festbrennweite (vermutlich) auch am Rand noch gut scharf ist.  Diese Unschärfe addiert sich zu der durch Distanz (Schärfentiefe) verursachten Unschärfe und bewirkt, daß der scharfe Bereich des Zooms geringer ist.

 

Die von Dir erwähnten DOF-Rechner berechnen halt auch nur auf der optischen Achse und für ein 'perfektes' Objektiv.  Die Realität spuckt da dann halt noch rein und bewirkt in der Praxis die Unterschiede bei eigentlich identischen Parametern (Abstand,Blende).

Link zum Beitrag
Auf anderen Seiten teilen

 

  Die Realität spuckt da dann halt noch rein und bewirkt in der Praxis die Unterschiede bei eigentlich identischen Parametern (Abstand,Blende).

 

Das scheint zumindest eine einleuchtende Erklärung zu sein, mit der ich mich zufriedengeben kann (obwohl das 14-54 abgeblendet am Rand nicht einbricht!). So wie vorgeschlagen kann und will ich das auch nie nachprüfen - ändern tut das ja auch nix.

 

Lg Holger

 

bearbeitet von Höhlenstein
Link zum Beitrag
Auf anderen Seiten teilen

ein Verschieben der Schärfe beim Abblenden, das deutet auf einen Öffnungsfehler hin ... (sprich die Mittelstrahlen treffen woanders zusammen, als die Randstrahlen .)

Da die Ränder eine deutlich grössere Lichtmenge beitragen, wandert der schärfste Punkt beim Abblenden dann in die Richtung, wo die Mittelstrahlen ihren Fokus finden.

 

Vielleicht könnte da auch die An- oder Abwesenheit von Glas im Strahlengang etwas bewirken ... im Sony A7 Forum unten ist ein interessanter Artikel verlinkt, der sich mit den unterschiedlichen Dicken der Glaskörper vor den Sensoren beschäftigt.

 

 

(Jetzt müsste man nur noch wissen, ob das FT System einen anderen Sensoraufbau hatte, als das mFT System... mir ist an der E3 zumindest so ein Verhalten des 14-54 nicht aufgefallen)

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

(...)

Vielleicht könnte da auch die An- oder Abwesenheit von Glas im Strahlengang etwas bewirken ... im Sony A7 Forum unten ist ein interessanter Artikel verlinkt, der sich mit den unterschiedlichen Dicken der Glaskörper vor den Sensoren beschäftigt.

(...)

Dazu habe ich gerade eine Anfrage an Leute geschickt, die mit vielen verschiedenen Filtern vor Sensoren Erfahrung haben. Bin gespannt auf die Antwort.

Link zum Beitrag
Auf anderen Seiten teilen

... mir ist an der E3 zumindest so ein Verhalten des 14-54 nicht aufgefallen

 

Mir wäre es auch nicht aufgefallen, wenn ich nicht versucht hätte, mit vielen Aufnahmen im Peeper-Mode der Sache mit der knapperen Schärfentiefe auf den Grund zu gehen. Und es kann ja trotzdem noch an Ungenauigkeiten im "Versuchsaufbau" oder sonstigen, von mir nicht bedachten Dingen (z.B. Auflagemaß des Adapters) liegen. Du scheinst ja auf der richtigen Fährte zu sein... wenn Wolfgang auch noch am Problem dran ist, wird es sicher bald Belastbares geben...

 

LG Holger

bearbeitet von Höhlenstein
Link zum Beitrag
Auf anderen Seiten teilen

Moin,

 

"meine" Freihandgrenze ist extrem tagesform abhängig (auch schon zu Zeiten, da ich noch nicht Asthma Spray nehmen musste

(welches das feingliedrige Zittern erhöht ... nerv!). Während ich etwa der Regel der doppelten Brennweite im Mittel zustimme,

gibt es aber doch auch Leute, die eine erheblich ruhigere Hand haben. Was meine Liebste teilweise aus der Hand schiessen kann grenzt für mich an ein Wunder!

 

Für die Tiefenschärfe sehe ich ähnlich Tendenz, aber bei Weitem nicht so drastisch. Aber vielleicht auch nur mangels Erfahrung im mft Bereich ;-)

In der Regel sehe ich mir meine Bilder in voller Monitor-Auflösung an, welche deutlich unter der der Kamera liegt.

Ob die Tiefenschärfe-Empfindung wirtklich unabh. vom Ausgabeformat ist, wie "Kleinkram" schreibt? Bei mir regen sich Zustimmung und Widerspruch gleichzeitig ... Diese Frage nehm ich mal mit ins Wochenende  ;-)

Als Physiker verstehe ich das Abblenden eines Objektivs als Tiefpassfilterung in der Fourierebene (Fourier-Optik).

Dabei versteht man die Bildebene als Raumfrequenzen und die Linse als Fourier-Transformator.

Da ja "alle" Linsen aus einer Vielzahl von Einzellinsen bestehen (allein um die einzelnen Linsenfehler sich gegenseitig

möglichst weitgehend auskorrigieren zu lassen, aber auch Verzeichnungseffekte korrigieren etc.), ist das natürlich eine grobe Vereinfachung.

Wenn man sich überlegt, was bei der Abbildung von Standard Objektiven (Makro Objektive etc. mal aussenvor gelassen) und

Zoom Objektiven passiert, ist klar, dass die Blendenebene nicht immer exakt die FourierEbene ist, damit also auch unterschiedliche Tiefenschärfe-

Effekte bei unterschiedl. Objektiven entstehen.Ein Objektiv faltet ja die Antwort der Linsenöffnung mit dem eigentlichen Bild (Daraus resultiert

auch das gewünschte Bokeh).

So grob sollte das Geschriebene stimmer - aber ich habe mich auch schon lange nicht mehr ernsthaft mit Optik befasst ... 

 

Ein Objektiv wird wohl noch Lange ein Kompromiss bleiben (Linsenfehler, etc ...) und nähert sich eben der möglichen rechnerischen Ideal-Leistung an.

 

 

Schöner Thread übrigens - bedankt! Gruß aus Gö - R.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die Antwort auf meine Nachfrage, siehe Beitarg #29, ist da. Sie hat im wesentlichen meine Meinung zu diesem Thema bestätigt, weshalb ich hier MEINE Erklärung wiedergebe:

 

Die Dicke und der Aufbau des Filterpakets vor dem Sensor und das Deckglas des Sensors haben einen Einfluss auf den bildseitigen Strahlengang und muss beim Optikdesign berücksichtigt werden. Das trifft um so mehr zu, je höher die Auflösung der Sensoren ist.
Bei dem 4/3-System muss der Filter nicht dünn sein, kann es aber, weil der bildseitige Strahlengang der Optik nahezu telezentrisch ausgelegt ist und weil deshalb die Hauptstrahlen nahezu senkrecht durch gehen (von wenigen Ausnahmen, die dieser Regel nicht konsequent folgen und die man im WW-Bereich auch an den Bildern sieht, abgesehen). Bei den Kameramodellen verschiedener anderer Hersteller muss er dünner sein, weil diese Marken die Optik nicht konsequent telezentrisch rechneten (was sich in der näheren Vergangenheit scheinbar geändert hat und Zeiss macht es ihnen vor). Je dicker das Glas vor dem Sensor ist, um so mehr wird bei nicht senkrecht auftreffenden Strahlen der Auftreffpunkt auf dem Sensor verschoben. Der Effekt ist bei Weitwinkelobjektiven deutlich und nimmt zum Rand hin zu weil der Strahleintritt immer flacher wird. Je flacher der Strahldurchgang durch das Filterpaket ist, um so mehr wird die Strahllänge von der Hinterlinse bis zur Sensoroberfläche verändert. Damit ändert sich auch der bildseitige Fokuspunkt, er wandert "hinter" den Sensor, der abgebildete Schärfepunkt an Rand liegt näher als in der Mitte und damit der objektseitige Schärfepunkt weiter weg. Bei den kurzen Fokussierwegen der WW-Objektive ist der Effekt stärker. Das könnte auch der Grund dafür sein, dass bei manchen Objektiven die Schärfeebene (Bildfeldwölbung) sich zum Rand hin vom Fotografen entfernt. Würde man diese Objektive bei Analogkameras einsetzen, dann wäre das nicht der Fall. Dazu kommt, dass der Brechungsindex für die verschiedenen Lichtwellenlängen unterschiedlich ist und damit auch die Verschiebung. Das wiederum erzeugt zum Rand hin zusätzlich Farbverfälschungen. Im Vergleich zu früheren Zeiten mit 'Nichts' im bildseitigen Strahlengang zwischen Hinterlinse und Filmoberfläche ist es deutlich komplexer geworden. Alles was sich zwischen Hinterlinse und den Fotoempfängern des Sensors befindet muss als Teil der Optik angesehen werden. Sensordesign (Bayer-Filter, Mikrolinsen), Filteraufbau und bildseitiger Strahlengang der Optik müssen also bei der Entwicklung des Systems berücksichtigt werden, wenn das Abbildungsergebnis optimal sein soll.
 

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Vielen Dank für die Mühe, Wolfgang. Das könnte auch zumindest zum Teil zu dem von mir beobachteten Phänomen beitragen, wobei ich nicht glaube, daß der Strahlengang beim 14-54 im Bereich 45-50mm allzuweit vom telezentrischen "Idealzustand" entfernt ist. Wie schon gesagt, wer weiß, was da alles zusammenkommt. Schlimmstenfalls hat ja sogar das Objektiv eine Macke...Mit dem beschriebenen "Manko" kann ich aber gut leben, weil es sich zuverlässig "umschiffen" läßt, und die Bildergebnisse alles hinter sich lassen, was ich bis jetzt aus den sogenannten "Kitoptiken" herausbekommen habe.

 

 

LG Holger

bearbeitet von Höhlenstein
Link zum Beitrag
Auf anderen Seiten teilen

@wolfgang_r: Weißt Du, ob das, was sich zwischen Linse und Sensor befindet (befinden darf) im mFT System spezifiziert ist?

Müsste ja eigentlich, sonst wäre eine Austauschbarkeit der Linsen nicht gegeben...

Wenn nicht könnte das eine Begründung für die oft vermutete bessere optische Performance sein, wenn man sich innerhalb einer Marke bewegt.

Link zum Beitrag
Auf anderen Seiten teilen

Zu Farbfehlern:

Ja, genau genommen werden ja mehrere Bilder gleichzeitig (Farben) gemacht,

die unterschiedliche Abbildungen haben (Dispersion, die durch Mischung von Glassorten versucht wird zu umschiffen ...)

Wenn ich es richtig verstanden habe, werden diese unterschiedlichen Abbildungseigenschaften in der Firmware der Standard MFT-Objektive hinterlegt und dann wieder raus gerechnet. Die Cromatische Abberation wird ja beim jpeg (in der Kamera gerechnet), oder beim Laden im RAW-Programm (dem Panasonic beigelegtem RAW Programm, als auch bei Adobe) gleich korrigiert. Bei anderen Raw-Import ist das nicht der Fall - das habe ich selbst gecheckt - funktioniert tatsächlich erstaunlich gut!

 

Schärfebereich Mitte / Objektivrand

Die Bildfeldwölbung spielte auch schon bei Analog-Objektiven eine Rolle, der Effekt war allerding

schlechter wahnehm- / messbar. Wenn ich das richtig verstanden habe, sind Digitalobjetive auf hochgenau parallelen Strahlengang zum Sensor hin optimiert - is mir

noch nicht ganz klar, wie das bei WW Optik geht. Möglicherweise ist die Bildfeldwölbung aber genau deshalb bei Analogobjektiven geringer? Wollte das wolfgang_r sagen (und ich hab*s nicht kapiert - hihi)?

 

Verringerng von Verzerrungen:

Industielle extreme Weitwinkelobjektive machen (teilweise) ein Zwischen-Bild, welches dann wieder abgebildet wird - nur dadurch lassen sich Verzerrungen minimieren, ob das (teilweise) bei extremen WW-Objektiven auch der Fall ist, weiss ich nicht. Wäre ja möglich, dass dem Sensor beigebracht wird, dass der das Bild im Sucher (nochmals) umdrehen muss ...

Die Verzerrungen lassen sich natürlich auch rechnerisch minimieren ...

 

 

Gruß R

Link zum Beitrag
Auf anderen Seiten teilen

Vielen Dank für die Mühe, Wolfgang. Das könnte auch zumindest zum Teil zu dem von mir beobachteten Phänomen beitragen, wobei ich nicht glaube, daß der Strahlengang beim 14-54 im Bereich 45-50mm allzuweit vom telezentrischen "Idealzustand" entfernt ist. Wie schon gesagt, wer weiß, was da alles zusammenkommt. Schlimmstenfalls hat ja sogar das Objektiv eine Macke...Mit dem beschriebenen "Manko" kann ich aber gut leben, weil es sich zuverlässig "umschiffen" läßt, und die Bildergebnisse alles hinter sich lassen, was ich bis jetzt aus den sogenannten "Kitoptiken" herausbekommen habe.

 

 

LG Holger

Zooms müssen mehr Kompromisse eingehen, mit Festbrennweiten ist das einfacher. Das 14-54 hatte ich auch an der E-PL2. Es war sehr gut. Später habe ich es verkauft, wollte konsequent auf mFT umsteigen. Beim 50-200 SWD habe ich den Verkauf schon bereut. Zumindest bis zum Erscheinen des 40-150/2,8 hätte ich es behalten sollen.

Das mFT M.Zuiko 9-18 z. B. ist insofern nicht der Knaller. Es zeigt auch im WW die Sensorreflektionen. Grund: Kleinere Hinterlinse nah am Sensor, kein bildseitig konsequent telezentrischer Strahlengang. Das ist der Preis für die Miniaturisierung.

 

@wolfgang_r: Weißt Du, ob das, was sich zwischen Linse und Sensor befindet (befinden darf) im mFT System spezifiziert ist?

Müsste ja eigentlich, sonst wäre eine Austauschbarkeit der Linsen nicht gegeben...

Wenn nicht könnte das eine Begründung für die oft vermutete bessere optische Performance sein, wenn man sich innerhalb einer Marke bewegt.

Mit der Begründung für bessere Abbildungsleistung wird das sicher so sein. Ob das Filterpaket oder Teile des Sensors spezifiziert sind weiß ich leider auch nicht. Es ist aber so, dass bei senkrecht auftreffenden Strahlen das Problem nicht existiert, egal wie dick die Glasplatten sind. Soweit mir bekannt ist, ist die maximale Winkelabweichung von der Senkrechten spezifiziert (6°, ohne Gewähr auf Richtigkeit).

 

Zu Farbfehlern:

Ja, genau genommen werden ja mehrere Bilder gleichzeitig (Farben) gemacht,

die unterschiedliche Abbildungen haben (Dispersion, die durch Mischung von Glassorten versucht wird zu umschiffen ...)

Wenn ich es richtig verstanden habe, werden diese unterschiedlichen Abbildungseigenschaften in der Firmware der Standard MFT-Objektive hinterlegt und dann wieder raus gerechnet. Die Cromatische Abberation wird ja beim jpeg (in der Kamera gerechnet), oder beim Laden im RAW-Programm (dem Panasonic beigelegtem RAW Programm, als auch bei Adobe) gleich korrigiert. Bei anderen Raw-Import ist das nicht der Fall - das habe ich selbst gecheckt - funktioniert tatsächlich erstaunlich gut!

 

Schärfebereich Mitte / Objektivrand

Die Bildfeldwölbung spielte auch schon bei Analog-Objektiven eine Rolle, der Effekt war allerding

schlechter wahnehm- / messbar. Wenn ich das richtig verstanden habe, sind Digitalobjetive auf hochgenau parallelen Strahlengang zum Sensor hin optimiert - is mir

noch nicht ganz klar, wie das bei WW Optik geht. Möglicherweise ist die Bildfeldwölbung aber genau deshalb bei Analogobjektiven geringer? Wollte das wolfgang_r sagen (und ich hab*s nicht kapiert - hihi)?

 

Verringerng von Verzerrungen:

Industielle extreme Weitwinkelobjektive machen (teilweise) ein Zwischen-Bild, welches dann wieder abgebildet wird - nur dadurch lassen sich Verzerrungen minimieren, ob das (teilweise) bei extremen WW-Objektiven auch der Fall ist, weiss ich nicht. Wäre ja möglich, dass dem Sensor beigebracht wird, dass der das Bild im Sucher (nochmals) umdrehen muss ...

Die Verzerrungen lassen sich natürlich auch rechnerisch minimieren ...

 

 

Gruß R

Ja, so war das gemeint. Deshalb ist die Bildfeldwölbung bei Verwendung des Analogfilms OHNE zusätzliche Planglaskomponenten zwischen Objektiv und Film geringer.

Das Problem bei WW-Objektiven (kürzerer Brennweite als die Schnittweite) ist, dass der bildseitige Strahlengang bei kleiner Bauweise nur schwer für senkrecht auf den Sensor auftreffend konstruiert werden kann. Insofern sind die "alten" WW-Objektive, die wegen der durch den Spiegel notwendigen Retrofokusbauweise mit großer Schnittweite konstruiert wurden, heute die technisch besseren Objektive zur Adaption an digitale Systemkameras mit kleinem Auflagemaß. Der Abstandhalter (Adapter) zwischen Objektiv und Sensor sorgt dafür. Wenn die Hinterlinse(ngruppe) nah am Sensor ist, dann muss sie sehr groß sein (Sensordiagonale). Canon und Fuji machen das zum Beispiel bei den Bridgekameras G1X(II) und X100S. Mit welchen Folgen man leben muss, wenn man diese Gesetze ignoriert, sieht man an den Adaptionsexperimenten an die A7®. Einerseits zu kleines Bajonett für große Hinterlinsen, andererseits sehr kleines Auflagemaß. Am besten funktionieren die WW-Objektive, die großes Auflagemaß UND Retrofokuskonstruktion (telezentrisch ;) ) haben - Distagone und Leica-R zum Beispiel. Man kann viel softwaremäßig herausrechnen, aber eben nicht alles. Das ist wie ESP und ABS, es geht eine Weile gut, aber wenn die physikalischen Gesetze zu weit ignoriert werden, dann knirschts.

Will man es wirklich gut auch bei hoher Lichtstärke machen, dann kommt es zu Konstruktionen wie dem Otus 55/1,4. Damit muss man sich abfinden.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...