Jump to content

Review: Zeiss Vario-Tessar E 4/16-70 ZA OSS (sel1670z)


Empfohlene Beiträge

  --> Die vom Thread-Starter beschriebenen Beugungs-Effekte schon ab Blende 11 konnte ich in meinen Tests nicht sehen, sondern erst ab Blende 16. Liegt das ggf. an geringeren Lichtkontrasten aufgrund des trüben Wetters bei meinen Vergleichen?

Der Verdacht hat sich klar bestätigt. Gestern und heute hatten wir besseres Wetter und einen deutlich stärkeren Kontrast zwischen diesen Strommasten und dem hellen Himmel dahinter.

- Bei Testaufnahmen unter diesen Bedingungen sehe ich die Beugungseffekte auch schon bei Blende 11. Die Blende 5,6 ist unter den Bedingungen am besten, wenn es die maximal mögliche Schärfe sein soll.  (Dieses Mal getestet mit Zoom auf 34 mm und 70 mm). 

 

Von der Physik her ist das durchaus zu verstehen. Die aus der reinen Lichtbrechung (Linsenmitte gegenüber Linsenäußerem) entstehende Unschärfe ist unabhängig von der Stärke des Kontrastes und wird bei jeder Linie, auch mit wenig Kontrast sichtbar. Die Beugung aber als Ablenkung an den Blendenrändern ist in gewisser Weise vergleichbar mit der Streuung auf Staub. Die wird bei hohem Kontrast deutlicher sichtbar, weil aus dem hellen Bereich mehr Licht auf den benachbarten dunklen Bereich abgelenkt wird, als bei niedrigem Kontrast.

 

Bei Schlecht-Wetter-Bedingungen und in Innenräumen habe ich allerdings wirklich selten (oder nie?) die Situation, dass ich aus gutem Grunde auf Blende 11 abdunkeln wollte. Deshalb ist das ganze eigentlich wenig relevant. Dann nämlich, wenn es hell ist, und die Automatik dazu neigt, Blende 11 einzustellen, treten die Beugungseffekte sichtbar auf. Für mich ist das eigentlich Grund genug, für den Normalfall in der Landschaft in der Grundeinstellung auf Blendenvorwahl zu stellen und Blende 5.6 voreingestellt zu lassen.

 

Wenn ich die Enkel in Bewegung, z.B. beim Fußball fotografiere, wird natürlich eine schnelle Zeit voreingestellt. Ich habe jetzt mal getestet, auf M die Zeit (1/250 s war in der Situationen geeignet) und die Blende 5,6 festzulegen und der Automatik den ISO-Wert zu überlassen, allerdings begrenzt auf 100 bis 3200. Das hat recht gut funktioniert und es waren am Ende ISO-Werte von 200 bis 3200 dabei, aber nichts unterbelichtet.

 

Im Vergleich, weitere Bilder mit Zeitvorwahl und Blendenautomatik: Die wurden fast alle auf Blende 4 eingestellt. Aber sie waren keineswegs schlechter, wenn man sie in "normaler Größe" ansieht. Ich verkleinere zurzeit alles nach der Bearbeitung auf 4000 Pixel Breite. Das entspricht in etwa 4K. Da sind auch die Bilder mit Blende 4 sehr gut, d. h. von Blende 5,5 kaum noch zu unterscheiden.   

Link zum Beitrag
Auf anderen Seiten teilen

Jetzt habe ich mal im Nah-Bereich das Vario Tessar 4 / 16-70 mit dem alten Nikkor 2,8 / 28mm verglichen. Hauptsächlich wollte ich sehen, wie es mit der Freistellung des Hintergrundes aussieht, wenn ich beim Vario Tessar nur bis f4, aber beim Nikkor bis f2,8 aufblenden kann.

 

Logisch, dass beim direkten Vergleich die Freistellung mit f2,8 mit dem Nikkor besser ist, als mit Blende 4 beim Vario Tessar aber: s. Bilder:

 

Hier zunächst der Vergleich mit 28 mm Brennweite bei beiden, f4 beim Vario Tessar, f2,8 beim Nikkor.

Der Hintergrund ist beim Nikkor unschärfer, aber besser wird das Bild bei diesem Unterschied dadurch auch nicht. Hier fehlt mir bei der Blüte auch etwas Schärfentiefe, die beim oberen Bild besser ist:

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

Jetzt mal auf dieselbe Brennweiteneinstellung verzichtet, sondern beim Vario Tessar auf 70 mm. Das Nikkor ist eine Festbrennweite mit 28 mm.

Da bekomme ich durch Wahl des entsprechenden Abstandes dieselbe Objekt-Größe auf das Bild und kann bei 70 mm den Umfang des Hintergrundes besser eingrenzen, was oft ein Vorteil sein kann. Wenn ich mehr den Himmels-Hintergrund auf dem Bild haben will, wie hier beim Bild mit dem Nikkor, wäre ja mit der 70 mm Einstellung noch leichter ein Blickwinkel zu finden, bei dem noch weniger störender Hintergrund verbleibt.

 

Jedenfalls, wie man sieht, ist die Freistellung bei 70 mm und f4 ebenso gut, wie mit dem Nikkor mit 28 mm und f2,8:

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

 

Jetzt mal ein ganz unruhiger Hintergrund, aber beide mit Blende 4 und das Vario Tessar mit einer mittleren Brennweite.

Hier finde ich, dass die Unschärfe des Vario Tessar viel weicher verläuft als beim Nikkor, bei letzterem irgendwie "kantig": 

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

 

Jetzt wollte ich aber sehen, wie weit ich herangehen kann mit dem Vario Tessar, und war sehr überrascht: Das wird bei manchen Objektiven bereits als "Makro-Bereich" bezeichnet, was dieses Objektiv ermöglicht. Soweit ich mich erinnere, habe ich mal gelesen, Naheinstellung bis 0,3 m. Hier waren es beim unteren Bild aber definitiv nur knapp 23 cm von der Frontlinse bis zum Fokuspunkt (beweglicher Fokuspunkt beim unteren Bild eingestellt auf das rechte Ende des Blauen Teils der Blüte).

 

Das ist kein Ausschnitt, sondern das Originalbild lediglich skaliert auf 1000 px Breite:

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

 

Nun fehlt aber noch als Ergänzung zum dritten Vergleichsbild dieser unruhige Hintergrund mit f2,8 beim Nikkor und mit f4 und 70 mm Brennweite beim Vario Tessar, weil das jeweils die Einstellungen mit der besten Freistellung sind, die ich beim 3. Bild ja nicht gewählt hatte.

Hier wird es noch deutlicher, was ich zuvor geschrieben hatte: Die Unschärfe ist beim Vario Tessar deutlich weicher.

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

 

Im Fernbereich hatte ich ja bereits beide Objektive verglichen mit dem Ergebnis, dass das Nikkor (wie von einer Festbrennweite zu erwarten) in der Mitte ein klein Wenig schärfer abbildet. Aber leider nimmt die Schärfe nach außen hin deutlich stärker ab, als beim Vario Tessar und dazu kommt beim Nikkor noch stärkere CA.

 

Die Überlegung, ob ich das Objektiv behalte, bleibt dann nur an der Lichtstärke hängen - vielleicht auch am erzielbaren Preis, aber der dürfte eher sehr gering sein, oder?.

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Soweit ich mich erinnere, habe ich mal gelesen, Naheinstellung bis 0,3 m. Hier waren es beim unteren Bild aber definitiv nur knapp 23 cm von der Frontlinse bis zum Fokuspunkt (beweglicher Fokuspunkt beim unteren Bild eingestellt auf das rechte Ende des Blauen Teils der Blüte).

 

Die Naheinstellgrenze ist die Entfernung Sensor -> Motiv, also passt's. Wenn's noch etwas mehr Makro sein soll, empfehle ich den Marumi-Achromat +3, dadurch gibt's einen lückenlosen Übergang (Naheinstellgrenze Objektiv allein = Ferneinstellgrenze Objektiv mit Nahlinse).

Link zum Beitrag
Auf anderen Seiten teilen

Die Naheinstellgrenze ist die Entfernung Sensor -> Motiv, also passt's. 

Seit wann gilt das so?

Damals jedenfalls (Ende 1970ger und Anfang 1980ger Jahre), als ich mich sehr intensiv mit der Photografie beschäftigt hatte wie danach aus Zeitgründen nie wieder (und Color-Photo über mehrere Jahre abonniert hatte), galt für die Messung der Naheinstellgrenze der Abstand vom Objekt zur optischen Mitte des Objektives, als theoretisch dem Punkt, der vom Film - heute Sensor - den Abstand der Nennbrennweite hat. 

 

Diese Definition kam damals daher, dass bei der einfachen spiegel-geometrischen Optik (Prinzip des Ein-Linsers bzw. auch wenn korrigiert bei mehreren Linsen, die aber in einem Element waren wie bei der "Agfa Click") genau der Abbildungsmaßstab 1:1 erreicht wird, wenn der Abstand der optischen Mitte zum Film identisch war, wie der Abstand zum Objekt.

 

Unpraktikabel war allerdings diese Definition schon, sobald die ersten Teleobjektive entwickelt wurden, die kürzer waren, als ihre Nennbrennweite. 

Andererseits hatte ich gerade erst von der Naheinstellgrenze von 1 cm bei einem Objektiv gelesen. Das kann nur die Frontlinse gewesen sein.   

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Seit wann gilt das so?

Damals jedenfalls (Ende 1970ger und Anfang 1980ger Jahre), als ich mich sehr intensiv mit der Photografie beschäftigt hatte wie danach aus Zeitgründen nie wieder (und Color-Photo über mehrere Jahre abonniert hatte), galt für die Messung der Naheinstellgrenze der Abstand vom Objekt zur optischen Mitte des Objektives, als theoretisch dem Punkt, der vom Film - heute Sensor - den Abstand der Nennbrennweite hat. 

 

Ich kenne es auch anders: Der Motivabstand wurde auch damals angegeben als Abstand Motiv - Filmebene. Deshalb war diese auch auf manchen besseren Kameras auf der Oberseite eingraviert. Und die Nahgrenze war dann eben der kürzestmögliche Motivabstand, also ebenfalls orientiert an der Filmebene. Wozu sollte denn Punkt im Objektiv, der vom Film den Abstand der Nennbrennweite hat, als Bezugspunkt wichtig sein? Den hätte man ja auch in einem Aufnahme-Aufbau nicht selbst messen können.  :confused:

Link zum Beitrag
Auf anderen Seiten teilen

Nun ja, vielleicht war das auch nur reine Theorie aus einem Beitrag über die verschiedenen Prinzipien der Objektivbauweisen und Grenzen von deren Fähigkeiten, aus dem ich dann dieses Maß in Erinnerung hatte, ohne dass dies vielleicht wirklich Relevanz für die Praxis der Abstandsmessung hatte. Irgendwie erinnere ich mich da noch an die Zeichnungen der Optiken und die dabei vorgenommenen Messungen. Der Punkt mit dem Abstand der Nennbreite war jedenfalls da in den Beispielen wichtig für die Berechnung des Abbildungsmaßstabes, der sich aus der Brennweite geteilt durch diesen Abstand ergibt. Berechnen kann man ihn aber leicht, wenn man den Abstand von der Filmebene zum Objekt misst. Dann nimmt man eben die Brennweite geteilt durch die Differenz dieses Abstandes minus der Brennweite und kommt auch auf dasselbe Ergebnis. Deshalb war natürlich die Eingravierung der Filmebene wichtig, egal wie man nun gemessen hat.

 

Jetzt kann ich mich aber nicht mehr erinnern, wie ich bei der alten Agfa (meine Schulzeit) für Nahaufnahmen messen musste. Die Filmebene war mien einem kleinen Symbol eingraviert. Das weiß ich noch deshalb, weil ich mal "meinen Fotohändler" (ja, das gab es damals noch so in Zeiten der Preisbindung) gefragt hatte, was das Zeichen bedeutet.

 

Bei der Kamera gab es ja keine Schärfekontrolle über den Sucher, so dass man für Nahaufnahmen per Maßband messen und die Einstellung des Wertes am Objektiv vornehmen musste. Es kann durchaus sein, dass ich da von der Filmebene aus gemessen habe. Mit der Zeit wird eben doch so manches in der Erinnerung "grau".

 

Jedenfalls war das eine Zeit, in der ein ganz schmales mini-Maßband ebenso wie der getrennte Gossen-Belichtungsmesser und das Blitzgerät mit dem kreisrund auffaltbaren Reflektor und den jeweils abbrennenden Blitzbirnchen in die Kameratasche gehörte. So wie man heute gefragt wird, ob man gerade mal ein Ladegerät dabei hat, wurde man damals gefragt, ob man zufällig noch ein Blitzbirnchen übrig hat (aber es gab dann auch noch zwei verschiedene Fassungen ...). 

Link zum Beitrag
Auf anderen Seiten teilen

@Pizzastein: dies passt jetzt nicht mehr in den Thread, wo wir begonnen hatten, u.a. über die Moiré Effekte zu diskutieren, aber eher hierher, weil ich das mit meinem Vario-Tessar und dem Monitor gerade mal getestet habe.

 

Der Monitor hat 1920 Bildpunkte in der Waagerechten, wenn ich mal vernachlässige, dass es unter Berücksichtigung der einzelnen Farb-Pixel eigentlich doppelt so viele sind, aber das gilt ja auch für den Sensor, dass es 6000 Bildpixel aber 12000 einzelne Farbpixel in der Breite sind.

 

Mit dem Vario-Tessar 1:4 / 16-70 habe ich deutliches Moiré wenn der Monitor im Foto nicht weniger als etwa 35%-37% der Bildbreite ausmacht. Das habe ich mit 16 mm und 45 mm Brennweite getestet und das Ergebnis ist etwa gleich. Wenn es nun so wäre, dass das Objektiv die volle Auflösung des Sensors bringen muss, um Moiré erzeugen zu können, dann würde das ja bedeuten, dass dieses Zoom-Objektiv diese volle Auflösung von 24 MP bringt, dass man also keine Vorteile mehr mit irgend einer Festbrennweite auf diesem Sensor hätte. Da das so nicht ist, dürfte klar sein, dass Moiré auch entsteht, wenn die Objektivauflösung geringer ist, als die des Sensors. Physikalisch ist das auch leicht zu erklären, aber das wäre mir hier jetzt zu viel Text. 

 

Das Vario-Tessar wird in Tests zum Teil so bewertet, dass die Auflösung in der Größenordnung von 16 MP liegt. In einem Test las ich, dass es in der Bildmitte 110 LP/mm erreicht, das wären ca. 3500 Bildpunkte auf die Bildhöhe statt der 4000 verfügbaren Pixel. Zum Rand hin werden es unter 70 LP/mm bei mittlerer Brennweite (weniger bei 16 mm), so dass damit die 16 MP als Mittel zustande kommen. Das entspricht gut meiner Erfahrung, da ich getestet habe, wie weit ich verkleinern kann ohne Detailverlust. Bei 66% (das ist mit 4000 x 2667 ungefähr auf 4K verkleinert und entspricht 10,7 MP) habe ich in der Bildmitte geringfügige Reduzierungen der Details, aber in den äußeren Bereichen nicht mehr. 

 

Nicht nachvollziehen kann ich die Angabe in dxomark.com, die dem Objektiv nur ein Auflösungspotenzial von 8 MP bescheinigen. Andererseits ist an verschiedenen Stellen im Internet zu lesen, dass es große Qualitätsunterschiede zwischen Einzelstücken dieses Objektivs gibt!

 

Die Moiré - Tests habe ich mal in Bezug auf das Pixel-Verhältnis durchgerechnet:

 

Wenn die Monitorbreite (1920 px) auf eine Bildbreite fällt, die 2260 Sensorpixeln entspricht, also 850 abgebildete Pixel auf 1000 Sensorpixeln, dann komme ich an die Grenze bei der gerade noch Moiré erkennbar ist, jedenfalls im inneren Bildbereich von 1/3. Je näher ich herangehe, desto weniger abgebildete Pixel fallen auf 1000 Sensorpixel. Bei 610 war der Moiré-Effekt sehr stark, aber bei 900 Punkten / 1000 Sensorpixel nicht mehr wahrzunehmen. 

 

Da ist also klar die Objektiv-Auflösung der begrenzende Faktor, wenn ich an 85% der Sensorauflösung herankomme. Ich meine, mit diesem Test kann ich recht einfach die Objektiv-Auflösung feststellen. Die oben genannten 110 LP/mm entsprechen 87% der Sensorauflösung, werden aber nur unter Optimalbedingungen in der Bildmitte erreicht. Die 85% lagen ja sehr nahe daran, was mir bestätigt, das es darauf ankommt, dass die Bildpunkte oder Linien (je nach Vorlage) noch aufgelöst werden können, beim Sensor aber egal ist, ob die Überlagerungen durch je eine, je zwei oder vielleicht auch noch drei Reihen erzeugt werden (je nachdem, wie breit die Dunkel-Linie dazwischen ist, und ob die bei breiteren Linien in der Mitte liegend in der Überlagerung noch eine ausreichende Abschwächung der Helligkeit ergibt).

 

 

bearbeitet von Widder49
Link zum Beitrag
Auf anderen Seiten teilen

Da das so nicht ist, dürfte klar sein, dass Moiré auch entsteht, wenn die Objektivauflösung geringer ist, als die des Sensors. Physikalisch ist das auch leicht zu erklären, aber das wäre mir hier jetzt zu viel Text.

 

Falls Du zufällig einen Link zu einer Erklärung hättest, wäre ich dankbar. Mir ist Moiré bisher nur bei Objektiven aufgefallen, die ich als sehr scharf bezeichnen würde.

 

 

Das Vario-Tessar wird in Tests zum Teil so bewertet, dass die Auflösung in der Größenordnung von 16 MP liegt. In einem Test las ich, dass es in der Bildmitte 110 LP/mm erreicht, das wären ca. 3500 Bildpunkte auf die Bildhöhe statt der 4000 verfügbaren Pixel.

Das würde ich durchaus als fast pixelscharf bezeichnen. Die Auflösung ist keine harte Grenze und hängt davon ab, bei welchen Kontrastunterschieden man die Grenze zieht (eigentlich müsste es bei Moiré auch nicht nur ein vorhanden/nicht vorhanden geben, sondern unterschiedliche Intensität je nach Objektivauflösung?). Deshalb sind mir MTF-Charts deutlich lieber als LP/mm-Angaben.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Wenn die Monitorbreite (1920 px) auf eine Bildbreite fällt, die 2260 Sensorpixeln entspricht, also 850 abgebildete Pixel auf 1000 Sensorpixeln, dann komme ich an die Grenze bei der gerade noch Moiré erkennbar ist, jedenfalls im inneren Bildbereich von 1/3. Je näher ich herangehe, desto weniger abgebildete Pixel fallen auf 1000 Sensorpixel. Bei 610 war der Moiré-Effekt sehr stark, aber bei 900 Punkten / 1000 Sensorpixel nicht mehr wahrzunehmen. 

 

Da ist also klar die Objektiv-Auflösung der begrenzende Faktor, wenn ich an 85% der Sensorauflösung herankomme. Ich meine, mit diesem Test kann ich recht einfach die Objektiv-Auflösung feststellen. Die oben genannten 110 LP/mm entsprechen 87% der Sensorauflösung, werden aber nur unter Optimalbedingungen in der Bildmitte erreicht. Die 85% lagen ja sehr nahe daran, was mir bestätigt, das es darauf ankommt, dass die Bildpunkte oder Linien (je nach Vorlage) noch aufgelöst werden können, beim Sensor aber egal ist, ob die Überlagerungen durch je eine, je zwei oder vielleicht auch noch drei Reihen erzeugt werden (je nachdem, wie breit die Dunkel-Linie dazwischen ist, und ob die bei breiteren Linien in der Mitte liegend in der Überlagerung noch eine ausreichende Abschwächung der Helligkeit ergibt).

 

Das werde ich mal mit verschiedenen Objektiven testen (vor allem auch dem Sigma 30mm).

 

Dazu frage ich mich noch, was für eine Wirkung der Tiefpassfilter hat. Kann dadurch überhaupt die volle Auflösung erreicht werden?

 

Link zum Beitrag
Auf anderen Seiten teilen

Einen Link zu der ersten Frage habe ich jetzt nicht, aber es ist ja mit optischen Interferenzen genau so wie mit akustischen Schwebungen. Die treten insbesondere dann auf, wenn zwei gleichzeitig gespielte Töne einen sehr geringen Frequenzunterschied haben. Nimmt man aber von dem einen die nächst tiefere Oktave, also halbe Frequenz, dann treten die Schwebungen auch auf sobald diese halbe Frequenz knapp neben der Hälfte der hälfte der anderen Frequenz liegt.

 

Nehmen wir für die Optik ein Linienstreifenmuster mit 1,5 mm durchlässig und 0,5 mm dunkel und legen ein zweites identisches in wenigen cm Abstand davor, dann ist das durch die Perspektive der Effekt, dass das nähere für den Betrachter geringfügig weiter ist, als das hintere. Damit gibt es recht breite Moiré-Streifen (andere Muster bei minimaler Schrägstellung des einen gegenüber dem anderen), die immer enger werden, je weiter man den Abstand der beiden vergrößert oder je näher man herangeht.

 

Wenn ich jetzt aber beim vorderen jeden zweiten dunklen Streifen entferne, habe ich nicht mehr das 1:1-Verhältnis, das mir bei geringer Abweichung durch den Blickwinkel Moiré produziert, sondern ein 1:2-Verhältnis (wie bei der Oktave), das auch wieder Interferenzen erzeugt und damit Moiré-Muster bildet, das aber in der Kontraststärke etwas geringer wird, wie das erste beim 1:1-Verhältnis. Dieser Effekt kann begründen, dass ich Moiré bekommen kann, wenn die Objektivauflösung mindestens höher liegt, als die halbe Pixelzahl des Sensors. 

 

Bei meinem Beispiel mit den Linien wäre das dann noch im 1:3-Verhältnis möglich, wenn durchlässig und dunkel jeweils dieselbe Streifenbreite haben. Das ist nun beim Sensor nicht der Fall, sondern der "Dunkelbereich", also Zwischenraum zwischen den Pixeln ist deutlich schmaler, als die Pixel selbst. Deshalb denke ich, dass es bei dem neuen Sony-Chip in der a6300 unmöglich sein wird, auch noch im Verhältnis 1:3 Moiré zu produzieren, bei alten Sensoren würde ich mich da nicht festlegen wollen.

Wird die Erklärung so einigermaßen klar?

 

Etwas komplizierter wird die Sache aber noch dadurch, dass es Moiré nicht nur durch die Pixelreihen und die Zwischenräume gibt, sondern auch dadurch, dass beim Bayer-Sensor immer eine Reihe nur zwei Farben enthält und die nächste Reihe kein R und B. Wenn dadurch ein Farb-Moiré entsteht (in meinem o.g. Beispiel nur Hell-dunkel-Moiré), dann ist das meiner Ansicht nach nur mit grünen Mustern außer im 1:1 Verhältnis auch im 1:2-Verhältnis möglich, aber sind es nicht besonders die grünen Moiré-Muster, gegen die der Tiefpassfilter angehen soll?

 

Damit zu der anderen Frage: "was für eine Wirkung der Tiefpassfilter hat. Kann dadurch überhaupt die volle Auflösung erreicht werden?" Ich habe mal gelesen, bei älteren Kameras wird dadurch die max. Auflösung deutlicher herabgesetzt, als bei neueren Kameras. Es wird wohl so sein, dass da jetzt mehr bereits durch die Software erreicht wird, und dadurch der Tiefpassfilter abgeschwächt werden kann, aber in Zukunft werden neue Sensoren kommen, die eine komplexere Struktur, als die Bayer-Anordnung haben.

 

Wie ist es mit dem Foveon-Sensor? Das Farb-Moiré dürfte es da nicht geben, aber Hell-Dunkel-Moiré sicher auch.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Wird die Erklärung so einigermaßen klar?

 

Danke, die Erklärung finde ich gut verständlich. Moiré mit halber Auflösung (1:2) müsste dann fast jedes Objektiv schaffen, da es nur noch 6MP auflösen können müsste (ausgehend von einem 24MP-Sensor)? Die halbe Auflösung bezieht sich auf Bildhöhe und Bildbreite, das wären 3000x2000 Pixel.

 

 

Ich habe mal gelesen, bei älteren Kameras wird dadurch die max. Auflösung deutlicher herabgesetzt, als bei neueren Kameras.

 

Bei dxomark haben Objektive an der Canon 5DIII eine etwas höhere Auflösung als an der 5DII, trotz gleicher Sensorauflösung.

Link zum Beitrag
Auf anderen Seiten teilen

Moire bekommst Du, wenn sich zwei nicht übereinstimmende Raster (in unserem Fall Abtastung und Muster am Motiv) überlagern.

 

Eine saubere Abtastung bekommst Du, wenn die Abtastung mindestens doppelt so "fein" ist, wie das feinste Muster (Abtasttheorem Shannon/Nyquist)

 

 

Der AA Filter macht das Bild ab einer bestimmten Auflösung unscharf, sorgt also dafür, dass keine Strukturen vorhanden sind, die nicht sicher abgetastet werden können.

 

Die Auflösung, die man gewinnt, wenn man den AA Filter weglässt, ist also nicht echt ... das sind erfundene Strukturen, die vorhanden, aber auch durchaus verändert sein können. Zum Glück ist unser Auge da recht unempfindlich und das Gehirn bastelt sich das dann passend zurecht.

 

Moire zu verhindern, wird immer weniger mit AA Filtern gemacht, stattdessen wird versucht schon im RAWfile solche Strukturen zu erkennen und sie dann gezielt weichzuzeichnen. Der Auflösungsgewinn wird aber immer unsicher sein ... den meisten ist s egal, wenn es gut aussieht.

 

 

Die eigentlich bessere Methode wäre, einfach den AA Filter zu behalten, aber die Auflösung stark zu erhöhen, dann hätte man verlässliche Strukturen, müsste nicht rumrechnen und könnte (wenn die Auflösung nicht gebraucht wird) einfach die Bilder verkleinert ausgeben (womit dann auch die Farbinterpolation durch das Bayer Demosaiking keine Fehlerquelle mehr wäre.)

 

 

Aber wenn einer die Auflösung erhöht, müssen alle anderen aus marketingtechnischen Gründen auch nachziehen ... und verkleinern wird keiner, weil sonst der andere in den Katalogdaten einen Werbevorteil hat ;)

 

Das Ganze führt zu der widersinnigen Situation, dass die gleichen Leute auf der einen Seite höhere Auflösungen ablehnen, an anderer Stelle aber Sensoren fordern, die keinen AA Filter haben :D

 

Der Foveonsensor spart sich das Farbmoire, weil kein Raster benötigt wird (naja, zumindest beim Originalen Foveon, die neuen arbeiten mit verschiedenen Farbauflösungen ... das sollte aber auf unsere Moirebetrachtung keinen Einfluss haben) aber Helligkeitsmoire ist logischerweise vorhanden, da auch der Foveon eine Auflösungsgrenze hat.

 

Das Ganze Thema ist aber meiner Ansicht nach ziemlich hochgespielt, bei den aktuellen Auflösungen, hat man kaum noch Moireprobleme ... oft sorgen schon die Objektive dafür, dass soetwas nicht aufkommt ;) (Qualität und Beugung)... und was trotzdem noch durchkommt, wird elektronisch entfernt (das klappt inzwischen wirklich zuverlässig)

 

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

Die Auflösung eines Objektivs wird heute oft angegeben in der Anzahl Linien pro Bildhöhe bei einem Kontrastabfall von 50% (MTF50). In Wirklichkeit lösen die meisten Objektive auch wesentlich feinere Strukturen noch auf, jedoch bei geringerem Kontrast. Auch Moiré kann bei Kontrastdifferenzen von 20% und weniger noch sichtbar sein.

Link zum Beitrag
Auf anderen Seiten teilen

Das Ganze Thema ist aber meiner Ansicht nach ziemlich hochgespielt, bei den aktuellen Auflösungen, hat man kaum noch Moireprobleme ... oft sorgen schon die Objektive dafür, dass soetwas nicht aufkommt ;) (Qualität und Beugung)...

 

Das Thema kam auch nicht wegen Praxisproblemen auf, sondern weil ich es als Schärfenachweis genommen habe (ok, das wiederum kam daher, dass bei mir Moiré in den letzten Tagen tatsächlich mal aufgefallen war bei ein paar Bildern, aber das ist sehr selten). Was die Objektive angeht, das werde ich bei Gelegenheit mal testen. Ich gehe davon aus, das mit jedem halbwegs anständigen Objektiv provozieren zu können.

Link zum Beitrag
Auf anderen Seiten teilen

Die Auflösung eines Objektivs wird heute oft angegeben in der Anzahl Linien pro Bildhöhe bei einem Kontrastabfall von 50% (MTF50). In Wirklichkeit lösen die meisten Objektive auch wesentlich feinere Strukturen noch auf, jedoch bei geringerem Kontrast. Auch Moiré kann bei Kontrastdifferenzen von 20% und weniger noch sichtbar sein.

Bei meiner Suche nach verlässlichen Angaben zur Auflösung des Vario-Tessar 4/16-70 bevor ich mich für dieses (und gegen das kleine "Pancake-Objektiv") entschieden hatte, habe ich sehr verschiedene Arten der Messungen und Ergebnisse für dieses Objektiv gefunden. 

 

Man muss also in dem Satz "wird heute oft angegeben ..." das Wort "oft" betonen, denn es ist leider nicht so, dass das eine feste Regel wäre. Wenn ich zwei Tests in verschiedenen Quellen über zwei Objektive lese, dann kann selbst die doppelte Zahl in dem einen Test, als die in dem anderen Test bedeuten, dass das beschriebene Objektiv geringer auflöst. Da wurden meinem Objektiv an einer Stelle 16 MP als mögliche Auflösung bescheinigt. Das wären 3266 Linien / Bildhöhe (3266*4899). An anderer Stelle hatte ich gelesen, in der Bildmitte bei mittlerem Zoom erreicht es 110 LP/mm. Das wären auf die Bildhöhe 3476 Linien. Damit könnte es bis zu 18 MP auflösen. Nach DxOMark löst es aber nur 8 MP auf. Aber da stand zum Glück mit deren Messung beurteilt auch das Pancake-Objektiv (16-50) mit 6 MP drin, so dass ich auch einen Vergleich bei gleicher Methode hatte.

 

Ich denke mal, da wird bei diesen Angaben DxOMark die einzige Stelle gewesen sein, bei der die 50% Kontrast mit berücksichtigt wurden und wohl auch der Auflösungs-Abfall nach außen hin. Anders ist dieser drastisch andere Wert gegenüber anderen Testangaben nicht zu verstehen.

 

Entscheidender waren daher für mich Bilder, die in 100%-Auflösung abrufbar waren. Auf vergleichbare Messmethoden bei unterschiedlichen Internetseiten und bei Warentest, Chip, Computerbild und ähnlichen "Fachleuten für Fotografie", die da auch mitmischen, kann man sich definitiv nicht verlassen. Jeder gibt die Auflösung nach anderen Maßstäben an. 

 

Wegen dieser nicht vergleichbaren Ergebnisse der vielen Tests sind die Praxisberichte der Praktiker umso wichtiger. Dem entsprechend möchte ich hier auch mal ein ausdrücklichen Dank an den TO dieses Threads, Phillip richten, der hier zum Vario-Tessar 4/16-70 und in seinem Blog zu weitern wichtigen Themen den Suchenden doch sehr viel Hilfe leistet. 

Link zum Beitrag
Auf anderen Seiten teilen

Es kommt auch darauf an, wie man die Auflösung mittelt ... der eine misst in der Mitte und lässt ein wenig Rand einfliessen, der andere mittelt einfach ... und viele Zwischenstufen.

 

Genau wie die Dynamikangaben, und die Rauschangaben, kann man die Auflösungsangaben nur auf jeweils einer Seite vergleichen.

 

 

Das Kitobjektiv ist übrigens bei den kürzeren Brennweiten mittig sehr scharf ... ich hatte es damals, als es rauskam auf einer Hausmesse probiert und es mir dann recht schnell gekauft, ich mag seine Bildanmutung, auch wenn ich mir für Backsteinmauern wohl doch ein anderes Objektiv wünschen würde ;)

Link zum Beitrag
Auf anderen Seiten teilen

  • 2 months later...

Seit wann gilt das so?

Damals jedenfalls (Ende 1970ger und Anfang 1980ger Jahre), als ich mich sehr intensiv mit der Photografie beschäftigt hatte wie danach aus Zeitgründen nie wieder (und Color-Photo über mehrere Jahre abonniert hatte), galt für die Messung der Naheinstellgrenze der Abstand vom Objekt zur optischen Mitte des Objektives, als theoretisch dem Punkt, der vom Film - heute Sensor - den Abstand der Nennbrennweite hat. 

 

 

Also mir hat man das damals in den 80ern so erklärt, dass die Filmebene (Markierung auf der Kamera) bis zum Objekt die Entfernung wäre und auch so gemessen würde.

 

 

Die Entfernung zur optischen Mitte, ist als Entfernungsangabe in der Praxis nutzlos, denn willst Du wirklich im Gras liegend anfangen zu überlegen, wo denn die optische Mitte Deines Makroobjektivs im ausgefahrenen Zustand sein könnte?

 

Auch würde damit keine Vergleichbarkeit verschiedener Objektive ermöglicht .. wozu braucht man diese Angabe also?

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...