Jump to content

Auflösung der Objektive bei HighRes - erstaunlich schlecht


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

https://www.43rumors.com/jim-chung-can-m43-lenses-actually-resolve-the-additional-resolution-of-high-res-mode/

Jetzt hat der Mann nur 6 Objektive von 80 MFT-Objektiven getestet. Erstaunlich ist, daß das so hochgelobte Zuiko 75mm auch nicht so gut auflöst, das eigentlich billige 45mm aber zur Spitzengruppe zählt.

Was machen denn die anderen teuren und guten Objektive? Die teuren "Leicas"? 

Welche Auswirkungen hat das denn auf die 8K-Kamera von Sharp? Die dürfte dann ja alles andere als sharp sein, wenn da hinten nix mehr am Sensor ankommt. 

Welches Testchart kann man sich selber mal ausdrucken oder im Großformat drucken lassen und das mal probieren? Was sind eure Tipps dazu?

Es gibt ja auch HighRes bei FF-Kameras? Schaffen das deren Objektive auch nicht oder geht das noch?

Link zum Beitrag
Auf anderen Seiten teilen

Das ist richtig, der Tester hat aber nur irgendwas um 30% mehr Auflösung bei den Spitzenobjektiven festgestellt. Anderswo konnte ich lesen, daß auch gute alte manuelle Objektive wie das Minolta MD 50mm f1,7 so manches moderne in den Schatten stellt. Jetzt habe ich das auch, auch mit Speedbooster oder ohne. Somit ergeben sich ja tausende Kombinationen. Wenn man jetzt ein Testchart hätte, was man selber in freier Natur und wolkigem Wetter abfotografieren kann, könnte man sehen, welche alte und jungen Schätze gut sind und welche Objektive auch eine gute Streuung nach oben oder unten haben. Es gibt für viele Dinge Tests, die Qualitäten ausdrücken, Blower-Door-Test bei Gebäuden, die Schummelsoftware-Tests bei VW bei laufendem Fahrbetrieb... Das sagt ja viel besser aus, wie gut ein Objektiv in Kombi mit der eigenen Kamera ist. Die haben sicher auch Unterschiede. 

Link zum Beitrag
Auf anderen Seiten teilen

Mir ist nicht klar, was die Auflösung guter Objektive mit dem Pixelshift zu tun hat.

Verschiebe ich den Sensor einmal unter einem guten Objektiv, bekomme ich an der selben Stelle zwei scharfe Pixel, unter einem weniger guten zwei unscharfe. Schafft das gute die für MFT nötige Auflösung, dann braucht es keine bessere Qualität, um ein besser aufgelöstet Bild durch Verschieben zu bekommen. Das Objektiv sieht jeweils nur die 20 MP und muss für die 20 MP optimiert sein.

Diese Rechnung ist mir unverständlich: It becomes more intuitive when one recognizes that FF camera sensors top out at about 50 MP and the Olympus High Res Mode generates a FF image equivalent of 200 MP – that lens optics and performance might become the limiting factor to the image’s final resolution. Das Objektiv sieht niemals die 200 MP, muss also auch nicht dafür geeignet sein.

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Auflösung hat mit Schärfe nur in begrenztem Maße zu tun.

Auflösung interessiert primär Wissenschaftler und Luftbildauswerter, sowie natürlich Pixelpeeper und Erbsenzähler.

Was Menschen als scharf empfinden, entspricht dagegen weitgehend dem Flächenintegral unter der Modulationstransferkurve des optischen Systems. Was heißt: kontrastreich abbildende Objektive erscheinen schärfer als kontrastarme 'flaue' Optiken, selbst wenn diese eine höhere messbare Auflösung haben.

Hires Bilder sind generell rauschärmer und haben eine feinere Farbdifferenzierung.

Den hires Mode meiner S1R (mit 50/1.4) habe ich noch nicht mit dem hires Mode meiner EM1X (25/1.2) verglichen, wird bestimmt ein Spaß. 😉

 

Link zum Beitrag
Auf anderen Seiten teilen

Bislang dachte ich, die Kamera nimmt - bei HighRes vom Stativ - 4 Aufnahmen mit 20,xx MP auf, jeweils um einen Pixel verschoben und nachträglich zusammengerechnet. Das Objektiv muss also nur 20,xx MP "schaffen", nicht 80MP.

Mir erschien es deshalb bislang gleichgültig, ob ein Objektiv 80MP auflösen kann oder nicht, solange es die 20MP locker wuppt.

Aber: man lernt ja nie aus.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 11 Minuten schrieb kalokeri:

Bislang dachte ich, die Kamera nimmt - bei HighRes vom Stativ - 4 Aufnahmen mit 20,xx MP auf, jeweils um einen Pixel verschoben und nachträglich zusammengerechnet...

Bei Olympus werden vom Stativ acht Aufnahmen gemacht: vier in vollen Schritten für die volle Farbinterpolation und vier in halben Schritten für die Auflösungserhöhung.

Bei der X und deren händischen HighRes-Modus werden bis zu 16 Aufnahmen verrechnet, die durch die natürliche Bewegung des Nutzers generiert werden.

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

Dieses Resultat war zu erwarten, weil der gute Mann bei f/4 getestet hat. Bei dieser Blende begrenzt die Beugung bereits ohne Pixelshift die mögliche Auflösung guter mFT-Objektive, bei 50 MP erst recht.

bearbeitet von matthis
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb matthis:

Dieses Resultat war zu erwarten, weil der gute Mann bei f/4 getestet hat. Bei dieser Blende begrenzt die Beugung bereits ohne Pixelshift die mögliche Auflösung guter mFT-Objektive, bei 50 MP erst recht.

Der Tester hat mit offener Blende UND mit f4 getestet.

Link zum Beitrag
Auf anderen Seiten teilen

 

vor 8 Stunden schrieb Kleinkram:

Mir ist nicht klar, was die Auflösung guter Objektive mit dem Pixelshift zu tun hat.

Verschiebe ich den Sensor einmal unter einem guten Objektiv, bekomme ich an der selben Stelle zwei scharfe Pixel, unter einem weniger guten zwei unscharfe. Schafft das gute die für MFT nötige Auflösung, dann braucht es keine bessere Qualität, um ein besser aufgelöstet Bild durch Verschieben zu bekommen. Das Objektiv sieht jeweils nur die 20 MP und muss für die 20 MP optimiert sein.

 

Zur Frage, ob das Objektiv bei Sensorschift 20 oder 80 MPixel sieht:

Meiner Meinung muss das Objektiv sehr wohl auf die hohe Auflösung ausgelegt sein (bzw. wegen der Beugung entsprechend lichtstark gebaut sein) 

Der Pixel-Schift ist ja nichts anderes, als einen Sensor mit mehr Pixeln zu simulieren. Wenn ein Lichtstreifen auf der  Sensorebene  projiziert ist, spielt es doch keine Rolle, ob darunter 1 oder mehr  Pixel sind, egal ob sie nun durch eine höhere Sensorauflösung oder verschieben des Sensors simuliert werden.  Oder auch wenn ein Staubkorn auf dem Sensor  oder dem Objektiv liegt, ist es egal, welche Auflösung der Sensor hat.

 

Bezüglich Beugung:

vor 5 Stunden schrieb Olly Mpus:

Der Tester hat mit offener Blende UND mit f4 getestet.

Bei offener Blende erreichen die meisten Objektive sowieso nicht die volle Auflösung und bei geschlossenerer Blende schlägt zunehmend die Beugung zu. 

Ich denke die Aussage oben ist schon richtig, dass die Beugung limitiert.

Wenn meine Erinnerung  richtig ist (Info finde ich gerade nicht),  kann MFT bei Blende 2.8 theoretisch durch Beugung begrenzt  etwa 60 MPixel auflösen, bei Blende 4 weniger. 

bearbeitet von benmao
Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb kalokeri:

Bislang dachte ich, die Kamera nimmt - bei HighRes vom Stativ - 4 Aufnahmen mit 20,xx MP auf, jeweils um einen Pixel verschoben und nachträglich zusammengerechnet. Das Objektiv muss also nur 20,xx MP "schaffen", nicht 80MP.

Mir erschien es deshalb bislang gleichgültig, ob ein Objektiv 80MP auflösen kann oder nicht, solange es die 20MP locker wuppt.

Aber: man lernt ja nie aus.

Das Objektiv muss die 80MP auflösen können.

Es kann immer nur das im fertigen Bild landen was auch auf die Bildebene projiziert wird, wenn dort nur 20MP hinprojiziert werden können keine 80MP im fertigen Bild landen.

Wenn man da einen High-Res Shot macht würden da mehr oder weniger 8 identische Bilder erstellt und es würden nur die zusätzlichen Farbinformationen aufgenommen aber nicht mehr Auflösung.

 

Mir fehlt in diesem Test erstmal der Beweis das mit dem High-Res Mode überhaupt doppelte Auflösungen aufgenommen werden können. Das erschliesst sich nicht so einfach nur weil der Sensor mutmaßlich genau einen halben Pixel verschoben wird. Die Pixel sind immernoch "zu groß" und ich nehme eine Mischmenge an Bildinformationen auf die vorher auf 2 Pixel verteilt waren. Es werden hier eher mit guten Algorithmen zusätzliche Bildinformationen aus mehreren "schlechten" Bildern erraten als wirklich präzise erfasst.

 

Was mich auch verwundert ist dass bei ihm alle Objektive ungefähr gleich gut sind, also z.B. ein 40-150 Kit nicht schlechter als ein 50/2 Makro, das galt mal als Referenzobjektiv.

Wer ist eigentlich dieser Jim Chung?

 

Grüße

Alexander

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb Zuiko-Knipser:

Mir fehlt in diesem Test erstmal der Beweis das mit dem High-Res Mode überhaupt doppelte Auflösungen aufgenommen werden können.

Das wird sie doch in dem Test. Die Diagramme zur Auflösung sind in der Einheit "Linien pro Bildhöhe", da sind die Werte mit den 50MP-HighRes-Bildern ca. Faktor 1.5 höher als mit 20MP. Da nun die Auflösung sowohl in der Bildhöhe wie auch in der Breite Faktor 1.5 größer wird mit HighRes, ergibt sich eine Steigerung der Auflösung von 1.5 x 1.5 = 2.25.

Warum nimmt der Typ zur Auswertung nur die 50MP-Bilder und nicht die raw-Ausgabe mit 80MP?

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb Olly Mpus:

Der Tester hat mit offener Blende UND mit f4 getestet.

Bei den Tests von OpticalLimits kann man sehen, dass die höchste Auflösung eines ausgezeichneten Objektivs wie z. B. des 1.8/75mm weder offen noch bei f/4, sondern bei f/2.2 erzielt wird. Zufall oder nicht (ich weiss nicht, ob das von Jim Chung verwendete Testverfahren mit dem bei OpticalLimits eingesetzten Imatest vergleichbar ist), bei f/4 ist bei beiden Tests das Maximum bei f/4 bei rund 3000 Linien pro Bildhöhe. Im Fall von OpticalLimits wird zwar nur eine 16 MP-Kamera verwendet, aber durch das "Slanted-Edge-Verfahren" von Imatest, bei dem entlang einer schräg zum Sensor liegenden Schwarz-Weiss-Kante gemessen wird, kann eine höhere Auflösung gemessen werden, als effektiv im 16MP-Bild wiedergegeben werden kann, und zwar in einer ähnlichen Weise, wie die höhere Auflösung bei Pixelshift entsteht.

vor 17 Stunden schrieb Olly Mpus:

Es gibt ja auch HighRes bei FF-Kameras? Schaffen das deren Objektive auch nicht oder geht das noch?

Wenn ich mich nicht irre, kommt hier der Crop-Faktor zum Tragen, d.h. die Beugung schlägt bei KB erst bei der doppelten Blendenzahl gleich zu (bei gleicher Auflösung). Entsprechend grösser ist der Blendenbereich, der nicht von Beugung betroffen ist (vergleichbare Lichtstärke vorausgesetzt).

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb matthis:

ausgezeichneten Objektivs wie z. B. des 1.8/75mm weder offen noch bei f/4, sondern bei f/2.2

auf anderen Seiten wird f/4 als optimale Blende angegeben.

https://www.lenstip.com/351.4-Lens_review-Olympus_M.Zuiko_Digital_75_mm_f_1.8_ED_Image_resolution.html

https://www.ephotozine.com/article/olympus-m-zuiko-digital-75mm-f-1-8-lens-review-20557

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb pizzastein:

Das wird sie doch in dem Test. Die Diagramme zur Auflösung sind in der Einheit "Linien pro Bildhöhe", da sind die Werte mit den 50MP-HighRes-Bildern ca. Faktor 1.5 höher als mit 20MP. Da nun die Auflösung sowohl in der Bildhöhe wie auch in der Breite Faktor 1.5 größer wird mit HighRes, ergibt sich eine Steigerung der Auflösung von 1.5 x 1.5 = 2.25.

Warum nimmt der Typ zur Auswertung nur die 50MP-Bilder und nicht die raw-Ausgabe mit 80MP?

Der Autos behauptet aber das die Auflösung in jede Richtung verdoppelt wird und damit in der Fläche die 4 fache Auflösung erreicht werden muss.

Das leitet er einfach davon ab das ja 2 Bilder mit je einem halben Pixel Versatz gemacht werden: 2 Bilder = 2xAuflösung.

Das entspricht ja dann auch den 80MP im High-Res Mode im Vergleich zu den "normalen" 20MP.

Und das ist für mich eben zu einfach als das ich es glaube.

 

Grüße

Alexander

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Stunden schrieb Zuiko-Knipser:

Das Objektiv muss die 80MP auflösen können.

Es kann immer nur das im fertigen Bild landen was auch auf die Bildebene projiziert wird, wenn dort nur 20MP hinprojiziert werden können keine 80MP im fertigen Bild landen.

Ist das nicht ein bisschen so als wenn man durch ein Lochblech schaut mit fester Position. Wenn man sich nur ein bisschen bewegt, kann man sofort viel mehr sehen. Die Pixel liegen auch nicht ohne Luft dicht an dicht, da ist auch ein Zwischenraum. Und dieser Zwischenraum wird durch Pixelshift ausgefüllt. Insbesondere bei der diagonalen Verschiebung wird restlos die ganze Oberfläche abgetastet. Also wird eigentlich das Objektiv garnicht mehr gefordert, es wird nur völlig ausgeschöpft und kann so logischerweise nicht über sich hinauswachsen in Sachen Auflösung. Vermutlich wird der alte 5MP Sensor, der ursprünglich durch das 50mm f2 geschaut hat nicht nur 1/10 auflösen gegenüber dem HighRes Foto mit 50MP. 

Ich denke fast, der Auflösungsgewinn von kaum 50 bis 60% kommt aus den "ausgefüllten" Pixelzwischenräumen, die vermutlich ähnlich viel ausmachen. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 29 Minuten schrieb Zuiko-Knipser:

Der Autos behauptet aber das die Auflösung in jede Richtung verdoppelt wird und damit in der Fläche die 4 fache Auflösung erreicht werden muss.

Das leitet er einfach davon ab das ja 2 Bilder mit je einem halben Pixel Versatz gemacht werden: 2 Bilder = 2xAuflösung.

Das entspricht ja dann auch den 80MP im High-Res Mode im Vergleich zu den "normalen" 20MP.

Und das ist für mich eben zu einfach als das ich es glaube.

Dies solltest du auch nicht glauben, da es schlichtweg Unsinn ist. Die Abtastung sich partiell überlagernder Bereiche dieser Methode wird auch seitens Olympus nicht bestritten und bedingt u.a. deren Entscheidung die ooc JPGs, im Gegensatz zu den RAWs, mit dementspechend weniger als 80 MP auszugeben.

Link zum Beitrag
Auf anderen Seiten teilen

Ne dein Beispiel passt gar nicht. Das würde zu einem Tilt-Shift Objektiv passen aber nicht zu Pixel-Shift.

Vllt. kann man dein Beispiel es noch mit einem gestackten Panorama vergleichen. In jedem Fall müsste der Sensor im Verhältnis zum Objektiv ganz deutlich verschoben werden, nicht nur einen halben Pixel.

Auf den Sensoren sind schon seit Ewigkeiten Microlinsen verbaut die das Licht auf die "Pixel" bündeln, da geht schon lange keine Licht "dazwischen" mehr verloren.

https://www.digitalkamera.de/Meldung/Neuer_Panasonic-Sensor_bringt_neue_Hoffnung/4060.aspx

 

Selbst wenn es so wäre kannst du immernoch nicht aus einem Objektiv welches nur 20MP Auflösung bringt 80MP rausholen. In den Freiräumen zwischen den Pixeln würde kein anderes Licht auftreffen als auf den Pixeln an sich. ( Mal abgesehen von der grauenhaften Vereinfachung das ein Objektiv eine Auflösung von irgendwelchen Pixeln hätte)

Eine Objektivauflösung muss man in Linienpaaren pro Millimetern bei gegebenem Kontrast angeben, der Sensor tastet das ab. Die Gesamtauflösung ist ein Produkt aus Abtast- und Objektivauflösung und immer geringer als eines von beiden. D.h. das die Gesamtauflösung niemals die des Objektivs übersteigen kann, egal wie du mit dem Sensor hinten rumwackelst 😅

Damit das System funktioniert muss das Objektiv deutlich mehr Auflösung bringen als der Sensor abtasten kann, was i.d.R. auch gegeben ist. Damit sich die Auflösung aber verdoppelt müsste das Objektiv immernoch wesentlich besser sein als 80MP Abtastauflösung.

Wenn du ein Objektiv hast das 100LP/mm auflösen kann und einen Sensor der 200Pixel pro mm an Auflösung hat wirst du in der Realität eher bei der Hälfte an Auflösung im fertigen Bild landen. Damit du die Auflösung des Objektivs voll ausschöpfen kannst muss dein Sensor die doppelte Abtast-Auflösung bringen. Das nennt sich die Nyquist Grenze. Je näher du der Grenze kommst desto geringer ist jedoch der Gewinn.

 

Grüße

Alexander

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb flyingrooster:

Dies solltest du auch nicht glauben, da es schlichtweg Unsinn ist. Die Abtastung sich partiell überlagernder Bereiche dieser Methode wird auch seitens Olympus nicht bestritten und bedingt u.a. deren Entscheidung die ooc JPGs, im Gegensatz zu den RAWs, mit dementspechend weniger als 80 MP auszugeben.

Tue ich ja nicht 😉

Aber genau das behauptet der Autos dieses "Tests" weswegen das für mich totaler Mumpitz ist.

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb matthis:

Wenn ich mich nicht irre, kommt hier der Crop-Faktor zum Tragen, d.h. die Beugung schlägt bei KB erst bei der doppelten Blendenzahl gleich zu (bei gleicher Auflösung).

Ja, bei KB mit 24MP habe ich einen Schärfeabfall durch Beugung erst ab ca. f11 gesehen (bei sehr guten Objektiven und genauem Pixelpeepen auch schon ab f8). Bei sehr hohen Auflösungen kommt amn schnell in Konflikt mit Schärfebereich vs. Beugung.

vor einer Stunde schrieb Zuiko-Knipser:

Der Autos behauptet aber das die Auflösung in jede Richtung verdoppelt wird und damit in der Fläche die 4 fache Auflösung erreicht werden muss.

Aber wie will er das messen, wenn er keine Bilder mit 4x Auflösung zur Auswertung nimmt? Das ergibt keinen Sinn.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...