Jump to content

Was sagen Line Pairs/Image Height über Auflösung in Megapixel aus?


Recommended Posts

Werbung (verschwindet nach Registrierung)

Hallo,

 

kürzlich habe ich auf dem sehr interessanten Test-Blog von Lensrentals u.a. dies gefunden, einen MTF-Test diverser 50mm-Objektive: https://www.lensrentals.com/blog/2012/01/the-great-50mm-shootout

 

Unter idealen Bedingungen (optimale Blende etc.) löst ein gutes Objektiv da im Durchschnitt (d.h. von Bildmitte zu Bildrand, wobei die Mitte stärker gewichtet wird) gut 1 000 Linienpaare pro Bildhöhe auf.

Wir wissen, dass eine Linie nur ein verlängerter Punkt ist. Oder wie Zeiss in seinem "How to read MTF curves" schreibt: It takes  two  pixels  to  display  a  line pair made up of a bright and a dark line. (http://www.zeiss.com/content/dam/Photography/new/pdf/en/cln_archiv/cln31_en_web_special_mtf_02.pdf)
 

Mache ich einen Denkfehler, wenn ich daraus nun interpoliere:

1000 Linienpaare = 2000 Linien

Bildhöhe x 1,5 = Bildbreite bei einem 3:2-Sensor (beide o.g. Dokumente sprechen im Übrigen von Vollformat)

2000 Linien in der Bildhöhe x (2000 x 1,5 =) 3000 Linien in der Bildbreite = 6 Millionen Punkte = 6 Megapixel

 

Dann hätte keins der Objektive mehr Auflösung als 6-8 Megapixel.

Ich habe mit einigen der getesteten Objektive selbst gearbeitet und würde die Abstufungen bestätigen, die die Testergebnisse zeigen, also dass etwa ein Leica Summicron 50 schärfer ist als ein Nikon 50 1.2 AiS. 

Aber füllen die Objektive wirklich - zwei Megapixel hin oder her - nur ein Viertel eines modernen Sensors mit differenzierten Informationen? Der Rest wären dann mehr Pixel, aber nicht mehr Details. Das widerspricht gefühlt meiner Erfahrung, vielleicht ist es aber auch nur Wunschdenken. Ich könnte es jedenfalls weniger deutlich belegen/vergleichen als die Unterschiede zwischen eben zwei Objektiven.

 

Link to post
Share on other sites

... und um diese 6 MP sauber abzutasten benötigst Du 24 MP auf einem Bayerraster (bzw auf jedem Raster)

 

Das sagt uns das Nyquist-Shannon Theorem

 

https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem

 

kurz:

 

eine saubere Abrtastung einer Linie ist nur möglich, wenn man mit der doppelten Abtastfrequenz arbeitet.... das einmal auf die Höhe und auf die Breite, ergibt die vierfache Pixelzahl, die Du aus den Linien errechnet hast.

 

 

Dabei laufen wir natürlich in unsauberes Denken ;) .. weil 

 

 

a )  die Linien bei einem bestimmten Kontrast gemessen werden ... evtl. sehen die nicht mehr sauber getrennt aus, wenn man sie unter praktischen Fotobedinungen betrachtet ... oder man sieht noch Details, wo bei der Messung kein aussreichender Kontrast mehr vorhanden war.

 

 

b ) hast Du ein Bayerraster, das die Helligkeitsinformationen zwar abtastet, aber mit Farbfiltern arbeitet, um die Farben aus einem SW sehenden Sensor errechnen zu können. 

Sind Deine 1000 Linien beispielsweise rot, hast Du ein Problem, weil Dein Sensor nur auf jedem 4. Feld rot sehen kann ... sprich dann steigt Deine benötigte Sensorauflösung auf rund 100MP, um Deine roten Linien perfekt abtasten und sehen zu können.

 

 

 

 

 

Der Rest wären dann mehr Pixel, aber nicht mehr Details.

 

 

Das beschreibt ziemlich genau die Arbeitsweise eines Bayersensors.

 

Du kann da mal einen Versuch machen:

 

Rechne mit einem guten Algorithmus ein 24MP RAW Bild auf 12 MP herunter, dann rechne das Bild wieder auf 24 MP hoch (Du muss leicht nachschärfen, um evtl auftretende Interpolationsunschärfe zu entfernen) ... Du wirst sehen, dass kaum Details fehlen (auch schon im 12 MP Bild, wenn man es entsprechend grösser ansieht)

 

 

Das alles ist ein Technikproblem ... wenn man mit einem Sensorpunkt tatsächlich jede Farbe sehen könnte, würde man deutlich weniger Pixel brauchen ... wobei das Abtasttheorem davon nicht betroffen ist, das bleibt immer bestehen.

 

Leider gibt es noch keine vernünftige Technik, die das hinbekommt ... Foveonsensoren sind ein guter Ansatz, aber die leiden darunter, dass die Schichten übereinander angeordnet sind und die unterste Schicht kaum  noch Licht bekommt. 

 

Die beste Möglichkeit ist, einfach beim Bayersensor zu bleiben und die Auflösung extrem zu erhöhen ..... wobei die Frage sich stellt, ob man unbedingt die letzten Reserven des Objektivs ausloten muss .... schon weil, wie oben erwähnt, diese Auflösungsreserven für Menschen evtl. nicht mehr ansehnlich dargestellt werden können (Kontrastübertragung)

Link to post
Share on other sites

super Erklärung!
Ich würde noch zwei Dinge hinzufügen

 

Wenn es anders herum ist, also mehr Linien aufgelöst werden, als abgetastet werden können, bekommt man einen Verlust-Effekt im Sinne von Aliasing, oder eben als eher bekanntes Wort: Moiré. Dem kommt man mit einem Tiefpassfilter zuvor, welcher sozusagen schon optisch die Objektivauflösung wieder reduziert, natürlich angepasst auf den Sensor. Aber auch im Nachhinein liesse sich (und wird auch eingesetzt) dieses Problem mit einem elektronischen, sprich mathematischen, Tiefpass-Filter zumindest teilweise beseitigen. Allerdings ist hier die Frage wo dieser ansetzt, denn wenn die Pixel schon abgetastet und interpoliert wurden ist es für Helligkeitsinformationen (der schwarz-weiss-Info) zu spät.

 

Und zusätzlich noch, wie nightstalker auch schon anmerkt: die Bayer-Sensoren. In der Industrie verwendet man hauptsächlich farblose Sensoren um nämlich diesen Effekt, der eigentlich geringeren Farbauflösung, zu beseitigen. Und da kommt man mit weit weniger Pixeln aus.

Der Wegfall des Tiefpassfilters macht sich so dann bei Kameramodellen bemerkbar, die vor allem eine sehr hohe Auflösung haben. Bestes Beispiel eben die Sony a7r. Das schaffen viele Objektive schlichtweg nicht, wobei die vielen Reviews hier gar nicht auf den Aufbau eines Bayer-Sensors eingehen, das allerdings durchaus mal sollten. Die rechnen nämlich oft genauso, wie es nightstalker mit dem "unsauberen" Denken bezeichnet hat.

Es gab auch mal Sensoren mit 8-Kant-Pixeln, bei denen einige größer und andere kleiner waren. Frohes Rechnen :D

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
 Share

×
×
  • Create New...