Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Mmh, bei meinen Sony a mount Objektiven von Sony-Zeiss lag auch immer ein Zettel mit Zeiss Logo drinne, auf dem jemand die Qualiät unterschrieben hatte. Kein Aufdruck, sondern Kuli oder Tinte.

 

Man muss wohl zwischen mechanischem und optischem Bildtest unterscheiden. Das erstere ist sicherlich mit weniger Aufwand verbunden als das zweite.

 

 

Die Mechanik ist 50% von Ganzen, denn ohne eine hochpräzise Mechanik, taugt auch die beste optische Rechnung nichts!   Aus noch alter Schule, habe ich da heute mit dem Plaste-Elaste-Material, immer so meine Bedenken! Auf der anderen Seite, gibt es heutzutage schon Kunststoffe, die weitaus stabiler als die üblichen Metalle sind, die im Objektivbau benützt werden. Die Frage ist nur, ob diese dort auch eingesetzt werden!  Außen werden die Objektive in einem attraktiven Alu-Blechmantel schön verkleidet und im Inneren, schlägt ein Kunststoffherz, das für den gesamten leichtgängigen AF-Betrieb etc. immer mehr erforderlich ist.

 

Auch sehe ich heute keine langlebige dauerhaften Lösung mehr, dafür drehen sich die elektronischen und digitalen Innovationen immer schneller! 

 

Der Enkel kann nicht mehr erwarten, dass der Opa seine gute alte Kamera noch vererben kann!

Link zum Beitrag
Auf anderen Seiten teilen

Bei f/8 hingegen hat es nicht nur kaum einen Vorteil, es hat sogar den Nachteil der Verzeichnung. Diese zu korrigieren kostet über 10% der Bildschärfe und peng! am Ende ist das Bild vom 1200€ Batis weniger Scharf, als

Dem traue ich nicht, denn selbst in der Bildmitte hat er ja auch bereits 10% MTF50 Verlust. Das ist natürlich Unsinn. Ich vermute, daß der RAW-Konverter da nicht nur in die Verzeichnung eingegriffen hat.

 

BG lightdreamer

bearbeitet von lightdreamer
Link zum Beitrag
Auf anderen Seiten teilen

Dem traue ich nicht, denn selbst in der Bildmitte hat er ja auch bereits 10% MTF50 Verlust. Das ist natürlich Unsinn. Ich vermute, daß der RAW-Konverter da nicht nur in die Verzeichnung eingegriffen hat.

 

 

Nein, das ist "natürlich" kein Unsinn, siehe mein Posting #291

Link zum Beitrag
Auf anderen Seiten teilen

Du hast natürlich recht, da hätte man auch schon einhaken müssen:

Der Verlust an Auflösung entsteht dadurch, dass die Bilddaten für die Verzeichnungskorrektur interpoliert werden müssen. Die neu berechneten Pixel fallen dann quasi zwischen den Pixelraster. Dieser Effekt ist praktisch unabhängig davon, wie hoch die zu korrigierende Verzeichnung ist.

das war auch schon Falsch. Es wird beim Bayer Filter sowieso immer aus den "Stützpunkten" der Nachbarpixel interpoliert. Die Bayer-Sensordaten liefern ja an keinem einzigen Ort ein RGB Pixel.

 

Nein, das ist "natürlich" kein Unsinn, siehe mein Posting #291

 

Der Auflösungsverlust entsteht durch die geometrische Streckung (z.B. bei tonnenförmiger Verzeichnung in den Ecken) und die dadurch geringere Ortsabtastung. In der Bildmitte passiert da aber aber rein gar nichts, bzw. ist es um Größenordnungen vernachlässigbar.

 

BG lightdreamer

Link zum Beitrag
Auf anderen Seiten teilen

Du hast natürlich recht, da hätte man auch schon einhaken müssen:

das war auch schon Falsch. Es wird beim Bayer Filter sowieso immer aus den "Stützpunkten" der Nachbarpixel interpoliert. Die Bayer-Sensordaten liefern ja an keinem einzigen Ort ein RGB Pixel.

 

 

Der Auflösungsverlust entsteht durch die geometrische Streckung (z.B. bei tonnenförmiger Verzeichnung in den Ecken) und die dadurch geringere Ortsabtastung. In der Bildmitte passiert da aber aber rein gar nichts, bzw. ist es um Größenordnungen vernachlässigbar.

 

BG lightdreamer

 

Bei der Bayer-Interpolation werden nur die fehlenden RGB-Pixel interpoliert.

 

Nun denk mal scharf darüber nach, was mit einer Kontrastkante passiert, wenn man sie z. B. um 1/3 Pixel verschiebt.

 

Alternativ kannst Du ein beliebiges, ausreichend scharfes Bild z. B. mit IrfanView auf 99% oder 101% skalieren und die Details vergleichen. Du wirst erkennen, dass der Verlust an Auflösung mehr als nicht wahrnehmbare 1% beträgt (und schon gar nicht nimmt die Auflösung beim Skalieren auf 99% um 1% zu). Dadurch erklärt sich, dass (wie von Roger Cicala gemessen) die Auflösung übers ganze Bildfeld um 15% einbricht. Die geometrische Streckung hat den kleinsten Anteil daran.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

(...)

 

Nun denk mal scharf darüber nach, was mit einer Kontrastkante passiert, wenn man sie z. B. um 1/3 Pixel verschiebt.

 

(...) Die geometrische Streckung hat den kleinsten Anteil daran.

 

Da sind wir beim Knackpunkt, dem Algorithmus, nach dem das Objektiv gerechnet und die Software-Korrektur vorgenommen wird.

Was ist denn, wenn gar nicht getreckt wird, sondern der Bildwinkel ausschließlich mit Tonnenverzeichnung um die 5...6% größer ausgelegt und bei der Korrektur nur gestaucht wird? Dabei wird nichts interpoliert, zwischen die Pixel gelogen.

Als Denkhilfe: Wie verändern sich Schärfe und Auflösung im Bild, wenn es mit 50% ausgegeben wird?

 

Die Scherbe, die Roger Cicala als Beispiel genommen hat, kenne ich. Bei dem Ding ist auch ohne Korrektur schon Hopfen und Malz verloren. Das Gesamtergebnis sieht ganz anders aus, wenn Objektive korrigiert werden, die schon für nachträgliche Korrektur berechnet wurden. Deshalb ist bei denen der Bildwinkel ohne Korrektur auch ein Stück größer als mit. Auf diese Weise hat die Kittscherbe 14-42/3,5-5,6 II (am 12 MP-Sensor) am Ende ein besseres Ergebnis gebracht als das (mein verwendetes) Canon 24-105 f/4 IS an der 5DII (ebenfalls von mir für diesen Vergleich verwendet) nach herunterskalieren auf 12 MP. Das muss man sich mal auf der Zunge zergehen lassen! Das Canon 24-105 f/4 IS war nie für eine nachträgliche Korrektur ausgelegt worden.

Link zum Beitrag
Auf anderen Seiten teilen

Bei der Bayer-Interpolation werden nur die fehlenden RGB-Pixel interpoliert.

 

Nun denk mal scharf darüber nach, was mit einer Kontrastkante passiert, wenn man sie z. B. um 1/3 Pixel verschiebt.

Erst mal folgendes: Ich möchte hier keinen Streit, fühle dich bitte nicht persönlich angegriffen,

Leute die nicht über das nötige mathematische Wissen verfügen denken da oft viel zu naiv, das betrifft viele.

 

Ich kenne jetzt nicht deinen mathematischen Hintergrund (Ingenieur, Physiker oder dergl. scheinst du jedenfalls nicht zu sein), aber glaube mir, du liegst falsch.

 

Deine Kontrastkante tut dir nämlich nicht den gefallen an der Grenze zweier Pixel zu liegen sondern sie liegt praktisch immer verschoben, ob für rot grün oder blau oder, wie fast immer, für alle drei.

 

Die heutigen RAW-Konverter Algorithmen arbeiten um Größenordnungen komplexer als du annimmst.

 

Ohne tiefer auf die Mathematik einzugehen ist das schwierig zu erklären.

Ich hatte das vor einigen Jahren mal versucht:

http://www.dslr-forum.de/showpost.php?p=11200677&postcount=24

 

BG lightdreamer

Link zum Beitrag
Auf anderen Seiten teilen

Erst mal folgendes: Ich möchte hier keinen Streit, fühle dich bitte nicht persönlich angegriffen,

Leute die nicht über das nötige mathematische Wissen verfügen denken da oft viel zu naiv, das betrifft viele.

 

Ich kenne jetzt nicht deinen mathematischen Hintergrund (Ingenieur, Physiker oder dergl. scheinst du jedenfalls nicht zu sein), aber glaube mir, du liegst falsch.

 

Deine Kontrastkante tut dir nämlich nicht den gefallen an der Grenze zweier Pixel zu liegen sondern sie liegt praktisch immer verschoben, ob für rot grün oder blau oder, wie fast immer, für alle drei.

 

Die heutigen RAW-Konverter Algorithmen arbeiten um Größenordnungen komplexer als du annimmst.

 

Ohne tiefer auf die Mathematik einzugehen ist das schwierig zu erklären.

Ich hatte das vor einigen Jahren mal versucht:

http://www.dslr-forum.de/showpost.php?p=11200677&postcount=24

 

BG lightdreamer

 

Die meisten sind hier mehr oder weniger anonym unterwegs, darunter auch solche, die bei jeder Gelegenheit von sich behaupten, Fachleute zu sein, aber offensichtlich keine sind, wie der omnipräsente Kollege oben. Ich schlage darum vor, dass wir die Kraft der Argumente spielen lassen, statt uns CVs und Diplome um die Ohren zu schlagen  ;)

 

Die von Dir angesprochenen modernen RAW-Konverter-Algorithmen sind sehr gut darin, aufgrund benachbarter Pixel die Position von Kontrastkanten zu erraten (Heuristik), diese plausibel an die Pixelgrenzen zu verschieben und dadurch einen hohen Schärfeeindruck zu erzielen. Für eine Vielzahl von Motiven funktioniert das einwandfrei, bei anderen (z. B. regelmässige Strukturen an der Nyquist-Grenze oder Gras) werden allerdings die Grenzen der Methode sichtbar, die sich in Artefakten zeigen.

 

Zur Kontrastkante an der Pixelgrenze: Dass die Kontrastkante in Wirklichkeit nicht an der Pixelgrenze liegt, tut dem Argument keinen Abbruch. Der RAW-Konverter "weiss" nicht, wo die Kontrastkante wirklich liegen sollte. Er kann die genaue Position allenfalls erraten (siehe unten). Das ändert aber nichts daran, dass die Position zweier nebeneinander liegender Pixel unterschiedlicher Helligkeit nach der Skalierung mit einem nicht ganzzahligen Faktor oder Teiler nicht mehr exakt gleich wiedergegeben werden kann. Entweder wird die Kontrastkante geglättet oder sie wird verschoben. Beides führt zu einem mehr oder weniger grossen, prinzipiell unumkehrbaren Verlust an Auflösung.

 

Weil in der Praxis der Schärfeeindruck wichtiger ist als die messbare Auflösung, ist das alles eher theoretisch und das Problem wird sich mit höheren Sensorauflösungen sowieso erledigen. Ich konnte jedenfalls noch nie einen sichtbaren Schärfeverlust durch die Verzeichnungskorrektur in LR feststellen. (Bei CA-Korrektur schon, aber dafür gibt es noch andere Gründe)

Link zum Beitrag
Auf anderen Seiten teilen

Ein schöner Beitrag von Dir!

 

Das erinnert mich an etwas bez. SonyZeiss-Objektiven.

 

Es gab vor Jahren einen Fehler, etwas mechanisches, weiss leider keine Details mehr. Ich glaube, dass der front tubus sich unerwartet löste. Es betraf das Sony A mount Objektiv 135/1,8 (FF Objektiv).

Ich besitze die Linse (ohne dieses Fehlersymptom) und bin froh, dass es beide zu ihren günstigen Preisen so zu erwerben gab. Bin sehr zufrieden und das folgende soll kein bashing sein. Aber die Schilderung passt an dieser Stelle.

 

Wie auch immer, es ist ein Sony Service manual ins Internet gelangt. Dort wurde als Fehlerbehebungsmethode die Fixierung von irgendetwas durch Klebeband beschrieben.

 

Die Kenntnis darüber erzeugte bei mir zwiespältige Gefühle:

1. shit, ein so teures Objektiv muss durch etwas so fragiles wie ein Stück Klebeband am Leben gehalten werden.

2. toll, beide Firmen sind noch so flexibel, dass man einfache hemdsärmlige workarounds umsetzen kann.

3. shit, das engineering im Objektivbau in Japan lässt die Beteiligung qualifizierter deutscher Maschinenbauingenieure vermissen. Oder schrottige rein kostengetriebene Entwicklungsprojekte, bei denen die Zeit schon für qualitatives Design an allen wichtigen Stellen fehlt - als Erklärung für diesen peinlichen Konstruktionsfehler.

 

Ich bin sicher, dass nicht nur die Einführung des AF an solchen unschönen Erfahrungen schuld ist...

 

 

Die Mechanik ist 50% von Ganzen, denn ohne eine hochpräzise Mechanik, taugt auch die beste optische Rechnung nichts! Aus noch alter Schule, habe ich da heute mit dem Plaste-Elaste-Material, immer so meine Bedenken! Auf der anderen Seite, gibt es heutzutage schon Kunststoffe, die weitaus stabiler als die üblichen Metalle sind, die im Objektivbau benützt werden. Die Frage ist nur, ob diese dort auch eingesetzt werden! Außen werden die Objektive in einem attraktiven Alu-Blechmantel schön verkleidet und im Inneren, schlägt ein Kunststoffherz, das für den gesamten leichtgängigen AF-Betrieb etc. immer mehr erforderlich ist.

 

Auch sehe ich heute keine langlebige dauerhaften Lösung mehr, dafür drehen sich die elektronischen und digitalen Innovationen immer schneller!

 

Der Enkel kann nicht mehr erwarten, dass der Opa seine gute alte Kamera noch vererben kann!

Link zum Beitrag
Auf anderen Seiten teilen

Ein schöner Beitrag von Dir!

 

Das erinnert mich an etwas bez. SonyZeiss-Objektiven.

 

Es gab vor Jahren einen Fehler, etwas mechanisches, weiss leider keine Details mehr. Ich glaube, dass der front tubus sich unerwartet löste. Es betraf das Sony A mount Objektiv 135/1,8 (FF Objektiv).

Ich besitze die Linse (ohne dieses Fehlersymptom) und bin froh, dass es beide zu ihren günstigen Preisen so zu erwerben gab. Bin sehr zufrieden und das folgende soll kein bashing sein. Aber die Schilderung passt an dieser Stelle.

 

Wie auch immer, es ist ein Sony Service manual ins Internet gelangt. Dort wurde als Fehlerbehebungsmethode die Fixierung von irgendetwas durch Klebeband beschrieben.

 

Die Kenntnis darüber erzeugte bei mir zwiespältige Gefühle:

1. shit, ein so teures Objektiv muss durch etwas so fragiles wie ein Stück Klebeband am Leben gehalten werden.

2. toll, beide Firmen sind noch so flexibel, dass man einfache hemdsärmlige workarounds umsetzen kann.

3. shit, das engineering im Objektivbau in Japan lässt die Beteiligung qualifizierter deutscher Maschinenbauingenieure vermissen. Oder schrottige rein kostengetriebene Entwicklungsprojekte, bei denen die Zeit schon für qualitatives Design an allen wichtigen Stellen fehlt - als Erklärung für diesen peinlichen Konstruktionsfehler.

 

Ich bin sicher, dass nicht nur die Einführung des AF an solchen unschönen Erfahrungen schuld ist...

 

 

 

Dazu passt das ganz gut:

http://www.lensrentals.com/blog/2015/04/tearing-down-the-sony-24-70-f4-za-oss-vario-tessar

Bleibt zu hoffen, dass Zeiss bei den eigenen Konstruktionen zu robusteren Lösungen greift.

Link zum Beitrag
Auf anderen Seiten teilen

Ich konnte jedenfalls noch nie einen sichtbaren Schärfeverlust durch die Verzeichnungskorrektur in LR feststellen. (Bei CA-Korrektur schon, aber dafür gibt es noch andere Gründe)

 

Kann es sein, dass hier Schärfe, Kontrast und Detail-Auflösung zu sehr miteinander verwurstet werden?

Link zum Beitrag
Auf anderen Seiten teilen

Kann es sein, dass hier Schärfe, Kontrast und Detail-Auflösung zu sehr miteinander verwurstet werden?

 

Dieser Eindruck könnte entstehen, wenn man einen einzigen aus dem Zusammenhang gerissenen Satz zitiert  ;)

(der Satz bezog sich auf den Schärfeeindruck und gerade nicht auf die Auflösung)

Link zum Beitrag
Auf anderen Seiten teilen

Kann es sein, dass hier Schärfe, Kontrast und Detail-Auflösung zu sehr miteinander verwurstet werden?

lol

 

Ist denn etwa hier irgendjemand in der Lage, die Verzeichnungskorrektur bezogen auf diese drei Bildeigenschaften isoliert jeweils korrekt zu beschreiben?

Link zum Beitrag
Auf anderen Seiten teilen

Dieser Eindruck könnte entstehen, wenn man einen einzigen aus dem Zusammenhang gerissenen Satz zitiert  ;)

(der Satz bezog sich auf den Schärfeeindruck und gerade nicht auf die Auflösung)

 

Mag sein, aber fast Dein gesamter Post drehte sich nur noch um den Schärfe(-eindruck) und die Diskussion startete mit der Frage nach einem Auflösungsverlust durch Verzeichnungskorrektur. Alles andere, was in dem weiteren Hin-und-Her daraus gemacht wurde, hatte damit nicht mehr viel zu tun.

 

Ist denn etwa hier irgendjemand in der Lage, die Verzeichnungskorrektur bezogen auf diese drei Bildeigenschaften isoliert jeweils korrekt zu beschreiben?

 

Das wird schwierig, aber es wäre möglich und würde dann hier nur noch mehr OT führen.

Link zum Beitrag
Auf anderen Seiten teilen

Also ich würde mir für den Test eines neuen Objektivs doch schon etwas mehr Zeit nehmen, als mal eben auf die "Schnelle" den eigenen Dackel kurz vor der Auffahrt zu Autobahn zu fotografieren!

 

In der Ruhe liegt die Kraft und macht dann einen eigenen Objektiv-Test auch etwas glaubhafter!

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...