Phillip Reeve Geschrieben 25. Januar 2013 Share #1 Geschrieben 25. Januar 2013 Werbung (verschwindet nach Registrierung) Worum geht es? Bei der Verwendung bestimmter Objektive kommt es mit der Nex am Bildrand zu Farbverschiebungen, wie schlimm das aussehen kann lässt sich z.B. hier betrachten. Ein weniger krasses Beispiel von mir persönlich: Endgültig geklärt wann das Phänomen auftaucht ist nicht, aber gewisse Systematiken sind doch klar erkennbar. Im Bildbearbeitungsthread ging diesbezüglich gerade eine recht heiße Diskussion los und deshalb würde ich gerne das Wissen zum Thema hier sammeln. Wie äußerst sich das Phänomen? Je nach Kamera/Objektivkombination reicht das Spektrum von sehr lila-farbenen Ränden, starker Vignettierung und auch einem massiven Auflösungsverlust am Rand hin zu: man sieht in seltenen Situationen einen leichten Farbstich. Farbstich und Auflösungsverlust korrelieren nicht unbedingt miteinander. Allgemein hängt es Zusammenspiel von Objektiv und Kamera ab, ob und wie stark das Phänomen auftritt. Das gleiche Objektiv kann also an Kamera A unkritisch und an Kamera b kritisch sein. Auf Film funktionieren die Objektive einwandfrei. Welche Kameras sind betroffen? Die Nex-7 ist am stärksten betroffen, siehe Beispiel in der Einleitung.in Verbindung mit dem 10-18/4 OSS kam es mit Firmware 1.0 zu einem bemerkbaren Farbstich, wie es hier dokumentiert ist. Mit der Firmware 1.01 scheint das Problem verringert worden zu sein, ob es vollständig behoben ist kann ich nicht sagen, tpmjg hat in seinem Test leider die verwendete Firmware nicht dokumentiert. Sony korrigiert dabei die Raws direkt in der Kamera. Die Nex-5n ist deutlich weniger davon betroffen, Objektive die an der 7 zu sehr deutlichen Farbverschiebungen führen sind an der 5n unproblematisch. Die Nex-6 scheint sich nach meinen Erfahrungen sehr ähnlich wie die 5n zu verhalten, direkt verglichen habe ich es bisher aber nicht Die Nex 3/5 scheint etwas unproblematischer als die 7 zu sein, aber deutlich anfälliger als die 5n/6 Die C3 sollte sich wie die 5n und die 5R und F3 wie die 6 verhalten, aber das habe ich nie selbst getestet Kameras andere Hersteller haben mit dem gleichen Problem zu kämpfen, vornehmlich die Leica M9 die Ricoh GXR scheint rech unproblemtisch zu sein. Welche Objektive sind betroffen? Vorallem betrifft es Weitwinkelobjektive für Messucherkameras wie Leica M oder Contax G, aber auch einige Objektive von Sony sind betroffen. Hier eine kleine Auswahl. Das 10-18/4 OSS zeigt an der Nex-7 leichten Colorshift, wie es sich an anderen Kameras verhält weis ich nicht Das Voigtländer Super Wide Heliar 15/4.5 hat sehr deutlichen Colorshift an der Nex-7, auch an 5n und 6 ist er nicht weg aber sehr viel weniger auffällig nur sehr selten korrekturbedürftig. Details am Rand leiden nicht. Das Carl Zeiss Biogon 2.8/28 für Contax G zeigt etwas geringeren Colorshift, aber die Ränder sind bei Blende 2.8 "verschmiert", an der 7 etwas stärker als an der 5n/6, und deutlich schlechter als auf Film. Das Sony E 16/2.8 zeigte an der Nex-7 mit Firmware 1.0 ebenfalls Farbverschiebungen am Rand, mit Firmware 1.01 sollte das Problem behoben sein Objektive für Spiegelreflexkameras sind nach meinem Wissen nicht betroffen (einige Exotische Objektive welche nur mit hochgeklapptem Spiegel zu nutzen sind mal außen vor). Ursachen Auszuschließen sind wohl Pixelgröße (Die Nex 5 ist problematischer als die 5n, hat aber 2mp weniger) und das Vorhandensein von Microlinsen (Alles Nexen haben Microlinsen). Die Brennweite ist auch kein hinreichendes Kriterium, ein 16mm-18mm-21mm Tri Elmar für die Leica M scheint unkritisch während ein 35/2.5 von Voigtländer Farbverschiebungen zeigt. Ein höherbrennweitiges, kritisches Objektiv ist mir nicht bekannt. Dieses Paper von Zeiss auf Seite 11 ist auch interessant http://blogs.zeiss.com/photo/en/wp-content/uploads/2011/12/en_CLB41_Nasse_LensNames_Distagon.pdf Ein Indikator scheint der Abstand der letzten Linse zum Sensor zu sein, vollständig lässt sich das Verhalten dadurch aber auch nicht voraussagen. Eine vollständig überzeugende Erklärung, welche das verhalten spezifischer Linsen erklärt konnte ich noch nicht finden. Lösungen Cornerfix rechnet den Farbstich einfach aus dem Bild raus, man muss dafür allerdings erst ein Testbild schießen, dieses analysieren lassen und dann die zu korrigierenden Bilder als .dng an cornerfix übergeben. Für meinen geschmack etwas umständlicher Für Lightroom gibt es ein Plugin mit welchem die Korrektur deutlich bequemer geht: Plug-ins for Adobe Photoshop Lightroom | Adobe Labs So, Diskussion ist erwünscht, ebenso ein ziviler Ton. Besonders interessieren würde mich ob es Lösungen für andere Raw konverter gibt. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Werbung Geschrieben 25. Januar 2013 Geschrieben 25. Januar 2013 Hi Phillip Reeve, Das könnte für dich interessant sein: Colorshift . Da findet jeder was…
NEX-5togo Geschrieben 25. Januar 2013 Share #2 Geschrieben 25. Januar 2013 Danke Phillip, endlich ein seperater Thread, auf den man verweisen kann wenn die Diskussionen wieder losgehen.. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 25. Januar 2013 Share #3 Geschrieben 25. Januar 2013 Das Zauberwort ist "Bildseitige Telezentrie". Telezentrisches Objektiv Telecentricity and Telecentric Lenses in Machine Vision | Edmund Optics Telezentrische Objektive Zitat: "Bildseitige Telezentrie Etliche Objektive sind so konstruiert, dass nur zum Kamerasensor hin der Strahlengang parallelisiert wird, also der Brennpunkt im Unendlichen liegt. Ein bildseitig telezentrischer Strahlengang wird durch eine Sammellinse erzeugt, die eine Blende in der objektseitigen Brennebene aufweist. Vorteil dieser Konstruktion ist die gleichmäßig senkrechte Belichtung des Kamerasensors. Besonders die heute üblichen Interline-Transfer-CCDs haben zur Maximierung der Quanteneffizienz Mikrolinsen auf den einzelnen Sensorpixeln aufgebracht. Fällt das Licht vor allem am Sensor-Rand schräg auf diese optischen Mikrolinsen, treten dort massiv Vignettierungs-Effekte auf. Das Bild würde ohne bildseitige Telezentrie stark randseitig abgedunkelt. Je größer der Sensorchip im Verhältnis zum Objektiv-Mount wird, desto eher lässt sich dieser Effekt beobachten. Hier sollte eventuell eine bildseitig telezentrische Optik eingesetzt werden." Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 25. Januar 2013 Share #4 Geschrieben 25. Januar 2013 Das Zauberwort ist "Bildseitige Telezentrie".Telezentrisches Objektiv Telecentricity and Telecentric Lenses in Machine Vision | Edmund Optics Telezentrische Objektive Ist doch alles Quark! .... sagten die DSLR Fuzzis damals, als die E1 rauskam Interessant, dass jetzt so langsam die Folgen sichtbar werden. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Phillip Reeve Geschrieben 25. Januar 2013 Autor Share #5 Geschrieben 25. Januar 2013 Stimmt, das Thema Telezentrik habe ich garnicht erwähnt, auch weil ich mich da mangels Kenntnis der Physik nicht mit auskenne. Betroffen sind meist symmetrische Weitwinkel, bei Zeiss also vorallem die Biogone. Zum Einfallswinkel von Randstrahlen kenne ich leider nur diese Quelle wobei ich die Methodik nicht beurteilen kann. Hätte man mehr Daten könnte man klar sagen welche Winkel mit welcher Kamera wie problematisch sind. Grüße, Phillip Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 25. Januar 2013 Share #6 Geschrieben 25. Januar 2013 Leica rechnet das bei den digitalen Ms auch raus, deshalb sind die Objektive codiert. Bei langen Brennweiten ist das kein besonderes Problem, weil da die Hinterlinse oft so weit vom Sensor weg ist (oder so groß ist), so das die Strahlen mit weniger als 6° Abweichung (meines Wissens die Vorgabe bei FT/mFT) von der Senkrechten auftreffen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Phillip Reeve Geschrieben 25. Januar 2013 Autor Share #7 Geschrieben 25. Januar 2013 Werbung (verschwindet nach Registrierung) Ich habe mal was von 25° gelesen, macht nach der eben verlinkten Tabelle auch mehr Sinn. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige (Anzeige) Ich würde dir das Adobe Creative Cloud Foto-Abo mit Photoshop und Lightroom empfehlen
wolfgang_r Geschrieben 25. Januar 2013 Share #8 Geschrieben 25. Januar 2013 Ist möglich, bin nicht sicher. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
3D-Kraft Geschrieben 25. Januar 2013 Share #9 Geschrieben 25. Januar 2013 (bearbeitet) Mit der Firmware 1.01 scheint das Problem verringert worden zu sein, ob es vollständig behoben ist kann ich nicht sagen, tpmjg hat in seinem Test leider die verwendete Firmware nicht dokumentiert. Danke, ich habe den Hinweis in dem Artikel ergänzt. Natürlich nutze ich, wie wohl so ziemlich jeder in Foren aktiver NEX-7 Nutzer, die aktuelle Firmware 1.01, hätte es aber nicht als selbstverständlich voraussetzen sollen. Die noch leicht auftretenden Farverschiebungen mit dem 10-18mm Zoom sind also auch durch die aktuelle Firmware nicht vom Tisch, insbesondere bei Verwendung der RAW-Dateien. Auszuschließen sind wohl Pixelgröße (Die Nex 5 ist problematischer als die 5n, hat aber 2mp weniger) und das Vorhandensein von Microlinsen (Alles Nexen haben Microlinsen). Jein. Die Problematik ergibt sich eben genau aus dem Zusammenspiel dieser beiden Dinge. Je enger die Pixeldichte ist, um so größer ist der Anteil der Lichtstrahlen, die durch die Microlinsen auf die "falsche" Fotodiode abgelenkt werden. Diese Darstellung, die sich auch in der Broschüre zur neuen Leica M findet, erläutert sowohl das Problem als auch den Ansatz, wie Leica (bzw. CMOSIS, der Sensorhersteller) dem Problem nun entgegenwirken: Bilder: Bildsensor kombiniert das Beste von CCD und CMOS (um keine Copyright-Verletzung zu begehen, habe ich nur den Link zu der Darstellung angegeben und nicht das Bild selbst eingebettet). Der Sensor der 5N hatte ein Linsenraster bekommen, das gegenüber der 5 durch eine etwas modifizierte Anordnung der Linsen zu den Rändern hin, entgegenwirkt. Bei der noch höheren Pixeldichte des NEX-7 Sensors war das aber wohl nicht mehr machbar und dementsprechend die -7 deutlich anfälliger für Farbverschiebungen durch schräg einfallende Lichtstrahlen. Daraus erklärt sich auch recht gut, warum Objektive mit telezentrischerer Konstruktion (also z.B. die für DSLRs) keinen Colorshift erzeugen. Generell kann man also schon sagen, dass dieses Problem nicht auftritt, wenn die hintere Linse weit genug vom Sensor entfernt ist. Der Umkehrschluss gilt jedoch nicht. Auch nahe am Sensor positionierte, rückwärtige Linsenelemente können noch ausreichend "gerade" Strahlengänge ermöglichen, wenn sie groß genug sind und das davor liegende Linsensystem den Strahlenverlauf bereits genug "telezentriert" hat. EDIT: Es würde mich nicht verwundern, wenn die gerade ziemlich gehypten Metabones "Speed Booster" den Effekt auch bei DSLR-Linsen an der NEX-7 wieder sichtbar werden lassen. bearbeitet 25. Januar 2013 von tpmjg Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Phillip Reeve Geschrieben 25. Januar 2013 Autor Share #10 Geschrieben 25. Januar 2013 Jein. Die Problematik ergibt sich eben genau aus dem Zusammenspiel dieser beiden Dinge. Je enger die Pixeldichte ist, um so größer ist der Anteil der Lichtstrahlen, die durch die Microlinsen auf die "falsche" Fotodiode abgelenkt werden. Diese Darstellung, die sich auch in der Broschüre zur neuen Leica M findet, erläutert sowohl das Problem als auch den Ansatz, wie Leica (bzw. CMOSIS, der Sensorhersteller) dem Problem nun entgegenwirken: Bilder: Bildsensor kombiniert das Beste von CCD und CMOS (um keine Copyright-Verletzung zu begehen, habe ich nur den Link zu der Darstellung angegeben und nicht das Bild selbst eingebettet). Der Sensor der 5N hatte ein Linsenraster bekommen, das gegenüber der 5 durch eine etwas modifizierte Anordnung der Linsen zu den Rändern hin, entgegenwirkt. Bei der noch höheren Pixeldichte des NEX-7 Sensors war das aber wohl nicht mehr machbar und dementsprechend die -7 deutlich anfälliger für Farbverschiebungen durch schräg einfallende Lichtstrahlen. Daraus erklärt sich auch recht gut, warum Objektive mit telezentrischerer Konstruktion (also z.B. die für DSLRs) keinen Colorshift erzeugen. Generell kann man also schon sagen, dass dieses Problem nicht auftritt, wenn die hintere Linse weit genug vom Sensor entfernt ist. Der Umkehrschluss gilt jedoch nicht. Auch nahe am Sensor positionierte, rückwärtige Linsenelemente können noch ausreichend "gerade" Strahlengänge ermöglichen, wenn sie groß genug sind und das davor liegende Linsensystem den Strahlenverlauf bereits genug "telezentriert" hat. EDIT: Es würde mich nicht verwundern, wenn die gerade ziemlich gehypten Metabones "Speed Booster" den Effekt auch bei DSLR-Linsen an der NEX-7 wieder sichtbar werden lassen. Danke für die Infos, magst du noch was zu den Quellen sagen? Gerade zu dem Thema ist sehr viel Blödsinn unterwegs, da ists imemr schöner Dinge zu dokumentieren. Das soll in keinster Weise heißen, dass ich Grund habe an deinen Ausführungen zu zweifeln, im gegenteil ich schätze deine Beiträge wegen ihres durchgehend hohen Niveaus und informationsgehaltes. Beim Nachrecherchieren bin ich eben auf diesen interessanten Beitrag gestoßen der Leicas Marketingaussagen zur M9 und dem besonders dünnen Filter in der luft zerreist, deshalb bin ich jetzt gerade etwas skeptisch was das von dir verlinkte Leica Papier angeht. Der Autor arbeitet auf dem Gebiet und ist der Nerd auf FM für solche Sachen. Ich hatte auch mal gelesen das Fuji bei seinen Objektiven für die X-Pro1 auch auf große Linsen nahe am Sensor setzt um eben telezentrische konstruktionen zu ermöglichen. Grüße, Phillip Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 25. Januar 2013 Share #11 Geschrieben 25. Januar 2013 (...)Ich hatte auch mal gelesen das Fuji bei seinen Objektiven für die X-Pro1 auch auf große Linsen nahe am Sensor setzt um eben telezentrische konstruktionen zu ermöglichen. Grüße, Phillip Wichtig ist der Einfallswinkel. Wie man den erreicht, ob durch Abstand oder große Linsen(gruppen) hinten, das ist nicht wichtig. Bei kurzbrennweitigen Objektiven ist es die Hinterlinsengruppe. Fuji macht genau das bei den Bridge-Kameras wie hier gezeigt und Canon bei der G1X auch. Die X-Pro1-Objektive sind auch so gebaut, wenn ich das richtig weiß. Bei der N 1 ist das auch so und auch einfacher, weil der Sensor kleiner ist. Bei (m)FT ist es auch einfacher als bei APS, weil die Diagonale kleiner ist. Sony hat wegen der Strategie "erst viele Kameras und dann schaun wir mal" jetzt ein Problem, weil aus der Not heraus viel adaptiert wird. Müsste man das bei mFT, gäbe es dort das Problem auch, aber vielleicht nicht ganz so krass wegen dem kleineren Format. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
3D-Kraft Geschrieben 25. Januar 2013 Share #12 Geschrieben 25. Januar 2013 (bearbeitet) Phillip, ich bekomme jetzt auf die Schnelle nicht mehr zusammen, wo ich die Ausführungen zu den Modifikationen am Mikrolinsenraster des 5N Sensors gelesen habe. Letzlich ist aber die grundsätzliche Problematik ganz gut in der Broschüre der neuen Leica M dargestellt: http://de.leica-camera.com/assets/file/download.php?filename=file_6986.pdf Auf Seite 22 findest Du dort ähnliche Darstellungen, wie die zuvor von mir verlinkten sowie einige ergänzende Beschreibungen. Wenn Du Dir die Anordnung der Schichten vom Mikrolinsen-Raster über die Farbfilter bis hin zur Photodiode anschaust, ist klar, dass ab einem gewissen Einfallswinkel die Lichtstrahlen nicht mehr (oder nur noch in geringerem Umfang) die eigentlich vorgesehen Pixel treffen. Das erhöht zunächst die Vignettierung und wenn sie dann (durch den geringen Pixelabstand) sogar schon zum Teil zum Nachbarpixel gelangen, ist klar, dass sich bei Sensoren mit Bayer-Farbfiltermatrix Farbverschiebungen ergeben. Je weiter die Schichten (in der Tiefe gesehen) auseinanderliegen und je flacher die Mikrolinsen sind, umso stärker der Effekt. Man darf deshalb gespannt sein, was Leica nun aus dem optimierten Design herausholen kann. Auch Sony nimmt sich ja noch mal bewusst einiges an Zeit, um bei einer NEX-FF die durch den noch größeren Sensor hinter dem geringen Auflagemaß des E-Mounts verschärfte Problematik in den Griff zu bekommen. Ebenso spannend die Frage, ob das Foveon-Prinzip hier Besserung bringt. Es wird ja darüber spekuliert, ob Sony vielleicht in der NEX-FF so einen Sensor-Aufbau einführt. Sigma macht das ja schon seit langem, allerdings haben die Sigma-Sensoren wieder erhebliche Schwächen bei höheren ISO-Werten. Gruß Helge bearbeitet 25. Januar 2013 von tpmjg Link zum Beitrag Auf anderen Seiten teilen More sharing options...
kleinw Geschrieben 25. Januar 2013 Share #13 Geschrieben 25. Januar 2013 (bearbeitet) Farbverschiebung: - je näher die hintere Linse am Sensor ist und je kleiner der Durchmesser ist, desto flacher treffen die Lichtstrahlen am Sensor auf - je flacher der Einfallswinkel auf die Mikrolinsen ist, desto größer sind Brechung und Dispersion. - dabei werden die blauen Lichtanteile stärker gebrochen als die roten und verfehlen zum Teil die Photodioden, dadurch überwiegen die roten Anteile (ähnlich dem Abendrot - da werden durch den flachen Sonnenwinkel und den dadurch längeren Weg als zu Mittag mehr blaue Anteile von der Athmosphäre absorbiert und somit überwiegen die roten) - dazu kommt noch, dass die Photodioden im roten Wellenlängenbereich (ich sags mal auswendig blau: 450 nm, rot: 650 nm) wesentlich empfindlicher sind (Grundlage: Sonnenlicht - und somit fast alles, das wir fotografieren ist ein Gemisch aller Spektralfarben (Regenbogen); Versuch aus der Grundschule: Scheibe mit spekrtralfarbigen Sektoren wird schnell gedreht und erscheint dann weiß [bzw hellgrau, weil meist einige Farbanteile fehlen]) Also: lila Verschiebung ist winkelabhängig und das brechungs- und dispersionsbedingte Fehlen von Blauanteilen. Ich werde mich zu diesem Thema nicht mehr äußern - es war schon zu mühsam zu vermitteln, dass der Fehler winkelbedingt entsteht! Ergänzung Vignette: - ähnliche Thematik - manche Lichtanteile treffen wg Br. und Disp. nicht auf der Diode auf. Ihr Fehlen verdunkelt den Teil. Selbst frage ich mich, - ob es pro Grundfarbensatz nur eine Mikrolinse gibt oder für jede Grundfarbe eine eigene (das wären dann 48 Mio auf 22 x 15 mm bei der 6er) und - wieviel Projektionsverzerrung (sphärisch = Kugelkalotte; asphärisch = verbogene Kugelkalotte auf ebenen Film bzw Sensor) nicht optisch aufgelöst wird, sondern per Kamerasoftware (nachdem ich nicht glaube, dass die verzerrten raws nicht auch zum Teil korrigiert sind) bearbeitet 25. Januar 2013 von kleinw Ergänzung: Vignette Huginn hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matthis Geschrieben 25. Januar 2013 Share #14 Geschrieben 25. Januar 2013 Der Einfallswinkel hängt nicht von der Lage der Hinterlinse (-ngruppe), sondern von derjenigen der Austrittspupille ab, d.h. der scheinbaren Position der Blende. Je weiter die Austrittspupille entfernt ist, desto steiler der Einfallswinkel auf den Sensor und desto besser die Telezentrizität, somit weniger "Lens Cast" (dies der Fachausdruck für die lila Ränder). Ich habe hier ein Sigma 30 DN und ein 40mm Nokton, deren Hinterlinsen ungefähr gleich weit vom Sensor entfernt sind. Beim Sigma ist die Austrittspupille aber deutlich weiter entfernt, praktisch auf Höhe des vordersten Elements (prinzipiell kann die Austrittspupille auch ausserhalb des Objektivs liegen). Es wurde also offenbar auf Telezentrizität geachtet. Dasselbe gilt für das Sigma 19 DN, das deshalb trotz der relativ kurzen Brennweite nicht von Lens Cast betroffen ist. Hier befindet sich die Austrittspupille praktisch auf gleicher Höhe wie beim 30mm und deutlich weiter vom Sensor entfernt als beim 40mm Nokton. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matthis Geschrieben 25. Januar 2013 Share #15 Geschrieben 25. Januar 2013 EDIT: Es würde mich nicht verwundern, wenn die gerade ziemlich gehypten Metabones "Speed Booster" den Effekt auch bei DSLR-Linsen an der NEX-7 wieder sichtbar werden lassen. Laut dem von Metabones publizierten Whitepaper soll der "Speed Booster" die Telezentrizität sogar verbessern. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 26. Januar 2013 Share #16 Geschrieben 26. Januar 2013 (...)Ich werde mich zu diesem Thema nicht mehr äußern - es war schon zu mühsam zu vermitteln, dass der Fehler winkelbedingt entsteht! (...) Auf diese Weise wird das auch nichts..... Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Guido3 Geschrieben 26. Januar 2013 Share #17 Geschrieben 26. Januar 2013 (bearbeitet) Hallo, - je näher die hintere Linse am Sensor ist und je kleiner der Durchmesser ist, desto flacher treffen die Lichtstrahlen am Sensor auf Hilf mir bitte auf die Sprünge, wenn ich Dich richtig verstanden habe, hast genau das gestern in dem anderen Thread noch entschieden bestritten? Tmpjg: "Der Hinterlinsenabstand allein sagt erst mal nichts darüber aus, wie schräg die Lichtstrahlen am Ende auf den Sensor treffen." Deine Replik: "das ist schlichtweg FALSCH!" Und Deine Zeichnungsanleitung hat dem folgend auch ausschließlich den Parameter Abstand zwischen hinterster Linse und Sensor erklärt. Nun räumst Du selbst ein, dass auch der Durchmesser der Hinterlinse eine Rolle spielt, was zwangsweise bedeutet, dass der Abstand allein also keine Aussage zum Einfallswinkel erlaubt - mithin tmpjgs Aussage zutreffend war und ist. Zeichne auf nen karierten Block nen senkrechten Strich über 2 Kastln. Daneben im Abstand von 2 Kastln einen über 4 Kastln (mit derselben 'optischen Achse'). Jetzt verbindest du die jeweiligen Endpunkte der Stricherln (da entsteht jetzt son kryptisches Gebilde, das man gleichschenkeliges Trapez nennt). Jetzt malst du dasselbe daneben nochmals, der Abstand der Strichelrln beträgt aber nur 1 Kasterl.Und jetzt kommt das große AHA-Erlebnis, du stellst - aus wundersamen Gründen fest, dass die Schenkel einen andern Winkel haben, einer ist größer und einer kleiner. Und nun zeichnest Du das noch 2 mal und machst dabei den ersten Strich einmal nur über ein Kästchen und einmal über 3 Kästchen. Der Abstand von 2 Kästchen bleibt. Dann verbindest Du wieder die Endpunkte der Linien. "Und jetzt kommt das große AHA-Erlebnis, du stellst - aus wundersamen Gründen fest, dass die Schenkel einen andern Winkel haben, einer ist größer und einer kleiner." Beste Grüße Guido bearbeitet 26. Januar 2013 von Guido3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
3D-Kraft Geschrieben 26. Januar 2013 Share #18 Geschrieben 26. Januar 2013 Selbst frage ich mich,- ob es pro Grundfarbensatz nur eine Mikrolinse gibt oder für jede Grundfarbe eine eigene (das wären dann 48 Mio auf 22 x 15 mm bei der 6er) und Ein 16 MP Bayer-Sensor hat insgesamt nur 16 Mio Photodioden und über jeder sitzt eine Mikrolinse und ein Farbfilter (von vier Pixeln sind zwei grün und je einer rot und einer blau). Die 16 Mio. RGB Informationen werden letztlich daraus interpoliert. Schaue am besten mal dazu hier: Bayer-Sensor Link zum Beitrag Auf anderen Seiten teilen More sharing options...
kleinw Geschrieben 26. Januar 2013 Share #19 Geschrieben 26. Januar 2013 matthis, ein Sensor muss BESTRAHLT werden - eine 'Blende' ist immer passiv und engt die Strahlung ggf nur ein! Ich tätige ein KLARE AUSSAGE: Das Heliar 15/4.5 funktioniert an der 5N nur eingeschränkt OHNE EBV. Der Auftreffwinkel der Randstrahlen kann leicht berechnet werden: (Annahme: das Heliar kann max Kleinbild ausleuchten, nicht mehr - das ist fraglich, da die Berechner sicherlich die immer schwachen Randbereiche möglichst außerhalb der Abbildung legen) Es ergibt sich der APS-C Bildkreisdurchmesser der Hinterlinse aus: D = 22,2 x Linsendurchmesser / 36 Der Auftreffwinkel errechnet sich: alpha = arctan (Abstand Linse_Sensor / (22,2-D)/2) Meine KLARE AUSSAGE ist nun, dass JEDES OBJEKTV, das einen steileren Winkel hat besser als das Heliar funktioniert und jedes, das einen flacheren hat, schlechter funktioniert. Es kann leicht sein, dass der Strahlengang durch eine 'Blende' wie die Austrittsöffnung beschnitten wird, dann hat das aber nur Sinn wenn die Hinterlinse für größere Abbildungen (Randfehler) berechnet ist als das Kleinbild. Man kann leicht ausrechnen, ob die Austrittsöffnung den Strahlengang beschneidet (= abblendet). Dann sollte man jedoch mit dieser 'Blendenweite' rechnen (die nur kleiner als die relevante Linsenweite sein kann - sonst ist sie unwirksam!) Du/ihr könnt das Thema zerreden wie ihr wollt - die Optik ist eine Naturwissenschaft und somit KONKRET. Ob sie jemand versteht oder nicht, ist der Physik egal! Mir eigentlich auch! Huginn hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 26. Januar 2013 Share #20 Geschrieben 26. Januar 2013 Ausgezeichnet! Damit sind ja dann alle KLARheiten NATURWISSENSCHAFTlich KONKRET beseitigt. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matthis Geschrieben 26. Januar 2013 Share #21 Geschrieben 26. Januar 2013 Es ergibt sich der APS-C Bildkreisdurchmesser der Hinterlinse aus:D = 22,2 x Linsendurchmesser / 36 Der Auftreffwinkel errechnet sich: alpha = arctan (Abstand Linse_Sensor / (22,2-D)/2) Es ist nicht nachvollziehbar, was Du hier rechnest. 1. Jeder Bildpunkt wird aus einem Strahlenbündel gebildet, das im Idealfall kegelförmig auf die Bildebene trifft. Der mittlere Strahl dieses Strahlenbündels wird Hauptstrahl genannt. 2. Da, wo alle Hauptstrahlen auf die optische Achse treffen, befindet sich das optische Zentrum einer Optik. Genau dort muss die Blende platziert werden, damit sie als Aperturblende und nicht (teilweise) als Feldblende wirkt, d.h. damit sie nur auf Helligkeit und Schärfentiefe wirkt, ohne das Bildfeld zu beschneiden oder zu vignettieren. 3. Man darf darum davon ausgehen, dass sich bei jeder vernünftig konstruierten Optik die Blende näherungsweise im optischen Zentrum befindet. 4. Das bildseitige Bild der Aperturblende ist die Austrittspupille. (Definition!) 5. Dieses Bild (die Austrittspupille) befindet sich virtuell (!) genau dort, wo die Verlängerung der auf den Sensor treffenden Hauptstrahlen sich mit der optischen Achse schneidet. Wenn in einem Bildpunkt mit der Bildhöhe h der Winkel α des Hauptstrahls zur Sensorebene bekannt ist, beträgt die Entfernung der Austrittspupille somit h * tan(α). 6. Umgekehrt lässt sich somit der Winkel eines Hauptstrahls ausrechnen, wenn die Entfernung der Austrittspupille bekannt ist. Und da wir die Austrittspupille sehen und ihre Distanz dadurch schätzen können, lässt sich durch den Blick von hinten ins Objektiv letztlich auch abschätzen, in welchem Winkel die Strahlen auf den Sensor treffen. 7. Da jeder Bildpunkt aus einem Strahlenbündel und nicht nur aus dem Hauptstrahl gebildet wird, ist zusätzlich die Blende (Apertur) von Relevanz. Anhand von Apertur und (Distanz der) Austrittspupille lässt sich per Winkelfunktion der minimale und maximale Winkel der Strahlen in jedem Bildpunkt berechnen. 8. Mit der Hinterlinse hat das Ganze nichts zu tun; q.e.d. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
kleinw Geschrieben 26. Januar 2013 Share #22 Geschrieben 26. Januar 2013 ... nett, dass du mir erklärst, dass nur ein Strahlenbündel einen Fokus bilden kann! Das ändert aber nichts an der Tatsache, dass letztlich nur die Hinterlinse den Sensor bestrahlt und auch nichts an meiner Aussage, dass aufgrund der Tatsache, dass das Heliar für KB gerechnet ist sich der Bildkreisdurchmesser für APS-C mindestens im Verhältnis verkleinert (in meiner Rechnung D). Dieser Bildkreisdurchmesser ist wesentlich kleiner als der Umkreis des Sensors -> folglich tritt der bildweite Strahl des Fokusbündels der gegenstandsweitig durch den Brennpunkt geht in einem spitzen Winkel zur optischen Achse auf (der umso spitzer ist, je näher die Linse am Sensor ist) -> das führt bei der Brechung und Dispersion in den Mikrolinsen dazu, dass die stärker gebrochenen blauen Wellenlängen nicht mehr auf die Diode fallen und somit eine Betonung der roten Wellenlängen entsteht. Ich schlage vor, wir beenden die mühsame Diskussion! Huginn hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matthis Geschrieben 27. Januar 2013 Share #23 Geschrieben 27. Januar 2013 Ich glaube jetzt zu verstehen, was Du meinst. Du berechnest den Winkel des Strahls, der durch den Rand der Hinterlinse zum Rand des Bildkreises in der Bildebene geht. Diese Überlegung ist aber für das Problem des lens cast aus folgendem Grund nicht hilfreich: Die Hinterlinse muss idealerweise mindestens so gross sein, dass bei grösstmöglicher Blendenöffnung der äusserste Randstrahl des Strahlenbündels, das einen Bildpunkt am Rand des Bildkreises bildet, nicht abgeschattet wird. Dieser äusserste Randstrahl ist aber derjenige Strahl des Strahlenbündels mit dem geringsten Eintrittswinkel! Du berechnest also den unkritischsten Strahl des Strahlenbündels, das den Bildrand ausmacht. Alle anderen Strahlen des gleichen Strahlenbündels treffen in einem schrägeren Winkel auf den Sensor. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
kleinw Geschrieben 27. Januar 2013 Share #24 Geschrieben 27. Januar 2013 ... da hast du recht, nur ist dann auch der schrägste Randstrahl, nämlich der, der durch den bildweiten Brennpunkt verläuft, spitzer als bei einer 'normaleren' Geometrie (kann ich nicht ausrechnen, da dieser Brennpunkt trotz zB der Angabe von 15 mm in einem Gebilde mit vielen Linsen virtuell ist, da jede Linse ihren eigenen Brennpunkt/ihre eigenen Brennpunkte hat). Genau diese Strahlen (es ist ja ein Winkelbereich) führen zu einer verlaufenden Farbverschiebung. Huginn hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 28. Januar 2013 Share #25 Geschrieben 28. Januar 2013 Soweit die Theorie. Praxis ist: Es gibt Hersteller, die haben ganz einfach aus welchen Gründen auch immer ignoriert ader bewußt vernachlässigt, dass für die Belichtung von Digitalsensoren eine andere Objektivtechnik nötig ist wie für den alten Chemiefilm! Von "nicht wissen" kannman noch so vielen Jahren gewiss nicht mehr reden. Ich bin überzeugt davon, das die Entwickler das wissen. Das Problem sind die Bleistiftakrobaten. Das ist um so schlimmer, als es ja seitens anderer Hersteller genügend Erfahrung und Vorlauf gibt, woraus man hätte lernen können und Zeit war auch genug. Wer das nicht tut, ist bei mir unten durch. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden