systemcam128 Geschrieben 6. Januar 2012 Share #26 Geschrieben 6. Januar 2012 Werbung (verschwindet nach Registrierung) Das hat mjh meines erachtens etwas unglücklich ausgedrückt. Die Helligkeit in der Bildebene ist bei der Kamera mit kleinerem Sensor zwar größer, aber ein großer Sensor muss sich ebenfalls in dieser (helleren) Bildebene befinden, aber das ist ja genau der Punkt wo unsere Meinungen auseinander gehen. Du meinst deine Meinung geht mit sämtlichen anderen hier diesbezüglich diese Sachverhältes geäußerten auseinander. Nochmal das Bild ist heller: Ich hatte ja oben geschrieben, dass bei gleicher Eintrittspupille mehr Licht auf dem kleinen Sensor ankommt, genauso wie es der Blendenwert besagt. [/Quote] Was ist daran eigentlich nicht zu verstehen und was soll daran "unglücklich" ausgedrückt sein? Mir scheint du scheinst selbst einfachste Sachen der Fotografie und Begriffe wie Blendenwert und deren Auswirkung noch nicht wirklich verstanden zu haben. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Werbung Geschrieben 6. Januar 2012 Geschrieben 6. Januar 2012 Hi systemcam128, Das könnte für dich interessant sein: Bildwinkel, Blende, Schärfentiefe, Format - verschoben aus Nikon V 1 versus PEN P 3 . Da findet jeder was…
Weide Geschrieben 7. Januar 2012 Autor Share #27 Geschrieben 7. Januar 2012 Nochmal das Bild ist heller: natürlich ist das Bild heller, deshalb erhalte ich ja bei kürzerer Brennweite UND kleinerer(!) Eintrittpupille dieselbe Lichtstärke. Mir scheint du scheinst selbst einfachste Sachen der Fotografie und Begriffe wie Blendenwert und deren Auswirkung noch nicht wirklich verstanden zu haben. ob Du es glaubst oder nicht, mir ist tatsächlich klar, dass durch ein lichtstärkeres Objektiv mehr Licht eintritt . Wenn ich durch die Wahl eines lichtstärkeren Objektives die Empfindlichkeit senken kann, so kommt das dem Rauschen zugute, bei jeder Sensorgröße, aber, und das ist Dir glaube ich nicht klar, der kleinere Sensor bekommt immer nur einen Teil der Gesamtlichtmenge, da er sich größenunabhängig immer an selbiger Stelle, nämlich in der Bildebene befindet (befinden muss) Ein Objektiv, egal welcher Brennweite und welcher Eintrittspupille, wird einem größeren Sensor immer mehr Licht zukommen lassen. Viele Grüße Weide Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #28 Geschrieben 7. Januar 2012 @Weide: Zitat: "Wenn man also ein KB-Objektiv an einer APS-C Kamera nutzt, hätte man diesen Lichtvorteil also nicht, da es ja nicht anders konstruiert wurde?" Hat man auch nicht, weil es auf dem kleineren Sensor in der Bildebene nur einen Teil des Raumwinkels abbildet. Zitat: "Ein Objektiv, egal welcher Brennweite und welcher Eintrittspupille, wird einem größeren Sensor immer mehr Licht zukommen lassen." Wo kommt das zusätzliche Licht für den größeren Sensor denn her? Siehe oben, auf einem größeren Sensor bildet das gleiche Objektiv einen größeren Raumwinkel - und damit auch das zusätzliche Licht des zusätzlich abgebildeten Raumwinkels - ab, aber an anderer Stelle des Sensors, nämlich außerhalb des kleineren Formats, wenn der Bildkreis konstruktiv dafür ausgelegt wurde. Anderenfalls wird das Licht von der Objektivfassung geschluckt, wenn der Bildkreis nur für das kleinere Format ausgelegt wurde. Ein Objektiv, welches für das größere der Formate ausgelegt wurde, beleuchtet in der Bildebene den Sensor immer mit der gleichen Beleuchtungsstärke pro Flächeneinheit. Dabei wirkt sich natürlich auch noch das COS^4-Gesetz aus, um das niemand herum kommt. Damit das überhaupt funktioniert, muss die Bildebene für die unterschiedlichen Formate am gleichen Objektiv immer die gleiche sein. Das ist auch der simple Grund für die Adapter an den größeren Objektiven, wenn man sie an kleineren Formaten einsetzt. Es wird nur für den richtigen Abstand der Bildebene gesorgt. Nun muss ich in diesem Zusammenhang nochmal auf #15 kommen: Wie kommt es, dass so unterschiedliche Brennweiten auf so gravierend unterschiedliche Abstände der Sensoren ein scharfes Bild ergeben? Für 7 mm Brennweite an mFT ist der Sensor ja immerhin um die 25 mm oder mehr von der Hinterlinse des Objektivs weg, bei der Leica M9 ist die Hinterlinse des Objektiv trotz 28 mm Brennweite auch in keinem wesentlich anderen Abstand zu finden. Seltsame Sache, nicht wahr? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Weide Geschrieben 7. Januar 2012 Autor Share #29 Geschrieben 7. Januar 2012 @Weide:Zitat: "Wenn man also ein KB-Objektiv an einer APS-C Kamera nutzt, hätte man diesen Lichtvorteil also nicht, da es ja nicht anders konstruiert wurde?" Hat man auch nicht, weil es auf dem kleineren Sensor in der Bildebene nur einen Teil des Raumwinkels abbildet. Zitat: "Ein Objektiv, egal welcher Brennweite und welcher Eintrittspupille, wird einem größeren Sensor immer mehr Licht zukommen lassen." Wo kommt das zusätzliche Licht für den größeren Sensor denn her? Siehe oben, auf einem größeren Sensor bildet das gleiche Objektiv einen größeren Raumwinkel - und damit auch das zusätzliche Licht des zusätzlich abgebildeten Raumwinkels - ab, aber an anderer Stelle des Sensors, nämlich außerhalb des kleineren Formats, wenn der Bildkreis konstruktiv dafür ausgelegt wurde. Anderenfalls wird das Licht von der Objektivfassung geschluckt, wenn der Bildkreis nur für das kleinere Format ausgelegt wurde. Hallo Wolfgang, meine Eingangsfrage war rhetorisch gemeint, von daher kannst Du Deine Antwort an "Systemcam" richten Ich habe die von Systemcam vorgetragenen Thesen schon verstanden: Man nehme ein 100mm Objektiv mit Eintrittspupille 50mm (= Blende 2.0) und fotografiere damit an einer KB-Kamera mit ISO 3200. Jetzt nehme ich ein 50mm Objektiv mit ebenfalls 50mm Lichteintritt (= Blende 1.0) und fotografiere bei gleichen Lichtbedingungen mit einer FT-Kamera (mit gleicher Pixelzahl). Jetzt muss ich auf ISO 800 herunter gehen um gleiche Belichtung zu erhalten. Das Rauschen ist in etwa vergleichbar. Große Freude bei Systemcam128 . Dummerweise geht's noch weiter: Jetzt schraube ich das 50mm/f1.0 an die Kleinbildkamera und kann zunächst wunderbare (50mm-)Aufnahmen bei ISO 800(!) machen. Diese ISO 800 sind nun rauschfreier, da vom größeren Sensor stammend. Ich möchte aber 100mm Brennweite erreichen und nehme daher einen Ausschnitt aus dem Kleinbildsensor. Jetzt habe ich ein 100mm Bild, aufgenommen bei ISO 800, aber wesentlich geringerem Rauschen - da immer noch vom größeren KB-Sensor stammend. Es hat allerdings wesentlich weniger Pixel. Ein einzelnes Pixel ist größer - es fängt mehr Licht ein - es rauscht weniger. Um hier wieder Gleichheit zu erreichen müsste ich einen KB-Sensor mit zum FT-Sensor gleicher Pixelgröße verwenden. Jetzt habe ich wieder gleiche Verhältnisse - ich nehme einen Ausschnitt bei ISO 800, habe aber das gleiche Rauschen wie bei der FT-Kamera. Man kann es drehen und wenden wie man will - unter'm Strich ist nur die Pixelgröße rauschentscheidend, aber das sagte ja bereits mjh (anscheinend ist es toll sich auf ihn zu berufen ) und es ist fotografisches Allgemeinwissen. Viele Grüße Weide @Wolfgang: Ich muss erstmal weg und komme auf Deine weiteren interesanten Ding in Deinem Posting später zurück, ok? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #30 Geschrieben 7. Januar 2012 (...)Man kann es drehen und wenden wie man will - unter'm Strich ist nur die Pixelgröße rauschentscheidend, aber das sagte ja bereits mjh (anscheinend ist es toll sich auf ihn zu berufen ) und es ist fotografisches Allgemeinwissen. Viele Grüße Weide @Wolfgang: Ich muss erstmal weg und komme auf Deine weiteren interesanten Ding in Deinem Posting später zurück, ok? Gerne. Zu dem oben drüber geschriebenen schreibe ich jetzt erst mal noch nichts. Mir wäre es lieber, wenn wir uns wie in #13 vorgeschlagen, Schritt für Schritt bis zum mit verschiedenen Formaten aufgenommenen fertigen Bild einer bestimmten Größe durcharbeiten würden. Dann erst würde ich die Geschichte mit den rauschenden Pixeln beurteilen wollen. Das wäre noch früh genug. (Und unter uns, es gibt eine ganze Menge urban legends, die scheinbar einfach nicht auszurotten sind. Nur weil es sehr viele wiederholen, wird es nicht wahrer.) Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matadoerle Geschrieben 7. Januar 2012 Share #31 Geschrieben 7. Januar 2012 Hallo, ich habe nicht viel Zeit und es auch an verschiedener Stelle schon erläutert .. Ich habe die von Systemcam vorgetragenen Thesen schon verstanden: .. Das Rauschen ist in etwa vergleichbar. Große Freude bei Systemcam128 . .. berechtigte Freude von systemcam128 und anderen. Dummerweise geht's noch weiter: .. Man kann es drehen und wenden wie man will - unter'm Strich ist nur die Pixelgröße rauschentscheidend, aber das sagte ja bereits mjh (anscheinend ist es toll sich auf ihn zu berufen ) und es ist fotografisches Allgemeinwissen. .. sorry - das ist kompletter Käse! Die (Sub-)Pixelgröße ist zwar durchaus für die erzielbare Dynamik eine entscheidende Größe, hat aber prinzipiell im Bereich des "vergleichbaren" Bildes keine entscheidende Vorteile (Gesetze der Optik). Wolfgang hat das ja jetzt auch schon ein paar mal erläutert und weist zurecht darauf hin, daß sich "urban legends" anscheinend nicht ausrotten lassen. In der Praxis hat der größere Sensor die angenehme Eigenschaft, bei gleichem Bildwinkel größere Objektive und längere Brennweiten zu ermöglichen - und nur daraus zieht er einen Vorteil, weil das nämlich eine größere Blendenöffnung nach sich zieht (absolut in mm, nicht relativ in Lichtstärke). Die Nachteile von Größe und Volumen sowie Gewicht sind dem gegenüber zu stellen. Die optischen Gesetze besagen eindeutig, daß ein kleineres Bild (mit einer kleineren Brennweite erstellt) die gleiche Information in höherer Dichte besitzt - solange die Blendenöffnung absolut gesehen gleich bleibt, ergibt sich für keine Sensorgröße ein herausragender Vorteil. Wolfgang wird das sicherlich aber nochmals anhand der Fragestellung aufklären, welche Eigenschaften das reproduzierte Bild aufweist. Der Ansatz, das gewünschte Endprodukt (gedrucktes Foto) in Abhängigkeit von den technischen Eigenschaften der Kamera zu beurteilen, ist der einzig zielführende. Und da ist es nunmal so, daß sich die Sensorgröße und Brennweite mit der Lichtstärke und Empfindlichkeit herausrechnet - einziger bildbestimmender technischer Faktor ist die Blendenöffnung des Objektivs (und dessen optische Qualität). Vollkommen egal, was irgendwer dazu schreibt - die Physik/Optik läßt sich einfach nicht irritieren! Gruß Thorsten Link zum Beitrag Auf anderen Seiten teilen More sharing options...
systemcam128 Geschrieben 7. Januar 2012 Share #32 Geschrieben 7. Januar 2012 Werbung (verschwindet nach Registrierung) Dummerweise geht's noch weiter: Jetzt schraube ich das 50mm/f1.0 an die Kleinbildkamera und kann zunächst wunderbare (50mm-)Aufnahmen bei ISO 800(!) machen. Diese ISO 800 sind nun rauschfreier, da vom größeren Sensor stammend. Ich möchte aber 100mm Brennweite erreichen und nehme daher einen Ausschnitt aus dem Kleinbildsensor. Jetzt habe ich ein 100mm Bild, aufgenommen bei ISO 800, aber wesentlich geringerem Rauschen - da immer noch vom größeren KB-Sensor stammend. Es hat allerdings wesentlich weniger Pixel. Damit verschenkst du die Fläche des großen Sensors und nutzt nur noch das Licht von der kleine Fläche die dem des kleinen Sensors entspricht. Deshalb bringt dir das auch keinen weiteren Vorteil und das selbe Resultat könntest du genauso mit dem Bild des kleineren Sensors erreichen. Einfach die Auflösung auf den selben Wert runterrechnen und schon sinkt der Rauschlevel auf den selben Wert des Auschnittes den du von der KB Kamera dann in der selben Auflösung hättest. Beim verringern der Auflösung sinkt immer der Rauschlevel. Das ist allgemein bekannt (dir wohl nicht?) bringt aber keinen wirklichen Gewinn mehr weil es auf Kosten der Auflösung geht und neben dem Rauschen auch viele Details mit verschwinden. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige (Anzeige) Ich würde dir das Adobe Creative Cloud Foto-Abo mit Photoshop und Lightroom empfehlen
mjh Geschrieben 7. Januar 2012 Share #33 Geschrieben 7. Januar 2012 Beim verringern der Auflösung sinkt immer der Rauschlevel. Das ist allgemein bekannt (dir wohl nicht?) bringt aber keinen wirklichen Gewinn mehr weil es auf Kosten der Auflösung geht und neben dem Rauschen auch viele Details mit verschwinden. Wenn man ein RGB-Bild auf eine niedrigere Auflösung herunterskaliert, sinkt das Rauschen nur wenig; dafür geht bei einem von einem Sensor mit Filtern im Bayer-Muster erzeugten Bild auch nur wenig an effektiver Auflösung verloren, sofern man es mit dem Herunterskalieren nicht übertreibt. Eine nutzbare Rauschreduzierung kann man nur mit Binning erreichen, also vor dem Demosaicing-Schritt, der ein RGB-Bild erzeugt. Damit geht allerdings, wie Du schreibst, ein Auflösungsverlust einher. Insgesamt erreicht man im besten Fall ein Resultat, das gegenüber einem Sensor mit größeren Pixeln dieselbe Auflösung und ein fast ebenso geringes Rauschen hat. Wie immer man es wendet: Geringes Rauschen und hoher Dynamikumfang braucht große Pixel, entweder real oder durch Binning virtuell realisiert. Auch wenn man mit diversen technologischen Tricks diese Werte verbessern kann, muss man bedenken, dass sich dieselben Verfahren auch auf Sensoren mit größeren Pixeln anwenden lassen, der naturgegebene Abstand also bestehen bleibt. Es gibt keinen qualitativen Vorteil kleinerer Sensoren – keinen einzigen. Es gibt nicht einmal einen Gleichstand. Der Grund für die Attraktivität kleinerer Sensoren liegt darin, dass man damit kleinere, leichtere und preisgünstigere Kameras beziehungsweise Kamera/Objektiv-Kombinationen bauen kann. Daher verkaufen sich Kompaktkameras mit 1/2,3-Zoll-Sensor wie geschnitten Brot und Kameras mit APS-C-Sensor weit besser als solche mit Kleinbildsensor. Aber wenn es um Bildqualität und sonst gar nichts geht, ist die Größe des Sensors und der Sensorpixel der entscheidende Faktor. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #34 Geschrieben 7. Januar 2012 Da wir jetzt ja doch schon wieder mal beim Rauschen gelandet sind, drösele ich das mal ein wenig auf. Im Teil 1 (Teil 2 im nächsten Beitrag) zunächst ein paar Links, deren Studium schon mal eine Weile dauern dürfte: Rauschquellen- und Signalwegdiagramm: https://www.systemkamera-forum.de/135254-post60.html http://www.hameg.com/downloads/fachartikel/HAMEG_Rauschen.pdf Schrotrauschen: Schrotrauschen Halbleiterrauschen 1/f^2-Rauschen: 1/f²-Rauschen New '1/f noise' discovery promises to improve semiconductor-based sensors Wiki Beispiele: Rauschen (Physik) Fotoschule/Rauschen: Fotoschule - Das Rauschen Photonenrauschen: Astrofotografie: Grundlagen - Glossar - Photonenrauschen Optik, Licht und Laser - Dieter Meschede - Google Bücher Widerstandsrauschen: Resistor Noise / Widerstandsrauschen Kamera-Elektronik: Grundlagen Kamera-Technik: Rauschen, Dunkelstrom, full well capacity Kapaizität, Quanteneffizienz etc. Rauschquellen in Halbleitern: http://edoc.ub.uni-muenchen.de/100/1/Hoernel_Nicolas.pdf Kap. 2.2 / 2.2.3.1 S.28 / S.45 Die Fotodioden im Sensor sind auch Dioden: Lehr- und Übungsbuch Elektronik - Günther Koß, Wolfgang Reinhold, Friedrich Hoppe - Google Bücher Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #35 Geschrieben 7. Januar 2012 (bearbeitet) Teil 2: Lassen wir zunächst mal die Temperatur, die einem großen Einfluss auf das Rauschen hat, außen vor. Grundsätzlich nimmt das Rauschen mit größer werdenden Sperrschichten zu. Eine (Foto-)Diode besteht aus einer dotierten Sperrschicht. Wird diese Sperrschicht vergrößert (also die lichtempfindliche Fläche vergrößert), dann entsteht auch mehr Rauschen in der Diode selbst. Dieses Gesamt-Rauschen setzt sich aus verschiedenen Rauscharten zusammen, die alle zunehmen, wenn die Diode vergrößert wird. Auch jede Vergrößerung einer Ladung erhöht deren Rauschen, denn je mehr Elektronen umgepackt werden, um so mehr "Unruhe" herrscht in der Bude. Das ist sehr gut vergleichbar mit einem Saal. Wenn sich darin nur zwei Personen befinden, ist es relativ ruhig. Bei 2000 Personen hört sich das dann schon auffällig anders an. Jetzt nehmen wir doch noch die sich erhöhende Temperatur dazu und schon wird klar, dass es lauter rauscht je mehr Personen in dem Saal sich Luft zur Kühlung zufächeln. Die Fotodiode (wie jede Elektronik, jedes Material) erzeugt alleine durch ihr Vorhandensein schon mal Rauschen. Dieses Rauschen nimmt mit größer werdender Sperrschicht und mit größer werdendem Topf, also größer werdender Full-Well-Capacity, nur allein der "Größe" wegen schon zu, aber nicht im gleichen Maße wie die Größenzunahme. Mit einer sehr großen Full-Well-Capacity (großer Saal) habe ich zwar die Chance, sehr viele Mäuse zu fangen, aber wenn es nur sehr wenige Mäuse sind, dann wird es wieder schwer, die paar Biester zu fangen. Das ist dann das Problem der Eulen rsp. Mäusefanger, also der nachfolgenden Verstärker (die auch wieder Rauschen) und Analog-Digital-Wandler (die auch wieder Rauschen). Wenn die nun selbst schon so viel Lärm machen, dass sie die paar Mäuse im Saal nicht mehr hören können, dann ist es auch wieder Essig mit der Empfindlichkeit, also auch mit der Dynamik, denn die ist ja der der Unterschied zwischen gerade noch gefangenen Mäusen und der maximalen Anzahl im Saal unterzubringenden Mäusen, die dann auch noch so ruhig halten müssen, dass sie korrekt nachgezählt werden können. Wenn die wie wild durcheinander rennen weil es ihnen langsam zu warm wird (thermisches Rauschen), wirds auch wieder nix, d. h. es gibt beim Nachzählen statistisch verteilte Fehler. Viellecht wäre es ja ein Vorteil, durch die große Luke oben die gleiche Anzahl Mäuse in mehrere kleinere Zimmer zu werfen, denn dann würden sie selbst nicht so viel Lärm machen und wenige Mäuse könnten in den kleineren Zimmern der Eule nicht so leicht entkommen. Wenn man statt eines Saales von 10m x 10m und 3 m Höhe auf der gleichen Fläche 4 Zimmer von 5 m x 5 m und 3 m Höhe unterbringen würde, dann hätte man zwar den Flächenverlust der Mauern (man könnte die Trennwände ja in Leichtbauweise sehr dünn machen), aber könnte auch 4 Eulen zum Fangen hineinlassen, die sich dann nicht gegenseitig stören und auch sehr viel schneller mit dem Fangen fertig wären ohne schneller fangen zu müssen als die eine Eule im großen Saal. Sensorhersteller und Kamerahersteller müssen nun eine Menge verschiedene Kriterien unter einen Hut bringen, damit aus all den Rauschquellen noch ein möglichst sauberes Nutzsignal ohne Verluste - also möglichst noch mit allen Details - extrahiert werden kann: Thermisches Rauschen bei allen in der Kamera verbauten Teilen. Die verschiedenen Arten des Halbleiterauschens in allen Bauteilen von der Fotodiode bis zum gespeicherten Datensatz. Die extrem unterschiedlich großen Signale vom Rauschlevel bis zur Sättigung. Die Störungen innerhalb der Kamera, die durch Übersprechen zwischen den einzelnen elektronischen Komponenten erzeugt werden. ... Nur mit einer Optimierung an allen diesen Baustellen erreicht man dann ein gutes Ergebnis. Da ich ja mit Elektronik meine Brötchen verdiene, habe ich vor längerer Zeit mal einen Versuch gemacht: https://www.systemkamera-forum.de/135245-post58.html http://www.dslr-forum.de/showthread.php?p=3665235#post3665235 (Der Gast_57713 bin ich.) Hier der Text aus den Links: @Stuessi, Zitat: "Wie bin ich auf 8 Blendenstufen gekommen? Ich habe aus dem Diagramm in #55 den Bereich herausgenommen, der linear ist. Er beginnt zwischen 4. und 5. Bild, endet zwischen 12. und 13. Bild. Da von Bild zu Bild die Belichtung verdoppelt wurde, bedeutet das etwa zwischen 4,5 und 12,5. Das sind 8 Blendenstufen. Ein Blick auf die entsprechenden Bilder in #41 untermauert das Ergebnis. " Das deckt sich mit einem Versuch, den ich vor einiger Zeit mal gemacht habe: Die Fotodiode BPW34 mit einer lichtempfindlichen Fläche von 3mm x 3mm (Vollformatsensor mit 96 Pixel ohne Zwischenräume) liefert ca. 10 mV verrauscht und geht bei 3 V in die Sättigung. Das sind ungefähr 8 1/2 Blendenstufen. Nun kann man mit der entsprechenden Technologie etwas mehr herausholen, aber bei 1 bis 1,5 Blendenstufen mehr ist dann endgültig Schluss. Soviel zur Dynamik von großen Pixeln. Und nun lassen wir noch die Imageprozessoren mit ihren mehr oder weniger raffinierten Algorithmen, die auch die Bildverarbeitungsphilosophie der Hersteller einprogrammiert bekommen, ihre Arbeit machen und das Egebnis der Mühen auf die Speicherkarte kopieren. Daraus machen wir dann das auf einigen Umwegen, womit wir mit unseren Augen und deren Auflösungsvermögen wieder etwas anfangen können - das Bild. bearbeitet 7. Januar 2012 von wolfgang_r Link zum Beitrag Auf anderen Seiten teilen More sharing options...
donalfredo Geschrieben 7. Januar 2012 Share #36 Geschrieben 7. Januar 2012 Die Moderation bedankt sich bei den Hauptakteuren für diesen bemerkenswerten Fred, der sachlich, fachkundig und frei von jeglichen Reibereien geführt wird. So wird auch klar, warum gestern die (gewünschte) Aufspaltung vom Erstthema, nämlich Nikon V 1 versus PEN erfolgte, weil bereits ausführliche Beiträge geplant waren, und diese völlig deplatziert gewesen wären. Hierzu ein paar Sterndl, die ja üblicherweise nur in Fotofreds gespendet werden ... Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #37 Geschrieben 7. Januar 2012 Gebe den Dank gerne zurück. So macht das auch Spaß. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
kr@utg Geschrieben 7. Januar 2012 Share #38 Geschrieben 7. Januar 2012 (bearbeitet) Hallo Wolfgang, ich hätte gerne die Flächenabhängigkeit (Rauschen als Funktion der Pixelfläche) des read noise (vermutlich unabhängig) und des photon shot noise (the square root of the number of photoelectrons) verstanden. http://www.sensorgen.info/Calculations.html Kannst Du dazu etwas sagen ? Ich habe immer den Verdacht, dass Olympus/Panasonic sich noch nicht hart genug dem Thema read noise bei niedrigen ISO Zahlen gewidmet hat. Falls man die Auslese/A-D Elektronik auch auf dem Sensor plazieren könnte (macht das Sony ?) dann könnte man doch so die Dynamik bei niedrigen ISO Zahlen nocheinmal steigern ? Ehrlich gesagt, wäre mir das lieber als eine Verbesserung des Rauschens bei den hohen ISO Zahlen. Viele Grüße Michael bearbeitet 7. Januar 2012 von kr@utg Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #39 Geschrieben 7. Januar 2012 (bearbeitet) Hallo Michael, das read noise, also Ausleserauschen (hier eine Beschreibung eines High-End-Kameraherstellers), hat mit der Fläche des Pixels nichts zu tun. Es hängt aber von einigen anderen Faktoren ab, z. B. der Lesefrequenz (Taktrate) des Wandlers und den Störungen, die durch das Leeren der Speicherkapazitäten entstehen. Wo Ladungen fließen plätscherts halt auch. Soweit ich weiß, sind inzwischen alle Sensorhersteller auf die direkte Verarbeitung der Daten auf dem Sensorchip übergegangen, Verstärker und Wandler also so dicht wie möglich an die Fotodioden gepackt. Die Daten müssen aber noch seriell über mehrere Kanäle zum Imageprozessor übertragen werden und das stört auch. Abhilfe schafft das Auslesen über möglichst viele Kanäle und mit möglichst niedriger Taktfrequenz. Das läuft aber wieder der von vielen gewünschten Bildfolgefrequenz entgegen. Je steiler die Flanken werden, um so stärker stört der Datenstrom. Abhilfe würde das Auslesen nur eines Bildes in 10 Sekunden schaffen.... Diese Art rauschen war in Form von Banding gut zu sehen. Jetzt sieht man das nur noch bei ganz hohen ISO, also dann, wenn die Verstärker "voll aufgedreht" sind und die Wandler die unteren Bits nutzen müssen. photon shot noise, also das Photonenrauschen, ist eine natürliche Eigenschaft des Lichts. Das Licht selbst "rauscht". Das Photonenrauschen (Schrotrauschen, shot noise) entspricht der Quadratwurzel der mittleren Anzahl generierter Elektronen in jedem Pixel = Poisson-Verteilung. Um es mal ganz simpel auszudrücken: Das ist der Schrotflinteneffekt der Lichtquanten, die sich im Flug etwas mehr Platz schaffen. Dann treffen die eben nicht alle genau das eine Pixel, sondern daneben verstreut auch noch welche. Das ist unvermeidbar und gerade da, wo die Gradationskurve am steilsten ist, also im mittleren Helligkeitsbereich eines Bildes, am stärksten zu sehen. Wenn da bei einer glatten und völlig gleichmäßigen Fläche in 100%-Ansicht wirklich keinerlei Rauschen zu sehen ist, dann war die Heißmangel am Werk. In einem anderen Forum (Olympioniken) hatte ich mich schon mal über die Dynamik und was so alles damit zusammenhängt verausgabt. Das ist ein langes Thema. Hier auch nur ein kleiner Auszug daraus: https://www.systemkamera-forum.de/micro-four-thirds-fourthirds-kamera-technik/28516-sensor-vergleich-bei-dxo-alle-pen-sensoren-gleiche-werte-wie-pana-g1-2.html#post232158 Edit: Beim ersten Bild kann man sehen, wo in etwa der Breakeven von Streulicht und Photonenrauschen zu finden ist. Damit ist auch recht gut abzuschätzen, wieviel "echte" Dynamik in ein Bild hinein zu bringen ist. Der anerkannt gute Sensor einer KB-DSLR kann dagegen dann auch nichts mehr ausrichten, was man an der dicken grauen Linie sieht, die ab ca. 1600 ISO schön parallel mit der gelben Photon noise Linie läuft. https://www.systemkamera-forum.de/232262-post24.html bearbeitet 7. Januar 2012 von wolfgang_r Edit Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Weide Geschrieben 7. Januar 2012 Autor Share #40 Geschrieben 7. Januar 2012 Dummerweise geht's noch weiter: Jetzt schraube ich das 50mm/f1.0 an die Kleinbildkamera und kann zunächst wunderbare (50mm-)Aufnahmen bei ISO 800(!) machen. Diese ISO 800 sind nun rauschfreier, da vom größeren Sensor stammend. Ich möchte aber 100mm Brennweite erreichen und nehme daher einen Ausschnitt aus dem Kleinbildsensor. Jetzt habe ich ein 100mm Bild, aufgenommen bei ISO 800, aber wesentlich geringerem Rauschen - da immer noch vom größeren KB-Sensor stammend. Es hat allerdings wesentlich weniger Pixel Damit verschenkst du die Fläche des großen Sensors und nutzt nur noch das Licht von der kleine Fläche die dem des kleinen Sensors entspricht. Deshalb bringt dir das auch keinen weiteren Vorteil und das selbe Resultat könntest du genauso mit dem Bild des kleineren Sensors erreichen. tut mir echt Leid, das ich meinen Knoten im Hirn immer noch nicht los geworden bin. Du schreibst, ich verschenke die Fläche des großen Sensors. Befände sich ein kleiner Sensor im Strahlengang, würde ich doch ebenfalls etwas verschenken, nämlich das Licht welches nun am kleinen Sensor vorbeizieht. Aber ich gebe Dir vollkommen Recht - die Lichtintensität auf der Bildebene ist größer, da sie sich bei kleinerer Brennweite dichter am Brennpunkt des Objektiv befindet: Ein 100mm/2.8 hat eine Eintrittspupille von knapp 36mm. Unter Verwendung eines 10mm Objektives bei gleichen Lichtverhältnissen, gleicher ISO-Zahl und gleicher Belichtungszeit muss ich ebenfalls Blende 2.8 wählen. Nun ist die Eintrittspupille wesentlich kleiner, nämlich knapp 3.6mm!! Auf den Sensor fällt in beiden Fällen dieselbe Lichtmenge (der Sensor "merkt" nicht, dass ein anderes Objektiv drauf ist). Einfach die Auflösung auf den selben Wert runterrechnen und schon sinkt der Rauschlevel auf den selben Wert des Auschnittes den du von der KB Kamera dann in der selben Auflösung hättest. Beim verringern der Auflösung sinkt immer der Rauschlevel doch - das ist auch mir bekannt - trotzdem wage ich zu bezweifeln, ob man dasselbe Rauschniveau erreicht - käme auf einen Versuch an. Viele Grüße Weide Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 7. Januar 2012 Share #41 Geschrieben 7. Januar 2012 (bearbeitet) Nach #13 nun der zweite Schritt. Dazu wieder eine grafische Darstellung. Das Objektiv ist als "Black-Box" und die Hinterlinse(ngruppe) nur symbolisch dargstellt. Zur in der Grafik genannten Retrofokuskonstruktion gibt es hier eine Bescheibung. Wie ein Objektiv im Inneren funktioniert, ist hier nicht wichtig und dafür würde ich auch einen Optiker zu Rate ziehen (bin ja Elektroniker). bearbeitet 7. Januar 2012 von wolfgang_r Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 8. Januar 2012 Share #42 Geschrieben 8. Januar 2012 (bearbeitet) Der Vollständigkeit wegen hier noch eine Grafik mit den gleichen Bildwinkeln für ein noch kleineres Format als oben. So könnte das für die Nikon 1 in etwa hinkommen. Dabei gehe ich einfach mal davon aus, dass dafür das nahezu telezentrische Design gewählt wurde. Für ein noch kleineres Format als (m)FT ist das noch einfacher zu realisieren. Wie das in #10 angesprochene "nur die rechte Seite stauchen" realisiert werden kann, ist an den Grafiken nun auch zu sehen. Das ist nämlich in großen Bereichen bildwinkelunabhängig eine Sache der Objektivkonstruktion, Stichwort Schnittweite, womit Teleobjektive kürzer als die Brennweite sein können und Weitwinkelobjektive länger gebaut werden können um dahinter Platz für den Schwingspiegel z. B. zu schaffen. bearbeitet 8. Januar 2012 von wolfgang_r Korrektur Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Weide Geschrieben 8. Januar 2012 Autor Share #43 Geschrieben 8. Januar 2012 Hallo, oh, der Thread wurde als "wichtig" eingestuft! Ich hoffe es ist wegen der Ausführungen Wolfgangs und nicht wegen der Diskussion um "mein" Thema . "Mein" Thema möchte ich nochmal mit meinen Worten (und meinem Verständnis) zusammenfassen. Es ging hier um nicht ausrottbare "urban legends" zum Thema kleine Sensoren und Rauschen. Die folgenden Sätze muss man sich in großen Worten, pathetisch vorgetragen vorstellen : Ein kleiner Sensor benötigt für einen äquivalenten Bildwinkel eine kleinere Brennweite. Belässt man die Eintrittspupille nun auf selbiger Größe, so kann der Sensor mit einem geringeren ISO-Wert betrieben werden - es rauscht weniger bzw. es rauscht gegenüber dem großen Sensor, der bei gleicher Eintrittspupille und größerer Brennweite mit höheren ISO betrieben werden muss, gleich. Die nun folgenden Sätze muss man sich im holsteiner Platt vorstellen : Wenn Deine Kamera weniger rauschen soll, dann hole Dir ein lichtstärkeres Objektiv - dann kannste die ISO runterdrehen. Wo ist der Zusammenhang? Bei Verkürzung der Brennweite und Beibehaltung der Eintrittspupille ändert sich die Lichtstärke. Ein 100mm/f2 hat eine Eintrittspupille von 50mm. Konstruiert man nun ein 50mm mit einer Eintrittspupille von ebenfalls 50mm, so ergäbe sich eine Lichtstärke von 1.0. Ich bin nicht der Meinung, dass hier irgendwelche "urban legends" ausgerottet werden müssen. Ein lichtstärkeres Objektiv lässt eine geringere ISO zu - das ist trivialer Fakt Nummer 1. Eine lichtstärkeres Objektiv ist größer als eines mit geringerer Lichtstärke - das ist Fakt Nummer 2. Die Lichtstärke ist meiner Meinung nach ein hervorragender Wert, was wohl auch ein Grund ist weshalb er sich gegenüber Angaben z.B. der eintrittspupille durchgesetzt hat. Er errechnet sich aus der Brennweite - der Wert jeodhc lässt direkt und brennweitenunabhängig(!) auf die Lichtmenge auf Sensorebene schließen: Fotografiere ich mit einen 200er bei Blende 2.8 (Sensorgröße völlig egal), dann fotografiere ich gerade mit einem Objektiv mit 71mm Eintrittpupille. Nun wechsle ich das Objektiv und fotografiere mit 50mm. Die Lichtverhältnisse haben sich nicht geändert, also benutze ich wieder Blende 2.8. Die Eintrittspupille beträgt nun 18mm! Die Lichtmenge auf der Sensorebene bleibt gleich, was man daran erkennt, dass die Belichtungszeiten und der einzustellende ISO-Wert sich nicht ändert. Hier kommt die Physik einem kleinen Sensor übrigens zu Gute. Ein kleiner Sensor erfordert eine kleinere Brennweite - eine kleine Brennweite erfordert jedoch zum Glück bei gleicher Lichtstärke (und entsprechend gleicher Lichtmenge auf dem Sensor) eine kleinere Eintrittspupille. Viele Grüße Weide Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matadoerle Geschrieben 8. Januar 2012 Share #44 Geschrieben 8. Januar 2012 Hallo Weide, wir haben den Thread als wichtig eingestuft, weil er tatsächlich einen der am meisten diskutierten und auch kolportierten Zusammenhang betrifft: der "urban legend", daß ein großer Sensor weniger rausche, weil die (Sub-) Pixel größer wären. Tatsächlich, das kann mir auch keiner anders weismachen, liegt der "Vorteil" des größeren Sensors in der Regel an der Verwendung einer größeren (oder längeren) Optik mit entsprechend größerer Öffnung. Ich sage das jetzt mal vollkommen platt: ich muß überhaupt nicht wissen, welche Sensorgröße hinter einem Objektiv angeflanscht ist - wenn da zwei unterschiedliche Systeme zu Werke gehen und einen vergleichbaren Ausschitt abbilden, "gewinnt" das System mit der größeren (absolut, nicht relativ gesehenen) Blendenöffnung. Und seitdem ich das verstanden habe, gehen mir persönlich die ganzen Diskussionen um Sensorgrößen, Pixelpitch und Auflösungsverluste, Rauschfaktoren und High-ISO-Gequatsche einfach am Allerwertesten vorbei .. .. übrigens, und das meine ich absolut ernst, empfinde ich deinen Diskussionsstil, deine Bemühung und Ernsthaftigkeit als auch deine Überlegungen grundsätzlich für sehr wertvoll. Unter anderem auch deshalb, weil der Ton hier so gut ist, haben wir dieses Thema als wichtig und wertvoll oben angepinnt. Gruß Thorsten Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 8. Januar 2012 Share #45 Geschrieben 8. Januar 2012 Ist doch unwichtig, wer das Thema gestartet hat. Eigentlich war es ja ramatan hier https://www.systemkamera-forum.de/nikon-1-kamera-technik/25312-nikon-1-j1-schlaegt-olympus-e-p3.html und dann haben wir es abgetrennt, bzw. abtrennen lassen weil es sonst entgleist wäre und so wurde eben Weide hier zum TO. Wie gesagt, das ist eigentlich unwichtig. Es geht um das Thema und das ist sehr interessant. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 8. Januar 2012 Share #46 Geschrieben 8. Januar 2012 (...)Ich bin nicht der Meinung, dass hier irgendwelche "urban legends" ausgerottet werden müssen. Ein lichtstärkeres Objektiv lässt eine geringere ISO zu - das ist trivialer Fakt Nummer 1. Eine lichtstärkeres Objektiv ist größer als eines mit geringerer Lichtstärke - das ist Fakt Nummer 2. (...) Viele Grüße Weide Volle Zustimmung, und das war auch nicht gemeint. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 8. Januar 2012 Share #47 Geschrieben 8. Januar 2012 Die Objektive haben wir fürs erste durch, nun also der Teil 3 mit dem Thema Auflösung. Dazu zuerst ein paar grundlegende Worte um festzustellen, welche Voraussetzunge für Auflösung und Schärfe wir brauchen. Welche Auflösung brauchen wir um ein Bild "scharf" zu sehen? Dafür gibt es zwei Variablen und eine Konstante, welche die notwendige Auflösung bestimmen. Die Konstante ist das Auflösungsvermögen des Auges. Das Auflösungsvermögen des bloßen Auges beträgt unter idealen Bedingungen etwa 0,5' bis 1' (' = Winkelminuten), entsprechend 1 mm auf 3-6 Meter. Auflösungsvermögen Im extremsten Fall könnten wir also aus 1 m Abstand noch 1/6 mm auflösen. Das wäre auf den Meter bezogen eine Auflösung von 152 dpi. (Ich sehe das mit meiner getesteten Sehschärfe von 100%...120% nicht.) Die Variablen sind die Bildgröße und der Betrachtungsabstand. Der Kontrast hat natürlich für den Schärfeeindruck auch eine wesentliche Bedeutung. Hier nehmen wir den Idealfall an, d. h. dass immer genug Kontrast für einen optimalen Schärfeeindruck vorhanden ist (also praxisfremd Schwarz-Weiß-Linien mit minimaler und maximaler Helligkeit, wenn es möglich wäre das zu übertragen). Ich gehe jetzt mal der einfachen Rechnerei wegen davon aus, dass wir uns ein Bild aus einem Abstand ansehen wollen, welcher der Länge der längsten Seite des Bildes entspricht. Eine Auflösung von 4000 Pixeln an der längsten Seite für ein Bild von 1 Meter Breite in 1 Meter Betrachtungsabstand wäre also ausreichend. Ein Sensor mit einer Auflösung von ungefähr 12 Megapixeln würde diesen Anforderungen genügen, wenn nicht durch Ausschnittkorrekturen die Gesamtauflösung des Bildes verkleinert wird. Weil wir uns ein Bild auch mal aus geringerer Distanz ansehen wollen und durch Beschnitt Verluste entstehen, darf es also auch etwas mehr sein. Für kleinere oder größere Betrachtungsabstände oder noch höhere Auflösung (für hochwertigeren Druck und kürzeren Betrachtungsabstand zum Beispiel) kann man ja leicht umrechnen. Um es uns einfach zu machen, gehen wir also von 12 Megapixel aus (4000 x 3000). Das sollte dann für sehr gute Augen unter optimalen Bedingungen und für Ausschnittkorrekturen ausreichen. Herunter gerechnet auf unser 600 mm breites Bild wären das 170 dpi. Die EBV zwischen Pixel und Speicherkarte oder fertiger Bild-Datei auf unserem Rechner klammern wir jetzt mal aus und nehmen an, da würde alles optimal laufen und keine Verluste entstehen. Das ist ein eigenes und sehr umfangreiches Gebiet. Vorerst soll uns ausschließlich die Auflösung interessieren. Außerdem nehmen wir einfach mal an, dass ein Drucker oder die Ausbelichtung unser 600 mm breites Bild mit keinerlei Verlusten zu Papier bringt. Das Papier soll auch die Referenz sein, weil der Monitor eine geringere Auflösung hat. Da ist nämlich bei ca. 98 dpi in der Regel das Maximum und wie das aus dem Abstand, der der Bildbreite entspricht aussieht, kann jeder leicht selbst ausprobieren. Wenn nichts dazwischen kommt, folgt im nächsten Beitrag Teil 4, gegebenenfalls kommt er eben später. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 8. Januar 2012 Share #48 Geschrieben 8. Januar 2012 Teil 4 Wir sind immer noch bei immer dem gleichen Raumwinkel, den wir mit verschiedenen Formaten aufnehmen wollen. Die Auflösung hatten wir vorerst auf 4000 x 3000 = 12 MP festgelegt. Jetzt vergrößern wir mal bei gleicher Auflösung das Aufnahmeformat von beispielsweise 13 x 17,3 mm auf 36 x 48 mm (bei nach wie vor 12 MP). Um den gleichen Raumwinkel wie bei dem kleineren Format abbilden zu können brauchen wir jetzt die 2,8-fache Brennweite. Welche Menge an Licht (oder Energie) durch das Objektiv auf den Sensor pro Flächeneinheit gelangt, ist bei gleicher Blendenzahl gleich der Lichtmenge bei dem kleineren Sensor. So weit so gut. Welchen Vorteil hat das große Format bei der Ausgabe auf die gleiche Größe wie bei dem kleinen Format? Es sind ja nach wie vor nur 12 MP = 4000 x 3000 Auflösung vorhanden. Mit den 4000 Pixeln an der langen Kante können wir also nach wie vor ein Bild auf 600 mm Breite mit 170 dpi ausgeben. Das trifft für das große wie auch für das kleine Sensorformat zu, denn beide haben die gleiche Auflösung. Für unser Auge bedeutet das, dass bei einer Auflösung von 0,165 mm auf 0,5 m Entfernung (siehe oben, 0,5') die Auflösung des Bildes eigentlich nur 150 dpi betragen müsste und wir es auch mal aus kürzerer Distanz betrachten können ohne gleich die Pixel einzeln sehen zu können. Das ist, wie ich meine, durchaus praxisgerecht und passt gut zur 60 cm langen Kante eines handelsüblichen Bildes wie in #13 vorgeschlagen. Jetzt sind wir raffiniert und vergrößern bei dem großen Sensor die Auflösung. Weil es einfach zu rechnen ist nehmen wir die 4-fache Auflösung, also 48 MP, entsprechend 8000 x 6000 Pixel. Das sind Auflösungen, die auch in der Praxis in diesen Größenordnungen realisiert wurden. Die auf die Gesamtfläche des Sensors auftreffende Energie ändert sich dadurch nicht, weil sich ja an den anderen Parametern (Raumwinkel und Öffnung des Objektivs) nichts geändert hat. Auf jedes der Pixel treffen also nur 1/4 der eingefangenen Photonen auf. Das macht nichts, denn es sind ja 4x so viele Empfangsdioden auf dem Sensor und damit findet ja wieder jedes Photon seinen Platz. Die Stelle, wo es auftrifft kann nun aber genauer bestimmt werden, denn auf dem ehemaligen Platz eines Pixels sind ja nun deren vier untergebracht = höhere Auflösung. Außerdem gehen wir bei den Sensoren immer von der gleichen Technologie aus. Dass es von der Technologie abhängige Eigenschaften gibt ist klar (Sensor-Eingangsdynamik, Füllfaktor etc.). Das Bild vom 48 MP Sensor geben wir nun wieder auf unsere Wunschgröße von 600 mm Breite aus. Das ausgegebene Bild hätte also theoretisch - wenn die Ausbelichtung mitspielt - eine Auflösung von ca. 340 dpi. Die Unterschiede zwischen den einzelnen Pixeln gehen in der begrenzten Auflösung unseres Auges unter. Nur die Gesamthelligkeit und Farbe einer Gruppe von in diesem Fall mindestens! 4 Pixeln können wir erkennen. Wäre das nicht so, dann würde es keine Farbmonitore oder Farbfernseher geben so wie wir sie kennen. Deren Funktionsprinzip gründet sich ja auf die Nichterkennbarkeit der Einzelfarben und Einzelhelligkeiten die kleiner sind als die Augen sie auflösen können. Andersrum betrachtet dürfte das Bild des 48 MP Sensors bei einem Betrachtungsabstand von 0,5 m auch 1,35 m breit sein (bei 150 dpi Grenzauflösung des Auges), ohne dass wir mit unseren Augen eine Beeinträchtigung der Bildschärfe feststellen können, und wenn wir dann noch etwas näher heran gehen sehen wir möglicherweise schon die Unterschiede zwischen den einzelnen Pixeln und erkennen das Rauschen. Das wäre dann unsere 100%-Ansicht, wie wir sie als Pixelpeeper ;-) kennen. Für die gleiche Bilddarstellung auf unserer Ausbelichtung von 600 mm Breite ist der 36 x 48 mm² Sensor mit 48 MP also etwas oversized. Mit nur 12 MP bringt er auch (sagen wir mal fast) keinen Vorteil, weil die Auflösung auch mit dem kleinen Sensor erreichbar ist und zusätzlich der Bauraum um den Sensor kleiner gehalten werden kann. Außerdem muss man für die gleiche Bilddarstellung (Schärfentiefe) auf unserer Ausbelichtung des in der Fläche 7,68-fach größeren Sensors wegen in diesem Beispiel um ca. 3 Stufen abblenden und den Energieverlust durch erhöhen a) der Belichtungszeit oder der Verstärkung ausgleichen. Das hat im Fall a) gegebenenfalls Bewegungsunschärfe und im Fall auch erhöhtes Rauschen zur Folge. Womit wir beim Rauschen im fertigen Bild wieder auf dem gleichen Level wie beim kleineren Sensor wären (wieder gleiche Sensortechnologie vorausgesetzt). Und jetzt drehen wir die ganze Sache mal um und nehmen einen ganz kleinen Sensor von 8,65 mm x 6,5 mm Kantenlänge mit ebenfalls 12 MP. Wir ahnen schon was kommt. Um den gleichen Raumwinkel abbilden zu können brauchen wir nun die halbe Brennweite im Vergleich zum 17,3 mm x 13 mm Sensor. Ich mach's kurz: Die Energie aus dem Raumwinkel bei gleicher Blendenzahl auf die kleinere Sensorfläche projiziert reicht nun aus um eine größere Schärfentiefe scharf (höher aufgelöst) abzubilden. Man müsste also die Blende weiter öffnen und die Verstärkung nach dem Sensor verringern (oder die Sensorempfindlichkeit verringern), wenn man die Schärfentiefe verkleinern will. Jeder einzelne Pixel erhält jetzt die 4-fache Menge an Energie, dafür ist er halt nur 1/4 so groß. Auf unserer Ausgabegröße von 600 mm Breite würde sich an der Bilddarstellung nichts ändern, wenn wir die Blende weit genug öffnen könnten. So weit, so gut .... Wenn nichts dazwischen kommt, folgt im nächsten Beitrag Teil 5, gegebenenfalls kommt er eben später. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 8. Januar 2012 Share #49 Geschrieben 8. Januar 2012 Es kam nichts dazwischen, also machen wir sofort weiter mit Teil 5. Jetzt nehmen wir noch eine physikalische Eigenschaft des Lichts (auch jeder anderen Strahlung) hinzu, die Beugung an der Öffnung. Sie wirkt sich um so stärker aus, je kleiner das Loch ist. In unserem Falle im Bereich der Fotografie ist sie im wesentlichen von der Öffnung des Objektivs abhängig, und zwar im Betrag der Auslenkung auf Sensorebene bei allen Formaten in etwa gleich. Die theoretisch mögliche Auflösung bzw. die Beugung ist auch abhängig von der Wellenlänge. Näherungsweise ist das bei 550 nm in Winkelminuten 120/D (D in mm). Bei Blende 2,8 ist das etwa 1 µm auf Sensorebene. Das bedeutet, dass der Anteil der Beugung bezogen auf die Kantenlänge des Sensors immer größer wird je kleiner der Sensor wird. Unser kleiner Sensor mit 8,65 mm x 6,5 mm hat bei 12 MP eine lineare Auflösung an der Kante von 2,16 µm. Diese Auflösungsgrenze wird vom Objektiv bereits bei Blende 5,6 erreicht und mit weiterem Abblenden immer schlechter. Die Pixel unseres ganz großen Sensors (36 x 48 mm²) würden die Beugung erst bei Blende 32 bemerken. Die im Bildeindruck sichtbare Unschärfe erkennt man bei ganz genauer Betrachtung schon früher als Kontrastverlust, weil die Beugung nicht abrupt mit steiler Flanke eintritt, sondern diese Form hat. Mehr dazu: ZEISS Microscopy Online Campus | Interactive Tutorials | Airy Disk Formation Airy Disk -- from Eric Weisstein's World of Physics Punktquellen, Airy-Disks und Seeingscheibchen Die Auflösung des ganz kleinen Sensors wird sehr früh schon von der Beugung zunichte gemacht. Man kann durch weiteres Abblenden die Schärfentiefe vergrößeren, aber die Auflösung im Bereich der größten Schärfe wird geringer weil das Beugungsscheibchen jetzt mehrere Pixel überdeckt. Die Sensoren der Kompaktkameras sind teilweise noch kleiner als der hier verwendete kleinste Beispielsensor. Solch hohe Auflösungen wie hier beispielhaft verwendet haben bei solch kleinen Sensoren deshalb nur einen sehr begrenzten Nutzen. Der Spielraum mit der Blende ist minimal. Bei Blende 11 und unserem hier verwendeten kleinen Beispielsensor (die von den kleinen Kompakten selten oder gar nicht angeboten wird) wären wir schon bei einer nutzbaren Auflösung von nur noch 3 MP entsprechend 2000 x 1500 Pixel Kantenlänge. Bei nur 100 dpi Ausgabeauflösung wäre mit einem Betrachtungsabstand von 25 cm bei einer Bildbreite von 50,8 cm endgültig Schluss. Man könnte näher ran gehen, würde aber nicht mit mehr Details belohnt. Für einen Full-HD-Fernseher bei üblichem Betrachtungsabstand reicht es aber völlig aus. Bei dem ganz großen Sensor mit 48 MP und Blende 32 wäre die Beugung gerade in der Größenordnung der Pixel und wir könnten aus 50 cm Entfernung noch ein Bild von 1,35 Meter Breite ohne Auflösungsverlust ansehen. Wir erinnern uns, der mittelgroße 12 MP Sensor erlaubt uns aus 0,5 m Betrachtungsabstand immerhin eine Bildbreite von 0,67 Meter für "100%-Ansicht" bei optimalem Kontrast mit einem sehr guten Auge und Grenzauflösung. Jetzt wird auch klar, warum ganz kleine Sensoren bei unseren üblichen Ausgabegrößen noch so erstaunlich gut zu gebrauchen sind. Für 20 x 30 Bilder muß man von der Auflösung her gesehen keine größeren Formate haben als sie die Kompaktkameras bieten. Bei allen diesen Betrachtungen bin ich davon ausgegangen, dass die verwendeten Objektive abgesehen von der physikalisch unvermeidlichen Beugung des Lichts keine weiteren Abbildungsfehler haben und dass das Zusammenspiel von Objektiv und Sensor optimal ist. Dass die Praxis ganz anders aussehen kann ist uns allen sicher schon aufgefallen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
systemcam128 Geschrieben 8. Januar 2012 Share #50 Geschrieben 8. Januar 2012 tut mir echt Leid, das ich meinen Knoten im Hirn immer noch nicht los geworden bin. Du schreibst, ich verschenke die Fläche des großen Sensors. Befände sich ein kleiner Sensor im Strahlengang, würde ich doch ebenfalls etwas verschenken, nämlich das Licht welches nun am kleinen Sensor vorbeizieht. Normalerweise verschenkt man überhaupt kleine Fläche und leuchtet die Sensorflächen immer komplett aus. Die Idee ein Objektiv mit der falschen Brennweite zu nehmen (das 50/1 statt dem 100/2 an KB) und um trotzdem auf den selben Bildwinkel zu kommen einfach nur einen Ausschnitt davon zu nehmen kam ja von dir. Aber ich gebe Dir vollkommen Recht - die Lichtintensität auf der Bildebene ist größer, da sie sich bei kleinerer Brennweite dichter am Brennpunkt des Objektiv befindet: Ein 100mm/2.8 hat eine Eintrittspupille von knapp 36mm. Unter Verwendung eines 10mm Objektives bei gleichen Lichtverhältnissen, gleicher ISO-Zahl und gleicher Belichtungszeit muss ich ebenfalls Blende 2.8 wählen. Nun ist die Eintrittspupille wesentlich kleiner, nämlich knapp 3.6mm!! Auf den Sensor fällt in beiden Fällen dieselbe Lichtmenge (der Sensor "merkt" nicht, dass ein anderes Objektiv drauf ist). Vergleiche von 100mm und 10mm Objektiven sind absolut sinnfrei da sie ein völlig anderen Bildwinkel ergeben würden. Es geht um Objektive mit gleichem Bildwinkel und gleichen Blendendurchmesser. Das ergibt nebenbei eine vergleichbare Größe und Gewicht. Die Lichtmengen sind immer proportional der Eintrittspupillen. Bei einer kleineren Eintritspupille kommt immer weniger Licht an und zwar völlig unabhängig wie groß der Sensor dahinter ist. Die Kamera mit größerer Eintrittspupille wird deshalb immer klar im Vorteil sein auch wenn ihr Sensor kleiner ist. Das war die Kernaussage, deshalb wurden in den Beispielen immer Objetive mit gleichen Eintrittspupillen verglichen und dessen Rauschlevel auch an unterschiedlich großen Sensoren nachgewiesen. Das solltest du langsam versuchen zu verstehen. Da ist ein Loch und einzig dessen Durchmesser und nicht der Sensor oder sonstwas bestimmt die Lichtmenge die durchkommt. Und wenn man den Durchmesser um den Faktor Wurzel aus 2 (rund 1,4) erhöht kommt die doppelte Lichtmenge durch weil sich (Geometrie des Kreises) dann die Kreisfläche verdopplet hat. So kommen durch Multiplikation mit diesem Faktor die Blendenzahlen 1 1.4 2 2.8 4 5.6 8 ... usw. zustande bei der sich die Lichtmenge jeweils verdoppelt. Wie groß die Projektionsflächen dabei sind spielt überhaupt keine Rolle nur ändern sich bei unterschiedlichen Projektionsflächen die den selben Bildwinkel abbilden sollen die dazu notwendigen Brennweiten. Brennweiten und Blendenzahlen kann man aber über den dazu eingeführten Cropfaktor bei dem man das KB Format auf 1 normiert hat einfach umrechnen. Es gilt gleicher Blendendurchmesser = gleiche Lichtmenge = gleiche Schärfentiefe. Die maximale mögliche Schärfentiefe wird deswegen auch völlig Formatunabhängig einzig durch die Beugung bei sehr kleinen Blendendurchmessern begrenzt. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden