oluv Geschrieben 24. Februar 2012 Share #1 Geschrieben 24. Februar 2012 Werbung (verschwindet nach Registrierung) Seit ich digital fotografiere, bin ich mir immer der Limits bewusst was den Dynamikumfang digitaler Sensoren betrifft. Obwohl Dias schon sehr heikel waren, so war das Ergebnis bei entsprechender Belichtung dennoch um einiges überzeugender als das was heutige Kameras liefern. Ein Blick durch den elektronischen Sucher, oder auf das Display und die wunderschöne sonnige Szene wirkt auf der Kamera so viel anders als in Wirklichkeit. Entweder Lichter oder Schatten. Dann gibts natürlich noch die Option nachträglich Schatten aufzuhellen auf Kosten von erhöhtem Rauschen, oder gleich Mehrfachbelichtung und HDR machen... Alles etwas mühsam! Ich habe mich schon lange gefragt, warum man die einzelnen Pixel eines Sensors je nach Bedarf nicht unterschiedlich empfindlich machen kann, eine Art ND-Filter, jedoch pro Pixel. Meine erste Idee war vor einiger Zeit, die Pixel unterschiedlich lang belichten zu lassen, also ein elektronischer Verschluss jedoch pixelbasiert. Im DSLR-Forum, aus dem ich mittlerweile leider verbannt bin, wurde dann darüber diskutiert warum das nicht funktionieren würde, und wie die zeilenweise Ausleseart genau funktioniere etc. Nun könnte man aber stattdessen vor den Sensor eine zusätzliche Einheit einbauen, eine Art variablen Pixel-ND-Filter, der ähnlich aufgebaut ist wie ein LCD-Display, in der gleichen Auflösung wie der Sensor, wobei dieses LCD-Filter-Display jeden Pixel in einem bestimmten Maß abdunkeln könnte. Bei Liveview ist der Sensor sowieso dauernd in Aktion, warum seine Auslesewerte nicht hernehmen um die LCD-Pixel davor zu steuern. Werden Auslesewerte von 255, 255, 255 gemessen, wird an diesen Stellen der ND-Pixel eben abgedunkelt. Dies könnte man ähnlich und in Echzeit handhaben wie die Tonkurvenanpassung bei der E-M5. Nur dass hier nicht die Sensorwerte selbst beeinflusst werden, sondern viel mehr die Helligkeit der ND-Pixel. Somit bliebe dann die volle Dynamik für die dunklen Stellen, wobei man die hellen Stellen abdunkeln könnte, damit diese nicht ausfressen. Früher tat man mit Verlaufsfiltern nichts anderes, in dem Fall wäre das eben ein Propixelfilter, der die Helligkeitsextreme ausgleicht. Sanfte Übergänge könnten durch Interpolation geschaffen werden etc... Ist diese Idee echt so hirnrissig, dass es noch keiner probiert hat? Vielleicht denke ich einfach in die falsche Richtung. Klärt mich bitte auf. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Werbung Geschrieben 24. Februar 2012 Geschrieben 24. Februar 2012 Hi oluv, Das könnte für dich interessant sein: Dynamikerweiterung - Gedanken und Ideen . Da findet jeder was…
wolfgang_r Geschrieben 24. Februar 2012 Share #2 Geschrieben 24. Februar 2012 (bearbeitet) Gibt es schon (unten im Beitrag), ist nur etwas teurer als unsere Knipsen und löst zu schlecht auf für unsere Ansprüche. Noch ein paar Links: http://www.imperx.com/files/products/docs/cameras/bobcat_ICL-B6620.pdf http://www.elektroniknet.de/automation/technik-know-how/feldebene/article/31275/0/Technologie-Trends_bei_CMOS-Bildsensoren/# http://www.elektroniknet.de/automation/technik-know-how/feldebene/article/31275/1/Technologie-Trends_bei_CMOS-Bildsensoren/ http://www.elektroniknet.de/bauelemente/technik-know-how/mikrosystemtechnik/article/1612/0/Dynamikerweiterung_bei_CMOS-Bildsensoren/ Kleiner Nachtrag: Denke doch mal über den Live-Bulb bei der OM-D nach und spinne den Gedanken noch höchstens zwei Sensorgenerationen weiter .... bearbeitet 24. Februar 2012 von wolfgang_r Nachtrag Link zum Beitrag Auf anderen Seiten teilen More sharing options...
oluv Geschrieben 24. Februar 2012 Autor Share #3 Geschrieben 24. Februar 2012 D.h WDR bzw "Wide Dynamic Range" heisst die Devise oder wie? Ist das auf größere Sensoren bzw auf höhere Auflösungen auch umlegbar? Du scheinst hier mehr technisches Hintergrundwissen zu haben. Vielleicht weisst du da was darüber. Das ergebnis der Überwachungskamera mit dem umgefallenen Rad sieht eigentlich bereits recht überzeugend aus, wobei ich nach wie vor denke, dass ein vorgesetzter dynamischer Zusatzfilter sogar technisch einfacher zu handlen wäre. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 24. Februar 2012 Share #4 Geschrieben 24. Februar 2012 (...)wobei ich nach wie vor denke, dass ein vorgesetzter dynamischer Zusatzfilter sogar technisch einfacher zu handlen wäre. Wie soll das für den Geamteindruck über ein ganzes Bild funktionieren, wenn nur einzelne Partien oder gar Pixel für sich alleine machen was sie wollen? WENN das eine Lösung wäre, DANN hätten wir sie schon. Darüber machen sich, soweit mir bekannt ist, die Sensorentwickler schon seit mindestens 5 Jahren intensiv Gedanken. So lange ist es her, als ich die ersten vorsichtigen Publikationen auf den Schreibtisch bekam. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
leicanik Geschrieben 24. Februar 2012 Share #5 Geschrieben 24. Februar 2012 ... Obwohl Dias schon sehr heikel waren, so war das Ergebnis bei entsprechender Belichtung dennoch um einiges überzeugender als das was heutige Kameras liefern...Bist du da so sicher? Komisch - ich habe das eigentlich gar nicht so in Erinnerung Gruß, Reinhard Link zum Beitrag Auf anderen Seiten teilen More sharing options...
oluv Geschrieben 24. Februar 2012 Autor Share #6 Geschrieben 24. Februar 2012 Ein Verlaufsfilter funktioniert doch genauso gut, zumindest im Falle von einem einfachen hell/dunkel-Verlauf. Man darf natürlich keine abrupten Übergänge zwischen hell/dunkel Pixel haben, sondern einen Verlauf. In Photoshop funktioniert ja shadow/highlight doch auch ganz gut, das nichts anderes als eine variable Maske ist, die hell von dunkel trennt. Außerdem greift es eben auf den finalen Output ein, der Filter hingegen sollte vor der Aufnahme eingesetzt werden. Hier ein Beispiel, das erste Bild ist das Original, das zweite das aufgehellte, das dritte ist die Maske (in dem Fall also der Filter) mit der ich das dunkle mit dem hellen überlagere. Das vierte ist schließlich das Ergebnis. In diesem Fall habe ich das zweite Bild einfach aufgehellt, der Filter würde eben die Umkehrung machen nämlich das Bild an den besagten Stellen abdunkeln. Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Link zum Beitrag Auf anderen Seiten teilen More sharing options...
oluv Geschrieben 24. Februar 2012 Autor Share #7 Geschrieben 24. Februar 2012 Werbung (verschwindet nach Registrierung) hier nochmal die maske wie sie tatsächlich in wirklichkeit bei diesem beispielbild aussehen müsste. der sensor würde wie bei bild 2 belichtet, die maske davor würde dann ein endergebnis wie zuvor liefern. Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige (Anzeige) Ich würde dir das Adobe Creative Cloud Foto-Abo mit Photoshop und Lightroom empfehlen
MaGu Geschrieben 25. Februar 2012 Share #8 Geschrieben 25. Februar 2012 Ein LCD-ND-Filter-Array vor dem Sensor wäre meiner Meinung nach ziemlich schwierig bis überhaupt zu realisieren: - Mir bekannte LCD-Displays haben deutlich größere Pixel als in Digitalkameras gängige Bildsensoren. Vermutlich ist es somit zumindest sehr aufwändig und teuer, ein so feines LCD-Display herzustellen, sofern das überhaupt möglich ist. - Neben den Pixeln sind auch zumindest irgendwelche Steuerleitungen, usw. und evtl. auch elektronische Schaltelemente auf dem LCD-Display, die einen Teil des eintreffenden Lichts nicht durchlassen. - Also bekommt der Sensor insgesamt weniger Licht ab und rauscht mehr, weil das Signal stärker verstärkt werden muss. - Bei einem Objektiv, das nicht bildseitig telezentrisch ist, fällt das Licht schräg auf den Sensor, so dass ein Teil des Lichs nicht durch den für den jeweiligen Pixel bestimmten ND-Filter, sondern durch einen benachbarten Filter geht. Je größer der Abstand zwischen ND-Filter-Array und Sensor, desto größer wird das Problem. (Höchstens zwischen Sensor und Mikrolinsen-Array wäre es evtl. möglich, so ein hochauflösendes LCD-Display einzubauen... aber da müsste es auch extrem dünn sein) Da gibt es viel interessantere Technologien: 1. Mehrfaches Auslesen des Sensors während der Belichtung (wie beim Live-Bulb, nur viel schneller) und anschließendes Verrechnen zu einem HDR-Bild 2. HDRC-Sensoren mit logarithmischer Kennline: klick (da sind auch die verlinkten PDFs, sowie das Video interessant) oder klick (inkl. Links zu diversen wissenschaftlichen Veröffentlichungen) 3. unterschiedlich große und damit auch unterschiedlich empfindliche Pixel immer abwechselnd auf einem Sensor (Fuji Super CCD - funktioniert schon lange in diversen Kameras wie z.B. der Fuji S5Pro) Link zum Beitrag Auf anderen Seiten teilen More sharing options...
oluv Geschrieben 25. Februar 2012 Autor Share #9 Geschrieben 25. Februar 2012 ich glaube das array müsste gar nicht die auflösung vom sensor haben, es würde eine viel niedrigere ausreichen. wie du siehst ist die maske auch sehr grob, ich hab sie per gaussian blur bearbeitet. je nach dem wie stark geblurred wird, umso stärker oder schwächer der effekt. ein großer pixel vor dem sensor wäre vermutlich eh unscharf, wie man an staubkörnern am sensor sieht, die auch eher wie ein "blob" aussehen. mir ist schon klar dass es andere methoden gibt, aber bisher wurde kaum eine umgesetzt. die S5 war genial, wahrscheinlich nach wie vor die digitalkamera mit dem höchsten dynamikumfang. warum fuji das nicht weiterverfolgt hat, sondern dann auf tricks mit auflösungsverringerung und pixelbinning zurückgreift, leuchtet mit irgendwie nicht ein. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wolfgang_r Geschrieben 25. Februar 2012 Share #10 Geschrieben 25. Februar 2012 ich glaube das array müsste gar nicht die auflösung vom sensor haben, es würde eine viel niedrigere ausreichen. wie du siehst ist die maske auch sehr grob, ich hab sie per gaussian blur bearbeitet. je nach dem wie stark geblurred wird, umso stärker oder schwächer der effekt.ein großer pixel vor dem sensor wäre vermutlich eh unscharf, wie man an staubkörnern am sensor sieht, die auch eher wie ein "blob" aussehen. Und was ist dann mit hoher Detaildichte bei großem Helligkeitsabstand zwischen den Details oder Astroaufnahmen? Ich möchte keine verwaschenen Kanten oder in der Helligkeit verfälschte Details (Sterne), weil sie blurristisch untergehen. mir ist schon klar dass es andere methoden gibt, aber bisher wurde kaum eine umgesetzt. (....) Lies doch nochmal den Nachtrag in #2. Lasse den Leuten die Zeit, das in Auflösungen größer als 512 x 512 in Konsumerkameras finanziell tragbar umzusetzen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 26. Februar 2012 Share #11 Geschrieben 26. Februar 2012 Fuji kann das schon eine ganze Weile in verschiedenen Varianten ... Ansonsten stimme ich zu, die OMD hätte das Zeug dazu ... man müsste nur Zwischenversionen der Bilder speichern, dann könnte man da locker 20 Blenden reinpacken bei einer längeren Belichtung. Kommt dann in der EM1 ... dem Profimodell, das die Ft und MFT Serien zusammenführt. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast acahaya Geschrieben 26. Februar 2012 Share #12 Geschrieben 26. Februar 2012 Kommt dann in der EM1 ... dem Profimodell, das die Ft und MFT Serien zusammenführt. Steht das M da für Messias? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 26. Februar 2012 Share #13 Geschrieben 26. Februar 2012 Steht das M da für Messias? frag Olympus ... aber da die 1 frei ist und EM von Oly kommt, habe ich die mal so benannt. Ich gehe aber (um die Frage mal ersthaft zu bearntworten) davon aus, dass es genau wie bei der OM Serie für Mini steht. Der Trick ist es, mehrere Bilder zu bekommen, die man stacken kann .... wenn ich eine Kamera habe die, zwischen den Anfangs- und Endpunkten der Belichtung, Bilder auslesen und speichern kann (was durch die Live Funktion ja bewiesen ist) was liegt dann näher, als das für solche Spielchen zu nutzen? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
tom-tom Geschrieben 26. Februar 2012 Share #14 Geschrieben 26. Februar 2012 Ist diese Idee echt so hirnrissig, dass es noch keiner probiert hat? Vielleicht denke ich einfach in die falsche Richtung. Klärt mich bitte auf. Falsche Richtung würde ich sagen. Du hättest im allgemeinen Fall bei unterschiedlicher Belichtungsdauer von 20 mio pixeln eben auch 20 mio Grade unterschiedlicher Bewegungsunschärfen des Motivs aufgezeichnet. Das sähe auf pixelebene betrachtet fürchterlich aus. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
oluv Geschrieben 26. Februar 2012 Autor Share #15 Geschrieben 26. Februar 2012 Falsche Richtung würde ich sagen. Du hättest im allgemeinen Fall bei unterschiedlicher Belichtungsdauer von 20 mio pixeln eben auch 20 mio Grade unterschiedlicher Bewegungsunschärfen des Motivs aufgezeichnet. Das sähe auf pixelebene betrachtet fürchterlich aus. deshalb der gegenvorschlag mit dem nd-filter array. dieser dunkelt nur die zu hellen bereiche ab ohne die belichtungszeit der einzelnen pixel zu beeinflussen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MaGu Geschrieben 26. Februar 2012 Share #16 Geschrieben 26. Februar 2012 mir ist schon klar dass es andere methoden gibt, aber bisher wurde kaum eine umgesetzt. Naja... deine Methode ist nur eine Idee, während die anderen Ansätze zumindest schon längst bei Sensoren mit geringerer Auflösung funktionieren und zumindest im Fall von HDRC schon lange für spezielle Anwendungen praktisch eingesetzt werden. Von den vielen anderen Dingen, die es für Spezialanwendungen schon lange gibt wie Global Shutter, simultanes Auslesen verschiedener Sensorbereiche mit unterschiedlichen Frequenzen, usw. und die es trotzdem noch nicht in Digitalkameras gescafft haben, will ich gar nicht erst anfangen.... Man stelle sich nur mal vor, die Kamera könnte den Bereich des AF-Feldes für einen extrem schnellen Kontrast-AF mit z.B. 1200 Hz auslesen, während der Rest des Sensors mit 120 Hz für das Live View ausgelesen wird... Aber angesichts des Tests von Pekka Potka könnte ich mir auch durchaus vorstellen, dass der Sensor der EM-5 hier schon irgendwelche Tricks zur Steigerung des Dynamikumfangs beherrscht... (mehrfahces Auslesen während der Belichtung?) Aber deine Idee halte ich nach wie vor für unbrauchbar. Bei hoher Auflösung des ND-Filter-Arrays gibt es Probleme mit nicht bildseitig telezentrischen Objektiven und bei geringer Auflösung haben wir Probleme bei Kanten mit sehr harten Kontrasten. Weiterhin wird es Abschattungseffekte durch Leiterbahnen, usw. auf dem Display geben. Und dazu ist es sicherlich sehr teuer und aufwändig, ein solches Display zu bauen und in möglichst kleinem Abstand vor dem Sensor zu platzieren. Da ist es deutlich einfacher und günstiger, Dinge an der Sensorelektronik zu verändern, anstatt ein weiteres Bauteil vor den Sensor zu setzen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden