Jump to content

Sollten nicht Kameras mit einem High ISO (Rauschfrei)-Sensor rauskommen?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo

Da war doch vor mittlerweile längerer Zeit einmal die Rede davon, dass die Weiterentwicklungen GH5 und G9 usw. mit einem Sensor mit wesentlich höherer ISO bzw. mit quasi ohne Rauschen in den Schattenbereichen rauskommen sollten. Leider ist mir, da es schon so lange her ist, der Name dieser Sensoren entfallen.
Auf jeden Fall gab es damals schon Vergleichsfotos, auf denen man gesehen hat, das die Schatten kaum ein Rauschen aufwiesen.

Ist da etwas unterwegs bzw. weiss jemand etwas darüber?
Danke.

Link zum Beitrag
Auf anderen Seiten teilen

Ob der Organic Sensor kommt? Mir wäre er willkommen. PANA hält sich gewöhnlich mit langfristigen Produktankündigungen zurück. Der GH5 Nachfolger soll im Frühjahr 2021 kommen, in 3 Varianten. Dem MFT System würde eine kleine Sensorrevolution gut tun, nach den Turbulenzen um Olympus.

https://news.panasonic.com/global/press/data/2016/02/en160203-5/en160203-5.html

Link zum Beitrag
Auf anderen Seiten teilen

Am 3.7.2020 um 08:21 schrieb AlterSchwede62:

mit quasi ohne Rauschen in den Schattenbereichen rauskommen

Wird's nicht geben, da physikalisch unmöglich, da bereits das Licht (Signal) das sogenannte Photonenrauschen aufweist. Was Panasonic da vorhat, ist das zusätzliche Sensorrauschen in diesen Bereichen zu minimieren.

Link zum Beitrag
Auf anderen Seiten teilen

vor 35 Minuten schrieb finnan haddie:

Wird's nicht geben, da physikalisch unmöglich, da bereits das Licht (Signal) das sogenannte Photonenrauschen aufweist.

Ich sehe erst mal nur, dass der Sensor eine höhere Dynamik einfangen können soll als üblich bei aktuellen Sensoren, wenn man mit dem ETTR macht, sollten die Schatten schon weniger rauschen, aber dafür wäre die Belichtungszeit länger.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die Empfindlichkeitsbereiche aufzuteilen, klingt zunächst mal nach einer guten Idee aber bei angeblich zu erreichenden 123 db Dynamik habe ich dann doch meine Zweifel.
Die Literatur stammt schon von 2016. Panansonic hat schon verschiedentlich neue Sensor-Technologien veröffentlicht, auch in Verbindung mit Fuji. Sie bauen in die verkauften Kameras dann aber noch Sony-Sensoren ein. Es wäre schon zu wünschen, dass da eine den Wettbewerb beflügelnde Entwicklung entsteht.

Link zum Beitrag
Auf anderen Seiten teilen

Ich verstehe sowieso nicht, warum man das nicht schon längst anders löst.

Ev. könnte man grundsätzlich verschiedene Layer auf einem Sensor haben, die verschieden belichtet werden oder verschieden empfindlich ausgelegt sind und diese von mir aus 3 bis 5 Layer immer in ein Bild zusammen rechnen.
Einer kümmert sich um Schattenwerte, einer um Lichtwerte, und einer um die Mitten. So könnte man sämtliche Über, aber auch Unterbelichtungen aus der Welt schaffen.
Natürlich sollte alles einstellbar sein, so dass der, der weiterhin mit extremen Kontrasten, Farben etc. arbeiten möchte, natürlich auch bedient werden würde.
Leider bin ich in dieser Industrie nicht tätig, denn ich hätte dieses Problem von der Forschungsabteilung schon lange lösen lassen.

Dass wir hier nach 30 Jahren digitaler Fotografie immernoch mit Nacharbeiten am PC oder an der Kamera mit Bildeinstellungen und Gradationskurven herumhampeln müssen finde ich schon etwas traurig.  🙁

bearbeitet von AlterSchwede62
Link zum Beitrag
Auf anderen Seiten teilen

vor 32 Minuten schrieb AlterSchwede62:

Leider bin ich in dieser Industrie nicht tätig, denn ich hätte dieses Problem von der Forschungsabteilung schon lange lösen lassen.

Wenn das so einfach ginge, gäbe es das schon. Foveon hat sich schon an mehrlagigen Sensoren versucht, um mit einem Pixel alle Farben zu erfassen, hat sich damit aber nicht durchsetzen können, aufgrund anderer Nachteile.

Link zum Beitrag
Auf anderen Seiten teilen

Ich bin überzeugt davon, dass am Ende niemand die 123 db Dynamik in ein Bild gequetscht sehen will.
Mal ganz abgesehen davon, dass diese volle Dynamik kein Medium wiedergeben kann, es sein denn, man setzt sich mit Schutzbrille vor den Monitor.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

vor 42 Minuten schrieb AlterSchwede62:

Einer kümmert sich um Schattenwerte, einer um Lichtwerte, und einer um die Mitten. So könnte man sämtliche Über, aber auch Unterbelichtungen aus der Welt schaffen.

Nochmal dazu: wenn man mit einem aktuellen KB-Sensor mit Basis-ISO halbwegs korrekt belichtet und dann die Dynamik voll ausreizen möchte, dürfte das Problem eher die Nachbearbeitung sein, wenn man den typischen HDR-Look vermeiden möchte. 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb AlterSchwede62:

Ich verstehe sowieso nicht, warum man das nicht schon längst anders löst.

Ev. könnte man grundsätzlich verschiedene Layer auf einem Sensor haben, die verschieden belichtet werden oder verschieden empfindlich ausgelegt sind und diese von mir aus 3 bis 5 Layer immer in ein Bild zusammen rechnen.
Einer kümmert sich um Schattenwerte, einer um Lichtwerte, und einer um die Mitten. So könnte man sämtliche Über, aber auch Unterbelichtungen aus der Welt schaffen.

Ganz einfach: es gibt physikalische Grenzen. 

Ein Photon, das in einem Layer aufschlägt, ist für die anderen Layer nicht mehr verfügbar.

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Minuten schrieb schopi68:

Ein Photon, das in einem Layer aufschlägt, ist für die anderen Layer nicht mehr verfügbar.

Ausser man betrachtet Licht als elektromagnetische Welle und nicht als Partikel...genau das macht der Foveon Sensor

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb schopi68:

Ganz einfach: es gibt physikalische Grenzen. 

Ein Photon, das in einem Layer aufschlägt, ist für die anderen Layer nicht mehr verfügbar.

Damit ist alles gesagt.

An der Oberfläche des Sensor müssten Öffnungen geschaffen werden, die das Licht über Kanäle zu den Pixeln der einzelnen Layer leiten müssten. Damit die Pixelzahlen der einzelnen Layer überhaupt nennenswerte Zahlen erreichen können, müssten diese Öffnungen/Kanäle ziemlich zahlreich sein. Ein Problem der Miniaturisierung. Lichtkanäle sauber über mehrere Layer hinweg zu führen, dürfte ebenfalls ein Problem sein. Wieviel vakabundierendes Licht geht  unterwegs verloren und führt im falschen Layer zu Rauschen. Mit jedem Layer sinkt die verfügbare Lichtmenge für diesen Layer. Mit der Layerzahl steigt auch das Wärmeabfuhrproblem aus dem Sensor. Wärmestau führt zu vermehrten thermischen Rauschen. Der Sensor müsste also wie in astronomischen Kameras gekühlt werden. usw. usw.

Nicht umsonst werden bei Handykameras die Nachteile der winzigen Sensoren und der Optiken durch nachträgliche Bildnachbearbeitungen  wieder geradegebogen. Weil sich der Normalo das leisten kann und damit zufrieden ist.

Die physikalischen Grenzen sind nun mal vorhanden und sehr hinderlich. Daran ändert auch ein Streit über die Wellen- oder Korpuskulareigenschaften des Lichts nicht das Geringste.

Endergebnis: Selbst wenn ein solcher Sensor realisiert werden könnte, wäre er für die meisten Fotografen unerschwinglich teuer. Die Entwicklungskosten wären gewaltig und die Käuferzahl endlich.

 

Link zum Beitrag
Auf anderen Seiten teilen

Am 3.7.2020 um 08:21 schrieb AlterSchwede62:

Hallo

Da war doch vor mittlerweile längerer Zeit einmal die Rede davon, dass die Weiterentwicklungen GH5 und G9 usw. mit einem Sensor mit wesentlich höherer ISO bzw. mit quasi ohne Rauschen in den Schattenbereichen rauskommen sollten. Leider ist mir, da es schon so lange her ist, der Name dieser Sensoren entfallen.
Auf jeden Fall gab es damals schon Vergleichsfotos, auf denen man gesehen hat, das die Schatten kaum ein Rauschen aufwiesen.

Ist da etwas unterwegs bzw. weiss jemand etwas darüber?
Danke.

Wahrscheinlich hast du das gemeint. Istr aber nicht alt.

https://www.photografix-magazin.de/panasonic-gh6-41-megapixel/

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb wasabi65:

Ausser man betrachtet Licht als elektromagnetische Welle und nicht als Partikel...genau das macht der Foveon Sensor

Der Foveon Sensor erfasst durch seinen Aufbau in Layern unterschiedliche Wellenlängen.
Was AlterSchwede62 in unterschiedlichen Layern erfassen möchte, sind jedoch unterschiedliche Lichtstärken. Da hilft dann auch die Betrachtung als Welle nicht weiter.

Einzig theoretisch bietet der Foveon-Sensor den Vorteil, daß jedes Photon ausgenutzt werden könnte und nicht durch einen Farbfilter eliminiert wird. Dem gegenüber steht bis heute in der Praxis sein schlechtes Rauschverhalten bei höheren ISO-Werten.

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Minuten schrieb schopi68:

Der Foveon Sensor erfasst durch seinen Aufbau in Layern unterschiedliche Wellenlängen.
Was AlterSchwede62 in unterschiedlichen Layern erfassen möchte, sind jedoch unterschiedliche Lichtstärken.
 

Eigentlich auch nicht.

Ich stelle mir das so vor, dass man die Verluste der Layer genau für die von mir angesprochene Geschichte benutzt.
Nämlich, dass Schatten vom obersten Layer aufgenommen werden. Mitten vom mittleren und Lichter vom untersten, so dass die Überbelichtung (da es der unterste Layer ist) kein Thema mehr wäre. Und absaufende Schatten könnte vom obersten Layer ohne jeglichen Lichtverlust abgenommen werden.
Vielleicht bräuchte man auch nur 2 Layer. Ich weiss das leider nicht, da ich kein Wissenschaftler bin.
Damit will ich nur sagen, dass man vermeintliche negativen Eigenschaften auf einem anderen Gebiet zum Vorteil nutzen könnte.

Noch kurz zu oben. Es geht nicht darum ein Bild mit möglichst flachem Kontrast zu erschaffen, sondern, Bilder grundsätzlich Augen gerecht, sprich so, wie das Auge und Gehirn ein Bild hin "rechnet" abzubilden. Ein Mal klappt das, weil die Dynamik zufällig reicht, und ein anderes Mal klappt das eben nicht, weil viel zu viel Lichter mit aufgenommen werden.

Wie gesagt, dass schafft man bis heute noch nicht. Alle (Hersteller) schreien nach mehr und mehr Pixel und um o.A. kümmert man sich immer noch kaum.

bearbeitet von AlterSchwede62
Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb AlterSchwede62:

Ich verstehe sowieso nicht, warum man das nicht schon längst anders löst.

Ev. könnte man grundsätzlich verschiedene Layer auf einem Sensor haben, die verschieden belichtet werden oder verschieden empfindlich ausgelegt sind und diese von mir aus 3 bis 5 Layer immer in ein Bild zusammen rechnen.
Einer kümmert sich um Schattenwerte, einer um Lichtwerte, und einer um die Mitten. So könnte man sämtliche Über, aber auch Unterbelichtungen aus der Welt schaffen.
Natürlich sollte alles einstellbar sein, so dass der, der weiterhin mit extremen Kontrasten, Farben etc. arbeiten möchte, natürlich auch bedient werden würde.
Leider bin ich in dieser Industrie nicht tätig, denn ich hätte dieses Problem von der Forschungsabteilung schon lange lösen lassen.

Dass wir hier nach 30 Jahren digitaler Fotografie immernoch mit Nacharbeiten am PC oder an der Kamera mit Bildeinstellungen und Gradationskurven herumhampeln müssen finde ich schon etwas traurig.  🙁

das musst Du auch bei Deiner Idee, die übrigens schon lange bekannt und umgesetzt ist ... und schon wieder zum alten Eisen gelegt wurde.

 

siehe zB Fuji S3 Pro und S5 Pro

--->  https://de.wikipedia.org/wiki/Fujifilm_Finepix_S5_Pro 

Super CCD* hies das, verschieden empfindliche Pixel wurden gleichzeitig belichtet und danach zusammengerechnet (sozusagen one shot HDR)

Das funktionierte grossartig, sogar 13 Blenden Dynamik waren damals drin ... was 3-4 Blendenstufen mehr war, als die Konkurrenz konnte.

Leider war die Auflösung nicht konkurrenzfähig und dass Fuji darauf bestand das hochzurechnen, verdarb dier 100% Ansicht. Diese Kameras sind allerdings teilweise immer noch bei Hochzeitsfotografen zu finden, die darauf angewiesen sind, Brautkleid und dunklen Anzug gleichermassen durchzeichnet aufzunehmen, ... ohne Versuche zu starten, im Vorfeld

 

* hier wurden keine Layer benutzt, sondern die Zwischenräume der grossen Pixel mit den kleinen Rezeptoren ausgefüllt

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb AlterSchwede62:

Ich stelle mir das so vor, dass man die Verluste der Layer genau für die von mir angesprochene Geschichte benutzt.
Nämlich, dass Schatten vom obersten Layer aufgenommen werden. Mitten vom mittleren und Lichter vom untersten, so dass die Überbelichtung (da es der unterste Layer ist) kein Thema mehr wäre. Und absaufende Schatten könnte vom obersten Layer ohne jeglichen Lichtverlust abgenommen werden.
Vielleicht bräuchte man auch nur 2 Layer. Ich weiss das leider nicht, da ich kein Wissenschaftler bin.
Damit will ich nur sagen, dass man vermeintliche negativen Eigenschaften auf einem anderen Gebiet zum Vorteil nutzen könnte.

Ziemlich genau das Prinzip hat Panasonic als "Dual-Sensitivity Pixel Technology" bei seinem Organic Sensor beschrieben. Mit dem Unterschied, daß hier die Layer nicht übereinander, sondern Nebeneinander liegen (hat mindestens den Vorteil, daß die Verluste in den Zwischenschichten beim Durchgang durch die Ebenen der Layer entfallen). Weiterhin kannst Du keinen Aufbau erzeugen, bei dem der untere Layer erst "befüllt" wird, wenn der obere voll ist. Es wird immer nur eine Füllung in einem bestimmten Verhältnis erzeugt werden.
D.h. im "empfindlichen" oberen Layer kommen bei niedriger Belichtung noch weniger Photonen an - das Rauschen nimmt zu.

Auch kann ich mir gut vorstellen, daß es schwierig wird, die Zellen soweit elektrisch voneinander zu trennen, daß die "überlaufende" obere Zelle nicht in die drunterliegende Ausstreut. Ähnliche Probleme gibt es ja auch bei nebeneinanderliegenden Zellen.

Es kommen dann schnell noch weitere Probleme dazu: je tiefer die lichtempfindlichen Zellen bauen, umso kleiner wird der von der Mikrolinse auf dem Sensor erfassbare Lichteinfallswinkel. Das ist dann wieder eine Einschränkung für die Objektivkonstruktion.

Wie schwierig so eine Neuentwicklung ist, sieht man letztlich beim Organic Sensor von Panasonic. Dieser wird schon mindestens ein halbes Jahrzehnt aktiv entwickelt und der Sensor ist immer noch nicht weit genug gediegen um im Massenmarkt verbreitet zu werden. Die zugrunde liegenden Patente für den organischen Sensor liegen teilweise schon über 20 Jahre zurück.

Jede Neuentwicklung eines Sensors muß heutzutage mit Sensoren konkurrieren, welche spezifisch für den jeweiligen Sensor über Jahre bis Jahrzehnte optimiert wurden. Damit ein neuer Sensor Akzeptanz findet, muß er nicht nur ein Problem lösen und darin besser als die existierenden Technologien sein, sondern er muß bereits bei der Markteinführung auch in allen anderen Aspekten mit den existierenden Sensoren mithalten können.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Stunden schrieb nightstalker:

siehe zB Fuji S3 Pro und S5 Pro

Ich weiss und ich habe beide eine Zeit lang benutzt.
Was dort für homogene Bilder heraus kamen war genau das, was ich immer angestrebt habe. Eigentlich kommt dort nur Sony einigermassen mit, aber auch nicht so wirklich.


Die S3 Pro würde ich heute noch nutzen, wenn das mit den Deadpixeln nicht gewesen wäre. 😶
Die S5 Pro hat mir von der Bedienung her nicht mehr gefallen.  😒
Es ist leider so, dass es, egal ob Auto, Kamera oder sonst etwas, das man sehr oft benutzt, manchmal einfach an mehreren Kleinigkeiten scheitert.

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Stunden schrieb schopi68:

Ziemlich genau das Prinzip hat Panasonic als "Dual-Sensitivity Pixel Technology" bei seinem Organic Sensor beschrieben. Mit dem Unterschied, daß hier die Layer nicht übereinander, sondern Nebeneinander liegen (hat mindestens den Vorteil, daß die Verluste in den Zwischenschichten beim Durchgang durch die Ebenen der Layer entfallen). Weiterhin kannst Du keinen Aufbau erzeugen, bei dem der untere Layer erst "befüllt" wird, wenn der obere voll ist. Es wird immer nur eine Füllung in einem bestimmten Verhältnis erzeugt werden.
D.h. im "empfindlichen" oberen Layer kommen bei niedriger Belichtung noch weniger Photonen an - das Rauschen nimmt zu.

Auch kann ich mir gut vorstellen, daß es schwierig wird, die Zellen soweit elektrisch voneinander zu trennen, daß die "überlaufende" obere Zelle nicht in die drunterliegende Ausstreut. Ähnliche Probleme gibt es ja auch bei nebeneinanderliegenden Zellen.

Es kommen dann schnell noch weitere Probleme dazu: je tiefer die lichtempfindlichen Zellen bauen, umso kleiner wird der von der Mikrolinse auf dem Sensor erfassbare Lichteinfallswinkel. Das ist dann wieder eine Einschränkung für die Objektivkonstruktion.

Wie schwierig so eine Neuentwicklung ist, sieht man letztlich beim Organic Sensor von Panasonic. Dieser wird schon mindestens ein halbes Jahrzehnt aktiv entwickelt und der Sensor ist immer noch nicht weit genug gediegen um im Massenmarkt verbreitet zu werden. Die zugrunde liegenden Patente für den organischen Sensor liegen teilweise schon über 20 Jahre zurück.

Jede Neuentwicklung eines Sensors muß heutzutage mit Sensoren konkurrieren, welche spezifisch für den jeweiligen Sensor über Jahre bis Jahrzehnte optimiert wurden. Damit ein neuer Sensor Akzeptanz findet, muß er nicht nur ein Problem lösen und darin besser als die existierenden Technologien sein, sondern er muß bereits bei der Markteinführung auch in allen anderen Aspekten mit den existierenden Sensoren mithalten können.

Das klingt gut, und mir kommt da gerad noch eine Idee.

Nebeneinander hört sich ziemlich interessant an. Warum macht man hier anstatt momentan 4 Zellen (2x2) nicht 9 Zellen (3x3)?
Da würden sich meiner Überlegung nach enorm mehr Möglichkeiten ergeben, nämlich 5 Möglichkeiten mehr, um mit Licht umzugehen.
Man könnte schon mal eins für einen bestimmten Lichterbereich verwenden, vielleicht sogar noch eins mehr um einen weiteren Lichterbereich unterhalb der hellsten Lichter, eins für die Schatten, und dann wären immer noch 2 Zellen übrig die man ev. für ganz andere Dinge nürzen könnte.

Link zum Beitrag
Auf anderen Seiten teilen

Soweit ich verstanden habe, wird es mit der Global Shutter Technik möglich sein, auch einzelne Rezeptoren einfach früher abzuschalten, also damit die Lichter zu schützen, damit wäre eine Technik a la S5Pro möglich, aber nicht fix, sondern flexibel gesteuert .... vieles geht auch mit den ISOlosen Sensoren (einfach ISO 100 mit -2 Blenden, statt ISO 400 ... man muss da aber gegen das Profil der Konverterhersteller arbeiten .. vielleicht sollte man das in der Software als fixe Einstellung vorsehen ... das Problem ist ja nur, dass die Lichter gekappt werden, wenn man den ISO Wert hochstellt. Meines Wissens funktioniert die Dynamikerweiterung der Fujis auch so)

Link zum Beitrag
Auf anderen Seiten teilen

vor 58 Minuten schrieb AlterSchwede62:

Nebeneinander hört sich ziemlich interessant an. Warum macht man hier anstatt momentan 4 Zellen (2x2) nicht 9 Zellen (3x3)?

je kleiner die Zellen sind, desto mehr bekommt man Probleme mit dem Rauschen. Schon die Aufteilung auf zwei Zellen erhöht das Rauschen (und verschlechtert damit die Empfindlichkeit).

Nicht grundlos sind ein paar Sensortechnologien inzwischen wiederweitgehend vom Markt verschwunden. ;)

bearbeitet von schopi68
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...