Jump to content

Sensorempfindlichkeit zukünftiger Digitalkameras?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo zusammen,

Wer kann halbwegs seriös abschätzen, wie sich die Empfindlichkeit der CCD- oder CMOS-Sensoren in Zukunft entwickeln wird? In der letzten Dekade wurde die Empfindlichkeit ja, grob geschätzt, alle 2 Jahre um eine Belichtungsstufe verbessert. Wird dieser Trend noch eine Weile anhalten oder sind die physikalischen Limits der Halbleitermaterialien allmählich erreicht? Zeichnen sich vielleicht schon neue Konzepte (Kameras mit Restlichtverstärker?) am Horizont ab?

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Wer kann halbwegs seriös abschätzen, wie sich die Empfindlichkeit der CCD- oder CMOS-Sensoren in Zukunft entwickeln wird?

Eigentlich jeder, der ein wenig Ahnung von Physik hat und die relevante Literatur (Sensordatenblätter und allg. Beschreibungen) lesen kann.

In der letzten Dekade wurde die Empfindlichkeit ja, grob geschätzt, alle 2 Jahre um eine Belichtungsstufe verbessert.

Du solltest diese Ausage ganz gründlich überdenken.

Die Quantenausbeute (also wieviele Photonen werden gebraucht, um ein Elektron zu bilden) liegt bauartgemäß bei 50 - 70%, darum kommt man nicht herum.

Wird dieser Trend noch eine Weile anhalten oder sind die physikalischen Limits der Halbleitermaterialien allmählich erreicht?

Die physikalische Grenze wurde schon in der Entstehungszeit der Sensoren sogut wie erreicht.

Zeichnen sich vielleicht schon neue Konzepte (Kameras mit Restlichtverstärker?) am Horizont ab?

Restlichtverstärker wären eine Möglichkeit...

Aber im Prinzip meinst du wohl die "Rauschfreiheit" der den Sensor umgebenden Elektronik, die es erst möglich macht, quasi Photonen zu zählen.

Also laß dich nicht unnötig verwirren, der Wirkungsgrad der Ur-Sensoren und der aktuellen Nachtsichtboliden ist praktisch derselbe, nur die Elektronik drumherum ist heutzutage etwas weniger rauschend.

Link zum Beitrag
Auf anderen Seiten teilen

(...) wie sich die Empfindlichkeit der CCD- oder CMOS-Sensoren in Zukunft entwickeln wird? In der letzten Dekade wurde die Empfindlichkeit ja, grob geschätzt, alle 2 Jahre um eine Belichtungsstufe verbessert. Wird dieser Trend noch eine Weile anhalten oder sind die physikalischen Limits der Halbleitermaterialien allmählich erreicht? Zeichnen sich vielleicht schon neue Konzepte (Kameras mit Restlichtverstärker?) am Horizont ab?

isaac hat das Wesentliche schon kurz und bündig geschrieben.

Hier gibt es einen Thread, der ist nicht so sehr lang. Vielleicht kannst Du daraus noch einige Informationen gewinnen: https://www.systemkamera-forum.de/systemuebergreifende-technikdiskussionen-objektivadaptierung/28864-bildwinkel-blende-schaerfentiefe-format-verschoben-aus-nikon-v-1-versus-pen-p-3-a.html

Link zum Beitrag
Auf anderen Seiten teilen

Ja, danke, soweit schon einmal.:)

Ich habe also gelernt, dass die Erhöhung der Empfindlichkeit, die in den letzten Jahren erreicht wurde, kaum auf den Sensor, sondern offensichtlich auf die nachgeschaltete Signalverarbeitung zurückzuführen ist.

In diesem Zusammenhang wundert mich allerdings folgendes: Als die Olympus Pen-3 herauskam, wurde verschiedentlich diskutiert, dass Empfindlichkeit und Rauschverhalten gegenüber dem Vorgängermodell Pen-2 nur geringfügig verbessert wurde. Das erschien mir nicht verwunderlich, denn es wurden ja dieselben Sensoren verbaut. Mit dem Erscheinen der OM-D E5 verbesserte sich die Empfindlichkeit signifikant (wenn man den Berichten glauben darf) und allgemein wurde von einer neuen Sensorgeneration gesprochen. Unter "Sensor" wird somit nicht (nur) die Matrix von Photodioden verstanden, sondern wohl auch die gesamte Signalverarbeitungskette. Richtig?

Meine Ursprungsfrage müsste also folgendermaßen präzisiert werden: Wie schätzt ihr das systemische Entwicklungspotential der Kameraempfindlichkeit ein? Reden wir in ein paar Jahren von ISO 100000 bei einem Rauschverhalten, das wir heute mit ISO 6400 haben? Die Zahl der Photonen dürfte ja noch nicht der limitierende Faktor sein (oder habe ich mich beim groben Abschätzen völlig verrechnet?:o )

Viele Grüße!

Link zum Beitrag
Auf anderen Seiten teilen

Die hohen ISO braucht man, wenn überhaupt, bei genug Licht für kurze Belichtungszeiten bei kleinen Blendenöffnungen. Das Problem bei den KB-Teleobjektiven ist nämlich die hauchdünne Schärfeebene. Damit es erstens der AF einfacher hat und zweitens eine "vernünftige" Schärfentiefe erreicht werden kann, muss man abblenden. Damit werden aber die Zeiten unter Umständen zu lang für bewegten Sport. Also muss ISO um die zwei Stufen hochgeschraubt werden, die man zum Beispiel für mFT nicht hochschrauben muss, weil die Schärfentiefe bei größeren Öffnungen schon reicht. Ruckzuck werden aus 6400 ISO dann eben 25600 ISO. Das sind die zwei Seiten der Medaille.

Eine exorbitant hohe Empfindlichkeit hat auch eine Schattenseite, oder sogar mehrere. Was mache ich, wenn ich mal mit "nur" 200 ISO bei f/1,4 fotografieren will? Meine OM-D hat da mit 1/4000 schon ein Problem und von Graufiltern bin ich nicht so sehr überzeugt. Besser machen die das durch hochauflösende Sensoren und gute Objektive optimierte Bild auch nicht gerade. Wie halte ich die in der Kamera selbst entstehenden Störungen durch immer höher getaktete Elektronik vom Sensor bzw. den Signaleingängen fern? Empfindlichere Sensoren bzw. Eingangsschaltungen fangen auch leichter Störungen ein. Und nicht zuletzt, brauche ich als Fotograf militärtaugliche Kameras?

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

(...) Unter "Sensor" wird somit nicht (nur) die Matrix von Photodioden verstanden, sondern wohl auch die gesamte Signalverarbeitungskette. Richtig?

(...)

Viele Grüße!

So in etwa, ja. Es wird versucht, unmittelbar hinter den Fotodioden mit kurzen Wegen möglichst viel Verarbeitung (z. B. die Verstärker) unterzubringen, um in der weiteren Verarbeitungskette unempfindlicher für Störungen zu werden.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Schon richtig, ein Nachtsichtgerät brauche ich auch nicht. :) Schon gar nicht, wenn die hohe Empfindlichkeit zu Lasten der Qualität bei hellem Sonnenschein geht. Andererseits: 2 oder 3 Belichtungsstufen über das hinaus, was mir meine E-P2 bietet, wäre schon ganz nett. Mit den dann möglichen kürzeren Belichtungszeiten wäre die Trefferquote bei Schummerlicht-Portraits (bisher z.B. ISO 1600, f2, 1/30s, in Zukunft vielleicht ISO 6400, f2, 1/125s) bestimmt deutlich besser. Auch Makro-Aufnahmen aus der Hand oder Aufnahmen mit langem (manuellem) Teleobjektiv würden von kürzeren Belichtungszeiten sicherlich profitieren.

Beste Grüße, LeopoldWüstenberger

Link zum Beitrag
Auf anderen Seiten teilen

So in etwa, ja. Es wird versucht, unmittelbar hinter den Fotodioden mit kurzen Wegen möglichst viel Verarbeitung (z. B. die Verstärker) unterzubringen, um in der weiteren Verarbeitungskette unempfindlicher für Störungen zu werden.

 

Vielleicht noch den Sensor sehr stark abkühlen mit Stickstoff oder Peltierelement, wenn alles andere schon optimiert ist.

:rolleyes:

Link zum Beitrag
Auf anderen Seiten teilen

Vielleicht noch den Sensor sehr stark abkühlen mit (...) Peltierelement, wenn alles andere schon optimiert ist.

:rolleyes:

Das wird gemacht. Es gibt solche Freaks, die ihre Kameras bzw. die Sensorrückseite mit Peltierelement ausgestattet haben - für Astrofotografie.

DSI III Kühlung mit Peltierelement - Astronomie.de

EOS 300Da-Peltier

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

...

Meine Ursprungsfrage müsste also folgendermaßen präzisiert werden: Wie schätzt ihr das systemische Entwicklungspotential der Kameraempfindlichkeit ein? Reden wir in ein paar Jahren von ISO 100000 bei einem Rauschverhalten, das wir heute mit ISO 6400 haben?

Ich denke, da fehlt noch etwas an der Präzisierung der Frage. :-)

Das (störende, aber systemimmanente) Rauschen wird durch (mindestens) drei Maßnahmen reduziert:

1) rauschärmere Kameraelektronik

2) ausgefeiltere Entrauschungssoftware

3) niedrige(re) Betriebstemperatur

 

Der Punkt (1) liegt ausserhalb unseres Einflußbereiches, wir können nur Hoffen, daß die Hersteller was tun für ihr Geld.

Der Punkt (2) teilt sich auf Kamerasoftware und wenn zutreffend auf die RAW-Entwicklungssoftware auf.

 

Bezüglich Punkt (3) sind wir eher auf Spekulationen angewiesen, in der Praxis sind aber high-ISO Aufnahmen bei klirrender Kälte tendenziell weniger berauscht als bei tropischer Hitze (meine praktische Erfahrung).

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe also gelernt, dass die Erhöhung der Empfindlichkeit, die in den letzten Jahren erreicht wurde, kaum auf den Sensor, sondern offensichtlich auf die nachgeschaltete Signalverarbeitung zurückzuführen ist.

In diesem Zusammenhang wundert mich allerdings folgendes: Als die Olympus Pen-3 herauskam, wurde verschiedentlich diskutiert, dass Empfindlichkeit und Rauschverhalten gegenüber dem Vorgängermodell Pen-2 nur geringfügig verbessert wurde. Das erschien mir nicht verwunderlich, denn es wurden ja dieselben Sensoren verbaut. Mit dem Erscheinen der OM-D E5 verbesserte sich die Empfindlichkeit signifikant (wenn man den Berichten glauben darf) und allgemein wurde von einer neuen Sensorgeneration gesprochen.

 

 

ich bin da relativ pragmatisch, wenn ich in den Rohdaten sehe, dass die Tonwerte sauberer dargestellt werden können, rede ich von einer echten Verbesserung (auf Sensorebene)

 

Bei dem Sprung von EPL1 auf EPL3 sieht man dabei nicht so enorm viel (ein wenig schon, weil vermutlich auch Adobe ihren Algorithmus verbessert haben.)

 

Wenn ich dagegen ansehe was an Qualität bei den NEX Kameras im RAW zu sehen ist, dann ist das eine sehr deutliche Steigerung.

 

Der OMD Sensor ist auch ein Sony Sensor, der vermutlich bei der NEX Entwicklung abgefallen ist (Skalierungen von Sensordesigns sollen ja wenig Problematisch sein, solange sie sich in kleinem Rahmen bewegen ... schrieb mal einer, der sich in dem Bereich auskannte im Forum)

 

 

Vor jahren war im DSLR Forum mal ein Artikel verlinkt, der sich mit zukünftigen Sensortechnologien beschäftigte, dabei wurden Fabelwerte von über 100 000 ISO als Grundempfindlichkeit genannt (die Sensoren sollten glaube ich auf anderem Material basieren ... ) ... seitdem habe ich aber nichts mehr in der Richtung gelesen.

Link zum Beitrag
Auf anderen Seiten teilen

(...) Im Übrigen wäre dann Fotografie bei Tageslicht wohl bei einer so hohen Empfindlichkeit nicht mehr möglich (oder viele Graufilter).

Was übel wäre. Mir ist 200 ISO schon zuviel, bis 25 runter wäre mir recht. Extrem kurze Zeiten will man auch nicht immer haben. Wie soll ich dann fließendes Wasser abbilden, wenn ich jetzt schon ein Graufilter dafür brauche? Ein höhere Empfindlichkeit als 200 ISO halte ich für nicht mehr praxisbezogen. Dazu kommt noch ein Aspekt, der hier noch nicht beleuchtet wurde: Ein solcher Sensor ist (entgegen anderslautenden Informationen) ebenso extrem störungsempfindlich wie lichtempfindlich!

Es gibt aber Anwendungen für dieses Material, nämlich Solarzellen.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Du hast nach mir gerufen...

so,so...

da wird also die Quantenausbeute von 50-70% (Isaac) um einen Faktor 100 erhöht ;).

Das sollte uns Isaac mal genauer erklären :)

Unter der Annahme, daß das schwarze (im Text) die Buchstaben sind, die dann zu Wörtern zusammengesetzt werden, läßt sich ableiten, daß bei dem gegenständlichen Material (modifizierte Siliziumoberfläche) lediglich die Lichtmenge (also die Anzahl der Photonen pro Flächeneinheit) optimiert wird.

Wenn wir wirklich über eine Quantenausbeute höher 100% diskutieren wollen (ich will das nicht) dann sollte man das in einem entsprechenden Forum tun.

Link zum Beitrag
Auf anderen Seiten teilen

Was übel wäre. Mir ist 200 ISO schon zuviel, bis 25 runter wäre mir recht. Extrem kurze Zeiten will man auch nicht immer haben. Wie soll ich dann fließendes Wasser abbilden, wenn ich jetzt schon ein Graufilter dafür brauche? Ein höhere Empfindlichkeit als 200 ISO halte ich für nicht mehr praxisbezogen.

 

Na, vielleicht könnte man auf diese Art die Microlinsen loswerden :)

 

Der Mann von Mamiya referierte da mal vor vielen Jahren (beim Erscheinen der ZD) darüber, wieso man in Mittelformatkameras sowas ungern einbaue .. es würde die Punktschärfe und das Bokeh beeinflussen (weil die Bildpunkte nicht exakt lokalisierbar seien, durch die Linsen, die den Lichteintritt stark vergrössern würden)

 

Ein Grund dafür, dass Mittelformatkameras damals maximal ISO 400 hatten, während Kleinbild (trotz deutlich kleinerem Sensor) schon bis ISO 1600 gingen.

 

Ein deutlich empfindlicherer Sensor würde nicht nur die Linsen überflüssig machen, sondern auch die Microlinsenshifttechnik, mit der der Vignettierung und Farbseparation durch diese Linsen vorgebeugt wird. (wenn sie nicht eh nahezu telezentrisch gerechnet sind)

 

:) vielleicht kennt sich ja ein Physiker/Techniker aus dem Bereich da aus und sagt mehr dazu...

Link zum Beitrag
Auf anderen Seiten teilen

Na, vielleicht könnte man auf diese Art die Microlinsen loswerden :)

(....)

Du hast es richtig erfasst. Nur leider macht weglassen der Mikroprismen nicht so sehr viel aus, erst recht nicht, wenn BSI-Sensoren mit guter Flächennutzung im Spiel sind. Da könnte man jetzt schon die Mikroprismen problemlos weglassen. (Möglicherweise ist das bei der einen oder anderen Kamera ja schon der Fall und es wurde uns nur noch nicht verraten.;)) An der Empfindlichkeit würde man das kaum merken, denn richtig sinnvoll waren die Mikroprismen ja zur Auffangflächenvergrößerung für die kleineren Empfangsdioden in den "althergebrachten" Sensoren. Sie weglassen würde einige Vorteile bringen. Bildseitig telezentrisch bauen ist dann nicht mehr so sehr wichtig, aber übertreiben darf man es trotzdem nicht, denn mit flacherem Einfallswinkel erhöht sich die Reflexion auf der Pixeloberfläche und damit der Lichtabfall zum Rand. Colorshift ist allerdings kein Problem mehr. Das wird immodoc freuen.

Wir sollten uns jedoch keine allzu großen Hoffnungen machen. Was die BSI-Sensoren heute leisten ist schon nahe am theoretischen Maximum. Dioden mit Avalanche-Effekt können noch höhere Empfindlichkeiten realisieren. Sie haben bis jetzt nur einige Nachteile, die sie für unsere Anwendungen weniger geeignet machen. Sie rauschen wie die Niagarafälle und sind auch auf einem Substrat von Diode zu Diode zu unterschiedlich empfindlich. Auch brauchen sie eine sehr hohe Betriebsspannung. Für bestimmte bildaufnehmende Geräte werden sie aber eingesetzt.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Es handelt es sich um Mikrolinsen und nicht um Mikroprismen vor den einzelnen Photodioden. Mikroprismen gab es nur auf Mattscheiben von MF-SLRs.

Bei einem BSI-Sensor, bei dem die Photodioden fast die gesamte Oberfläche des Sensors belegen, wären diese Mikrolinsen allerdings wirklich unnötig.

 

Aber ich bin mir sicher, dass wir niemals Avalanche-Photodioden in normalen Digitalkameras finden werden. Diese Dioden lassen sich prinzipbedingt nur mit sehr hoher Spannung betreiben lassen und auch immer sehr stark rauschen werden.

Das sind sehr spezielle Bauteile, die sich ähnlich wie Photomultiplier nur sinnvoll zur Detektion einzelner oder weniger Photonen einsetzen lassen (u.A. in Positronen-Emmisionstomographen), aber sicherlich nicht für normale fotografische Anwendungen.

Link zum Beitrag
Auf anderen Seiten teilen

Es handelt es sich um Mikrolinsen und nicht um Mikroprismen vor den einzelnen Photodioden. Mikroprismen gab es nur auf Mattscheiben von MF-SLRs.

Bei einem BSI-Sensor, bei dem die Photodioden fast die gesamte Oberfläche des Sensors belegen, wären diese Mikrolinsen allerdings wirklich unnötig.

 

Aber ich bin mir sicher, dass wir niemals Avalanche-Photodioden in normalen Digitalkameras finden werden. Diese Dioden lassen sich prinzipbedingt nur mit sehr hoher Spannung betreiben lassen und auch immer sehr stark rauschen werden.

Das sind sehr spezielle Bauteile, die sich ähnlich wie Photomultiplier nur sinnvoll zur Detektion einzelner oder weniger Photonen einsetzen lassen (u.A. in Positronen-Emmisionstomographen), aber sicherlich nicht für normale fotografische Anwendungen.

Au weia, da habe ich mich aber gewaltig verschrieben, sorry. Natürlich meinte ich die Mikrolinsen.

 

Avalanche-Photodioden: So wie Du das beschrieben hast meinte ich das.

Link zum Beitrag
Auf anderen Seiten teilen

moin,

 

als völlig Ahnungsloser stelle ich mal eine ganz ketzerische Frage:

 

Sollte es nicht theroretisch möglich sein einen Sensor zu konstruieren, dessen einzelne lichtempfindliche Zellen (Pixel) sowohl die Menge als auch die Frequenz des einfallenden Lichtes erfassen können? So in etwa wie ein Mikrofon, welches ja auch nicht nur den Schalldruck sondern eben auch die Frequenz empfängt und ausgibt.

Dann könnten die Farbfilter wegfallen und das sollte doch wiederum zu einem deutlich besseren Signal-/Rauschverhältnis führen.

Weniger zu rechnen gäbe es wahrscheinlich auch, was wiederum gut für Temperaturen und Stromverbrauch wäre.

 

Dann auch gerne noch 3 zuschaltbare, kombinierbare ND-Filter eingebaut (1/2, 1/4, 1/8) um niedrigere ISO zu simulieren und schon hätte man eine enorme Bandbreite vernünftig nutzbarer Empfindlichkeiten.

 

Ich brauche auch keine ISO 100.000 und auch nicht mehr als 16 MP, aber bei den heutigen Rahmenbedingungen könnten doch damit die heute üblichen Bildqualitäten auf deutlich kleineren Chips mit deutlich kleineren Optiken erreicht werden.

 

Dann noch eine winkelvariable Glasfaser-Optik mit hoher Lichtstärke dazu, damit man noch unter der Beugungsgrenze bleibt und herauskommen sollte ein kleines, ungemein variables System. Ein durchdachtes Bedienkonzept dazu und schon bin ich glücklich:D

 

Sience Fiction oder habe ich da einen oder mehrere Denkfehler? ;)

 

Michael

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Sollte es nicht theroretisch möglich sein einen Sensor zu konstruieren, dessen einzelne lichtempfindliche Zellen (Pixel) sowohl die Menge als auch die Frequenz des einfallenden Lichtes erfassen können?

Ja, ist auch schon praktisch möglich und heißt FOVEON Sensor (in Sigma Kameras verbaut).

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

 

Ja, ist auch schon praktisch möglich und heißt FOVEON Sensor (in Sigma Kameras verbaut).

 

Ist nicht ganz was ich meine:

Beim Foveon liegen ja - soweit ich es verstehe, 3 Sensorschichten hintereinander. Somit muß das Licht, daß auf den letzten Sensor treffen soll, zunächst durch die beiden anderen Sensor-Ebenen. In diesem Fall müssen die "roten Photonen" erst mal durch die grüne und bleue Sensorschicht.

Ist nicht unbedingt im Sinne der Maximierung der Photonen pro Zelle.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...