Jump to content

Sensorempfindlichkeit zukünftiger Digitalkameras?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

als völlig Ahnungsloser stelle ich mal eine ganz ketzerische Frage:

 

Sollte es nicht theroretisch möglich sein einen Sensor zu konstruieren, dessen einzelne lichtempfindliche Zellen (Pixel) sowohl die Menge als auch die Frequenz des einfallenden Lichtes erfassen können? So in etwa wie ein Mikrofon, welches ja auch nicht nur den Schalldruck sondern eben auch die Frequenz empfängt und ausgibt.

Dann könnten die Farbfilter wegfallen und das sollte doch wiederum zu einem deutlich besseren Signal-/Rauschverhältnis führen.

Weniger zu rechnen gäbe es wahrscheinlich auch, was wiederum gut für Temperaturen und Stromverbrauch wäre.

Das Licht, das auf einen Pixel fällt, hat nicht eine einzige Frequenz, sondern i.A. viele verschiedene Frequenzen.

Somit müsste also jeder Pixel aus einem Spektrometer bestehen, das das Spektrum aufnimmt. - Wie so etwas technisch umsetzbar sein sollte, ist mir absolut schleierhaft und die weitere Verarbeitung der gigantischen Datenmengen (ein ganzes Spektrum pro Pixel statt einem einzigen Wert) ist sicherlich auch alles Andere als einfach.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn's aus heutiger technischer Sicht einfach wäre, würde es das ja schon geben ;)

Aber hier gehts doch um zukünftige Entwicklungen, und denen wird man sicher nicht gerecht, wenn man von heutigen Stand der Technik, der bei Consumer-Kams vielleicht auch schon nicht mehr ganz so aktuell ist, ausgeht. Nach dem Motto: "War schon immer so - muss so sein - geht nicht anders".

Vielleicht müsste man den Thread-Titel um einen Zeithorizont erweitern, sonst reden einige vom nächsten Jahr, andere von 10 und wieder andere von 100 Jahren.

 

Ich denke da weiterhin an ein Mikrofon: Das kann ja auch mit einem einzigen Sensor (Membran) ein komplexes Gemisch aus unterschiedlichen Frequenzen in unterschiedlichen Pegeln annehmen und als analoges Signal ausgeben. Das Ganze müsste man "nur" frequenzmäßig um ein paar Potenzen nach oben verschieben. (bummelig 400-800 THz, entsprechend 20-40 Mrd. mal höher als ein 20 KHz-Ton)

 

In diesem Fall würde zwar jedes Pixel eventuelll ein komplexes Gemisch aufnehmen (wenn die Optik auf der Fläche in der Lage ist, solch ein Gemisch überhaupt durchzulassen - eventuell würde das Signal schon da vereinfacht), müsste ja aber nur einen relativ simplen Wert (Durchschnitt oder Summe oder den letzten Wert der gesammelten Informationen) ausgeben, da es eben nur ein Pixel darstellt, welches am Ende genau eine Farbe in genau einer Helligkeit darstellen kann.

Wie gesagt - ist ja nur eine spinnerte Idee ;)

bearbeitet von mikisb
Link zum Beitrag
Auf anderen Seiten teilen

Ich denke da weiterhin an ein Mikrofon: Das kann ja auch mit einem einzigen Sensor (Membran) ein komplexes Gemisch aus unterschiedlichen Frequenzen in unterschiedlichen Pegeln annehmen und als analoges Signal ausgeben. Das Ganze müsste man "nur" frequenzmäßig um ein paar Potenzen nach oben verschieben. (bummelig 400-800 THz, entsprechend 20-40 Mrd. mal höher als ein 20 KHz-Ton)

Dann hättest Du 16 Millionen Mikrofone, bei denen Du ein analoges in ein digitales Signal wandeln müsstest (A/D-Wandler). Dieser müsste aber eine Samplingrate von mehr als dem Doppelten der zu sampelnden Frequenz haben (Audio: 44 kHz Samplingrate für 20 kHz Nutzsignal. Das wäre bei 800 THz Nutzsignal 1,6 (1,76) PHz = Petahertz Samplingrate). Ob diese Abtatsrate ausreichend ist? Und das 16 Millionen Mal pro Sekunde parallel.

Link zum Beitrag
Auf anderen Seiten teilen

Ohne die Farbfilter vor den Pixeln nehmen die Pixel doch schon das ganze interessierende Spektrum auf. Weil man aber mit dem Gemisch aus 10^ganzviel nichts anfangen kann, hat man das erfunden, was man zum Beispiel Bayer-Pattern nennt. Unser Auge macht es auch nicht anders, es errechnet aus dem Gemisch der drei Grundfarben plus Helligkeitssensorstäbchen additiv die Farbe, die wir "sehen" (oder zu sehen glauben).

Zum guten Schluß muss man das ja auch wieder irgendwie darstellen und dann würde es genauso kompliziert werden. Also hammse wieder bei der Natur abgekuckt und stellen die drei Grundfarben im passenden Gemisch dar, und wenn man dann weit genug vom Bildschirm weg ist sieht man die Einzelfarben nicht mehr. Das Auge dröselt das Gemisch dann wieder auf, siehe oben.... Beim Druck gehts den reversen Weg mit subtraktiver Mischung.

Was ist die Lehre aus der Geschicht? Die Entwickler haben es schon prima von der Natur abgekuckt und eigentlich ganz gut umgesetzt. Die Evolution hat immerhin einige Millionen Jahre an dieser Technologie gebastelt und sie für die jeweiligen Zwecke sehr gut optimiert. Es ist kein Fehler, sich an diese Konstruktionen mit unseren technischen Mitteln anzulehnen.

bearbeitet von wolfgang_r
Ergänzt
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mal abgesehen davon, dass Wellenlänge und zugehörige Intensität nicht mal eben über einen Mini Sensor, dessen Ausmaß gerade mal einem Pixel entspräche gemessen werden kann.

Also ich wüsste zumindest nicht, dass das geht. Meines wissen basiert die Wellenlängenmessung auf Interferometrie, kann aber auch sein dass es da mittlerweile kompakteres gibt.

 

Bei 16 Millionen Pixeln solltest du dich aber damit anfreunden, dass deine Kamera dann so groß wie ein Tennisplatz wäre ;)

Link zum Beitrag
Auf anderen Seiten teilen

hmm - OK, scheint wirklich eine absolute Spinnerei zu sein.

 

Wolfgangs Argument pro Farbseparierung anhand des Vorbildes Natur ist schon ziemlich schlagend - was Besseres zu erfinden als die Natur ist wohl eher selten möglich. Die hatte ja aber auch reichlich Zeit ;)

 

Aber wer weiß - vielleicht werden in Zukunft Materialien entdeckt, die für unseren Bedarf besser geeignet sind als Sizilium :rolleyes:

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Ist nicht ganz was ich meine:
Vielleicht doch?

Beim Foveon liegen ja - soweit ich es verstehe, 3 Sensorschichten hintereinander.

Ja, weil man genau drei Farben braucht, um jede andere Farbe zu erzeugen.

Deiner Thoerie folgend sind das also die notwendigen Lichtfrequenzbereiche für die Reproduktion des Bildes. Natürlich könnte man deine Idee soweit realisieren, daß man nicht nur an drei Stellen (die jeweils aufsummierte Lichtmenge der betroffenen Lichtfrequenzen) abzapft, sondern man könnte auch (wenn herstellungstechnologisch möglich und sinnvoll) alle 100nm oder alle 10nm oder pro Nanometer die Intensität abgreifen. Nur würde das für die Reproduktion nichts bringen, weil man erst wieder die drei Primärfarben durch aufsummieren herstellen müßte. Also nimmt man gleich nur drei Anzapfungen.

Ganz stimmt obiges natürlich nicht mit deiner Thoerie überein, da man durch die Tiefenfarbempfindlichkeit immer nur Summenwerte erhält, aber es ist die einzige technologisch machbare Lösung.

Was deine Theorie fordert, wären eigentlich ganz schmalbandige Filter und für jede Lichtwellenlänge (bzw Lichtfrequenz) ein separates Filter.

Die Energieausbeute wäre entsprechend niedrig, aber durch aufsummieren (wegen der drei Primärfarben, ohne die eine Reproduktion nicht möglich wäre) kommt doch wieder einiges an "Lichtleistung" (=Anzahl von verwertbaren Elektronen) zusammen.

Also unterm Strich ein FOVEON Sensor.

Deine Theorie enthält deshalb einen Widerspruch, weil eben Silizium (so wie auch jedes andere Halbleitermaterial) für einen weiten Bereich an Lichtfrequenzen empfänglich ist.

Somit muß das Licht, daß auf den letzten Sensor treffen soll,
Hier (aber nur hier) ist dein Verständnis des FOVEON Sensors nicht ganz zutreffend, weil es sich bei diesem immer um einen einzigen Sensor handelt, der eben in unterschiedlicher Schichtdicke angezapft wird (zum Elektronenzählen).
... zunächst durch die beiden anderen Sensor-Ebenen. In diesem Fall müssen die "roten Photonen" erst mal durch die grüne und bleue Sensorschicht.
Wenn es denn Photonen unterschiedlicher Farbe gäbe...

Durch die Wellen/Teilchen Dualität sind eben Photonen nicht nur Teilchen, sondern sie haben praktisch identen Wellencharakter (und Welle kann mit Frequenz gleichgesetzt werden).

Ist nicht unbedingt im Sinne der Maximierung der Photonen pro Zelle.
Diese Maximierung gelingt einfach nur durch Maximierung der Pixelfläche und durch sonst keinen anderen Trick (Mikrolinsen einmal ausgenommen).

Woraus sich der nicht gerne gehörte Schluß ergibt, daß eine Sensorfläche von 24x36mm jeder kleineren überlegen sein muß und eine Sensorfläche von Mittelformatgröße wieder locker jeden Sensor in "Kleinbildgröße" schlägt (immer dieselbe Anzahl an Gesamtpixel vorausgesetzt).

Das Zauberwort heißt: full well capacity.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Wolfgang!

...

Was ist die Lehre aus der Geschicht? Die Entwickler haben es schon prima von der Natur abgekuckt und eigentlich ganz gut umgesetzt. Die Evolution hat immerhin einige Millionen Jahre an dieser Technologie gebastelt und sie für die jeweiligen Zwecke sehr gut optimiert. Es ist kein Fehler, sich an diese Konstruktionen mit unseren technischen Mitteln anzulehnen.

:-)

In der Natur - halt überall dort, wo gesehen werden kann - gibt es diese Dreifarbsicht garnicht. Beim Menschen ist es eher sowas wie das YCC (PAL/NTCS/SECAM) Farbsystem (exakt wäre das Lab Farbsystem) und bei vielen anderen Lebewesen ein noch viel komplizierteres Farbsystem. Alleine auf den Primärfarben (drei sind ja nur das theoretische Minimum) besteht kein "Sehsystem" in der Natur.

Link zum Beitrag
Auf anderen Seiten teilen

Ich denke da weiterhin an ein Mikrofon: Das kann ja auch mit einem einzigen Sensor (Membran) ein komplexes Gemisch aus unterschiedlichen Frequenzen in unterschiedlichen Pegeln annehmen und als analoges Signal ausgeben. Das Ganze müsste man "nur" frequenzmäßig um ein paar Potenzen nach oben verschieben. (bummelig 400-800 THz, entsprechend 20-40 Mrd. mal höher als ein 20 KHz-Ton)

Du weisst aber schon, dass longitudinale Dichtewellen der Luft (also Schall) etwas ganz Anderes sind als elektromagnetische Wellen (also Licht)? - Da gibt es noch deutlich größere Unterschiede als nur die Frequenz.

In diesem Fall würde zwar jedes Pixel eventuelll ein komplexes Gemisch aufnehmen (wenn die Optik auf der Fläche in der Lage ist, solch ein Gemisch überhaupt durchzulassen - eventuell würde das Signal schon da vereinfacht), müsste ja aber nur einen relativ simplen Wert (Durchschnitt oder Summe oder den letzten Wert der gesammelten Informationen) ausgeben, da es eben nur ein Pixel darstellt, welches am Ende genau eine Farbe in genau einer Helligkeit darstellen kann.

Wie gesagt - ist ja nur eine spinnerte Idee ;)

Wenn schon ein ganzes Spektrum aufgenommen wird, will ich doch auch für jeden Pixel das Spektrum und nicht nur irgendeinen daraus berechneten Mittelwert, o.Ä. aufnehmen.

Das würde dann nämlich völlig neue Möglichkeiten der nachträglichen Bildbearbeitung ermöglichen. (Ich denke da gerade an eine Kamera mit großem Spektralbereich von UV bis IR, bei der man dann nachträglich bei der RAW-Entwicklung den Frequenzbereich auswählen kann, den man gerne dargestellt hätte und damit aus einer Aufnahme und ohne Filter vor dem Objektiv ein normales, ein UV- und ein IR-Bild oder gar beliebige Mischungen aus Allem entwickeln kann.

 

Übrigens gibt es doch bereits Spektralkameras und es ist sogar möglich, eine DSLR wie die Canon EOS 5D zur Spektralkamera umzubauen, wobei sich die Auflösung dann leider von 12 Megapixel auf bescheidene 120x120px = 0,0144 Megapixel reduziert und aufgrund der hohen Helligkeitsunterschiede des aufzunehmenden Beugungsbildes auch keine einzelne Aufnahme ausreicht, sondern eine HDR-Belichtungsreihe nötig ist, so dass man nur statische Motive fotografieren kann. (Quelle: TU Wien)

Link zum Beitrag
Auf anderen Seiten teilen

Die Grundidee ist zwar ganz nett, aber da hat die Quantenphysik (Mutter Natur) und Herr Heisenberg (seine Unschärfe) etwas dagegen. Man kann entweder die Frequenz (Farbcodierung) ODER den Ort des Photons (Pixel) detektieren. Würde man tatsächlich einen Detektor (Sensor) bauen wollen, der quasi den Farbwert des einfallenden Lichts direkt "messen" könnte, dann müßte man eine größere Fläche und damit Unschärfe akzeptieren.

 

Der Foveon-Sensor ist bezüglich der Kombination Auflösung/Frequenz der einfallenden Photonen ein sehr guter Sensor mit einer wirklich beeindruckenden Quanten- (Photonen-) Effektivität. Die von isaac angesprochene "Full Well Capacity" - ich sehe da auf absehbare Zeit max. Faktor 2 bis 4 überhaupt noch erreichbar, entsprechend vielleicht 1 bis 2 Blenden mehr Dynamikumfang gegenüber heute. Und selbst wenn es in ferner Zukunft vier Blendenstufen wären, das Problem Auflösung vs. Frequenz ist in unserer Dimension solange nicht lösbar, wie wir nicht Photonen direkt "verstärken" können. Das Problem Available-Light bleibt ebenfalls bestehen, weil das grundsätzlich nur über noch größere Optiken/Einlasspupillen gelöst werden kann.

 

Wer einen Photonenverdoppler/-vervielfacher erfindet, der dabei Richtung und Zeit beibehält und kein Rauschen hinzufügt, kann praktisch jedes optische/fotografische Problem überzeugend lösen .. tut bloß keiner ;)

Link zum Beitrag
Auf anderen Seiten teilen

Hallo zusammen,

Wer kann halbwegs seriös abschätzen, wie sich die Empfindlichkeit der CCD- oder CMOS-Sensoren in Zukunft entwickeln wird? In der letzten Dekade wurde die Empfindlichkeit ja, grob geschätzt, alle 2 Jahre um eine Belichtungsstufe verbessert. Wird dieser Trend noch eine Weile anhalten oder sind die physikalischen Limits der Halbleitermaterialien allmählich erreicht? Zeichnen sich vielleicht schon neue Konzepte (Kameras mit Restlichtverstärker?) am Horizont ab?

 

Ich glaube, die hinter der Frage stehende Annahme führt in die falsche Richtung.

 

Wir finden es ja speziell bei Fotokameras vor, dass die Basisempflindlichkeit der Sensoren sich irgendwo bei 100 oder 200 ISO bewegt. Das ist so, weil dies für den Einsatzbereich Foto und die Verschlusszeiten der Kameras optimal ist.

 

Es gibt auch andere Sensoren, beispelsweise in Video-bzw. Filmkameras, bei denen man sich für höhere Basisempfindlichkeiten von beispielsweise 800 Iso entschieden hat. Entsprechend verschoben ist das Rauschoptimum in höhere Bereiche.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn's aus heutiger technischer Sicht einfach wäre, würde es das ja schon geben ;)...

 

Gibt es schon, ist aber nur in sehr wenigen Bereichen anwendbar.

z.b. in der Infrarot-Mikroskopie etwa bei forensischen Untersuchungen. Dabei wird ein Spektrometer (FT-IR) mit einem Mikroskop/Bildsensor gekoppelt. Das läßt sich auf herkömmliche Fotografie aber nicht übertragen, da die Lichtquelle schon Teil das Systems ist (das gebündelte Licht der Quelle wird durch das Michelson -Interferometer gejagt), die Strahlung muß koheränt sein und wird während der Bildaufnahme um einen genau bekannten Betrag phasenverschoben. Über diese Phasenverschiebung (die mit der Meßzeit am Detektor korreliert wird) läßt sich mathematisch das Spektrum rekonstruieren.

Damit kann man dann ein Bild von z.B. einer Faserprobe im Durchlicht aufnehmen und an jedem beliebiegen Bildpunkt das zugehörige Spektum abrufen, um es mit Refernzspektren zu vergleichen.

Eine schnelle 16MP Fourier-Transformation - schöne Rechenaufgabe.

 

LG Horstl

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Wolfgang!

 

:-)

In der Natur - halt überall dort, wo gesehen werden kann - gibt es diese Dreifarbsicht garnicht. Beim Menschen ist es eher sowas wie das YCC (PAL/NTCS/SECAM) Farbsystem (exakt wäre das Lab Farbsystem) und bei vielen anderen Lebewesen ein noch viel komplizierteres Farbsystem. Alleine auf den Primärfarben (drei sind ja nur das theoretische Minimum) besteht kein "Sehsystem" in der Natur.

Ja, ist mir bekannt. Ich war nur für diesen Zweck hier von einer rudimentären Erklärung bezüglich des Menschen ausgegangen. Weit unter- und oberhalb des von uns gesehenen Spektrums gibts bei den übrigen Lebewesen noch eine große Auswahl.

Link zum Beitrag
Auf anderen Seiten teilen

Ja, ist mir bekannt. Ich war nur für diesen Zweck hier von einer rudimentären Erklärung bezüglich des Menschen ausgegangen.

Solange wir uns mit der Fotografie in einer künstlerischen Darstellungsform für Menschen befinden, können wir dessen biologisch verankerte Grenzen als Zielsystem definieren und somit macht eine Beschränkung auf die Drei-Farb-Modelle phänomologisch absolut Sinn.

Wenn wir in ferner Zukunft mal außerirdische beeindrucken möchten, müssen wir uns vielleicht mit neuen Modellen auseinandersetzen. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Wer einen Photonenverdoppler/-vervielfacher erfindet, der dabei Richtung und Zeit beibehält und kein Rauschen hinzufügt, kann praktisch jedes optische/fotografische Problem überzeugend lösen .. tut bloß keiner ;)

 

. . . . und falls doch, wäre das Objektiv von seiner bestimmenden Rolle bei der Wiedergabe befreit . . . .

 

Nix für ungut

 

Henri

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...