Jump to content

Frage an die Geeks zum Sensorrauschen


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich muss für einen Teil einer Hausarbeit erklären wie Rauschen im Bildsensor entsteht. Hierzu habe in der Bibliothek einige gute grundlegende technische Infos zusammengetragen. Ich möchte jetzt daraus ausarbeiten, welche Maßnahmen man in der Fotopraxis vornehmen kann, um das Rauschen zu reduzieren.

 

Was mir aber dazu fehlt ist eine zitierfähige Quelle, warum das Rauschen bei größeren Sensoren bei gleichem Belichtungsindex geringer ist.

 

Hat jemand einen Tipp?

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Minuten schrieb Alhambra:

Meinst du nicht, ich hätte das nicht schon gemacht ;)

 

Anscheinend verwende ich nicht die richtigen Suchbegriffe.

Weblinks[Bearbeiten | Quelltext bearbeiten]

12px-Commons-logo.svg.png Commons: Image noise – Sammlung von Bildern
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor einer Stunde schrieb Alhambra:

 

Was mir aber dazu fehlt ist eine zitierfähige Quelle, warum das Rauschen bei größeren Sensoren bei gleichem Belichtungsindex geringer ist.

 

Hat jemand einen Tipp?

Naja, der Grund ist, dass die Bilder nicht so stark vergrössert werden müssen .. nimmst Du einen Ausschnitt aus dem Kleinbildfoto, der so gross ist, wie zB ein APS Sensor, dann rauscht das auch gleich stark.

 

Das Rauschen ist also da, aber man sieht es weniger

 

:) eine zitierfähige Quelle dazu habe ich natürlich nicht, das ist halt so

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb Alhambra:

welche Maßnahmen man in der Fotopraxis vornehmen kann, um das Rauschen zu reduzieren.

 

Am besten kein Foto machen. 😬

Frag mal wolfgang_r .. der erklärt dir das.

Edit: @wolfgang_r Ein Job für Dich. 😉

bearbeitet von cyco
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Alhambra:

Was mir aber dazu fehlt ist eine zitierfähige Quelle, warum das Rauschen bei größeren Sensoren bei gleichem Belichtungsindex geringer ist.

Ich nehme an, Du meinst so etwas:

https://de.wikipedia.org/wiki/Schrotrauschen

Licht selbst rauscht, die einzelnen Photonen treffen statistisch auf den Sensor. Bei größeren Sensoren kommen insgesamt mehr Photonen an, dadurch wird das Messsignal "klarer".

Link zum Beitrag
Auf anderen Seiten teilen

vor 40 Minuten schrieb pizzastein:

Licht selbst rauscht, die einzelnen Photonen treffen statistisch auf den Sensor. Bei größeren Sensoren kommen insgesamt mehr Photonen an, dadurch wird das Messsignal "klarer".

Ich weiß nicht, wer die Hausarbeit liest. Ist das ein Physiker, sollten solche Sätze vermieden werden.

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Hmm, habe auch mal zu dem Thema Rauschen geforscht.

Das reine Rauschen als Intensitätsunterschied von Pixel zu Pixel bei homogener Belichtung ist nur schwer zugänglich, weil halt immer noch das Quantifizierungsrauschen des ADCs mitspielt. Das Rauschen als Summe (Sensor + Quantifizierungsrauschen) ist überhaupt nur in RAW-Files zu finden, weil in den OOC-JPGs die Rauschreduzierung heftig mitwirkt.

Das messbare Rauschen in RAW-Files steigt mit abnehmender Belichtung exponentiell an. Man weiß auch nicht, ob die interne RAW-Aufbereitung auch da schon etwas glättend eingreift, um bessere Noten bei Tests zu erreichen, deshalb sind Vergleiche zwischen verschiedenen Kameramodellen eines oder verschiedener Hersteller schwer. Das oben erwähnte Schrotrauschen nimmt mit abnehmender Belichtung ab, sollte also bei den Mitteltönen und den Schatten kaum eine Rolle spielen.

EIn Sensor ist eine parallele Anordnung von Millionen Fotodioden, für die der Kölsche Satz "Jeder Jeck is anners" gilt, d. h. der aufgeprägte Fotostrom streut bei gleicher Belichtung. Das ist eine Quelle für das Rauschen, die zweite ist, dass die Umsetzung Photonen => Elektronen in Fotodioden einen Wirkungsgrad < 1 hat und statistische Abweichungen erzeugt. Größere Pixelflächen im Sensor mtteln halt besser, auch machen sich Fertigungstoleranzen in der Fläche von Pixel zu Pixel geringer bemerkbar.

Vieles kann man zusammensuchen, wenn mal mal auf CMOS Sensor Noise sucht, an einzelne Quellen kann ich mich leider nicht mehr erinnern.

Der Rest ist schon gesagt: Geringstes Rauschen erreicht man bei reichlicher Belichtung (ETTR Exposure to the right) und Grundempfindlichkeit des Sensors. Meine G81 scheint das schon implementiert zu haben, denn automatisch belichtete Bilder sind sehr hell, man muss sie, egal ob RAW oder JPEG, in der Nachverarbeitung in der Empfindlichkeit zurücknehmen.

Für meine Begriffe ist der Versuch, Rauschen in normalen Kameras durch bestimmte Aufnahmeparameter beeiflussen zu können, von vorn herein unergiebig.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Kleinkram:

Sagen Deine guten Info-Materialien nichts zum Einfluss der Pixelgröße und des Pixelabstandes auf das Rauschen?

Doch, doch. Aber das kann es alleine nicht sein. Wenn das der Hauptgrund wäre, müssten die Unterschiede im Rauschen zwischen KB 24MP und 48MP auch mehr als deutlich sichbar sein. 

 

Ich studiere Informatik mit schwerpunkt Design und habe 3 Kurse Fotografie als Wahlfach drin. Ein Physiker wird die Arbeit nicht lesen. Dementsprechend legt der Dozent bei technischen Inhalt großen Wert auf Quellen. Wenn sich das Ganze einfach und logisch erklären lässt, dann kann ich auch auf eine Angabe verzichten. Will ja nicht ausschließen zu blöd für die Zusammenhänge zu sein 😬

 

LG

Maria

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb pizzastein:

Ich nehme an, Du meinst so etwas:

https://de.wikipedia.org/wiki/Schrotrauschen

Licht selbst rauscht, die einzelnen Photonen treffen statistisch auf den Sensor. Bei größeren Sensoren kommen insgesamt mehr Photonen an, dadurch wird das Messsignal "klarer".

Du meinst, man muss das Signal weniger Verstärken, da aufgrund der größeren Fläche mehr Licht „gesammelt“ wird?

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Maria,

man kann sich der Rauschsache von so vielen Seiten nähern, dass es keinen Spaß macht 😥.

Mir fallen spontan viele Aspekte ein:

a) die Struktur (also Pixel-) größe. Wie mit dem "Schrotrauschen" angedeutet, bin ich damit im Bereich von Quanteneffekten (Heisenbergsche Unschärferelation). Die etwas ältere, empirische zugehörige empirische Abbildungsgleichung des Herrn Abbe hat leider einen Schönheitsfehler (der für rein analoge Abbildung nicht sichtbar war). Im Randbereich eines Sensors (halbe Wellenlänge) ist also völlig unklar, ob die benachbarte Photozelle das Photon einfängt, oder die zum Lichtstrahl gehörende. Die Heisenberg-Funktion "wirkt noch ein wenig weiter hinein", so dass Sensorgrößen <10 µm davon stark beeinträchtigt sind (alles >10 MPixel an KB). Das kannst Du in Excel/Origin etc recht gut visualisieren.

b) die Eigenschaften des Halbleiters. Nicht alle Photonen, die die "lichtempfindliche Halbleiterschicht" erreichen, bewirken auch eine Ladungstrennung (das ist ein durch Dotierung speziell hergestellter Übergang, wie in einer Halbleiter-Diode - findet man in jedem Lehrbuch zu Grundlagen der Elektronik beschrieben - Beschreibungen zu Laserdioden oder Fotodioden sind nahe dran, wenn das Lehrbuch älter ist). Neben diesem "primären" Wirkungsgrad gibt es zwei weitere Faktoren - die durch Photonen erzeugte Ladungstrennung kann sich (vor dem Auslesen) über "Fehlstellen" wieder teilweise entladen.

c) die Beschichtung über den Halbleiterstrukturen, die zum einen farbempfindlich sein soll (das ist sie schon ein wenig), und zum anderen das Licht auf die photoempfindliche Schicht "bündeln" soll. Hierzu muß man einschlägige Erfahrungen zum Polymerbeschichtungsprozeß haben - ich würde das nicht publizieren, wenn ich damit mein Geld verdienen will 😀. Du wirst ohne Ende Patente dafür finden.

d)  das Auslesen der Ladungsträgermenge. Dies erfolgt über einen AD-Wandler. Auch dazu findest Du in Elektronik-Lehrbüchern viel Wissenswertes. Diese Teile haben eine Auflösung, eine Mindestempfindlichkeit und ein Eigenrauschen. Die ersten beiden Parameter sind zudem eine Frage der Auslösegeschwindigkeit (je schneller, desto schlimmer). Das elektronische Rauschen zieht sich durch alle Bauteile, und ist ein Quanteneffekt, aber ein äußerst komplexer, da ein Stromfluß durch ein elektronisches Bauteil als eine Art "shake-hand" von vielen Beteiligten angesehen werden kann (eine Unmenge an Quanten), ganz im Gegensatz zu dem Photon, dass den Sensor erreicht (das ist von der Lichtquelle, reflektiert vom abgebildeten Objekt bis zumSensor nur ein! Quant).

e) die vor-Ort Interpretation der Sensordaten in eine RAW-Datei bzw. in ein eingeschränkteres Format wie jpg.

Letztere nimmt sich einfach ein "Pixelfeld" vor, und schaut nach, ob dieses eher grün, blau oder rot ist - und ordnet den (Mittelwert ?) dem "Zentralpixel" zu. Hier gibt es Unterschiede je nach verbautem Bildprozessor in der Kamera. Auf diese Weise werden recht elegant "Quanteneffekte" bei kleinen Sensoren eliminiert. Diese hierdurch resultierende Art der Glättung wird auch als "Tiefpassfilterung" bezeichnet. Dieser Prozeß macht alle meine obigen (sicher unvollständigen und wissenschaftlich nicht 100%ig sauberen) Aussagen zunichte. Diese Art der "Vermatschung" von Sensorinformationen ist leider der einzige Weg, um die aktuelle Farbblindheit der Sensoren zu kaschieren (Farbfilterung ist nun mal eine Lichtreduktion - der Foveon-Sensor ist ein klassisches Beispiel dafür). Der Preis für die Farbe ist die "Ortsauflösung".

f) Man kann sehr wohl abschätzen, wieviel Lux man - 100% Transmission vorausgesetzt - bei 100% Wirkungsgrad mit einem AD-Wandler noch sinnvoll erfassen kann. Für die maximale Empfindlichkeit von AD-Wandlern (wieviel µC für das kleinste Bit nötig sind) gibt es Datenblätter.

Ich würde an Deiner Stelle mich auf einen (oder mehr) der Punkte beschränken, und dazu was schreiben. Das gibt keine komplette Antwort, wäre aber ein wissenschaftlich korrekter Einblick ins Puzzle.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb Alhambra:

Du meinst, man muss das Signal weniger Verstärken, da aufgrund der größeren Fläche mehr Licht „gesammelt“ wird?

Ich glaube, das geht in die falsche Richtung. Was ich meinte, ist Statistik. Würfele einmal und Du bekommst eine Zufallszahl von 1 bis 6. Würfele 100 mal, nehme den Mittelwert und der wird nahe bei 3,5 liegen. Je mehr Einzelereignisse aufsummiert und gemittel werden, desto größer die Wahrscheinlichkeit, den Mittelwert zu bekommen. So sehe ich das auch beim Schrotrauschen: je mehr Photonen ein Pixel einfängt, desto kleiner wird im Mittel die Abweichung vom idealen Helligkeitswert.

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb Alhambra:

Ich muss für einen Teil einer Hausarbeit erklären wie Rauschen im Bildsensor entsteht. Hierzu habe in der Bibliothek einige gute grundlegende technische Infos zusammengetragen. Ich möchte jetzt daraus ausarbeiten, welche Maßnahmen man in der Fotopraxis vornehmen kann, um das Rauschen zu reduzieren.

 

Was mir aber dazu fehlt ist eine zitierfähige Quelle, warum das Rauschen bei größeren Sensoren bei gleichem Belichtungsindex geringer ist.

 

Hat jemand einen Tipp?

Wenn Du ein wenig Geduld hast, dann suche ich etwas zusammen.

Nur eines vorweg, so einfach ist das nicht mit der Aussage, dass "Rauschen bei größeren Sensoren bei gleichem Belichtungsindex geringer ist."

Ein wichtiger Satz, der die Problematik im groben zeigt:

Bei gleicher Sensor- und Kameratechnologie (= hard- und softwaremäßige Weiterverarbeitung der Daten, die der Sensor liefert) und gleicher Beleuchtungsstärke pro Flächeneinheit auf dem Sensor und gleichem Ausgabemedium und gleicher Ausgabetechnologie und GLEICHER AUSGABEGRÖSSE und gleichem Betrachtungsabstand entspricht das Rauschverhältnis zwischen den Formaten nahezu dem umgekehrten Flächenverhältnis der Aufnahmeformate. Vierfache Aufnahmefläche ergibt ein Viertel des Rauschens, entsprechend 2 Blendenstufen weniger Rauschen.

Es spielen noch ein paar andere Faktoren mit. Auch das verwendete Objektiv spielt bei der Rausch- bzw. Dynamikmessung eine Rolle.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb wolfgang_r:

Vierfache Aufnahmefläche ergibt ein Viertel des Rauschens, entsprechend 2 Blendenstufen weniger Rauschen.

Und genau um diesen Zusammenhang geht es mir und den habe ich nicht verstanden.

 

Was alles zum Rauschen führt konnte ich bereits sehr detailliert recherchieren. Aber keiner der Quellen erklärt mir den Sachverhalt, den ich von dir zitiert habe.

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Minuten schrieb Alhambra:

Und genau um diesen Zusammenhang geht es mir und den habe ich nicht verstanden.

Denk Dir das so: mache mit dem kleineren Sensor vier Einzelaufnahmen, lege die übereinander (so dass die Helligkeitswerte übereinander liegender Pixel gemittelt werden), dann erhälst Du weniger Rauschen. Das kommt daher, dass diese Art von Rauschen durch zufällige Abweichungen vom Idealwert kommt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb pizzastein:

Denk Dir das so: mache mit dem kleineren Sensor vier Einzelaufnahmen, lege die übereinander (so dass die Helligkeitswerte übereinander liegender Pixel gemittelt werden), dann erhälst Du weniger Rauschen. Das kommt daher, dass diese Art von Rauschen durch zufällige Abweichungen vom Idealwert kommt.

So kann man es erklären. Bei gleicher Ausgabegröße kommt es darauf hinaus, als hätte man die 4 Viertel der vierfachen Fläche übereinander geschoben.

Edit: In der Astrofotografie treibt man das auf die Spitze, indem man -zig bis hunderte Bilder übereinander legt und verrechnet.

Edit2: PDF hinzugefügt.

Aufloesung-Dynamik-Rauschen.pdf

(Ein paar Links am Ende funktionieren leider nicht mehr. )

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...