Jump to content

Empfohlene Beiträge

  • Antworten 124
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Link zum Beitrag
Auf anderen Seiten teilen

@kavenzmann & Co

Schönen Dank für den Ausflug in die analoge Fototechnik.

War echt interessant.

 

Was ist jedoch der Unterschied zwischen Eingangs- und Ausgangsdynamik einer Digitalkamera?

 

Oh je...

Da krieg ich gleich wieder Schelte, weil ich doch mein Studium nicht zu Ende gemacht hab. :(

 

Eingangsdynamik ist für mich der Kontrastumfang, den die Kamera/ der Chip aufzeichnen kann.

 

Ausgangsdynamik wäre bei mir die Helligkeitsverteilung im Bild, wie es aus der Kamera kommt. Also quasi die Interpretation des Motivs durch die Kamera.:D

Natürlich nicht die Interpretation, sondern eben die Umsetzung der Chipdaten in ein Bild.

 

Hier gehts eher um die Eingangsdynamik. Durch RAW möchte ich selbst der Interpret sein!:cool:

Link zum Beitrag
Auf anderen Seiten teilen

Meine Erfahrung:

Die Ausgangsdynamik kann bei einem "billigen" Monitor sehr leiden.

 

bzw. kann ein Druck treppenförmige Farbverläufe zeigen, die sonst nicht sichtbar waren.

 

--- Kalibrierung und Co. --- da muss ich auch noch viel lernen und machen :rolleyes:

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

O.k, nehmen wir die Frage des Zusammenhangs zwischen Pixelgröße, Eingangsdynamik und Ausgangsdynamik mal mit in die Diskussion:

 

DxO misst im "Print" (entsprechend Skalierung auf 8Mpix) durchweg ein z.T. deutlich besseres Signal-Rauschverhältnis (teilweise mehr als 1EV) als bei der 100% Monitoransicht ("Screen"). Beim Dynamikumfang (Dynamic Range) sind die Unterschiede zwischen "Screen" und "Print" ebenfalls da, wenn auch geringer. Hier mal Link zum Vergleich zwischen D7000, 5DII und Phase One P65+. Man beachte auch das Verhältnis zwischen Pixelzahl und Pixelgröße. So weit, so gut.

 

Frage: Bedeutet dies jetzt, dass die Eingangsdynamik von der Skalierung des Fotos abhängt? Oder misst DxO gar nicht die Eingangsdynamik des Sensor? :rolleyes:;)

Link zum Beitrag
Auf anderen Seiten teilen

DxO misst im "Print" (entsprechend Skalierung auf 8Mpix) durchweg ein z.T. deutlich besseres Signal-Rauschverhältnis (teilweise mehr als 1EV) als bei der 100% Monitoransicht ("Screen").

dann dürfte es sich bei "Screen" um die tatsächlich gemessen Werte handeln und bei "Print" um normalisierte Werte, die einen Vergleich zwischen Sensoren mit unterschiedlicher Pixelanzahl erst ermöglichen, indem auf das gleiche Ausgabeformat skaliert wird

 

Gruß

Günter

Link zum Beitrag
Auf anderen Seiten teilen

vermutlich messen sie bei Screen den absoluten Rauschwert, der die Tiefendynamik des Sensors begrenzt und bei Print messen sie den Rauschwert auf die genannten 8 MP gerechnet ....

 

 

Das beweisst also, dass die Dynamik bei grossen Sensordichten tatsächlich schlechter ist .... aber man die Tiefenbegrenzung ausserhalb der 100% Ansicht nicht sehen wird. Weshalb normalisiert die Sensoren dann doch wieder einen gleichen oder sogar besseren Tonwertumfang darstellen können.

 

.

Link zum Beitrag
Auf anderen Seiten teilen

dann dürfte es sich bei "Screen" um die tatsächlich gemessen Werte handeln und bei "Print" um normalisierte Werte, die einen Vergleich zwischen Sensoren mit unterschiedlicher Pixelanzahl erst ermöglichen, indem auf das gleiche Ausgabeformat skaliert wird

 

Gruß

Günter

 

Wow..ähm, ok, was ist denn normalisiert? Nach welcher Methode? Auf welche Auflösung? Auf welche Grundlage? Etwa auf einem Monitor? Klasse! Dann sollen die das doch mal auf Papier machen, und zwar auf mindestens 30x40.

Ich habe den Vergleich von Nolite mal mit der H3DII 39 an Stelle der D7000 gemacht. Kaum bis keine Unterschiede zur PhaseOne. Wie kommt denn das?

Interessant wäre doch ein Feldvergleich zwischen einer PhaseOne65 und E-PL2 zum Beispiel. Zur gleichen Zeit am gleichen Ort bei identischen Lichtverhältnissen reale Motive mit hohem Motivkontrast mit beiden Systemen fotografiert, optimal bearbeitet und auf die gleiche Ausgabegröße - zum Beispiel 60x80 - bestmöglich ausbelichtet. Dann sehen wir, was wirklich Sache ist. Alles andere ist Kaffeesatzleserei.

 

Just MY opinion ...

bearbeitet von wolfgang_r
Rsf
Link zum Beitrag
Auf anderen Seiten teilen

Wow..ähm, ok, was ist denn normalisiert? Nach welcher Methode?

ähm, die erste Frage war vermutlich rethorisch gemeint :rolleyes: und die verwendete Methode ist auf deren Homepage dokumentiert ( auf die Schnelle habe ich es jetzt allerdings auch nicht gefunden )

 

Dann sollen die das doch mal auf Papier machen, und zwar auf mindestens 30x40.

soweit ich mich erinnern kann, war das Ausgabeformat etwas geringer

 

Gruß

Günter

Link zum Beitrag
Auf anderen Seiten teilen

dann dürfte es sich bei "Screen" um die tatsächlich gemessen Werte handeln und bei "Print" um normalisierte Werte, die einen Vergleich zwischen Sensoren mit unterschiedlicher Pixelanzahl erst ermöglichen, indem auf das gleiche Ausgabeformat skaliert wird

Ja. Das ändert aber nichts daran, dass sich der Dynamikumfang hier durch das Skalieren ändert. Er wird sogar größer, wenn die Pixel verkleinert werden, bzw. wenn man Information wegwirft.

 

Verbuchen wir das jetzt unter dem Begriff "Eingangsdynamik" oder "Ausgangsdynamik" oder brauchen wir noch eine weitere Art von Dynamik?

 

Das beweisst also, dass die Dynamik bei grossen Sensordichten tatsächlich schlechter ist .... aber man die Tiefenbegrenzung ausserhalb der 100% Ansicht nicht sehen wird. Weshalb normalisiert die Sensoren dann doch wieder einen gleichen oder sogar besseren Tonwertumfang darstellen können.

Das Phase One P65+ hat aber mit 6µm nicht gerade kleine Pixel, die 5DII mit 6.39µm sogar noch etwas größere, trotzdem sehen beide gegen die D7000 (4.73µm) bis ISO400 in Punkto DR kein Land, weder in "Screen" noch in "Print".

Wow..ähm, ok, was ist denn normalisiert? Nach welcher Methode? Auf welche Auflösung? Auf welche Grundlage?

Wenn ich richtig verstanden habe, sollen die 8Mpix/20x30cm Print den "normalen Betrachtungsabstand" repräsentieren. Damit müssten eigentlich die großen Formate deutlich im Vorteil sein. Eigentlich.

 

Irgendwie muss man das Ergebnis dann aber skalieren. Entweder rein mathematisch indem man das Eregbnis hochrechnet (traue ich DxO zu) oder man skaliert das Bild per EBV.

 

Skaliert man per EBV ein vollkommen unentrauschtes Bild, dann bleibt das Pixelrauschen, je nach Interpolationsmethode, im schlimmsten Fall 1:1 erhalten. Entrauscht man das Bild aber vorher, kann man das Rauschen - ebenfalls je nach Interpolationsmethode - deutlich verringern. Wurde das von DxO jetzt ins Kalkül gezogen oder nicht?

Etwa auf einem Monitor? Klasse! Dann sollen die das doch mal auf Papier machen, und zwar auf mindestens 30x40.

Wie willst Du denn Dynamik oder Rauschen anhand eines Prints messen? Wenn das kein 2x3m Poster ist, sondern ein 20x30 Abzug, dann kannst du ein Quiz draus machen ob jemand die Hasselblad von einer Edelkompaktdigi unterscheiden kann.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

 

soweit ich mich erinnern kann, war das Ausgabeformat etwas geringer

 

Gruß

Günter

Was soll ich denn auf dieser Postkarte erkennen können? 65 Millionen Pixel auf diese Größe zusammen geknautscht? Auf welchem Planeten leben die DxO's eigentlich?

 

Ja. Das ändert aber nichts daran, dass sich der Dynamikumfang hier durch das Skalieren ändert. Er wird sogar größer, wenn die Pixel verkleinert werden, bzw. wenn man Information wegwirft.

Ja.

Das Phase One P65+ hat aber mit 6µm nicht gerade kleine Pixel, die 5DII mit 6.39µm sogar noch etwas größere, trotzdem sehen beide gegen die D7000 (4.73µm) bis ISO400 in Punkto DR kein Land, weder in "Screen" noch in "Print".

Na sowas!

Wie willst Du denn Dynamik oder Rauschen anhand eines Prints messen? Wenn das kein 2x3m Poster ist, sondern ein 20x30 Abzug, dann kannst du ein Quiz draus machen ob jemand die Hasselblad von einer Edelkompaktdigi unterscheiden kann.

Eben. DxO kannn das ja offensichtlich mit einem Monitor-"Korn" von 0,26...0,29 mm.:confused: Deshalb will ich ja einen 60x80-Print. Das ist doch noch ein schönes Bildbandformat. 4000 Pixel lange Kante ergibt 127 dpi, also ein durchaus noch aus Armlänge-Abstand ansehnliches Bild (wenn ich die 90 cm Breite aus der E-3 hier bei mir an der Wand sehe). Bei dieser Größe müsste aus geringem Abstand dann sie PhaseOne-Aufnahme mit bloßem Auge unterscheidbar sein.

Ganz abgesehen davon, dass selbst bei einem absolut abgedunkelten Raum auch bei einem 1.000.000:1-Wiedergabekontrast-Monitor mehr als 500:1 (9 Blenden) wohl kaum erreichbar sind, weil der Raum durch das Bild aufgehellt wird und somit das Bild in umgekehrter Richtung verflacht. Man könnte sich natürlich an die Militärzeit erinnern und den Raum innen schwärzen und sich selbst ganzkörpermässig mit den angekohlten Korken tarnen. Denn allein der eigene Körper reicht ja schon, und dabei sein muss man ja in 1 Diagonale Abstand oder so, sonst wirds nix mit gucken.

Link zum Beitrag
Auf anderen Seiten teilen

Eben. DxO kannn das ja offensichtlich mit einem Monitor-"Korn" von 0,26...0,29 mm.:confused: ...

Ganz abgesehen davon, dass selbst bei einem absolut abgedunkelten Raum auch bei einem 1.000.000:1-Wiedergabekontrast-Monitor mehr als 500:1 (9 Blenden) wohl kaum erreichbar sind...

Du musst das Bild ja gar nicht visuell auswerten. Es reicht, den Hex-Wert der Pixel zu ermitteln. Bzw. den Signalwert, der in der RAW-Datei steht.

...weil der Raum durch das Bild aufgehellt wird und somit das Bild in umgekehrter Richtung verflacht. Man könnte sich natürlich an die Militärzeit erinnern und den Raum innen schwärzen und sich selbst ganzkörpermässig mit den angekohlten Korken tarnen...

Ganzkörpermässig? Mit angekohlten Korken? In einem dunklen Raum? Sag mal, in was für einer Armee warst Du eigentlich? Nein, ich glaube, ich möchte es lieber nicht wissen...:rolleyes:

 

Zu deinem 60x80 Print: Wie willst Du da die Dynamik ermitteln? Mit einem Densitometer? Einen Unterschied könntest Du vermutlich nur bei den hochauflösenden Dateien mit den vielen,vielen Pixeln sehen, die müssten sich in Form von differenzierteren Farb- und Helligkeitsabstufungen bemerkbar machen.

Gehören fein differenzierte Abstufungen eigentlich auch zur Definition des Dynamikumfangs? Falls nicht, dann könnte ein Bild mit deutlicher Treppenbildung/Posterisation am Ende im Ergebnis besser abschneiden. Das kann wohl kaum im Sinne des Erfinders sein.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Gehören fein differenzierte Abstufungen eigentlich auch zur Definition des Dynamikumfangs? Falls nicht, dann könnte ein Bild mit deutlicher Treppenbildung/Posterisation am Ende im Ergebnis besser abschneiden. Das kann wohl kaum im Sinne des Erfinders sein.

OK, dann so:

Wir machen ein unscharfes Bild (damit wirklich keinerlei Struktur stört) von einer weißen Wand und belichten auf maximale Sensorladung. Frage: Wie erkennen wir das? Mehr als voll = 100% geht ja nicht. Also wieder etwas weniger, auf 99%, damit wir den Unterschied sehen können, sicher nicht übersteuert haben und trotzdem nahezu auf Anschlag sind. Wir machen mit aufgesetztem Deckel nun ein Bild mit der gleichen Belichtungszeit, also rabenschwarz und absolut ohne Streulicht.

Und jetzt? Wie komme ich jetzt zu meiner Eingangsdynamik des Sensors? Wo kann ich die messen?

Ja, ich habe die Daten, die sich RAW nennen. Und was mache ich damit? Wie finde ich heraus, wie stark es da irgendwo rauscht? Ich fürchte, wenn wir jetzt den mittleren Rauschpegel, also die aus dem AD-Wandler herauskommenden Daten irgendwas über 0 (bewertet nach was? oder einen Spitzenwert irgend eines der Millionen Pixel?) zu den Maximalwerten bei Vollaussteuerung ins Verhältnis setzen, dann haben wir eine Dynamik, ja, aber welche? Der ganze Mist, den der AD-Wandler erzeugt (Quantisierungsrauschen z.B.) und die digitalisierten Störungen aus dem Rest der Elektronik, die ja für die Funktion und das Auslesen des Sensors nun mal nötig ist, ist da ja schon dabei. Da kann der eigentliche Sensor so wenig rauschen wie er will, den Wandler- und Elektronikdreck haben wir immer. Wenn wir Glück haben, dann erreichen wir möglicherweise annähernd die Werte, die im Datenblatt des Sensorherstellers stehen. Wozu haben wir denn dann so umständlich gemessen, was sowieso schon bekannt ist? Eigentlich ist das alles noch viel komplizierter, denn auf dem Weg von der Oberfläche der Empfangsdioden des Sensors bis zum "RAW" befindet sich noch eine Menge mehr rauschende Elektronik als hier angegeben.

Also anders:

Wir fotografieren eine runde, weiß leuchtende Fläche in einem stockdunklen Raum (wie stockdunkel kann der werden, wenn da eine weiße Fläche leuchtet?), die in etwa (nur zum Beispiel) einen Durchmesser von halber Bildhöhe hat und belichten so, dass sie den Sensor gerade 100% aussteuert (100%? siehe oben).

Natürlich fokussieren wir jetzt mit einem ausgezeichneten Objektiv genau auf diese Fläche, damit sie auf dem Bild später scharf abgegrenzt ist. So und nu? Jetzt verweise ich mal dahin: https://www.systemkamera-forum.de/127314-post88.html

Was messen wir denn dann in den "dunklen" Flächen des Bildes? Wie ändert sich der vom Objektiv verursachte Streulichtanteil mit der Veränderung der Flächenanteile von hell und dunkel? Wie ändert sich die so gemessene "Dynamik" mit der Veränderung der Flächenanteile von hell und dunkel? Wie gleichmäßig ist das dunkel und wovon hängt das ab? Was hat das mit einem "Bild" zu tun? Wie ändert sich das bei Verwendung eines anderen Objektivs? Ein Bild wird nun mal nix ohne Objektiv.

Vieleicht wird jetzt auch klar, was ich von DxO und deren Messungen halte....

Link zum Beitrag
Auf anderen Seiten teilen

DxO kannn das ja offensichtlich mit einem Monitor-"Korn" von 0,26...0,29 mm.:confused: Deshalb will ich ja einen 60x80-Print. Das ist doch noch ein schönes Bildbandformat. 4000 Pixel lange Kante ergibt 127 dpi, also ein durchaus noch aus Armlänge-Abstand ansehnliches Bild (wenn ich die 90 cm Breite aus der E-3 hier bei mir an der Wand sehe). Bei dieser Größe müsste aus geringem Abstand dann sie PhaseOne-Aufnahme mit bloßem Auge unterscheidbar sein.

Ganz abgesehen davon, dass selbst bei einem absolut abgedunkelten Raum ...

Ähm, jetzt erst mal ganz ruhig durchatmen...

Die DXO-Werte sind Messwerte, digitale Messwerte. Um diese auszuwerten, muss nichts gedruckt oder irgendwo mit bloßem Auge angeschaut werden.

Link zum Beitrag
Auf anderen Seiten teilen

OK, dann so:

Wir machen ein unscharfes Bild (damit wirklich keinerlei Struktur stört) von einer weißen Wand und belichten auf maximale Sensorladung. Frage: Wie erkennen wir das? Mehr als voll = 100% geht ja nicht. Also wieder etwas weniger, auf 99%, damit wir den Unterschied sehen können, sicher nicht übersteuert haben und trotzdem nahezu auf Anschlag sind. Wir machen mit aufgesetztem Deckel nun ein Bild mit der gleichen Belichtungszeit, also rabenschwarz und absolut ohne Streulicht.

Und jetzt? Wie komme ich jetzt zu meiner Eingangsdynamik des Sensors? Wo kann ich die messen?

Die Messwerte beziehen sich auf das Gesamtsystem, also selbstverständlich auf das, was da an RAWs rauskommt. Das Rauschen des Sensors interessiert doch niemanden, sondern das, was die Kamera ausspucken kann, an Dynamik z. B.

Und zwar ohne Objektiv und Streulicht. Wie sich verschiedene Kamera-Sensor-Systeme bei Streulicht verhalten, wie es in realen Situationen von Objektiv und Lichtverhältnissen bestimmt wird, ist eine andere Frage. Das kann man übrigens auch messen.

Link zum Beitrag
Auf anderen Seiten teilen

Ähm, jetzt erst mal ganz ruhig durchatmen...

Die DXO-Werte sind Messwerte, digitale Messwerte. Um diese auszuwerten, muss nichts gedruckt oder irgendwo mit bloßem Auge angeschaut werden.

 

Die Messwerte beziehen sich auf das Gesamtsystem, also selbstverständlich auf das, was da an RAWs rauskommt. Das Rauschen des Sensors interessiert doch niemanden, sondern das, was die Kamera ausspucken kann, an Dynamik z. B.

Und zwar ohne Objektiv und Streulicht. Wie sich verschiedene Kamera-Sensor-Systeme bei Streulicht verhalten, wie es in realen Situationen von Objektiv und Lichtverhältnissen bestimmt wird, ist eine andere Frage. Das kann man übrigens auch messen.

 

OK, dann bin ich ja beruhigt. Eine D7000 oder K-5 mit einem Lensbaby davor tuts ja dann. Eventuell könnte ich auch mit einer davor geklebten Pappe mit kleinem Loch auskommen. Das ging ja vor Jahrzehnten auch schon, nannte sich Lochkamera.:D

 

Da nun ja doch, wie Du schreibst, es eine andere Sache ist, wie sich verschiedene Kamera-Sensor-Systeme bei Streulicht verhalten, wie es in realen Situationen von Objektiv und Lichtverhältnissen bestimmt wird, wozu misst DxO dann eigentlich diesen Mist? Was soll ich mit Messwerten anfangen, die mit Fotografie so viel zu tun haben, wie der Mond mit meinem Frühstück?

 

Bin übrigens ganz ruhig. Mich amüsiert dieser Quatsch mit DxO eigentlich, mein Job ist so trocken, da bin ich froh um jede Aufheiterung.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Und jetzt? Wie komme ich jetzt zu meiner Eingangsdynamik des Sensors? Wo kann ich die messen?

Ja, ich habe die Daten, die sich RAW nennen. Und was mache ich damit? Wie finde ich heraus, wie stark es da irgendwo rauscht? Ich fürchte, wenn wir jetzt den mittleren Rauschpegel, also die aus dem AD-Wandler herauskommenden Daten irgendwas über 0 (bewertet nach was? oder einen Spitzenwert irgend eines der Millionen Pixel?) zu den Maximalwerten bei Vollaussteuerung ins Verhältnis setzen, dann haben wir eine Dynamik, ja, aber welche? Der ganze Mist, den der AD-Wandler erzeugt (Quantisierungsrauschen z.B.) und die digitalisierten Störungen aus dem Rest der Elektronik, die ja für die Funktion und das Auslesen des Sensors nun mal nötig ist, ist da ja schon dabei. Da kann der eigentliche Sensor so wenig rauschen wie er will, den Wandler- und Elektronikdreck haben wir immer.

Naja, das Rauschen der Elektronik darf man nicht ignorieren, das hat man ja auch sonst immer drin.

 

Zum Messverfahren: Man kann eine graue Fläche fotografieren (18% Reflexion), das Rauschen dort ermitteln und daraus das SNR bei mittlerer Helligkeit ableiten. Die Frage ist: Wie ermitteln wir die notwendige Belichtungszeit dafür? Per externem Belichtungsmesser oder über die Kamera? Die Frage ist nicht ganz so trivial, wie sie vielleicht klingt. Da die Sensordynamik asymetrisch ist, was die Bittiefe anbelangt, würden vor allem kleinere Sensorformate/Pixel von einer leichten Überbelichtung profitieren. Der Preis dafür ist zwar ein schnelleres Ausbrennen der Lichter, aber die dunklen Partien bekommen dafür mehr Licht. Da gerade hier die Bittiefe am geringsten ist, kann das einen entscheidenden Unterschied in Punkto Schattenrauschen bedeuten. Umgekehrt verzehrt die heute übliche Reserve in den Lichtern Dynamikumfang im Parterre... je nachdem, wie man die Belichtung auslegt, kann man zu einem unterschiedlichen Signal-Rauschverhältnis in der Messung kommen.

Belichtet man dagegen unter, dann steigt der darstellbare Kontrastumfang und wir bekommen höhere Werte für die Dynamik. Falls uns das Rauschen nicht einen Strich durch die Rechnung macht. Um das zu kompensieren, könnte man nun aber die untersten Bits abschneiden und die darüber liegenden Bits per Kurve strecken. Man kann auch die Schatten stärker entrauschen als den Rest des Bildes. Z.B. indem man dort die Farbinformationen entfernt, und schwups, steigt auch hier wieder das SNR. Die Möglichkeiten, das Bild während oder kurz nach der Aufnahme on Chip und noch vor RAW zu entrauschen werden ja auch noch praktiziert. das alles führt zwar zu einer Verbesserung des Signals, aber nicht zu einem besseren Input. Ich befürchte eben, dass die Tester zukünftig immer mehr die Qualität der Entrauschung messen werden als den tatsächlichen Sensorinput.

 

Wir fotografieren eine runde, weiß leuchtende Fläche in einem stockdunklen Raum (wie stockdunkel kann der werden, wenn da eine weiße Fläche leuchtet?), die in etwa (nur zum Beispiel) einen Durchmesser von halber Bildhöhe hat und belichten so, dass sie den Sensor gerade 100% aussteuert (100%? siehe oben).

Natürlich fokussieren wir jetzt mit einem ausgezeichneten Objektiv genau auf diese Fläche, damit sie auf dem Bild später scharf abgegrenzt ist. So und nu? Jetzt verweise ich mal dahin: https://www.systemkamera-forum.de/127314-post88.html

Ja, das hast Du gestern schon geschrieben. Je größer der Dynamikumfang, den wir messen, und je genauer die Messung, desto relevanter wird der Einfluss solcher Faktoren wie Streulicht. Vor allem, wenn man dieses Streulicht auch noch auf ISO 25600 verstärkt.

bearbeitet von Nolite
Link zum Beitrag
Auf anderen Seiten teilen

(...) Vor allem, wenn man dieses Streulicht auch noch auf ISO 25600 verstärkt.

.. und wenn man dabei nicht höllisch aufpasst, dann steckt man sich mit "Pocken" an, wie gerade aktuell bei den Superduperhighdynamicsensors.

 

BTW: Heute habe ich mal am Kiosk in der neuen Fotohits geblättert. Da nannten sie eine der neuen Kameras mit dem Superduper... usw. "KONKURRENTENSCHRECK".lachen.gif

Fragt sich, für wen sich die Kamera als Schreck entpuppte.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Ich kann mir gut vorstellen, welche Dichte an Wissen hinter einem Sensor steckt.

 

So ein mikroskopisch kleiner Bauteil, unvorstellbar, wie man daraus Daten gewinnen kann.

Das ist erst die halbe Miete, denn nun muss man die Daten noch auswerten.

 

Mein elektronisches Wissen endet beim Lötkolben und Klinkenstecker.

 

ganz einfach: Stell Dir vor, Du machst ein Foto von Deinem Lötkolben und findest den Trick, mit dem Foto anstelle des Lötkolbens löten zu können.

 

Dann setzt Du 4 Fotos aneinander, montierst sie zu einem neuen Foto: Deine neuen Lötkolben werden jetzt schon sehr viel feinere Drähte löten können.

 

Du nimmst wieder 4 Fotos Deiner 4 Lötkolben, und erhältst 16 Superfeine Lötkolben usw.

 

Der Ganze Trick in der Halbleiterei besteht einzig und allein darin, fotografische Abbilder von Schaltelementen in eine reale Welt zu übersetzen, wo sie wieder so funktionieren, wie man es von Schaltern erwartet.

 

Den Rest macht die Fotografie (äh, Lithografie).

 

Der Vergleich ist sicher sehr gewagt, aber macht deutlich, wie der Pixelwahn genährt wurde: Durch einfaches Aneinandersetzen bereits vorhandener "Fotos" und anschließendem Runterskalieren.

 

Was dabei rauskommen kann hat jeder schon erlebt, der die Wirkung des Digitalzooms bei seiner Kompakten beobachten konnte :D

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Verbuchen wir das jetzt unter dem Begriff "Eingangsdynamik" oder "Ausgangsdynamik" oder brauchen wir noch eine weitere Art von Dynamik?

Meiner Ansicht nach umgekehrt.

Es gibt an Dynamik nur die "Eingangsdynamik".

Dynamik impliziert Veränderung also die andauernde, beliebige Änderung zwischen dem dunkelsten und dem hellsten Bildanteil der abzubildenden Szenerie.

Das was man oft unter "Ausgangsdynamik" liest ist eigentlich eine Konstante, nämlich die Fähigkeit eines Ausgabemediums, die dunkelste und die hellste Stelle der Originalszenerie abzubilden.

Beim Druck hängt diese Konstante vom schwärzesten Schwarz und vom hellsten Weiß ab.

Schwarz ist einfach, eben 0% Remission. Weiß hängt vom Träger und dessen maximaler Remission ab.

Beim Monitor ist es ähnlich, da ist Schwarz durch die gekreuzten Polarisationsfilter vorgegeben und Weiß durch die maximale Transparenz des einen "geöffneten" Polarisationsfilters.

Also nichts mit Dynamik bei der Reproduktion sondern schlichte Materialkonstante!

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...