Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Okay. Ich habe deinen Beitrag mit den Mallorca-Bildern noch in Erinnerung. Leider habe ich nicht alles verstanden, z.T. fehlt mir dazu das Hintergrundwissen. Z.B. hier:

 

 

(Ich habe mir erlaubt, stark zu kürzen, wer will, kann ja nachschlagen.)

 

Wie kriege ich die stabilen Entwicklungen und die vielen Informationen an beiden Seiten des Histogramms nun auf die Fläche übertragen? Bzw. was hat das mit dem Rauschen zu tun?

 

In meinem Beitrag habe ich zu beschreiben versucht, wie sich eine Kenngröße wie "Dynamik" in der Praxis auswirkt.

 

Den Umstand "stabiler Entwicklungen" versuche ich jetzt mal so zu erklären, quasi die Brücke zur Kennzahl zu schaffen: Je "günstiger" (bei hoher Dynamik) die Helligkeitswerte (in den Kanälen R, G, B) im Histogramm verteilt sind, desto leichter wird es, sie bei der Bildausgabe (am Monitor) zu trennen. Je enger, "komprimierter" (geringere Dynamik) die Informationen liegen, desto kniffliger wird diese Aufbereitung in den für uns sichtbaren Bereich.

 

Das meine ich mit "stabil": Wenn die "Decodierung" der Sensorwerte in für uns sichtbare Farben leichter fällt, wächst die Wahrscheinlichkeit, dass wir mit den Ergebnissen "zufrieden" sind (wir liegen näher an dem Bildeindruck, den wir noch im Gedächtnis haben).

 

Instabil würde heißen: Ein bisschen an dieser Konvertierung gedreht (Gamma-Kurve anders gelegt), und ganze Bildteile verschwinden im Schatten, oder werden anderweitig nicht sauber differenziert wiedergegeben. Da jeder Farbkanal ein kleines Eigenleben führt, können sich in solchen Sitationen Farbverschiebungen ergeben.

 

Mit Rauschen hat dies insofern zu tun, dass (sehr vereinfacht ausgedrückt) ein Sensorrauschen aus Schwarz ein Dunkelgrau macht und aus einem Weiß ein Hellgrau - damit schrumpft (rein zahlenmäßig) der Abstand zwischen diesen beiden Extremen - der Effekt einer Kompression ist eingetreten. Da wir es i. A. mit Farbrauschen zu tun haben (unterschiedliche Rauschanteile in R, G und B), wird die Sache noch kniffliger. Und je verwobener all diese Informationen vorliegen, und je mehr Störanteile überlagert sind, desto geringer wird die Chance, den ursprünglichen Bildeindruck zu rekonstruieren.

 

 

Und den Bezug zur Fläche: Je größer die Sensorfläche, desto mehr Photonen werden eingesammelt - insbesondere steigt die Zahl der eingefangenen Photonen pro Pixel. Damit werden statistisch die Unterschiede zwischen benachbarten Farbwerten geringer, das Rauschen nimmt ab. Da kleinere Pixel anderweitige Vorteile haben (etwa beim Rechnen), tendiert man einerseits zu immer höheren Pixelzahlen. Bei gleicher Sensor-Technologie und gleicher Auflösung jedoch sind die größeren Pixel physikalisch gesehen im Vorteil: Sie werden von mehr Photonen gefüllt.

 

Und jetzt kommt Wolfgang und sagt (zu recht): Je größer der Sensor, desto problematischer die Abbildungsleistung der Objektive.

 

Und welcher Effekt in welcher Art und Weise überwiegt hat uns nun schon weit über 1000 Beiträge beschert ;-)

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Meinem Verständnis nach kennzeichnet der Dynamikwert den Abstand zwischen Minimal-und Maximalwert. Beide können im Extremfall bei 2 Pixeln (sieht man mal von der Bayer-Verrechnung ab) auftreten. Ich erkenne keinen Zusammenhang mit der Fläche.

 

Der Sensorausschnitt muss die selbe Dynamik zeigen wie die gesamte Fläche.

 

Es gibt Pixelrauschen (Belichtungsunterschiede über die Zeit) und Bildrauschen (Belichtungsunterschiede über die Sensorposition). Letzteres hängt von der Fläche ab.

 

Soweit ich informiert bin, gehen beide Rauschanteile in eine Dynamik-Messung ein.

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

. . .

Anschließend kommt der ganze lange Prozess der Umwandlung in ein mehr oder weniger getreues Abbild des Motivs, welches wir mit verschiedenen Medien ausgeben. Was dabei herauskommt, enthält die Stufe 5 unserer Aufteilung der Dynamik.

 

Mit welcher Dynamik machen wir jetzt weiter?

 

Stufe 5 natürlich, was der "Endanwender" sieht eben.

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Stufe 5 natürlich, was der "Endanwender" sieht eben.

 

Hans

 

Wenn der Endanwender einen Print sieht, bist bei 1:32. Das bekommen die Aldi Kameras aus der Schütte auch hin;-)

Oder nimmst eine hinterleuchtete Displayfolie, um deine Bilder aufzuhängen, dann ist mehr möglich. Aber wie bringst die beiden unter einen Hut?

 

Gesendet von meinem Nexus 7 mit Tapatalk 4

Link zum Beitrag
Auf anderen Seiten teilen

Nur mal blöd gefragt:

Ein APS-C Objektiv im Vollformat Modus würde am Sensor in den Ecken (und evtl an den Seiten) schwarze Flächen erzeugen. Dadurch wäre dann ja auch nur ein kleinerer Bereich des Sensor verwertbar.

 

Würde sich damit dann auch der Dynamikumfang in der Bildmitte ändern?

Am besten die Ränder des A7 Sensors auf mFT Größe abschneiden. Dann hast du ein superkompaktes System mit riesen Dynamikumfang :D

Link zum Beitrag
Auf anderen Seiten teilen

Bei "Print" werden die "Screen" Bildergebnisse beider Kameras auf 8 MP skaliert. Bei der GX7 also auf 50%, bei der A7R auf 22% der nativen Auflösung. Die A7R fasst hierbei also deutlich mehr Pixel zu einem einzigen zusammen als die GX7.

Je höher die Sensorauflösung, desto höher auch die Unterschiede ("Verluste") zwischen den Meßwerten "Screen" und "Print". Schau dir als aktuell extremstes Beispiel hierfür die Werte der 80 MP Phase One IQ180 an, diese springen, vorhersagbarerweise, zwischen "Screen" und "Print" nochmals erheblich stärker.

Das bedeutet also, dass man die Dynamik durch Zusammenfassen der Pixel aufsummieren kann? Rauschverhalten und Dynamik werden also umso besser, je mehr man das Bid verkleinert?

Aber in der Realität ist doch die Dynamik eines 300dpi 20x30 Prints schon durch das Ausgabemedium begrenzt. Handelt es sich bei der 8Mpix Referenz also um ein theoretisches Luftschloss? Wäre es nicht sinnvoller, die Dynamik anhand der Formatdiagonale zu definieren?

 

Ich habe noch ein anderes Problem mit der Skalierung der Dynamik. Angenommen, wir bilden den darstellbaren Kontrastumfang von 12 oder 14 Blenden in einem Graustufenkeil ab, dann bleibt dieser doch unabhängig von der Skalierung erhalten, oder? Die DxO Methode könnte aber suggerieren, dass Stufen verloren gehen.

 

Aber es scheint ja noch viel komplizierter zu sein:

 

In meinem Beitrag habe ich zu beschreiben versucht, wie sich eine Kenngröße wie "Dynamik" in der Praxis auswirkt.

 

Den Umstand "stabiler Entwicklungen" versuche ich jetzt mal so zu erklären, quasi die Brücke zur Kennzahl zu schaffen: Je "günstiger" (bei hoher Dynamik) die Helligkeitswerte (in den Kanälen R, G, B) im Histogramm verteilt sind, desto leichter wird es, sie bei der Bildausgabe (am Monitor) zu trennen. Je enger, "komprimierter" (geringere Dynamik) die Informationen liegen, desto kniffliger wird diese Aufbereitung in den für uns sichtbaren Bereich.

Meinst du damit, dass die Dynamik von der Helligkeitsverteilung des Motivs und von der Belichtung abhängt? Denn Kompression tritt ja ein, wenn man die Glockenkurve des Histogramms durch Unter-, bzw. Überbelichtung zusammenschiebt.

 

Da jeder Farbkanal ein kleines Eigenleben führt, können sich in solchen Sitationen Farbverschiebungen ergeben.

Bedeutet das, dass die Dynamik auch von der Lichtfarbe, bzw. dem Weißabgleich abhängig ist und nicht für jede Farbe gleich?

 

Und den Bezug zur Fläche: Je größer die Sensorfläche, desto mehr Photonen werden eingesammelt - insbesondere steigt die Zahl der eingefangenen Photonen pro Pixel. Damit werden statistisch die Unterschiede zwischen benachbarten Farbwerten geringer, das Rauschen nimmt ab. Da kleinere Pixel anderweitige Vorteile haben (etwa beim Rechnen), tendiert man einerseits zu immer höheren Pixelzahlen. Bei gleicher Sensor-Technologie und gleicher Auflösung jedoch sind die größeren Pixel physikalisch gesehen im Vorteil: Sie werden von mehr Photonen gefüllt.

Ich verstehe. Wenn die Pixel groß sind, steigt die Dynamik aufgrund der Photonen. Wenn man einen Crop macht, dann sinkt sie, auch wenn die Pixel groß sind, aufgrund der Fläche. Und wenn man den Crop verkleinert, dann steigt sie wieder, weil man mehrere Pixel zusammenfasst.

Läge es da nicht nahe bezüglich der Dynamik einen festen Formatfaktor (bei gleicher Pixelzahl) anzunehmen, mFT - APS-c - KB = 1 : 1,5 : 2? Skaliert man entsprechend, ist die Dynamik bei allen drei gleich. Vorausgesetzt, sie wird nicht durch das Ausgabemedium begrenzt.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mit der, die man im Bild sehen/messen kann?

 

(das heißt, ich betrachte alles zwischen Motiv und Bildergebnis zunächst als Black Box und verwende demzufolge auch die Standardeinstellung für ein JPG bzw. die Standardeinstellung für ein RAW mit LR (gängigster Konverter))

 

Um den Einfluss der Optiken gering zu halten: ich nehme eine lichtstarke Optik im Normalbereich (um 50mm KB).

 

Lieben Gruss

 

Stufe 5 natürlich, was der "Endanwender" sieht eben.

 

Hans

 

Da habt Ihr Euch ausgerechnet das ausgesucht, was IHR im Griff habt und nicht das, was ihr an der Technik bis zur Stufe 4 >KLICK< außer einer dem Motiv entsprechenden Belichtung nicht beeinflussen könnt.

Die Schärfe, Auflösung, Dynamik, Farbtreue sind einerseits technisch abhängig von Ausgabemedium und Ausgabegröße und auch vom Umgebungslicht bei der Betrachtung.

Noch viel wichtiger ist hier der Geschmack des Bearbeiters. Das sieht man schon an den unterschiedlichen Auffassungen zum Weißabgleich, der Bildhelligkeit, dem Kontrast, und nicht zuletzt davon, was der Fotograf mit dem Bild aussagen will.

Die gesamte Stufe 5 habe ich nicht ohne Grund zusammengefasst, denn sie ist in höchstem Maße individuell.

Unten vier stellvertretende Beispiele aus der gleichen Aufnahme. Wie hätten Sie's denn gerne?

Link zum Beitrag
Auf anderen Seiten teilen

Die Dynamik wird ja aber nicht nur nach unten durch das Rauschen begrenzt,

sondern auch in Richtung Lichter je nachdem wann die Kanäle clippen, oder?

 

Hat sich denn im Laufe der Zeit/Sensorgenerationen wirklich nur was am Rauschverhalten geändert

und nicht auch was die Pixel an Ladung aufnehmen können (also mehr Reserven in den Lichtern)?

Wenn ich dadurch insgesamt eine größere Bandbreite an Helligkeit aufnehmen kann,

würde der prozentuale Einfluss des selben Rauschverhaltens ja auch kleiner.

 

Solch ein Fortschritt würde natürlich keines der Formate bevorteilen (es sei denn ein Sensorersteller liefert schlechtere Arbeit als ein anderer),

sondern den selben "Schub" für alle bringen, weswegen es in diesem Thread evtl. nicht so wichtig ist.

Aber jetzt rein für das allgemeine Verständis der Dynamik.

 

Wenn der Endanwender einen Print sieht, bist bei 1:32. Das bekommen die Aldi Kameras aus der Schütte auch hin;-)

Das Format ist doch egal solang wir nur vergleichen wollen.

Wenn du die Schatten hoch genug ziehst, wirst du auch bei sehr kleinen Prints irgendwann Rauschen, Banding oder extreme Farbfehler sehen.

Beim größerem Format wird bei selber Ausgabegröße das Rauschen dann

erst vergleichbar wenn du die Schatten weiter hochziehst --> Mehr nutzbare Dynamik.

 

Sobald das erreicht ist, überschreitst du quasi die Dynamik deiner Kamera für

- diese Ausgabegröße

- dieses Motiv

- das Objektiv und den Lichteinfall

und hast damit deinen Vergleichswert.

 

So gesehen ist die Sache mit den Dynamikangaben als festen EV Wert bei den Tests natürlich schon ziemlicher Blödsinn.

Man sollte evtl. eher einen vergleichenden Faktor oder ein Punktesystem verwenden um die Leute nicht zu der Annahme zu verleiten,

dass die EV Angabe allgemeingültig für alle Ausgabegrößen/Situationen sei.

 

Zumindest ein wenig vergleichbar wird man schon Tests machen können.

- gleiches Motiv mit sehr großem Kontrastumfang

- Fester, geblitzer Studioshoot für konstantes Licht

- gleiche Brennweite mit gutem Objektiv und möglichst keine allzu fiesen Lichtsituationen (z.B: von unten schräg direkt in das Objektiv blitzen. :P)

- Bilder auf selbe Größe (Megapixel) skalieren

- Zulässiges Rauschen in den Schatten irgendwie (mathematisch aus den Bilddaten?!?) vergleichbar ermitteln

- Festlegen wie man die Lichter behandelt (z.B. so weit retten bis ein Kanal clipped oder sieht man doch eher früher Darstellungsfehler und sollte da stoppen?)

 

Klar spucken da noch viele Sachen rein wie die interne Verarbeitung der Kamera.

Aber ich bin auch der Meinung, dass man das Endergnis (also Stufe 5 nach Wolfgangs Ausführung) vergleichen sollte.

Denn das ist nun mal das einzige das wir zur Gesicht bekommen und mit dem wir arbeiten.

Was in der "Blackbox" passiert ist mir als Anwender doch egal.

Es gilt mal wieder: Wichtig ist was hinten raus kommt.

Aber in der Realität ist doch die Dynamik eines 300dpi 20x30 Prints schon durch das Ausgabemedium begrenzt.

Das ist was anderes.

Dynamik der Aufnahme bestimmt ja wieviel eines sehr kontrastreichen Motives ich aufnehmen kann,

ohne die zu Lichter clippen und die Tiefen total zu verrauschen.

 

Wenn mein Ausgabemedium das so nicht 1:1 durch drucken oder ausbelichten anzeigen kann,

muss ich eben den Tonwertumfang in der EBV komprimieren.

Zum Beispiel den Schwarzwert und die Tiefen anheben.

Link zum Beitrag
Auf anderen Seiten teilen

Ich gehe im Folgenden ledglich auf die mir direkt gestellten Fragen/Kommentare ein.

 

Das bedeutet also, dass man die Dynamik durch Zusammenfassen der Pixel aufsummieren kann? Rauschverhalten und Dynamik werden also umso besser, je mehr man das Bid verkleinert?

Ja.

 

Aber in der Realität ist doch die Dynamik eines 300dpi 20x30 Prints schon durch das Ausgabemedium begrenzt. Handelt es sich bei der 8Mpix Referenz also um ein theoretisches Luftschloss?

Nein.

Das Ausgabemedium begrenzt üblicherweise noch in einer Reihe weiterer Parameter. Als Beispiele seien Farbraum, Farbtiefe oder Auflösung genannt. Zumindest erstere beide (und oft auch der Dritte) finden in ihrer von jeder Kamera gelieferten Maximalausprägung niemals ihren Weg aufs Ausgabemedium Print (oder Monitor). Aber dennoch sind Dateien in Pro Photo RGB mit 12/14/16 Bit Farbtiefe und "unnötig" hoher Auflösung keineswegs sinnfrei. Sie bieten allesamt, auf jeweils unterschiedlichen Gebieten, mehr Bearbeitungsspielraum und Entscheidungsraum welchen Teil daraus der Anwender zu Papier/Monitor bringen möchte.

 

Wäre es nicht sinnvoller, die Dynamik anhand der Formatdiagonale zu definieren?

Wie auch immer dies im Detail aussehen sollte, es verunmöglicht damit Vergleiche von Sensoren unterschiedlicher Formatdiagonalen.

 

Ich habe noch ein anderes Problem mit der Skalierung der Dynamik. Angenommen, wir bilden den darstellbaren Kontrastumfang von 12 oder 14 Blenden in einem Graustufenkeil ab, dann bleibt dieser doch unabhängig von der Skalierung erhalten, oder? Die DxO Methode könnte aber suggerieren, dass Stufen verloren gehen.

Bei jeder Skalierung welche auf einer Reduktion beruht, gehen Stufen verloren. Wie sonst sollte, eine wie auch immer geartete Detailfülle, verlustfrei reduziert werden?

 

Das Beispiel mit dem Graukeil finde ich im Falle der Dynamik jedoch als nicht gut gewählt. So ein Graukeil verläuft von Weiss bis Schwarz in jeweils Babypopo-glatten Abstufungen. Bei der Dynamik trifft das nicht zu, sondern das dunkle Ende verläuft sich zusehends in Rauschen. Die Definition des unteren Endes ist eine rein willkürliche Entscheidung darüber welches Rauschlevel als noch erträglich erachtet wird. An diesem Punkt wird die Dynamik dann nach unten begrenzt. Unterschiedliche Abstimmungen davon führen daher bei verschiedenen Herstellern, Konvertern, Entwicklern zu unterschiedlichen Dynamikumfängen. Einer der typischen Kritikpunke an den DxO Messungen, dass sie eben auch ihre eigenen Auslegungen als Messbasis verwenden, welche von vielen leider meist als unveränderliches objektives Faktum präsentiert werden: "Kamera X hat einen Dynamikumfang von X Ev." Das ist Unsinn, weil einzig von der Methodik, welche subjektiv ist, abhängig.

 

Dadurch, dass das untere Ende des Dynamikumfangs durch's Rauschen bestimmt wird und Rauschen bei Reduktion der Auflösung sinkt (weil gemittelt), steigt auch der Dynamikumfang bzw. dessen subjektive "Grenze akzeptablen Rauschlevels" im selben Ausmaß. Runterskalieren erhöht daher den Dynamikumfang.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Wie auch immer dies im Detail aussehen sollte, es verunmöglicht damit Vergleiche von Sensoren unterschiedlicher Formatdiagonalen.

Nicht, wenn man einen Skalierungsfaktor anwendet.

Das Beispiel mit dem Graukeil finde ich im Falle der Dynamik jedoch als nicht gut gewählt. So ein Graukeil verläuft von Weiss bis Schwarz in jeweils Babypopo-glatten Abstufungen. Bei der Dynamik trifft das nicht zu, sondern das dunkle Ende verläuft sich zusehends in Rauschen. Die Definition des unteren Endes ist eine rein willkürliche Entscheidung darüber welches Rauschlevel als noch erträglich erachtet wird. An diesem Punkt wird die Dynamik dann nach unten begrenzt.

Und dieser Punkt hängt dann eben nur von der Ausgabegröße ab.

Bei jeder Skalierung welche auf einer Reduktion beruht, gehen Stufen verloren. Wie sonst sollte, eine wie auch immer geartete Detailfülle, verlustfrei reduziert werden?

Mit anderen Worten: Man gewinnt Dynamik auf Kosten anderer Informationen, z.B. Auflösung.

Link zum Beitrag
Auf anderen Seiten teilen

(...) Runterskalieren erhöht daher den Dynamikumfang.

 

(...)

Mit anderen Worten: Man gewinnt Dynamik auf Kosten anderer Informationen, z.B. Auflösung.

 

Davon bin ich nicht überzeugt. Man verliert Details, der durchschnittliche Signalpegel bleibt.

Durch Skalieren sehe ich keine Gewinne, nur Verluste.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Davon bin ich nicht überzeugt. Man verliert Details, der durchschnittliche Signalpegel bleibt.

Mir ist so, als hätten wir dieses Auf-und-ab in deiner Grafik als "Rauschen" definiert. Von daher passt es ja, wenn jetzt nur noch der Mittelwert übrigbleibt.

 

Ich glaube, das war es, was ich mit dem Graukeil sagen wollte. Wenn man ihn grob abstuft, bzw. auf z.B. 12 oder 10 Stufen reduziert, kann man mitteln, weil man weiß, welcher Wert an welcher Stelle herauskommen soll. Je feiner man abstuft, desto schwieriger wird das. Ist halt die Frage, wie man das Nutzsignal definiert und vom Rauschen trennt. Am Ende könnte womöglich herauskommen, dass die Welt selber rauscht.

Link zum Beitrag
Auf anderen Seiten teilen

Davon bin ich nicht überzeugt. Man verliert Details, der durchschnittliche Signalpegel bleibt.

Ja, aber der Rauschlevel sinkt durch die Mittelwertbildung, es gibt posive

und negative Abweichungen vom mittleren Rauschlevel (das ist nicht konstant,

sonst könnte man das Rauschen gleich abziehen) die sich beim

Skalieren Mitteln. Diese Sache ist doch durch die mathematische Statistik

schon lange gegessen. Bandbreite und Rauschen stehen in einem

quadratischen Zusammenhang, im Fall von Bildern entspricht der

Bandbreite die Auflösung.

Link zum Beitrag
Auf anderen Seiten teilen

Ja, aber der Rauschlevel sinkt durch die Mittelwertbildung, es gibt posive

und negative Abweichungen vom mittleren Rauschlevel (das ist nicht konstant,

sonst könnte man das Rauschen gleich abziehen) die sich beim

Skalieren Mitteln. (...)

 

Genau, Bernhard. Deshalb wird aus dem zweiten Quadrat von links in der unteren Reihe eine graue Fläche. Die Mathe stimmt ganz genau.

Wenn ich daraus jetzt mehr "sichtbare Dynamik bei der herunterskalierten Bildausgabe" machen will, dann muss ich (ohne Detailverlust zu riskieren) den Pegel absenken = Schwarzwert verschieben.

Unter anderem dafür gibt es diesen Schieber bei den Konvertern. Kannst auch bei der Gradationskurve das linke untere Ende nehmen und auf der Ordinate oder der Abszisse verschieben.

Link zum Beitrag
Auf anderen Seiten teilen

Genau, Bernhard. Deshalb wird aus dem zweiten Quadrat von links in der unteren Reihe eine graue Fläche. Die Mathe stimmt ganz genau.

Wenn ich daraus jetzt mehr "sichtbare Dynamik bei der herunterskalierten Bildausgabe" machen will, dann muss ich (ohne Detailverlust zu riskieren) den Pegel absenken = Schwarzwert verschieben.

Unter anderem dafür gibt es diesen Schieber bei den Konvertern. Kannst auch bei der Gradationskurve das linke untere Ende nehmen und auf der Ordinate oder der Abszisse verschieben.

Ich verstehe das nicht,

welcher Detailverlust, die Verluste kommen doch vom Skalieren, da denn weniger Auflösung da ist.

Die Schwarzpegel ändern sich nicht durch skalieren. Rauschen sind bei kleinem Signal die Schwankungen

des Schwarzpegels. (Dynamik!)

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

Ich schlage vor, dass wir jetzt mit den nächsten Lektionen zu den Bereichen vordringen, die wir selbst nicht beeinflussen können.

Das wäre die Stufe 4 >KLICK< in den die Dynamik beeinflussenden Eigenschaften der Kamera, also der Weg vom Sensorausgang bis zum RAW.

Sollen wir stattdessen nicht lieber eine Volta tanzen?

Link zum Beitrag
Auf anderen Seiten teilen

Ich verstehe das nicht,

welcher Detailverlust, die Verluste kommen doch vom Skalieren, da denn weniger Auflösung da ist.

Die Schwarzpegel ändern sich nicht durch skalieren. (...)

 

So weit so gut. Vielleicht klärt sich alles Andere im nächsten Kapitel. Wir schaffen das schon. Inzwischen kann man ja mit dem RAW-Konverter mal einiges durchspielen. Praxis hilft, die Theorie zu verstehen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich verstehe das nicht,

welcher Detailverlust, die Verluste kommen doch vom Skalieren, da denn weniger Auflösung da ist.

Die Schwarzpegel ändern sich nicht durch skalieren. Rauschen sind bei kleinem Signal die Schwankungen

des Schwarzpegels. (Dynamik!)

 

Das verstehe ich gerade auch nicht...

Die Quadrate sind nunmal nicht rein Schwarz.

Eine nicht genug hochauflösende Darstellung muss also in einem Grauton enden (und zwar zurecht).

 

Würde ich den Schwarzwert absenken verfälsche ich das Bildergebnis und korrigiere ich es nicht.

 

Gegenbeispiel:

Ich fotografiere das Motiv vom selben Standpunkt weitwinkliger oder gehe mit dem selben Bildwinkel weiter zurück.

 

Hier kann das Motiv dann ggf. auch nicht als schwarz/weiß gestreift dargestellt werden sondern endet in einem grauen Pixel.

 

Muss ich nun auch den Schwarzwert absenken?

Bei welchen Brennweiten/Blickwinkeln muss ich in Zukunft immer vorsorglich den Schwarzwert verändern, auch wenn ich nicht skaliere?

Welcher ist der "echte" Blickwinkel oder die "echte" Sensorauflösung bei der ich das nicht muss?

 

Oder sollten wir einfach immer den Schwarzwert so weit absenken, bis nichts anderes außer schwarz mehr übrig ist, nicht dass da noch ein wenig falsches Grau vorhanden ist. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Das verstehe ich gerade auch nicht...

Die Quadrate sind nunmal nicht rein Schwarz.

(...)

Oder sollten wir einfach immer den Schwarzwert so weit absenken, bis nichts anderes außer schwarz mehr übrig ist, nicht dass da noch ein wenig falsches Grau vorhanden ist. ;)

Doch, die Quadrate sind rabenschwarz. Wenn sie bei Dir nicht schwarz erscheinen, dann Monitor kalibrieren.

Und nein, das mit dem Schwarzwert hatte ich doch eingegrenzt.

"Wenn ich daraus jetzt mehr "sichtbare Dynamik bei der herunterskalierten Bildausgabe" machen will, dann muss ich (ohne Detailverlust zu riskieren) den Pegel absenken = Schwarzwert verschieben."

Die Details sind ja schon weg, also brauche ich mich um die nicht mehr kümmern. Es hat auch seinen Grund, warum man erst als letzten Schritt schärfen soll.

Immer wieder Lesenswert: Zonensystem

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Doch, die Quadrate sind rabenschwarz. Wenn sie bei Dir nicht schwarz erscheinen, dann Monitor kalibrieren.

Und nein, das mit dem Schwarzwert hatte ich doch eingegrenzt.

"Wenn ich daraus jetzt mehr "sichtbare Dynamik bei der herunterskalierten Bildausgabe" machen will, dann muss ich (ohne Detailverlust zu riskieren) den Pegel absenken = Schwarzwert verschieben."

 

Das zweite Quadrat links unten ist bei dir komplett schwaruz gefüllt und nicht weiß mit schrägen schwarzen Linien?

 

edit:

Und du musst ja auch nicht den Schwarzwert runterziehen für mehr Dynamikumfang, da du auch gefüllte schwarze Quadrate im Bild hast.

Wie in der Realität meist auch.

Aber jetzt versteh ich immerhin was du gemeint hast. ;)

 

Edit2: und ich sehe auch worauf du noch hinaus willst:

Weil vollschwarz durch rauschen auch etwas grauer werden kann,

müsste man den Schwarzwert wirklich minimal anpassen

Beim kleineren Format muss ich das ja aber ebenso, da das Rauschen hier eben schon früher (weniger Tiefen genutzt) sichtbar wird.

Weswegen die etwas weiter nach unten nutzbare Dynamik meiner Meinung nach eben auch nicht aufgefressen wird, sondern immer noch existiert.

bearbeitet von Thyraz
Link zum Beitrag
Auf anderen Seiten teilen

Mit anderen Worten: Man gewinnt Dynamik auf Kosten anderer Informationen, z.B. Auflösung.

 

 

exakt so ist es ....

 

man könnte es aber auch anders ausdrücken:

 

man sieht das Rauschen einfach nicht mehr so gut.

 

 

 

 

Man sollte sich immer vor Augen führen, dass das Verkleinern eines Bildes in etwa den gleichen Effekt hat, als wenn man einfach den Stuhl um 1m zurückschiebt... auch da sieht man das Rauschen weniger und eigentlich angegriffene Details sehen auf mehr Entfernung wieder besser aus.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...