Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Finde ich auch. Fragt sich nur, in welcher Form sie Dcraw verwenden. Ich habe mir mal die Tiff-Testcharts der E-P3 aus dem CoFo Test runtergeladen und angeschaut. Für mich sieht das eher nach ACR aus, nach purem Dcraw eher nicht mehr. Das Farbrauschen ist jedenfalls rausgefiltert worden.

 

Stimmt, die Bilder dort sind zumindest einmal durch Lightroom 3.5 gelaufen. In den XMP's steht:

 

Shadows="5"

Brightness="+50"

Contrast="+25"

Sharpness="25"

ColorNoiseReduction="25"

SharpenRadius="+1.0"

SharpenDetail="25"

ColorNoiseReductionDetail="50"

 

Das sind, wenn ich nicht irre, die Standardeinstellungen. Doch kann man jetzt daraus schliessen, das diese Bilder auch zur Bewertung herangezogen wurden?

In dem von dir genannten Link, findet man unter "Testergebnisse" die Einträge "DCRaw Auflösung ISO100/400/...". Also scheint man zumindest die Auflösung anhand der dcraw Bilder zu bewerten. Was man jetzt aber genau mit dcraw macht, kann ich leider nicht finden.

 

Vertrackterweise werden viele der interessanten Sachen darin eben über das Rauschen ermittelt. Nur blöd, wenn die Analysesoftware Entrauschung als Signalverbesserung interpretiert.

 

Das ist Richtig. Jedoch ist doch die Frage gar nicht geklärt, wie bei ColorFoto das Rauschen ermittelt wird. Man spricht da nur von "Rauschwahrnehmung (visual noise)". Wenn man einen Graukeil bei bestimmten Licht fotografiert, was sie ja auch tun, könnte man sogar das Rauschen im RAW ermitteln und als SNR angeben. Warum die aber den SNR nicht angeben??

 

Ein RAW auf Auflösung, Dynamik und Rauschen zu analysieren ist ja ähnlich schwierig, wie einen Pudding an die Wand zu nageln. Früher konnte man einen Film nach Gebrauchsanweisung entwickeln und dann die Helligkeitswerte vergleichen oder mit einem Densitometer ausmessen, mit dem RAW geht das nicht mehr.

 

Man muss das auch im RAW gar nicht machen. Der Sensor liefert ja schon RGB werte, nur müssen eben viele von denen erst durch Interpolation ermittelt werden. Die Interpolation beeinflusst sicher das Rauschen und auch die Auflösung minimal, da man aber mit dcraw die Möglichkeit hat für jede Kamera die gleiche Interpolation zu verwenden, werden die Ergebnisse wieder vergleichbar. Aber wie gesagt wissen wir nicht, was die da genau mit dcraw machen.

 

Wozu dann noch ein solcher "Test", wenn eh nichts anderes heraus kommt als das, was die Spatzen schon von den Dächern pfeifen? Das dient doch bestenfalls noch zu Sicherung der Auflage, weil man es vermeidet jemandem ans Bein zu pinkeln. Ich möchte nicht mitbekommen, was in einer Redaktion passiert, wenn beispielsweise ein zahlungskräftiger Marktführer bei einem Test eines seiner Produkte zerrissen bekommt. Negativmeldungen kommen doch auch erst dann, wenn es sowieso schon die meisten wissen. Was sind denn das für Tests, wenn bestimmte, bei allen Kameras auftretende Mängel, bei Tests nicht erkannt werden, aber weniger geschulten Usern schon bei den ersten Aufnahmen auffallen?

 

 

Schön geschrieben. Interessant finde ich in diesem Zusammenhang, das man bei dpreview kaum etwas über die entrauschten RAWs der Nikon 1 liest. Das steht nur in einem recht schwer zu findenden Satz. Es wird zwar angemerkt, jedoch der Einfluss als gering bewertet. Man bemerkt einen Knick in der Rauschkurve ab ISO 800, aber kritische Anmerkungen, ob nicht evtl. schon vorher entrauscht wird findet man nicht. Ebenso wenig findet dieses Tatsache Erwähnung in den Conclusions. Bin mal gespannt, ob Nikon dieses "Feature" auch in die DSLRs einbaut, funktioniert ja gut..

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 124
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

(...)

Schön geschrieben. Interessant finde ich in diesem Zusammenhang, das man bei dpreview kaum etwas über die entrauschten RAWs der Nikon 1 liest. Das steht nur in einem recht schwer zu findenden Satz. Es wird zwar angemerkt, jedoch der Einfluss als gering bewertet. Man bemerkt einen Knick in der Rauschkurve ab ISO 800, aber kritische Anmerkungen, ob nicht evtl. schon vorher entrauscht wird findet man nicht. Ebenso wenig findet dieses Tatsache Erwähnung in den Conclusions. Bin mal gespannt, ob Nikon dieses "Feature" auch in die DSLRs einbaut, funktioniert ja gut..

Da sprichst Du was an! Gerade deswegen hatte ich in den letzten Tage (vorsichtshalber nur) PN-Kontakt mit einem User von hier. Was die dpristen sich da leisten, das haut dem Fass den Boden raus. WENN es zulässig wäre hier Bilder von dpr zu zeigen, dann würde ich einen wahrhaft bildhaften Vergleich hier zeigen. Es gibt hier User, die zeigen hier vergleichsweise dpr-Bilder bzw. Ausschnitte davon. Da werde ich aber aus diesem Grund nicht tun. Wir müssten da andere Anschauungsmöglichkeiten finden ....

Jedenfalls ist der erste Satz in den Conclusion-Pros schon lesenswert. Daraufhin habe ich mal ein paar Samples heruntergeladen ..... ach du sch...e!

Link zum Beitrag
Auf anderen Seiten teilen

:eek: Stand das vor ein paar Tagen schon so da? Ist ja ein Ding.

Ja, ich kenne das nur so wie es da steht.

Nimm mal die Seite 18 her und vergleiche da wo der Fokus stimmt mit der XZ-1 im RAW. Der Sensor der XZ-1 ist in etwa halb so groß bei gleicher Auflösung wie der von den N 1en.

bearbeitet von wolfgang_r
Fehler korrigiert
Link zum Beitrag
Auf anderen Seiten teilen

Stimmt, die Bilder dort sind zumindest einmal durch Lightroom 3.5 gelaufen...

...

Das sind, wenn ich nicht irre, die Standardeinstellungen. Doch kann man jetzt daraus schliessen, das diese Bilder auch zur Bewertung herangezogen wurden?

Was sollte man aber denn daraus schließen, wenn andere als die zum Test verwendeten Bilder als 35MB große Tiffs zum Download angeboten werden? Dass man den Kunden für zu blöd hält, sich einen eigenen Eindruck von den Testdaten zu verschaffen und ihm stattdessen irgendwas ganz anderes zeigt?

 

Jedoch ist doch die Frage gar nicht geklärt, wie bei ColorFoto das Rauschen ermittelt wird. Man spricht da nur von "Rauschwahrnehmung (visual noise)".

Eben. Zitat "Rauschen":

"In der Messtechnik ist es üblich, diese Stärke als Verhältnis zur Signalstärke anzugeben (Signal-Rausch-Verhältnis, SNR). Da das Rauschen in modernen Kameras seine Charakteristik und seine Erscheinungsform durch die Signalverarbeitung stark verändern kann, eignet sich das SNR nicht zur Beurteilung des wahrgenommenen Rauschens. Dazu wird das „Visual Noise” (VN, engl. etwa: Visuelles Rauschen) bestimmt... ColorFoto benutzt zur Berechnung des VN die Annahme, dass das Digitalbild perfekt auf ein 40 cm hohes Bild ausgegeben wurde..."

 

Wenn wir jetzt wüssten, wie das Visual Noise ermittelt wird, ohne das SNR zu kennen, wären wir wohl etwas schlauer. Ist da überhaupt vom RAW die Rede? Und könnte man das ganze SNR nicht einfach weglassen und den Visual Noise gleich visuell ermitteln? Welchen Unterschied würde das machen?

 

Wenn man einen Graukeil bei bestimmten Licht fotografiert, was sie ja auch tun, könnte man sogar das Rauschen im RAW ermitteln und als SNR angeben. Warum die aber den SNR nicht angeben??

Zitat "Dynamikumfang":

"Ein SNR von eins würde bedeuten, dass Signal und Rauschen gleich groß sind – es kann nicht mehr zwischen diesen Komponenten unterschieden werden. Da diese Grenze aus der Messtechnik stammt und für Anwendungen im Fotobereich zu hart und schwerer bestimmbar ist, verwendet ColorFoto ein SNR von drei als untere Grenze in der Berechnung des Dynamikumfangs."

 

Habe ich das jetzt richtig verstanden? In Punkto Rauschen eignet sich das SNR nicht als Messwert, weil es sich durch die Signalverarbeitung verändern kann, in Punkto Dynamik ist es dagegen als Kriterium zu hart und obendrein zu schwer bestimmbar? Wir werden es hier doch nicht am Ende mit zwei verschiedenen Arten des Rauschens zu tun haben? Man könnte fast meinen, aber natürlich nur, wenn man bösartig wäre, dass hier beide Male die Redoute des SNR vorsichtig großzügig umgangen wird.

 

Zitat "RAW":

"Mit dcraw erzeugen wir kein perfekt ausgearbeitetes Bild ... sondern schätzen das Potential der RAW-Daten ab. Hierzu wählen wir eine geringe Rauschreduktion und erhalten entsprechend ein Maximum bei der Auflösung."

 

Naja, wenn sie beim RAW eine Rauschreduktion anwenden, würde das SNR wohl eh verfälscht werden. Aber müsste "gar keine Rauschreduktion" statt einer "geringen" nicht logischerweise zu einem noch höheren Maximum an Auflösung führen?

Also, ich habe keine Ahnung, was die da genau machen. Vielleicht ist es ja einfach nur ungenau beschrieben weil es ja nur dazu dienen soll, was Hans/specialbiker als nützliche Vergröberung bezeichnet hat.

Link zum Beitrag
Auf anderen Seiten teilen

...

Also, ich habe keine Ahnung, was die da genau machen. ...

 

Einen Ausweg suchen.

Meßtechnik hat eine unangenehme Eigenschaft: Sie wird immer komplexer (und oft auch widerprüchlich), je mehr und je länger man sich damit beschäftigt.

Dabei sieht das doch erst mal so logisch und einfach aus, wenn Mister Spock die Tricorder-Daten auwertet.

Nach all den bunten Diagrammen, Tabellen und Zahlen mit 17 Nachkommastellen schleicht sich der Begriff des Schätzens ein.

Faszinierend. Zugleich aber auch ein Anzeichen dafür, daß sie etwas gelernt haben.

 

LG Horstl

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die Mehrheit ...

 

Die Masse kauft, das ist bekannt,

was eben "alle" kaufen, in jedem Land.

Ein Beispiel kennt ihr alle schon,

es ist die Golf-Generation.

Es ist ein gesellschaftliches Phänomen,

man kann es in jedem Lande sehn.

Drum, wer's noch nicht weiß, dem sag' ichs jetzt,

am besten dran ist, wer auf die Mehrheit setzt.

In dieser Masse, wer hätts gedacht oh Wunder

geht man mit und fällt nicht auf.

Man eckt nicht an und ist nicht Zunder

und die Verantwortung teilt sich auf.

Gemeinsam geht man leichter unter ....

Die Herde rennt dem Hammel nach

und wenns nicht nur die Schur ist .... ach

dann landen sie eh' sie's gedacht

auf dem Tisch und werden geschlacht ....

 

So ist's auch hier beim Fotohobby,

was zählt ist oft die Lobby,

und sei sie auch noch so sehr bescheuert.

Die Werbung schreit mal hüh mal hot,

das Schäfchen glaubt's und kauft den Schrott

und zahlt auch gerne überteuert.

Augen auf heißt's nicht nur im Verkehr!

In Tests getrickst wird doch schon sehr.

Wer weiß schon was da wird geschummelt

und an den Daten rumgefummelt?

Das RAW sei, sagt man, unbestechlich,

doch was sieht man nun tatsächlich?

 

Ist es denn was wirklich war,

was die Linse sah so wunderbar?

Oder ist es nur ein wenig

verfälscht, ein bischen schönig?

Hat man's drauf da mit dem Trickseln,

ist's gar nicht schwer zu bügeln

und zu manipulieren.

Das ist die Kunst bei den vielen Pixeln.

Manche können sich nicht zügeln

mit dem Bild-Verzieren.

Was hinten rauskommt ist dann allzuoft

ein wenig Matsch, ein wenig soft.

 

So ist's meist hier beim Fotohobby,

was zählt ....

 

Ein Kritiker, ja, der hat's nicht leicht,

weil er unbequem ist und lästig

und schnüffelt in den Tiefen rum.

Die Legenden hat er aufgeweicht

und in den Methoden rührt er kräftig

und kommt zum Schluß zu einer Summ'.

Die Folge davon, wir wissen es schon,

ist dann oft nur Spot und Hohn.

So lange bis manch anderer auch der Sache

auf die Spur kommt und aufhört mit Gelache.

So kommt es dann, wenn viele sungen,

zu schleichenden Verbesserungen.

 

Das ist halt, man muß es akzeptieren

ein gesellschaftliches Problem.

Es ist nicht anders wie bei Tieren

die doch nur den Leithammel seh'n.

Doch, es ist nicht ganz vergebens

wie man erfährt im Lauf des Lebens.

Es werden mehr, die selber denken

und gemeinsam die Geschichte lenken.

Auch wenn's die Spatzen von den Dächern pfeifen,

lasse es noch eine Weile reifen.

Denn wenn die Spatzen werden stiller...

 

Drum halte ich es mit Herrn Schiller:

 

Was ist die Mehrheit ....

 

©wolfgang_r 2012

Link zum Beitrag
Auf anderen Seiten teilen

hehe .. wir werden irgendwann noch ein Dichterforum :eek: schön launig und im Grunde so wahr .. für mich hat die Mehrheit den Vorteil, daß die mir oft ihr "nicht mehr taugliches" Geraffel für überraschend gute Preise überläßt .. ich bitte um den nächsten Hype, denn ich brauche und will noch ein Oly 12mm/F2.0 und einige andere Optiken .. lächel :) und weitere Dichtkunst neben den Informationen ;)

Link zum Beitrag
Auf anderen Seiten teilen

Ein paar Gedanken zu RAW-Tests:

 

Wir haben uns daran gewöhnt, das RAW nicht mehr nur als digitales Negativ zu betrachten, mittlerweile wird es zunehmend als Referenz für Tests und Messungen herangezogen. Das ist in zweierlei Hinsicht problematisch: Um RAW-Daten beurteilen zu können, muss man sie zwangsläufig interpretieren, meines Wissens gibt es aber keine verbindlichen Richtlinien dafür (Interpolationsalgorithmus, Schärfung, Gradationskurve, Schwarzpunkt etc...).

Zweitens ist es ein Unterschied, ob man einzelne Aspekte unabhängig voneinander misst oder zusammen in einem tatsächlichen Bild. Zu fragen wäre, inwiefern sich die einzelnen Aspekte gegenseitig beeinflussen, z.B. kann eine stärkere Schärfung das Rauschen erhöhen. Das Gesamtergebnis könnte also anders ausfallen als die Summe der Einzelergebnisse.

 

Anlass zu diesen Überlegungen ist die Beobachtung, dass unterschiedliche RAW-Konverter dasselbe RAW unterschiedlich interpretieren. Das kommt einem so selbstverständlich vor, dass man es eigentlich gar nicht hinterfragt. Ferner interpretiert derselbe RAW-Konverter die Daten von Kameras gleichen Aufnahmeformats, Pixelzahl oft unterschiedlich. Warum rauscht die eine Kamera mehr als die andere, obwohl beide einen Sensor gleichen Typs verbaut haben, eventuell sogar einen baugleichen? Warum zeichnet die eine Kamera schärfer als das andere, wieso gibt es feine Unterschiede in Kontrast- und Farbwiedergabe?

Man kann solche Unterschiede nun auf verschiedene Ursachen zurückführen: Z.B. unterschiedliche Signalverarbeitung, Entrauschung des RAWs, unterschiedliche Auslegung des AA-Filters usw. Wenn man jedoch keine begründete Annahme für die Ursachen hat - und wie will man das im Einzelnen nachweisen? - ist das ein Stochern im Nebel und hat allenfalls Alibifunktion. Uns interessiert ja nicht in erster Linie, warum irgendwas nicht so funktioniert, wie es soll, sondern wir wollen ein gutes Ergebnis. Insofern wäre eher der analytische Schwerpunkt auf die Möglichkeiten zur Bildverbesserung zu legen.

 

Statt das RAW als Grundlage für die Messung des Potentials einer Kamera zu nehmen, schlage ich eine alternative Herangehensweise vor:

 

Man betrachtet das RAW als Blackbox und ermittelt seine Variabilität. Pixelzahl, Sensortyp, Formatgröße, verwendetes Objektiv, unterschiedliche Signalverarbeitung usw. interessieren dabei erst mal nicht, die ergeben sich als Ergebniskonsequenz der Analyse.

 

mögliche Vorgehensweisen:

 

1) Man kann RAWs identischer Bedingungen (z,B. gleiches Testchart und gleiche Belichtung, bzw. identisches Motiv) auf ihre Unterschiede hin vergleichen: Was passiert, wenn man den Output (Schärfe, Farbe, Kontrast) angleicht? Was ändert sich in Punkto Dynamikumfang, wenn man die Sättigung (global oder einer Farbe) oder den Kontrast verändert?

 

2) Man kann identische RAWs anhand unterschiedlicher RAW-Entwicklungen miteinander vergleichen, und so die Variablität und das Potential ermitteln. Z.B.: Welchen Einfluss haben die Interpolations- und Schärfungsalgorithmen, wie wirkt sich die jeweilige Entrauschung aus, wie wird die Farbwiedergabe beeinflusst?

 

3) Forensik: Man könnte die RAWs tatsächlicher Fotos auf ihr Potential abklopfen: Wie hoch ist das Potential jenseits der Default Einstellungen. Wie weit lassen sich Fehler korrigieren? Welche Einflüsse haben zu Noxen (z.B. Tonwertabrisse, Detailverlust etc.) geführt?

 

Damit käme man natürlich weder zu einem Score noch zu einem in exakten Zahlen darstellbaren Ergebnis, aber zu Anhaltspunkten bezüglich des Nutzwerts des RAWs, und das sollte uns ja eigentlich interessieren.

Link zum Beitrag
Auf anderen Seiten teilen

Nolite, da du im Thread "OM-D" nochmal auf meinen Kommentar geantwortet und hierher verlinkt hast, möchte ich einen deiner Hauptpunkte nochmal kurz aufgreifen:

Ich fand nur, dass das Testbild bei Dpreview bei der K5 etwas unschärfer ist. [...als jenes der D7000]

Es kommt darauf an welche Bereiche der Testszene man zum Vergleich heranzieht.

Im Vordergrund ist das Bild der D7000 schärfer, im Hintergrund jenes der K-5. Siehe angehängte Vergleichsbilder (Die beiden linken Bilderpaare zeigen Objekte im Vordergrund (Mitte und Rand), die beiden rechten Bildpaare zeigen Objekte im Hintergrund (wieder Mitte und Rand)), oder direkt in dpreview. Ich glaube darauf können wir uns beide einigen, oder?

 

Das Grundproblem der perfekten Vergleichbarkeit hinsichtlich der Schärfentiefe von Kameras unterschiedlichster Spezifikationen - von der Kompaktkamera bis zum Mittelformat - lässt sich natürlich nie völlig ausschalten. Ähnliche Ergebnisse lassen sich lediglich approximieren, und allein dadurch könnten u.U. wiederum Folgeprobleme auf anderer Ebene generiert werden.

In diesem Fall jedoch könnten sich die Kandidaten kaum ähnlicher sein.

Naheliegendster Grund für diese deutlichen Unterschiede ist meiner Meinung nach ganz einfach die unterschiedliche Lage der jeweiligen Schärfeebenen.

Betrifft keineswegs nur diese beiden Kameras, sondern ist querbeet durchs Kamerangebot zu finden. Schärfeebene mal vorne, mal hinten, mal irgendwo dazwischen. Wunderbare Variabilität in einem Vergleichstool welches ohne penible Konstanz an Aussagekraft verliert. In diesem Fall u.a. hinsichtlich der Bilddetails.

Dpreview wird regelmässig von Forenteilnehmern auf dieses Problem hingewiesen, ich habe bisher jedoch leider keine Reaktion darauf erlebt.

 

Welcher der beiden Kameras in diesem Fall mehr negative Beurteilungen aufgrund dieses Problems zugeschrieben werden, kann ich nicht beurteilen, es kommt halt drauf an auf welche Teilbereiche der Testszene man sich am liebsten einschiesst.

 

Und bitte glaub mir, ich habe nicht das geringste Problem damit, wenn Kritik an Kameras ausgeübt wird, welche eben auch ich zufällig besitze. Ganz im Gegenteil, ich selbst kritisiere in erster Linie meine eigenen Kameras, weil ich nur bei jenen die Problematik tatsächlich selbst beurteilen kann. Ich ecke regelmässig in Pentax- und Olympusforen (nur wenige deutsche) genau deshalb an. Auch eine K-5 halte ich nicht für perfekt, da gäbs durchaus ein paar Punkte welche ich persönlich ändern würde (zB hätte ich gerne die Belichtungsmessung "Spot-Hi" implementiert gesehen).

 

 

Hinsichtlich deines letzten Kommentars in diesem Thread hier stimme ich dir großteils zu.

Ich selbst wende übrigens für meine praktischen Kameratests eine Kombination aus der von dir als 1) und 3) vorgeschlagenen Methoden an: Bildvergleich anhand einer echten Aufnahmesituation welche zeitgleich parallel mit beiden Kameras durchgeführt wird, unter Einhaltung möglichst identer Bedingungen (meist Landschaftsaufnahmen), mit anschließendem Angleich der Bilder auf möglichst gleiche Endergebnisse (daher nicht zwangsläufig exakt gleicher EBV).

Ich finde, dass diese Vorgehensweise am ehesten der letztlich angepeilten praktischen Anwendung der Kameras entspricht.

 

Punkt 2) hab ich vor ein paar Jahren aus Neugierde und Spaß an der Spielerei auch mal ausführlich betrieben. Alle möglichen RAW-Konverter mit verschiedenen Einstellungen, Demosaicalgorithmen (sofern überhaupt zugänglich) und weiß der Teufel was noch durchgespielt. Teils dramatisch abweichende Ergebnisse (naja ok, mehrheitlich auf Pixelniveau...) erhalten. Wenn Kamera A mit Konverter 1 bessere Ergebnise als Kamera B liefert, kann sich dies lediglich durch Verwendung von Konverter 2 umkehren, usw.

War nett auszuprobieren und ich hab sicher die ein oder andere Einsicht dadurch gewonnen, letztlich wars aber großteils akademischer Natur.

Nichtsdestotrotz wars für mich persönlich ein weiterer Fingerzeig Richtung Methode 1) & 3) durch eigene Anwendung in mir wichtigen Realsituationen, bei tunlichst vorsichtiger Interpretation sämtlicher öffentlich zugänglicher Reviews. Nicht weil sie zwangsläufig schlecht sein müssen, sondern weil mir unheimlich viele entscheidende Parameter völlig unbekannt bleiben.

 

 

Na schau einer an. Tatsächlich einmal geschafft 100% on-topic zu bleiben... :rolleyes:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Um die Verwirrung zu steigern gehe ich das mal von der Hardwareseite an:

Wie wirkt sich eine Temperaturerhöhung bei verschiedenen Belichtungszeiten aus. Wir wissen, dass mit steigender Temperatur das Rauschen zunimmt, besonders das Dunkelstromrauschen bei Langzeitbelichtungen. (Physikalisch ist das leider nicht zu umgehen.) Prinzipiell ist der Einfluß auch bei kurzen Belichtungszeiten vorhanden, denn die Empfindlichkeit der Fotodioden ändert sich mit der Temperatur. Das machen sie aber nicht alle genau gleich. Details, die eben gerade noch getrennt werden konnten, gehen jetzt im Rauschen unter. Wie erkennt die Software, was an dem Signal Rauschen ist und was Detail? Wie unterscheidet sich Rauschen und Detail, wenn das Detail in der Größenordnung eines Pixels ist und nur wenig über die umliegenden Pixel hinaus ragt? Sowas kann auch Rauschen sein, denn wenn es zu extrem wird sehen wir das als Pixelfehler an und rechnen sie einfach raus. Das sind aber nur die Pixelfehler, die auffallend weit herausragen oder gar nichts von sich geben (Stuckpixel, Deadpixel, Subpixelfehler). Wie sieht es mit den Messergebnissen unmittelbar nach dem Einschalten und nach zwei Minuten Betriebszeit aus. Die Erwärmung beeinflusst nicht nur den Sensor alleine, sondern ALLE elektronischen Komponenten in der Kamera. Die Verstärker nach dem Sensor sind davon maßgeblich betroffen. Wie verringert sich die effektive Auflösung der A/D-Wandler mit steigender Temperatur (die untersten 2 Bit kann man sowieso vergessen) und wie groß ist seine rauschfreie Auflösung? Pro ca. 6...7°C Temperaturerhöhung verdoppelt sich der Rauschlevel. Verdopplung heißt 1 Blendenstufe! Diese eine Blendenstufe geht der Dynamik verloren. Was sind schon 6°C Temperatursteigerung im Inneren einer Elektronik. Pippifax! Der Temperaturgradient ist in den ersten Minuten am steilsten, also könnte man doch theoretisch allein durch die Betriebszeit vor der Messung das Ergebnis beeinflussen. Wie wird das berücksichtigt? Ich vermute, überhaupt nicht. Kameraintern könnte man

das sogar berücksichtigen, und weil die Chiptemperatur irgendwo verschlüsselt in den EXIF steht, auch nachträglich im RAW-Konverter. Als zusätzliches Problem könnte sich die über die Sensorfläche ungleichmäßige Erwärmung erweisen.

Wie zuverlässig sind vor diesem Hintergrund die Dynamikmessungen? Welcher Zusammenhang besteht zwischen der gemessenen Dynamik (z. B. bei DxO) und der Auflösung von Details in den Schatten? Was spiegeln die Ergebnisse der verschiedenen RAW-Konverter eigentlich wieder, die Fantasie des Entwicklers, den Wunsch des Marketings oder gibt es dafür eine weltweite Norm?

 

Fassen wir mal die wichtigsten Variablen zusammen, die von der Frontlinse des Objektivs bis zu einem Bild führen:

 

Licht (wer hätte das gedacht),

Das Lichtspektrum,

Helligkeitsabhängiges Photonenrauschen,

Objektiveigenschaften (das ist alleine schon ein großes Kapitel für sich),

AA-Filter,

Mikrolinsen (keine ist der anderen wirklich gleich),

Mikro-Farbfilterarray (kein Mikrofilter ist dem anderen wirklich gleich, ergibt Farbrauschen),

Fotoempfänger des Sensors, keiner ist dem anderen wirklich gleich (rauscht),

Verstärker (rauscht),

A/D-Wandler (rauscht),

Interpolationsalgorithmus,

Schärfung,

Gradationskurve,

Schwarzpunkt,

Entrauschungsalgorithmus,

Farbsättigung,

Kontrast,

Temperatur,

...

Natürlich gilt das alles für jede der drei Grundfarben RGB separat.

 

Diese Aufstellung erhebt keinen Anspruch auf Vollständigkeit. All die weiteren vielfältigen Bearbeitungsmöglichkeiten mit der Bildverarbeitungssoftware, die der Anwender selbst in der Hand hat, habe ich hier nicht berücksichtigt.

 

Mathematiker dürfen jetzt berechnen, wieviele Variationsmöglichkeiten es gibt um ein Bild zu verhunzen.

 

Ein kleines Zahlenspiel muss noch sein:

Eine Dynamik von 12 Blendenstufen entspricht einem Verhältnis von 1:4096.

Um das hinreichend genau messen zu können, muß die Messeinrichtung *) etwa die zehnfache Genauigkeit bieten, also 1:40000 oder bezogen auf den Maximalwert 0,0025 Prozent.

Eine Dynamik von 14 Blendenstufen entspricht einem Verhältnis von 1:16384. Um das hinreichend genau messen zu können, muß die Messeinrichtung etwa die zehnfache Genauigkeit bieten, also 1:160000 oder bezogen auf den Maximalwert 0,000625 Prozent. Das entspricht einem Messwertumfang von 17 1/3 Blendenstufen oder 104 dB. Das ist ungefähr der Helligkeitsumfang zwischen weißen Wolken in 2500 m Höhe, die von oben ungebremst von der Mittagssonne beleuchtet werden, bis zur Hauswand im Dunkeln, die aus 5 m Entfernung von einer 60 W Glühbirne beleuchtet wird.

 

Das alles für den potentiellen Kunden in eine Prozentzahl zu pressen macht die Sache natürlich übersichtlicher. Ich verstehe auch, warum man ein Testergebnis dann so verklausuliert beschreibt, dass der Ottonormalverbraucher da lieber drüber weg liest und der "informierte Forennutzer" sich das heraus suchen kann was ihm gefällt.

 

Um die Sache abzurunden hier eine Kamera, die in der Lage ist eine Dynamik von 1:160000 zu erkennen.

Andor iXon Ultra 897 High Speed EMCCD Camera

Der Sensor-Hersteller: e2v | Hi rel semiconductors | CCD and CMOS imaging | instrumentation | electron devices

Zitat: "The status of ‘Ultimate Sensitivity’ is also preserved in this model, offering thermoelectric cooling down to -100°C and industry-lowest clock induced charge noise. "

Key Specifications

Active Pixels: 512 x 512

Pixel Size: 16 x 16 µm

Image Area (mm): 8.2 x 8.2

Image Area pixel well depth: 160,000 e-

Max. Readout Rate: 17 MHz

Frame Rate: 56 - 11074 fps

Read Noise: < 1 e- with EM gain

QEmax: > 90%

 

Nun frage ich mich ernsthaft, wie man mit einer Konsumerkamera in der Lage ist, eine Dynamik von 14 Blendenstufen zu erkennen und als Messergebnis zu veröffentlichen. Vielleicht kann es mir ja jemand auf verständliche Weise erklären.

 

*) Unter Messeinrichtung ist die gesamte Strecke von der Beleuchtung bis zum gemessenen RAW-Signal gemeint, also nicht alleine die Kamera!

Link zum Beitrag
Auf anderen Seiten teilen

...

Dpreview wird regelmässig von Forenteilnehmern auf dieses Problem hingewiesen, ich habe bisher jedoch leider keine Reaktion darauf erlebt.

....

 

stimmt nicht so ganz. Bei den ersten Bildtests zur NX200 ist ziemlich auf das Team eingepruegelt worden und sie haben die Testreihe insgesamt noch drei mal komplett bzw teilwiederholt. Am Schluss sind dann Bilder herausgekommen, wie man sie in etwa erwartet hat, die aber auf Grund der Nutzung des 60mm Makro im Gegensatz zu einem adaptierten manuellen Pentax vorher eine andere Tiefenschaerfe aufweisen.....Das Thema wurde sehr offen dort mit dem Testteam diskutiert.

 

Grund der massiven Beschwerden waren da in erster Linie die Erfahrungen in der Vergangenheit mit den Tests der EX1 und NX10, die selbst von DPreview als fehlfokussiert angeben wurden, aber nie auch nur ansatzweise korrigiert wurden.

 

Das Thema Fehlfokus kann man bei dpreview aber schoen erkennen, wenn das Bild frontfokussiert ist.

 

Diese Vergleichbarkeit ist im Grunde keine echte, sonder gibt nur eine art "Richtung" vor aus der man schwaechen ablesen kann (sofern man diese erkennt und in der Lage ist sie zu interpretieren)

Link zum Beitrag
Auf anderen Seiten teilen

stimmt nicht so ganz. Bei den ersten Bildtests zur NX200 ist ziemlich auf das Team eingepruegelt worden und sie haben die Testreihe insgesamt noch drei mal komplett bzw teilwiederholt. Am Schluss sind dann Bilder herausgekommen, wie man sie in etwa erwartet hat, die aber auf Grund der Nutzung des 60mm Makro im Gegensatz zu einem adaptierten manuellen Pentax vorher eine andere Tiefenschaerfe aufweisen.....Das Thema wurde sehr offen dort mit dem Testteam diskutiert.

 

Grund der massiven Beschwerden waren da in erster Linie die Erfahrungen in der Vergangenheit mit den Tests der EX1 und NX10, die selbst von DPreview als fehlfokussiert angeben wurden, aber nie auch nur ansatzweise korrigiert wurden.

Ah, die historische Entwicklung der NX Tests hab ich nicht so genau verfolgt. Danke für die Info.

Ich habe in der Vergangenheit jedoch zahlreiche andere Threads aus Kamerasparten verschiedener Hersteller verfolgt, in welchen diese variable Positionierung der Fokusebene angesprochen und teilweise auch offiziell zur Kenntnis genommen wurde, es jedoch nie zu einer Angleichung gekommen ist.

 

Diese Vergleichbarkeit ist im Grunde keine echte, sonder gibt nur eine art "Richtung" vor aus der man schwaechen ablesen kann (sofern man diese erkennt und in der Lage ist sie zu interpretieren)

Das sehe ich ähnlich, finde es jedoch bedauerlich eine derart einfach zu beseitigende Variable nicht zu eliminieren. Die Variabilität der akzeptablen Ausdehnung der Schärfentiefe inkl. eventueller Krümmungen selbiger bliebe bedingt durch unterschiedliche "Hardware" natürlich dennoch erhalten, aber zumindest könnte man eine kleine Fläche hinsichtlich der Bilddetails etwas besser vergleichen als dies aktuell der Fall ist. Wenn jedoch auch noch die Fokusebenen grob verschoben sind, kann man sich den Detailvergleich gleich ganz sparen bzw. an grundverschiedenen Bildern Pi * Daumen abschätzen. Weitere beeinflussende Parameter mal unberücksichtigt gelassen...

 

Warum man bei der standardmässig angewandten Entwicklung der RAWs in ACR den Regler des Schwarzwerts auf seiner standardmässigen Position (="5") belässt, anstatt ihn auf "0" zu reduzieren, ist mir auch nicht ganz erklärlich. Zumindest ich schneide mir bei keiner RAW-Entwicklung defaultmässig mal generell die Details der Schattenbereiche weg, erst recht nicht wenn ich die Abbildungsleistung beurteilen möchte. Aber gut, das ist wieder ein anderes Thema.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Es kommt darauf an welche Bereiche der Testszene man zum Vergleich heranzieht.

Im Vordergrund ist das Bild der D7000 schärfer, im Hintergrund jenes der K-5. Siehe angehängte Vergleichsbilder (Die beiden linken Bilderpaare zeigen Objekte im Vordergrund (Mitte und Rand), die beiden rechten Bildpaare zeigen Objekte im Hintergrund (wieder Mitte und Rand)), oder direkt in dpreview. Ich glaube darauf können wir uns beide einigen, oder?

...

Naheliegendster Grund für diese deutlichen Unterschiede ist meiner Meinung nach ganz einfach die unterschiedliche Lage der jeweiligen Schärfeebenen.

Betrifft keineswegs nur diese beiden Kameras, sondern ist querbeet durchs Kamerangebot zu finden. Schärfeebene mal vorne, mal hinten, mal irgendwo dazwischen. Wunderbare Variabilität in einem Vergleichstool welches ohne penible Konstanz an Aussagekraft verliert. In diesem Fall u.a. hinsichtlich der Bilddetails.

Du hast Recht damit, dass die Ausdehnung der Schärfentiefen unterschiedlich ist. Andererseits passt die Kalibrierung neben der Baileysflasche bei beiden Kameras. Wenn wir dann bei Blende 9 keine gemeinsamen, vergleichbare Schärfeebene finden, dann wäre dies ein deutliches Argument gegen die Vergleichbarkeit von Schärfe überhaupt. Aber dazu gleich.

 

Wenn man sich das RAW und das JPG der K5 nebeneinander anschaut, dann wirkt das JPG deutlich schärfer (aber ohne mehr Feindetails zu zeigen) als das RAW, und das liegt sicher nicht an der Schärfentiefe, sondern eher am unterschiedlichen Handling des Kantenkontrastes. Und darauf wollte ich eigentlich hinaus. Denselben Effekt kann man auch im RAW durch Schärfung erreichen, der Punkt ist halt der, dass das RAW der K5 per Default relativ weich ausgegeben wird.

 

Und nun ins Detail: Das RAW der K5 zeigt auch mit ACR-Default-Einstellungen Pixelschärfe, z.B. im Druckraster von Apollo (oder wer auch immer das sein soll) oder dem Gesicht der alten Lady, während die Wolle rechts daneben recht weich erscheint. Je heller die Pixel, und je höher der Kontrast zu den Nachbarpixeln, desto schärfer erscheinen sie. Wo der Kontrast dagegen zurückgeht, wird eine gewisse Weichheit erkennbar. Ein Anti-Aliasing-Filter würde alle Details plätten, deswegen denke ich, dass es irgendwo an der Signalverarbeitung liegt. Wenn man mit niedrigem Radius, aber relativ hohem Wert unscharf maskiert, wird es deutlich sichtbar, denke ich.

 

Was die Schärfenebene betrifft, so ist das eigentlich noch komplizierter. In vielen Fällen ist die Fokusebene nicht für Rot, Grün und Blau dieselbe (chromatische Abberation, und die wenigsten Objektive sind voll farbkorrigierte Apochromaten), außerdem ist sie meistens mehr oder weniger sphärisch (weil die wenigsten Objektive für plane Abbildung korrigiert sind). Bei der Spielkarte habe ich z.B. den Eindruck, dass bei der D7000 der blaue Kanal mindestens ebenso scharf ist, wie bei der K5. Grün ist ziemlich unscharf. Allerdings spielt da auch noch eine Rolle, dass das Blau der Herzdame bei der K5 wesentlich dunkler ist, als bei der D7000. Überhaupt stellt ACR das RAW der K5 deutlich dunkler und kontrastärmer dar, als das der D7000, obwohl Blende und Belichtungszeit identisch sind. Warum?

Link zum Beitrag
Auf anderen Seiten teilen

Du hast Recht damit, dass die Ausdehnung der Schärfentiefen unterschiedlich ist. Andererseits passt die Kalibrierung neben der Baileysflasche bei beiden Kameras.

Hmm, welche Kalibrierung meinst du damit? Das weisse Kreuz/Kreis auf dunklem Hintergrund? Hier sehe ich, nicht dramatisch, aber dennoch sichtbar mehr Schärfe bei der D7000 und meiner Einschätzung nach liegen diese Motivanteile in etwa in derselben Tiefe wie auch das von mir gezeigte Stoffmuster direkt links davon, welches ebenfalls von der D7000 schärfer abgebildet wird.

Es wäre durchaus hilfreich den Testaufbau mal aus einer anderen Perspektive zu sehen zu bekommen, um die räumliche Ausdehung desselben besser beurteilen zu können.

 

Wenn wir dann bei Blende 9 keine gemeinsamen, vergleichbare Schärfeebene finden, dann wäre dies ein deutliches Argument gegen die Vergleichbarkeit von Schärfe überhaupt.

Stimme zu. Jedoch sehe ich eben diese Vorraussetzung nicht erfüllt. Man kann meiner Meinung nach hier bestenfalls zwei jeweils etwa gleich unscharfe Elemente irgendwo in der Mitte der beiden Schärfeebenen suchen. Damit beurteile ich aber nicht mehr die jeweilige Maximalleistung, sondern einen selbst definierten, völligen "Häuslwert".

 

Wenn man sich das RAW und das JPG der K5 nebeneinander anschaut, dann wirkt das JPG deutlich schärfer (aber ohne mehr Feindetails zu zeigen) als das RAW, und das liegt sicher nicht an der Schärfentiefe, sondern eher am unterschiedlichen Handling des Kantenkontrastes.

Ja.

 

Und darauf wollte ich eigentlich hinaus. Denselben Effekt kann man auch im RAW durch Schärfung erreichen, der Punkt ist halt der, dass das RAW der K5 per Default relativ weich ausgegeben wird.

Verglichen mit der D7000? Kann ich persönlich anhand dieses Testbildes nicht ableiten. Mehr dazu weiter unten.

Weicher als zB eine E-5 oder E-P3? Ja, durchaus, zumindest auf Pixelebene. Die 16MP vs 12MP gleichen dies jedoch wiederum locker aus.

 

Und nun ins Detail: Das RAW der K5 zeigt auch mit ACR-Default-Einstellungen Pixelschärfe, z.B. im Druckraster von Apollo (oder wer auch immer das sein soll) oder dem Gesicht der alten Lady, während die Wolle rechts daneben recht weich erscheint.

Das hängt jetzt von der Definition des Begriffs "Pixelschärfe" ab. Die D7000 sehe ich in all diesen Bereichen, welche etwa in derselben Ebene liegen dürften, als schärfer an. Auch das Moiré kommt an der D7000 deutlicher raus, weil es meiner Einschätzung nach an der K-5 auch vorhanden ist, aber durch die andere Schärfeebene lediglich stärker "geblurred" wird.

 

Ich bin nach wie vor der Meinung, dass die Fokusebene der K-5 weit hinten liegt. Schau dir zB mal mit D7000 und E-5 vergleichend die "KODAK Gray Scale" ganz im Hintergrund an. Diese ist an der K-5 enorm schärfer als an der D7000 und sogar schärfer als an der E-5. Die E-5 sehe ich bei diesen drei Kameras als jene mit der höchsten Pixelschärfe an. Es kann doch daher unmöglich auf denselben Fokuspunkt kalibriert sein und zu solch gewaltigen Abweichungen bei identen Einstellungen kommen (D7000 + K-5). Bei derartiger Bildfeldkrümmung (@ f/9.0) müssten die furchtbarsten Objektive überhaupt verwendet worden sein.

 

Je heller die Pixel, und je höher der Kontrast zu den Nachbarpixeln, desto schärfer erscheinen sie. Wo der Kontrast dagegen zurückgeht, wird eine gewisse Weichheit erkennbar.

Dieses Phänomen ist doch aber nicht kameraspezifisch, sondern generell vorherrschend und Grundlage sämtlicher Schärfungsalgorithmen.

 

Ich verstehe worauf du hinaus willst, sehe jedoch wie gesagt die D7000 im gesamten Bereich, von "Apollo" beginnend bis hin zum karierten Wollstück (inkl. Kalibriertargets) als durchgehend schärfer an. Ich sehe hier nicht in welchem Bereich die K-5 spezifisch schärfer abbilden sollte als in anderen.

 

Was die Schärfenebene betrifft, so ist das eigentlich noch komplizierter. In vielen Fällen ist die Fokusebene nicht für Rot, Grün und Blau dieselbe (chromatische Abberation, und die wenigsten Objektive sind voll farbkorrigierte Apochromaten), außerdem ist sie meistens mehr oder weniger sphärisch (weil die wenigsten Objektive für plane Abbildung korrigiert sind). Bei der Spielkarte habe ich z.B. den Eindruck, dass bei der D7000 der blaue Kanal mindestens ebenso scharf ist, wie bei der K5. Grün ist ziemlich unscharf. Allerdings spielt da auch noch eine Rolle, dass das Blau der Herzdame bei der K5 wesentlich dunkler ist, als bei der D7000.

Interessanter Punkt.

Leider hab ich momentan keine vernünftige Grafiksoftware mit Kanaltrennung zur Hand, werde mir deine Schilderungen jedoch zu Hause zu Gemüte führen.

 

Überhaupt stellt ACR das RAW der K5 deutlich dunkler und kontrastärmer dar, als das der D7000, obwohl Blende und Belichtungszeit identisch sind. Warum?

Weiß ich auch nicht. Dieses Phänomen ist mir bei eigenen direkten Vergleichen mit meiner E-P3 und X100 über ACR ebenfalls aufgefallen. Jedenfalls von der Helligkeit her.

Ich habs mir bisher aber noch nicht in anderen RAW-Konvertern angesehen und würde daher einen softwareseitigen Einfluß, aufgrund oben geschilderter eigener Erfahrungen mit derlei Vergleichen, nicht grundsätzlich ausschließen.

 

 

Is ja wieder ewig lang geworden...

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Hmm, welche Kalibrierung meinst du damit?

Zwischen dem Kästchen mit dem Nähgarn und der Baileysflasche steht ein Fokuskalibrierchart. Demnach müsste die Schärfe der K5 direkt auf Wolle/Oma/Apollo/Münze/Siemenstern liegen, zumindest muss dieser Bereich innerhalb der Schärfentiefe sein.

Link zum Beitrag
Auf anderen Seiten teilen

Zwischen dem Kästchen mit dem Nähgarn und der Baileysflasche steht ein Fokuskalibrierchart. Demnach müsste die Schärfe der K5 direkt auf Wolle/Oma/Apollo/Münze/Siemenstern liegen, zumindest muss dieser Bereich innerhalb der Schärfentiefe sein.

Aja, jetzt hab ichs, danke.

 

Es fällt mir ehrlich gesagt schwer die genaue Position der Fokusebene auf diesem Fokuskalibrierchart festzustellen. Bei beiden Kameras.

 

Wenn ich mir jedoch die jeweiligen Vorder- und Hinterkanten der Fokuskalibrierchart ansehe, dann ist die Vorderkante an der K-5 deutlich unschärfer als jene an der D7000. Weit jenseits eventueller softwarebedingter Einflüsse, eindeutig oof. Wie soll es trotz gleicher Einstellungen (@ 50mm, f/9.0, gleicher Abstand/Position) zu diesem extremen Schärfeabfall kommen? Derartige Krümmungen der Fokusebene auf einer Strecke von nur wenigen Zentimetern bzw. Winkelgraden @f/9.0? Bei diesem Abfall dürfte auf dem Bild sonst ja fast gar nichts mehr auch nur halbwegs im Fokusbereich liegen. Es würde doch niemand mit solch katastrophalen Objektiven ernsthafte Testbilder schießen. Meinst du nicht?

 

Die jeweiligen Hinterkanten der Fokuskalibrierchart kann ich schärfemässig rein optisch kaum unterscheiden. Die Rückwand "KODAK Gray Scale" als Alternative dazu, fällt jedoch wiederum sehr einfach zu unterscheiden. An der K-5 ziemlich scharf, an der D7000 stark verschwommen. Auch hier dieselbe Frage bei gleichem Rationale: Wie soll es zu diesen deutlichen Unterschieden kommen, wenn nicht bedingt durch verschiedene Fokusebenen?

 

Die Betrachtung der Fokuskalibrierchart, zusammen mit erwähnter Rückwand, gibt für mich ein stimmiges Bild ab: Die Fokusebene der D7000 liegt ein gutes Stück vor jener der K-5. Das Bild der K-5 ist im Vordergrund in ähnlichem Ausmaß verschwommen wie jenes der D7000 im Hintergrund.

 

Ich sehe, basierend auf "Occam's razor", momentan keine naheliegendere Erklärung als diese. Lasse mich aber gerne und jederzeit von stimmigen Alternativhypothesen überzeugen.

 

Gibts eventuell weitere Meinungen anderer Verfolger dieses Threads bezüglich erwähnter Lage der Fokusebenen? Ident - nicht ident?

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Ein kleines Zahlenspiel muss noch sein:

Eine Dynamik von 12 Blendenstufen entspricht einem Verhältnis von 1:4096.

Um das hinreichend genau messen zu können, muß die Messeinrichtung *) etwa die zehnfache Genauigkeit bieten, also 1:40000 oder bezogen auf den Maximalwert 0,0025 Prozent.

Eine Dynamik von 14 Blendenstufen entspricht einem Verhältnis von 1:16384. Um das hinreichend genau messen zu können, muß die Messeinrichtung etwa die zehnfache Genauigkeit bieten, also 1:160000 oder bezogen auf den Maximalwert 0,000625 Prozent. Das entspricht einem Messwertumfang von 17 1/3 Blendenstufen oder 104 dB. Das ist ungefähr der Helligkeitsumfang zwischen weißen Wolken in 2500 m Höhe, die von oben ungebremst von der Mittagssonne beleuchtet werden, bis zur Hauswand im Dunkeln, die aus 5 m Entfernung von einer 60 W Glühbirne beleuchtet wird.

 

Das alles für den potentiellen Kunden in eine Prozentzahl zu pressen macht die Sache natürlich übersichtlicher. Ich verstehe auch, warum man ein Testergebnis dann so verklausuliert beschreibt, dass der Ottonormalverbraucher da lieber drüber weg liest und der "informierte Forennutzer" sich das heraus suchen kann was ihm gefällt.

Ich möchte das gerne mal anhand eines Beispiels illustrieren. Die beiden Bilder im Anhang sind identisch, nur, dass das eine eine Farbtiefe von 24bit hat, das andere nur eine von 15bit, also nur noch ca. 32000 Farbtöne statt 16mio. Abhängig vom jeweiligen Monitor dürften die Unterschiede wenig bis kaum sichtbar sein. Fotografie ist in höchstem Maße redundant, und die Umwandlung vom RAW zum Bild ist ein großer Egalisator.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Nolite
Link zum Beitrag
Auf anderen Seiten teilen

Hab mir wie erwähnt diesen Punkt angesehen:

Bei der Spielkarte habe ich z.B. den Eindruck, dass bei der D7000 der blaue Kanal mindestens ebenso scharf ist, wie bei der K5. Grün ist ziemlich unscharf. Allerdings spielt da auch noch eine Rolle, dass das Blau der Herzdame bei der K5 wesentlich dunkler ist, als bei der D7000. Überhaupt stellt ACR das RAW der K5 deutlich dunkler und kontrastärmer dar, als das der D7000, obwohl Blende und Belichtungszeit identisch sind. Warum?

Der Blaukanal ist bei der K-5 dunkler, der Rotkanal bei der D7000.

 

Die jeweils dunkleren Kanäle wirken zwar etwas schärfer, wohl einfach bedingt durch den höheren Kantenkontrast, dennoch sehe ich den Schärfeeindruck der Vollfarbenversion in keinem Einzelkanal als gebrochen an.

Besonders dieses Kreismuster am Kragen der Königin halte ich für diesen Vergleich für geeignet, da in diesem Bereich die Helligkeiten der einzelnen Farbkanäle zwischen den beiden Kameras relativ wenig variieren und damit der eventuell erhöhte Kantenkontrast den Schärfeeindruck nicht so stark beeinflusst.

 

Je nach betrachteter Region mag sich der Eindruck jedoch ändern. Ich sehe diese erschwerte Schärfebeurteilung bei Betrachtung einzelner Farbkanäle jedoch lediglich im Pixelbereich gegeben. Ich wüsste nicht wie diese vergleichsweise geringen Abweichungen die in Kommentar #42 erwähnten markanten Schärfeunterschiede erklären sollen - anders als über deutlich abweichende Schärfeebenen.

Hast du weitere Ideen dazu?

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Nochmals dasselbe Bild wie in #43, aber diesmal wurde bereits in der Raw-Entwicklung das das Rauschen komplett herausgefiltert, danach wiederum auf 15bit/32000 Farben reduziert. Das Ergebnis sind nun deutlich sichtbare Tonwertabrisse.

Was ist passiert? Die Entrauschung hat eben nicht nur Bildstörungen entfernt, sondern auch Informationen. Eine Entrauschung kann normalerweise nicht zwischen Störrauschen und feinen Helligkeits- oder Farbabstufungen unterscheiden. Außerdem ist ein gewisses Dithering immer erforderlich, um solche Treppenbildungen zu vermeiden.

Prinzipiell kann man sagen, dass alle EBV-Schritte, die normalerweise zu einer Erhöhung des Rauschens im Bild führen, beim entrauschten Bild derartige Stufenbildungen begünstigen, denn eine Spreizung der Tonwerte ist ja nichts anderes als eine Reduktion der Farbinformationen. Es dürfte also empfehlenswert sein, das Rauschen nur so weit herauszufiltern, wie es unbedingt notwendig ist. Das Bildrauschen von +/-20Mpix Bildern bei 100% zu beurteilen ist einfach nicht mehr zielführend. Je größer die Pixelzahl, desto mehr feines Rauschen darf im Bild verbleiben. Leider haben viele Hersteller bei der Abstimmung ihrer JPG-Engines in dieser Hinsicht jegliches Maß verloren, aber auch für die Perfektionisten unter den RAW-Fans kann es sich lohnen, die Entrauschungsregler für Lightroom, Photoshop und Co nicht immer mindestens auf Default zu lassen.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Prinzipiell kann man sagen, dass alle EBV-Schritte, die normalerweise zu einer Erhöhung des Rauschens im Bild führen, beim entrauschten Bild derartige Stufenbildungen begünstigen, denn eine Spreizung der Tonwerte ist ja nichts anderes als eine Reduktion der Farbinformationen. . . .

 

Hallo Nolite,

 

ist diese Aussage nicht eine Steilvorlage für eine RAW-Verarbeitung, erst die Farbbalance verarbeiten, dann Rauschen entfernen?

 

Oder andersrum: Eine (falls erforderliche) Nachbearbeitung am entrauschten Bild (OOC-JPG) führt zu deutlichen Quantisierungseffekten?

 

Letzteres habe ich oft beobachtet und bin deswegen auch bei RAW gelandet, den Zusammenhang mit dem Entrauschungsfilter (bzw. der "richtigen Bearbeitungsreihenfolge") habe ich dagegen so nicht wahrgenommen, bzw. übersehen (bzw. konnte ihn nicht sehen, da meine Sony Sensoren ja nicht rauschen :D).

 

Gruß Hans

Link zum Beitrag
Auf anderen Seiten teilen

Das kommt ganz darauf an, wie gut die Kamera selbst das kann und in welcher Reihenfolge sie das macht. Ich halte die Entwickler einer bestimmten Marke nicht für zu blöd dafür. Schauen wir doch mal ganz genau hin, was unter Feldbedingungen und NICHT unter Studio-Messbedingungen dann tatsächlich erreicht wird. Das empfehle ich immer wieder. Was wird mit welchem Nachteil erkauft? Einen Grundsatz sollte man sich gut merken: Die Physik verschenkt NICHTS!

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Nun frage ich mich ernsthaft, wie man mit einer Konsumerkamera in der Lage ist, eine Dynamik von 14 Blendenstufen zu erkennen und als Messergebnis zu veröffentlichen. Vielleicht kann es mir ja jemand auf verständliche Weise erklären.

Wie man eine fast beliebig hohe Dynamik in einem statischen Motiv messen kann, lässt sich tatsächlich leicht erklären. Man mache einfach mehrere Messungen mit unterschiedlichen Belichtungszeiten. Und wenn einem das noch nicht reicht, kann man gern auch noch dazu auf- und abblenden.

 

Den tatsächlichen Dynamikumfang eines Studio-Testaufbaus kann man also problemlos selbst mit einfachen Mitteln in Erfahrung bringen. Da lauern m.E. keine Gefahren. So kann man dann das tatsächliche Bild einer zu testenden Kamera mit dem 'Soll' vergleichen.

 

Schwieriger ist schon der Umgang mit dem Rauschen: bis zu welcher Schwelle gilt ein dunkler Wert noch als korrekt abgebildet? Da kocht sich jeder sein eigenes Süppchen, und deshalb kann man Angaben zum Dynamikumfang immer nur innerhalb desselben Testverfahrens vergleichen.

 

Liebe Grüße,

malamut

Link zum Beitrag
Auf anderen Seiten teilen

ist diese Aussage nicht eine Steilvorlage für eine RAW-Verarbeitung, erst die Farbbalance verarbeiten, dann Rauschen entfernen?

Das sollte für die RAW-Entwicklung selbst keine Rolle spielen. Normalerweise zeigt der Konverter die Effekte in der Vorschau, sie sind also reversibel, angewendet werden sie erst, wenn man auf das entsprechende Knöpfchen für "Öffnen" oder Speichern drückt.

Oder andersrum: Eine (falls erforderliche) Nachbearbeitung am entrauschten Bild (OOC-JPG) führt zu deutlichen Quantisierungseffekten?

Was sich bei der Nachbearbeitung zeigt, sind eher die Folgen einer Reduzierung von Informationen. Ein JPG kann recht gut für die Nachbearbeitung brauchbar sein, problematisch ist allerdings die JPG-Komprimierung in Verbindung mit einer starken Entrauschung. Wenig entrauschte, gering komprimierte JPGs sind allerdings nicht viel kleiner als das entsprechende RAW.

Letzteres habe ich oft beobachtet und bin deswegen auch bei RAW gelandet, den Zusammenhang mit dem Entrauschungsfilter (bzw. der "richtigen Bearbeitungsreihenfolge") habe ich dagegen so nicht wahrgenommen, bzw. übersehen (bzw. konnte ihn nicht sehen, da meine Sony Sensoren ja nicht rauschen :D).

Welche Bittiefe schaffen die Sonys? 12bit? DxO misst für die Nex 5n und Nex7 ca. 12 Blendenstufen Dynamikumfang. Da bleiben dann für die unterste Blendenstufe nur noch 2 Bit an Farbinformation übrig, also 8 Farben, bzw. Helligkeitsstufen. Da ist es völlig egal, ob man sagt, es rauscht oder es reißt ab, faktisch ist da keine fotografisch nutzbare Information mehr drin. Eine Blendenstufe höher sind's zwar schon 64 Farbstufen, trotzdem würde ich vermeiden, homogene, dunkle Flächen zu sehr aufzuhellen. Vor allem, wenn's nicht rauscht, siehe oben #45 Bild.

Link zum Beitrag
Auf anderen Seiten teilen

Da lauern eine ganze Menge Gefahren. Manche sind sogar ganz offensichtlich bei der Doku von DxO mit ihren Messaufbau zu sehen. Das zu beschreiben macht ein wenig Arbeit und ich habe ehrlich gesagt im Moment auch gar keine Lust mehr dazu, denen ihren Blödsinn zu beweisen. Man kann drauf kommen, wenn man das alles mal genau betrachtet und liest.

 

Zitat: "...und deshalb kann man Angaben zum Dynamikumfang immer nur innerhalb desselben Testverfahrens vergleichen."

 

Das ist eine sehr wichtige Aussage. Was passiert, wenn sich Hersteller auf dieses Messverfahren einschiessen ohne Rücksicht auf das bildmäßige Ergebnis? Nur mal so rein hypothetisch.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...