Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Was passiert, wenn sich Hersteller auf dieses Messverfahren einschiessen ohne Rücksicht auf das bildmäßige Ergebnis? Nur mal so rein hypothetisch.
Solange es nur um ein einziges spezielles Messverfahren geht, mache ich mir da wenig Sorgen - es gibt keinen weltmarktbeherrschenden Tester. Allgemein gesprochen beschert uns die Anpassung der Hersteller an Kamera-Benchmarks ganz real m.E. vor allem übertriebene Rauschunterdrückungen. Sehr ärgerlich, wenn nicht konfigurier- bzw. abstellbar, ansonsten aber nicht so wild, wie ich finde.

 

Liebe Grüße,

malamut

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 124
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Solange es nur um ein einziges spezielles Messverfahren geht, mache ich mir da wenig Sorgen - es gibt keinen weltmarktbeherrschenden Tester. Allgemein gesprochen beschert uns die Anpassung der Hersteller an Kamera-Benchmarks ganz real m.E. vor allem übertriebene Rauschunterdrückungen. Sehr ärgerlich, wenn nicht konfigurier- bzw. abstellbar, ansonsten aber nicht so wild, wie ich finde.

 

Liebe Grüße,

malamut

Naja, dieser DxO-Krempel wird ja auch von anderen Testern benutzt und weit verbreitet sind sie schon, genauso wie dpreview. Die haben schon eine gewisse Macht und ich fresse einen Besen wenn das nicht gezielt ausgenutzt wird. Die von Dir angesprochene übertriebene Rauschunterdrückung ist doch ein gutes Beispiel dafür. Frage doch mal rum im Bekanntenkreis, wie man sich da mit solchen Tests informiert oder informieren würde. Ich habe Dipl. Ing.-Kollegen, die bei solchen Tests ins schleudern kommen, und das will was heißen. Dann geht es sehr schnell zu den Testbildchen und an die Kurven ohne näheres nachforschen und schon sind die Spatzen gefangen. Wir sollten das nicht aus dem Blickwinkel eines penibel nachforschenden Testers eines Tests mit einem gewissen Durchblick in Optik und Elektronik betrachten. Bei belauschten Verkaufsgesprächen (ja, sowas mache ich manchmal aus Spaß an der Unterhaltung:D)hört man dann auch seitens der Kunden den Verweis auf den einen ader anderen Test und merkt sehr schnell, dass sie von dem Testgeschreibsel eigentlich nur "Bahnhof Koffer geklaut" verstanden haben. Und dann fängt die "Verkaufsberatung" an. Anschließend bekommt der "Berater" von einem anderen schon länger dort beschäftigten Kollegen den Tipp, sich mal "die CD mit dem Objektiv-Lehrgang in der Schublade da" anzusehen. Wenn ich das nicht selbst so mitbekommen hätte ... Echt toll, das mit den Tests!

Ich kenne aber auch andere, z. B. in einem Fotoladen nicht weit weg, die beraten wirklich und die Angestellten, die nicht alles gerade weiß, holt mal eben die Chefin, weil die darüber besser Bescheid weiß. Die Chefin sagte mir dann mal sinngemäß, "wenn die Kunden unbedingt abc haben wollen weil es in einem Test gut abgeschnitten hat, dann verkaufe ich denen das eben. Meine Leute haben xyz und sind damit besser zufrieden, die können ja hier leicht selbst alles vergleichen".

Nicht jeder steckt in der Materie so tief drin, dass beim Lesen solcher Tests nach kurzer Zeit schon der Himmel voller Fragezeichen ob der Ungereimtheiten hängt und versucht dann der Sache auf den Grund zu gehen.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Nicht jeder steckt in der Materie so tief drin, dass beim Lesen solcher Tests nach kurzer Zeit schon der Himmel voller Fragezeichen ob der Ungereimtheiten hängt und versucht dann der Sache auf den Grund zu gehen.

So tief muss man gar nicht in der Materie drinstecken und auch die Ungereimtheiten der Tests ist nicht das Problem, sondern die durchweg unkritische Haltung der Fotografen. Wenn mir ein Test zwei ganze Blendenstufen Dynamik mehr verspricht, dann sollte es doch möglich sein, bei einem Bild mit um zwei Blendenstufen abgesoffenen Schatten im RAW-Konverter einfach den Regler für die Belichtung um 2 EV nach oben zu ziehen, und alles müsste wunderbar sein. Dass das so nicht funktioniert, weiß allerdings jeder, der ein bißchen Erfahrung mit RAW/EBV hat. Trotzdem mokiert sich keiner darüber, man tut so, als wäre das gottgegeben und keine technische Umzulänglichkeit.

 

Der Grund für den Dynamikverlust ist zum einen, dass sich die Lichtmenge bei jeder Blendenstufe verdoppelt, bzw. halbiert, die Farb-, bzw. Tonwertinformation pro Blendenstufe jedoch im Quadrat zu- oder abnimmt, und zum anderen die begrenzte Full-Well-Capacity. Der größte Teil der Helligkeitsinformationen wird in den Lichtern einfach verschwendet. Die eleganteste Lösung wäre, das Bild einfach um ein oder zwei Stufen überzubelichten, um so die Informationsdichte in den unteren Bits, bzw, den Schatten dramatisch zu erhöhen. Das geht aber leider nicht, weil die Pixel in den hellen Bereichen dann überlaufen und die Lichter ausbrennen lassen.

 

Die Lichter sind (derzeit) der einzig feste Punkt an der ganzen Sache, egal, wie man Dynamikumfang definiert oder misst. Sie geben den Kontrastumfang vor, der später im Bild möglich ist. Sie sind auch der Grund, warum man die Belichtung nicht einfach linear rauf oder runter verändern kann, sondern die Tonwertkurven ziemlich kompliziert verbiegen muss, wenn man die Zeichnung in den Schatten erhöhen möchte. Arbeiten wir aber mit Kurven, dann verringern wir die Farbinformationen in den Schatten dramatisch. Jetzt wäre es natürlich schön, zu wissen, welche Reserven man tatsächlich bei einer Kamera noch in den dunklen Partien übrig hat, die lineare Messung des RAWs ist da wenig hilfreich, bzw. sogar irreführend. Leider kenne ich keinen Test, der so was jemals untersucht hätte. Das Heikle an der Angelegenheit ist, dass ein Dynamikumfang aufgrund der Gradationskuven proportional umso weniger zusätzliche Informationen ins Bild bringt, je höher er ist. Im Prinzip ist das so, als würde man einen 500PS Motor in einen Rasenmäher einbauen.

Link zum Beitrag
Auf anderen Seiten teilen

So tief muss man gar nicht in der Materie drinstecken (....)

Jetzt steckst Du aber schon ganz schön tief drin.;)

Blendenstufen, Dynamik, RAW-Konverter, EV, Tonwert-information/-kurve, Full-Well-Capacity, Kontrastumfang, Gradationskuven .... :confused: frage mal den einen oder anderen potentiellen Kunden im xyz-Markt danach, ob er mit diesen Ausdrücken was anfangen kann. Der Zusammenhang von Empfindlichkeit, Zeit und Blende ist ja in vielen Fällen schon zu kompliziert. Die Worte Megapixel und ISO sind allerdings bestens bekannt. Sorry, wenn das jetzt dem einen oder anderen hier im Forum etwas merkwürdig vorkommt, aber genau das ist es, was man bei den "Verkaufsberatungen" erlebt. Davor schützt auch manchmal die jahrelange "Erfahrung" mit Analog-SLRs nicht. DAS sind dann die dankbaren "Opfer" der knackigen Werbesprüche, deren teilweise haarsträubender Inhalt von einem Verkäufer aus eigenem (legitimen) Interesse unwidersprochen bleibt. Nicht jeder Interessent treibt sich in Foren rum, und vielen hilft das auch nicht weiter. Besser wäre ein gutes Lehrbuch über Fotografie allgemein und danach eines über die Digitalfotografie speziell.

Link zum Beitrag
Auf anderen Seiten teilen

Blendenstufen, Dynamik, RAW-Konverter, EV, Tonwert-information/-kurve, Full-Well-Capacity, Kontrastumfang, Gradationskuven .... :confused: frage mal den einen oder anderen potentiellen Kunden im xyz-Markt danach, ob er mit diesen Ausdrücken was anfangen kann.

Hallo

 

Die Frage ist, ob ein Fotograf das wirklich nutzbringend in Bilder umsetzen kann. Gerade unter Fotografen sind solche technischen Diskussionen suspekt. Schon zu Analogzeiten gab es Fotografen, die selbst beim einfachen Film einlegen mit der Technik kämpften und umgekehrt, gerade die Technikfreaks sind oft miserable Fotografen.

 

Auch dem RAW kann man nicht alles entnehmen, denn was wir da als RAW betrachten, ist ja schon ein Tif und war x Bearbeitungsschritten unterworfen. Ich weiss auch nicht, ob wir mit einem 1:1 Abbild des Sensors etwas anfangen könnten und ob es solche RAW-Nichtkonverter überhaupt gibt.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo

 

Die Frage ist, ob ein Fotograf das wirklich nutzbringend in Bilder umsetzen kann. Gerade unter Fotografen sind solche technischen Diskussionen suspekt. Schon zu Analogzeiten gab es Fotografen, die selbst beim einfachen Film einlegen mit der Technik kämpften und umgekehrt, gerade die Technikfreaks sind oft miserable Fotografen.

(...)

Diesen Einwand verstehe ich sehr gut. Das ist aber eine zweite Baustelle. Ich bin überzeugt davon, dass es eine ganze Menge Leute gibt, die mit Null-Technikwissen ganz hervorragende Bilder erzeugen. Verallgemeinern würde ich das trotzdem nicht wollen, auch die Sache mit den Technikfreaks nicht.;) Die heutigen Fotokasteln sind wahrscheinlich rein technisch für 95% aller Nutzer hoffnungslos oversized.

Mir geht es ja um Tests und deren Ergebniserzeugung und -vermittlung. Wenn ich dann mitbekomme, dass selbst Ingenieure mit den Tests Verständnisprobleme haben, dann frage ich mich schon was dieser Quark soll, der da verzapft wird. Tests muss man schon technisch sehen, es ist ja schließlich Technik und es sind rein technische Eigenschaften, die da "getestet" werden. Was dann der Benutzer davon wirklich braucht und daraus macht ist wie gesagt eine andere Baustelle.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die heutigen Fotokasteln sind wahrscheinlich rein technisch für 95% aller Nutzer hoffnungslos oversized.

Das mag sein. Aber die Hersteller werben dann eben damit, dass die Kameras eine "intelligente" Automatik besäßen. Wie weit es mit der Intelligenz wirklich geht, zeigen dann die extrem verrauschten und verwackelte Fotos aus der Disko bei Muschebubu-Beleuchtung im Disko-Modus. ;)

 

Ein paar einfache Grundlagen zur Fotografie sollte sich jeder aneignen und nicht auf intelligente Kameras hoffen.

 

Gibt's denn nun einen RAW-Konverter der ein 1:1 Abbild des Chips liefert? Nicht das ich das wirklich bräuchte, aber ich bin eben neugierig. :)

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Gibt's denn nun einen RAW-Konverter der ein 1:1 Abbild des Chips liefert? Nicht das ich das wirklich bräuchte, aber ich bin eben neugierig. :)

Ich kenne keinen.;) Die digitalen Daten pro Farbkanal müssen so oder so erst aus den Subpixeln bzw. der Bayer-Matrix per Demosaicing erzeugt werden. Das wäre dann schon der erste Schritt, welcher je nach Algorithmus verschiedene Ergebnisse bringt. Die Schritte vorher sind letztlich Geheimnis des Herstellers und deshalb ist es ja auch so schwer, aus dem was da als Daten zur Verfügung steht, auf das "wahre" Bild zu schließen. Was dann nach noch folgenden Schritten als "RAW", interpretiert durch den RAW-Konverter, auf dem Monitor dargestellt wird ist längst nicht mehr roh. Auch ein fertiges Negativ aus alten Zeiten konnte das nicht besser, denn sein sichtbares Ergebnis war schon die Folge von Verabeitungsschritten, die alle einen Einfluß auf das Ergebnis haben. Der darauf folgende Prozess des "aufs Papier bringen" hatte dann ebenfalls wieder spezielle Einwirkungen auf die Darstellung. Im Prinzip hat sich also nichts geändert, nur die Werkzeuge sind andere und solange man nur den Bildschirm zur Betrachtung verwendet bleiben die Hände sauber.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Das RAW-Potential einer Kamera grundsätzlich zu ermitteln, stösst auf Schwierigkeiten. Solange die Helligkeitsverteilung im Motiv gleichmäßig ist, kann man den Dynamikumfang schön in einem Diagramm abbilden. Bei problematischen Motiven, z.B. sehr dunklen, kann das Setzen des Schwarzpunktes unter Umständen mehrere Blendenstufen "abschneiden", bei gleichzeitig niedrigem Kontrast kann man aber auch nicht mehr wirklich von Dynamikumfang sprechen.

 

Anhang: Beispielbild: Von oben nach unten:

 

1) Im JPGooc werden die Schatten einfach gekappt;

2) ACR macht mit Defaulteinstellungen wenig anders und eigentlich nichts besser.

3) Entwicklung mit einem anderen RAW Konverter. Mehr Zeichnung, aber extrem verrauscht.

4) Stark aufgehellte Version: Die Zeichnung in den Schatten ist zwar da, wird aber durch Streulicht, Überstrahlungen und Banding/Pattern Noise gestört. Es ist nicht viel Substanz vorhanden, um den Tonwertumfang zu bearbeiten, bzw, zu verbessern.

5) Kompromissentwicklung.

 

Das Farb- oder Luminanzrauschen ist hier nicht wirklich das Problem, sondern zu wenig Licht. Ein größerer Sensor würde hier gar nichts bis wenig, eine höhere ISO-Einstellung nichts besser machen.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Drei 100% Crops: JPooc - RAW - RAW/EBV/verbessert (von links nach rechts, bzw von oben nach unten).

 

Das Verhältnis von Nutzsignal zu Rauschen ist in den hellen Partien gar nicht mal so schlecht, in den dunklen dagegen einfach nur noch grauenhaft. Jedes der Bilder gibt die RAW-Datei korrekt wieder, es gibt hier kein "Richtig" oder "Falsch". Es sei denn, man macht eine Zielvorgabe, wie das Bild in Punkto Ästhetik auszusehen hat. Dann verlässt man allerdings die wissenschaftliche Grundlage sämtlicher Sensormessungen.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Nolite

 

Vorlagen die beim Licht von Natriumdampflampen (wie hier) gemacht wurden, sind m.E. nicht gut für solche Vergleiche geeignet. Sind es Niederdrucklampen, strahlen sie nur die gelbe Natriumlinie ab, Hochdrucklampen (Gewächshausleuchten) noch etwas Rot und sehr wenig Blau. Es ist ein diskontinuierliches Licht, dem keine bestimmte Farbtemperatur zuzuordnen ist.

 

Auf dem Chip werden also nur rote und grüne Zellen Licht aufnehmen, für die blauen ist die Lichtstärke gleich null. Der Blaukanal ist also unbelichtet. Um trotzdem ein farbrichtiges Bild zu erzeugen, regelt die Kamera den Blaukanal in der Verstärkung hoch. Das klappt zwar nicht, aber das Rauschen der unbelichteten blauen Pixel wird extrem verstärkt.

 

Messungen sind nur bei einem kontinuierlichen Spektrum mit definierter und im Regelbereich der Kamera liegender Farbtemperatur sinnvoll.

Link zum Beitrag
Auf anderen Seiten teilen

@Diethard

Ich bin nicht sicher ob das so stimmt. Bei festgesetztem WB regelt die Kamera nichts, sondern nimmt das was kommt so wie es ist. Wenn Blau fehlt, dann ist es auf Blau eben dunkel. Bei einem abendlichen romatischen Sonnenuntergang hätten wir ja sonst auch ein "Blau-Problem".

Ein farbrichtiges Bild zu erzeugen kann sie nur bei WB-Auto versuchen. Außerdem muss das selbstständige Regeln der Kanäle eine Grenze haben, bzw. gibt es das nicht, denn sonst wären weitgehend monochrome Farbaufnahmen nicht möglich. Wo ist das Blau bei einer knallroten Rose und dunklem Hintrgrund? Das funktioniert aber.

Link zum Beitrag
Auf anderen Seiten teilen

Hallöchen Diethard, da bin ich aber ganz anderer Ansicht: Messungen sind überall dort sinnvoll, wo eine Kamera eingesetzt wird. Was habe ich davon, wenn Kamera x oder y unter standardisierten Testbedingungen ein gewisses Resultat erzielt, das aber draußen im Einsatz nicht bestätigen kann. Folglich finde ich Nolites Vergleich wesentlich aussagekräftiger als irgendeine Studio-Messung.

 

By thje way: Das JPEG mit den abgesoffenen Schatten gefällt mir persönlich immer noch am besten.

Link zum Beitrag
Auf anderen Seiten teilen

Wo ist das Blau bei einer knallroten Rose und dunklem Hintrgrund? Das funktioniert aber.

Körperfarben sind nie spektralrein, die gelbe Linie einer Natriumdampflampe schon. Auch bei roter Bühnenbeleuchtung ist ja das Rauschen extrem und die Schärfe unter aller Kanone. Logisch, wenn man nur 1/4 aller Pixel belichtet.

 

Auf jeden Fall fände ich es aber vernünftig, von definierten Aufnahmebedingungen auszugehen, wenn man vergleichbare Ergebnisse erzielen will. Schließlich soll ein Graukeil auch grau sein und nicht gelb. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Vorlagen die beim Licht von Natriumdampflampen (wie hier) gemacht wurden, sind m.E. nicht gut für solche Vergleiche geeignet.

Die Probleme sind mir bekannt. Als Pessimist bin ich davon ausgegangen, dass die Stadtverwaltung meinen Wunsch nach Auswechseln der Leuchtmittel wahrscheinlich abschlägig beschieden hätte, darum habe ich das gar nicht erst versucht. Es ist nicht ganz einfach, für Available-Light-Aufnahmen eine Lichtquelle zu finden, die 100% testtauglich ist. Der Threadtitel heißt ja "Tests und ihre Zuverlässigkeit". Was nützt mir ein Testergebnis, wenn ich in der Praxis so gut wie nie eine Situation finde, die den Bedingungen in den Tests entspricht?

Auf dem Chip werden also nur rote und grüne Zellen Licht aufnehmen, für die blauen ist die Lichtstärke gleich null. Der Blaukanal ist also unbelichtet. Um trotzdem ein farbrichtiges Bild zu erzeugen, regelt die Kamera den Blaukanal in der Verstärkung hoch. Das klappt zwar nicht, aber das Rauschen der unbelichteten blauen Pixel wird extrem verstärkt.

@Diethard

Ich bin nicht sicher ob das so stimmt. Bei festgesetztem WB regelt die Kamera nichts, sondern nimmt das was kommt so wie es ist. Wenn Blau fehlt, dann ist es auf Blau eben dunkel.

Probieren wir das einfach aus. Erneute RAW-Entwicklung, WB auf 2000K, Schwarz=0, Schatten per Punkt- und parametrischer Kurve stark aufgehellt, ansonsten alle Settings auf "Standard".

Von links nach rechts, bzw. von oben nach unten: RGB - roter Kanal - grüner Kanal - blauer Kanal

Blau rauscht in den dunklen Partien am wenigsten. Was ist passiert?

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Probieren wir das einfach aus. Erneute RAW-Entwicklung, WB auf 2000K, Schwarz=0, Schatten per Punkt- und parametrischer Kurve stark aufgehellt, ansonsten alle Settings auf "Standard".

Von links nach rechts, bzw. von oben nach unten: RGB - roter Kanal - grüner Kanal - blauer Kanal

Blau rauscht in den dunklen Partien am wenigsten. Was ist passiert?

:D Kein Blau da, außer an der Stelle, wo die Handlampe Blau enthällt, und da ist es sehr hell bzw. ausgefressen. Bei den Rot- und Grün-Auszügen ist die Handlampe dunkler. Was sagt uns das? Die Handlampe hat einen hohen Blauanteil (sieht man auch auf dem Farbbild). War das eine Weißlicht-LED-Taschenlampe?

Link zum Beitrag
Auf anderen Seiten teilen

Blau rauscht in den dunklen Partien am wenigsten. Was ist passiert?

Tja, das weiß ich auch nicht. Was uns da als RAW-Bild vorliegt ist ja bereits x-fach verarbeitet, sonst lägen ja rote, grüne und blaue Pixel wie beim Sensor in regelmäßigem Muster nebeneinander. Ich nehme mal an, der Blauauszug ist aus dem Rot-und Grünauszug errechnet, weil blau völlig leer war? Keine Ahnung.

 

Ulkig, dass der Mann auf dem Blauauszug fast unsichtbar ist. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Die Probleme sind mir bekannt. Als Pessimist bin ich davon ausgegangen, dass die Stadtverwaltung meinen Wunsch nach Auswechseln der Leuchtmittel wahrscheinlich abschlägig beschieden hätte, darum habe ich das gar nicht erst versucht. Es ist nicht ganz einfach, für Available-Light-Aufnahmen eine Lichtquelle zu finden, die 100% testtauglich ist.

 

Mhm. Ich hoffe, das Du mit Deiner Entscheidung bei der nächsten Wahl, diese unfähigen Banausen abstrafen kannst. ;)

 

Dpreview verwendet Leuchtstofflampen mit einem CRI-Wert von 98%. Das entspricht in etwa einer Osram 960. Aber Osram stellt auch noch bessere her, für die Arbeit in Färbereien oder Farbdruckbetrieben. 960 meint, CRI>90%, Farbtemperatur 6000K. Energiesparlampen, z.B. mit 830 mit etwa 3000K, sind nicht so gut. Es ist schwer, damit neutrale Farbwiedergabe zu erreichen. Die 8 in 830 zeigt einen CRI-Wert von nur noch >80% an. Das Linienspektrum vom Quecksilberdampf und die nur drei verschiedenen Leuchtstoffe schlagen da noch deutlich durch. In 9xxer LSR werden mindesten 5 verschiedene Leuchtstoffen verarbeitet.

 

Übrigens, LSR zu dimmen, ist hinsichtlich Farbkonstanz keine gute Idee, lieber einen Teil der LSR mechanisch abdecken.

 

Ob sich dieser Aufwand für einen Fotoamateur überhaupt lohnt, ist eine andere Frage. Falls pure Fototechnik ein Hobby ist vielleicht, aber bessere Bilder bekommt man davon nicht. Ich kann schon verstehen, das man neugierig ist,was einem da so von der Industrie untergejubelt wird und dümmer wird man nicht davon.

 

Was der Bayeralgorithmus so für Mätzchen macht, wenn es um Farben und Bildschärfe geht, kann man HIER ganz deutlich sehen. Ob es auch das Rauschen betrifft, weiß ich nicht.

 

* CRI = Farbwiedergabeindex.

bearbeitet von Diethard
Link zum Beitrag
Auf anderen Seiten teilen

Hallöchen Diethard, da bin ich aber ganz anderer Ansicht: Messungen sind überall dort sinnvoll, wo eine Kamera eingesetzt wird.

Ohne festgelegte Einstellungsbedingungen kann man aber nix "messen". Nur individuell ungefähr abschätzen. Zumal, wenn die Kamera mit Natriumdampflicht vergewaltigt wird.

Link zum Beitrag
Auf anderen Seiten teilen

War das eine Weißlicht-LED-Taschenlampe?

Ein Kamera-Display. :)

Dpreview verwendet Leuchtstofflampen mit einem CRI-Wert von 98%...

Aber auch Dpreview kann bei Nachtaufnahmen das Vorhandensein testuntauglicher Lichtquellen nicht immer vermeiden. Die Frage ist doch: Passt man die Testergebnisse der fotografischen Praxis an (zu denen nun auch mal Bilder bei Kunstlicht gehören) oder blendet man die völlig aus, damit die Laborergebnisse nicht gestört werden?

Was der Bayeralgorithmus so für Mätzchen macht, wenn es um Farben und Bildschärfe geht, kann man HIER ganz deutlich sehen. Ob es auch das Rauschen betrifft, weiß ich nicht.

Bayer ist hier aber nicht das Problem, sondern die Farbtemperatur an sich. Das ist ja nichts Neues, sondern war auch bei Film schon so. Du hast ja behauptet, das Rauschen der blauen Pixel würde durch das Natriumlicht extrem verstärkt werden. Nun, offensichtlich ist das ja nicht der Fall, selbst wenn man den Blaukanal per WB verstärkt und stark aufhellt (wenn er ganz dunkel ist, rauscht er ja eh nicht). Warum weiß ich auch nicht, denn darum ging es mir eigentlich gar nicht, sondern eher um Rauschen&Kontrastumfang/DR.

 

Ich habe jetzt mal den blauen Kanal extrem aufgehellt, und überraschenderweise ist er um die hellen Partien im Bild herum deutlich dunkler als in den praktisch unbelichteten.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Du hast ja behauptet, das Rauschen der blauen Pixel würde durch das Natriumlicht extrem verstärkt werden.

Das Rauschen hat mit der Belichtung eigentlich nur indirekt zu tun. Das Grundrauschen ist eine Sensoreigenschaft+Rauschen der Kameraelektronik. Ist die Belichtung schwach und damit die Belichtungszeit entsprechend lang bekommt man halt das summierte Rauschen über die Zeit. Je geringer die Lichtmenge umso höher der Sensorrauschanteil. Bei genügend Licht schneidet die Kamera diesen Rauschanteil einfach ab.

 

Ich habe jetzt mal den blauen Kanal extrem aufgehellt, und überraschenderweise ist er um die hellen Partien im Bild herum deutlich dunkler als in den praktisch unbelichteten.

 

Das dürfte nix mit dem Bildchip zu tun haben, es ist eher eine Folge der Verarbeitung. (Kameraelektronik + Converterprogramm)

bearbeitet von Diethard
Link zum Beitrag
Auf anderen Seiten teilen

Ein Kamera-Display. :)

(...)

Ich habe jetzt mal den blauen Kanal extrem aufgehellt, und überraschenderweise ist er um die hellen Partien im Bild herum deutlich dunkler als in den praktisch unbelichteten.

OK, das Display hat natürlich auch einen gehörigen Blauanteil, wenn Blau im Display-Bild ist.

 

Diese komische "Umkehrung" kann ich mir nicht erklären, weder mit dem Sensor noch mit der Kameraelektronik noch mit der Bearbeitung. Das habe ich auch so noch nie gesehen.:confused:

Link zum Beitrag
Auf anderen Seiten teilen

Das Rauschen hat mit der Belichtung eigentlich nur indirekt zu tun. Das Grundrauschen ist eine Sensoreigenschaft+Rauschen der Kameraelektronik. Ist die Belichtung schwach und damit die Belichtungszeit entsprechend lang bekommt man halt das summierte Rauschen über die Zeit. Je geringer die Lichtmenge umso höher der Sensorrauschanteil. Bei genügend Licht schneidet die Kamera diesen Rauschanteil einfach ab.

Gestern sagtest Du, dass der fehlende Blauanteil im Licht zu einer Unterbelichtung des blauen Kanals und damit zu mehr Rauschen führt. Jetzt führt der höhere Anteil von rötlichem Licht plötzlich zu weniger Rauschen. Mindestens eine dieser Erklärungen muss falsch sein.

Das dürfte nix mit dem Bildchip zu tun haben, es ist eher eine Folge der Verarbeitung. (Kameraelektronik + Converterprogramm)

Dass es mit dem Sensorchip zu tun hat, hat ja auch niemand behauptet.

Diese komische "Umkehrung" kann ich mir nicht erklären, weder mit dem Sensor noch mit der Kameraelektronik noch mit der Bearbeitung. Das habe ich auch so noch nie gesehen.:confused:

Nach einigem Nachdenken hätte ich eine Erklärung. Die Farbkanäle rot - grün - blau sind ja nicht das direkte Ergebnis der Belichtung der roten, grünen und blauen Pixel, sondern des Weißabgleichs. Damit Gelb heller werden kann, muss Blau dunkler werden. Das kann dann zu dem absurd erscheinenden Ergebnis führen, dass helle rot-gelbe Partien den blauen Kanal stärker abdunkeln, als dessen Grundrauschen. Weiß jemand eine bessere Erklärung?

Falls dem so ist, dann wäre das, was wir als Sensorrauschen bezeichnen, also das im RGB-Bild sichtbare Rauschen, nicht das Rauschen des Sensors selbst, sondern eine Folge der Kanalverrechnung.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...