Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich wüsste nicht, wo Du das gelesen haben willst?

Hier:

Das Rauschen hat mit der Belichtung eigentlich nur indirekt zu tun. Das Grundrauschen ist eine Sensoreigenschaft+Rauschen der Kameraelektronik. Ist die Belichtung schwach und damit die Belichtungszeit entsprechend lang bekommt man halt das summierte Rauschen über die Zeit. Je geringer die Lichtmenge umso höher der Sensorrauschanteil. Bei genügend Licht schneidet die Kamera diesen Rauschanteil einfach ab.

Da wir uns einig sind, dass Natriumdampflampen praktisch kein blaues Licht abstrahlen, aber da die Lichterpartien im Bild trotzdem reichlich belichtet bis überbelichtet sind, müsste Deiner Theorie zu Folge die Kamera hier ja irgendeinen Rauschanteil abgeschnitten haben. Mir ist nicht klar, wie die Kamera einen Rauschanteil abschneiden sollte? ich nehme an, das war irgendwie unglücklich ausgedrückt, oder ich habe es unglücklich verstanden, und wir meinen beide dasselbe. Das Rauschen von Sensor und Elektronik ist ja immer da und weitgehend konstant, es wird nur je nach Verstärkung mehr oder weniger deutlich sichtbar. Würde die Kamera da was abschneiden, wäre das so was wie eine selektive Entrauschung. Es sei denn, Du meintest, dass durch eine unterschiedliche Aussteuerung der Kanäle eine Subtraktion stattfinden kann, die auf einen anderen Kanal entrauschend wirkt. Dann sind wir uns auch einig. Aber das hat ja weder mit dem RAW noch mit dem Sensor zu tun.

Ich nehme an, Du meintest in #61 auch nicht wirklich, dass tatsächlich die blauen Pixel auf dem Sensor als blauer Kanal durch die Kamera verstärkt werden, sondern dass beim Weißabgleich die Kanäle unterschiedlich ausgesteuert werden. Letzteres hat ebenfalls weder mit dem Sensor noch mit dem RAW zu tun.

Ich bin vielleicht etwas zu spitzfindig, aber die Hardware-Ebene wird eben oft mit der Software-Ebene durcheinandergeworfen. Ich reite deswegen darauf herum, weil ich mir ziemlich sicher bin, dass viele im Forum überhaupt nicht wissen, was ein RAW-Test eigentlich aussagen kann und was nicht. Wenn wir einen Test nicht nur als Egobalsam oder Joker im Kameraquartett im Forum nutzen wollen, dann sollte man sich schon irgendwie Gedanken machen, inwieweit er auf konkrete Situationen in der Praxis aussagekräftig ist. Deswegen auch mein Bildbeispiel mit dem Staßenlicht. Zu wissen, dass Sensor XY bei ISO 3200 soundsoviele Blendenstufen Dynamik hat, bringt bei solchen Motiven (und in der Praxis in der Regel) gar nichts. Das völlig testuntaugliche Natriumlicht kann destruktiv wirken, aber unter Umständen - und erstaunlicherweise - auch mal konstruktiv.

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 124
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Das Rauschen hat mit der Belichtung eigentlich nur indirekt zu tun. Das Grundrauschen ist eine Sensoreigenschaft+Rauschen der Kameraelektronik. Ist die Belichtung schwach und damit die Belichtungszeit entsprechend lang bekommt man halt das summierte Rauschen über die Zeit. Je geringer die Lichtmenge umso höher der Sensorrauschanteil. Bei genügend Licht schneidet die Kamera diesen Rauschanteil einfach ab.

 

Das dürfte nix mit dem Bildchip zu tun haben, es ist eher eine Folge der Verarbeitung. (Kameraelektronik + Converterprogramm)

 

Die Kamera ändert doch nicht abhängig von der Belichtung bei den einzelnen Farben für jede universell und selbstständig die Kurven bei jedem Bild neu. Wenn unten das Rauschen weggeschnitten wird (beim Schwarzwert größer als 0), dann ist der Rauschpegel bei allen weg. Bei Blau wäre es dann schlicht schwarz, weil über dem Rauschen keine Information mehr vorhanden ist. Dann fehlt dem Bild das Blau, mehr passiert nicht. Nur wenn der eine Kanal (wie hier gemacht) für sich alleine bei der Entwicklung händisch hochgezogen wird, dann wird das Rauschen sichtbar. Das ist bei einer normalen Entwicklung doch nicht der Fall. Wenn insgesamt die Schatten hochgezogen werden, dann rauscht es überall mehr und da, wo der Bildinhalt das Rauschen überdeckt sieht man es weniger. Vorhanden ist es im Gesamtbild als Anteil trotzdem, nur eben im Verhältnis zum Nutzsignal getarnt, und wenn der Abstand zum Nutzsignal groß genug ist (SNR), dann auch unsichtbar.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo

 

Ich glaube da könnten wir noch ewig diskutieren und uns doch nicht einigen. Ich bin ja z.B. davon ausgegangen, das AWB eingeschaltet war. Dann versucht die Kamera eben einen Ausgleich herbei zu führen. Da im Licht kein Blau vorhanden ist, wird sie den Blaukanal hochziehen, also mehr zu verstärken, um eine neutrale Farbgebung zu erreichen. Folge: Es rauscht im Blau mehr.

 

Bei sehr lichtschwachen Motiven sind die untersten Bit ohnehin nur mit Rauschen gefüllt. Also wird der Konverter auf Kosten der Gesamtdynamik die untersten Bit verwerfen. Der DXO-Konverter macht das jedenfalls bei Einstellung auf High-Iso so.

 

Solange man nicht das Originalabbild des Chips darstellen kann, ist ohnehin jede Diskussion was nun vom Chip kommt, was von der Verstärkerelektronik, der Digitalisierung, dem Converter usw usw müßig, zumal nicht gemessen, sondern nur per Augenschein begutachtet wird. Da kann man alles mögliche hinein interpretieren.

 

Um noch mal auf die normierte Lichtfarbe bei Tests zurück zu kommen. Einen Kachelofen wird man auch nicht im Schneesturm in der Antarktis oder am Mittag am Aequator testen oder unter Wasser. Natürlich kommt dabei immer was raus, aber womit will man das vergleichen?

 

Für mich als praktisch fotografierenden reicht eigentlich der Augenschein bei ein paar Testaufnahmen aus um zu erkennen, ob das Gesamtpaket für meine Zwecke ausreichend ist oder eben auch nicht.

 

Ich klinke mich jetzt mal aus der Diskussion aus, viel Spaß noch und viele neue Erkenntnisse.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo

 

Ich glaube da könnten wir noch ewig diskutieren und uns doch nicht einigen. Ich bin ja z.B. davon ausgegangen, das AWB eingeschaltet war. Dann versucht die Kamera eben einen Ausgleich herbei zu führen.(...)

 

Unter DIESEN Umständen ja. Mit ein wenig Sachkenntnis sollte der Fotograf aber in solchen Fällen AWB NICHT anwenden. Das funktioniert nur bei einigermaßen kontinuierlichen Spektren. Sowas sollte man eigentlich gaaanz oben anpinnen.

 

Btw., warum nicht weiter diskutieren? Mir gefällt diese sachliche Diskussion mit Dir hier sehr gut.:) Sachverhalte sollten geklärt werden und dazu gehören Fragen, Antworten und Meinungen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich bin ja z.B. davon ausgegangen, das AWB eingeschaltet war.

Der automatische WB spielt für das RAW eh keine Rolle.

Dann versucht die Kamera eben einen Ausgleich herbei zu führen. Da im Licht kein Blau vorhanden ist, wird sie den Blaukanal hochziehen, also mehr zu verstärken, um eine neutrale Farbgebung zu erreichen. Folge: Es rauscht im Blau mehr.

So denkt man sich das in Theorie. Leider geht der WB der Kamera nur bis minimal 2500K. Danach zieht auch die Kamera nichts mehr hoch, egal ob AWB oder MWB. Selbst ACR macht bei 2000K Schluss. Das reicht bei weitem nicht aus, um den Rotstich zu kompensieren.

Bei sehr lichtschwachen Motiven sind die untersten Bit ohnehin nur mit Rauschen gefüllt. Also wird der Konverter auf Kosten der Gesamtdynamik die untersten Bit verwerfen. Der DXO-Konverter macht das jedenfalls bei Einstellung auf High-Iso so.

Das steht so bereits in Beitrag #59. Da aber dann die untersten Bit explizit nicht verworfen wurden - das war ja der Witz der Sache - tut das hier nichts zur Sache.

Solange man nicht das Originalabbild des Chips darstellen kann, ist ohnehin jede Diskussion was nun vom Chip kommt, was von der Verstärkerelektronik, der Digitalisierung, dem Converter usw usw müßig...

Abgesehen davon, dass hier niemanden außer Dir "das Originalabbild des Chips" interessiert, leistet das nicht mal DxO. Die analysieren auch nur das RAW und schließen davon auf den "Sensor" zurück. Wie sinnvoll das ist, dazu könnte Wolfgang mehr sagen. Falls er seine Blutdrucktabletten zur Hand hat.

Aber was ist das Originalbild? Das reelle Bild, das die Optik auf den Sensor projiziert? Das elektronische Potential in den Sensorzellen vor der Digitalisierung? Die Daten in Form eines Binärcodes in einer Datei? Die Entschlüsselung dieser Daten in irgendeiner Form? Wo liegen die Prioritäten? Auf der Erforschung dessen, was elektronisch in der Kamera passiert oder auf der Wiedergabe des Motivs? Die Transformation des Bildes in digitale Form war ursprünglich mal Mittel zum Zweck. Mittlerweile scheint es zum Instrument der Wahrheitsfindung mutiert zu sein: Glaube nicht deinen Augen, sie können dich täuschen, vertraue der Macht... Woher kenne ich das? Übrigens fällt das Beispielbild unter Punkt 3) in Beitrag #34 - forensische Analyse. Vielleicht hätte ich das dazuschreiben sollen.

zumal nicht gemessen, sondern nur per Augenschein begutachtet wird. Da kann man alles mögliche hinein interpretieren.

Für mich als praktisch fotografierenden reicht eigentlich der Augenschein bei ein paar Testaufnahmen aus um zu erkennen, ob das Gesamtpaket für meine Zwecke ausreichend ist oder eben auch nicht.

Für Dich selber reicht reicht also der Augenschein aus, in den man alles hineininterpretieren kann, aber einem Real-Life-Kunstlichtbeispiel sprichst Du jede Relevanz ab?

Das ist so die typische Einstellung, Im Grunde genommen die Tests (und ihre Methodik) für sich selber für weitgehend irrelevant zu halten, was einen aber nicht hindert, sie bei Bedarf als Keule in einer Diskussion zu verwenden, wenn es einem in den Kram passt.

Um noch mal auf die normierte Lichtfarbe bei Tests zurück zu kommen. Einen Kachelofen wird man auch nicht im Schneesturm in der Antarktis oder am Mittag am Aequator testen oder unter Wasser. Natürlich kommt dabei immer was raus, aber womit will man das vergleichen?

Ganz einfach: In der Arktis braucht man einen Ofen, und er sollte gut funktionieren. Kaufe ich mir da einen Ofen, dann ist für mich eher die maximale Heizleistung von Interesse, wie er bei durchschnittlichen Raumtemperaturen abgeschnitten hat oder am Äquator, interessiert mich weniger.

Oder, um das Bild zu wechseln: Für einen Studiofotografen ist der gemessene Dynamikumfang und das Rauschverhalten Pixel:Pixel uninteressant, wichtig ist die Tonwertabstufung und die Farbwiedergabe. Beides spielt für den Sportreporter wiederum keine Rolle. Der Fotoamateur hingegen möchte möglichst viel von allem, auch wenn das im Endeffekt dann nichts anderes als eine durchschnittliche Kamera ergibt, die alles einigermaßen kann, aber nichts wirklich gut. Das ist der Trend der letzten zehn Jahre. Und führt dann dazu, dass in den Foren schreckliche Glaubenskriege stattfinden, welche der durchschnittlichen Kameras am wenigsten durchschnittlich ist.

Link zum Beitrag
Auf anderen Seiten teilen

Oder, um das Bild zu wechseln: Für einen Studiofotografen ist der gemessene Dynamikumfang und das Rauschverhalten Pixel:Pixel uninteressant, wichtig ist die Tonwertabstufung und die Farbwiedergabe. Beides spielt für den Sportreporter wiederum keine Rolle. Der Fotoamateur hingegen möchte möglichst viel von allem, auch wenn das im Endeffekt dann nichts anderes als eine durchschnittliche Kamera ergibt, die alles einigermaßen kann, aber nichts wirklich gut. Das ist der Trend der letzten zehn Jahre. Und führt dann dazu, dass in den Foren schreckliche Glaubenskriege stattfinden, welche der durchschnittlichen Kameras am wenigsten durchschnittlich ist.

Sehr gut gesagt!

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

@ Nolite

 

Ich letztmalig. Du baust aus einer RAW-Aufnahme ein ganzes Gedankengebäude auf, das Du solange hinbiegst bis es Dir und Deinen Theorien wahrscheinlich erscheint.

 

Ich bin da bescheidener, mir genügt das, was ich nutzbringend für meine Fotopraxis sehen und anwenden kann. Und das sieht man tatsächlich schon nach ein paar Probeaufnahmen. Ich muß auch nicht recht behalten.

 

Wie kommst Du übrigens darauf das der RAW-Konverter die Auto-WB nicht beachtet? Solange Du das Häkchen bei "Wie Kamera" nicht löschst, macht er das sehr wohl, auch wenn es sinnlos ist. Die manuelle WB geht übrigens noch weit darüber hinaus. Mit 'ner Expodisc gelingt es sogar bei Infrarotaufnahmen(!) bei vielen Kameras (Nur Dunkelrot und Infrarot!) alle 3 Farbkanäle mit Informationen zu füllen. Auch wenn das keinem def. Kelvinwert entspricht.

 

Das war's jetzt aber wirklich abschließend für mich.

 

Viel Spaß noch .....

Link zum Beitrag
Auf anderen Seiten teilen

Wie flutscht das denn durch das Bayer-Filter-Array bei Grün und Blau?

Die Filter auf dem Chip sind ja nicht streng monochromatisch. Soviel ich gehört habe, sind das eingefärbte Lacke, die im nahen Infrarot teilweise wieder durchlässig werden. Deshalb ist ja noch ein IR-Sperrfilter vor dem Chip. Ohne manuellen Weißabgleich nur mit ABW sind die Infrarotbilder einfarbig dunkelrot. Aber mit manuellem Weißabgleich auf eine sonnenbeschienende Wiese schafft man es, das diese dann weiß erscheint. Durch Austausch der Farbkanäle kann man dann prima Falschfarbenfotos machen, wobei das pflanzliche Grün fast weiß bleibt. Auch die Schärfe ist besser, weil jetzt alle Pixel herangezogen werden und nicht nur die roten. Vorausgesetzt, der IR-Filter der Kamera lässt überhaupt noch was durch.

 

Z.B. So etwas hier (Ohne Farbkanaltausch):

.

.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

@ Nolite

Ich letztmalig. Du baust aus einer RAW-Aufnahme ein ganzes Gedankengebäude auf, das Du solange hinbiegst bis es Dir und Deinen Theorien wahrscheinlich erscheint.

Ich vermute, Du kannst nicht etwas konkreter werden, was für Theorien Du da meinst? Ich habe in der Tat ein paar Sachen gemacht, die so nicht im Handbuch stehen und mit handelsüblichen RAW-Konvertern nicht möglich sind, und deswegen vielleicht etwas verwirrend sind, weil sie vom Schema F abweichen. Aber wo habe ich jetzt einen Fehler gemacht oder was Falsches geschrieben?

Wie kommst Du übrigens darauf das der RAW-Konverter die Auto-WB nicht beachtet? Solange Du das Häkchen bei "Wie Kamera" nicht löschst, macht er das sehr wohl, auch wenn es sinnlos ist.

Nichtsdestotrotz ändert die WB-Einstellung der Kamera nichts am RAW selbst. Außerdem habe ich den WB manuell eingestellt. Und drittens geht der AWB der GH2 (laut Handbuch) nicht unter knapp 3000K herunter, ist also herstellerseitig gegen das totale Durchdrehen gesichert. Da ich in #65 aber bereits explizit geschrieben habe, dass ich den WB auf 2000K heruntergesetzt habe, sollte das Thema AWB eigentlich schon längst vom Tisch sein.

Mit 'ner Expodisc gelingt es sogar bei Infrarotaufnahmen(!) bei vielen Kameras (Nur Dunkelrot und Infrarot!) alle 3 Farbkanäle mit Informationen zu füllen.

Eine Expodisc wäre mit RAW überflüssig, wenngleich sie die Sache komfortabler machen kann. Und wenn alle drei Kanäle "gefüllt" sind, dann liegt ein Schwarzweiß-Bild vor. Stimmt ja auch, siehe #84 und #85.

Wie flutscht das denn durch das Bayer-Filter-Array bei Grün und Blau?

Ich würde eher fragen: Wie flutscht das durch den IR-Filter vor dem Objektiv, der ja alles außer Infrarot und evtl Dunkelrot sperrt? Vermutlich gar nicht. Die Farben und Tonwerte (bzw. die Kanalinformationen) werden einfach durch den Weißabgleich, bzw. die Farbtonkorrektur erzeugt. Das kann man ganz einfach selber ausprobieren, z.B. bei diesem Foto hier die Auto-Farbkorrektur anwenden, dann kommt das hier dabei raus. Ganz ohne Expo Disc, Weißabgleich, RAW oder sonstigem Pipapo. Während im roten Bild der blaue Kanal fast schwarz und der grüne sehr dunkel ist, sind sie in der farbtonkorrigierten Version sehr viel heller. Die Helligkeitsinformationen werden einfach vom roten Kanal in die beiden anderen verschoben. Im Prinzip macht der Weißabgleich auch nichts anderes.

Link zum Beitrag
Auf anderen Seiten teilen

Ich würde eher fragen: Wie flutscht das durch den IR-Filter vor dem Objektiv, der ja alles außer Infrarot und evtl Dunkelrot sperrt? Vermutlich gar nicht.

Eigentlich wollte ich ja zu Deinen ellenlangen Beiträgen nichts mehr schreiben, aber das kann ich jetzt nicht so stehen lassen, denn habe ich das irgendwo behauptet?

 

Wolfgang hatte gefragt: "Wie flutscht das" (Rot+IR*) "denn durch das Bayer-Filter-Array bei Grün und Blau?" Da war vom FILTER die Rede, nicht von den realen Lichtfarben, wie ja schon aus meiner Antwort ersichtlich.

 

Dass das in Wirklichkeit kein Blau und Grün ist, war doch klar ersichtlich. Die einzelnen RGB Filter lassen Rot bzw.IR in unterschiedlichem Maße durch, die Kameraelektronik, die nur RGB kennt, interpretiert das halt als Rot-Grün-Blau, daher die Falschfarben. Nicht Schwarz-Weiß, wie Du behauptest, denn die Informationen der drei Kanäle sind unterschiedlich.

 

Aber wieder mal ein schönes Beispiel, wie Du alles uminterpretierst, bis es in Deine Vorstellungen von der allumfassenden, heiligen RAW-Bearbeitung passt. Die Kameraelektronik kann mehr als das RAW-Konverter-Programm. Aber vermutlich haben alle unrecht, die sich seit Jahrzehnten mit Infrarotfotografie befassen.

 

Tatsache ist, höhere Schärfe, Gradation und geringeres Rauschen sprechen bei IR-Aufnahmen für die MWB mittels Expodisc (oder ähnlichem). Auch die Dateigröße weist darauf hin. Mit AWB geht das einfach nicht. Darum ja auch meine Meinung, ohne Kenntnis des Bildes auf Chipebene und der interne Abläufe innerhalb der Kameraelektronik bleibt die RAW-Interpretiererei reines Kaffeesatzlesen, denn nur der Kamera-Entwickler weiß, was da intern wirklich abläuft. MWB ist nicht AWB, wie auch immer das erreicht wurde.

 

*Von mir eingefügt.

Link zum Beitrag
Auf anderen Seiten teilen

Aber wieder mal ein schönes Beispiel, wie Du alles uminterpretierst, bis es in Deine Vorstellungen von der allumfassenden, heiligen RAW-Bearbeitung passt. Die Kameraelektronik kann mehr als das RAW-Konverter-Programm. Aber vermutlich haben alle unrecht, die sich seit Jahrzehnten mit Infrarotfotografie befassen.

Eigentlich halte ich RAW für maßlos überschätzt... ebenso wie Sensoren. Wenn Dein Workflow funktioniert, ist es doch gut, und eigentlich ist es dann ja egal, wie und warum es funktioniert.

 

Die Kameraelektronik erzeugt zuerst mal ein RAW, und dieses wird dann kameraintern nach bestimmten Präferenzen entwickelt (JPGooc), eine davon ist der Weißabgleich. Der Weißabgleich macht beim RAW selbst genau eines: Er schreibt einen Marker hinein, damit der Konverter später weiß, wie er das Bild aussteuern soll. Die RAW-Daten selber werden dabei nicht verändert, egal ob man einen manuellen Weißabgleich macht, einen automatischen, eine Expo-Disc benutzt oder eine Graukarte oder was auch sonst immer.

 

Aber vermutlich haben alle unrecht, die sich seit Jahrzehnten mit Infrarotfotografie befassen.

 

Tatsache ist, höhere Schärfe, Gradation und geringeres Rauschen sprechen bei IR-Aufnahmen für die MWB mittels Expodisc (oder ähnlichem). Auch die Dateigröße weist darauf hin. Mit AWB geht das einfach nicht. Darum ja auch meine Meinung, ohne Kenntnis des Bildes auf Chipebene und der interne Abläufe innerhalb der Kameraelektronik bleibt die RAW-Interpretiererei reines Kaffeesatzlesen, denn nur der Kamera-Entwickler weiß, was da intern wirklich abläuft. MWB ist nicht AWB, wie auch immer das erreicht wurde.

Mit anderen Worten: Da passiert irgendwas Geheimnisvolles, aber wir wissen nicht was, und wir können es auch nicht wissen. Aber wenn man eine Expo-Disc nimmt und Infrarot fotografiert, kommt man dem Mysterium wenigstens etwas näher als andere.

 

Leider hast Du meinen letzten Absatz im vorigen Beitrag #86 vollkommen ignoriert, warum auch immer, aber langsam glaube ich, dass Du das, was Du nicht wahrhaben willst, einfach ausblendest. In diesem letzten Absatz geht ein Link auf die Wikipedia-Seite zur IR-Fotografie. Dort ist ein monochrom rotes IR-Bild zu sehen. Wenn du dieses Bild herunterlädst und im Bildbearbeitungsprogramm die Funktion "Auto-Farbton" anwendest, dann verwandelt sich diese monochrome Bild in ein "Falschfarbenbild", alternativ kann man auch die Kanäle manuell aussteuern, wenn man weiß, wie. Und das funktioniert ohne Weißabgleich auf Rasen oder sonstwo hin, ohne RAW, ohne Kamerelektronik, und einfach nur am fertigen JPG. Probier es einfach aus. Mehr Brücken kann ich Dir wirklich nicht bauen. Wenn Du danach immer noch glaubst, ich würde hier irgendwelche abstrusen Theorien verbreiten, dann weiß ich nicht mehr, was ich noch machen soll.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn Dein Workflow funktioniert, ist es doch gut, und eigentlich ist es dann ja egal, wie und warum es funktioniert.

 

Mit anderen Worten: Da passiert irgendwas Geheimnisvolles, aber wir wissen nicht was, und wir können es auch nicht wissen. Aber wenn man eine Expo-Disc nimmt und Infrarot fotografiert, kommt man dem Mysterium wenigstens etwas näher als andere.

 

Zum Ersten.

Genauso. Es interessiert mich auch nicht besonders, wie die Kamera das macht, ich möchte mit einfacher Handhabung und gutem Ergebnis fotografieren und nicht theoretisieren.

 

Zum zweiten.

Ich habe so gar keinen Ehrgeiz irgendein Mysterium aufzuklären. Kann ich auch gar nicht. Ich habe nur beschrieben, wie man einfach zu guten IR-Aufnahmen kommt.

 

Das rote Bild habe ich bearbeitet, Autoweißabgleich funktioniert gar nicht, aber mit der Pipette kann man die dann sichtbar werdenden Farben hin und herschieben, Die Qualität eines per MWB erzeugten JPGs erreicht es aber nie. Hatte ich auch nicht erwartet, denn so habe ich und Andere mal angefangen. Also lasse ich das die Kamera machen. Ist halt einfacher und besser. Warum sie das in AWB nicht packt in MWB aber schon ist mir eigentlich auch schnuppe, solange es funktioniert.

bearbeitet von Diethard
Link zum Beitrag
Auf anderen Seiten teilen

Ein paar neue Daten von der Testfront. Dpreview hat die Panasonic GX1 unter die Lupe genommen.

 

Schaut man sich das erste Diagramm auf Seite 13 an (Klick) an, die für JPG, und wählt die Darstellung "Graph", so sieht man ein hübsches Durcheinander von Kurven, teilweise im Zickzack. Vor allem Panasonic schlägt Haken, die G3 bei ISO400 und die GX1 bei ISO3200. Das Rauschverhalten nimmt also bei einem höheren ISO-Wert ab, um dann wieder zuzunehmen. Halten wir uns aber damit nicht länger auf, sondern richten das Augenmerk lieber auf den Umstand, dass die E-P3 bei ISO 1600 weniger rauscht als die G3. Wer hätte das gedacht?

 

Wir überspringen das nächste Diagramm und gehen gleich zum "ACR RAW Noise" Vergleich, und schalten wieder auf "Graph", und nun ergibt sich ein völlig anders Bild; Bis ISO 800 liegen alle Kameras auf derselben Linie, sogar die E-P3 mit dem angeblich so schlechten Sensor. Erst ab ISO 1600 ergeben sich Unterschiede. Ebenfalls bemerkenswert, dass die G3 und die GX1 mit der als Dynamikwunder gelobten Nex5N is ISO 6400 voll mithalten können, trotz kleinerem Sensor. Die angebliche Überlegenheit der Nex beruht offenbar nur auf Einbildung. Sagt Dpreview, nicht ich. Schaltet man die Darstellung auf "Samples" um, kann man sich ein Bild machen, wie das konkret aussieht. Ich empfehle, das zu tun, weil man so auch ein Gefühl dafür bekommt, wie groß der Unterschied von 3db oder 1EV in der Darstellung tatsächlich ist, denn laut DxO ist das SNR18% der Nex5N kontinuierlich um ca. 3db höher als das der G3 oder GX1.

 

Schauen wir uns die Sache noch bei DxO an, GX1, Nex5N und Canon G1X im Vergleich (Klick). Und hier wird es nun interessant. Nachdem der Unterschied zwischen GX1 und Nex5N bei SNR18%, wie gesagt, nur ca.1EV beträgt, ist die Sony bis ISO 800 in Punkto Dynamikumfang absolut überlegen. Volle zwei Blendenstufen sind schon ein Wort. Schaut man sich die Dynamik bei Dpreview an (Klick), dann fragt man sich allerdings, wo diese zwei Blendenstufen sein sollen. Nun, immerhin ist die Dynamik im Lichterbereich bei der 5N deutlich größer. Wenn man sich dann noch vor Augen hält, dass das Testverfahren bei Dpreview völlig anders funktioniert, als bei DxO, könnte das schon passen. Dpreview bemüht sich, den wiedergebbaren Kontrastumfang über Testbilder zu messen, während DxO ihn aus den RAW-Daten errechnet.

Wichtiger für uns ist, dass die Kurven aller Kameras bei Dpreview nahezu identisch sind, nur unten und oben, zu den Schatten und den Lichtern hin, gibt es überhaupt Unterschiede. Was eigentlich logisch ist, denn die Bilder werden ja im selben Dynamikraum ausgebeben (Darstellung am Monitor). Unterschiede kann es nur in den Tiefen und Lichtern geben, denn anderswo bringt man eine größere Dynamik ja nicht unter.

 

Wenn die Kurven von Dpreview nicht völlig falsch sind, dann bedeuten sie, dass der Nex-User den größeren Dynamikumfang seiner Kamera nur dann nutzen kann, wenn er das Bild überbelichtet und anschließend die Kurven per EBV anpasst, denn die Reserven befinden sich in den Lichtern. Wo auch sonst? In den dunklen Partien würde der DR von der Digitalsierung sofort aufgefressen werden, in den Lichtern dagegen ist der größte Teil der Information enthalten. Die Konsequenzen sieht man, wenn man die Nex7 in der Dpreview-Darstellung dazuschaltet: Der DR in den Lichtern nimmt ab, in den Schatten bleibt er gleich, insgesamt wird er kleiner. Grund hierfür ist, dass die Full-Well-Capacitiy des Sensors den Dynamikumfang beschränkt. Nimmt man dagegen bei DxO die Nex7 in die Darstellung hinzu, dann sieht man, dass der DR im Gegensatz zu Dpreview größer, nicht kleiner ist. Das ist aber nur scheinbar paradox, denn deren Messmethode räumt vielen Pixeln einen Vorteil ein. ich denke mir, dass das gute SNR der kleinen Pixel in den Lichterpartien das schlechtere Rauschverhalten in den Schatten einfach kompensiert.

 

Wer das nicht glauben mag, möge sich bei DxO einfach mal die Pana GX1, die Canon G1X und die Canon Powershot S100 bei DxO im Vergleich ansehen. Die kleine Powershot ist trotz wesentlich kleinerer Pixel und einem Sensor, der nicht mal ein Viertel der Fläche von mFT/FT hat, in Punkto DR absolut klar überlegen und bis ISO 200 ebenbürtig. Doch selbst bei ISO 3200 beträgt der Unterschied nicht die mehr als zwei Blenden, die es laut Theorie sein müssten.

Link zum Beitrag
Auf anderen Seiten teilen

nach einiger Zeit mit der 5n kann ich sagen, dass man den erhöhten Dynamikumfang vor allem dann merkt, wenn kaum noch Licht da ist.

 

Wo ich mit der PEN oder G2 keine sinnvollen Farben mehr hinbekomme, kann ich mit der 5n immer noch satte Farben und sogar Hauttöne erzeugen, die man zeigen kann.

 

 

Insbesondere die Verblauung der Tiefen bei Aufnahmen mit sehr warmem Kunstlicht (Glühlampenfunzel) setzt merkbar später ein. (wenn kaum noch Blau da ist, muss man zum Abgleich diesen Kanal besonders hochziehen, dadurch entsteht in den Tiefen oft ein Pseudoblau, wo es eigentlich schwarz sein sollte)

 

 

 

Ansonsten kann man es bei Aufnahmen im Schnee und/oder Gegenlicht sehen.

 

 

Bei allen normalen Fotosituationen kommt man aber weiterhin mit einer PEN sehr gut aus :) und wenn nicht, dann ist halt mal irgendwo ein bisschen ausgerissen .. hauptsache man bekommt es hin, dass es nicht in bildwichtigen Teilen passiert.

Link zum Beitrag
Auf anderen Seiten teilen

Die Sony NEX hatte doch extra einen Sensor der irgendwie hintergrund-beleuchtet wird und so die Qualität bei dunkleren Bildern steigert.

Da die anderen Kameras das (leider) nicht haben ist dieser Nachteil ja absehbar. ;)

 

back iluminated sensor.

 

Dameint ist das Ergebnis einer Produktionstechnik gemeint, die Verdrahtungen, die notwendig sind, so anbringt, dass sie nicht vorne drauf auf dem Sensor liegen, wo das licht drauffällt, sondern auf der Rückseite. Dadurch kommt mehr Nutzlicht auf den lichtempfindlichen pixeln an und es wird weniger abgeschattet.

 

Sinn macht das vor allem auf den sehr kleinen Sensoren von Kompaktkameras 1/2,3 oder Handykameras. Sony hat das als erster eingeführt, diese Sensoren produziert Son inzwischen glaube ich auch für andere Kamerahersteller.

 

Bei grösseren Sensoren wie der NEX ist der Vorteilseffekt nicht so gegeben, so dass diese Kameras normale Sensoren haben.

Link zum Beitrag
Auf anderen Seiten teilen

nach einiger Zeit mit der 5n kann ich sagen, dass man den erhöhten Dynamikumfang vor allem dann merkt, wenn kaum noch Licht da ist.

 

Wo ich mit der PEN oder G2 keine sinnvollen Farben mehr hinbekomme, kann ich mit der 5n immer noch satte Farben und sogar Hauttöne erzeugen, die man zeigen kann.

Die G2 oder Pen fallen allerdings auch bei DxO und Dpreview deutlich hinter die GH2, G3 und GX1 zurück, aber letztere liegen dann gleichauf oder fast gleichauf zur Nex. Das war's ja, was mich gewundert hat. Was mich ebenfalls wundert, ist, dass bei vielen Nex-Bildern die Schatten so zulaufen. Wenn ich mir da Testbilder der Nex in RAW anschaue, habe ich dafür keine Erklärung, die sehen wirklich besser aus, als Pen&Pana. Die Real-Life Aufnahmen dann aber nicht.

 

Wäre schön, wenn es jemanden gäbe, der sowohl die Nex als auch eine der neuen Panas sein eigen nennt, und de Ergebnisse bestätigen/widerlegen kann. Ich kann aus eigener Erfahrung nur sagen, dass die GH2 pixelpeeperisch-testmäßig schon ein gutes Stück besser ist als die älteren Pens.

 

Insbesondere die Verblauung der Tiefen bei Aufnahmen mit sehr warmem Kunstlicht (Glühlampenfunzel) setzt merkbar später ein. (wenn kaum noch Blau da ist, muss man zum Abgleich diesen Kanal besonders hochziehen, dadurch entsteht in den Tiefen oft ein Pseudoblau, wo es eigentlich schwarz sein sollte)

Hmmm... ist das ein Problem der Dynamik, oder eher des Weißabgleichs, bzw. der Kanalsteuerung? Wenn man aus den hellen Partien Rot raus und Blau reinfiltert, dann müssen die Schatten eigentlich zwingend einen Blaustich bekommen.

 

Ist OT, aber Blau aus den Tiefen rausfiltern, bzw. Gelb/Rot dazumischen hilft meistens. Leider verfügen viele Bildbearbeitungsprogramme nicht über die Möglichkeit, die Farbbalance auszusteuern. In ACR kann man das aber über die Teiltonung-Tiefen machen.

Link zum Beitrag
Auf anderen Seiten teilen

Ja genau, die wurden nicht angeleuchtet sondern sind anders rum drauf und werden so von "belichtet", wodurch sie irgendwie Lichtempfindlicher sind

.. hatte das nicht mehr ganz genau im Kopf gehabt.

 

 

back iluminated sensor.

 

Dameint ist das Ergebnis einer Produktionstechnik gemeint, die Verdrahtungen, die notwendig sind, so anbringt, dass sie nicht vorne drauf auf dem Sensor liegen, wo das licht drauffällt, sondern auf der Rückseite. Dadurch kommt mehr Nutzlicht auf den lichtempfindlichen pixeln an und es wird weniger abgeschattet.

 

Sinn macht das vor allem auf den sehr kleinen Sensoren von Kompaktkameras 1/2,3 oder Handykameras. Sony hat das als erster eingeführt, diese Sensoren produziert Son inzwischen glaube ich auch für andere Kamerahersteller.

 

Bei grösseren Sensoren wie der NEX ist der Vorteilseffekt nicht so gegeben, so dass diese Kameras normale Sensoren haben.

Link zum Beitrag
Auf anderen Seiten teilen

  • 1 month later...

Bei den ganzen Tests gefällt mir ein Punkt von Stiftung Warentest richtig gut.

--Sehtest--

Ich weiß, alles nicht fundiert, keine Fotozeitung, etc..............

 

So sollten aber Tests ablaufen. Einfach mal die fertigen Fotos betrachten und bewerten lassen von Leuten, die unvoreingenommen an die Sache drangehen.

 

Wir hier im Forum warten irgendwie ja auch einfach nur auf aussagekräftige, unbearbeitete Fotos von Usern, die als erste in den Genuss der neuen Cam kommen.

 

Das beim letzten großen Test in Stiftung Warentest die Samsung NX200 beim Sehtest gewonnen hat, wundert mich nicht.

 

Siemenssterne etc. sagen über das fertige Foto gar nichts aus. Und es gibt Zeitgenossen, denen ist ein Bild aus einer Nikon D40 oder D80 viel lieber als die teils überschärft wirkenden Ergebnisse eines 24Mpx Sensors.

 

Hinzu kommt, dass beim Wechsel des Objektives sofort alle Messwerte nicht mehr passen. Siehe Test der Olympus OM-D in der aktuellen FM. Kaum war das 45 1.8 gegen das 12-50 getauscht, sah es mit der Auflösung nicht mehr ganz so gut aus.

Link zum Beitrag
Auf anderen Seiten teilen

Bei den ganzen Tests gefällt mir ein Punkt von Stiftung Warentest richtig gut.

--Sehtest--

Ich weiß, alles nicht fundiert, keine Fotozeitung, etc..............

 

So sollten aber Tests ablaufen. Einfach mal die fertigen Fotos betrachten und bewerten lassen von Leuten, die unvoreingenommen an die Sache drangehen.

 

Wir hier im Forum warten irgendwie ja auch einfach nur auf aussagekräftige, unbearbeitete Fotos von Usern, die als erste in den Genuss der neuen Cam kommen.

 

Das beim letzten großen Test in Stiftung Warentest die Samsung NX200 beim Sehtest gewonnen hat, wundert mich nicht.

 

Siemenssterne etc. sagen über das fertige Foto gar nichts aus. Und es gibt Zeitgenossen, denen ist ein Bild aus einer Nikon D40 oder D80 viel lieber als die teils überschärft wirkenden Ergebnisse eines 24Mpx Sensors.

 

Hinzu kommt, dass beim Wechsel des Objektives sofort alle Messwerte nicht mehr passen. Siehe Test der Olympus OM-D in der aktuellen FM. Kaum war das 45 1.8 gegen das 12-50 getauscht, sah es mit der Auflösung nicht mehr ganz so gut aus.

@Mick

die Samples-Galerie von dpr ist für mich deshalb aussagekräftiger als die ganze Testerei vorher.

Was vielen ja erst gar nicht auffällt ist, dass mit der Auswahl des Objektivs ein Kamera-Test ganz ordentlich manipuliert werden kann. Umgekehrt gilt das gleiche. Nimm ein wirklich knackscharfes Objektiv und du kannst bei Oly die Schärfung um eine Stufe mehr zurückstellen, falls sie nicht sowieso schon aus ist. Die Folge davon ist ... weniger Rauschen. Natürlich wirkt sich das auch im RAW aus, denn auch bei der RAW-Bearbeitung kannst Du sparsamer schärfen. So greift Eins ins Andere.

Mein Härtetest sind ausbelichtete Ausschnitte, die ein ca. 120 cm breites Bild repräsentieren. Da sieht man dann, wie das Zusammenspiel von Kamera und Objektiv gelungen ist. Meine "normale" Printgröße ist 60 cm breit. Das kann ich mir noch gut aus Leseabstand ansehen.

Link zum Beitrag
Auf anderen Seiten teilen

  • 2 weeks later...

Es kommt ganz darauf an, WIE man es beschreibt.

Ich stelle es einfach mal zum Nachdenken gegenüber:

 

Zitat aus Olympus OM-D E-M5 Testbericht

 

zum M.Zuiko Digital 12-50 mm 3.5-6.3 ED EZ für 200 EUR Aufpreis (einzeln 320 EUR):

"Immerhin ist die Verzeichnung des 12-50ers recht gering. Im Weitwinkel liegt sie bei etwa 1,2 Prozent Tonnenform, in mittlerer und langer Brennweite ist sie unbedeutend. Auch die Randabdunklung ist gut korrigiert, sie ist im Weitwinkel bei Offenblende von F3,5 mit etwa 0,7 Blendenstufen noch am deutlichsten, sinkt aber erwartungsgemäß beim Abblenden. Interessant ist die Auflösung, im Weitwinkel werden fast 50 Linienpaare pro Millimeter (lp/mm) erreicht. Selbst bis Blende F8 beträgt die Auflösung bei jeder Brennweite über 40 lp/mm. Erst dann macht sich die Beugung zusehends bemerkbar, bei Blende 11 bleibt die Auflösung aber noch auf gutem Niveau. Der Randabfall der Auflösung beträgt im Weitwinkel bei Offenblende gut 35 Prozent, bei mittlerer Brennweite ist sie unter 20 Prozent. Für ein Setobjektiv und ein Vierfachzoom mit immerhin 24 Millimeter Brennweite entsprechend Kleinbild im Weitwinkel sind die Werte durchaus ordentlich. Im Vergleich mit anderen Herstellern zeigt sich, dass sich ein etwas hochwertigeres Setobjektiv spürbar positiv auf die Bildschärfe und vor allem deren Gleichmäßigkeit auswirkt. Allerdings hat das Olympus 12-50 mm 3.5-6.3 ED EZ eine Achillesferse: Chromatische Aberrationen sind vor allem im Weitwinkel stark ausgeprägt. Besonders die Maximalausschläge sind im Weitwinkel mit vier bis fünf Pixeln Breite sehr unschön."

 

Zitate aus Labor-Bildqualitätstest der Fujifilm X-Pro1 mit allen Objektiven - digitalkamera.de - Meldung

 

zum XF 35 mm F1.4 R für ca. 580 EUR:

"Im Bildzentrum löst es bereits bei Offenblende äußerst gut auf, der Wert liegt bei über 50 Linienpaaren pro Millimeter (lp/mm). Die Auflösung nimmt mit weiterem Abblenden nicht mehr zu, aber auch kaum ab, so dass selbst bei F16 noch fast 50 lp/mm im Bildzentrum erreicht werden. Allerdings beträgt die Randauflösung bei Offenblende nur etwas über 30 lp/mm. Erst um vier Stufen abgeblendet auf F5,6 werden am Bildrand die 40 lp/mm überschritten, die gleichmäßigste und höchste Leistung erreicht das Objektiv gar erst bei Blende F11."

zum XF 18 mm F2 R für ca. 580 EUR:

"Verzeichnung und Vignettierung sind gut auskorrigiert, so dass sich das 18er hier keine Blöße gibt. Chromatische Aberrationen treten hingegen stärker als beim 35er auf. Im Mittel sind sie zwar kaum sichtbar, an starken Kontrastkanten vor allem zum Bildrand hin können sie jedoch störend in Erscheinung treten. Hierbei werden die Farbsäume umso ausgeprägter, je mehr man abblendet, was etwas unschön ist. Die Schärfe des Objektivs ist nicht ganz so hoch wie beim 35er. Erst bei F2,8 wird im Bildzentrum ein Wert von nahezu 50 lp/mm erreicht. Problematischer ist die Randauflösung, die bei keiner Blende mit dem Bildzentrum auch nur entfernt gleichziehen kann. Eine mögliche Ursache könnte die zu vermutende elektronische Korrektur der Verzeichnung sein, hier wurde also der Teufel mit dem Beelzebub ausgetrieben. Die beste Blende ist auch hier F11, wo 49 lp/mm im Bildzentrum und 34 lp/mm am Bildrand erreicht werden."

zum XF 60 mm F2.4 R Macro für ca. 630 EUR:

"Das Objektiv überzeugt auf ganzer Linie! Keine nennenswerten chromatischen Aberrationen, Randabdunklung, Verzeichnung oder Randabfall der Auflösung sind zu beklagen. Bei jeder Blende ist die Auflösung im Bildzentrum und am Bildrand nahezu identisch, mit rund 45 lp/mm reicht das 60er aber nicht ganz an die Auflösung des 35ers heran. Das 60er hat nur eine Achillesferse: Den Autofokus. Er ist mit diesem Objektiv etwas langsam und braucht starke Kontraste, um überhaupt sein Ziel zuverlässig zu finden."

 

Diese drei Fuji-Objektive zusammen kosten also ca. 1790 EUR.

 

Dafür gibt es eine OM-D mit 12-50 plus Pana-Leica 25/1,4

oder alternativ einzeln diese:

M.Zuiko Digital 12-50 mm 3.5-6.3 ED EZ

Pana-Leica 25/1,4

M.Zuiko Digital 45/1,8

M.Zuiko Digital 12/2,0

Andere Kombinationen wären natürlich auch möglich.

Link zum Beitrag
Auf anderen Seiten teilen

Solche Vergleiche mache ich ja gerne, wie man sicher schon gemerkt hat.

Zum vorhergehenden nun noch dieser.

 

Zitat aus http://www.digitalkamera.de/Testbericht/Nikon_D800/7684.aspx

"(...) Nicht ganz so überzeugend ist die Eingangsdynamik, die D800 verarbeitet bis ISO 1.600 Helligkeitsunterschiede von ca. zehn Blendenstufen. Das ist ein guter Wert, aber kein überragender.

(...)

Absolut beeindruckend ist dagegen das Auflösungsvermögen der D800. Bestückt mit dem 24-70/2.8 reißt sie geradeso die Marke von 70 Linienpaaren pro Millimeter (lp/mm) – allerdings nur im Bildzentrum. Zu den Bildrändern hin endet die Herrlichkeit jäh – bei 24 Millimeter Brennweite kommt das Zoomobjektiv nur bei optimaler Blende F11 über die Marke von 35 lp/mm hinaus. Ein Auflösungsverlust von rund 50 Prozent zum Bildrand hin ist einfach zu hoch. Zum Glück nimmt diese Schwäche des Standardzooms mit zunehmender Brennweite ab, bei 50 und 70 Millimetern bleibt der Auflösungsabfall gerade noch im Rahmen. Geradezu mustergütig zeigt sich in dieser Hinsicht übrigens das 105er-Makro, hier beträgt der Randverlust der Auflösung schlimmstenfalls gut 15 Prozent. Die hohe Sensorauflösung der D800 rückt indes ein Phänomen in den Vordergrund, das früher keine so große Rolle spielte: Schärfeverlust durch Beugung. Bei allen getesteten Objektiven nimmt das Auflösungsvemögen jenseits von F11 rapide ab – hier setzt die Physik einfach Grenzen, die sich nicht überwinden lassen.

(...)

In der Praxis stört der Randabfall der Auflösung vor allem bei Landschafts- und Architekturaufnahmen – also immer dann, wenn Schärfe über das gesamte Bildfeld gefordert ist und bevorzugt mit kurzen Brennweiten fotografiert wird. Die Randabdunklung des Standardzooms NIKKOR 24-70mm ist völlig unkritisch, bei kürzester Brennweitenstellung verzeichnet es allerdings ausgeprägt tonnenförmig. Sowohl Verzeichnung wie auch Vignettierung kann die D800 jedoch automatisch korrigieren – entweder schon gleich bei der Aufnahme oder mit der entsprechenden Bearbeitungsfunktion bei der Wiedergabe. Das gilt leider nicht für Chromatische Aberrationen, sie können im Extremfall als recht ausgeprägte Farbkonturen an Kontrastkanten auftreten.

 

(...)

Der 36-Megapixel-Sensor deklassiert in Sachen Auflösung und Detailwiedergabe die gesamte Konkurrenz und dringt in Sphären vor, die bislang dem digitalen Mittelformat vorbehalten waren. Dies gilt allerdings nur, solange die D800 mit adäquaten Linsen bestückt wird, das NIKKOR 24-70mm 1:2.8G ED zählt insbesondere im Weitwinkelbereich nicht dazu."

 

Für einen Gesamt-Preis von 4500 EUR und ein Gesamt-Gewicht von 1,9 kg muss man sich dann schon überlegen, ob es beispielsweise im Vergleich zur OM-D oder NEX-7 mit guter Optik dran bei der D800 noch Eigenschaften gibt, die noch zum Kauf motivieren. Die Bildqualität unterm Strich mit Optik dran kann es ja nicht sein. Das was die da gemessen haben, deckt sich mit dem visuellen Eindruck, den ich beim reinen Bildvergleich bei den verfügbaren Bildern hatte. Die 36 MP sind zum großen Teil trotz KB-Format m. M. n. nutzlos.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...