Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Wenn man ein RGB-Bild auf eine niedrigere Auflösung herunterskaliert, sinkt das Rauschen nur wenig; dafür geht bei einem von einem Sensor mit Filtern im Bayer-Muster erzeugten Bild auch nur wenig an effektiver Auflösung verloren, sofern man es mit dem Herunterskalieren nicht übertreibt. Eine nutzbare Rauschreduzierung kann man nur mit Binning erreichen, also vor dem Demosaicing-Schritt, der ein RGB-Bild erzeugt.

Das Rauschen sinkt proportional mit der Auflösung. Das die Farbauflösung eines RGB Bildes niedriger als dessen Helligkeitsauflösung ist macht das Ganze sicherlich etwas komplexer ändert aber prinzipiell nichts an dem Sachverhalt.

Das mit dem Binning funktioniert auch vor dem Demosaicing-Schritt nicht ganz fehlerfrei einfach deshalb weil dazu auch noch die gleichfarbigen Pixel nebeneinander liegen müssten was sie bei einem RGB Sensor aber nicht tun.

Das war auch der Grund weshalb Fuji sich den EXR Sensor mit alternativer RGB Matrix ausgedacht hat wo zumindest immer 2 gleichfarbige Pixel nebeneinander liegen. Wieviel das in der Praxis tatsächlich noch was bringt und wie stark die Nachteile an anderer Stelle sind darüber kann man geteilter Meinung sein jedenfalls haben sie bspw. für die X100 wieder einnen koventionelles Sensordesign verwendet.

 

Wenn man sämtliche heute übliche hochkomplexen Bearbeitung inklusive Rauschunterdrückung mit einbezieht um das bestmögliche Resultat zu erreichen kann man davon ausgehen das die Resultate nachdem sie auf gleiche Auflösung gebracht wurden auch einen vergleichbaren Rauschlevel haben.

Wie immer man es wendet: Geringes Rauschen und hoher Dynamikumfang braucht große Pixel, entweder real oder durch Binning virtuell realisiert.

Also um den Dynamikumfang ging es hier nicht und auch nicht um beste Lichtverhältnisse wo das Rauschen sowieso kein wirklichen Problem ist.

Die Größe der Pixel spielt keine Rolle es kommt allein auf die Anzahl der Photonen an. Die Elektronik die die Ladung in Empfang nimmt und zum dem Verstärker und A/D Wandler zuführt kennt die Pixelgröße gar nicht von daher wird sie bei gleichen Ladungsmengen die gleichen Resultate produzieren egal ob sie von einem mit ISO800 laufenden FT Sensor mit kleinen Pixeln oder einem mit ISO3200 laufenden KB Sensor mit großen Pixeln stammen denn die Ladungsmengen sind bei gleicher Pixelanzahl der Sensoren absolut gleich.

Der Grund für die Attraktivität kleinerer Sensoren liegt darin, dass man damit kleinere, leichtere und preisgünstigere Kameras beziehungsweise Kamera/Objektiv-Kombinationen bauen kann.

Die Größe der Kamera hängt nicht unbedingt von der Sensorgröße ab sondern viel mehr vom Objektiv und deren Lichtstärke wenn man mal Kamera und Objektiv als Gesamtsystem betracht.

Eine Sony Nex mit lichtschwachem Kit Zoom Objektiv ist trotz größerem APS-C Sensor einer mFT Kamera mit einem 45/1.8 Objekt bei schlechten Lichtverhältnissen hoffnungslos unterlegen weil nicht der Sensor die noch ankommende Lichtmenge bestimmt sondern einzig und allein der Blendendurchmesser des Objektivs.

Daher verkaufen sich Kompaktkameras mit 1/2,3-Zoll-Sensor wie geschnitten Brot und Kameras mit APS-C-Sensor weit besser als solche mit Kleinbildsensor.

Die verkaufen sich besser weil die Masse gar nicht mehr braucht und aus einfachen "Knipsern" besteht.

 

Und weil die die die Leistung tatsächlich brauchen erkannt haben das man mit einem kleinem FT Sensor und lichtstarker Optik oft das selbe erreichen kann wie mit einer klobigen APS-C DSLR Kamera aber viel weniger schleppen muss wechseln viele auf das mFT System.

Wenn die Nikon 1 floppt dann nicht unbedingt wegen dem kleinen Sensor sondern wegen dem schlechten und lichtschwachen Objektivangebot.

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 152
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Hmm, funktionierte der APS-Sensor (Active Pixel Sensor) nicht genau andersherum?

 

Also die Photodiode wird in Sperrichtung betrieben und wird vor der Belichtung wie ein Kondensator aufgeladen. Durch die auftreffenden Photonen wird dann dieser "Kondensator" entladen. Nach der Belichtungszeit wird dann die noch vorhandene Restladung ausgelesen.

Das Signal was sich daraus ergibt ist also ein Negativ, niedrige Ladung bedeutet viel Licht.

 

Ein grosser APS-Pixel kann als Kondensator mehr Elektronen speichern als ein kleiner. Trotz gleicher Anzahl an Photonen sind also in dem grossen Pixel noch mehr Ladungen enthalten als im kleinen.

 

Ich dachte immer das wäre der Grund für die höhere Dynamik eines Sensors mit grösseren Pixeln und man kann insbesondere aus den "Lichtern" mehr heraus holen als beim kleinen Pixel. Oder irre ich mich da?

Link zum Beitrag
Auf anderen Seiten teilen

Die Größe der Pixel spielt keine Rolle es kommt allein auf die Anzahl der Photonen an.

 

... ein größeres Pixel fängt aber mehr Photonen ein! Ich habe die Wahl zwischen einem Sensor mit großen Pixeln oder aber ich schraube Objektive mit Mörderlichtstärken ans Bajonett. Wenn ich Letzteres tue und damit meine Nikon V1 von ISO 800 auf ISO 200 heruntersetzen kann, dann ist das schön - ich habe weniger Rauschen. Ich kann aber auch an meine D700 ein lichtstärkeres Objektiv setzen - dann kann ich ebenfalls von ISO 800 auf ISO 200 reduzieren. Muss ich aber nicht unbedingt, da mir das Rauschen der D700 bereits bei ISO 800 ausreichend gering ist!

 

Viele Grüße

 

Weide

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Weide,

.. übrigens, und das meine ich absolut ernst, empfinde ich deinen Diskussionsstil, deine Bemühung und Ernsthaftigkeit als auch deine Überlegungen grundsätzlich für sehr wertvoll. Unter anderem auch deshalb, weil der Ton hier so gut ist, haben wir dieses Thema als wichtig und wertvoll oben angepinnt.

Gruß Thorsten

 

vielen Dank :o

Link zum Beitrag
Auf anderen Seiten teilen

Lassen wir die geringen Unterschiede durch den Füllfaktor (verursacht durch die Abstände zwischen den Pixeln) mal weg und denken wir uns doch mal ein Schachbrett, bei dem die einzelnen Felder durch dünne Stege getrennt sind. Die Felder sind mit einer dünnen Schicht aus kleinsten klebrigen Perlen in 64 verschiedenen Farben versehen. Nun schütten wir da z. B. 640 Erbsen drauf, von denen keine vom Brett rollt. Die Erbsen schütten wir jetzt wieder vom Schachbrett runter in einen Behälter. Dabei bleiben einige der klebrigen Perlen an den Erbsen hängen. Anschließend nehmen wir die Stege zwischen den Schachbrettfeldern heraus, entfernen die 64 Sorten klebriger Perlen und ersetzen sie durch eine dünne Schicht aus kleinsten klebrigen Perlen einer Farbe. Dann schütten wir wieder 640 Erbsen auf das Schachbrett. Die Erbsen schütten wir jetzt wieder vom Schachbrett runter in einen zweiten Behälter.

Inwiefern unterscheidet sich nun die Anzahl der Erbsen in den beiden Behältern? Wie unterscheidet sich der Anteil der klebrigen Perlen in dem einen und in dem anderen Behälter? Die farbigen Perlen haben hier noch eine andere Funktion, sie kennzeichnen den Ort, wo die Erbsen her kommen.

 

Noch 'ne Grafik:

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

... ein größeres Pixel fängt aber mehr Photonen ein!

Nein bei gleichem Blendendurchmesser fängst du immer die selbe Anzahl Photonen ein weil die Lichtintensität bei kleinerer Projektionsfläche entsprechend höher ist.

Das wurde hier nun schon zigmal erklärt.

Wenn du keinen Beamer haben solltest kannst du es auch gerne mit dem guten alten Diaprojektor ausprobieren.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Hmm, funktionierte der APS-Sensor (Active Pixel Sensor) nicht genau andersherum?

APS steht für Advanced Photo System und bezeichnet ein von Kodak entwickeltes Größenformat (ca. 25x16mm)

Ein grosser APS-Pixel kann als Kondensator mehr Elektronen speichern als ein kleiner. Trotz gleicher Anzahl an Photonen sind also in dem grossen Pixel noch mehr Ladungen enthalten als im kleinen.

 

Ich dachte immer das wäre der Grund für die höhere Dynamik eines Sensors mit grösseren Pixeln und man kann insbesondere aus den "Lichtern" mehr heraus holen als beim kleinen Pixel. Oder irre ich mich da?

Theoretisch schon, praktisch ist es auch eine konstruktive Auslegungssache des Sensors.

Eine Sony Nex7 (Pixelpitch=3,9) hat viel kleinere Pixel als bspw. eine Olympus Pen (Pixelpitch=4,5)

Hat die Nex jetzt deswegen eine geringere Dynamik?

 

Allerdings ging es hier auch nicht um die maximal speicherbaren Ladungsmengen bei Basisempfindlichkeit und besten Lichtverhältnissen bei denen es sicher Unterschiede gibt sondern der Einsatz bei schlechten Lichtverhältnissen denn nur dort tritt überhaupt erst das Rauschen in störendem Umfang auf. Selbst die Kompaktkameranutzer haben selten Rauschprobleme mit ihren ISO80 Bildern sehr wohl aber bei den ISO800 Bildern.

Die Probleme treten also erst auf wenn das Signal nur noch ein Bruchteil der der möglichen Füllkapazität erreicht und ensprechend verstärkt werden muss.

Oberhalb der Basisempfindlichkeit spielt somit die tatsächlich aufnehmbare Maximalmenge keine Rolle mehr da sie dort sowiso nie erreicht wird und es kommt nur noch auf die überhaupt noch erziehlbare Menge an die allein durch den Blendendurchmesser des Objektiv bestimmt wird.

Link zum Beitrag
Auf anderen Seiten teilen

Nun zur Schärfentiefe.

 

Nochmal das Schachbrett, aber dieses Mal modifizieren wir das etwas:

 

Wir nehmen drei Schachbretter übereinander, das obere für den gesamten räumlichen Nahbereich, das mittlere für die hauchdünne Fokusebene und das untere für den räumlichen Fernbereich. Wir nehmen an, in jedes Feld der Schachbretter passen 100 Erbsen um die Fläche gerade auszufüllen (maximale Auflösung). (Wir nehmem außerdem an, die Schachbretter seien durchlässig und das mittlere Schachbrett überläßt dem oberen und unteren Schachbrett die Erbsen, die es selbst nicht aufnehmen kann.)

Wir wissen, über die relative Öffnung eines Objektivs bekommen wir unabhäbgig von der Schachbrett(Sensor)größe beim gleichen gegenstandsseitigen Raumwinkel in der gleichen Schütt(Belichtungs)zeit immer die gleiche Menge Erbsen pro Einzelfeld(Flächeneinheit) auf das Schachbrett geschüttet.

Wir nehmen an, es stehen uns nun nicht nur die 6400 Erbsen innerhalb einer festen Schüttzeit(Belichtungszeit) durch ein Rohr mit definiertem Querschnitt(relative Öffnung) zum Ausfüllen des mittleren Schachbretts zur Verfügung, sondern die doppelte Menge. Diese 12800 Erbsen versuchen wir nun möglichst alle auf das mittlere Schachbrett zu zu schütten. Das klappt aber nicht und so müssen sich die Erbsen, die auf das mittlere Schachbrett nicht drauf passen, einen Platz auf dem oberen und unteren Schachbrett suchen. Gehen wir davon aus, es sei oben und unten die gleiche Menge Erbsen verteilt, also 3200 oben und 3200 unten, pro Feld also 50 Erbsen. Das bedeutet oben und unten nur die halbe Dichte(Auflösung) gegenüber dem mittleren Schachbrett.

 

Jetzt nehmen wir noch je Schachbrettebene drei Schachbretter dazu und ordnen sie in quadratischen Vierergruppen an. Die Abstände der Schachbrettebenen lassen wir wie sie sind. Die Schüttzeit(Belichtungszeit) behalten wir bei. Den Querschnitt des Schüttrohres vergrößern wir analog der relativen Öffnung eines Objektivs auf das Vierfache (doppelter Durchmesser). Nach Adam Riese sollten wir jetzt 12800 x 4 = 51200 Erbsen auf den Schachbrettern in der festgelegten Schüttzeit(Belichtungszeit) verteilen können.

Welches Ergebnis bekommen wir?

25600 Erbsen auf der mittleren Schachbrettebene und jeweils 12800 Erbsen auf der oberen und unteren Schachbrettebene.

Die Dichte pro Feld wäre dann wieder 100 Erbsen in der mittleren Ebene und 50 Erbsen oben und unten.

Was bedeutet das nun eigentlich?

"Eigentlich" hat die Schärfeebene, wie der Name schon sagt, die Tiefe 0, also keine dritte Dimension. Der Bereich des Schärfeverlaufs vor und hinter der Schärfeebene hat, wie der Name sagt, die dritte Dimension - die Tiefe. Verdopple ich die Kantenläne eines Würfels, dann vergrößere ich die Fläche einer Seite um 2 x 2 = das Vierfache und das Volumen um 2 x 2 x 2 = das Achtfache. Alle Felder in der oberen und unteren Schachbrettebene enthalten also die Erbsen, die aus dem Raumwinkel in der festen Zeit nicht in der Schärfeebene abgelegt wurden. Alle diese Erbsen, müssen sich nun den gesamten Raum vor und hinter der Schärfeebene teilen. Da der Raum dreidimensional ist, nimmt die Dichte der Erbsen vor und hinter der Schärfeebene um eine Zweierpotenz weniger zu als der Raum, also auch nur 2 x 2 = 4-fach. Als Folge davon reduziert sich die Schärfentiefe bei der Projektion auf eine Ebene um Faktor 2 wenn die Fläche vervierfacht wird. Mehr Bildbausteine für eine höhere Auflösung sind halt nicht da (Energieerhaltungssatz), also muss irgendwo Information fehlen und das ist eben die für die Tiefenauflösung. So kommt es, dass sich die Schärfentiefe umgekehrt proportional zur Diagonale des Formats verhält, wenn wir immer den gleichen Bruchteil der Diagonale als Zersträuungskreisdurchmesser für die Schärfentiefe definieren. Doppelte Diagonale des Aufnahmeformats ergibt halbe Schärfentiefe bei gleichem gegenstandsseitigen Raumwinkel und gleicher relativer Öffnung (Blendenzahl).

Jetzt ergibt sich aber eine Frage: Wir wissen, dass die Schärfentiefe bei längeren Brennweiten nahezu symmetrisch zur Schärfeebene liegt, bei kürzer werdenden Brennweiten jedoch immer unsymmetrischer wird, d. h. zur Kamera hin ist die Schärfentiefe geringer als von der Schärfenebene weg in Richtung Unendlich. Warum ist das so?

Wenn wir uns den Strahlenverlauf im gegenstandsseitigen Raum vorstellen wird der Zusammenhang klar.

Von der Schärfenebene weg in Richtung Kamera hat der Raum die Form einer Pyramide.

Von der Schärfenebene weg in Richtung "Unendlich" hat der Raum die Form eines Pyramidenstumpfes.

Im Pyramidenstumpf zwischen Schärfeebene und Unendlich ist mehr Platz als in der Pyramide zwischen Schärfeebene und Kamera. Aus dem unterschiedlichen Volumen kommen halt auch unterschiedlich viele Photonen.

(Genau genommen sind es ein Kegel und ein Kegelstumpf, weil die Optik rund ist. Das bilden wir nur nicht so ab.)

Wenn wir die hyperfokale Entfernung am Objektiv einstellen, dann reicht die Schärfentiefe ja auch vom Nahpunkt bis "Unendlich".

 

So, nun habe ich genug Erbsensuppe gekocht.

Sollte da irgendwo ein Fehler versteckt sein, dann korrigiert mich bitte.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

APS steht für Advanced Photo System und bezeichnet ein von Kodak entwickeltes Größenformat (ca. 25x16mm)

 

Ist mir bekannt, ich meinte aber schon den Sensor, siehe unter "APS bei Digitalkameras" hier:

 

APS-C

 

Theoretisch schon, praktisch ist es auch eine konstruktive Auslegungssache des Sensors.

Eine Sony Nex7 (Pixelpitch=3,9) hat viel kleinere Pixel als bspw. eine Olympus Pen (Pixelpitch=4,5)

Hat die Nex jetzt deswegen eine geringere Dynamik?

Das weiss ich nicht, hängt ja, wie du sagst, noch von anderen Dingen ab. Der Nex7 Sensor hat neuere Technik als der Pen Sensor. Worauf ich hinaus wollte ist, das man bei VF Sensoren meist 2-3 Blendstufen aus den "Lichtern" heraus holt, bei kleineren Sensoren aber weniger.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Worauf ich hinaus wollte ist, das man bei VF Sensoren meist 2-3 Blendstufen aus den "Lichtern" heraus holt, bei kleineren Sensoren aber weniger.

Wenn man aus den Lichtern noch so viel "herausholen" kann, warum liefern sie es nicht gleich frei Haus? Sowas ist doch Quatsch, meine ich. Oder haben sie solch eine panische Angst vor Überbelichtung? DAS ist doch dann ein Frage der Belichtungsmessung! Ein digitaler Sensor kennt keine Toleranz nach oben. Wenn das Ding gesättigt ist, dann ist Schluss mit Lustig und die Lichter brennen aus. (Zumindest die Sensoren, die bisher in den für uns Knipser erreichbaren Kameras eingesetzt werden.) Es ist nur eine Frage der Datenbearbeitung, wie man mit dem Belichtungsspielraum umgeht. Wenn oben noch so viel Spielraum ist, dann verschenken sie unten rum Spielraum, genau da wo es dann rauscht, und das ist genau das, was ich bisher auch so gesehen habe. Daher kommt auch diese merkwürdige Headroom-Diskussion, sowas hat ein Sensor bei korrekter Belichtung nicht. Das ist ein Fear-Room, weil ausgefressene Lichter eklig sind im Vergleich zu abgesoffenen Schatten.

Deshalb auch meine gerne wiederholte Empfehlung ETTR, expose to the right!

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Ich dachte immer das wäre der Grund für die höhere Dynamik eines Sensors mit grösseren Pixeln und man kann insbesondere aus den "Lichtern" mehr heraus holen als beim kleinen Pixel. Oder irre ich mich da?

 

Ein digitaler Sensor kennt keine Toleranz nach oben. Wenn das Ding gesättigt ist, dann ist Schluss mit Lustig und die Lichter brennen aus... Es ist nur eine Frage der Datenbearbeitung, wie man mit dem Belichtungsspielraum umgeht. Wenn oben noch so viel Spielraum ist, dann verschenken sie unten rum Spielraum, genau da wo es dann rauscht, und das ist genau das, was ich bisher auch so gesehen habe. Daher kommt auch diese merkwürdige Headroom-Diskussion, sowas hat ein Sensor bei korrekter Belichtung nicht.

Wir sollte vielleicht den Prozess der Belichtung von dem der RAW-Bearbeitung getrennt halten. Sobald ein Foto belichtet ist, sind die Informationen darin vollständig, man kann keine neuen mehr hinzufügen. Lichterrettung in RAW bedeutet nicht, dass man noch irgendwelche Photonen aus der Datei herausholen könnte, die sich irgendwo darin verstecken, die sind ja längst in Bits umgewandelt. Es ist vielmehr so, dass nicht alle Pixel jeder Grundfarbe gleichzeitig in die Sättigung gehen, der Weißpunkt jedoch anhand des Grünkanals definiert wird. Haben der Rot- und Blaukanal über den Scheitelpunkt der Luminanzkurve hinaus noch Informationen, dann werden die einfach abgeschnitten, damit die Lichter keinen Farbstich bekommen. Diese Informationen kann man natürlich wieder zurückholen, sie sind ja im RAW drin, und tut man so, bekommt man eventuell mehr Zeichnung in den Lichtern, meist mit einem Graustich, weil die Highlight-Recovery Funktion in der Regel die Farbinformationen verwirft.

Der andere Aspekt ist, dass an RAW-Bilder, sobald sie im Editor angeziegt werden, normalerweise immer schon eine Kurve (S-Kurve) angelegt wurde. Je sanfter die nach oben hin ausläuft, desto deutlicher wird sich ein Herunterziehen der Lichter bemerkbar machen. Der Effekt erschient oft spektakulärer, als er in Wirklichkeit ist. Aber all das hat nichts mit dem zu tun, worum es hier geht.

Link zum Beitrag
Auf anderen Seiten teilen

Wir sollte vielleicht den Prozess der Belichtung von dem der RAW-Bearbeitung getrennt halten.

Der hängt aber damit zusammen und bestimmt maßgeblich ob und was noch im RAW gemacht werden kann.

Wenn optimal belichtet wurde liegen alle Kanäle exakt an der Sättigungsgrenze und es gibt keinen Spielraum nach oben. In der Regel ist die Belichtungsmessung so ausgelegt das noch etwas Reserven zur Sicherheit bleiben aber die Belichtung kann der Fotograf über die Belichtungskorrektur oder manuelle Belichtungsmodi frei bestimmen.

Die Dynamik hängt dann stark von der Gradationskurve ab mit der man selbst dunkelste Bereiche noch hochziehen und sichtbar machen kann was freilich den Rauschlevel stark ansteigen lässt und vergleichbar mit einer ISO Wert Erhöhung in den dunklen Bereichen ist. Entsprechende Funktionen zur Dynamikerhöhung bieten die meisten Kameras auch fürs JPEG an wobei man sich dann mangels Farbtiefe schon vorher entscheiden muss.

Im RAW hat man den Vorteil das man auch noch später seine individuellen Kurven wählen kann.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man von der Belichtung bis nahe an die Sättigung ausgeht, dann muss der grössere Sensor mit der gleichen Anzahl Pixeln und gleicher Äquivalenzbrennweite bei gleicher Eintrittspupille länger belichten (gleiche Lichtmenge). Bei gleicher Blende und gleicher Äquivalenzbrennweite hingegen bekommen die Pixel des grösseren Sensors aufgrund der grösseren Eintrittspupille mehr Licht und die Belichtungszeiten sind wieder gleich. Soweit wurde das ja auch hier schon geklärt.

 

Wenn man von einem Active Pixel Sensor ausgeht, dann ist aber der Ladungsunterschied zwischen initialisierten und gesättigten Pixel bei dem grösseren Pixel grösser. Es hängt also nun von der weiteren Verarbeitung ab, also Verstärkung und A/D-Wandlung.

Und genau hier komme ich nicht weiter. Ein A/D-Wandlers kann bei grösserem Ladungsunterschied feinere Abstufungen messen. Das ist jedoch unabhängig vom Dynamikumfang. Eine schlechtere Auflösung bei der A/D-Wandlung würde daher zu Banding führen, nicht aber zu einem anderen Dynamikumfang.

 

 

Ich habe mal ein paar Testaufnahmen gemacht, mit der Nikon D5100 (APS-C) und der Panasonic G3 (mFT). Der Blendunterschied liegt also bei etwa 2/3 und man kann vermuten, das beide Sensoren etwa auf dem gleichen technologischen Stand sind.

 

Zu sehen ist die Einstellampe eines Studioblitzes, welcher auf einem Schreibtisch liegt. Blende und ISO wurde vorgegeben. Die Belichtungsmessung kommt von der Kamera.

 

Blende 5 bei der D5100 entspricht von der Eintrittspupille Blende 4 bei der G3, also gleiche Lichtmenge, welche auch verglichen werden müsste. Entwickelt wurde mit Lightroom, die Belichtung wurde jeweils komplett herunter geregelt um möglichst viel aus den hellen Bereichen heraus zu holen. Im Gegenzug wurde die Aufhellung auf Maximum gestellt, Weissabgleich auf Auto.

Beide Kameras zeigen in den dunklen Bereichen etwa die gleichen Details und vergleichbares Rauschen, in den hellen Bereichen brennt die D5100 jedoch deutlich weniger aus.

 

Bei Belichtungskorrektur -2/3 bei der G3 (nicht enthalten) und +1/3 bei der D5100 sind die Bilder recht ähnlich, jedoch zeigt die D5100 minimal mehr Details in den dunklen Bereichen und feinere Abstufung in den hellen Bereichen.

 

Das erste Bild ist von der D5100, das zweite von der G3. Wenn gewünscht kann ich gerne grössere Bilder einstellen.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Zitat:

"Eine schlechtere Auflösung bei der A/D-Wandlung würde daher zu Banding führen, nicht aber zu einem anderen Dynamikumfang."

Nein, zu Tonwertabrissen. Banding hat ganz andere Ursachen.

 

Wie arbeitet LR bei den unterschiedlichen Geräten genau? Ist das bekannt?

 

Soviel dazu. Mir würde noch mehr einfallen, aber erstens ist das hier nicht Thema. und schon gar nicht EBV, und zweitens überlasse ich das den EBV-Spezialisten. Das ist Stoff für einen eigenen umfangreichen Thread!

Link zum Beitrag
Auf anderen Seiten teilen

Ich widerspreche dir nur ungern, aber es handelt sich um Banding, nicht um Tonwertabriss. Tonwertabrisse entstehen, wenn zwischen zwei Grauwerten eine Lücke entsteht, z.B. bei einer zu steilen Gradationskurve. Banding entsteht, wenn ein Grauwert nur ungenau zugeordnet werden kann, z.B. bei einer zu geringen Auflösung.

 

Im übrigen bin ich einer der "EBV-Spezialisten" und ganz nebenbei auch "Spezialist" (ich mag diese Wort nicht) im Bereich Programmierung und Softwareentwicklung.

 

Was LR genau macht wissen wir nicht. Die interne Verarbeitung unterschiedlicher Kameras dürfte sich jedoch nicht unterscheiden. Vielmehr werden die Rohdaten in ein internes Format konvertiert (mit hoher Genauigkeit, um Banding zu vermeiden). Alle darauf folgenden Schritte sind dann für jede Kamera gleich.

Das Konvertieren ins interne Format dürfte im wesentlichen aus 2, evtl. 3, Schritten bestehen: 1. Identifikation des verwendeten Farbmusters (z.B. Bayer), 2. sensorspezifische Gewichtung der Farbkkanäle. Das 3. könnte Farbkalibrierung sein, wobei die jedoch in LR durch den Anwender erfolgen kann und imho nicht zur Konvertierung gezählt werden kann. Der kritische Punkt ist also Schritt 2, der, wenn man so will, irgendwie die Charakteristik des Sensors bzw. des Raw-Formats widerspiegelt.

 

Als Vergleich könnte man statt LR auch einen anderen Raw-Konverter nehmen, z.B. RawTherapee, bei welchem der Quellcode offen liegt und man so alle Schritte genau nachvollziehen kann. Was ich aber mit Sicherheit allein aus Zeitgründen nicht tun werde.

 

Und falls ich mich doch irre und LR bei unterschiedlichen Kameras sich unterschiedlich verhält, dann ist es zumindest verwunderlich, das tendenziell grössere Sensoren tendenziell mehr Spielraum in den "Lichtern" zeigen.

 

 

Ich habe die Herkunft dieses Threads nicht verfolgt, mir ist auch nicht ganz klar, was hier in diesen Thread gehört und was nicht. Nun ja, EBV sicher eher nicht, da geben ich dir recht. Im Eingangspost steht aber recht viel von Sensorformaten, Lichtmengen und auch Rauschen. Und wenn man bei so einer Diskussion ist, dann ist man auch schnell bei der Dynamik. Und so dachte ich, das passt hier gut rein.

Link zum Beitrag
Auf anderen Seiten teilen

Ich widerspreche dir nur ungern, aber es handelt sich um Banding, nicht um Tonwertabriss. Tonwertabrisse entstehen, wenn zwischen zwei Grauwerten eine Lücke entsteht, z.B. bei einer zu steilen Gradationskurve. Banding entsteht, wenn ein Grauwert nur ungenau zugeordnet werden kann, z.B. bei einer zu geringen Auflösung.

OK, wir reden hier von zwei verschiedenen Dingen. Ich dachte an die vertikalen und/oder horizontalem Streifenmuster,

die auf dem Rauschlevel mitunter zu sehen sind. Siehe unten das verkleinerte Vollbild. Diese "Bänder" ändern sich auch laufend, d. h. sie liegen bei jeden Bild anders, haben aber immer diese Bandstruktur.

Mit deiner Erklärung komme ich noch nicht richtig klar. Was ich nicht verstehe ist: "Banding entsteht, wenn ein Grauwert nur ungenau zugeordnet werden kann, z.B. bei einer zu geringen Auflösung." Das kann doch rein zufällig im Bild verteilt sein und hat keinerlei irgendwie regelmäßige Struktur, die nach "Band" aussieht?

Das will ich aber hier nicht vertiefen, falscher Thread.

(...)

Und falls ich mich doch irre und LR bei unterschiedlichen Kameras sich unterschiedlich verhält, dann ist es zumindest verwunderlich, das tendenziell grössere Sensoren tendenziell mehr Spielraum in den "Lichtern" zeigen.

 

Eigentlich ist das nicht verwunderlich. Ein Sensor mit der vierfachen Fläche hat eben 6 dB besseres S/N.

Nun ist es doch nur noch eine Frage der Herstellerphilosopjie, wie er die Gradationskurve da rein legt und wie die aussieht.

 

Ich habe die Herkunft dieses Threads nicht verfolgt, mir ist auch nicht ganz klar, was hier in diesen Thread gehört und was nicht. Nun ja, EBV sicher eher nicht, da geben ich dir recht. Im Eingangspost steht aber recht viel von Sensorformaten, Lichtmengen und auch Rauschen. Und wenn man bei so einer Diskussion ist, dann ist man auch schnell bei der Dynamik. Und so dachte ich, das passt hier gut rein.

War nur als Hinweis gedacht. Weiter austreten sollten wir das hier nicht. Hier würde eh keiner EBV suchen.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Entwickelt wurde mit Lightroom, die Belichtung wurde jeweils komplett herunter geregelt um möglichst viel aus den hellen Bereichen heraus zu holen. Im Gegenzug wurde die Aufhellung auf Maximum gestellt, Weissabgleich auf Auto.

Beide Kameras zeigen in den dunklen Bereichen etwa die gleichen Details und vergleichbares Rauschen, in den hellen Bereichen brennt die D5100 jedoch deutlich weniger aus.

Grundsätzlich ja, das Problem bei den Bildern beider Kameras ist, dass sie in der Reflexion auf dem Schreibtisch Posterisation zeigen, die Wiederherstellung der Lichter also gescheitert ist. Eigentlich müssten ja mindestens 4096 Helligkeitsstufen zur Verfügung stehen, ich sehe aber nur noch zwei oder drei.

 

Ich widerspreche dir nur ungern, aber es handelt sich um Banding, nicht um Tonwertabriss. Tonwertabrisse entstehen, wenn zwischen zwei Grauwerten eine Lücke entsteht, z.B. bei einer zu steilen Gradationskurve. Banding entsteht, wenn ein Grauwert nur ungenau zugeordnet werden kann, z.B. bei einer zu geringen Auflösung.

Und was ist jetzt genau der Unterschied zwischen einer Lücke zwischen Tonwerten und einer zu geringen Auflösung? In beiden Fällen wird die Anzahl der Tonwerte reduziert. Eine Reduktion der Tonwerte, bzw. der Farbauflösung kann ja auch durch eine Gradationskurve geschehen, ist ja kein Widerspruch.

 

Im übrigen habt ihr beide Recht. Banding steht sowohl für für den Posterisationseffekt, der Begriff wird aber auch für eine bestimmte Rauschart gebraucht, z.B. hier (types of noise).

Link zum Beitrag
Auf anderen Seiten teilen

Mit deiner Erklärung komme ich noch nicht richtig klar. Was ich nicht verstehe ist: "Banding entsteht, wenn ein Grauwert nur ungenau zugeordnet werden kann, z.B. bei einer zu geringen Auflösung." Das kann doch rein zufällig im Bild verteilt sein und hat keinerlei irgendwie regelmäßige Struktur, die nach "Band" aussieht?

 

Stimmt. Mit Auflösung meine ich die Genauigkeit, also z.B. 8Bit, ist diese zu gering, kann es eben zu diesen Strukturen kommen, oder eben auch zu Rauschen verteilt im Bild, hängt vom Bildinhalt ab. Wobei beide Effekte als Rauschen zu verstehen sind. Mit Banding meine ich den von Nolite als Posterisation bezeichneten Effekt, wobei Posterisation künstlich in ein Bild eingebracht wird und erwünscht ist, Banding jedoch nicht.

Mir ging es aber oben um die Dynamik und die hat mit einer zu geringen Auflösung bei der A/D-Wandlung erstmal nichts zu tun.

 

Eigentlich ist das nicht verwunderlich. Ein Sensor mit der vierfachen Fläche hat eben 6 dB besseres S/N.

 

Das klingt nun aber ein wenig anders, als du in #62 geschrieben hast. Zudem sind 6dB SNR eine Menge, wenn man bedenkt, das man Rauschen ab etwa 50dB SNR kaum noch wahrnimmt.

 

Nun ist es doch nur noch eine Frage der Herstellerphilosopjie, wie er die Gradationskurve da rein legt und wie die aussieht.

 

Im Raw sollte genau das nicht enthalten sein, max. eine Linearisierung der Grauachse, wobei dies schon zur Kalibrierung zählt und im Raw auch nichts suchen hat. Was zudem auch auch erst nach dem Demosaicing richtig Sinn macht.

 

 

Grundsätzlich ja, das Problem bei den Bildern beider Kameras ist, dass sie in der Reflexion auf dem Schreibtisch Posterisation zeigen, die Wiederherstellung der Lichter also gescheitert ist. Eigentlich müssten ja mindestens 4096 Helligkeitsstufen zur Verfügung stehen, ich sehe aber nur noch zwei oder drei.

 

Diese "Posterisation" zu zeigen war ja auch Sinn der Sache. So kann man sehen, welchen Spielraum man nach oben hat. Und hier hat die D5100 eben mehr Spielraum als die G3, bei der ich erst etwa 2/3 bis eine Blende unterbelichten muss, um auf ein ähnliches Ergebnis zu kommen.

 

Und was ist jetzt genau der Unterschied zwischen einer Lücke zwischen Tonwerten und einer zu geringen Auflösung? In beiden Fällen wird die Anzahl der Tonwerte reduziert. Eine Reduktion der Tonwerte, bzw. der Farbauflösung kann ja auch durch eine Gradationskurve geschehen, ist ja kein Widerspruch.

 

Stimmt. Es ging um die A/D-Wandlung, welche erstmal keinen Tonwertabriss produziert. Towertabriss ist, wenn zwischen benachbarten Grauwerten, durch z.B. Anwendung einer Gradationskurve, im zur Verfügungstehenden "Spektrum" vorhandene Grauwerte plötzlich nicht mehr genutzt werden, was wiederum zu sichtbaren Banding führen kann.

 

 

Das ist aber alles EBV und hat imho nichts mit dem von mir angesprochenem Problem zu tun. Und wie ich bereits oben schrieb, dürfte dies auch nichts mit der A/D-Wandlung zu tun haben. Zwar habe ich ein gewisses Verständnis für Elektronik und Physik, jedoch ist hier mein Wissen auch begrenzt.

Wenn es auf Gradationskurven bzw. EBV zurückzuführen wäre, dann wäre es ja einfach für die Hersteller dieser Dynamik-Diskussion zu begegnen. Die immer wieder vorgebrachten Vorteile grösserer Sensoren sind ja eben besseres Rauschverhalten (was bei gleichen Bedingungen so nicht stimmt) und die höhere Dynamik. Da die Hersteller aber auch Konkurrenten sind, wäre es ja ein Leichtes, durch Anwenden einer entsprechenden Gradationskurve der Dynamik-Diskussion ein Ende zu bereiten.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Mir ging es aber oben um die Dynamik und die hat mit einer zu geringen Auflösung bei der A/D-Wandlung erstmal nichts zu tun.

Ja.

Das klingt nun aber ein wenig anders, als du in #62 geschrieben hast. Zudem sind 6dB SNR eine Menge, wenn man bedenkt, das man Rauschen ab etwa 50dB SNR kaum noch wahrnimmt.

6 dB sind die 2 Blendenstufen zwischen (m)FT und KB, eben dem Flächenverhältnis 1:4. Gleiche Technologie vorausgesetzt. Das muss man schlucken, ob man will oder nicht.

Die von Dir genannten 50 dB SNR sind übrigens ein interessanter Wert. Das entspricht 8 1/3 Blendenstufen. Ein relativ alter FT-Sensor alleine hatte 64 dB und der Kodak-Sensor für MF (egal welche Pixelzahl) liegt bei 70...71 dB. Die übrige Kameraelektronik sorgt dann für eine Verringerung des SNR. Photonenrauschen liegt bei großer Helligkeit (entsprechend ISO 200, f/8 und 1/1000 s) in etwa 9 Blendenstufen Abstand mit fallender Tendenz zu niedrigen Helligkeiten. (Bei 12 Blendenstufen geringerer Helligkeit liegt das Photonenrauschen nur noch in 2 Blendenstufen Abstand darunter.)

Mit viel Glück liegt der Streulichtschleier von Objektiven 36...40 dB unter max. Helligkeit bei "normalen" Alltagsmotiven. Die Rausch- und Dynamikdiskussion wird damit vielleicht etwas relativiert.

Im Raw sollte genau das nicht enthalten sein, max. eine Linearisierung der Grauachse, wobei dies schon zur Kalibrierung zählt und im Raw auch nichts suchen hat. Was zudem auch auch erst nach dem Demosaicing richtig Sinn macht.

Dachte ich mir auch so.

Link zum Beitrag
Auf anderen Seiten teilen

Hier muss man noch hinzufügen, das die 50dB SNR für einen bestimmten Betrachtungsabstand bzw. Auflösung gelten. Ich finde gerade keine Informationen wie diese Auflösung definiert ist, sie dürfte aber im Bereich der Auflösungsgrenze des Auges liegen, also wie von dir genannt etwa 150 dpi auf einem Meter Abstand (eher weniger).

 

Die Bildschirme die wir heute benutzen haben eine Auflösung von etwa 100dpi, der Betrachtungsabstand liegt jedoch meist bei etwa 0.5 Meter. Um an die Auflösungsgrenze des Auges zu kommen brauchen wir also entweder Displays mit 300dpi oder einen Abstand von etwa 1.5 Metern. Unter solchen Bedingungen werden selbst ISO 3200 Bilder einer mFT Kamera mehr als brauchbar.

 

Betrachten wir also Bilder mit 100dpi im Abstand von 0.5 Metern, erhöht sich somit auch die Wahrnehmungsgrenze für Rauschen, und liegt dann wohl eher bei 60dB SNR.

Link zum Beitrag
Auf anderen Seiten teilen

Hier muss man noch hinzufügen, das die 50dB SNR für einen bestimmten Betrachtungsabstand bzw. Auflösung gelten. Ich finde gerade keine Informationen wie diese Auflösung definiert ist, sie dürfte aber im Bereich der Auflösungsgrenze des Auges liegen, also wie von dir genannt etwa 150 dpi auf einem Meter Abstand (eher weniger).

(...)

Betrachten wir also Bilder mit 100dpi im Abstand von 0.5 Metern, erhöht sich somit auch die Wahrnehmungsgrenze für Rauschen, und liegt dann wohl eher bei 60dB SNR.

(56 dB;) mein Display bei doppelter Breite und gleicher Auflösung. Das wären dann 3840 x 2400. Die Stelle des schärfsten Sehens könnte bestenfalls 0,3 Winkelminuten auflösen, unter optimalen Bedingungen löst das Auge max. 0,5 Winkelminuten auf.)

Das kommt in etwa auf meine Angaben raus. Genau da ist ja auch der Knackpunkt bei all diesen Betrachtungen, beim Betrachtungsabstand. Es kommt doch niemand ernsthaft auf die Idee, die Qualität eines Fotos auf einem Plakat von 4m x 4m aus 50 cm Abstand zu beurteilen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich bin nicht sicher, ob über die Belichtung tatsächlich ein Rückschluss auf die Full-Well-Capacity des Sensors möglich ist. In Absprache und nach Konsultation mit wolfgang_r möchte ich das etwas näher ausführen, so ganz weit weg vom Thema ist es ja auch nicht.

 

1.) Pixelgröße und Full-Well-Capacitiy

 

Wenn man Rückschlüsse auf die Full-Well-Capacity in Abhängigkeit von der Pixelgröße ziehen möchte, dann wäre es zielführend, Sensoren möglichst gleichen Typs heranzuziehen, z.b. den 12Mpix Sensor der Panasonic G1 und den 16Mpix sensor der G3. Das Format ist zwar dasselbe, aber die Pixel der G3 sind kleiner, und nur das zählt. Also müsste die Sättigung früher eintreten, bzw. die Empfindlichkeit höher sein.

 

Nun nimmt DxO ja genau solche Messungen vor, nämlich das Ermitteln der ISO-Sensitivity. Das Verfahren ist hier beschrieben (unter "Definition"): Man ermittelt den ISO-Wert anhand des Punkte, an dem der Sensor bei Belichtung in die Sättigung geht. Eigentlich ist das genau das, was wir suchen: Die Lichtmenge, die notwendig ist, um Full-Well zu erreichen.

Wenn man sich nun aber die ISO-Werte G1 (12Mpix), die G3 (16Mpix) und die E-P3 (12Mpix) im Vergleich anschaut, dann passiert etwas merkwürdiges: G3-E-P3-G1 bei DxO --> Measurements --> ISO Sensitivity:

Der ISO-Wert der E-P3 liegt trotz praktisch gleich großen Pixeln um eine ganze Stufe niedriger als bei der G1. Die G3 liegt trotz kleinerer Pixel genau zwischen den beiden. Es gibt offensichtlich überhaupt keinen auf diese Art und Weise messbaren Zusammenhang zwischen Pixelgröße und Full-Well-Kapazität.

 

2.) Headroom

 

DxO schreibt dazu:

"As tests show, the ISO settings reported by camera manufacturers can differ significantly from measured ISO in RAW. This difference stems from design choices, in particular the choice to keep some “headroom” to avoid saturation in the higher exposures to make it possible to recover from blown highlights."

 

Die Frage, wieviel "Headroom" abgespeichert wird, wo dieser "Headroom" sich befindet, und ob dieser "Headroom" für das Messergebnis eine Rolle spielt, bleibt leider ungeklärt.

Wenn tatsächlich die Sättigung gemessen wird (was laut ISO-Norm notwendig ist), dann darf es keinen Headroom geben, denn sonst würde die Sättigung ja gar nicht erreicht werden, und man müsste den Headroom zusätzlich ermitteln und dazu addieren, weil sonst das ganze Ergebnis nicht stimmt. Auch die Dynamikmessung wäre dadurch verfälscht.

Außerdem könnte die Konsequenz des verschwurbelten Satzes bei DxO, bzw. die Existenz eines Headrooms, die sein, dass die Herstellerangaben bezüglich der ISO eventuell doch stimmen, und dass im einfachsten Fall der Headroom die Differenz zwischen zwischen Hersteller-ISO und DxO Messwert ist. Die Logik legt das nahe, allein man traut sich nicht, es zu denken. Man müsste die ganzen Messerrgebnisse korrigieren, und zwar alle.

 

Was DxO allerdings übersieht, ist, dass die Belichtung in Kameras über eine Kurve funkioniert, nicht linear. Für einen kleinen Headroom, bzw. dafür, dass die Lichter nicht ausbrennen und die Schatten nicht zulaufen, sorgt bereits eine oben und unten mehr oder weniger flach auslaufende S-Kurve, die in der Praxis auch als effektiver Puffer gegen leichte Fehlbelichtungen wirkt, und dafür sorgt, dass das Bild nur ein wenig zu hell oder zu dunkel ist statt unbrauchbar.

Anders gesagt: Die Belichtungsfunktion der Kamera richtet sich nicht am Sättigungspunkt der Pixel aus, sondern zielt ein Endergebnis an. Sobald der Fotograf sich am Histogramm oder am auf dem Display dargestellten Bild orientiert, bezieht er eine von der Kamera zur Verfügung gestellte Gradationskurve mit ein. Diese Gradationskurve "verbiegt" jedoch den Dynamikumfang des Sensors, weil sie ihn oben und unten komprimiert. Korrigiert man nun zusätzlich noch die Belichtung etwas nach unten (ca. 1/3-2/3EV), vergrößert man diesen Puffer deutlich, weil man die Kurve nach oben hin noch flacher auslaufen lassen kann. Die Lichterpartien werden automatisch geschützt und erhalten mehr Zeichnung, selbst, wenn man das nicht sieht, weil die feinen Unterschiede normalerweise vom Display oder Monitor nicht dargestellt werden können. Es sei denn, man zieht die Lichterkurve nach unten, dann wird es deutlich.

 

Der Headroom würde also einfach durch eine gezielte Unterbelichtung erzeugt, die im Normalfall von der Gradationskurve sofort wieder korrigiert wird (ohne dass es der Anwender mitbekommt).

Damit wäre der Headroom jedoch wieder komplett aufgezehrt, die DxO Ergebnisse wären in sich schlüssig und die Welt stimmt wieder. Aber der Headroom ist verschwunden. Und Dxo misst nicht eigentlich die Sättigung der Pixel, sondern den Weißpunkt.

 

Könnte es nicht doch noch einen verborgenen Headroom im RAW geben, den man sich mit der Funktion der Lichterrettung, bzw. Highlight-Recovery im RAW-Konverter erschließen kann?

Wenn es ihn gäbe, dann müsste das Highlight-Recovery wie eine Belichtungskorrektur wirken, das heißt, das Bild würde insgesamt etwas dunkler werden und in den Lichterpartien müsste mehr Zeichnung zum Vorschein kommen, allerdings ohne Tonwertabrisse, Posterizing-Effekte, Farbsprünge, oder wie immer man diese Effekte auch nennen will. Sobald solche Effekte auftreten, spricht das ziemlich deutlich dafür, dass hier Daten hineingemappt und gestreckt werden, weil es eben an echten Informationen fehlt.

Link zum Beitrag
Auf anderen Seiten teilen

Ok, so kommen wir nicht weiter. Ich kann da auch keinen Zusammenhang erkennen.

 

Allerdings denke ich nicht, das man eine G3 mit einer G1 vergleichen sollte, das sind einfach andere Sensorgenerationen. Aber vielleicht eine Nex7 und eine Nex5n? Die Nex7 zeigt ja auch aufgrund der kleineren Pixel ein entsprechend höheres Pixelrauschen gegenüber der 5n, was auf gleiche Technik hindeutet. Merkwürdigerweise zeigt die Nex7 jedoch keine Einbussen in der Dynamik?

 

Ich glaube auch nicht, das die Differenzen bei den ISOs den "Headroom" begründen. Es gibt ja auch Kameras, wie die G1/GF1, welche höhere gemessene ISOs haben als angegeben. Bei der GF1 wurde für ISO-800 ISO-1184 gemessen, das wäre also ein negativer "Headroom". Würde die GF1 aber die Belichtung mit ISO-800 berechnen, hätte man ständig überbelichtete Bilder.

Da ich die GF1 habe, kann ich sagen, das dies nicht so ist. Interessant ist jedoch, das die GF1 offensichtlich um ihre höheren ISO Werte bescheid weiss und so belichtet sie gegenüber der G3 in der gleichen Situation und gleichem ISO durchschnittlich 1/3 kürzer.

 

Was DxO allerdings übersieht, ist, dass die Belichtung in Kameras über eine Kurve funkioniert, nicht linear.

 

Den Satz verstehe ich nicht ganz. Meinst du damit die Belichtungsmessung? Dafür sind doch die unterschiedlichen Messmethoden (Spot, Mittenbetont) verantwortlich. Wo da eine S-Kurve sein soll verstehe ich auch nicht.

 

Wenn dieser "Headroom" wirklich über eine entsprechend eingestellte Belichtung zustande kommt, dann müsste man ja bei Kameras mit mehr "Headroom" Unterbelichtung oder verstärktes Rauschen in den Schatten beobachten.

Die Nikon D5100 aus meinem Versuch, war sich tatsächlich sehr unschlüssig über die Belichtung und schwankte sehr stark. Da ich aber die Grenzfläche zwischen Hell und dunkel angepeilt habe, ist das aber eigentlich nicht verwunderlich. Bei der Einstellung der Belichtungskorrektur z.B. +1/3 oder -1/3 fing sie dann an noch stärker zu schwanken und veränderte die Belichtungszeit meist deutlich mehr als 1/3 nach oben oder unten. Die G3 blieb da absolut vorhersagbar. Die Belichtungsmessung habe ich bei der D5100 im Liveview vorgenommen. Mit offenem Spiegel (und somit dem Belichtungssensor) wählte Sie sogar Belichtungszeiten um 1/1600s.

Die D5100 hat jedoch nach DXO etwa 1/3 geringere ISOs, ich hätte sie also beim ISO um 1/3 erhöhen müssen, habe ich leider vergessen. Das hätte jedoch eher dazu geführt, das sie kürzer belichtet, was somit den Details in den Highlights noch mehr zugute gekommen wäre.

 

Auch denke ich das wir die Wiederherstellung oder Lichterrettung nicht weiter betrachten sollten, denn dies ist ja wieder EBV und zeigt ja eben nicht wieviel Spielraum man hat, da dieser ja schon überschritten ist.

 

 

Da ich die GF1 habe könnte ich den Versuch, falls gewünscht, damit auch noch durchführen. Aber ich denke nicht das uns das weiter bringt.

 

Vielleicht aber könnten wir mal die Frage klären, warum eine Nex7 ein Basis ISO von gemessenen ISO-78 (100) erreicht, eine G3 bei nahezu gleich grossen Pixeln jedoch ISO-149 (160)? Wodurch wird diese Basis-Empfindlichkeit festgelegt?

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Benutzer

    • Keine registrierten Benutzer online.
×
×
  • Neu erstellen...