Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Die Reserven sind aber als Abstufungen der Tonwerte zu verstehen und nicht als absoluter Tonwertumfang von "ganz unten" bis Sensorsättigung.

Aus den 12(14,16) Bit kann ich nur feiner abgestuft Beginn und Ende des abzubildenden Tonwertumfangs bestimmen und dazwischen mit den restlichen 254 von den 256 Stufen die Tonwerte verteilen.

 

Hier hab ich Dich entweder falsch verstanden oder Du interpretierst etwas nach m. M. verkehrt:

 

Mit Anfang und Ende haben die 14/16 Bit genauso wenig zu tun wie mit Dynamikumfang. Daher nochmals die Frage: Wie kommst Du auf 254 von 256 Stufen, ziehst Du Schwarz und Weiß von 256 Stufen ab, oder hast Du einen anderen "Hintergedanken", den ich an dieser Stelle noch nicht verstanden habe?

 

 

Meine Vorstellung zu dieser Umrechnung:

Wir haben eine "Tabelle von Sensorhelligkeiten" (14Bit) und eine Tabelle von "Ausgabehelligkeiten" (etwa Monitor, 8Bit).

 

Im RAW Konverter / JPG Engine werden die 14 Bit auf die 8 Bit heruntergerechnet werden, um auf ein sichtbares Bild zu bekommen.

 

Diese Rechnung verläuft aber nicht linear, sondern über die zum Bild speziell entwickelte Gradationskurve (evtl. sogar unterschiedlichen Gradationskurven auf unterschiedlichen Bildteilen, wenn man mit partiellen Korrekturen arbeitet).

 

Und hier trennt sich die Spreu vom Weizen:

Je mehr Information und Auflösung die 14-Bit-Sensorvorlage liefert, desto genauer kann ich diese Abbildung auf 8 Bit herunterrechnen und umso mehr Informationen kann ich in das 8-Bit Schema packen (abhängig davon, wie steil oder flach die Gradationskurve an bestimmten Stellen ist). Andersrum: Ist mein Sensor "zu grob", werden beim Verdichten auf 8 Bit große Bestandteile des Bildes mit identischer Farbinformation codiert (speziell an den steilen Stellen der Gradationskurve), ein solches Bild könnte man also auch mit 6 statt 8 Bit codieren (die Bilder wirken dann plakativ und flach = niedrige Entropie), wogegen ein "optimaler Grauwertverlauf" die 8-Bit richtig ausschöpft (= hohe Entropie).

 

Daher auch meine Meinung (und hier wieder zum Thema): Je größer die Eingangsdynamik (der Bereich, in dem der Sensor Hell-/Dunkel Information noch gut trennen kann), desto differenzierter die Tonwertverteilung auch in den Mitten (= hohe Entropie). Wir müssen also nicht erst extreme Lichter und Schatten in unseren Bildern haben, um diesen Effekt nutzen zu können.

 

Im Extremfall ist also selbst eine Nebelaufnahme mit nur ganz geringen Helligkeitsunterschieden mit einem guten Sensor besser abzubilden als mit einem Sensor, der komprimiert - der eine sieht 8 Grautöne, der andere vielleicht nur 5 ;)

 

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Der Sensor selbst "sieht" noch viel mehr (feinere) als die 4096 Abstufungen, er ist ja noch analog und sehr weitgehend linear. Lediglich in der Nähe der Empfindlichkeitsgrenze (Rauschgrenze, Quanteneffizienz) ist die Abstufung interessant. Der AD-Wandler macht ja noch keine Kurve, der wandelt erstmal linear um. Erst dann werden die Abstufungen verschoben, also durch digitale Schiebereien die Ausläufe z. B. erzeugt. Deshalb nimmt auch die gemessene Dynamik bei allen Kameras oberhalb einer gewissen Grenze mit jeder ISO-Stufe nach oben um eine Stufe ab. Die Quanteneffizienz ist eine Technologiefrage, genau darauf kommt es an. Dann kommt es darauf an, wo unten in oder über dem Sumpf der Wandler ansetzt und welche der LSB gleich weggeschmissen werden, da ist der Start der Kurve. Alles andere danach ist nur Mathematik. Daraus rechnen wir dann die 3x8 Bit JPG für die Ausgabe. Schwarz ist dann 0 und max. Weiß ist 255, dazwischen die restlichen 254 Stufen (wenn man alle nutzt).

Um auf den Nebel zu kommen: Am Ende wird der mittelgraue Nebel mit seinen minimalen Helligkeitsunterschieden mit der gleichen Stufung ausgegeben, egal aus welchem Sensor. "Wie" er abgestuft wird hängt nur von der Gradationskurve in diesem Bereich ab und wie ich sie biege.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Erst scheinheilig fragen und dann besser wissen wollen...

 

deadpoet scheint irgendwie der Auffassung zu sein, dass das die normale Art & Weise ist eine Diskussion zu führen.

 

Sein Link hier beinhaltet aber doch an sich alles was man dazu sagen kann (und was hier auch schon öfters durchgekaut wurde):

Bewältigen Digitalkameras einen zu geringen Dynamikumfang?

 

Der vom Sensor bewältigte Dynamikumfang ist das Verhältnis zwischen der Helligkeit, ab der Übersteuerung eintritt, und der Helligkeit, die eine Ladung in Höhe des Rauschens erzeugt. Zu einer Vergrößerung des Dynamikumfangs kann daher sowohl eine Vergrößerung der speicherbaren Ladungsmenge wie auch eine Verringerung des Rauschens beitragen.

 

Sprich größere Pixel oder weniger Rauschen mögen hilfreich sein.

Auch die Frage der Dynamik wird hier erklärt (warum wird in ein OOC Jpeg evtl. nicht immer alles an Dynamikumfang gepackt, so dass es in RAW je nach Kamera tatsächlich eine "Schublade" gibt aus der man mit den Reglern mehr zaubern kann):

 

Der Dynamikumfang des digitalen Bildes hat wiederum nichts mit dem Bildkontrast zu tun.

 

...

 

Allein damit, dass man den großen Dynamikumfang zwischen Schatten und direktem Sonnenlicht in den digitalen Bilddaten beschreiben kann, hat man aber noch nicht das Problem gelöst, diesen Dynamikumfang auch wiederzugeben.

 

...

 

Wie kann man nun das Tonwertspektrum der Bilddaten in das schmalere Tonwertspektrum komprimieren, das Monitore oder Fotopapiere wiedergeben können? Im einfachsten Fall würde man die hellsten und dunkelsten Tonwerte des Bildes mit den hellsten beziehungsweise dunkelsten Tonwerte des Ausgabemediums wiedergeben und die Tonwerte dazwischen linear interpolieren. Das Ergebnis fiele dann allerdings sehr flau aus

 

Kommt einem die Diskussion irgendwie bekannt vor?

Irgendwie haben sich die letzten 10 Seiten doch schonmal darum gedreht. ;)

 

Der Artikel kommt also zu dem Schluß, dass man die Gradiationskurve verändern muss nachdem man den Tonwertumfang des Sensors möglichst maximal genutzt hat (S-Form --> anheben des Kontrasts bei gleichzeitigem Fixieren der Endpunkte).

 

Es läuft also wieder auf die Funktion AutoDR oder Dynamikerweiterung der Kameras hinaus:

Sie machen das selbe, indem sie die Gradiationskurve intern für das OOC Jpeg anpassen.

Dennoch hat man bei vielen Kameras auch mit AutoDR nicht den vollen Zugriff auf alle Tonwerte die der Sensor aufgenommen hat.

 

Und hier kann dann auch durchaus die Farbtiefe bei der Nachbearbeitung mit reinspucken:

Wenn ich immer mit max. Dynamikerweiterung Jpegs fotografiere (anstatt das vor jedem Bild mühsam an der Kamera umzustellen) gibt es sicher auch Bilder wo ich dann nachträglich doch den Tonwertumfang clippe.

Dabei strecke ich aber dann Tonwerte im Jpeg.

Dies führt schneller zu sichtbaren Farbabstufungen als bei einer Bearbeitung aus einer RAW Datei mit höherer Farbtiefe/feineren Abstufungen.

 

Das Fazit des verlinkten Artikels passt hier gut:

Naturgemäß bietet ein Raw-Format die besten Voraussetzungen dafür, die vom Sensor aufgelösten Tonwerte so zu stauchen und zu strecken, wie es das jeweilige Motiv verlangt.

 

Und da das Karussell sich so schön dreht und als nächstes die gleichen Einwände wie das letzte mal kommen, antworte ich auch gleich darauf um uns allen etwas Zeit zu ersparen. :D

 

Wolfgang hat ja schon darauf hingewiesen (und mir da netterweise auch abseits des Threads noch auf die Sprünge geholfen), dass die Streulichtanfälligkeit eines Objektivs einen großen Einfluss auf die mögliche Dynamik hat.

Es macht das Bild flau und wir verschenken gerade bei Bildern mit Lichtquellen im Bild (wie z.B. die beliebten Bilder mit Blick in den Sonnenuntergang) je nach Motiv eine Menge des Dynamikumfangs.

Aber auch sonst hat wird man immer einen Streulichtanteil haben.

Evtl. würde bei dieser Situation ein weniger anfälliges Objektiv am kleineren Format mehr bringen als der Umstieg auf ein größeres Format.

(Mal als kleine Anspielung zur Altglasnutzung die oft weit Streulichtanfälliger ist.)

 

Wir kommen daher in der Realität wahrscheinlich auch sehr selten in die von deadpoet angesprochene Problemgegend der 10-12EV wo die Auflösung selbst im RAW dann schon sehr gering ist und man tatsächlich nicht mehr viel aus den Schatten holen könnte.

Die am Sensor ankommende Dynamik dürfte somit oft weit geringer sein.

 

Wenn wir beim größeren Format aber auch größere Pixel haben, dürfte die speicherbare Ladungsmenge und somit die Gesamtdynamik (nicht verwechseln mit nutzbare Dynamik, siehe weiter unten) auch größer sein.

Zur Zeit ist das ja meist der Fall, da die kleineren Formate eben auch einen goldenen Schnitt zwischen Auflösung und Dynamik finden müssen.

Es sollte also bei gleich schlechten/guten Objektiven, was Dynamikumfang nach Streulichtverlusten angeht, ein Vorsprung für das größere Format bleiben auch wenn die Dynamik kleiner ist als bei optimalen Testbedingungen.

 

 

Zu guter letzte noch zu Wolfgangs scherzhafter Frage zwecks Loch in den Monitor brennen: ;)

Was passiert dann, wenn ich Bilder einmal auf einem 24"-Monitor und das andere Mal auf einem Smartphone ausgebe? Brennt die Sonne dann ein Loch ins Display, wenn ich ihre Pixel so weit zusammen schiebe?

 

Wie schon erwähnt gibt es meiner Meinung nach 2 Dingen die den Dynamikumfang begrenzen.

Einmal den tatsächlichen maximalen Dynamikumfang der Pixel.

Der wird bestimmt durch die max. speicherbare Ladungsmenge und somit der Pixelgröße.

Zusätzlich haben wir noch das Problem mit der Physik (z.B: Photonenrauschen durch das auch riesige Pixel oder neue Technik uns nicht unendlich weiter bringen wenden).

Nennen wir das mal den"Gesamtdynamikumfang".

 

Zusätzlich mag ich evtl. Teile in den Tiefen nicht nutzen wegen zu hohem Rauschen.

Hier beschneide ich den Dynamikumfang also freiwillig für ein besseres Bildergebnis.

Nennen wir das mal den "nutzbaren Dynamikumfang".

Da das Rauschen durch Verkleinern abnimmt, kann man evtl. bei kleineren Ausbelichtungen mehr der Gesamtdynamik verwenden.

 

Die nutzbare Dynamik nähert sich bei der Verkleinerung also der Gesamtdynamik an.

Sie kann sie logischerweise aber nie übersteigen.

 

Die Antwort ist also:

Nein, du muss keine Sorgen um deine Monitore haben Wolfgang. ;)

bearbeitet von Thyraz
Link zum Beitrag
Auf anderen Seiten teilen

Jetzt war Thyraz schneller und hat schon was vorweg genommen, aber trotzdem:

Die Super-High-Dynamikgeschichte ist eigentlich ein völliger Kokolores. Viel mehr als 9 Stufen sind bei normalen "irdischen" Verhältnissen einfach nicht da rein zu kriegen, schon gar nicht bei Feinstrukturen.

Bei Spiegeloptiken in der Astrofotografie nachts auf dem Berg ohne Störlicht weitab von bewohnten Gegenden klappt das, da geht auch mehr. Nicht ohne Grund bremst "irgendwas" die Messungen immer bei gegen 11 Stufen aus, egal welches Format da getestet wird. Das Zonensystem geht auch nicht ohne Grund von etwa diesem Umfang aus. Man muss sich nur mal die Verhältnisse vor Augen halten. Noch kein halbes Prozent weniger Streulicht kann schon eine Stufe mehr Dynamik bedeuten. Die Leute vergessen immer, dass die Geschichte mit einem quadratischen Maßstab gemessen wird. Streulicht-Reduktion von 0,39% auf 0,195% klingt nach nichts, ist aber eine Stufe mehr Dynamik.

Wegen PISA mal ganz einfach:

100 (0 EV, Sensor gesättigt)

50 (-1 EV)

25 (-2 EV)

12,5 (-3 EV)

6,25 (-4 EV)

3,125 (-5 EV)

1,5625 (-6 EV)

0,78125 (-7 EV)

0,390625 (-8 EV)

0,1953125 (-9 EV)

0,0976525 (-10 EV)

0,048828125 (-11 EV)

 

DSLR-Forum - Einzelnen Beitrag anzeigen - 5DIII vs. D800 Dynamik

DSLR-Forum - Einzelnen Beitrag anzeigen - Rauschen kleinere Sensoren wirklich mehr?

"Ansonsten haben übliche Objektive etwa 0,5 bis 1,5% Falschlichtanteil.

Ist 99% des Bildes hell und 1% dunkel, bekommen die dunklen Bereiche 0,5% bis 1,5% des Lichts der hellen Regionen ab.

Sind nur 10% hell, sind es nur 0,05% bis 0,15%. U.s.w."

So isses, ob das nun den Vollformat-Freaks recht ist oder nicht.

Je kleiner die aufzunehmenden Strukturen werden, um so geringer wird der Kontrast bei diesen Strukturen (zusätzlich zur Kontrastminderung durch das Objektiv noch durch den Einfluss der Beugung). Ein Blick auf MTF-Kurven bei verschiedenen Ortsfrequenzen zeigt das deutlichst.

Ich zeige immer wieder gern dieses Bildchen >KLICK<. Es zeigt die Verhältnisse auf einen Blick.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Ich habe mir jetzt doch die RAW der Fuji angeschaut und vergleichen. Hmmm....irgendwie macht die Kamera mehr Laune als das was da Sony KB bietet. Scheisse...

 

Aber worum geht's mir in der Fotografie dann?

 

Ich weiß es ehrlich gesagt nicht mehr.

 

Verloren in den Zahlenwerten,Statistiken und Minimal Differenzen...

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

FotoHits hat bei der A7R eine Dynamik von 10,8 Blendenstufen, bei der A7 11,2 und bei der GX7 11,5 Stufen gemessen.

 

Bevor ich nun von Anhängern jeglichen Formats erschlagen werde: Ja, FotoHits ist nicht die erste Adresse für Tests. Darum geht es mir auch nicht.

 

Hier werden die letzen Details des Dynamikumfang ausgebreitet (wobei die theoretischen Hintergründe zum großen Teil gut erläutert werden), während sich im "wahren" Leben die Tester nicht über Art und Bewertung der Messungen einig sind und die Unterschiede oftmals so gering sind, dass die Maschine, aber nicht der Mensch sie erkennt.

Link zum Beitrag
Auf anderen Seiten teilen

FotoHits hat bei der A7R eine Dynamik von 10,8 Blendenstufen, bei der A7 11,2 und bei der GX7 11,5 Stufen gemessen.

 

Bevor ich nun von Anhängern jeglichen Formats erschlagen werde: Ja, FotoHits ist nicht die erste Adresse für Tests. Darum geht es mir auch nicht.

 

Hier werden die letzen Details des Dynamikumfang ausgebreitet (wobei die theoretischen Hintergründe zum großen Teil gut erläutert werden), während sich im "wahren" Leben die Tester nicht über Art und Bewertung der Messungen einig sind und die Unterschiede oftmals so gering sind, dass die Maschine, aber nicht der Mensch sie erkennt.

 

Genau, recht hast Du. Deswegen muß man ab und zu die Kamera auch in die Hand nehmen und mit ihr "arbeiten" (Arbeit darf gerne auch Spaß machen :)).

 

Hier ein Vergleich A7 / GX7. Was hab ich gemacht: Ich habe auf meinem Mac eine "Lorem Ipsum"-Textpassage mit hellgrauem Text dargestellt. Dann die Belichtung der Kameras manuell so eingestellt (überbelichtet), dass der Text in einer Probeaufnahme gerade noch gut lesbar ist (auf dieselben Werte Blende, Belichtungszeit, beide Iso 200). Mit diesem Wert habe ich die Kameras dann in einen "normal beleuchteten" Teil des Raumes geschwenkt um jeweils eine Aufnahme zu machen. Die Bilder sind hier in diesen Aufnahmen ca. 4 Blenden unterbelichtet und am Monitor ca. 3 Blenden überbelichtet, ein Umstand, der im Freien ständig auftritt, wenn man mit echten Kontrasten zu tun hat (und nicht nur Nebelsuppe fotografiert).

 

Hier das Resultat (links A7, rechts GX7):

 

 

 

Noch nicht ausgelotet habe ich den Umstand, dass ich die GX7 bei Spitzlichtern ebenfalls empfindlicher erwarte als die A7 (das ist der Test, den ich angekündigt habe und nachhole, sobald sich die Sonne blicken lässt), somit die Blende bei GX7 etwas schließen müsste, sich der Abstand in den "normalen Passagen" zur A7 also noch vergrößern wird.

 

Und genau das ist es, was man den A7 Aufnahmen ansieht, auch in der täglichen Praxis: Qualität auch in schwierigsten Lichtsituationen.

 

Ja und die GX7 liefert formatbedingt mehr Schärfe in diesem Bild: Der Preis (oder der Vorteil, wie man will) von VF (Schärfe war in beiden Fällen auf den vorderen, linken Lautsprecher eingestellt).

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Jetzt war Thyraz schneller und hat schon was vorweg genommen, aber trotzdem:

Die Super-High-Dynamikgeschichte ist eigentlich ein völliger Kokolores. Viel mehr als 9 Stufen sind bei normalen "irdischen" Verhältnissen einfach nicht da rein zu kriegen, schon gar nicht bei Feinstrukturen.

Bei Spiegeloptiken in der Astrofotografie nachts auf dem Berg ohne Störlicht weitab von bewohnten Gegenden klappt das, da geht auch mehr. Nicht ohne Grund bremst "irgendwas" die Messungen immer bei gegen 11 Stufen aus, egal welches Format da getestet wird. Das Zonensystem geht auch nicht ohne Grund von etwa diesem Umfang aus. Man muss sich nur mal die Verhältnisse vor Augen halten. Noch kein halbes Prozent weniger Streulicht kann schon eine Stufe mehr Dynamik bedeuten. Die Leute vergessen immer, dass die Geschichte mit einem quadratischen Maßstab gemessen wird. Streulicht-Reduktion von 0,39% auf 0,195% klingt nach nichts, ist aber eine Stufe mehr Dynamik.

Wegen PISA mal ganz einfach:

100 (0 EV, Sensor gesättigt)

50 (-1 EV)

25 (-2 EV)

12,5 (-3 EV)

6,25 (-4 EV)

3,125 (-5 EV)

1,5625 (-6 EV)

0,78125 (-7 EV)

0,390625 (-8 EV)

0,1953125 (-9 EV)

0,0976525 (-10 EV)

0,048828125 (-11 EV)

 

DSLR-Forum - Einzelnen Beitrag anzeigen - 5DIII vs. D800 Dynamik

DSLR-Forum - Einzelnen Beitrag anzeigen - Rauschen kleinere Sensoren wirklich mehr?

"Ansonsten haben übliche Objektive etwa 0,5 bis 1,5% Falschlichtanteil.

Ist 99% des Bildes hell und 1% dunkel, bekommen die dunklen Bereiche 0,5% bis 1,5% des Lichts der hellen Regionen ab.

Sind nur 10% hell, sind es nur 0,05% bis 0,15%. U.s.w."

So isses, ob das nun den Vollformat-Freaks recht ist oder nicht.

Je kleiner die aufzunehmenden Strukturen werden, um so geringer wird der Kontrast bei diesen Strukturen (zusätzlich zur Kontrastminderung durch das Objektiv noch durch den Einfluss der Beugung). Ein Blick auf MTF-Kurven bei verschiedenen Ortsfrequenzen zeigt das deutlichst.

Ich zeige immer wieder gern dieses Bildchen >KLICK<. Es zeigt die Verhältnisse auf einen Blick.

 

Dynamik ist nicht das gleiche wie Kontrast. Kontrast ist das Verhältnis der hellsten zu den dunkelsten Bildbereichen. Dynamik ist das Verhältnis der grössten zu den kleinsten Helligkeitsunterschiede.

 

Streulicht, das auf die ganze Fläche des Bildes fällt, mindert den Kontrast viel stärker als die Dynamik.

Link zum Beitrag
Auf anderen Seiten teilen

Nachtrag:

 

Wer denkt, er wäre mit OOC besser bedient, hier das Ergebnis (GX7) :D:D:D:

 

[ATTACH]122791[/ATTACH]

 

 

Hans

 

Hallo Hans!

 

Wie schätzt Du bei diesem Vergleich den Einfluss der Optik ein?

Danke für Deine Mühen

Gerhard

 

Gesendet von meinem K00C mit Tapatalk

Link zum Beitrag
Auf anderen Seiten teilen

Und genau das ist es, was man den A7 Aufnahmen ansieht, auch in der täglichen Praxis: Qualität auch in schwierigsten Lichtsituationen.

Hier die Histogramme der beiden Kandidaten. Bei beiden bereits deutliche Tonwertabrisse in den dunklen Partien. Und wir haben bei dem Beispiel nicht mal einen hohen Motivkontrast.

 

"Von den 4096 Tonwerten eines 12-Bit-Raw-Formats entfallen also die Hälfte (2048) auf die höchste Blendenstufe und 1024 auf die zweite; für die zehnte Blendenstufe bleiben nur noch vier Tonwerte übrig."

Bewältigen Digitalkameras einen zu geringen Dynamikumfang?

Link zum Beitrag
Auf anderen Seiten teilen

Hier die Histogramme der beiden Kandidaten. Bei beiden bereits deutliche Tonwertabrisse in den dunklen Partien. Und wir haben bei dem Beispiel nicht mal einen hohen Motivkontrast.

. . . .

 

Hallo deadpoet,

 

Vorsicht, Mißverständnis: In den Motivkontrast solltest Du die Monitorhelligkeit (der Testumgebung) mit einbeziehen, sonst macht das Ganze keinen Sinn: Die gewählte Unterbelichtung kommt ja nur deswegen zustande, weil ein "gedachtes", zweites Objekt (Monitor) mit großer Helligkeit mit im Bild sein sollte (das bekannte weiße Haus vor blauem Himmel): Der Motivkontrast ist dann tatsächlich sehr extrem.

 

Ich habe das "helle Objekt" nur deswegen weggelassen, um die Fähigkeit der Sensoren in den Schatten zu betonen.

 

Entsprechend würden die Histogramme der "richtigen" Bilder doch etwas anders aussehen.

 

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

(...)

 

Entsprechend würden die Histogramme der "richtigen" Bilder doch etwas anders aussehen.

 

 

Hans

Den linken Teil der "richtigen" Bilder sieht man, wenn man sich das Histogramm des Bildes in #1512 anschaut. Beim Aufhellen das JPG werden dann auch im Histogramm die Abrisse sehr deutlich. Das wäre im RAW besser zu machen. Vom Rauschen sieht man in der Verkleinerung noch nichts.

Interessant für den evtl. unterschiedlichen Einfluss der Optik wäre es, wenn das helle Objekt mit Sensorsättigung mit aufgenommen würde. Wenn es sich nicht im "Fangbereich" des Objektivs befindet (so wie beim weißen Haus), hat es auch keinen Einfluss. Der Sensor sieht so nur den unterbelichteten Teil des Motivs ohne Beeinflussung durch Störlicht ins Objektiv (egal ob innerhalb oder außerhalb des abgebildeten Motivbereichs; außerhalb sollte es die Streulichtblende im Idealfall abhalten).

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Den linken Teil der "richtigen" Bilder sieht man, wenn man sich das Histogramm des Bildes in #1512 anschaut. Beim Aufhellen das JPG werden dann auch im Histogramm die Abrisse sehr deutlich. Das wäre im RAW besser zu machen. Vom Rauschen sieht man in der Verkleinerung noch nichts.

 

Hier die korrigierte Ansicht der JPG-Aufnahme von #1512:

 

 

 

 

Interessant für den evtl. unterschiedlichen Einfluss der Optik wäre es, wenn das helle Objekt mit Sensorsättigung mit aufgenommen würde. Wenn es sich nicht im "Fangbereich" des Objektivs befindet (so wie beim weißen Haus), hat es auch keinen Einfluss. Der Sensor sieht so nur den unterbelichteten Teil des Motivs ohne Beeinflussung durch Störlicht ins Objektiv (egal ob innerhalb oder außerhalb des abgebildeten Motivbereichs).

 

Aus verschiedenen Gründen habe ich verzichtet, den Monitor mit ins Bild zu nehmen:

 

1) Fokus: Einerseits wollte ich über die Lesbarkeit der Monitorschrift sicherstellen, dass beide Kameras bei der gewählten Belichtung noch Details abbilden können, also musste ich auf den Monitor fokussieren. Wäre der Hintergrund mit im selben Bild, wäre dieser in Unschärfe versunken.

 

Aber der eigentliche Grund:

 

2) Wahrnehmung: Der helle, strahlende Monitor im Bild würde signalisieren: Der Monitor ist das Hauptmotiv, der Hintergrund ist doch gar nicht wichtig - unsere Wahrnehmung unterdrückt für diesen Teil dann auch die Bewertung der aufgetretenen Bildstörungen (das Grundprinzip der Audio-MP3-Kompression). Der Test sollte jedoch bewusst machen, was im "Schatten" einer solchen Aufnahme passiert.

 

Wenn nun jemand die (sehr berechtigte) Frage stellt, was es bringt, im Bild Teile zu optimieren, die unsere Wahrnehmung sowieso ausblendet, dann kommen wir in Grenzbereiche des Themas Fotografie: Nehmen wir vielleicht unbewusst war, was "vordergründig" ausgeblendet wird?

 

Ein geübter Hörer etwa erkennt auf einer hochwertigen Anlage sehr schnell den Effekt einer MP3-Kompression - ich bin der Ansicht, unser Auge / Gehirn ist auch in der Lage, solche Effekte bei Bildern wahrzunehmen.

 

Hans

 

P.S.:

Was ich schon oft erwähnt habe wird an diesem Beispiel auch sichtbar: Der Vorteil einer RAW Konvertierung bei dieser Art von Motiven ist deutlich höher als der durch Sensorgröße erzielte Gewinn. MFT + RAW liegen vor A7 OOC. Dazu kommt noch die nur mäßige JPG-Engine der A7. Das hat mich aber nun wirklich nicht überrascht, ich hänge es hier nur nochmals mit an die Diskussion.

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

"Von den 4096 Tonwerten eines 12-Bit-Raw-Formats entfallen also die Hälfte (2048) auf die höchste Blendenstufe und 1024 auf die zweite; für die zehnte Blendenstufe bleiben nur noch vier Tonwerte übrig."

Bewältigen Digitalkameras einen zu geringen Dynamikumfang?

 

Hab mal ein wenig gesucht, nachdem ich diese Vorgehensweise bei heutigen Kameras etwas komisch fand.

Klingt bei dem hohen Dynamikumfang den aktuelle Kameras aufnehmen können nicht wirklich nach State of Art, die A/D Wandlung in so ein hartes Schema zu pressen.

Ist natürlich die am wenig rechenintensivste, aber wofür haben wir denn die Bildprozessoren mit den tollen Marketingnamen wie Bionz, EXR II oder True Pic 5000. :P

 

Infos zu Sonys ARW Dateien finden sich dann auch recht viele im Netz.

Vieles von Iliah Borg, welcher an Libraw und Magic Raw arbeitet.

Wenn man Russisch könnte würde man wahrscheinlich noch mehr Infos von ihm finden. ;)

 

 

Allerdings ist das eben immer nur der Softwareteil der bestimmt was in den RAWs landet.

Wieviel Bit der A/D Umwandler intern hat, und wie die Signale davor aufbereitet/verbogen werden ist die andere Frage.

Sony spricht soweit ich weiß bei einigen Kameras von einer internen 14Bit Verarbeitung, lässt sich aber über mehr auch nicht aus.

Aber man kann sicher davon ausgehen, dass auch hier wie in allen Bereichen optimiert wird und man nicht in der Steinzeit stehen bleibt.

 

 

Stark vereinfacht zum ARW Format:

Hier werden wohl gleichfarbige Pixel gruppiert und der Min- Maxwert ermittelt.

Dieser wird pro Pixelgruppe gespeichert und die Skalierung der einzelnen Pixelwerte wird dann dazwischen skaliert anstatt zwischen den absoluten Endwerten (man hat also ggf. weitaus feinere Tonwertabstufungen).

 

In dunklen (oder stark angehobenen) Bildpartien wäre es daher problemlos möglich auch feinere Tonwertabstufungen darzustellen.

 

Es werden aber dann wegen den nötigen Zusatzinfos pro Pixelgruppe (und evtl. um Speicherplatz zu sparen) weniger Bits für die eigentlichen Pixelwerte verwendet.

Ist der Helligkeitsunterschied zwischen Min- und Maxwert in der Gruppe recht gering macht das nichts.

Im Gegenteil, die Abstufungen sind genauer als mit der Methodik aus deadpoets Link.

Stellt die Pixelgruppe hingegen eine Kontrastkante dar, dürfte zumindest bei hellen Bildbereichen die Tonwertabstufung etwas gröber sein.

Daher wird das ARW Format oft auch als "lossy compression" bezeichnet.

 

Allerdings ist dies an diesen Stellen auch weit weniger Kritisch als bei feinen Farbverläufen wie z.B. dem Himmel,

weswegen das Format in der Realität kaum Nachteile (aber Vorteile in den Schatten) haben dürfte.

bearbeitet von Thyraz
Link zum Beitrag
Auf anderen Seiten teilen

Wow der Threat hat schon über 150 Seiten :eek: Ich muss gestehen, ich habe nicht alles gelesen :o

 

Der Threat heisst ja "Sony A7® gegen mFT, ein unfairer Vergleich?"

 

Gibt es schon einen Praxisvergleich bzw. einen Erfahrungsbericht von einem Umsteiger von mFT auf eine A7? Mich würde ein Vergleich bzw Einschätzung einer A7 mit nativen 35mm 2.8 zu mFT mit 17mm 1.8 bzw 20mm 1.7 brennend interessieren.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

 

Gibt es schon einen Praxisvergleich bzw. einen Erfahrungsbericht von einem Umsteiger von mFT auf eine A7? Mich würde ein Vergleich bzw Einschätzung einer A7 mit nativen 35mm 2.8 zu mFT mit 17mm 1.8 bzw 20mm 1.7 brennend interessieren.

Das läuft gerade an. Manche User haben beide Systeme.

Vielleicht hilft es Dir ja auch, wenn Du in den A7®-Threads UND im mFT-Bereich stöberst? Beispiel gibt es doch schon genug mit höchst unterschiedlichen und bemerkenswerten Ergebnisse.;)

Link zum Beitrag
Auf anderen Seiten teilen

 

Egal, welche Kamera Du besitzt: Lerne sie im praktischen Umgang kennen und beherrschen und die Ergebnisse werden es wiederspiegeln.

Sehe ich auch so, bei statischen Motiven mit extremen Kontrasten macht man einfach zwei Bilder oder auch mehrere und erreicht damit einen Kontrastumfang

und eine Qualität gegen die selbst die größte Kamera der Welt alt aussieht. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Sehe ich auch so, bei statischen Motiven mit extremen Kontrasten macht man einfach zwei Bilder oder auch mehrere und erreicht damit einen Kontrastumfang

und eine Qualität gegen die selbst die größte Kamera der Welt alt aussieht. ;)

 

das ist natürlich mit größeren kameras nicht möglich somit ein vorteil von mft???

Link zum Beitrag
Auf anderen Seiten teilen

Das läuft gerade an. Manche User haben beide Systeme.

Vielleicht hilft es Dir ja auch, wenn Du in den A7®-Threads UND im mFT-Bereich stöberst? Beispiel gibt es doch schon genug mit höchst unterschiedlichen und bemerkenswerten Ergebnisse.;)

 

Ja ich habe auch bereits beide Kameras. Die MD-E5 mit dem 17-er und die Sony a7 mit dem FE 35.

Ich kann derzeit den Vorteil der Sony nicht wirklich erkennen. Die Handhabung mit dem Touch-Display, der ungeheuer schnelle AF und die äußerst scharfe und kontrastreiche Bildanmutung und vor allem die kleinen und handlichen Objektive sprechen derzeit für die Olympus.

Natürlich ist das sog. Vollformat bei Vergrößerungen und Ausschnitten eindeutig im Vorteil.

Ich behalte verlässlich beide Systeme. Die a7 für Landschaftsfotografie wo ich eventuell doch sehr große Bilder für Ausstellungen mache (120x80 ist da eher normal für mich) und die Olympus für Street- Reise- und Reportagefotografie.

Ja ich denke mit beiden Kameras und einigen Objektiven hat man immer noch ganz wenig Gewicht und kann damit leicht ins Gebirge gehen oder verreisen.

Gruß Hans.

P.S.: Aber für den der große Bilder nicht benötigt dürfte die a7 kein "muß" sein.

So halt meine Einschätzung.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...