Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Für einen Gesamt-Preis von 4500 EUR und ein Gesamt-Gewicht von 1,9 kg muss man sich dann schon überlegen, ob es beispielsweise im Vergleich zur OM-D oder NEX-7 mit guter Optik dran bei der D800 noch Eigenschaften gibt, die noch zum Kauf motivieren. Die Bildqualität unterm Strich mit Optik dran kann es ja nicht sein. Das was die da gemessen haben, deckt sich mit dem visuellen Eindruck, den ich beim reinen Bildvergleich bei den verfügbaren Bildern hatte. Die 36 MP sind zum großen Teil trotz KB-Format m. M. n. nutzlos.

Nicht zu vergessen die Folgekosten für den Chiropraktiker. *gg*

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 124
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Beim Seifenblasenthread ging es um superzoom Kameras.

Ich meinte den anderen thread, den ich im Moment nicht finde. Dort ging es um VF bei noch höheren Auflösungen und darum, dass APS mit den 24mpixlern erstmals das VF mit den damals maximalen 24 mpix überholt hat. Dem Vf prognostizierte ich Probleme aufgrund der Objektive bei noch höheren Auflösungen.

Link zum Beitrag
Auf anderen Seiten teilen

Dazu:

Es gibt keinen. In Wirklichkeit kann man sehr wohl beliebig hohe Dynamikumfänge in 4 Bit abbilden. Worauf man dabei allerdings zwingend verzichten muss, ist die Linearität der Abbildung Helligkeit -> Binärzahl.

 

(...)

Liebe Grüße,

malamut

 

 

Im Prinzip ja, aber....

Natürlich kann man auch mit 2 oder sogar mit nur einem Bit einen beliebig großen Dynamikumfang darstellen! Was hat das dann noch mit einem Bild zu tun? Deshalb schrieb ich ja "da oder nicht da, das ist hier die Frage". Messen ist etwas anderes. Mein Messpapst im Studium hätte mir das um die Ohren gehauen. Wer will sich das ansehen?

Anschauliches Beispiel: Was kommt dabei heraus, wenn mir nur 4 Bit zur Verfügung stehen und ich alle die Tonwerte von 0 bis 25% linear in ein Bit quetsche? Bei höheren Tonwertauflösungen nach unten setzt sich das so fort. Ausgerechnet da, wo die hohe Tonwertauflösung für die Messung der Eingangsdynamik gebraucht wird, fehlt dann das feine Raster. Genau da unterscheiden sich die Sensoren heute noch, nicht am oberen Ende. Will ich kleine Differenzen im unteren Dynamikbereich messen, dann brauche ich hohe Auflösung UND hohe Genauigkeit. Wenn ich das habe, dann kann ich daraus auch eine Tonwertkurve machen. Was ist der Grund, warum mit 16 Bit RAW im unteren Tonwertbereich mehr zu holen ist, als mit einem 8 Bit JPG?

Wenn eine Eingangsdynamik von 12 EV (4096) sicher bestimmt werden soll, dann muss nach Messtechnikermaßstäben die Messgenauigkeit mindestens 10x so hoch sein (2^15 = 32768), also 16 Bit.

Oder ich muss die Messungenauigkeit mit angeben. Das alles ist für den Laien auf diesem Gebiet, der nichts als Fotos machen will, unverständlich. Besser wäre es, solche Zahlenangaben ganz sein zu lassen und statt dessen vergleichbare Aufnahmen zu machen und zu zeigen. Damit wäre auch des Ergebnis "augenfällig" sichtbar. Das über Jahre immer unter den gleichen konstanten Bedingungen durchzuführen bedeutet aber Aufwand und Mühe. Mit Zahlen, deren Bedeutung sowieso nur wenige einordnen können, kann man sich aber einen wissenschaftlichen Anstrich geben und beeindrucken. Das Datenblatt des Sensorherstellers abdrucken wäre einfacher. Das rücken die aber nicht raus, aus gutem Grund, denn NACH dem Sensor passiert noch so viel, dass es völlig aussagelos wäre. Das ist nur etwas für Entwickler, die dann mit den Daten auch umgehen müssen. Wie sonst kann es sein, dass der (wirklich?) immer gleiche Sensor bei den Panas und Olys oder Sonys und Nikons völlig unterschiedliche Ergebnisse bringt?

 

Interessant sind in diesem Zusammenhang auch die Angaben zur Dynamik bei denTests von digitalkamera.de mit der

OM-D:

"Bis hierher wird eine hohe Dynamik von über elf Blendenstufen erreicht, darüber sinkt sie rapide ab: Zehn Blendenstufen bei ISO 3.200, neun Blendenstufen bei ISO 12.800 und schlechte acht Blendenstufen bei ISO 25.600."

X-Pro1:

"So zum Beispiel die Eingangsdynamik, die im Bereich von ISO 200 bis 1.600 ihre besten Werte mit über elf Blendenstufen erreicht. Aber auch bei ISO 100, 3.200 und 6.400 ist sie mit knapp zehn Blendenstufen gut, bei ISO 12.800 zeigt sich bereits ein deutlicher Einbruch auf nur noch neun Blendenstufen (siehe Diagramm unten)."

und D800:

"Nicht ganz so überzeugend ist die Eingangsdynamik, die D800 verarbeitet bis ISO 1.600 Helligkeitsunterschiede von ca. zehn Blendenstufen."

Da kratze ich mich schon am Kopf, wenn ein 4x so großer Sensor 1 EV unter der OM-D oder X-Pro1 liegt, wobei theaoretisch ja jeweils 1 EV von OM-D -> X-Pro1 -> D800 zu erwarten wäre. Wo ist da der Haken? WAS messen die da?

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Den habe ich gesucht und auch nicht gefunden. Vielleicht finde ich ihn noch.

 

https://www.systemkamera-forum.de/systemuebergreifende-technikdiskussionen-objektivadaptierung/24815-aps-erstmals-bessr-als-vf.html

 

Sorry, war beim letzten Beitrag etwas knapp mit der Zeit, sonst hätte ich den link direkt mitgegeben.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Wolfgang,

 

die vier Bit stammten aus Jochens Beitrag und waren nur zur Illustration des Prinzips gedacht. Keine Angst: es besteht Einigkeit, dass niemand von uns eine Kamera mit 4bit-Output haben will. ;) Und direktes Lob für die auf digitalkamera.de verbreiteten Testergebnisse wirst Du sicher auch nicht von mir hören.

 

Womit ich aber nicht einverstanden bin, sind automatische Gleichsetzungen von diesem Typ:

 

Wenn eine Eingangsdynamik von 12 EV (4096)

 

Es werden hier Tonwertauflösung und Dynamikumfang gleichgesetzt. Ich verstehe die Motivation dahinter, doch Motivation hin oder her - es sind einfach zwei grundverschiedene Dinge. Wenn die Leute ihre HDR-Aufnahmen machen und dann hinterher in 8bit-JPEGs quetschen, bleibt der Bildeindruck ja auch bestehen; ansonsten würde HDR nicht den geringsten Sinn ergeben. Natürlich gibt man dabei die Linearität der Übertragungsfunktion Helligkeit -> Zahlenwert auf, aber was soll's? Ich denke, es besteht Einigkeit, dass die Winkelhalbierende nicht die einzige sinnvolle Gradationskurve ist.

 

Ich habe noch keine Digitalkamera selbst gebaut :) und weiß daher nicht, wie es um die Linearität der Signalverarbeitungskette Sensor - Verstärker - A/D-Wandler bestellt ist. Es sollte mich aber sehr wundern, wenn die im kompletten Bereich zu 100% gegeben wäre. Gerade in den Lichtern ist ein Abflachen der Kurve i.d.R. ohnehin wünschenswert und es gibt daher keinen Grund für den Hersteller, dieses aufwendig zu verhindern.

 

Daher bleibe ich dabei, einen Testbericht nicht von vorneherein als unsinnig abzutun, nur weil er einer Kamera mit 12bit RAW Dateien einen Dynamikumfang von 13EV bescheinigt.

 

Liebe Grüße,

malamut

Link zum Beitrag
Auf anderen Seiten teilen

Mal eine Frage an die Experten. Ist diese bit Diskussion zimindest bez. der Tonwerte nicht Augenwischerei, solange die Kameras nicht pro Bildsensorelement alle Realfarben gleichwertig erfassen können. Farbinterpolation und nicht perfekte Frequenzfilter vor dem Sensor stehen dem doch entgegen.

Link zum Beitrag
Auf anderen Seiten teilen

(...)

Gerade in den Lichtern ist ein Abflachen der Kurve i.d.R. ohnehin wünschenswert und es gibt daher keinen Grund für den Hersteller, dieses aufwendig zu verhindern.

(...)

Liebe Grüße,

malamut

Leider ist es gerade umgekehrt. Die Sättigung tritt beim Sensor schlagartig*) ein, während in den Tiefen der Übergang u. a. auch abhängig von der Temperatur und dem Ausleserauschen - um nur zwei Kriterien zu nennen - eher verschliffen wird. Deshalb muss ja bei den Lichtern so sehr aufgepasst werden und Kameras werden eher "nach unten" abgestimmt. Die Verbiegungen der Kurven erfolgen rein digital, da hat kein Verstärker und kein Sensor was mit zu tun. Die Fotoempfänger sind sogar über einen sehr großen Bereich sehr linear, außer unten, wie schon geschrieben.

 

*) in der Auswirkung vergleichbar mit dem Clipping bei Verstärkern.

bearbeitet von wolfgang_r
*)
Link zum Beitrag
Auf anderen Seiten teilen

Wenn eine Eingangsdynamik von 12 EV (4096) sicher bestimmt werden soll, dann muss nach Messtechnikermaßstäben die Messgenauigkeit mindestens 10x so hoch sein (2^15 = 32768), also 16 Bit.
Ich verstehe die Diskussion um den Zusammenhang von Eingangsdynamik und Anzahl der Bits für Helligkeitsabstufungen der Kamera nicht. Meiner Meinung nach haben diese nichts miteinander zu tun.

 

Eingangsdynamik ist die Fähigkeit der Kamera, auf einem Foto gleichzeitig helle und dunkle Werte abzubilden. Das Verhältnis von hellstem und dunkelstem Helligkeitswert der Realität, zwischen denen eine Kamera auf dem ausgegebenem Foto noch eine Helligkeitsdifferenzierung ermöglicht, ist somit die Eingangsdynamik der Kamera. Diese kann beliebig hoch sein.

 

Die Bit-Zahl, die ein Sensor nutzt, beschreibt die Anzahl der Helligkeitsabstufungen vom hellsten Helligkeitswert der Eingangsdynamik zum niedrigsten. 8 Bit wären 256 Helligkeitsstufen, 12 Bit - 4096, 14 Bit - 16384. Besitzt eine Kamera eine hohe Eingangsdynamik und gleichzeitig zu geringe Bitzahl, führt dies zu groben Helligkeitsunterschieden, möglich wäre dies aber schon (20 EV Eingangsdynamik bei 12 Bit). Warum soll das nicht möglich sein?

Link zum Beitrag
Auf anderen Seiten teilen

Ich verstehe die Diskussion um den Zusammenhang von Eingangsdynamik und Anzahl der Bits für Helligkeitsabstufungen der Kamera nicht. Meiner Meinung nach haben diese nichts miteinander zu tun.

 

Das ist genau mein Punkt. :) Eine Diskussion findet statt, weil einige das Gegenteil behaupten. Dazu ist einiges im Nachbarthread zur Olympus E-M5 gesagt worden; Wolfgang hatte aus meinem Beitrag dort zitiert. Im Kern geht es darum, dass man tatsächlich einen Zusammenhang erzwingen kann, wenn man von einer streng linearen Abbildung der Helligkeit auf den digitalisierten Wert ausgeht. Es wurde behauptet, dass diese Linearität sowohl wünschenswert als auch in der Praxis i.a. gegeben sei. Ich bezweifle beides.

 

Die Sättigung tritt beim Sensor schlagartig*) ein

 

Schon, aber der Sensor ist ein analoges Bauelement. Niemand zwingt den Hersteller dazu, dessen Signal bis zum Clipping linear zu verstärken und zu digitalisieren. Und selbst wenn er es doch tut, muss er das Eregbnis der A/D-Wandlung nicht 1:1 im RAW abspeichern - das Interesse an den letzten vier Bits einer 16Bit-Zahl dürfte in den Lichtern gering sein.

 

Liebe Grüße,

malamut

bearbeitet von malamut
Letzten satz eingefügt
Link zum Beitrag
Auf anderen Seiten teilen

(...)

Es werden hier Tonwertauflösung und Dynamikumfang gleichgesetzt. Ich verstehe die Motivation dahinter, doch Motivation hin oder her - es sind einfach zwei grundverschiedene Dinge. Wenn die Leute ihre HDR-Aufnahmen machen und dann hinterher in 8bit-JPEGs quetschen, bleibt der Bildeindruck ja auch bestehen; ansonsten würde HDR nicht den geringsten Sinn ergeben. Natürlich gibt man dabei die Linearität der Übertragungsfunktion Helligkeit -> Zahlenwert auf, aber was soll's? Ich denke, es besteht Einigkeit, dass die Winkelhalbierende nicht die einzige sinnvolle Gradationskurve ist.

(...)

Liebe Grüße,

malamut

 

Das wurde vermutlich missverstanden. Ich setze Tonwertauflösung und Dynamikumfang nicht gleich. Mit 12 Bit Auflösung 12 Bit DR zu messen (und um Messungen ging es ja dabei, nicht um die Darstellung eines Bildes, das war jedenfalls mein Eindruck) halte ich für stark bedenklich, um es mal vornehm auszudrücken. Das Auge empfängt ja außerdem auch nicht linear, sondern in etwa quadratisch. Das ist das erste Kriterium, welches bei der Umsetzung des Sensorausgangssignals in ein Bild berücksichtigt werden muss. Dazu wird zusätzlich am unteren und oberen Ende verbogen, um den Übergang der Sehphysiologie, unserem durch die Helligkeits-Adaption des Auges hervorgerufenen Bildeindruck, anzupassen.

Link zum Beitrag
Auf anderen Seiten teilen

(....) Wenn die Leute ihre HDR-Aufnahmen machen und dann hinterher in 8bit-JPEGs quetschen, bleibt der Bildeindruck ja auch bestehen; ansonsten würde HDR nicht den geringsten Sinn ergeben.

(...)

Liebe Grüße,

malamut

 

Ich meine, hier sollten wir nichts durcheinander mixen.

HDR-Aufnahmen sind eine ganz andere Baustelle. Dabei werden mehrere Aufnahmen überlappend in den Helligkeiten quasi bitmäßig aneinander gehängt. Das bedeutet nichts anderes, als eine Auflösungserhöhung in den Tiefen und Lichtern ggfls. in Verbindung mit einer Verstärkungsänderung nach dem Sensor. Zu den beispielsweise 16 Bit einer Aufnahme werden dann durch die zusätzlichen Aufnahmen unterhalb und oberhalb der einfachen Belichtung eigentlich noch die über die Überlappung hinaus gehenden Bits dazu addiert. Drei Bilder entsprechen dann insgesamt beispielsweise einer Gesamtauflösung von 24 oder mehr Bit über den gesamten aufgenommenen Helligkeitsbereich. Vorher in der Über- oder Unterbelichtung verschwundene Tonwerte werden so in einen aufgelösten Bereich verschoben, enthalten somit zusätzliche Informationen und können dann auch verrechnet werden. Oder anders ausgedrückt: Aus einer Motivdynamik von zum Beispiel 14 Stufen mache ich eine Datensammlung von 3 x 16 Bit, verteilt auf drei Aufnahmen unterschiedlicher Belichtung und erzeuge dann daraus ein 8 Bit JPG für die Bildausgabe, in dem dann noch Werte in den Tiefen und Lichtern aufgelöst sind, die sonst in der Unter- und Überbelichtung verschwunden wären.

Link zum Beitrag
Auf anderen Seiten teilen

Mit 12 Bit Auflösung 12 Bit DR zu messen (und um Messungen ging es ja dabei, nicht um die Darstellung eines Bildes, das war jedenfalls mein Eindruck) halte ich für stark bedenklich, um es mal vornehm auszudrücken.

 

Hm... also mein Widerspruch bezog sich keinesfalls auf eine Messung (Testlabore für Kameras messen die Dynamik ja nicht wirklich, sondern sie beurteilen die Ergebnisse, die Kameras liefern - die einzigen Messinstrumente, wenn man so will, sind dabei die Kameras selbst, und die müssen für ihre Zwecke nicht die Kriteren genügen, die Du hier formulierst). Ich widerspreche lediglich der Aussage, eine Kamera mit 12bit RAW-Files könnte prinzipiell keine 13EV Dynamikumfang aufweisen (womit ich natürlich keinesfalls die 'Ausgangsdynamik' meine - ich halte diesen Begriff für extrem unglücklich und verwende ich daher selbst nicht). Nicht mehr und nicht weniger. :)

 

Liebe Grüße,

malamut

Link zum Beitrag
Auf anderen Seiten teilen

Hm... also mein Widerspruch bezog sich keinesfalls auf eine Messung (Testlabore für Kameras messen die Dynamik ja nicht wirklich, sondern sie beurteilen die Ergebnisse, die Kameras liefern - die einzigen Messinstrumente, wenn man so will, sind dabei die Kameras selbst, und die müssen für ihre Zwecke nicht die Kriteren genügen, die Du hier formulierst). Ich widerspreche lediglich der Aussage, eine Kamera mit 12bit RAW-Files könnte prinzipiell keine 13EV Dynamikumfang aufweisen (womit ich natürlich keinesfalls die 'Ausgangsdynamik' meine - ich halte diesen Begriff für extrem unglücklich und verwende ich daher selbst nicht). Nicht mehr und nicht weniger. :)

 

Liebe Grüße,

malamut

Wenn Du mich so verstanden hast, dann widersprichst Du mir richtig. (Siehe dazu #108.) Prinzipiell reichen auch 2 Bit, sogar für Zwischentöne.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn Du mich so verstanden hast, dann widersprichst Du mir richtig. (Siehe dazu #108.) Prinzipiell reichen auch 2 Bit, sogar für Zwischentöne.

 

Super. Ich liebe Diskussionen, in denen es eine Menge zu lernen gibt und an deren Ende Einigkeit herrscht. :)

 

Liebe Grüße,

malamut

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...