Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Das Problem ist ja, dass der Dynamikumfang bei jeder Darstellungsform ein anderer ist. Also Monitor - Hochglanz-Druck - Ausbelichtung - Papierdruck usw.

Von welchem Dynamik reden wir jetzt eigentlich? Dynamikumfang des Aufzeichnungsmediums (Film, Sensor) oder des Ausgabemediums (Monitor, Papier, Projektion)?

Gegenfrage: Wenn es so viele Dynamikumfänge gibt, warum klappt es dann meistens recht problemlos, ein digitales Foto direkt aus der Kamera ausbelichten zu lassen?

Die meisten Medien können viel weniger Helligkeitsunterschiede darstellen als unsere Kameras aufnehmen. Aber: Wir wollen gerne selbst entscheiden, welche Helligkeits- und Farbbereiche mit vielen und welche mit wenigen Abstufungen wiedergegeben werden sollen. Bei einem Motiv sind es die Mitteltöne, z.B. Macro-Aufnahme einer Blüte, bei einem tollen Himmel will man gerade viel Details in den Lichtern, bei vielen Motiven sind die Schatten am interessantesten. Das bestimmen wir dann über die Gradationskurve...

Tun wir nicht, denn das würde nicht funktionieren. Denn:

In der Filmentwicklung haben wir die Gradation durch versch. Faktoren wie Entwicklungszeit oder Temperatur oder unterschwellige Vorbelichtung beeinflußt.

Du hast den wesentlichen Faktor der Belichtung vergessen.

In der analogen Welt war es aber so: Wenn man auf Film belichtet hat, der sehr viel Kontrast vertragen hat, musste man sich beim Papierabzug Mühe geben, um die entsprechend gewünschte Kontrastverteilung auf das Papier zu bekommen. Da haben wir abgewedelt, nachbelichtet und im Labor den größten Quatsch veranstaltet um z.B. in den Lichtern doch noch ein wenig Zeichnung zu bekommen.

Eine Menge dieser Probleme rührte daher, dass Schwarzweißfilm (und nur bei diesem haben die obengenannten Tricks funktioniert) die Motivfarben nicht so in Grauwerte umgesetzt hat, wie man es erwartet hat. Blauer Himmel z.B. wurde viel zu hell bis Schneeweiß. Hier konnte man sich z.T. mit Farbfiltern behelfen. Der andere Teil des Problems war, dass im Negativ die Information in Form von Dichte gespeichert wurde. Heller belichtete Partien wurden im Negativ dunkler. Diese Dichte musste man für den Abzug wieder durchdringen, die Lösung war dafür eine partielle Verlängerung oder Verkürzung der Belichtung des Abzugs im Labor (Abwedeln, nachbelichten, Maskierung etc). Ein Digitalfoto hat jedoch keine Dichte, von daher hinkt der Vergleich ziemlich.

Jeder Film hatte eben eine ganz bestimmt "Gradationskurve", die man auch kannte. So konnte man für jeden Geschmack und Einsatzzweck einfach einen anderen Film einlegen.

Nein, auch die Gradationskurve des Films konnte man beeinflussen; zumindest bei SW-Film. Die Sache ist allerdings wesentlich komplizierter.

Heute geht das so nicht mehr. Deshalb muss ein Chip eigentlich eine "Gradation" also Dynamikumfang bieten, der für jede Situation gerüstet ist.

Gradation und Dynamikumfang sind aber zwei völlig verschiedene Stiefel. Der Dynamikumfang bei Sensoren für die Bildaufzeichnung definiert sich zum einen über die Sättigung der Lichter und zum anderen über den Signal-Rauschabstand, der bestimmt in wie weit noch Informationen in den Schattenpartien vorhanden ist, bzw. wie stark das Signal verstärkt werden kann, um nutzbar zu bleiben (Mit anderen Worten, er wird ausschließlich durch die Belichtung festgelegt und durch sonst nichts). Das lässt sich zwar genau definieren und messen, aber sobald wir die Datei in ein Bild umwandeln, kommt ein weiterer Faktor ins Spiel, nämlich das menschliche Auge: Ab welchem Punkt nimmt der Betrachter wahr, dass das Nutzsignal vom Rauschen übertönt wird? Eine ganze Softwareindustrie von Entrauschern mischt da mit, um diesen Punkt möglichst weit hinauszuschieben.

 

Die Gradationskurve, die wir nach der Belichtung auf das Bild anwenden, orientiert sich dann aber tatsächlich am Ausgabemedium (und dieses wieder am menschlichen Auge). Umgekehrt orientiert sich die Belichtung aber auch am Dynamikumfang des Ausgabemediums, bzw. des Auges. Vor allem in den dunklen Partien des Fotos kann ein Anheben der Kurve zu massiven Informationsverlusten führen (das berüchtigte Rauschen). Vereinfacht ausgedrückt. Da wir aber in der Praxis drei Farbkanäle mit jeweils unterschiedlichem Rauschen haben, ist das Ergebnis manchmal erfreulicher, manchmal erschreckender (jeweils in Verbingung mit der Farbtemperatur des Aufnahmelichts und der Motivfarbe. Mit anderen Worten: Derselbe Sensor kann bei Funzellicht völlig unbrauchbare Ergebnisse liefern, bei Tageslicht dagegen überraschend gut sein).

 

Ein Gutteil der Missverständnisse wird dadurch verursacht, dass man irgendwann angefangen hat, den Fachbegriff "Kontrastumfang" durch "Dynamik" oder "Dynamikumfang" zu ersetzen. Das war eigentlich vollkommen überflüssig. Beides hängt zwar zusammen, aber nicht unmittelbar. Einen relativ hohen Kontrastumfang kann man nämlich auch trotz eines geringeren Dynamikumfangs wiedergeben, das ist das Prinzip, warum Kompaktkameras und Fotohandys überhaupt funktionieren können, bzw. brauchbare Fotos liefern. Dazu kommt dann noch, dass manche Tester nur den Signal-Rauschabstand messen (DxO), andere die Gradationskurve des JPGooc bzw. die Standardkurve eines Raw-Konverters, und manche versuchen beides zu messen, die Kurve und das Rauschen (z.B. Dpreview). Das Ergebnis ist immer dasselbe: Babylonische Sprachverwirrung.

Man muss auch genauer belichten als früher. Beim Negativ hab ich teilweise einfach nur geschätzt. Beim Dia war das anders, da hab ich das Punktgenaue belichten gelernt.

Beim Negativ konnte man Belichtungsfehler kompensieren, bzw. hinbiegen (heute benutzt man dazu RAW-Konverter), aber die Bildqualität nahm trotzdem ab. Und man konnte es deswegen kompensieren, weil die Informationsdichte von Negativfilm bei Überbelichtung zunahm (höhere Belichtung führte zu höhere Dichte. Bei unterbelichteten Negativen hat der Trick natürlich nicht funktioniert). Bei Diafilm ist das komplett anders: Sowohl Über- als auch Unterbelichtung führen sofort zu einem sichtbaren Verlust an Information.

In Analogie dazu tendieren praktisch alle Digitalkameras heutzutage zur Unterbelichtung, damit wird die Tendenz zum Ausbrennen der Lichter recht wirksam unterbunden. Im Gegenzug verliert man natürlich u.U. an Dynamikumfang.

 

Zu der Theorie, dass große Pixel mehr Dynamikumfang bringen (die ja nicht komplett falsch ist) ein weiterer Denkanstoss: Warum verringerte sich bei analogem Schwarzweiß-Silberfilm der Dynamikumfang bei hohen Empfindlichkeiten (große Kristalle = großes Korn / große Pixel) und erhöhte sich bei niedrigen Empfindlichkeiten (kleine Kristalle = feines Korn / kleine Pixel)? Warum konnten große Formate (Mittelformat, Großformat) bei identischem Filmmaterial ( = identischer "Pixelgröße") trotzdem immer einen höheren Dynamikumfang/Kontrastumfang im Vergleich zu Kleinbild wiedergeben?

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 124
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Von welchem Dynamik reden wir jetzt eigentlich? Dynamikumfang des Aufzeichnungsmediums (Film, Sensor) oder des Ausgabemediums (Monitor, Papier, Projektion)?

Genau darin besteht ja das Problem. Er ist auf jedem Medium unterschiedlich!

 

Gegenfrage: Wenn es so viele Dynamikumfänge gibt, warum klappt es dann meistens recht problemlos, ein digitales Foto direkt aus der Kamera ausbelichten zu lassen?

Wenn Du das immer machst, brauchen wir ja hier nicht weiter zu diskutieren, denn bei mir sieht das immer sehr bescheiden aus. Sorry, da haben wir wohl ganz andere Maßstäbe an ein Foto...

 

Du hast den wesentlichen Faktor der Belichtung vergessen.

:confused:

Hab ich natürlich nicht, aber durch die Belichtung kann ich den Dynamikumfang auch gar nicht beeinflußen, er ist eine feste Größe des Chiptyps.

 

Eine Menge dieser Probleme rührte daher, dass Schwarzweißfilm (und nur bei diesem haben die obengenannten Tricks funktioniert) die Motivfarben nicht so in Grauwerte umgesetzt hat, wie man es erwartet hat. Blauer Himmel z.B. wurde viel zu hell bis Schneeweiß. Hier konnte man sich z.T. mit Farbfiltern behelfen. Der andere Teil des Problems war, dass im Negativ die Information in Form von Dichte gespeichert wurde. Heller belichtete Partien wurden im Negativ dunkler. Diese Dichte musste man für den Abzug wieder durchdringen, die Lösung war dafür eine partielle Verlängerung oder Verkürzung der Belichtung des Abzugs im Labor (Abwedeln, nachbelichten, Maskierung etc). Ein Digitalfoto hat jedoch keine Dichte, von daher hinkt der Vergleich ziemlich.

Wenn man die chemischen Vorgänge im Silberhalogenid (Korn im s/w-Film) kennt, kommt genau das heraus, was man erwartet. Und abwedeln, oder nachbelichten und Temp. verändern ging natürlich auch bei Farbeabzügen. Wurde nur viel seltener angewendet. Ich habs aber gemacht. Was meinst Du, woher bei Photoshop die ganzen Bezeichnungen der Werkzeuge kommen?

Und das ein Vergleich von Film und Digitalfoto hinkt, ist unser aller Problem, die wir mit Film angefangen haben. Das hab ich mir nicht einfallen lassen. Und man kann (und tut es auch) digital hervorragend partiell aufhellen oder nachdunkeln.

 

Nein, auch die Gradationskurve des Films konnte man beeinflussen; zumindest bei SW-Film. Die Sache ist allerdings wesentlich komplizierter.

Haarspalterei, die meisten haben früher den Film gewechselt, wenn man ein bestimmtes Filmprofil bevorzugt, oder hast Du T-Max, Neopan und HP5 als selben Film empfunden?

 

Gradation und Dynamikumfang sind aber zwei völlig verschiedene Stiefel. Der Dynamikumfang bei Sensoren für die Bildaufzeichnung definiert sich zum einen über die Sättigung der Lichter und zum anderen über den Signal-Rauschabstand, der bestimmt in wie weit noch Informationen in den Schattenpartien vorhanden ist, bzw. wie stark das Signal verstärkt werden kann, um nutzbar zu bleiben (Mit anderen Worten, er wird ausschließlich durch die Belichtung festgelegt und durch sonst nichts).

Als Dynamikumfang eines Sensors bezeichnet man das Verhältnis des maximalen Signals (Sättigung) zum Rauschen. Man muss es ja nicht komplizierter machen als es ist. Und über die Belichtung hat der Fotograf eben keine Einfluß darauf! Der Einfluß beschränkt sich darauf, welche Motivbereiche in welchem Bereich des Sensors liegen. Z.B. dunkle Silhouette vor durchgezeichnetem Himmel oder durchgezeichnetes Objekt vor ausgefressenem/überbelichtetem Hintergrund. Für den Anwender ist also der Dynamikumfang des Chips letztendlich die entscheidende Größe für den Kontrastumfang seines auf dem Chip gespeicherten Bildes. Deshalb wird es auch oft verwechselt, denn entscheidend für den Fotograf ist der max. möglich darstellbare Kontrastumfang des Chips.

Sagen wir mal mein Motiv hätte 10 Blendenstufen, mein Chip verträgt aber nur 7 Blendenstufen. Man könnte also ein HDR aus 3 Bildern mit je 1 Blende Unterschied zusammenbauen oder sich dafür entscheiden, ein Teil des Bildes überstrahlen - oder absaufen zu lassen. Schöner wäre aber, das erst in der Postproduktion entscheiden zu müssen.

 

 

Die Gradationskurve, die wir nach der Belichtung auf das Bild anwenden, orientiert sich dann aber tatsächlich am Ausgabemedium (und dieses wieder am menschlichen Auge). Umgekehrt orientiert sich die Belichtung aber auch am Dynamikumfang des Ausgabemediums, bzw. des Auges. Vor allem in den dunklen Partien des Fotos kann ein Anheben der Kurve zu massiven Informationsverlusten führen (das berüchtigte Rauschen). Vereinfacht ausgedrückt. Da wir aber in der Praxis drei Farbkanäle mit jeweils unterschiedlichem Rauschen haben, ist das Ergebnis manchmal erfreulicher, manchmal erschreckender (jeweils in Verbingung mit der Farbtemperatur des Aufnahmelichts und der Motivfarbe. Mit anderen Worten: Derselbe Sensor kann bei Funzellicht völlig unbrauchbare Ergebnisse liefern, bei Tageslicht dagegen überraschend gut sein).

Da hast Du recht. Das Auge hat übrigens einen sehr eingeschränkten "Kontrastumfang", aber den Vorteil, das zwischen Wahrnehmung des Auges und dem Bild, das wir meinen zu sehen, noch eine kleine Schaltzentrale namens Gehirn liegt. Dadurch meinen wir viel mehr zu sehen, als es das Auge vermag. Aber die Diskussion darüber würde zu weit gehen. Nur soviel: Das Auge hat eine hohe Auflösung bei viel Licht (Zapfen), eine wesentlich geringere Auflösung und Farbwahrnehmung bei Dunkelheit (Stäbchen). Nach diesem Vorbild hat Fuji versucht, seine Super CCDs zu entwickeln. Aber sie haben das Hirn vergessen. :D

 

 

Beim Negativ konnte man Belichtungsfehler kompensieren, bzw. hinbiegen (heute benutzt man dazu RAW-Konverter), aber die Bildqualität nahm trotzdem ab. Und man konnte es deswegen kompensieren, weil die Informationsdichte von Negativfilm bei Überbelichtung zunahm (höhere Belichtung führte zu höhere Dichte. Bei unterbelichteten Negativen hat der Trick natürlich nicht funktioniert). Bei Diafilm ist das komplett anders: Sowohl Über- als auch Unterbelichtung führen sofort zu einem sichtbaren Verlust an Information.

Stimmt so nicht, da ich im Negativ (vorrausgesetzt richtige Belichtung) meistens 3-4 Blendenstufen mehr Kontrastumfang habe, kann ich das bei der Übertragung auf Papier locker ausgleichen. Kein Qualitätsverlust. Jedenfalls diese 3-4 Blendenstufen. Das ist beim RAW leider nicht ganz so. Ein RAW bietet "nur" die aufgenommenen Bildinformationen ohne Eingriff durch die kamerainternen Bildprozessoren an. Deshalb muss man das dann aber auch selbst in Angriff nehmen. Ein RAW wirkt deshalb auch immer recht flau und unscharf.

 

Zu der Theorie, dass große Pixel mehr Dynamikumfang bringen (die ja nicht komplett falsch ist) ein weiterer Denkanstoss: Warum verringerte sich bei analogem Schwarzweiß-Silberfilm der Dynamikumfang bei hohen Empfindlichkeiten (große Kristalle = großes Korn / große Pixel) und erhöhte sich bei niedrigen Empfindlichkeiten (kleine Kristalle = feines Korn / kleine Pixel)? Warum konnten große Formate (Mittelformat, Großformat) bei identischem Filmmaterial ( = identischer "Pixelgröße") trotzdem immer einen höheren Dynamikumfang/Kontrastumfang im Vergleich zu Kleinbild wiedergeben?

Kann auch geklärt werden. Die hochempfindlichen Silberemulsionen im Film bestanden aus besonders großen Molekülen/Korn, d.h. der Größenunterschied der Moleküle und damit die Eigenschaft, eine bestimmt Menge Licht aufnehmen zu können bzw zu müssen, um sich zu verändern, war auch geringer. Deshalb stieg die Körnigkeit und sank der Dynamikumfang.

Und die großen Formate hatten bei identischem Filmmaterial noch nie einen höheren Kontrastumfang. Ich habe parallel früher immer mit 6x6 und KB den selben Film benutzt und auch entwickelt. Nur die Objektive der Hasselblad waren deutlich besser als meine Canon-Scherben. Ansonsten waren die Bildergebnisse vom Kontrastumfang ebenbürtig.

Und noch was: Bitte nicht Korn=Pixel schreiben. Das bin ich jetzt ein Haarspalter. Denn das "schöne" am Korn ist, dass es unregelmäßig verteilt ist, sich überlagert usw. D.h. eine Korn-Struktur macht gerade den "analogen" Touch aus. Die Pixel in den CCDs/CMOS-Sensoren sind ja alle gleich groß und gleichmäßig verteilt und fallen so auch viel eher auf.

 

So, nu reichts aber: Ich denke unsere Aussagen bzgl. Dynamik und Kontrast sind doch sehr nah beeinander. Ich geh jetzt fofografieren... ;)

bearbeitet von kavenzmann
Link zum Beitrag
Auf anderen Seiten teilen

Bogenminute, Bogensekunde...

 

Sorry, aber das ist absoluter Stuss und auch genau das Argument der Chipentwickler, die sagen: 30 MPixel sind besser als 20 MPixel.

Eine sehr gewagte Aussage...

Bilder werden angeschaut. Mit den Augen. Also ist die Auflösung des Auges primär das Maß aller Dinge.

Umgelegt auf das Aufzeichnungsverfahren und dem Verhältnis von Bildgröße zu Betrachtungsabstand wirst du um einfache physikalische Zusammenhänge nicht herumkommen.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Zur Dynamik/ Dynamikimfang:

 

Dynamik-Umfang

 

Das Problem ist ja, dass der Dynamikumfang bei jeder Darstellungsform ein anderer ist. Also Monitor - Hochglanz-Druck - Ausbelichtung - Papierdruck usw.

Eben nicht!

Dein verlinkter Artikel ist ... zumindest irreführend.

Vom Prinzip her könnte man jeden noch so hohen Dynamikumfang bildhaft reproduzieren. Es krankt einzig und alleine an den Aufzeichnungsmedien (Silberhalogenidfilm oder Siliziumsensor) die das limitieren. Film begrenzt übrigens mehr als ein sehr guter full frame CCD.

Ob ein aufgezeichnetes Bild nun auf einem Monitor, einer Leinwand oder auf Papier präsentiert wird, hat keinen Einfluß auf die Dynamik.

Zu diesem Zweck gibt es Farbräume mit "Umrechnungskurven" die praktisch jeden Dynamikumfang auf den minimalsten Schwarzwert und maximalsten Weißwert des Zielmediums abbilden können.

 

Alle anderen Mitleser, bitte zurück an den Start und nochmals Stellung beziehen :-)

Link zum Beitrag
Auf anderen Seiten teilen

Vom Prinzip her könnte man jeden noch so hohen Dynamikumfang bildhaft reproduzieren. Es krankt einzig und alleine an den Aufzeichnungsmedien (Silberhalogenidfilm oder Siliziumsensor) die das limitieren. Film begrenzt übrigens mehr als ein sehr guter full frame CCD.

Ob ein aufgezeichnetes Bild nun auf einem Monitor, einer Leinwand oder auf Papier präsentiert wird, hat keinen Einfluß auf die Dynamik.

Zu diesem Zweck gibt es Farbräume mit "Umrechnungskurven" die praktisch jeden Dynamikumfang auf den minimalsten Schwarzwert und maximalsten Weißwert des Zielmediums abbilden können.

 

Alle anderen Mitleser, bitte zurück an den Start und nochmals Stellung beziehen :-)

 

Das fasst es doch gut zusammen...

 

Wir sind oben ein wenig abgeschweift.

Aber wir wollen ja über die Aufzeichnungsmedien diskutieren an denen es krankt, in unserem Fall eben CCD/CMOS. Und es gab doch auch schon verschieden Ansätze: eben CCD, CMOS, Fuji Super CCD mit unterschiedlichen Sensoren für wenig Licht und normale Bedingungen oder eben FOVEON mit 3x CMOS.

 

Brauchen wir das, oder nicht? Ich würde, abseits aller Theorie, Landschaft vom Stativ sehr gerne mit FOVEON machen, sobald es aber um Schnelligkeit und High-ISO geht, muss man darauf verzichten und CCD oder CMOS nehmen.

Wo ich früher evtl. 2 verschiedene Filme eingelegt habe, brauche ich jetzt aber 2 verschiedene Kamerasysteme! Nicht "nur" 2 Gehäuse.

Es wäre doch super, wenn man nicht nur Objektive, sondern auch die Chips wechseln könnte. Einer, der alles am besten kann, wird es nie geben. Ich fände es klasse, bei Bedarf in mein Lieblingsgehäuse auch einen anderen Chip zu schieben.

Chip alleine wechseln geht natürlich nicht, aber vielleicht wenigstens als Modul mit Bildprozessor. Bei Ricoh gibt es das ja bereits. Einmal das Gehäuse und nun einen Chip mit Prozessor und Objektivanschluss (Leica-M).

Wenn das Angebot auf mehrere Chip-Arten anwachsen würde, wäre es doch ein Spitzen-System.

Aber das würde für die Hersteller bedeuten, dass man viel weniger Gehäuse verkauft, also wirds nicht kommen. Aber das Ricoh-Modul Prinzip ist jetzt mit dem neuen M-Modul doch schon nah dran, oder nicht?

Link zum Beitrag
Auf anderen Seiten teilen

Ein Thema kommt zur Dynamik dazu:

 

RAW oder JPEG.

 

Um die volle Dynamik des Bildes ausreizen zu können, muss man die RAW-Daten als Basis nehmen.

 

JA. Wer die Kontrolle behalten will, kommt um RAW nicht drum herum. Es ist schon ein Art "digitales Negativ". Ich habe eigentlich, seit die digitale Revolution eingeschlagen hat und ich kein eigenes Labor mehr habe, den Spaß am "echten" fotografieren fast ganz verloren. Nur noch "rumgeknipst".

Damit ist jetzt hoffentlich Schluss, die Entwicklung in letzter Zeit mit kleinen Systemkameras, RAW, keinen totalen Pixelwahn mehr, macht doch schon Spaß!

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Wir sind oben ein wenig abgeschweift.

Kann gut sein...

Aber wir wollen ja über die Aufzeichnungsmedien diskutieren an denen es krankt, in unserem Fall eben CCD/CMOS. Und es gab doch auch schon verschieden Ansätze: eben CCD, CMOS, Fuji Super CCD mit unterschiedlichen Sensoren für wenig Licht und normale Bedingungen oder eben FOVEON mit 3x CMOS.

Ich fürchte, es krankt nicht an den Aufzeichnungsmedien selbst, sondern am potenziellen Kunden der einfach das notwendige Geld dafür nicht ausgeben kann oder will.

Nimm einen full frame CCD mit 6µm Pixelabstand und für dich wird Dynamik kein Thema mehr sein.

Du willst LiveView? Dann kannst du beinahe ewig weiterdiskutieren, weil mit solchen Sensoren ist die Dynamik (gegenüber ff CCD) immer schlechter.

Der Vorteil vom FOVEON Sensor ist schlicht das Fehlen des Matschfilters. Nimm zB. eine Olympus E-1, entferne den AA-Filter und vergleiche dann wieder mit FOVEON.

Wo ich früher evtl. 2 verschiedene Filme eingelegt habe, brauche ich jetzt aber 2 verschiedene Kamerasysteme! Nicht "nur" 2 Gehäuse.
Ja, daran wird sich wohl nicht so bald was ändern. Aber was spricht gegen (zwei) Spezialisten?

Es wäre doch super, wenn man nicht nur Objektive, sondern auch die Chips wechseln könnte.

Du kannst doch den Chip sammt Objektivhalterung wechseln :-)
Einer, der alles am besten kann, wird es nie geben. Ich fände es klasse, bei Bedarf in mein Lieblingsgehäuse auch einen anderen Chip zu schieben.
Und dann immer im Reinstraum den Sensor (Chip) justieren. Das fändest du klasse???
Chip alleine wechseln geht natürlich nicht, aber vielleicht wenigstens als Modul mit Bildprozessor. Bei Ricoh gibt es das ja bereits. Einmal das Gehäuse und nun einen Chip mit Prozessor und Objektivanschluss (Leica-M).
Ein Leica-M Anschluß ist aber noch lange keine Qulitätsbasis. Für einem Crop 1.5 oder 1.6 sind M-Objektive nicht gerechent, du weißt also schon vorher, daß die Bildqualität (sehr) leiden wird.
Aber das Ricoh-Modul Prinzip ist jetzt mit dem neuen M-Modul doch schon nah dran, oder nicht?
Weiter entfernt denn je :-)
Link zum Beitrag
Auf anderen Seiten teilen

Okay,

 

also alles Mist. Leica-M, Ricoh, die Benutzer...? :confused:

 

Ich mag die derzeitige Entwicklung. Sie geht langsam in die richtige Richtung.

 

Und bei der PEN den AA-Filter wegzunehmen, würde unweigerlich zu einer Katastrophe führen. Sie benötigt ihn dringend, damit div. Fehleranfälligkeiten durch die hohe Pixeldichte abgeschwächt werden.

 

Ein FOVEON ist wie er ist nicht nur durch den fehlenden Filter, sondern v.a. durch seine Farbaufzeichnung, die nicht 3/4 der Farbinformationen dazuinterpoliert. Deshalb ist die Kamera aber lahm. Ein FOVEON in der PEN wäre absolut sinnlos...

 

Und, meinetwegen, ein VF-Chip im Ricoh Baukasten System mit passendem Sucher wäre, für mich, der Knüller. Du kannst Dir ja gerne mehrere Systeme anschaffen. Hab ich kein Problem mit. ;)

Link zum Beitrag
Auf anderen Seiten teilen

:confused:

Hab ich natürlich nicht, aber durch die Belichtung kann ich den Dynamikumfang auch gar nicht beeinflußen, er ist eine feste Größe des Chiptyps.

Habe ich auch nicht behauptet. Ich sprach ja an der zitierten Stelle auch gar nicht vom Dynamikumfang, sondern von der Gradationskurve.

Als Dynamikumfang eines Sensors bezeichnet man das Verhältnis des maximalen Signals (Sättigung) zum Rauschen. Man muss es ja nicht komplizierter machen als es ist. Und über die Belichtung hat der Fotograf eben keine Einfluß darauf!

Auf den Dynamikumfang des Sensors nicht, ja, einverstanden. Aber er hat sehr wohl Einfluss darauf, ob und wie der Dynamikumfang des Sensors ausgenützt wird. Auf welche Art und Weise bringt man die Pixel zur Sättigung, bzw. zum Rauschen, wenn man nicht eine Zeit lang Licht drauf fallen lässt?

Der Einfluß beschränkt sich darauf, welche Motivbereiche in welchem Bereich des Sensors liegen. Z.B. dunkle Silhouette vor durchgezeichnetem Himmel oder durchgezeichnetes Objekt vor ausgefressenem/überbelichtetem Hintergrund.

Na eben. Aber was ist das anderes als Belichtung?

Für den Anwender ist also der Dynamikumfang des Chips letztendlich die entscheidende Größe für den Kontrastumfang seines auf dem Chip gespeicherten Bildes. Deshalb wird es auch oft verwechselt, denn entscheidend für den Fotograf ist der max. möglich darstellbare Kontrastumfang des Chips.

Sagen wir mal mein Motiv hätte 10 Blendenstufen, mein Chip verträgt aber nur 7 Blendenstufen. Man könnte also ein HDR aus 3 Bildern mit je 1 Blende Unterschied zusammenbauen oder sich dafür entscheiden, ein Teil des Bildes überstrahlen - oder absaufen zu lassen. Schöner wäre aber, das erst in der Postproduktion entscheiden zu müssen.

Klar wäre das schön. Bei Sonne im Rücken würde das funktionieren wie es auch bei einfachsten Kameras wie z.B. dem Film mit Linse funktioniert, bei hohen Motivkontrasten wie Gegenlicht oder Aufnahmen in einem dunklen Raum mit hellem Fenster nicht mehr. Da die Menge der Photonen begrenzt ist, muss man sie schon eine bestimmte Zeit lang auf den Sensor fallen lassen, und zwar egal, wie groß die Pixel sind, da auch das Rauschen des Lichts selber die Dynamik begrenzt. Selbst, wenn man das Problem der Sättigung lösen könnte, würde sich so eine Mindestzeit ergeben, die man den Sensor für hohe Ansprüche an die Bildqualität belichten muss. Und die muss man irgendwie bestimmen, bzw. sich vor der Aufnahme darüber Gedanken machen.

 

(Edit: Bei hohem Motivkontrast werden außerdem ja noch Einflüsse wie Streulicht, Reflexionen im Objektiv etc. zur unüberwindlichen Hürde für die Dynamik.)

Weil die Kamera das schon vorher einigermassen druckbar in ein jpg quetscht.

Die Ironie dabei ist, dass man umso mehr quetschen muss, je höher der Dynamik/Kontrastumfang des Fotos ist. :cool:

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

also alles Mist. Leica-M, Ricoh, die Benutzer...? :confused:

Ich probiere es jetzt noch ein (letztes?) Mal:

Ein Leica-M Bajonett auf einer x-beliebigen Kamera macht diese noch nicht zu einer Leica-M<irgendwas>. Und selbst M8/9 Besitzer scheuen sich dann noch vierstellige Eurobeträge für Objektive auszugeben.

Ob der Besitzer einer Ricoh-M dann mit billigen Voigtländern zufrieden ist?

Ich mag die derzeitige Entwicklung. Sie geht langsam in die richtige Richtung.

In Richtung Edelschrott? :-)

Und bei der PEN den AA-Filter wegzunehmen, würde unweigerlich zu einer Katastrophe führen. Sie benötigt ihn dringend, damit div. Fehleranfälligkeiten durch die hohe Pixeldichte abgeschwächt werden.

Weißt du das oder beruht das auf Hörensagen/Lesenschreiben?
Ein FOVEON ist wie er ist nicht nur durch den fehlenden Filter, sondern v.a. durch seine Farbaufzeichnung, die nicht 3/4 der Farbinformationen dazuinterpoliert.
Aber du weißt natürlich ganz genau, mit welchen rechnerischen Kopfständen da die Farbinformation wiedergewonnen wird? Dagegen ist das Bayer-Demosaicing allerletzte Hinterhofmathematik...
Link zum Beitrag
Auf anderen Seiten teilen

(...)

(Edit: Bei hohem Motivkontrast werden außerdem ja noch Einflüsse wie Streulicht, Reflexionen im Objektiv etc. zur unüberwindlichen Hürde für die Dynamik.)

 

Die Ironie dabei ist, dass man umso mehr quetschen muss, je höher der Dynamik/Kontrastumfang des Fotos ist. :cool:

Genau, vorausgesetzt, das Objektiv gibt es her. Der Streulichtanteil von bis 2% bei den exzellentesten Objektiven mit wenig Linsen sorgt schon für eine Kompression auf 6 Blendenstufen. Und wer vergisst, bei LR den Schwarzwert zurück zu nehmen, ist nur bei ca. 4,5 Blendenstufen. Habe ich eine Lichtquelle im Bild, die um ein vielfaches über die Sättigung des Sensors hinaus geht (die Sonne dürfte das locker schaffen;), und in Innenräumen eine Glühbirne auch mit wenig Mühe), dann ist es Essig mit Dynamik. Ergo ergibt sich unter dem Strich, dass die beste Sensor-Eingangsdynamik im fotografischen Alltag eher von theoretischer Bedeutung ist, weil vor den Sensordioden ja nicht "Nichts" ist. Diverse andere Effekte könnte Richard Feynman besser erklären. In der Astrofotografie, wenn keine Linsen verwendet werden und Streulicht aller Art sorgfältig vermieden wird, dann kann der Sensor seine Dynamik ausspielen.

Link zum Beitrag
Auf anderen Seiten teilen

Okay, ich gebs auf.

 

Ich kauf mir halt Edelschrott. Was solls. Mir gefällts.

 

@isaac: mich würde ja mal interessieren mit welchem Schrott Du das Licht fängst. Es müsste bei Deiner Theorie ja mindestens eine M10 aus Solms ohne Teile aus Fernost und ohne die Billig-Linsen von Voigtländer sein, oder? :confused:

 

Und was glaubst Du, warum gerade die Kameras mit der größten Pixeldichte die dicksten AA-Filter haben? Um den Kunden zu vereiern? Ich bitte Dich...

 

Und der FOVEON ist langsam weil er viel ausliest und wenig dazurechnet, da hilft auch ein Schneller Prozessor nicht. Aber man erkauft sich das ja auch mit ner Menge Nachteile. Ich hab jedenfalls den FOVEON in der DP1s schon mit der VF 5D MKII verglichen und meine Schlussfolgerungen daraus gezogen.

 

Dass Leica-Objektive noch keine Leica machen ist hier auch jedem klar. Aber was glaubst Du steckt in den digitalen Leicas? Ein Leica-Chip, entwickelt und gebaut in Solms?

 

Lass doch bitte jedem seine Freude an welchem System auch immer...

Link zum Beitrag
Auf anderen Seiten teilen

Auf den neuen Foveon bin ich gespannt: 15 MP in 3 Schichten

Ich kann mir aber nicht vorstellen, wie das Rausch-Verhalten sein muss.

Hoffentlich bekommt Sigma nicht Probleme mit diesem Pixelwahn.

 

Ich denke da eher an Tageslicht, Blitz bzw. Stativfotografie. Kann sein, dass hier der Foveon eine Nische findet.

 

Ansonsten merkt man bei den Edelkompakten ein Umdenken, denn hier kommt man plötzlich mit 10 MP aus.

Die Fuji70EXR, die ich seit einer Woche habe, ist auch bescheiden. Das kommt dem Bild zugute.

Einen guten Weg ist Fujis EXR-Sensorarchitektur, aber ich hätte mir mehr erwartet. Da war der Sensor mit den unterschiedlich großen Dioden besser.

 

Vollkommen gestört ist der Weg, den die Bridgecams gehen.

Diese 14 MP 1/2,33 Zöller, mit Megazoom .... kann ich nicht nachvollziehen, warum man da als Hersteller über 6 MP gehen muss.

Allein vom Objektiv (27-600mm oder mehr) her macht das keinen Sinn.

Viel Kontrast und Schärfeverlust, durch diesen Brennweitenspagat, keine Lichtstärke, meist f3,3-5,6, und dann noch eine Pixeldichte von 600*600 Pix / mm2 :confused:

Die Bilder sehen 1:1 aus, wie gemalt.

Wenn man hier eine brauchbare 1:1 Auflösung will, dann muss man sowieso auf die halbe Auflösung skalieren.

Ich finde es nur schade, dass man aber die fehlende Dynamik der Pixelschleudern beim Skalieren nicht bekommt, denn die kommt trotz Verkleinern nicht.

Link zum Beitrag
Auf anderen Seiten teilen

Auf den neuen Foveon bin ich gespannt: 15 MP in 3 Schichten

Ich kann mir aber nicht vorstellen, wie das Rausch-Verhalten sein muss.

Hoffentlich bekommt Sigma nicht Probleme mit diesem Pixelwahn.

 

Ich denke da eher an Tageslicht, Blitz bzw. Stativfotografie. Kann sein, dass hier der Foveon eine Nische findet.

 

Ich auch, aber ob der Schritt von 4,7 auf 15 MP nicht doch etwas gewagt ist?

Mir hätten natürlich 10 MP dicke ausgereicht. Aber der Sensor wird ja auch etwas größer: Von 20,7x13,8 auf 24x16mm. Immerhin 35% mehr Fläche.

Weiterhin wohl kein Video oder Liveview, was sich positiv auf den Signal-Rausch-Abstand und die "Dynamik" (oder wie sollen wir es jetzt nennen?) auswirken dürfte. Ich bin gespannt. Eine reine DSLR, ohne fiese Matenten...

Link zum Beitrag
Auf anderen Seiten teilen

Ich hatte ja die DP1 und 2 - aber ich habe 4 Kinder, da war diese Art der Kamera zu träge. Ich gab es schnell auf, die DPs als Immerdabei zu nutzen.

Statt DP habe ich Nex, aber da ich die Nex meist mit Altglas schmücke, wurde eine Immerdabei in Form eine kleinen Fuji F70EXR notwendig.

 

Derzeit habe ich diese 3 (Haupt) Kameras:

 

DxOMark - Compare sensors

 

Bei DxO gefallen mir diese Vergleichskurven.

Vor allem die Colour-Sensivity.

Da ist die alte 5D noch ganz vorne :D.

Aber auch die Nex3 macht sich sehr gut. Sie ist fast deckungsgleich mit der Canon 50D (kochen alle mit Wasser).

 

Ich finde die Diskussion super und ich denke, Dynamik und Pixel sind mit

Drehmoment und PS-Leistung vergleichbar, wenn man in die Autowelt blickt.

Könnt ihr euch auf diese Turbos mit Turboloch erinnern - viel PS, null Drehmoment - wie bei den Cams - viele Pix, null dahinter

 

Wenn man einmal weiß, dass nicht nur ein Parameter wichtig ist, sondern zwei oder mehrere (leider ist das im Leben oft so), dann stolpert man nicht so schnell über gewisse Werbemaschen.

 

Ich kaufte 2006 voller Stolz eine 180€ Pentax Kompakte mit 8 MP und ISO 1600 (stand fett auf der Packung drauf) ...

dann, Eislaufplatz, Kunstlicht, ISO 1600 einstellen und los, denn ich brauche keine DSLR, ich habe ja eine Kompakte ... und dann :eek:

 

Die Rauschkurve dieser ISO1600-Pentax-Optio kann man bei DxO gar nicht darstellen, so würde die aus der Skala schießen.

 

Dann begann mein "Flächenwahn" :o ...

Link zum Beitrag
Auf anderen Seiten teilen

Das kann ich Dir als Baumensch nicht beantworten ;).

 

Aber toll, dass es so ist.

 

Ich habe gehört von

Mikrolinsen, bessere Signalausbeute, bessere Signalinterpretation und so weiter.

 

Dieser neue Sonysensor (D7000) muss super sein, wenn das alles stimmt.

Link zum Beitrag
Auf anderen Seiten teilen

Es liegen ja mehrere Jahre Entwicklung (jeweils 3) dazwischen. Es wird ja nicht alles generell schlechter. Die von Dir genannten Kameras sind m.M nach die günstigste Gelegenheit, an einen sehr guten Chip zu kommen. Alle drei Kameras könne tolle Bilder machen.

 

Die RAWs der 5D haben "nur" 12 bit und sie gehört ja zur ersten Generation digitaler VF im noch bezahlbaren Bereich. Die 5D MarkII ist eben eine konsequente Weiterentwicklung.

 

Die Nikon hat eben in den niedrigen ISOs deutlich die Nase vorn, da sie einen noch kleineren Signal-Rausch-Abstand hat. Das relativiert sich aber in den höheren ISO-Bereichen wieder.

 

Warum das so ist, weiss ich auch nicht genau, da musst Du die Entwickler fragen. Ich wollte das mal machen, hab aber mein Photoingenieurs-Studium geschmissen. Die haben mich gar nicht fotografieren lassen...:D

Link zum Beitrag
Auf anderen Seiten teilen

Das kann ich Dir als Baumensch nicht beantworten ;).

 

Aber toll, dass es so ist.

 

Ich habe gehört von

Mikrolinsen, bessere Signalausbeute, bessere Signalinterpretation und so weiter.

 

Dieser neue Sonysensor (D7000) muss super sein, wenn das alles stimmt.

 

Es liegen ja mehrere Jahre Entwicklung (jeweils 3) dazwischen. Es wird ja nicht alles generell schlechter. Die von Dir genannten Kameras sind m.M nach die günstigste Gelegenheit, an einen sehr guten Chip zu kommen. Alle drei Kameras könne tolle Bilder machen.

 

Die RAWs der 5D haben "nur" 12 bit und sie gehört ja zur ersten Generation digitaler VF im noch bezahlbaren Bereich. Die 5D MarkII ist eben eine konsequente Weiterentwicklung.

 

Die Nikon hat eben in den niedrigen ISOs deutlich die Nase vorn, da sie einen noch kleineren Signal-Rausch-Abstand hat. Das relativiert sich aber in den höheren ISO-Bereichen wieder.

 

Warum das so ist, weiss ich auch nicht genau, da musst Du die Entwickler fragen. Ich wollte das mal machen, hab aber mein Photoingenieurs-Studium geschmissen. Die haben mich gar nicht fotografieren lassen...:D

Tija, wenn ich wollte, will aber nicht. Das würde Euch ca. 3 Jahre Eures Lebens kosten, die Ihr mit Lernen verbringen müsstet.:D

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe immer wieder von Dot Quantum gelesen.

Diese Sensoren sollen wesentlich lichtempfindlicher sein als ein "normaler" Bayer oder Foveon.

 

Quantum dots promise more sensitive sensors: Digital Photography Review

 

Ich hoffe, sollte diese Technik (oder eine andere) auf den Markt kommen, dass mein "Haben Wollen" kontrollierbar bleibt.

Link zum Beitrag
Auf anderen Seiten teilen

Ich kann mir gut vorstellen, welche Dichte an Wissen hinter einem Sensor steckt.

 

So ein mikroskopisch kleiner Bauteil, unvorstellbar, wie man daraus Daten gewinnen kann.

Das ist erst die halbe Miete, denn nun muss man die Daten noch auswerten.

 

Mein elektronisches Wissen endet beim Lötkolben und Klinkenstecker.

Link zum Beitrag
Auf anderen Seiten teilen

Mehr als eine Blendenstufe Empfindlichkeit mehr (Quanteneffizienz) gegenüber den aktuellen Sensoren ist nicht mehr drin. Ob das in Massenfertigung überhaupt geht bleibt abzuwarten. Die höhere Empfindlichkeit nützt auch solange nichts, wie man nicht für genügend große Töpfe für die Ladung sorgt, oder diese vor Überlauf ausliest, ausleert, und wieder füllen lässt, ausliest, ausleert .... usw., denn höhere Quanteneffizienz sorgt auch für schnellere Ladung und damit beisst sich die Katze in den Schwanz.

Mit dieser ganzen Störpegel erzeugenden Elektronik und Logik wird es jedoch wieder enger und wärmer auf dem Chip, was wieder zu erhöhtem Rauschen ....

Link zum Beitrag
Auf anderen Seiten teilen

Der PIXELWAHN verfolgt mich seit 2006.

 

Damals hatten die leistbaren APS-C Modelle noch 6 MP und machten tolle Bilder.

 

Aber - die Hersteller, vom Zahlenwahn getrieben, dachten sich, wir machen allen eine Freude, und packen immer mehr Pixel auf die Sensorfläche.

 

Die 20 MP Marke bei APS-C wird demnächst erreicht werden.

 

Ich kenne aber keinen ambitionierten Fotografen, der das gut findet.

 

Alle, wirklich alle, wollen lieber weniger Auflösung, aber mehr Dynamik und damit verbunden, ein besseres Rauschverhalten.

 

 

Aber toll, dass es so ist.

 

Ich habe gehört von

Mikrolinsen, bessere Signalausbeute, bessere Signalinterpretation und so weiter.

 

Dieser neue Sonysensor (D7000) muss super sein, wenn das alles stimmt.

Vielleicht könnte man das Ergebnis der Diskussion dann so zusammenfassen:

 

Theoretisch ist der Pixelwahn der größte Mist, praktisch hat er aber noch keine Nachteile gezeigt. Und keiner hier weiß, warum.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...