Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

wenn die Entwickler das hier lesen,

werden sie die Spiegellosen auch nicht weiterentwickeln.

Wie schrecklich!

Gerade deshalb sollten sie die weiterentwickeln.

Und nicht den Schnickschnack wie Touchscreen und Video sondern vielleicht mal die Sensoren... :cool:

bearbeitet von User2696
Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 180
  • Created
  • Letzte Antwort

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Hallo!

Was muss man da erläutern. Er kann halt das, was der alte Chip tut, besser - Bilder aufzeichnen. Egal ob Rauschverhalten, Dynamik oder was auch immer - es dürfte/sollte überall Fortschritte geben.

Wie soll ich dir das jetzt am besten darbringen?

Es ging/geht um 'bessere' Chips, also Sensoren. Da gilt die alte Regel, Pixelfläche, Pixelfläche und nochmals Pixelfläche. Der Quantenprozeß (Photon zu Elektron) kann maximal den Wirkungsgrad 1 erreichen, wir sind (seit Jahrzehnten) bei ca. 0.5 (Tendenz sogar eher fallend).

Das Rauschen ist ebenfalls physikalisch bedingt, also was soll besser werden?

Wenn man allerdings das gesamte Aufzeichnungssystem betrachtet, da ist - bei konstanter Pixelfläche - natürlich schon viel geschehen und es gibt wenig Gründe, warum da nicht noch mehr geschehen sollte.

Verstärker mit weniger Rauschen, exzellente Rauschunterdrückungsalgorithmen sind nur einige der Möglichkeiten. Aber der Chip ist sogut wie ausgereizt, im Gegenteil, sie werden meiner Ansicht nach sogar graduell 'schlechter' (weil die Software zum Kompensieren billiger ist).

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

 

Wie soll ich dir das jetzt am besten darbringen?

Es ging/geht um 'bessere' Chips, also Sensoren. Da gilt die alte Regel, Pixelfläche, Pixelfläche und nochmals Pixelfläche. Der Quantenprozeß (Photon zu Elektron) kann maximal den Wirkungsgrad 1 erreichen, wir sind (seit Jahrzehnten) bei ca. 0.5 (Tendenz sogar eher fallend).

Das Rauschen ist ebenfalls physikalisch bedingt, also was soll besser werden?

Wenn man allerdings das gesamte Aufzeichnungssystem betrachtet, da ist - bei konstanter Pixelfläche - natürlich schon viel geschehen und es gibt wenig Gründe, warum da nicht noch mehr geschehen sollte.

Verstärker mit weniger Rauschen, exzellente Rauschunterdrückungsalgorithmen sind nur einige der Möglichkeiten. Aber der Chip ist sogut wie ausgereizt, im Gegenteil, sie werden meiner Ansicht nach sogar graduell 'schlechter' (weil die Software zum Kompensieren billiger ist).

 

Naja: Ich bin - ganz offenbar im Gegensatz zu Dir - ein technischer Laie. Allerdings weiß ich, dass in der Vergangenheit in den verschiedensten technischen Bereichen schon so oft erklärt wurde, dies oder jenes sei nicht möglich - und nur wenige Jahre später wurde das Gegenteil bewiesen. Auch hat Fuji offenbar ja schon seit einem Jahr oder so eine Möglichkeit gefunden, das Rauschen weiter zu reduzieren. Und dass der 12MP-Chip der E-P2 und der E-PL1 weniger rauscht als der der E-30/E-620 durfte ich hier im Forum auch schon oft genug lesen.

 

Und was die Pixel-Anzahl betrifft - da haben ja inzwischen auch schon einige Hersteller - zumindest bei ihren Kompakten - eine Kehrtwendung gemacht.

 

Darüber hinaus liest man von hintereinander gebauten Sensoren für jede Farbe und was weiß ich noch. Drum bin ich fest davon überzeugt, dass da noch einiges an Verbesserungen auf uns zukommen wird.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Naja: Ich bin - ganz offenbar im Gegensatz zu Dir - ein technischer Laie.
...und kannst dich ganz entspannt zurücklehnen und beobachten, was da alles an dir vorbeizieht :-)
Allerdings weiß ich, dass in der Vergangenheit in den verschiedensten technischen Bereichen schon so oft erklärt wurde, dies oder jenes sei nicht möglich - und nur wenige Jahre später wurde das Gegenteil bewiesen.
Ich habe geschrieben 'beobachten' und nicht 'kommentieren' :-)
Auch hat Fuji offenbar ja schon seit einem Jahr oder so eine Möglichkeit gefunden, das Rauschen weiter zu reduzieren.
Das ist meines Erachtens nur ein anderer Weg, den man bei einem CCD gehen kann, um wie bei einem CMOS das 'lokale Rauschen' rechnerisch zu kompensieren.
Und dass der 12MP-Chip der E-P2 und der E-PL1 weniger rauscht als der der E-30/E-620 durfte ich hier im Forum auch schon oft genug lesen.

Auch dafür gibt es chip-unabhängige Erklärungen, die einfachste davon wäre schlicht Einbildung :-)

Was du allerdings auch als Laie akzeptieren mußt, sind die Grenzen der (uns heute bekannten) Physik.

Sollte es - was nicht auszuschließen ist - die Physik auf dem einen oder anderen Gebiet umgechrieben werden müssen, dann werden davon wohl nur unsere Nachkommen profitieren.

Schließlich hat A.E. alles schon zu Beginn des 20Jh gewußt, GPS haben wir aber auch noch nicht so lange....

Und was die Pixel-Anzahl betrifft - da haben ja inzwischen auch schon einige Hersteller - zumindest bei ihren Kompakten - eine Kehrtwendung gemacht.
Weniger Pixel pro Sensor resultiert in mehr Fläche pro Einzelpixel

Darüber hinaus liest man von hintereinander gebauten Sensoren für jede Farbe

Foveon, einfach nicht totzukriegen, da müssen sich gleich drei Farben die Photonen von einem Pixel teilen.
und was weiß ich noch. Drum bin ich fest davon überzeugt, dass da noch einiges an Verbesserungen auf uns zukommen wird.

Die Hoffung stirbt zuletzt...

Link zum Beitrag
Auf anderen Seiten teilen

Foveon, einfach nicht totzukriegen, da müssen sich gleich drei Farben die Photonen von einem Pixel teilen.

Nee, den meinte ich jetzt nicht. Das ist ja nur ein mehrfach beschichteter Sensor.

 

Nö - Pana oder Oympus habe da so ein Patent für eine Kamera, in der tatsächlich drei Sensoren hintereinander verbaut werden. Wurde hier im Forum irgendwann vor einem Jahr mal verlinkt. Ist aber wohl aktuell aufgrund von Temperatur-Problemen noch Zukunftsmusik.

 

Ich habe geschrieben 'beobachten' und nicht 'kommentieren' :-)

Pass up, Doooo! *rofl*

 

Auf jeden Fall hatte ich viel Spaß beim Lesen Deiner Antwort. 'Einbildung'. Großartig. Mihihihi

 

Danke dafür!

bearbeitet von DonParrot
Link zum Beitrag
Auf anderen Seiten teilen

Nö - Pana oder Oympus habe da so ein Patent für eine Kamera, in der tatsächlich drei Sensoren hintereinander verbaut werden.

Das nimmt dann auch den Streß aus der AF-Problematik, denn einer ist bestimmt immer im Fokus. OK, die beiden anderen nicht, aber Schwund gibt's überall.

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Weniger Pixel pro Sensor resultiert in mehr Fläche pro EinzelpixelFoveon, einfach nicht totzukriegen, da müssen sich gleich drei Farben die Photonen von einem Pixel teilen.

 

Nee, den meinte ich jetzt nicht. Das ist ja nur ein mehrfach beschichteter Sensor.

 

Also wenn ihr hier schon herzlich schwadroniert :eek:, dann bitte wenigstens RICHTIG nachdenken: der Foveon hat auf der Fläche, wo ein Bayer-Sensor insgesamt vier Sub-Pixel beherbergt, genau EINEN Pixel.

 

Beim Bayer-Sensor sind in der Regel ein roter, ein blauer und zwei grüne Sub-Pixel so kombiniert, daß man daraus ein wunderschönes Kachelmuster legen kann; vor JEDEM Sub-Pixel liegt ein Farbfilter, so daß der rote Sub-Pixel nur annähernd rotes Lichte, der blaue nur annähernd blaues und die grünen nur annähernd grünes Licht bekommen.

Etwas anders betrachtet: grünes Licht wird auf der Hälfte der Sensor-Flche auch "wahrgenommen", rotes und blaues Licht gerade mal auf einem Viertel der Fläche.

Und weil die Menschen maßlos sind, interpoliert man die "roten" und "blauen" und "grünen" Löcher mit den Werten darum herum liegender Pixel, verkauft das ganze dann aber als vollständige Lösung.

 

Ein 12 MP Bayer Sensor hat also ca. 6 Mio. grüner Sub-Pixel und jeweils ca. 3 Mio rote und blaue Sub-Pixel; der Output sind aber stolze 12 Mio. Pixel (Farbdaten) für jeweils grün, rot und blau!

 

Ein Foveon mit 6 MP dagegen hat auf der gleichen Fläche jeweils 6 Mio. Rot-, Grün- und Blau-Sensoren, entsprechend 6 Mio. Pixel. Denn vor diesen Pixeln sind KEINE Farbfilter, die Farbe wird dagegen durch die Eindringtiefe des Lichtes detektiert - im Prinzip liegen drei Sensorschichten mit jeweils 6 Mio. Pixel übereinander.

Das hat zur Folge, daß insgesamt doppelt so viele grüne Lichtanteile, und jeweils vier mal (!) so viele blaue und rote Lichtanteile detektiert werden. Es gibt keine Löcher für irgendeine Farbe .. Der Output des Foveon sind also jeweils echte 6 Mio. Pixel für grün, rot und blau.

 

Für denjenigen, den es interessiert, habe ich die Wikipedia oben verlinkt. :cool:

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man allerdings das gesamte Aufzeichnungssystem betrachtet, da ist - bei konstanter Pixelfläche - natürlich schon viel geschehen und es gibt wenig Gründe, warum da nicht noch mehr geschehen sollte.

Verstärker mit weniger Rauschen, exzellente Rauschunterdrückungsalgorithmen sind nur einige der Möglichkeiten. Aber der Chip ist sogut wie ausgereizt, im Gegenteil, sie werden meiner Ansicht nach sogar graduell 'schlechter' (weil die Software zum Kompensieren billiger ist).

Meine erste DSLR war 2004 meine D70. Bei Basis-ISO sind meine darauf folgenden Kameras (D80 und D300) bei Raw nicht besser, lediglich bei höheren ISOs wirken sich die rauschärmeren Verstärker aus.

 

Ich kann also in der Sensortechnologie in den letzten Jahren überhaupt nicht den gewaltigen Fortschritt sehen, der hier in die Zukunft fortgeschrieben werden soll.

 

Nur die Marketingabteilungen werden wohl immer besser.

 

Denn vor diesen Pixeln sind KEINE Farbfilter, die Farbe wird dagegen durch die Eindringtiefe des Lichtes detektiert - im Prinzip liegen drei Sensorschichten mit jeweils 6 Mio. Pixel übereinander.

Das hat zur Folge, daß insgesamt doppelt so viele grüne Lichtanteile, und jeweils vier mal (!) so viele blaue und rote Lichtanteile detektiert werden.

 

Also wenn ihr hier schon herzlich schwadroniert :eek:, dann bitte wenigstens RICHTIG nachdenken

Guter Tip. Aber manchmal hilft ja schon richtig lesen. :P

 

Nachteilig kann sich ein farbiges Bildrauschen bermerkbar machen, welches sich vom farbneutralen Rauschen bei Bayer-Sensoren vor allem durch seine ins Auge springende, meist grüne oder gelbe Grießigkeit unterscheidet.

...

Beim Foveon Sensor sind nun 3 Schichten zu durchdringen. Zwangsläufig wird der Photonenstrahl von filternder Schicht zu Schicht schwächer.

Ein Sensor mit geringerer Auflösung bei hohem Rauschen ist ja nun wirklich nicht das, was man normalerweise so haben will.

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Nachteilig kann sich ein farbiges Bildrauschen bermerkbar machen, welches sich vom farbneutralen Rauschen bei Bayer-Sensoren vor allem durch seine ins Auge springende, meist grüne oder gelbe Grießigkeit unterscheidet.

...

Beim Foveon Sensor sind nun 3 Schichten zu durchdringen. Zwangsläufig wird der Photonenstrahl von filternder Schicht zu Schicht schwächer.

 

Ein Sensor mit geringerer Auflösung bei hohem Rauschen ist ja nun wirklich nicht das, was man normalerweise so haben will.

 

Grüße

Andreas

Hallo Andreas,

glaubst du etwa das, was in der Wikipedia so steht? Daß durch die Schichtdicke am Ende weniger ankommt, ist für jeden der sich mit elektromagnetischen Wellen beschäftigt, ja wohl absoluter Quatsch.

Ebenfalls das Farbrauschen: beim Bayer-Sensor wird alleine durch das DeMosaicing bestimmt, wieviel Farbrauschen im Endergebnis bestehen bleibt - oder wieviel Detaillierung man zu verlieren bereit ist. Von systematischem Vor- und Nachteil kann man dabei sicher nicht sprechen.

 

Die von dir zitierten Aussagen sind Kokolores, in sich unlogisch und damit nicht bestimmend - typisches Gewäsch.

Allerdings ist es richtig, daß auch der Foveon seine Problemchen hat, ich propagiere den ja auch nicht als Überflieger. Aber ich wollte halt schon mal richtig stellen, was da vermeintlich falsch verstanden wurde.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Daß durch die Schichtdicke am Ende weniger ankommt, ist für jeden der sich mit elektromagnetischen Wellen beschäftigt, ja wohl absoluter Quatsch.

... wie willst Du denn diese Aussage beweisen? Die Energie der eintreffenden Photonen wird doch nicht "umsonst" in elektrische Energie umgesetzt, d.h. dem Lichtstrahl wird auf seinem Weg durch das Silizium Energie entzogen, als muss wohl "am Ende" weniger ankommen.

Link zum Beitrag
Auf anderen Seiten teilen

glaubst du etwa das, was in der Wikipedia so steht?

...

Die von dir zitierten Aussagen sind Kokolores, in sich unlogisch und damit nicht bestimmend - typisches Gewäsch.

Thorsten, sorry, aber dein Stil ist heute absolut daneben.

 

Das "Gewäsch" hattest du selbst verlinkt. Vielleicht solltest du da mal etwas gründlicher sein?

 

Daß durch die Schichtdicke am Ende weniger ankommt, ist für jeden der sich mit elektromagnetischen Wellen beschäftigt, ja wohl absoluter Quatsch.

Dann bilden sich die Sigma-Anwender das Rauschen am Ende wohl nur ein?

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Jo,

hallo Andreas,

ich habe weder bestritten, daß auch der Foveon in der praktischen Ausführung Probleme macht, noch habe ich einen von euch angegriffen, oder? Mein Ausdruck "Gewäsch" bezog sich alleine auf die Aussage in der Wikipedia - ich war allerdings überrascht, Andreas, daß du ausgerechnet die dann ans Licht gezerrt hast :o

 

Ich habe die Wikipedia verlinkt, damit man außer meinen Aussagen auch noch eine unabhängige Quelle hat, wo man die grundsätzliche Funktionsweise nachvollziehen kann.

 

Wenn eine elektromagnetische Welle auf den Sensor trifft, dann bestimmt ihre Wellenlänge auch die "Interaktionstiefe" - ist der Sensor dünner wie diese Wellenlänge, dann ist der für diese Photonen praktisch NICHT vorhanden, weil dort keinerlei Energieaustausch stattfindet .. etwas kleinere Physik eben.

 

Die praktischen Probleme des Foveon resultieren aus den Schwierigkeiten, diese Art Sensor in der Kamera zu betreiben und zu integrieren - das hat jedoch NICHTS mit der grundsätzlichen Idee und Wirkungsweise zu tun. Ich bekenne schon seit Jahren, daß mein Wunsch ein 6 MP Foveon in einer microFT wäre - und ich würde diese Kamera kaufen. Und ich würde mich um eine Weiterentwicklung dieser Technologie freuen.

 

Aber trotzdem macht meine G1 bessere Bilder als ich, also kann ich damit gut leben .. und ja: der Bayer-Sensor ist der meist verkaufte, also erfolgreichere - gebe ich gerne zu.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallole,

 

abseits aller Theorie möchte ich nur mal anmerken, dass die Technik durchaus Fortschritte macht. So wollte ich meine Sony DSC-R1 nur ungern mit 400 ISO betreiben, bei der E-P1 ist das aber gar kein Problem. Wobei die Sony den größeren Chip hat, aber halt 4 Jährchen älter ist.

 

Schönen Gruß

vom Südlicht

Link zum Beitrag
Auf anderen Seiten teilen

Wenn eine elektromagnetische Welle auf den Sensor trifft, dann bestimmt ihre Wellenlänge auch die "Interaktionstiefe" - ist der Sensor dünner wie diese Wellenlänge, dann ist der für diese Photonen praktisch NICHT vorhanden, weil dort keinerlei Energieaustausch stattfindet .. etwas kleinere Physik eben.

Und du bist ganz sicher dass der Transmissionsgrad bei satten 100% liegt? Ist das nicht eine etwas kühne Annahme?

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Andreas,

ich bin da überhaupt nicht sicher, aber ist das nicht auch die falsche Frage? Bei dem Bayer-Sensor steht nur 25% der Fläche zur Verfügung - für diese Photonen, also wäre ein Transmissionsgrad von 50% immer noch doppelt so gut, wenn der Bayer Sensor denn optimal wäre - aber ist der das?

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Leute, wir wollen und da mal nicht um die Funktionsweise der verschiedenen Sensortypen streiten.

 

Die 4 üblichen haben alle ihre Berechtigung.

Ich komme aus der Minolta/Sony Welt. Mit meiner aktuellen DSLR A700(welche auch schon ein Oldie ist) bin ich sehr zufrieden.

 

Aber Man/Frau will halt nicht immer 5 bis 10 kg Fotoausrüstung herumschleppen. Daher habe ich mir als Zweitsystem eine Pana GF1 geholt. Wenn's war ist kommt Morgen mein A-Mount auf M4/3 Adapter.

 

Dann wird es richtig spannend. Ich habe das Sony STF 135.

Für alle die das STF nicht kennen, hier eine Beschreibung dieser einzigartigen Optik (Minolta Patent): The 135 STF

Bin gespannt was der Pana Sensor damit anstellt.

 

Und weil alle bekannte Sensoren halt so ihr Probleme haben warte ich noch auf den Einpixel Sensor. Ein großer Pixel sollte doch alle Probleme lösen, oder? ;)

 

lg und Gut Licht

Karl

Link zum Beitrag
Auf anderen Seiten teilen

Bei dem Bayer-Sensor steht nur 25% der Fläche zur Verfügung

So einfach funktioniert das Bayer-Demosaicing wirklich nicht. Ein Foveon liefert nun mal nicht im Entferntesten die Auflösung, die ein Bayer-Sensor mit drei mal so vielen Megapixeln hat. Deshalb stimmt dieser Flächenvorteil des Foveon nicht.

 

Nun ist das Rauschen im Rotkanal beim Foveon keine Erfindung von Wikipedia, woher mag es wohl kommen?

 

Grüße

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Komische Hochrechnung!
Andreas hat vollkommen recht!

Wenn ich mir heute meine RAWs der Canon S70 hernehme und sie mit einem der neueren RAW-Konverter (LightRoom oder CaptureOne) 'entwickle', dann ist der Unterschied schon mehr als deutlich sichtbar.

Ebenso ist es bei der E-300. Bei ISO 100 und 200 ist sie der L10 überlegen (ISO 100) bzw ebenbürtig (ISO 200).

Sehr viel weniger ist dieser Neuerungseffekt bei den RAWs der 5D zu bemerken. Aber das ist auch zu erwarten gewesen, weil das hardwaremäßige Rauschen eben nicht mehr bis zur RAW-Konvertierung durchkommt. Der Aquarell-Effekt bleibt natürlich auch bestehen.

Also nochmals zur Vertiefung:

Die Sensortechnologien sind zwar noch nicht ausgereizt, wirklich signifikante Verbesserungen (Rauschen, Dynamik) wären nur durch eine Neuformulierung der dahinterliegenden Physik möglich.

So wie beim Kraftfahrzeug: Pixelfläche kann durch nichts ersetzt werden (ausser durch noch mehr Pixelfläche).

Link zum Beitrag
Auf anderen Seiten teilen

Warum das jetzt gut ist...?

Es mag ja unvermeidbar sein, aber gut...?

 

 

Meine Behauptung in Beitrag 36 war vielleicht etwas knapp formuliert, aber Joachim hat es mit dem Begriff der eierlegenden Wollmilchsau perfekt erläutert:

 

Grundsätzlich - und daran wird sich wohl auch in Zukunft nicht viel ändern - sind größere Sensoren mit größeren Pixeln besser als kleinere Sensoren mit kleineren Pixeln. Für die beste (technische, nicht gestalterische) Bildqualität braucht man deshalb einen großen Sensor. Das bedingt dann eine größere Kamera. Demgegenüber steht das auch bei mir vorhandene Bestreben, eine kleine, leichte Kamera zu haben, weil groß nun einmal mit schwer und unbequem gleichzusetzen ist. Also ist µFT ein - von mir durchaus begeistert aufgenommener Kompromiss, der aber nicht jedem gefallen muß. Manch ein Zeitgenosse will - aus welchen Gründen auch immer - eine große Kamera mit dem sog. "Vollformat"-Chip, mancher braucht - dann hauptsächlich aus beruflichen Gründen - auch noch größere Formate. Das diese Vielfalt angeboten wird ist gut. So kann jeder das bekommen, was er will (und - auch nicht ganz unerheblich - er sich leisten kann).

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Thorsten!

Daß immer wir beide aneinander geraten... :-)

glaubst du etwa das, was in der Wikipedia so steht?
Man muß halt mit der notwendigen Skepsis - wie bei jeder referierenden Literatur - lesen.
Daß durch die Schichtdicke am Ende weniger ankommt, ist für jeden der sich mit elektromagnetischen Wellen beschäftigt, ja wohl absoluter Quatsch.
:-)

Ein Photon, welches in der obersten Schicht zum Elektron geworden ist, ist für die nachfolgenden Schichten nicht mehr verfügbar. Und das, egal welche 'Farbe' es hat. Weil eben das Silizium der obersten Schicht für das gesamte Spektrum empfindlich ist.

Durch difussionsähnliche Effekte kommen dennoch einige Photonen (wegen Übersättigung) weiter in tiefere Schichten und werden dort, entsprechend der Durchlässigkeit von Silizium für sichtbares Licht, auch noch zu Elektronen umgewandelt.

Man liest dann im Senser in unterschiedlich tiefen Schichten die Ladungen aus und kriegt schlußendlich ein Signal für:

oberste Schicht: R + G + B

mittlere Schicht: R + G

unterste Schicht: R

Und dann wird bei der Rohdatenumwandlung wild herumgerechnet (weil die Schichtdicken von Pixel zu Pixel ganz gering variieren können) um doch noch ein verwertbares Signal zu gewinnen.

Dieses System war schon zu Zeiten der Einführung des Bayer-Filters bekannt. Und gerade die miese Quantenausbeute in den unteren Schichten hat eben dazu geführt, daß man den Bayer'schen Kompromiß eingegangen ist, der in Summe, trotz der im Verhältnis kleineren Pixelfläche immer noch eine bessere (Überalles)Quantenausbeute erreicht als mit dem Mehrschichtsensor.

Das Farbsignal muß halt interpoliert werden, das Luminanzsignal ist aber mit wesentlich höherer Auflösung in jedem Pixel enthalten.

Ebenfalls das Farbrauschen: beim Bayer-Sensor wird alleine durch das DeMosaicing bestimmt, wieviel Farbrauschen im Endergebnis bestehen bleibt - oder wieviel Detaillierung man zu verlieren bereit ist.

Ich hoffe du zitierst nur. Weil das Rauschen wird vom Demosaicing sogut wie garnicht beeinflußt (im Gegenteil, es wird sogar geringfügig 'ausgemittelt').
Von systematischem Vor- und Nachteil kann man dabei sicher nicht sprechen.

Der systematische Nachteil ist, daß eben in der obersten Schicht rein quantenmäßig alle Photonen des gesamten Spektrums beinahe wegfressen werden. Im Prinzip ein perfekter S/W-Sensor. Man hilft sich dann mit der Tatsache, daß Silizium blaues und (dann) grünes Licht schichtdickeabhängig absobiert (die Photonen werden in Wärme umgewandelt) und man damit einen Hinweis auf die spektrale Lichtverteilung rekonstruieren kann.

Eine ingenieurtechnische Meisterleistung, der man ruhig Anerkennung zollen kann. Der Mut sowas in die Praxis umzusetzen ist ebenfalls beachtlich.

Der Pferdefuß: die Abgriffstiefe für die beiden unteren Schichten kann im Chip nicht absolut konstant gehalten werden (da genügen schon Nanometer).

Die von dir zitierten Aussagen sind Kokolores, in sich unlogisch und damit nicht bestimmend - typisches Gewäsch.
Thorsten!?

Allerdings ist es richtig, daß auch der Foveon seine Problemchen hat, ich propagiere den ja auch nicht als Überflieger. Aber ich wollte halt schon mal richtig stellen, was da vermeintlich falsch verstanden wurde.

Das wieder paßt :-)
Link zum Beitrag
Auf anderen Seiten teilen

Wenn eine elektromagnetische Welle auf den Sensor trifft, dann bestimmt ihre Wellenlänge auch die "Interaktionstiefe" - ist der Sensor dünner wie diese Wellenlänge, dann ist der für diese Photonen praktisch NICHT vorhanden, weil dort keinerlei Energieaustausch stattfindet .. etwas kleinere Physik eben.

 

... der Fauveon-Sensor besteht, wie Sigma selbst sagt, aus 3 übereinanderliegenden lichtempfindlichen Schichten, so wie es auch hier im Detail beschrieben ist:

Foveon X3 Direkt-Bildsensor: SIGMA Deutschland GmbH

 

Was da aber nicht gesagt wird, ist die Funktionsweise einer solchen Schicht, wie es auf folgender Seite beschrieben wird:

Solarzelle

 

Das bedeutet aber dann, dass obwohl der rote Lichtanteil elektromagnetisch erst in der untersten Schicht "interaktiv" wird, er an den beiden oberen Schichten Verluste durch teilweise Reflektion und Transparenz erfährt. Wie groß diese Verluste sind kann ich nicht beurteilen, dies könnte jedoch eine Erklärung für das stärkere Rauschen in der untersten Schicht sein.

 

Nicht mehr und nicht weniger wollte ich gesagt haben.

 

(P.S. Wie dick ist eigentlich jede der 3 Schichten des Fauveon-Sensors? Vermutlich dicker als 700nm = Wellenlänge Rot)

Link zum Beitrag
Auf anderen Seiten teilen

Hallo!

Andreas hat vollkommen recht!

.....

 

Aussagen wie diese: "weil es in der letzten Zeit keine Weiterentwicklung gegeben hat,

wird es auch in der nächsten Zeit keine geben"

sind einfach nur pessimistische Spekulation.

Nach dieser Devise säßen wir heute noch auf Bäumen!

 

Die Kamerahersteller, die von der Entwicklung der Digitalkamera überrascht worden sind,

haben auch so gedacht.

Link zum Beitrag
Auf anderen Seiten teilen

Es gibt eine interessante Betrachtung zu dem Thema von Adrian Ahlhaus: "Man muss wohl nur die Lager mit den bereits produzierten, billigen Spiegelreflexen abverkaufen, dann werden alle diese neuen Systeme anbieten, spätestens zum nächsten Frühjahr", sagt er.

 

Und in einer Antwort auf die Stellungnahme eines Lesers:"Die Kameras von mFT, NX und NEX sind derzeit alle nicht für professionelle Anwendungen gedacht, was aber nichts am grundsätzlichen Potential solcher Systemkameras ändert".

 

Die Welt der Photographie » Blog Archive » Was bringen spiegellose Systemkameras, wie derzeit mFT, NX, NEX und GXR?

 

Grüße

Lumix

bearbeitet von Lumix
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...