Jump to content

Neue Sensoren in Anmarsch ...


Gast Maxi

Empfohlene Beiträge

Aus einem Patent kann man halt schlecht ableiten, welche Fähigkeiten vorliegen, das auch zu realisieren. Es gibt Beispiele, bei denen die Firmen, die etwas nicht umsetzen können, Patente anmelden, um die zu behindern, die das Potenzial zur Entwicklung hätten. In vorliegenden Falle würde das bedeuten, dass Panasonic dies anmeldet, um zu verhindern, dass Sony eine neue Generation von Sensoren einführt. Muss es aber nicht.

 

Ich halte das Patentrecht mehr und mehr für eine innovationshemmende Farce, künstlich von denen am Leben erhalten, die sich hier eine goldene Nase verdienen.

 

Viele Unternehmen gehen gar nicht mehr zum Anwalt, wenn sie was Neues haben, sondern handeln einfach.

 

Hans 

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Hi,

 

ich glaube eigentlich auch schon nicht mehr dran.

Andererseits passt das genau zum letzten Interview mit den Fuji-Jungens.

 

Die sprachen nämlich von einem neuen Sensor, den sie für die nächste Generation Kameras haben wollen. Das passt irgendwie nicht zum 24 MPix Sony APS-C Sensor, der ja inzwischen auch schon wieder etwas älter ist.

Mich würde es freuen, wenn Fuji und Panasonic eigene Wege gehen und nicht jeder von Sony abhängig ist. Wir Anwender haben am Ende schließlich die Wahl.

 

Die hohen Auflösungen der aktuellen Sensorgenerationen interessieren mich eigentlich weniger. Ich hätte lieber eine Lösung für die Randproblematik, die mit zukünftig so oder so steigender Auflösung immer größer werden wird.

Daneben finde ich auch die Farbauflösung von Bayer/X-Trans nicht wirklich befriedigend. An dieses "digitalen Interpolations-Look" haben sich die Meisten zwar gewohnt, ich aber nicht so recht.

Wenn ich mit alte, gelungene Aufnahmen mit den Sigma Foveons oder Leicas Monochrome Sensor anschaue, ist das für mich ein starker Unterschied, der viel schwerer wiegt, als diese ewige Auflösungsmaximierung. Ich glaube aber eigentlich nicht daran, dass bei dem ganzen im Netz verbreiteten Auflösungswahn, dem neben Sony nun auch Olympus (Pixel/Sensor Shift) und Canon sensormäßig nachgeben, sich in Sachen Farbauflösung und Randproblematik (Sensor Stack) großartig etwas tuen wird.

 

Ich drücke jedenfalls die Daumen und bin wie bei Foveon und X-Trans gerne wieder vorne mit dabei...

Link zum Beitrag
Auf anderen Seiten teilen

 

... Ich glaube aber eigentlich nicht daran, dass bei dem ganzen im Netz verbreiteten Auflösungswahn, dem neben Sony nun auch Olympus (Pixel/Sensor Shift) und Canon sensormäßig nachgeben, sich in Sachen Farbauflösung und Randproblematik (Sensor Stack) großartig etwas tuen wird. ....

 

 

Der Sensor Shift der Olympus E-M5 Mk II bringt aber neben der Erhöhung der Detailauflösung auch volle Farbauflösung.

Link zum Beitrag
Auf anderen Seiten teilen

Hi,

 

 . . .

 

Ich drücke jedenfalls die Daumen und bin wie bei Foveon und X-Trans gerne wieder vorne mit dabei...

 

Du bist aber auch leidensfähig und kannst schon mal 18 Monate auf die Anpassung Deines wichtigsten Raw-Konverters warten - die Geduld hat nicht jeder   ;)

 

(was nicht heisst, dass ich diese Strategie abwerten möchte, ganz im Gegenteil)

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

 .  . . aber nur in 0,00001% aller Aufnahmesituationen ...

 

Wenn ich mir z.B. die Vergleichsaufnahmen  in diesem Beitrag anschaue, dann sehe ich schon einen Unterschied, und zwar bei den feinen Farbapplikationen auf dem Objektiv. Ob das jetzt den zusätzlichen drei Farbwert-Shift-Aufnahmen oder doch eher der höheren Auflösung zu verdanken ist wage ich aber nicht zu sagen.

 

bearbeitet von tcon17
Link zum Beitrag
Auf anderen Seiten teilen

 .  . . aber nur in 0,00001% aller Aufnahmesituationen   ;)

 

 

Hans

 

 

Wenn ich mir z.B. die Vergleichsaufnahmen  in diesem Beitrag anschaue, dann sehe ich schon einen Unterschied, und zwar bei den feinen Farbapplikationen auf dem Objektiv. Ob das jetzt den zusätzlichen drei Farbwert-Shift-Aufnahmen oder doch eher der höheren Auflösung zu verdanken ist wage ich aber nicht zu sagen.

 

Da hast Du mich falsch verstanden: Dass man den Vorteil des Pixel Shift wahrnimmt habe ich nicht bezweifelt - meine Aussage bezog sich auf die Häufigkeit der Situationen, in denen diese Technik einsetzbar ist.

 

Hans 

Link zum Beitrag
Auf anderen Seiten teilen

Leider ist Pixelshift nicht die Patentlösung, aber immerhin ein Weg in die Richtung...

Eigentlich bleiben von z.B. 24MPix ja nur 6 MPix "echte" Farbinformation über, bzw. 12 im Falle von grün.

 

Was meine Leidensfähigkeit angeht: Das X-Trans RAW-"Problem" wurde so dermaßen hochgekocht. In der Praxis (in der ich mich nicht mit sinnfreien 100%-Ansichten auf niedrig aufgelösten Monitoren beschäftige) habe ich so gut wie nix davon gemerkt. Inzwischen gibt es quasi keine Einschränkung mehr.

 

Ein großes Problem stellt jedenfalls die Vorherrschaft von Sony auf dem Sensormarkt dar. Wer eine Konkurrenz sein will, muss preislich in Sony Regionen kommen, die durch entsprechende Stückzahlen sehr niedrig und gleichzeitig profitabel. Die Sensoren von Sony sind aber auf Superlative in den techn. Daten getrimmt: super Dynamik, höchste Auflösung, HiISO usw.

 

Dabei machen kleine Firmen wie etwa CMOSIS, Toshiba, Sigma auch gute Sensoren. Allerdings auf einem anderen Preisniveau.

 

Unerreicht bis heute auch die Technologie von Arri/München, die ihren Videosensor zweimal gleichzeitig auslesen, um eine besondere Dynamik zu erreichen oder die der neuen Panasonic Varicam, die mit 2 nativen Empfindlichkeiten arbeiten kann. Leider sind solche technologischen Kniffe im heiss umkämpften und stagnierenden Systemkameramarkt nicht anzutreffen.

 

Ich persönlich bin immer dabei, die Konkurrenz von Platzhirrschen zu unterstützen. Deshalb habe ich weder einen PC, ein iPhone oder eine Canon hier, trinke keine Coka-Cola oder Nestlé Produkte.

Link zum Beitrag
Auf anderen Seiten teilen

Die hohen Auflösungen der aktuellen Sensorgenerationen interessieren mich eigentlich weniger. Ich hätte lieber eine Lösung für die Randproblematik, die mit zukünftig so oder so steigender Auflösung immer größer werden wird.

Daneben finde ich auch die Farbauflösung von Bayer/X-Trans nicht wirklich befriedigend. An dieses "digitalen Interpolations-Look" haben sich die Meisten zwar gewohnt, ich aber nicht so recht.

Wenn ich mit alte, gelungene Aufnahmen mit den Sigma Foveons oder Leicas Monochrome Sensor anschaue, ist das für mich ein starker Unterschied, der viel schwerer wiegt, als diese ewige Auflösungsmaximierung.

 

Also Randproblematik kann ich ja noch nachvollziehen aber fehlende Farbauflösung ist reine Einbildung allein schon weil das Auge eine wesentlich höhere Helligkeitsauflösung als Farbauflösung besitzt.

Im übrigen ist die Farbauflösung von Leicas Monochrome Sensor gleich Null ;)

Ansonsten ist dieser auch eine totale Fehlkonstruktion weil man sich dadurch die für die SW Fotografie so wichtigen farbabhängigen Kontrastumsetzungsmöglichkeiten beraubt. Die etwas bessere Lichtausbeute durch den fehlenden Farbfilter kann man bei der ISO Performance aktueller Kameras getrost vernachlässigen erst recht bei S/W wo man höchstes wegen dem fehlendem Rauschen per EBV noch etwas Korn erzeugt.

Link zum Beitrag
Auf anderen Seiten teilen

Schön, dass Du weisst, was ich gerne hätte. ;)

 

Probier mal einen Sensor mit 1:1 Farbauflösung. Siehst Du keinen Unterschied, wird mir klar, warum Du kein Problem mit 2/3 Anteil interpolierter Farbinformation hast...

 

Ich habe eines und liebe die Bilder aus der Monochrome wg. ihrer Homogenität. Ist aber mein persönlicher Geschmack...

Link zum Beitrag
Auf anderen Seiten teilen

Probier mal einen Sensor mit 1:1 Farbauflösung. Siehst Du keinen Unterschied, wird mir klar, warum Du kein Problem mit 2/3 Anteil interpolierter Farbinformation hast...

 

Wobei ich allerdings für fraglich halt ob bei den Foveons, ich nehme an du spielst hierbei auf diese an, dieser spezifische "Pepp" und Mikrokontrast tatsächlich durch die hohe Farbauflösung zustande kommt oder nicht doch viel mehr durch die oberste Sensorschicht, welche reine Luminanzinformation (also das gesamte sichtbare Spektrum) aufnimmt. Quasi einem nicht interpolierten Monochromsensor gleich, aber noch mit zusätzlichen weiteren Farbkanälen. Müsste sich rasufinden lassen, wenn man mal Ergebnisse der Merrills mit jenen der Quattros vergleicht.

Und ja, ich mag den Eindruck nicht interpolierender Sensoren (Foveon oder Monochrom) ebenfalls sehr gerne. Wobei der typische Bayersensor (oder X-Trans), dank immer weiter steigender Sensorauflösungen, die "Klasse" teilweise einfach mit "Masse" (und damit praktisch gleichem Ergebnis) überfahren kann. Im Idealfall...

Link zum Beitrag
Auf anderen Seiten teilen

Ich meine eigentlich eher den Videobereich, wo z.B. Sonys Top Modell F65 aus ca. 12 MPix ein HD-Bild skaliert. Warum wohl?

Oder früher ein Prisma das Licht in die 3 Primärfarben aufspaltet und auf 3 separate Sensoren leitet.

Beide Technologien führen zu einer Top-Farbauflösung ohne Interpolation. So entsteht auch ohne Debayer-Hokus-Pokus (Demosaicing) ein unvergleichlich homogenes Bild.

 

Auch ich habe eine Videokamera, die aus ca. 9 MPix ein leidliches 4k, aber ein sehr gutes HD-Bild zaubert.

 

Ich meine, es ist noch Luft nach oben. Anstatt immer sinnfreierer theoretischer Bayer-Auflösungserhöhung sollte man lieber an der tatsächlichen Auflösung aller Farben arbeiten.

 

Dann bräuchte man weder neu superauflösende Objektive, noch den Datenstau, den die zukünftigen 50MPix Kameras auf unseren Rechnern verursachen. Knapp 20 echte MPix jeder Grundfarbe wären mehr wert.

 

Wer die Möglichkeit hat, vergleiche mal die Monochrome mit einem Foto aus einer anderen vergleichbaren 18MPix Kamera in s/w. Dann stelle man sich das Potential in Farbe (also verdreifacht) vor...

Link zum Beitrag
Auf anderen Seiten teilen

Schön, dass Du weisst, was ich gerne hätte. ;)

 

Probier mal einen Sensor mit 1:1 Farbauflösung. Siehst Du keinen Unterschied, wird mir klar, warum Du kein Problem mit 2/3 Anteil interpolierter Farbinformation hast...

 

Ich habe eines und liebe die Bilder aus der Monochrome wg. ihrer Homogenität. Ist aber mein persönlicher Geschmack...

Ich würde der Mathematik gerne zugute halten, dass bei 2/3 interpolierter Farbwerte des Bildes, ein guter Teil dieser Berechnungsergebnisse mit den Realwerten übereinstimmt. Haben dann am Ende vielleicht 5% aller Bildpunkte leicht abweichende Farben von der Realität, nimmt niemand diese Abweichungen als Fehler war. Deshalb ist Bayer ja so weit verbreitet und erfolgreich.

Link zum Beitrag
Auf anderen Seiten teilen

Ansonsten ist dieser auch eine totale Fehlkonstruktion weil man sich dadurch die für die SW Fotografie so wichtigen farbabhängigen Kontrastumsetzungsmöglichkeiten beraubt. Die etwas bessere Lichtausbeute durch den fehlenden Farbfilter kann man bei der ISO Performance aktueller Kameras getrost vernachlässigen erst recht bei S/W wo man höchstes wegen dem fehlendem Rauschen per EBV noch etwas Korn erzeugt.

 

Die etwas bessere Lichtausbeute verliert man durch den vorgeschalteten Gelb/Grün (oder was auch immer) Filter eh wieder ... ;) ... oder habt Ihr früher mit SW Film ohne Filter fotografiert?

Link zum Beitrag
Auf anderen Seiten teilen

Na, die Rechnung möchte ich gerne sehen. Natürlich ist die Trefferquote deutlich höher, als meine Zahlen dies nahelegen. Bei 95% liegt sie aber wohl nicht.

 

Der Erfolg von Bayer-Sensoren basiert auf der deutlich günstigeren Herstellungsweise gegenüber z.B. Foveon oder Prismen 3xCCD usw.

Inzwischen spielen natürlich auch die Stückzahlen eine große Rolle.

 

Aber lassen wir die Theorisiererei. Ich würde jedenfalls eine neue Sensortechnologie mit besserer Farbauflösung begrüßen!

Link zum Beitrag
Auf anderen Seiten teilen

Ich meine eigentlich eher den Videobereich, wo z.B. Sonys Top Modell F65 aus ca. 12 MPix ein HD-Bild skaliert. Warum wohl?

 

Ein schönes Beispiel das man einfach nur die Auflösung des Bayer Sensors erhöhen braucht um bessere Qualität zu bekommen denn jeder Bayersensor mit Auflösung X enthält prinzipiell immer die volle Farbauflösung bei geringeren Auflösung Y.

Da man die vollen Farbinformation aber überhaupt nicht braucht werden sie nicht nur im Videobereich schon durch das Aufnahmeformat wieder weggeschmissen und Farbinformation mit geringerer Auflösung gespeichert als Helligkeitsinformation. Ansonsten würde schon HD Datenraten von 3GBit/s benötigen was sich niemand antut. Da wird verlustbehaftet reduziert, weggeschmissen und tokomprimiert mit Kompressionsraten in astronomischen Größenordnungen und es sieht immer noch gut aus.

Oder früher ein Prisma das Licht in die 3 Primärfarben aufspaltet und auf 3 separate Sensoren leitet.

 

Was für hohe Auflösungen viel zu ungenau ist weshalb man es auch nicht mehr macht.

Beide Technologien führen zu einer Top-Farbauflösung ohne Interpolation. So entsteht auch ohne Debayer-Hokus-Pokus (Demosaicing) ein unvergleichlich homogenes Bild.

Das Auge hat nun mal eine geringere Farb als Helligkeitsauflösung weshalb top Farbauflösung weder sichtbar noch nötig ist.

Auch ich habe eine Videokamera, die aus ca. 9 MPix ein leidliches 4k, aber ein sehr gutes HD-Bild zaubert.

Und eine 16MP mFT Kamera macht ein viel besseres 4K Bild.

Ich meine, es ist noch Luft nach oben. Anstatt immer sinnfreierer theoretischer Bayer-Auflösungserhöhung sollte man lieber an der tatsächlichen Auflösung aller Farben arbeiten.

 

Du hast noch immer nicht verstanden das eine höhere Bayer-Auflösungserhöhung genau das tut

Dann bräuchte man weder neu superauflösende Objektive, noch den Datenstau, den die zukünftigen 50MPix Kameras auf unseren Rechnern verursachen. Knapp 20 echte MPix jeder Grundfarbe wären mehr wert.

 

50MP Bayer Subpixel sehen trotzdem besser aus als 20MP echte RGB Pixel. Das liegt einfach an der höheren Helligkeitsauflösung des Auges. 50MP RGB wäre zwar noch etwas besser aber nicht unbedingt notwendig. Abgesehen davon ist man heute bei Auflösungen die man in den allermeisten Fällen überhaupt nicht nutzt oder braucht. Bestenfalls zum croppen oder bei riesigen Ausgabeformaten bei denen man sich dann aber auch noch unrealistisch die Nase am Bild platt drücken müsste um Unterschiede überhaupt erkennen zu können. (Max. Winkelauflösung des Auges die für Farbe auch noch um ein vielfaches geringer als für Heiligkeit ist.) bearbeitet von systemcam128
Link zum Beitrag
Auf anderen Seiten teilen

Ich habe ja oben selbst geschrieben, dass man inzwischen versucht durch höhere Auflösung (die man nicht benötigt) versucht, die fehlende Farbinformation (die zumindest Sony, Arri, RED scheinbar wollen) zu gewinnen.

Die entsprechenden Farbkomoressionen sollte man sich mal anschauen, bevor man behauptet, das würde alles weg geschmissen. Die gängige Farbinformation bei hochwertigen Kameras wird nach wie vor mit 4:4:4 geschrieben. Die starken 4:2:0 Kompressionen und niedrigen Bitraten sind für den Consumer-Bereich. Im Zwischenbereich sind zumindest 4:2:2 Verhältnisse angesagt.

 

Und wer weiss, wie diese Kompression tatsächlich funktioniert, kann sich vorstellen, dass der Farbverlust hier nur noch größer wird, wenn bereits die Ausgangsdaten schon zu 2/3 interpoliert sind.

 

Ich hatte selbst noch bis 2011 mit einer 3x CCD Kamera gearbeitet und kann deshalb auch den Unterschied ganz gut beurteilen.

 

Warum wohl wird an neuen Sensortechnologien geforscht? Wir brauchen weder deutlich höhere physikalische Auflösung, noch mehr Empfindlichkeit. Es wird primär (auch bei Pixelshift) mehr Farbinformation gewonnen.

 

Es gibt dazu auch einen umfangreichen Bericht auf CML (cinematographie mailing list von Geoff Boyle), nachdem die Forderung nach besserer Farbinformationsgewinnung von div. Kameraleuten unterstützt wird. Die Ergebnisse ihrer Test werden auch von Arri und Red, sowie AJA und Blackmagic unterstützt, die z.Z. auch Sony in Sachen Kinokameras ziemlich blass aussehen lassen. Sonysensoren sind da, wo Geld weniger eine Rolle spielt, nicht sonderlich verbreitet. Der Markt ist zwar recht übersichtlich, aber sehr innovativ.

 

Wie gesagt: Ich will niemandem vorschreiben, was er braucht. Ich bin allerdings ganz und gar nicht der Einzige, der die Bayer-Sensorik in Sachen Farbauflösung als verbesserungswürdig ansieht.

 

FYI: 4k bedeuten 4096 Pixel in der Horizontalen. Um die volle Farbauflösung in 4k zu gewinnen, bräuchte man also ca. 50MPix 3:2 Sensoren und Prozessoren, die diese Anzahl in Echtzeit (also min. 60x pro Sek.) auslesen und umrechnen müssten. Durch den deutlich geringeren Pixelpitch handelt man sich aber neue Probleme ein: höherer Anteil an Beugungsunschärfe, niedrigere Empfindlichkeit, höherer Anspruch an das Auflösungsvermögen der Objektive (ein Satz (min. 5 Stück.) Cine-Optiken kostet je nach Güte ca. 20-100.000 Steine. Da kauft man lieber mal ne neue Kamera, andererseits ist die beliebteste Kinokamera (Arri Alexa) bereits seit 2010 auf dem Markt, bringt aber auch Technologien mit, die bis heute unerreicht sind. Aber auch Arri sieht Verbesserungspotential und hat z.B. mit der Alexa 65 eine 65mm Sensor-Kamera vorgestellt, die als Benchmark für 4k gilt. Arri selbst hält die Sensortechnologie z.Z. im KB-Format für nicht optimal für End-Auflösungen von 4k und mehr...

Link zum Beitrag
Auf anderen Seiten teilen

Interessante Ausführung von Dir! Was bedeutet denn Arri 65 - 65 mm Sensorkamera? Hat der Sensor eine Kantenlänge von 65 mm, also größer als Kleinbild?

 

54.12 x 25.59 mm

http://www.slashcam.de/news/single/Arri-Alexa-65--6k--ist-offiziell-mit-gigantischem--11658.html

http://www.slashcam.de/tools/sensor-vergleich.pl?xachse=54.12&yachse=25.58&secolor=74597B&sname=ARRI%20Alexa%2065

bearbeitet von ako1
Link zum Beitrag
Auf anderen Seiten teilen

Nach ein klein wenig Recherche, habe ich rausgefunden, dass Panasonic doch tatsächlich wieder einen 3fach Sensor mit Prisma baut. Dieser ist Bestandteil der neuen Varicam HS - der eine phänomenale Farbauflösung bescheinigt wird. Panasonic hat's wohl auch nicht geschnallt!  ;)

 

Hier ein kleines Video zu einem recht aufwendigen Test:

https://www.youtube.com/watch?v=Lh7byb2kqvY

Wer nur die Aussage zur Farbauflösung hören will, kann gleich zu 10:00 springen...

 

Mehr Input und voll aufgelöste unkomprimierte DPXe gibts hier: http://www.cinematography.net/

 

Ein wenig Werbegeblubber von Panasonic hier: http://business.panasonic.de/professional-kamera/produkte-und-zubehor/broadcast-und-proav/varicam/varicam-hs

 

Ich weiss, dass das ein Nischenplätzchen ist, dass die große Masse weder interessiert, noch jemals nutzen wird.

Als Nerd ist das aber was ganz anderes...  :D

 

 

 

 

bearbeitet von kavenzmann
Link zum Beitrag
Auf anderen Seiten teilen

Ach, ich bin hier wirklich nur versehentlich rein geraten.

Der Thread-Titel ist aber leider auch zu unpräzise, da er nicht vermittelt, dass es hier überwiegend um Video geht.

 

Mein unmaßgeblicher Eindruck: Ein endloser verzweifelter Kampf von David gegen Goliath.

 

... und ich bin schon wieder raus.

Link zum Beitrag
Auf anderen Seiten teilen

Ach wieso. Im Grunde geht es um evtl. neue Technologien, die Sensoren interessanter machen können.

 

Bisher waren einige Features immer zunächst der hochpreisigen Klasse vorenthalten und konnten bei entsprechender Serienfertigung auch im unteren Preissegment Einzug halten. Das wird sicherlich auch in Zukunft nicht anders aussehen.

 

Wobei die 3fach Sensoren sicher keine Anwendung in Systemkameras finden werden. Zu groß und zu teuer...

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...