Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Wer denkt, es geht lediglich um das zählen von Photonen, ist für Kameraentwicklung denkbar ungeeignet.

 

Bei der Sensorentwicklung gehts nur darum, alles andere ist ein Nebenkriegsschauplatz. (oh du Deutsche Sprache)

Wie viele Kameras hast du schon entwickelt?

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

Ich bin nur Laie, kann also alles Blödsinn sein.

 

Ein paar Thesen:

 

1. Die Budgets für die Sensorenforschung werden dramatisch schrumpfen und nur noch einen kleinen Bruchteil der Budgets aus den letzten 10 Jahren betragen. Die Ausnahmen sind Smartphonesensoren, aber die müssen billig bleiben und daher geht es dort vor allem um Technologien, die evtl. bei winzigsten Pixelns und Sensorgrößen Sinn ergeben.

 

2. Beim Licht zählen ist man schon nahe am Limit. Mehr Photonen zählen als überhaupt ankommen geht nicht und auch Photonen "rauschen"

 

3. wo möglicherweise noch was geht ist beim "Ausleserauschen" (heißt das so?) im Sensor sowie bei der Fullwellcapacity. Die erster ermöglicht glatteres schwarz, letzteres mehr Zeichnung in den Lichtern, beides würde den Dynamikumfang verbessern.

 

4. Intersssant ist das Thema Auslesegeschwindigkeit und Stromverbrauch/Hitzeentwicklung. Hier sehe ich noch Verbesserungspotenzial. Auch der global shutter gehört dazu. Solche Systeme werden nicht die Standbildqualität in Studiotest erhöhen, können aber erhebliche praktische VForteile bringen

 

5. Wenn 4) kommt bietet sich an, Multishot-Verfahren zu optimieren, also für 1 Bild viele Belichtungen zu machen und damit dann herum zu rechnen. Sowas bietet vor allem für Smartphones ein riesiges Potenzial, daher ist die Umsetzungswahrscheinlichkeit auch hoch. Mit Mulitshotverfahjren könnte man Bewegungen stark einfrieren, Auflösungen gewaltig erhöhen (mit Sensorshift), Dynamikumfang dramatisch erhöhen, Rauschen reduzieren und ggf die Schärfentiefe drastisch erhöhen aber auch verkleinern. Voraussetzung dafür ist für bewegte Motive und Kameras aber ein ultraschnell auslesbarer Sensor.

 

Ob sich neue Technologien kosteneffizient in allen Sensorgrößen umsetzen lassen ist eine spannende Frage.

 

Die Zukunft wird es zeigen.

 

Ich rate dazu zu beobachten, was in der Welt der 1/3" Sensoren und Signalverarbeitung passiert.

 

Bei den übrig gebliebenen Kameraherstellern sind die Marktanteile verteilt, da wird sich nix dramatisches mehr tun, egal ob jetzt einer beim Sensor 2 Jahre hinterher hinkt oder nicht. Das war vor 10 Jahren noch ganz anders und der Markt war auch im wachsen statt heute im steilen Sinkflug. Damals war es wichtg, beim Sensor ganz vorne dabei zu sein, heute ist es eher gefährlich, viel Geld in die Sensorforschung zu stecken.

Neue Fabriken wird man für große Sensoren wahrscheinlich auch nicht mehr großartig bauen. Sollte also ein neues Feature kommen das ein neues Fertigungsverfahren benötigt und mal eine 500 Mio. USD Investition in neue Fertigungsanlagen, dann wird sich jeder Anbieter dreimal überlegen, ob man das wirklich auf den Markt bringen will.

 

Um eine Analogie zu bemühen: Wie groß war die Verbesserung von analogen Filmen in den letzten 10 Jahren?

 

MfG

bearbeitet von cephalotus
Link zum Beitrag
Auf anderen Seiten teilen

laut hörensagen gibt es weltweit einige dutzend teams die sich mit sensorentwicklung befassen, möglicherweise nicht mehr als etliche hundert leute insgesamt

was meinst du bleibt übrig, falls die budgets dramatisch schrumpfen?

 

und ja, kleinere sensoren sind einfacher und weit kostengünstiger zu fertigen als große, neue technologien sind daher zuerst meist bei den winzsensoren zu finden

Link zum Beitrag
Auf anderen Seiten teilen

1. Die Budgets für die Sensorenforschung werden dramatisch schrumpfen und nur noch einen kleinen Bruchteil der Budgets aus den letzten 10 Jahren betragen. Die Ausnahmen sind Smartphonesensoren, aber die müssen billig bleiben und daher geht es dort vor allem um Technologien, die evtl. bei winzigsten Pixelns und Sensorgrößen Sinn ergeben.

 

Es wird nicht nur für Kameras geforscht. Smartphones und Digitalkameras können ja von der gleichen Forschung profitieren. Mit fortschreitender Technik lassen sich auch viel mehr Synergien nutzen.

 

2. Beim Licht zählen ist man schon nahe am Limit. Mehr Photonen zählen als überhaupt ankommen geht nicht und auch Photonen "rauschen"

 

Grundsätzlich richtig... Aber in der Umsetzung dann doch wieder relativ. Siehe Bayer-Matrix und vergleiche mit Foveon Sensoren... Es gibt noch Spielräume.

 

4. Intersssant ist das Thema Auslesegeschwindigkeit und Stromverbrauch/Hitzeentwicklung. Hier sehe ich noch Verbesserungspotenzial. Auch der global shutter gehört dazu. Solche Systeme werden nicht die Standbildqualität in Studiotest erhöhen, können aber erhebliche praktische VForteile bringen

 

Hitzeunempfindliche Chips würden in manchen Einsatzbereichen schon sehr viel an Bildqualität bringen... (Langzeitbelichtung, Astrofotografie usw.). Mal schauen ob die kommenden organischen Sensoren Möglichkeiten bereithalten.

 

Ob sich neue Technologien kosteneffizient in allen Sensorgrößen umsetzen lassen ist eine spannende Frage.

...

Sollte also ein neues Feature kommen das ein neues Fertigungsverfahren benötigt und mal eine 500 Mio. USD Investition in neue Fertigungsanlagen, dann wird sich jeder Anbieter dreimal überlegen, ob man das wirklich auf den Markt bringen will.

 

Es wird Mittel und Wege geben... Stichwort: Joint Venture (Fuji und Panasonic?).

 

EDIT: Nimm mal Sony als Beispiel, die verteilen ihre Sensoren auch an mehrere Anbieter und profitieren somit vom Umsatz der Mitbewerber mit. Es wäre für einige vielleicht doch besser ihre eigene Fabrik zu bauen,

bevor man sich von Sony abhängig macht...

bearbeitet von somo3103
Link zum Beitrag
Auf anderen Seiten teilen

Soll heißen wir sind bereits fast bei 1:1 was Photon zu Pixel angeht? Das kann ich mir ehrlich gesagt nur schwer vorstellen ...

Inzwischen hat ja schon jemand anders geantwortet... Leider können nicht alle Photonen gezählt werden, weil nicht alle Photonen Elektronen auslösen, daher ist Deine Vorstellung zwar richtig, aber Deine Annahme irrig. Dem maximal erreichbaren Prozentsatz an mit aktueller Technologie zählbaren Photonen ist man schon sehr nahe.

 

Daher gehören neue Ansätze her. Im Moment verschenkt man viel, weil vor jedem Pixel ein Filter ist, der nur einen bestimmten Farbbereich (eigentlich Wellenlängen) durchlässt: Rot, Grün und Blau. Wenn es gelingt, mit jedem Pixel alle Farben auszulesen, also die Filter entfernt, dann kann man noch einen größeren Sprung erreichen. Das sieht man z.B., wenn man die beiden Varianten der Leica M vergleicht: Farbe und Monochrom. Die Monochrom hat deutlich höhere Basis-ISO, weil der gleiche Sensor ohne Bayer-Filter deutlich empfindlicher ist.

Link zum Beitrag
Auf anderen Seiten teilen

Nimm mal Sony als Beispiel, die verteilen ihre Sensoren auch an mehrere Anbieter und profitieren somit vom Umsatz der Mitbewerber mit. Es wäre für einige vielleicht doch besser ihre eigene Fabrik zu bauen,

bevor man sich von Sony abhängig macht...

Derzeit hat Sony quasi ein Monopol. Die Produktion von Sensoren ist extrem teuer und die Forschung ebenso. Um überhaupt anfangen zu können, benötigt man Unsummen. Damit sich das alles rentiert, müssen sehr, sehr viele Sensoren verkauft werden. Letztendlich geht es dann darum, was sich rechnet. Kein Kamerahersteller hat derzeit große Gewinne und der Markt stagniert. Das Quasi-Monopol von Sony ist derzeit nicht gefährdet. Finde ich nicht gut.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Das Quasi-Monopol von Sony ist derzeit nicht gefährdet. Finde ich nicht gut.

 

Ich auch nicht. Ich gehe aber davon aus - oder besser gesagt, ich hoffe - dass Fuji und Panasonic weiter gemeinsam an ihrem organischen Sensor arbeiten und diesen dann auch gemeinsam produzieren werden. In der Zwischenzeit bin ich gespannt was Canon und Sony sich noch einfallen lassen...

 

 

Link zum Beitrag
Auf anderen Seiten teilen

laut hörensagen gibt es weltweit einige dutzend teams die sich mit sensorentwicklung befassen, möglicherweise nicht mehr als etliche hundert leute insgesamt

 

Meinst Du ein Dutzend Teams pro Firma? Das wird nicht reichen.

 

Wie sieht denn eine Sensorentwicklung aus? Da stehen nicht etliche zehn Leute am Labortisch und konstruieren einen neuen Sensor und schon passt er. Da ist Grundlagen, -Material-, Herstellungs-Forschung nötig; Abstimmung, Versuche, andere, genauere Fertigung neue Maschinen...

 

bearbeitet von Kleinkram
Link zum Beitrag
Auf anderen Seiten teilen

Es wird nicht nur für Kameras geforscht. Smartphones und Digitalkameras können ja von der gleichen Forschung profitieren. Mit fortschreitender Technik lassen sich auch viel mehr Synergien nutzen.

 

Ich hingegen vermute, dass nur ein Bruchteil der für Smartphones relevanten Forschung für große Sensoren nützlich sein wird.

 

Grundsätzlich richtig... Aber in der Umsetzung dann doch wieder relativ. Siehe Bayer-Matrix und vergleiche mit Foveon Sensoren... Es gibt noch Spielräume.

 

Es gab die letzten 20(?) Jahre immer mal wieder Versuche was besseres on RGBG Matrix zu machen und alles was ausprobiert wurde ist schlechter.

Das Foveon Konzept war bzgl Quanteneffizienz meines Wissens sogar katastrophal schlecht (v.a. im blauen Bereich) und der Huaptvorteil von Foveon, nämlich der Verzicht auf einen AA Filter ohne Moiree Nachteile ist bei den heutigen hoch auflösenden Sensoren mit Bayermatrix eliminiert.

 

Klar könnte man das Licht in einem Prisma o.ä. spalten, das mag vielleicht für Astrophotografie relevant sein, für unsere Kameras sehe ich das nicht kommen.

 

Ich sage nicht, dass wir am Ende sind, beim Ausleserauschen geht vielleicht noch was (???) und in den Lichtern geht wahrscheinlich auch noch was, aber die Lichtempfindlichkeit ist am Limit.

 

In vielen technischen Bereichen wird nach 10 Jahren rasnater Steigerung dann ein Plateau erreicht und dann über Jahrzehnte hinweg gelten physikalische Grenzen, es sei denn es kommt zu einem völlig neuen technologischen Ansatz.

 

Man nehme die Empfindlichkeit von Farbfilm. Würde es da immer weiter gehen hätten wir heute auch ISO 51200 Farbfilm. Haben wir aber nicht. Der technologische Sprung war hier der Sensor.

Heute sind die Sensoren quasi am Limit. Vielleicht ist in 10 Jahre noch eine Blendenstufe drin (immerhin eine Verdoppelung), ich bin pessimistischer.

Vielleicht ist der nächste Sprung die Computerintelligenz, die ein Bild auch teilweise ohne Photonen konstruiert schlichtweg aus Interpolation und Algorithmen und den Informationen, die man aus 10-20 Einzelbildern und ggf. Datenbanken zusammen fügt.

 

Hitzeunempfindliche Chips würden in manchen Einsatzbereichen schon sehr viel an Bildqualität bringen... (Langzeitbelichtung, Astrofotografie usw.). Mal schauen ob die kommenden organischen Sensoren Möglichkeiten bereithalten.

 

Die Frage ist halt ob es genügend Anwender gibt, dass sich hier ein Massenprodukt rechnet.

 

Schon heute könnte man eine Kamera oder ein Kameramodul mit gekühltem Sensor, Anti-Kondensations-Maßnahmen, ohne IS, thermisch entkoppelter Elektronik, mit austauschbaren Sensorfiltern, speziellen Ausleseroutinen, usw. anbieten, man tut es aber nicht. Zumindest nicht für die klassischen Systeme.

 

Das wäre wahrscheinlich deutlich billiger zu entwickeln als ein Spezialsensor.

 

EDIT: Nimm mal Sony als Beispiel, die verteilen ihre Sensoren auch an mehrere Anbieter und profitieren somit vom Umsatz der Mitbewerber mit. Es wäre für einige vielleicht doch besser ihre eigene Fabrik zu bauen,

bevor man sich von Sony abhängig macht...

Wir erleben einen Kollaps des Marktes von Digitalkameras und ein starkes schrumpfen bei den Systemkameras.

 

A welches Unternehmen genau hast Du jetzt gedacht, das sich eine neue Sensorfab hinstellt, die revolutionär neues können soll und das kompatibel zu den Massenmarktpreisen?

 

Ich bin da jetzt nicht im Bilde, aber hat sich z.B. bei den Mikroprozessoren für Laptops und PCs die letzten 10 Jahren irgendwas großartiges getan?

 

Auch die Musik spielt doch heute bei den Smartphones und dort muss es vor allem billig sein und wenig Strom brauchen. (eine Entwicklung die ich durchaus begrüße)

 

MfG

Link zum Beitrag
Auf anderen Seiten teilen

Was hier ein wenig zu kurz kommt ist das Zusammenspiel zwischen Software und Hardware. Smartphones zeigen (besonders das neue Google Pixel) hier ganz klar, was durch Software im perfekten Zusammenspiel mit dem Sensor möglich ist.

 

Immer schnellere Prozessoren, bessere Software und eine genauere Abstimmung aufeinander werden noch mehr aus Sensoren kitzeln als bisher. Und da aktuell der größte Fokus von SP-Herstellern auf der Kameraweiterentwicklung liegt, werden hier die Sensorenlieferanten mehr und mehr gefordert und deshalb wird ganz bestimmt weiter geforscht und entwickelt.

 

Diese Entwicklungen werden absolut den großen Sensoren zu gute kommen und vielleicht erkennt man dann für diese Sensoren, dass die Hardware eben genauso wichtig ist.

 

Da sich die Hersteller jetzt sowieso auf das Premiumsegment einschießen, werden hier bestimmt auch weitere Gelder in die Sensorenentwicklung fließen.

 

Und da geht noch einiges, ob beim Sensor oder auch der Software...

Link zum Beitrag
Auf anderen Seiten teilen

Es gibt keinen 16MP Olympus Sensor :)

Sicher? Beim neuen E-M1II Sensor stammt die Spezifikation und das Design von Olympus, die Produktion findet bei Sony statt. Ist das nun ein Olympus oder ein Sony Sensor? Für mich eher beides.

 

Wie das bei der E-M1 ist, wissen wir nicht, aber so einfach ist die Sache halt auch nicht immer.

Link zum Beitrag
Auf anderen Seiten teilen

das ist aber ein 20 megapickel sensor in der em1ii...

...und es ist erwartungsgemäss der gleiche wie in der PenF wie man unschwer an den RAWs erkennen kann.

 

https://www.dpreview.com/forums/thread/4074052

 

Der ja nach Olympus-Vorgaben (Design) produziert wurde ...

 

LG

Helmut

Naja, bis auf die Auswahl welche Pixel als PDAF verwendet werden dürften sie da nicht viel designed haben, denn der gleiche Sensor steckt in jeder Panasonic Kamera seit der GX7 (mal von der GX8 abgesehen). bearbeitet von Nemo0815
Link zum Beitrag
Auf anderen Seiten teilen

also die sensoren koennen so gut werden, bis die physikalische Grezne, das Photonenrauschen der limitierende Faktor sein wird. dann wird das Signal/Rausch-Verhaeltnis nicht mehr, wie heutzutage vom Ausleserauschen dominiert sein, das linear zur Photonenzahl=Elektronenzahl=Sensorgroesse abnimmt, sondern nur noch mit der Quadratwurzel der Sensorgroesse abnehmen.

 

maui

Link zum Beitrag
Auf anderen Seiten teilen

Die klassichen (Bayer- oder Foveon-)Sensoren werden nur noch begrenzte Zeit in den Kameras ihr Dasein fristen - die Zukunft gehört anderen Technologien - welche das sein werden wird sich zeigen. Ob QuantenDot Filmtechnologie aus Californien oder Panasonics organische CMOS-Sensoren mit GlobalShutter-Sensor-Technologie oder deren APD, Avalanche-Photo-Dioden-CMOS-Sensor - mittelfristig bis langfristig wird sowas kommen und Rauschen oder andere Sensorlimits weitgehend beseitigen. Alle drei Technologien gibt es bereits, Patente sind schon Jahre alt und längst in der Weiterentwicklung und die bereits verfügbare Lichtfeld-Sensor-Technologie kommt ja auch noch hinzu.

 

Die ganze Fotografie wird sich wandeln, neben neuen Sensoren wird es auch weitere On-Chip-Effekte geben in der Zukunft, Äppel macht es ja mit den neuen Eierfones vor - massives Freistellen per Software ist schon verfügbar dabei. Die klassische Fotografie wird weitgehend automatisiert bzw. Fotografendefizite in den Kameras beseitigt.

 

;)

 

EDIT: Der Trend ist nichtmal verwunderlich und ich werte das auch nicht unbedingt negativ - nur ob ich es brauchen werde ... wohl eher nicht, aber wenn das mal Standard im Produktportfolio wird, so what, dann ist es eben so :D

bearbeitet von Lumixburschi
Link zum Beitrag
Auf anderen Seiten teilen

Es sollte doch allen klar sein, dass für eine totale Neuentwicklung die geringen Stückzahlen bei der M1 den Preis in noch exorbitantere Höhen treiben würde, als er schon jetzt angekündigt ist.

Es ist ja bald Weihnachten, also laßt uns spekulieren vor dem Spekulatius backen:

 

Also wird Olympus ein Pflichtenheft geschrieben haben, dann zu jemand gegangen sein, der eine Simulation auf Transistorniveau ihrer Kreuzsensoren gemacht hat. Schließlich haben sie Sony oder sonst wen gefragt an welche Entwicklung könnten sie sich ranhängen und können wir Platz auf eurem Wafer bekommen.

 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...