Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Am 9.1.2026 um 00:15 schrieb mftler:

Sollte OM-System wirklich Kapazitäten in der HW und SW Entwicklung haben, dann könnte eine neue Kamera in ca. 2 Jahren kommen 
mit neuen Sensor, neuen Prozessor, neuen Speicher (CF-Express) und neuer SW und Algorithmen...🙂

Entscheidend ist ja wann man mit der Entwicklung anfängt und wie die Firmen das untereinander absprechen und darüber wissen wir gar nichts.

Als die OM-1 und die GH6 diskutiert wurde waren wir alle zu 99% sicher dass beide einen mehr oder weniger gleichen neuen Sensor bekommen. Dass es dann zwei total unterschiedliche geworden sind war überraschend und das bedeutet natürlich auch dass die Entwicklungskosten jeweils über weniger Kameras wieder hereinkommen müssen. Wir wissen aber nicht wann diese Entscheidung getroffen wurde und ob Sony den OM-1 Sensor in der Hoffnung entwickelt hat ihn an beide Hersteller zu verkaufen. Wir wissen nicht mal ob der Panasonic-Sensor auch von Sony kommt, z.B. als Auftragsentwicklung, oder von einem anderen Hersteller.

Meiner Ansicht nach ist es überraschend dass ausgerechnet Panasonic einen höher auflösenden Sensor hat, der auch wegen DRBoost besser für RAW-Fotos geeignet ist und OM-System einen schnelleren Sensor, der tatsächlich 120fps vom vollen Sensor kann. Damit wäre es sogar möglich 20MP Open Gate mit 120fps zu filmen. Niemand hätte sich gewundert wenn beide Hersteller den OM-1 Sensor genutzt hätten. Aus irgendwelchen Gründen hat Panasonic aber entschieden einen anderen Weg zu gehen. Wenn beide Hersteller da in Zukunft weiter auseinander driften werden Neuentwicklungen teurer. Konkurrenz belebt aber auch das Geschäft. 

Möglich ist, dass Panasonic mit dem Sensor Druck auf Sony ausüben musste damit die in Zukunft wieder mehr entwickeln und die nächste Generation kommt dann wieder von Sony für beide Hersteller.

Möglich ist auch dass Sony sich aus MFT zurück zieht, der OM-1 Sensor ist der letzte und die nächste Generation kommt dann für beide auf Basis der Panasonic-Entwicklung.

Möglich ist auch dass es zweigleisig weitergeht. 

Ich persönlich bin ja für Wettbewerb. Ohne Konkurrenz gibt es keinen Grund für große Anstrengungen die Dinge weiter zu entwickeln. Panasonic hat aber auch eine sehr lange laufende Zusammenarbeit mit Leica bei der Leica neue Technologie bekommt, die man selber nicht entwickeln kann und Panasonic verdient mit und bekommt Know How von Leica einschließlich den l-mount. So was könnte man auch mit OM-Systems machen und dann könnte der Nachfolgesensor der GH7 in der OM-1 mark-III und der GH8 stecken oder auch eine abgespeckte Billig-Version in kleinen Kameras von beiden Herstellern. 

Es bleibt spannend und ich bin sicher die arbeiten da schon längst fleißig an etwas. 

Link zum Beitrag
Auf anderen Seiten teilen

Ich wundere mich, warum hier ausser mir niemand die erheblichen Begrenzungen des CP-Ansatzes von OMDS benennt, gerade da sind durch Modellpflege und einen leistungsstärkeren Kameraprozessor erhebliche Verbesserungen möglich.

Egal ob OMDS nun einen Panasonic oder Sony Sensor in Zukunft verwenden wird, der Nachteil in Auflösung und Dynamikumfang gegenüber einem KB-Sensor der neuesten Generation wird bleiben. Da helfen nun mal nur CP-Techniken um das clever auszugleichen, Smartphones machen das auch so.

Mal ein Beispiel:

Da wird jetzt um Live Comp zu nutzen zusätzlich bei Tageslicht am Meer ein physisches ND-Filter benötigt, das ist ja gut im Video zu sehen ....

Und das, obwohl es mit Live ND längst in der Kamera die Technik gibt, ohne einen physischen ND Filter auszukommen.

Nur lässt sich Live Comp bisher nicht mit Live ND kombinieren, und das ist dann die halbherzige und wenig anwenderfreundliche Implementierung der CP-Techniken.

Was hilft ein eigener CP-Button und das ganze Marketinggetöse um computational photography, wenn es in Alltagssituationen Stückwerk bleibt und wenig praktikabel ist.

Da muss OMDS erheblich nachbessern und das wäre ein Teil einer gelungenen Modellpflege.

CP-Funktionen in Echtzeit und beliebige Kombinierbarkeit mehrerer CP-Techniken!

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb x_holger:

Ich wundere mich, warum hier ausser mir niemand die erheblichen Begrenzungen des CP-Ansatzes von OMDS benennt, gerade da sind durch Modellpflege und einen leistungsstärkeren Kameraprozessor erhebliche Verbesserungen möglich.

Egal ob OMDS nun einen Panasonic oder Sony Sensor in Zukunft verwenden wird, der Nachteil in Auflösung und Dynamikumfang gegenüber einem KB-Sensor der neuesten Generation wird bleiben. Da helfen nun mal nur CP-Techniken um das clever auszugleichen, Smartphones machen das auch so.

Mal ein Beispiel:

Da wird jetzt um Live Comp zu nutzen zusätzlich bei Tageslicht am Meer ein physisches ND-Filter benötigt, das ist ja gut im Video zu sehen ....

Und das, obwohl es mit Live ND längst in der Kamera die Technik gibt, ohne einen physischen ND Filter auszukommen.

Nur lässt sich Live Comp bisher nicht mit Live ND kombinieren, und das ist dann die halbherzige und wenig anwenderfreundliche Implementierung der CP-Techniken.

Was hilft ein eigener CP-Button und das ganze Marketinggetöse um computational photography, wenn es in Alltagssituationen Stückwerk bleibt und wenig praktikabel ist.

Da muss OMDS erheblich nachbessern und das wäre ein Teil einer gelungenen Modellpflege.

CP-Funktionen in Echtzeit und beliebige Kombinierbarkeit mehrerer CP-Techniken!

ich denke mal, der Grund ist der, dass für beide Anwendungen die gleiche Technik notwendig ist. In beiden Fällen macht die Kamera mehrere Bilder, die zusammengerechnet werden müssen.
Ob man das so kombinieren kann, dass das gewünschte Ergebnis herauskommt, weiß ich nicht. Interesse hätte ich an Live Composite und Focus Stacking in einer Anwendung. Das wäre auch gut.
Daher, Interesse gäbe es wahrscheinlich, nur fehlt der Glaube (bei mir), dass man beides unter einen Hut bringen kann.

Gruß Reinhard

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb x_holger:

CP-Funktionen in Echtzeit und beliebige Kombinierbarkeit mehrerer CP-Techniken!

Zur bewussten Abgrenzung zu KI und Smartphone-Automatismen wünsche ich mir signierte RAW, welche ich aber relativ frei programmierbar automatisch belichten lassen möchte und anschließend mit NI anschließend selbst zusammenfummeln kann: Z.B. Fokus bracketing normal plus angehängtes Apertur-Bracketing bei gleichzeitig passend vergrößerter Blitzleistung, welche aber ansonsten konstant auf M ist (wie auch die Belichtungszeit) - und dann noch ein Fokus Bracketing mit HighRes-Pixelshift oder zuschaltbarem HDR durch 2 Belichtungen pro Bild mit unterschiedlicher Belichtungszeit. Alles natürlich schnell aus der Hand und gerne auch in z B. einem VideoRAW-Format in einer Datei gespeichert inklusive Doku, was in welchem Frame gemacht wurde, so je ein Exif pro Bild in fälschungssicher. Das könnte ich sehr gut gebrauchen...

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb x_holger:

Ich wundere mich, warum hier ausser mir niemand die erheblichen Begrenzungen des CP-Ansatzes von OMDS benennt, gerade da sind durch Modellpflege und einen leistungsstärkeren Kameraprozessor erhebliche Verbesserungen möglich.

Vielleicht weil niemand sonst hier solche Bedürfnisse hat (für Mft)? Nicht wertend gemeint. Mft ist ein Nischenprodukt, das zwar hier im SKF etwas überproportional benutzt wird, aber du scheint da noch die Nische in der Nische zu suchen. Obwohl ich auch rein technisch auch davon ausgehen würde, dass man gewisse Funktionen gleichzeitig benutzen kann. Aber diese Kameras sind keine Smartfone bzgl Rechenleistung.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 4 Stunden schrieb x_holger:

Da wird jetzt um Live Comp zu nutzen zusätzlich bei Tageslicht am Meer ein physisches ND-Filter benötigt, das ist ja gut im Video zu sehen ....

Und das, obwohl es mit Live ND längst in der Kamera die Technik gibt, ohne einen physischen ND Filter auszukommen.

Nur lässt sich Live Comp bisher nicht mit Live ND kombinieren, und das ist dann die halbherzige und wenig anwenderfreundliche Implementierung der CP-Techniken.

LiveND und LiveComp arbeiten zwar ähnlich aber doch auch sehr unterschiedlich.

Beide belichten den Sensor kontinuierlich. Das heißt für jedes Pixel beginnt die Belichtung sobald die vorige ausgelesen und zurückgesetzt ist. Das ist nötig damit Bewegungsunschärfe nicht abgehackt wird und Lichtspuren durchgängig sind. (Bei Video wäre das 360° shutter angle.)

Bei LiveND wird mit bis zu 120fps belichtet und in den Buffer gespeichert damit nachträglich zusammengerechnet werden kann. Man kann keine kürzeren Belichtungszeiten erreichen und muss für LiveND bei viel Licht zusätzlich einen ND-Filter einsetzen um die Zeit auf 1/120s zu verlängern.

Ich habe keine OM aber bei LiceComp wird jede Belichtung sofort zu den bisherigen Belichtungen dazugerechnet und man ist nicht von der Buffergröße abhängig. Das geht nicht mit 120fps. So wie ich das Handbuch verstehe muss man vor der Aufnahme die Belichtungszeit zwischen 1/2s und 60s wählen. Bei meiner G9-II ist es sogar nur von 1/1.6s bis 60s. Das bedeutet LiveComp geht nicht mit Belichtungszeiten die kürzer als 0.5s sind weil die nötigen Berechnungen nur mit 2fps erfolgen können. Das ist im Dunklen kein Problem erfordert bei Tageslicht aber einen fetten ND-Filter. Das Bild vom Video zeigt dass da 2s Belichtung gewählt wurde. Eine Kombination von LiveND und LiveComp würde es erfordern dass entweder der Prozessor auch für LiveND so schnell ist, dass er ohne Buffer sofort alles berechnet oder dass LiveComp auf die Buffergröße beschränkt wird und nicht mehr "Live" ist. Derzeit wird LiveComp aber vor allem für Sterne oder Lichtspuren genutzt wo man eventuell viele Minuten belichtet und vor allem wird ständig "Live" das aktuelle Zwischenergebnis angezeigt damit man die Aufnahme beenden kann wenn man das drauf hat was man haben möchte.

Das heißt natürlich nicht dass man nicht zusätzlich weitere CP-Techniken entwickeln kann aber man stößt hier an Hardware-Grenzen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb beerwish:

Bei LiveND wird mit bis zu 120fps belichtet und in den Buffer gespeichert damit nachträglich zusammengerechnet werden kann. Man kann keine kürzeren Belichtungszeiten erreichen und muss für LiveND bei viel Licht zusätzlich einen ND-Filter einsetzen um die Zeit auf 1/120s zu verlängern.

... LiveComp geht nicht mit Belichtungszeiten die kürzer als 0.5s sind weil die nötigen Berechnungen nur mit 2fps erfolgen können. Das ist im Dunklen kein Problem erfordert bei Tageslicht aber einen fetten ND-Filter. ...Eine Kombination von LiveND und LiveComp würde es erfordern dass entweder der Prozessor auch für LiveND so schnell ist, dass er ohne Buffer sofort alles berechnet oder dass LiveComp auf die Buffergröße beschränkt wird und nicht mehr "Live" ist....

Eine Kombination von CP-Techniken ist genauso wie eine Beschleunigung der Berechnungen erforderlich, um diese wirklich problemloser und umfassender nutzen zu können. 

Eine Beschränkung von LiveComp auf 2 fps (0,5 Sek) ist sehr einschneidend, schon da würde ein schnellerer Prozessor einiges erleichtern. Live ND und LiveComp gleichzeitig wären technisch vielleicht zu herausfordernd, aber schon 30 fps statt 2 fps Verarbeitungsgeschwindigkeit würde die Anwendbarkeit enorm verbessern. Eine Kombination von Fokus Stacking und HiRes oder HDR wurde ja auch schon als Wunsch erwähnt. Da ist auf jeden Fall noch viel Luft nach oben ... ohne dass es gleich einen neuentwickelten Sensor braucht, aber 1/240 Sek. Sensorauslesezeit wären natürlich ebenso ein Fortschritt.

bearbeitet von x_holger
ergänzt
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...