Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Am 9.1.2026 um 00:15 schrieb mftler:

Sollte OM-System wirklich Kapazitäten in der HW und SW Entwicklung haben, dann könnte eine neue Kamera in ca. 2 Jahren kommen 
mit neuen Sensor, neuen Prozessor, neuen Speicher (CF-Express) und neuer SW und Algorithmen...🙂

Entscheidend ist ja wann man mit der Entwicklung anfängt und wie die Firmen das untereinander absprechen und darüber wissen wir gar nichts.

Als die OM-1 und die GH6 diskutiert wurde waren wir alle zu 99% sicher dass beide einen mehr oder weniger gleichen neuen Sensor bekommen. Dass es dann zwei total unterschiedliche geworden sind war überraschend und das bedeutet natürlich auch dass die Entwicklungskosten jeweils über weniger Kameras wieder hereinkommen müssen. Wir wissen aber nicht wann diese Entscheidung getroffen wurde und ob Sony den OM-1 Sensor in der Hoffnung entwickelt hat ihn an beide Hersteller zu verkaufen. Wir wissen nicht mal ob der Panasonic-Sensor auch von Sony kommt, z.B. als Auftragsentwicklung, oder von einem anderen Hersteller.

Meiner Ansicht nach ist es überraschend dass ausgerechnet Panasonic einen höher auflösenden Sensor hat, der auch wegen DRBoost besser für RAW-Fotos geeignet ist und OM-System einen schnelleren Sensor, der tatsächlich 120fps vom vollen Sensor kann. Damit wäre es sogar möglich 20MP Open Gate mit 120fps zu filmen. Niemand hätte sich gewundert wenn beide Hersteller den OM-1 Sensor genutzt hätten. Aus irgendwelchen Gründen hat Panasonic aber entschieden einen anderen Weg zu gehen. Wenn beide Hersteller da in Zukunft weiter auseinander driften werden Neuentwicklungen teurer. Konkurrenz belebt aber auch das Geschäft. 

Möglich ist, dass Panasonic mit dem Sensor Druck auf Sony ausüben musste damit die in Zukunft wieder mehr entwickeln und die nächste Generation kommt dann wieder von Sony für beide Hersteller.

Möglich ist auch dass Sony sich aus MFT zurück zieht, der OM-1 Sensor ist der letzte und die nächste Generation kommt dann für beide auf Basis der Panasonic-Entwicklung.

Möglich ist auch dass es zweigleisig weitergeht. 

Ich persönlich bin ja für Wettbewerb. Ohne Konkurrenz gibt es keinen Grund für große Anstrengungen die Dinge weiter zu entwickeln. Panasonic hat aber auch eine sehr lange laufende Zusammenarbeit mit Leica bei der Leica neue Technologie bekommt, die man selber nicht entwickeln kann und Panasonic verdient mit und bekommt Know How von Leica einschließlich den l-mount. So was könnte man auch mit OM-Systems machen und dann könnte der Nachfolgesensor der GH7 in der OM-1 mark-III und der GH8 stecken oder auch eine abgespeckte Billig-Version in kleinen Kameras von beiden Herstellern. 

Es bleibt spannend und ich bin sicher die arbeiten da schon längst fleißig an etwas. 

Link zum Beitrag
Auf anderen Seiten teilen

Ich wundere mich, warum hier ausser mir niemand die erheblichen Begrenzungen des CP-Ansatzes von OMDS benennt, gerade da sind durch Modellpflege und einen leistungsstärkeren Kameraprozessor erhebliche Verbesserungen möglich.

Egal ob OMDS nun einen Panasonic oder Sony Sensor in Zukunft verwenden wird, der Nachteil in Auflösung und Dynamikumfang gegenüber einem KB-Sensor der neuesten Generation wird bleiben. Da helfen nun mal nur CP-Techniken um das clever auszugleichen, Smartphones machen das auch so.

Mal ein Beispiel:

Da wird jetzt um Live Comp zu nutzen zusätzlich bei Tageslicht am Meer ein physisches ND-Filter benötigt, das ist ja gut im Video zu sehen ....

Und das, obwohl es mit Live ND längst in der Kamera die Technik gibt, ohne einen physischen ND Filter auszukommen.

Nur lässt sich Live Comp bisher nicht mit Live ND kombinieren, und das ist dann die halbherzige und wenig anwenderfreundliche Implementierung der CP-Techniken.

Was hilft ein eigener CP-Button und das ganze Marketinggetöse um computational photography, wenn es in Alltagssituationen Stückwerk bleibt und wenig praktikabel ist.

Da muss OMDS erheblich nachbessern und das wäre ein Teil einer gelungenen Modellpflege.

CP-Funktionen in Echtzeit und beliebige Kombinierbarkeit mehrerer CP-Techniken!

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb x_holger:

Ich wundere mich, warum hier ausser mir niemand die erheblichen Begrenzungen des CP-Ansatzes von OMDS benennt, gerade da sind durch Modellpflege und einen leistungsstärkeren Kameraprozessor erhebliche Verbesserungen möglich.

Egal ob OMDS nun einen Panasonic oder Sony Sensor in Zukunft verwenden wird, der Nachteil in Auflösung und Dynamikumfang gegenüber einem KB-Sensor der neuesten Generation wird bleiben. Da helfen nun mal nur CP-Techniken um das clever auszugleichen, Smartphones machen das auch so.

Mal ein Beispiel:

Da wird jetzt um Live Comp zu nutzen zusätzlich bei Tageslicht am Meer ein physisches ND-Filter benötigt, das ist ja gut im Video zu sehen ....

Und das, obwohl es mit Live ND längst in der Kamera die Technik gibt, ohne einen physischen ND Filter auszukommen.

Nur lässt sich Live Comp bisher nicht mit Live ND kombinieren, und das ist dann die halbherzige und wenig anwenderfreundliche Implementierung der CP-Techniken.

Was hilft ein eigener CP-Button und das ganze Marketinggetöse um computational photography, wenn es in Alltagssituationen Stückwerk bleibt und wenig praktikabel ist.

Da muss OMDS erheblich nachbessern und das wäre ein Teil einer gelungenen Modellpflege.

CP-Funktionen in Echtzeit und beliebige Kombinierbarkeit mehrerer CP-Techniken!

ich denke mal, der Grund ist der, dass für beide Anwendungen die gleiche Technik notwendig ist. In beiden Fällen macht die Kamera mehrere Bilder, die zusammengerechnet werden müssen.
Ob man das so kombinieren kann, dass das gewünschte Ergebnis herauskommt, weiß ich nicht. Interesse hätte ich an Live Composite und Focus Stacking in einer Anwendung. Das wäre auch gut.
Daher, Interesse gäbe es wahrscheinlich, nur fehlt der Glaube (bei mir), dass man beides unter einen Hut bringen kann.

Gruß Reinhard

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb x_holger:

CP-Funktionen in Echtzeit und beliebige Kombinierbarkeit mehrerer CP-Techniken!

Zur bewussten Abgrenzung zu KI und Smartphone-Automatismen wünsche ich mir signierte RAW, welche ich aber relativ frei programmierbar automatisch belichten lassen möchte und anschließend mit NI anschließend selbst zusammenfummeln kann: Z.B. Fokus bracketing normal plus angehängtes Apertur-Bracketing bei gleichzeitig passend vergrößerter Blitzleistung, welche aber ansonsten konstant auf M ist (wie auch die Belichtungszeit) - und dann noch ein Fokus Bracketing mit HighRes-Pixelshift oder zuschaltbarem HDR durch 2 Belichtungen pro Bild mit unterschiedlicher Belichtungszeit. Alles natürlich schnell aus der Hand und gerne auch in z B. einem VideoRAW-Format in einer Datei gespeichert inklusive Doku, was in welchem Frame gemacht wurde, so je ein Exif pro Bild in fälschungssicher. Das könnte ich sehr gut gebrauchen...

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb x_holger:

Ich wundere mich, warum hier ausser mir niemand die erheblichen Begrenzungen des CP-Ansatzes von OMDS benennt, gerade da sind durch Modellpflege und einen leistungsstärkeren Kameraprozessor erhebliche Verbesserungen möglich.

Vielleicht weil niemand sonst hier solche Bedürfnisse hat (für Mft)? Nicht wertend gemeint. Mft ist ein Nischenprodukt, das zwar hier im SKF etwas überproportional benutzt wird, aber du scheint da noch die Nische in der Nische zu suchen. Obwohl ich auch rein technisch auch davon ausgehen würde, dass man gewisse Funktionen gleichzeitig benutzen kann. Aber diese Kameras sind keine Smartfone bzgl Rechenleistung.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 4 Stunden schrieb x_holger:

Da wird jetzt um Live Comp zu nutzen zusätzlich bei Tageslicht am Meer ein physisches ND-Filter benötigt, das ist ja gut im Video zu sehen ....

Und das, obwohl es mit Live ND längst in der Kamera die Technik gibt, ohne einen physischen ND Filter auszukommen.

Nur lässt sich Live Comp bisher nicht mit Live ND kombinieren, und das ist dann die halbherzige und wenig anwenderfreundliche Implementierung der CP-Techniken.

LiveND und LiveComp arbeiten zwar ähnlich aber doch auch sehr unterschiedlich.

Beide belichten den Sensor kontinuierlich. Das heißt für jedes Pixel beginnt die Belichtung sobald die vorige ausgelesen und zurückgesetzt ist. Das ist nötig damit Bewegungsunschärfe nicht abgehackt wird und Lichtspuren durchgängig sind. (Bei Video wäre das 360° shutter angle.)

Bei LiveND wird mit bis zu 120fps belichtet und in den Buffer gespeichert damit nachträglich zusammengerechnet werden kann. Man kann keine kürzeren Belichtungszeiten erreichen und muss für LiveND bei viel Licht zusätzlich einen ND-Filter einsetzen um die Zeit auf 1/120s zu verlängern.

Ich habe keine OM aber bei LiceComp wird jede Belichtung sofort zu den bisherigen Belichtungen dazugerechnet und man ist nicht von der Buffergröße abhängig. Das geht nicht mit 120fps. So wie ich das Handbuch verstehe muss man vor der Aufnahme die Belichtungszeit zwischen 1/2s und 60s wählen. Bei meiner G9-II ist es sogar nur von 1/1.6s bis 60s. Das bedeutet LiveComp geht nicht mit Belichtungszeiten die kürzer als 0.5s sind weil die nötigen Berechnungen nur mit 2fps erfolgen können. Das ist im Dunklen kein Problem erfordert bei Tageslicht aber einen fetten ND-Filter. Das Bild vom Video zeigt dass da 2s Belichtung gewählt wurde. Eine Kombination von LiveND und LiveComp würde es erfordern dass entweder der Prozessor auch für LiveND so schnell ist, dass er ohne Buffer sofort alles berechnet oder dass LiveComp auf die Buffergröße beschränkt wird und nicht mehr "Live" ist. Derzeit wird LiveComp aber vor allem für Sterne oder Lichtspuren genutzt wo man eventuell viele Minuten belichtet und vor allem wird ständig "Live" das aktuelle Zwischenergebnis angezeigt damit man die Aufnahme beenden kann wenn man das drauf hat was man haben möchte.

Das heißt natürlich nicht dass man nicht zusätzlich weitere CP-Techniken entwickeln kann aber man stößt hier an Hardware-Grenzen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb beerwish:

Bei LiveND wird mit bis zu 120fps belichtet und in den Buffer gespeichert damit nachträglich zusammengerechnet werden kann. Man kann keine kürzeren Belichtungszeiten erreichen und muss für LiveND bei viel Licht zusätzlich einen ND-Filter einsetzen um die Zeit auf 1/120s zu verlängern.

... LiveComp geht nicht mit Belichtungszeiten die kürzer als 0.5s sind weil die nötigen Berechnungen nur mit 2fps erfolgen können. Das ist im Dunklen kein Problem erfordert bei Tageslicht aber einen fetten ND-Filter. ...Eine Kombination von LiveND und LiveComp würde es erfordern dass entweder der Prozessor auch für LiveND so schnell ist, dass er ohne Buffer sofort alles berechnet oder dass LiveComp auf die Buffergröße beschränkt wird und nicht mehr "Live" ist....

Eine Kombination von CP-Techniken ist genauso wie eine Beschleunigung der Berechnungen erforderlich, um diese wirklich problemloser und umfassender nutzen zu können. 

Eine Beschränkung von LiveComp auf 2 fps (0,5 Sek) ist sehr einschneidend, schon da würde ein schnellerer Prozessor einiges erleichtern. Live ND und LiveComp gleichzeitig wären technisch vielleicht zu herausfordernd, aber schon 30 fps statt 2 fps Verarbeitungsgeschwindigkeit würde die Anwendbarkeit enorm verbessern. Eine Kombination von Fokus Stacking und HiRes oder HDR wurde ja auch schon als Wunsch erwähnt. Da ist auf jeden Fall noch viel Luft nach oben ... ohne dass es gleich einen neuentwickelten Sensor braucht, aber 1/240 Sek. Sensorauslesezeit wären natürlich ebenso ein Fortschritt.

bearbeitet von x_holger
ergänzt
Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb wasabi65:

 Aber diese Kameras sind keine Smartfone bzgl Rechenleistung.

Das ist eigentlich etwas aus der Zeit gefallen. Zumindest die Rechenleistung eines günstigen Smartphones müsste doch im Budget sein bzw. eventuell sogar, gleich ein Smartphone inkl. Display, Speicher, Konnektivität und die  Software (aber ohne die ganzen Kameras und nur 1 gemeinsamer Akku) als "articulated Screen" einzubauen. Also wenn da ein Wille wäre, könnte OM System einer Firma zuvor kommen, die bald einem Smartphone den Objektivanschluss, den Sucher sowie die Knöpfe/Räder am Griff hinzufügt.

vor 7 Stunden schrieb x_holger:

... ohne dass es gleich einen neuentwickelten Sensor braucht, aber 1/240 Sek. Sensorauslesezeit wären natürlich ebenso ein Fortschritt.

Sony hat da ja schon was, was man adaptieren könnte, indem einfach ein Teil des Sensors genutzt wird (oder für Open Gate Variationen): Der IMX929 mit 2:1 Binning käme auf 270fps mit 25MP (und hat auch noch global shutter und DRBoost/1-shot HDR):

https://www.sony-semicon.com/en/products/is/industry/gs/imx927-937.html

Link zum Beitrag
Auf anderen Seiten teilen

ich möchte auf keinen Fall die "Konnektivität" und auch nicht die Bedienung eines SPs. Beides würde dazu führen, dass ich diese Kamera auf keinen Fall kaufe.

Ich habe keine Lust, dass ich irgendwo im Busch stehe und meine Kamera ein "superwichtiges" Update braucht und ich erst danach wieder fotografieren kann. Auch die "intuitive" Bedienung eines SPs möchte ich nicht, die nur intuitiv ist, wenn man das Ding den ganzen Tag in der Hand hat und vor Langeweile eben jeden Button schon unzählige Male gedrückt hat.
 

Ich kann mir eigentlich auch nicht vorstellen, dass ein SP eine bessere Rechenleistung hat. Was die Fotografie anbelant, werden da meisten nur Einzelbilder gemacht. Auch die Scharfstellung ist (zumindest bei meinem = Mittelklasse) deutlich langsamer.

Gruß Reinhard

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Kater Karlo:

Ich kann mir eigentlich auch nicht vorstellen, dass ein SP eine bessere Rechenleistung hat. Was die Fotografie anbelant, werden da meisten nur Einzelbilder gemacht. 

Dann braucht Du keine neue Kamera und eigentlich nicht mal eine Spiegellose. Der Vorteil von mirrorless ist doch gerade, dass mehrere Bilder in einem Rutsch gehen. Die Frage ist, wie programmiert man das Gewünschte und wie/wann/wo wird das verrechnet.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb jens_ac:

Zumindest die Rechenleistung eines günstigen Smartphones müsste doch im Budget sein

Die Rechenleistung alleine ist ja nicht. Energiebedarf ist da eher ein Problem. Man müsste die Wh pro Akkudauer rechnen. Die meisten SPs kann man nicht lange laufen lassen ohne zu laden (auch wenn es schon viel besser geworden ist).

Wir sollten hier jetzt nicht weiter machen, denn diese Diskussion gibt es schon in einem spezifischen Thread.

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Minuten schrieb jens_ac:

Dann braucht Du keine neue Kamera und eigentlich nicht mal eine Spiegellose. Der Vorteil von mirrorless ist doch gerade, dass mehrere Bilder in einem Rutsch gehen. Die Frage ist, wie programmiert man das Gewünschte und wie/wann/wo wird das verrechnet.

Du hast mich missverstanden. Ich mache sehr wohl Serien mit meiner OM-1. Mit SPs wird das meistens (oder nie?) gemacht, daher meine Zweifel, ob die Dinger (die SPs) wirklich mehr Rechenleistung haben

Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Minuten schrieb Kater Karlo:

Du hast mich missverstanden. Ich mache sehr wohl Serien mit meiner OM-1. Mit SPs wird das meistens (oder nie?) gemacht, daher meine Zweifel, ob die Dinger (die SPs) wirklich mehr Rechenleistung haben

Aber sicher ist da ordentlich Rechenleistung drin. Da wird eigentlich jedes Bild aus einer Serie/einem Stück Video zusammengerechnet. Und man kann es frei programmieren mit eigenen Apps z.B. oder was von den großen Foto/Videofirmen (Indigo, Blackmagic, Adobe...) drauf laden. 

Aber zurück zum Thema: Oben wollte jemand mehr Rechenleistung für Computational - da sollte es machbar sein, wenn der Hersteller das wirtschaftlich sinnvoll findet.

Wenn die Hersteller im MFT schon nicht mehr zusammen arbeiten, dann sollen sie eben was woanders einkaufen, wo Skaleneffekte noch die Technik vorwärts bringen: Jenseits des Tellerrands bei SP/Industrie/Drohnen/Auto...

Link zum Beitrag
Auf anderen Seiten teilen

Smartphones haben universelle Grafikprozessoren, die für Spiele, Bildverarbeitung und alles mögliche genutzt werden können. Die haben aber auch ziemlich große Batterien und die Prozessoren werden in riesigen Stückzahlen produziert.

Kameras haben bislang eher spezialisierte Grafikprozessoren, die für die Aufgaben der Kamera ausgelegt sind und nur genau das können was die Kamera braucht - das aber dafür besonders gut.

Ich komme ja aus dem Bereich Messtechnik und ich finde es immer wieder beeindruckend was Kameras da leisten. Für 60 oder gar 120fps werden ja ein bis über zwei Milliarden Pixel pro Sekunde ausgelesen, hochwertig AD-gewandelt (12, 14 oder gar 16bit) und für Videos kontinuierlich verarbeitet. Dabei werden die Werte benachbarter pixel über Filteralgorithmen zusammengerechnet und zu einem Video-Strom komprimiert der mit hohen Datenraten auf SD oder CFExpress gespeichert wird. Der Anspruch bei Dynamik, Bit-tiefe und Qualität ist da deutlich höher als bei Smartphones. Dieser Datenstrom wird zusätzlich analysiert für AF, Belichtung und Weißabgleich. Mit normaler Prozessorleistung ist das nicht zu bewältigen. Man braucht Grafikprozessoren die darauf spezialisiert sind.

Es gibt natürlich immer wieder Versuche Smartphone-Technik einfach so für Kameras zu nutzen aber bislang konnten die nie mithalten wenn man die Leistung mit richtigen Kameras vergleicht und so genau hinsieht wie bei Vergleichen der Kameras untereinander. Mit Smartphone-Technik hat man es dafür natürlich leichter bei Internet-Zugang, Filetransfer und vielen Standardoperationen. Eventuell gibt es ja irgendwann eine Kombination aber die Frage ist dann was es kosten wird und wie viel Strom man braucht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb beerwish:

Ich komme ja aus dem Bereich Messtechnik und ich finde es immer wieder beeindruckend was Kameras da leisten. Für 60 oder gar 120fps werden ja ein bis über zwei Milliarden Pixel pro Sekunde ausgelesen, hochwertig AD-gewandelt (12, 14 oder gar 16bit) und für Videos kontinuierlich verarbeitet. Dabei werden die Werte benachbarter pixel über Filteralgorithmen zusammengerechnet und zu einem Video-Strom komprimiert der mit hohen Datenraten auf SD oder CFExpress gespeichert wird. Der Anspruch bei Dynamik, Bit-tiefe und Qualität ist da deutlich höher als bei Smartphones. Dieser Datenstrom wird zusätzlich analysiert für AF, Belichtung und Weißabgleich. Mit normaler Prozessorleistung ist das nicht zu bewältigen. Man braucht Grafikprozessoren die darauf spezialisiert sind.

Also in den Smartphones (und auch vielen anderen stacked Sensoren der Kamers) passiert die AD-Wandlung heute bereits auf dem Chip im Sensor. Bei Smartphones mit den aktuellen Doppelstack-Sensoren passiert auch schon die erste Verrechnung zweier Bilder mit unterschiedlicher Belichtungszeit, welche auch je 2x ausgelesen werden (DGO/DRBoost) bereits im Sensor https://www.sony-semicon.com/en/info/2025/2025112701.html . Erst dann geht es rüber zu den Chips im Smartphone. Apple hat da spezielle Technik für Videocoding/encoding in Hardware in den Prozessoren, da werden noch mal mehrere Bilder/Frames zu einem Bild verrechnet (Fotos kommen teils da aus Video), die Optik korrigiert und "normales" Zeug wie RAW-Entwicklung/Schärfung/Entrauschung durchgeführt - und das für jedes Bild auch noch mit den Frames drumherum (damit die Fotos beim Anklicken etwas "leben").

Beim Google Pixel konnte man früher noch der Berechnung zusehen - das Foto wurde nach 1-2 Sekunden erst "schön", heute passiert das im Augenblick. Und das bei den deutlich größeren Pixelzahlen - 8k30, teils 100MP oder bei Samsung gar 200 MP - das ist auch sehr beeindruckend.

Nichts gegen die Chips in den Kameras - die sind für Foto und Video spezialisert und auch schnell, wie Du sagst. Aber wenn OM System mit den schlappen 20 MP da selbst beim nachträglichen sekundenlangen Berechnen Prozessorprobleme bekommen sollte, dann sollen die bei den SP mal nachfragen - oder eben bei Canon, Sony oder Panasonic, die kommen mit größeren Daten klar auch bei einer G9ii (25MP Sensor wird für 4k120 full auch mit 120 fps ausgelesen - nicht die ganze Höhe aber auf größerer Breite als bei OMSy), S1ii oder auch S1Rii und sogar mit kontinuierlichem Videostrom auf SSD.

Es ist ja an sich kein Drama, wenn man keine eigenen Resourcen für Chipentwicklung hat. Aber wenn man sich dann keine Hilfe holt oder mit anderen zusammen arbeitet, dann wird es traurig. Und ich kann nicht glauben, dass das an Panasonic liegen könnte, denn die arbeiten oft und gut mit allen möglichen Firmen zusammen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb jens_ac:

Es ist ja an sich kein Drama, wenn man keine eigenen Resourcen für Chipentwicklung hat. Aber wenn man sich dann keine Hilfe holt oder mit anderen zusammen arbeitet, dann wird es traurig. Und ich kann nicht glauben, dass das an Panasonic liegen könnte, denn die arbeiten oft und gut mit allen möglichen Firmen zusammen.

Panasonic rechnet an einem HHHR-Bild durchaus mal 10s. Je nachdem wie gut die Mathematik zum Prozessor passt, gehen manche Sachen sehr schnell und andere eben nicht. OM-Systems ist da auch nicht unbedingt schlechter als andere. Es soll sogar noch Hersteller geben, die kein HHHR können und bei HighRes gar nicht in der Kamera rechnen sondern nachträglich im Computer. Insgesamt ist OM-Systems mit LiveND und anderen Funktionen sogar führend. Offen ist, ob sie nach wie vor die Kapazität haben um da neue Maßstäbe zu setzen. Für eine neue OM1 mit dem gleichen Sensor wäre das ja nötig, das man bei der Verarbeitung deutlich mehr kann.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...