jens_ac Geschrieben 4. Juli Share #276 Geschrieben 4. Juli Werbung (verschwindet nach Registrierung) vor 6 Stunden schrieb s.sential: Weiß noch nicht, was ich von rechenintensiven Algorithmen in Kameras halten soll. Das braucht auch intensiv Hardware. KI-Entrauschen oder Upscaling darf gerne im Post passieren. Ich will die Bilder aus meiner Kamera garantiert KI-frei (KI-unterstützer AF wird hier noch toleriert, weil da die KI ja nicht ins Bild rein malt). Rechenintensive Dinge möchte ich ausschließlich am Rechner machen, so dass ich Artefakte erkennen und vermeiden kann - sogar beim Entrauschen, Schärfen und automatischem Stacken finde ich oft "Bildinformationen", die in keinem frame eigentlich vorhanden sind und das ist kritisch, wenn man 100% Bio bzw. mit etwas dokumentarischem Anspruch Bilder haben möchte oder muss. Andererseits möchte ich die Kamera so automatisieren, dass Belichtungsreihen und Fokusreihen auch in der Natur möglich werden und daher begrüße ich schon, dass alle Hersteller und gerade die beiden in MFT da schon viele computational machen. HHHR ist auch schön - aber gib das dann mal der KI zum Aufpixeln oder Schärfen, da dreht die ab und findet Städte und Felder auf dem Mond... Aber dass kleine Pixelzahlen für die Bildverarbeitung besser sind, das halte ich für Unsinn: In den Smartphones wird die computerisierte Bearbeitung durch die vielen Megapixel der kleinen Sensoren signifikant unterstützt, gerade weil die Systeme dann am Beugungslimit arbeiten und somit beherschbare Umstände vorliegen. Wird die Abbildungsqualität dagegen durch den Sensor oder gar die Optik begrenzt (z.B. Konverterprobleme), dann sind sehr spezifische Korrekturen notwendig und/oder Redundanzen fehlen, welche z.B. Effekte durch Rauschen hätten kompensieren können. OK, die notwendige Rechenpower steigt natürlich nichtlinear mit der Pixelzahl und wenn der Speicher nicht reicht, dann wird es ganz langsam bzw. in der Kamera unmöglich. Noch ein Grund mehr, dass zu Hause auf einer kräftigen Grafikkarte (oder so Grafikprozessoren wie M3-4) mit viel Speicher berechnen zu lassen, am großen Monitor auf haluzinierten Unsinn zu checken und dann vor allem Einfluss und Kontrolle auszuüben - den intelligent ist die KI eigentlich nicht so. Man muss auf die KI immer sehr gut aufpassen, denn die lügt wie ein Kleinkind, das unter allen Umständen gefallen möchte. Das Smartphone geht ja schon lange im Bereich computational vorran dank viel Rechenpower und Speicher, besserer Displays und der schnellen Graphikprozessoren und weil eben die Optik und die Pixeldichte bereits bis ans physikalische Limit ausgereizt sind. Da ist man schon längst bei Multiframe-Techniken und Bilder sind eigentlich aus Video zusammen gesetzt. Jetzt wird sogar schon das einzelne Videoframe aus mehreren Bildern schon auf dem Sensor zusammen gesetzt - quasi wie OM-1 und G9m2 jeweils noch einen drauf und dann zusammengesetzt: Mit 3 ISO auf einmal aufgenommen und zusammengesetzt und dann 2 von diesen Bildern mit unterschiedlicher Belichtungszeit schnell aufgenommen/ausgelesen und direkt für extra HDR zusammen gebastelt) und danach geht dann computational erst los. So wie ich OM-System jetzt in dem Petapixel-Gespräch verstehe, sind die mit Optik-Hardwareverbesserungen also fertig (damit quasi schon seit der OM-1, die ja noch von Olympus entwickelt wurde, ok, noch der doppelte Bufferspeicher...) und machen jetzt nur noch mit der Software weiter. Ich bin gespannt, ob und wie lange das gut geht... frank.ho, nightstalker und wasabi65 haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 5. Juli Share #277 Geschrieben 5. Juli vor 16 Stunden schrieb jens_ac: und machen jetzt nur noch mit der Software weiter. Ich bin gespannt, ob und wie lange das gut geht... so lange, bis sich ein Durchbruch in der Hardware ankündigt 😉 rein qualitativ ist in den letzten Jahren nicht viel passiert, Kameras von vor 10 Jahren können in der Bildqualität gut mithalten, insbesondere mit den neuen Konvertern und deren Rauschunterdrückung. Die Sensoränderungen wirkten sich auf die Performance aus, was nicht unwichtig ist, wenn man Sport fotografiert, nun sind aber gerade im Amateurbereich nicht die Mehrheit in diesen Nischen unterwegs. In der Praxis der normalen Nutzer, ist zB eine EM1 II noch voll konkurrenzfähig Was ist ein Durchbruch? Neue Farbtechnologie, neues Sensorprinzip, das es schafft das natürliche Rauschen zu verringern (Quantenrauschen) .. dies wird vermutlich über Rechenoperationen auf Sensorebene passieren ... falls das überhaupt möglich ist 😉 , für mFT: 40 MP Stacked Sensor ...danach gehts in eine neue Rallye der Sensoren betrifft das die "normalen" Fotografen? ... Nicht wirklich, das Problem daran ist, dass man Argumente finden muss, diesen die neuen Kameras schmackhaft zu machen. Im moment versuchen die Hersteller das über die Videoschiene zu machen, aber auch da ist schon ersichtlich, dass wir auf den Peak der Sensortechnologie zulaufen. pero, wasabi65 und rostafrei haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
jens_ac Geschrieben 5. Juli Share #278 Geschrieben 5. Juli vor 2 Stunden schrieb nightstalker: so lange, bis sich ein Durchbruch in der Hardware ankündigt 😉 rein qualitativ ist in den letzten Jahren nicht viel passiert, Kameras von vor 10 Jahren können in der Bildqualität gut mithalten, insbesondere mit den neuen Konvertern und deren Rauschunterdrückung. (...) Was ist ein Durchbruch? Neue Farbtechnologie, neues Sensorprinzip, das es schafft das natürliche Rauschen zu verringern (Quantenrauschen) .. dies wird vermutlich über Rechenoperationen auf Sensorebene passieren ... falls das überhaupt möglich ist 😉 , für mFT: 40 MP Stacked Sensor ...danach gehts in eine neue Rallye der Sensoren Weiß ich nicht.... Also bei LUMIX ist in den letzten Jahren für meinen Geschmack sensortechnisch sehr viel passiert: Phasen AF, mehr Pixel und gleichzeitig mehr Dynamik dazu auch mehr speed bzw. alternativ auf gleichem Sensor, dann noch das aktuelle Feuerwerk im L-mount von S9 bis S1(R)ii. Und auch darüber hinaus gab es Umwälzungen wie Stack und Doppel-Stack, globaler Sensor für speed mit gleichzeitig Spitzendynamik im Video, BM mit dem 6x6 rgbww Sensor für Wahlfreiheit bei MP und und FPS mit bester Dynamik. Also videomäßig geht das doch echt ab gerade - und das ist dann auch der naheliegende Ansatz gegen das Quantenrauschen: Temporal NR, vielleicht schon am Sensor. BRAW führt ja schon länger vor, was da an Qualität vom Sensor in die Post gebracht werden kann. Wenn die Sensoren schneller werden, dann wird die Bewegung relativ weniger und das Rauschen geht somit noch besser weg. Meine Befürchtung ist halt, dass diese ganzen neuen Technologien es nicht mehr nach MFT schaffen mangels Masse, z.B. weil die Smartphonesensoren vielleicht wirklich nicht mehr größer werden (gerade sind die coolsten ja wieder kleiner geworden und deutlich unter 1"), eben weil sich die Chipfläche wegen der ganzen Tech gar nicht mehr so lohnt... Vielleicht peaked es also gerade bei unter 1". Dann bleibt vielleicht doch eine Lücke zwischen Smartphone und Kleinbild. Ich hätte gedacht, man trifft sich in der Mitte eben bei MFT und die anderen Formaten "sterben aus". Dann wohl eher nicht... Ist ja auch teils Emotion dabei. Panasonic ist es jetzt vielleicht auch etwas egal, wo es im L-mount so gut läuft. Und wenn der MFT-Sensor-Durchbruch ausbleibt, dann bleibt es für OM-System auch angenehm: Volle Konzentration auf Software und die anderen Entwickler muss man dann auch nicht mehr durchfüttern. Ich bleibe gespannt und gehe mit meinem gemischtem MFT-Gerät raus zu den Insekten, es ist ja gerade Hochsaison. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Kater Karlo Geschrieben 5. Juli Share #279 Geschrieben 5. Juli die SP-Sensoren werden kleiner, weil es eben nicht stimmt, dass Fotografen in Massen dann zum SP abwandern. Gemeint sind Fotografen, nicht Leute, denen es reicht Bilder zu machen, die zur Erinnerung sind. Das muss dann auch im SP nicht der Aufwand eines größeren Sensor betrieben werden. OM System habe ich so verstanden, dass sie es für wichtiger finden, andere Dinge am Sensor zu verbessern, als mit der Anzahl der MP hochzugehen. Bedeutet für mich nicht, dass kein neuer Sensor (also HW) kommen kann, der hat dann aber nach wie vor ca. 20 MP. Auslesung dann vielleicht schneller, kein mech. Verschluss mehr wie Nikon oder andere Dinge sind möglich. Sie möchten auch das, was sie "CP" nennen und das mit der OM-3 eine separate Taste bekommen hat, weiter ausbauen. Vielleicht werden die ND-Filter und auch der Verlaufsfilter noch besser, oder es kommen andere Funktionen hinzu. Mal sehen, sie gehen einen anderen Weg, als die anderen, ob´s funktioniert, wird sich zeigen. Ich denke und hoffe schon. Gruß Reinhard embe71 und tgutgu haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
D700 Geschrieben 5. Juli Share #280 Geschrieben 5. Juli vor 9 Minuten schrieb Kater Karlo: weil es eben nicht stimmt, dass Fotografen in Massen dann zum SP abwandern. Natürlich stimmt das und das kannst Dui überall nachlesen. Warum gibt es sonst keine Billigknipsen mehr im herkömmslichen Kameramarkt? Und daß sowas zuerst die kleinen Sensoren trtifft ist auch logisch! vor 10 Minuten schrieb Kater Karlo: nicht Leute, denen es reicht Bilder zu machen, die zur Erinnerung sind. Die kaufen aber auch keine MFT ... vor 11 Minuten schrieb Kater Karlo: OM System habe ich so verstanden, dass sie es für wichtiger finden, andere Dinge am Sensor zu verbessern, als mit der Anzahl der MP hochzugehen Die haben eher kein R&D Budget für sowas und was sollen sie daher auch sonst sagen! vor 12 Minuten schrieb Kater Karlo: Mal sehen, sie gehen einen anderen Weg, als die anderen Du kansst Dir ja wirklich alles schönreden; sogar ollen Kram, der lediglich immer wieder aufgewärmt wird Link zum Beitrag Auf anderen Seiten teilen More sharing options...
D700 Geschrieben 5. Juli Share #281 Geschrieben 5. Juli vor 20 Stunden schrieb jens_ac: Ich will die Bilder aus meiner Kamera garantiert KI-frei Das wäre aber vielleicht eine kreative Lösung für mFT. SP Technologie im größeren Body mit Android darunter. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
jens_ac Geschrieben 5. Juli Share #282 Geschrieben 5. Juli Werbung (verschwindet nach Registrierung) vor 4 Minuten schrieb D700: Das wäre aber vielleicht eine kreative Lösung für mFT. SP Technologie im größeren Body mit Android darunter. Ja, finde ich auch. Aber das ist zu kreativ/abgehoben und stößt ja nicht mal hier im Forum auf positive Rückmeldungen (siehe oben). Ich denke, das müssen wir uns daher abschminken. Ich werde wohl MFT weiter nutzen ohne großartig was Neues zu erwarten, Videodinge kompromisslos bei BM suchen und Foto eventuell dann zusätzlich bei Canon. Und computational eben bald vor allem mit Bildern/Videos aus dem Smartphone, denn nur da kann man wirklich frei automatiseren und hat immer die neue Technologie. Systeme sind ja überhaupt Quatsch, wenn man wirklich für jede Nische/Anwendung ein anderes System braucht... Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 5. Juli Share #283 Geschrieben 5. Juli vor 2 Stunden schrieb jens_ac: Weiß ich nicht.... Also bei LUMIX ist in den letzten Jahren für meinen Geschmack sensortechnisch sehr viel passiert: Phasen AF, mehr Pixel und gleichzeitig mehr Dynamik dazu auch mehr speed bzw. alternativ auf gleichem Sensor, dann noch das aktuelle Feuerwerk im L-mount von S9 bis S1(R)ii. Und auch darüber hinaus gab es Umwälzungen wie Stack und Doppel-Stack, globaler Sensor für speed mit gleichzeitig Spitzendynamik im Video, BM mit dem 6x6 rgbww Sensor für Wahlfreiheit bei MP und und FPS mit bester Dynamik. Also videomäßig geht das doch echt ab gerade - und das ist dann auch der naheliegende Ansatz gegen das Quantenrauschen: Temporal NR, vielleicht schon am Sensor. BRAW führt ja schon länger vor, was da an Qualität vom Sensor in die Post gebracht werden kann. Wenn die Sensoren schneller werden, dann wird die Bewegung relativ weniger und das Rauschen geht somit noch besser weg. mit L mount habe ich mich bislang nicht beschäftigt, aber wenn ich zB die Bildqualität meiner EM1 II mit aktuellen OMDingS Kameras vergleiche ist der Unterschied sehr überschaubar, der Vergleich meiner NEX 7 mit einer A6600 geht ziemlich gleichmässig aus, wenn man beide mit DxO PL8 vergleicht, meine Fuji XH1 von 2018 sieht immer noch sehr gut aus, selbst mit meiner XT5 vergleichen (bis auf die Auflösung, sollte klar sein, bei 24 vs 40 MKP .. wobei in normaler Betrachtung auch hier die Unterschiede nicht extrem sind) Meine GX8 sieht auch gegen die anderen genannten Kameras sehr gut aus .. die GX9 ist ein Jota schärfer, dank des fehlenden AA Filters .. aber aus dem RAW Konverter sorgt die Objektivschärfung dafür, dass auch die GX8 Files sehr scharf wirken Klar, AF, schnelligkeit, sogar Auslesegeschwindigkeit, für den EV, haben sich sehr verbessert ... aber ehrlich gesagt finde ich schon die 1/70s meiner EM1 II ziemlich beeindruckend .. und sie kann sogar schon mit EV blitzen .. und das mit Erscheinungsdatum 2016 Über die Dynamiktricks der neuen G9 II habe ich gelesen, das ist natürlich toll 🙂 ... aber das zusammenrechnen zweier Bilder ist jetzt auch Software ... wobei ich nicht weiss, ob der Sensor dafür Voraussetzungen haben muss. Ich finde das super, aber ich glaube nicht, dass das die hier gewünschten Hardwarefortschritte sind 🙂 aber meine wichtigste Aussage oben war: es ist kein Kritikpunkt, wenn man Fortschritte vor allem auf Softwareseite findet .. wichtig ist eigentlich nur, dass es Fortschritte gibt x_holger und wasabi65 haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige (Anzeige) Ich würde dir das Adobe Creative Cloud Foto-Abo mit Photoshop und Lightroom empfehlen
x_holger Geschrieben 5. Juli Share #284 Geschrieben 5. Juli (bearbeitet) Ich habe jetzt nicht die ganzen 12 Seiten Diskussion hier verfolgt, aber : War die Sensorentwicklung nicht schon immer das Nadelöhr von FT und mFT? Nichts Neues, oder? Zu Beginn war Olympus beim Sensorangebot abhängig von Panasonic, seit der E-M5 Mark I dann von Sony .... (also seit 2012) Olympus/OM System hatte nie eine eigene Sensorfabrikation, vielleicht gab es die Möglichkeit von Auftragsfertigungen nach speziellen Spezifikationen auf Bestellung. Das einzige was sich im Vergleich zu früher geändert hat, ist der Fokus der Sensorentwicklung generell. Da bestimmt inzwischen 24x36 den Markt und (m)FT-Sensoren sind eher eine Nische, aber durchaus noch mit ernstzunehmenden Stückzahlen vertreten, da auch die DJI Mavic Pro Drohnenserie und manche Industriegeräte FT-Sensoren verwenden. Neben Sony produziert auch TowerJazz (jetzt Tower Semiconductor) FT-Sensoren, da kommen wohl die Panasonic Sensoren her, gerüchteweise. Panasonic hatte bestimmte Firmenbereiche an TowerJazz und Nuvoton verkauft, die Sensorsparte wohl schon 2014 .... Und jetzt erinnert euch mal, wurde jemals nicht über die Sensorentwicklung für mFT gemeckert? Die ewigen 12 MP von 2008-2012 bei Olympus, die ewigen 16 MP von 2012 bis .. ja 2019 bei der E-PL10 und seit 2016 dann 20 MP, wenn auch in unterschiedlichen Sensortypen, nur CDAF, mit PDAF, mit QuadPixel PDAF, non-stacked, stacked ... bearbeitet 5. Juli von x_holger vertippt Cc104 und cyco haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
jens_ac Geschrieben 5. Juli Share #285 Geschrieben 5. Juli vor 26 Minuten schrieb nightstalker: Über die Dynamiktricks der neuen G9 II habe ich gelesen, das ist natürlich toll 🙂 ... aber das zusammenrechnen zweier Bilder ist jetzt auch Software ... wobei ich nicht weiss, ob der Sensor dafür Voraussetzungen haben muss. Ich finde das super, aber ich glaube nicht, dass das die hier gewünschten Hardwarefortschritte sind In der G9m2 wird 1 Bild gleichzeitig mit 2 Verstärkern (z.B. ISO 100 und etwa ISO800) ausgelesen und verrechnet und als RAW mit deutlich weniger Rauschen im Schatten (nur dort wie ISO800 eben) ausgegeben. Das ist in Hardware, denn die Verstärker und Leitungen müssen im Sensor vorhanden sein. Beim Lytia 828 geht das jetzt mit sogar 3 ISO (und das ist ein 3-Chip-Stack, also schnell wie OM-1 nur eben noch einen Schritt weiter) und zusätzlich wird das ganze dann 2x gemacht mit unterschiedlichen Belichtungszeiten und dann im Sensor zu einem HDR Videoframe zusammen gesetzt und ausgegeben (100dB Dynamik, 16,6 stops). Dann erst beginnt Software im Prozessor der Kamera/des Smartphones/am PC und berechnet daraus Stacks/high res/ Rauschreduktion/ ND/ KI-Sachen.... Die Technik ist also bereits da, ähnlich auch als 4/3 Zoll Sensor (fliegt bereits wie weiter oben beschrieben in der DJI mavic 4, der 100MP Chip mit den bis zu 16stop dynamik). Ob das jemals in eine MFT Kamera eingebaut wird, wissen wir nicht, hoffen manche und ist anderen egal. Es reicht wohl vielen, wenn dieser Fortschritt im Smartphone statt findet und da bleibt. SilkeMa, nightstalker und pizzastein haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
x_holger Geschrieben 5. Juli Share #286 Geschrieben 5. Juli vor 22 Stunden schrieb jens_ac: ...So wie ich OM-System jetzt in dem Petapixel-Gespräch verstehe, sind die mit Optik-Hardwareverbesserungen also fertig (damit quasi schon seit der OM-1, die ja noch von Olympus entwickelt wurde, ok, noch der doppelte Bufferspeicher...) und machen jetzt nur noch mit der Software weiter. Ich bin gespannt, ob und wie lange das gut geht... vor 2 Stunden schrieb Kater Karlo: ...OM System habe ich so verstanden, dass sie es für wichtiger finden, andere Dinge am Sensor zu verbessern, als mit der Anzahl der MP hochzugehen. Bedeutet für mich nicht, dass kein neuer Sensor (also HW) kommen kann, der hat dann aber nach wie vor ca. 20 MP. Auslesung dann vielleicht schneller, kein mech. Verschluss mehr wie Nikon oder andere Dinge sind möglich. Sie möchten auch das, was sie "CP" nennen und das mit der OM-3 eine separate Taste bekommen hat, weiter ausbauen. Vielleicht werden die ND-Filter und auch der Verlaufsfilter noch besser, oder es kommen andere Funktionen hinzu. Mal sehen, sie gehen einen anderen Weg, als die anderen, ob´s funktioniert, wird sich zeigen. Ich denke und hoffe schon. Gruß Reinhard vor 1 Stunde schrieb D700: ... Die haben eher kein R&D Budget für sowas und was sollen sie daher auch sonst sagen! Du kansst Dir ja wirklich alles schönreden; sogar ollen Kram, der lediglich immer wieder aufgewärmt wird Olympus/OM System und Panasonic versuchen auf unterschiedlichen Wegen die Nachteile des kleineren FT-Sensors gegenüber 24x36 auszugleichen, über HiRes und HHHR, HDR, LiveGND, also Auflösung und DR zu verbessern. HiRes ist allerdings aufgrund der Hardware-Pixelverschiebung nicht nur Software, aber klar MultiShot-Technik wird genutzt. Upscaling geht eigentlich noch besser am Computer als in Cam, und kostet dann auch nicht so viele Kamera-Ressourcen. Jetzt zu schreiben, es gäbe bei OM System gar keine R&D Abteilung ist sehr polemisch, die OM-3 wurde ja nun neu entwickelt und entworfen, die gab es ja nicht von Sony aus dem Katalog. Und manche Entwicklungen bei Hardware und Software wird OM System aus Ressourcengründen einkaufen, das ist aber doch nicht erstaunlich. Ich finde es richtig, dass sich ein kleiner Hersteller ohne eigene Sensorproduktion Gedanken macht, wie er durch Software AF und Bildqualität verbessert. Artefakte und erfundene Strukturen fallen allerdings nicht unter Bildqualität, sondern eher unter "Aufhübschen". Letzteres können die Smartphones inklusive Cloud-Anbindung wirlich gut 😁 embe71 und teebaum3 haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
D700 Geschrieben 5. Juli Share #287 Geschrieben 5. Juli (bearbeitet) vor 27 Minuten schrieb x_holger: Jetzt zu schreiben, es gäbe bei OM System gar keine R&D Abteilung ist sehr polemisch Du scheinst den Unterschied zwischen R&D Budget und R&D Abteilung nicht zu kennen, oder Du hast meinen Post nicht richtig gelesen. vor 27 Minuten schrieb x_holger: Olympus/OM System und Panasonic versuchen auf unterschiedlichen Wegen die Nachteile des kleineren FT-Sensors gegenüber 24x36 auszugleichen, über HiRes und HHHR, HDR, LiveGND, also Auflösung und DR zu verbessern. Da sind wir dann aber genau wieder beim SP! Die können sowas aber es reicht nicht gegen größere Sensoren! Und wenn die diese Technik nutzen würden, was in Zukunft sicher denkbar ist, dann ist der Vorsprung wieder hinne. Das alles nützt aber nichts, wenn die notwendigen Massen kein mehr mFT kaufen und daher sind die Sensorgedanken hier dann auch völlig unwichtig. Das einzige, was die Hersteller, vor allem OMDS machen könnten, wäre etwas völlig Neues, das sonst keiner hat. Aber auch dazu fehlt vermutlich das R&D Budget. MFT so weiter zu führen wie heute ist absehbar zum Scheitern verurteilt, wenn man mal realistisch und ehrlich zu sich selber ist. bearbeitet 5. Juli von D700 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
nightstalker Geschrieben 5. Juli Share #288 Geschrieben 5. Juli vor einer Stunde schrieb jens_ac: In der G9m2 wird 1 Bild gleichzeitig mit 2 Verstärkern (z.B. ISO 100 und etwa ISO800) ausgelesen und verrechnet und als RAW mit deutlich weniger Rauschen im Schatten (nur dort wie ISO800 eben) ausgegeben. Das ist in Hardware, denn die Verstärker und Leitungen müssen im Sensor vorhanden sein. das bedeutet aber, dass die Hardware ja schon vorliegt ... also eher keine mFT Sensorkrise, das ist nur noch nicht in alle mFT Kameras vorgedrungen 🙂 ... also gute Aussichten für die nächsten mFT Kameragenerationen Link zum Beitrag Auf anderen Seiten teilen More sharing options...
jens_ac Geschrieben 5. Juli Share #289 Geschrieben 5. Juli vor 12 Minuten schrieb D700: Das einzige, was die Hersteller, vor allem OMDS machen könnten, wäre etwas völlig Neues, das sonst keiner hat. Aber auch dazu fehlt vermutlich das R&D Budget. MFT so weiter zu führen wie heute ist absehbar zum Scheitern verurteilt, wenn man mal realistisch und ehrlich zu sich selber ist. Ach was, die können alles mögliche machen (und bei Stillstand scheitern die auch nicht unbedingt - OM-System konzentriert sich auf Software und Gehäusedesign und Lumix auf den L-mount): den Mavic 4 Sensor in ihre Kamera packen und das Ding dann OM-1iii & G9M3 gleichzeitig nennen. Die jeweils verbesserte Kamera in Synthese Einen Lytia828 in eine Einsteiger-Kamera mit MFT stecken und das "super crop" nennen, hauptsache ich kann mein OMSy90 da dran schrauben Einen Smartphone-Hersteller mit Leica zusammen zwiebeln, das Smartphone in Kameragehäuse zu stecken und vorne dran einen MFT-Mount mit AF-Motor-Verkabelung zu schrauben. Das fänd ich jetzt cool, aber das werden sich beide nicht trauen, daher: DJI soll eine MFT-Kamera bauen mit Smartphone dran - quasi das Teil aus der Mavic 4 aber mit MFT-Mount. Und dann so Osmo-mäßig mit Smartphone unten dran und da die Hassebladfarben drauf. Und BRAW für Video 🙂 BM könnte so einen 6x6 Sensor wie im Pyxis 12k eben auf MFT halbiert in eine Kamera bauen, mit 6k 90 fps, 4k 180 fps , 2k 360 fps. Dieses mal sogar mit extra Photo-Auslöseknopf und hot shoe für Blitz und vieles mehr - müssen wir das eigentlich alles selbst überlegen? Und ja, bei jedem Punkt gibt es hier mindestens einen, der genau so eine Kamera nicht will. Geschenkt - dann vielleicht die andere und bitte weiter gehen. Aber statt das runter zu mäkeln wäre mir dann ein positiver alternativer Vorschlag lieber. Denn all die ganzen Ideen nicht realisieren kann ich auch prima alleine 😉 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rob Geschrieben 5. Juli Share #290 Geschrieben 5. Juli vor 2 Minuten schrieb nightstalker: das bedeutet aber, dass die Hardware ja schon vorliegt ... also eher keine mFT Sensorkrise, das ist nur noch nicht in alle mFT Kameras vorgedrungen 🙂 ... also gute Aussichten für die nächsten mFT Kameragenerationen Es fehlt halt eine GX10 mit diesem Sensor als Weiterentwicklung der GX9. Oder gar eine GM10. Aber die wäre sogar mir vermutlich zu fummelig. Aber das ist ja auch genau das, was @beerwish eingangs schrieb. Die Sensoren in den großen Modellen performen durchaus akzeptabel, aber nach unten wird nichts mehr durchgereicht. SilkeMa hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
beerwish Geschrieben 5. Juli Autor Share #291 Geschrieben 5. Juli Photons to Photos hat auf der Webseite viele Daten zu den unterschiedlichen Kameras. Die haben auch schon Fehler gemacht aber insgesamt ist das eine interessante Quelle: https://www.photonstophotos.net/Charts/PDR.htm Hier ist eine Grafik mit Dynamik über ISO für eine Reihe von Panasonic Kameras: Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Man sieht dass sich seit der GF1, mit der ich bei MFT eingestiegen bin, einiges getan hat. In letzter Zeit ist die Luft aber etwas dünn geworden. Seit der GH5 gab es noch einen kleinen Sprung zur G9 und die GH5-II hat das auch. Die G9-II liegt zwischen ISO 200 und ISO 3200 sogar etwas darunter hat dafür aber den Bereich bis ISO 50, wo die GH7 in dieser Messung deutlich abfällt. Dieser Unterschied wundert mich ein wenig und als Messtechniker würde ich da lieber noch mal nachmessen. Was man auf der Seite auch sehen kann ist, dass der langsame Sensor in der G91, GX9 u.s.w. etwa da liegt wo die GH5 ist. Die Verbesserungen wie in der G9 hat der langsamer Sensor aber nicht mitgemacht. Man sollte aber bei solchen Messungen immer berücksichtigen dass es ungeheuer schwierig ist sie über längere Zeit zuverlässig genau und reproduzierbar durchführen zu können. Die Messungen basieren offenbar auf Testserien von Helfern, die die Seite unterstützen und es ist da schon zu Fehlern gekommen. Z.B. hatte jemand nicht gewusst unter welchen Umständen die G9-II DRBoost abschaltet und das hat zu völlig falschen Ergebnissen bei den Werten mit e-shutter geführt. Es gibt auch grundsätzlich andere Ergebnisse wenn man 1zu1 Pixel betrachtet oder Bilder die selbe Auflösung wie z.B. 4k umskaliert oder wenn man Entrauschen erlaubt. Ich habe übrigens festgestellt, dass ich mit der G9-II sehr häufig bei Tag mit ISO 100 aufnehme und vermutlich die ISO 50 immer freischalten sollte. Wenn es dunkler wird geht es nach meiner Beobachtung speziell beim Filmen sehr schnell durch den ISO Bereich und ich bin dann wieder sehr viel bei ISO 1600 und höher unterwegs weil ich gerne Abend- und Nacht-Situationen filme. Es ist erstaunlich wie schnell man beim Filmen mit typischen 1/50s (180° shutter angle) von "ND-Filter notwendig" durch die Dämmerung kommt und bei ISO3200 überlegen muss ob man auf ISO6400 geht, doch bis zu 1/25s belichtet oder einfach unterbelichtet weil es ja wirklich dunkel ist und man vieles nicht erkennt. Das Auge passt sich automatisch an, die Kamera zeigt einem dass nur noch ein 64'tel des Lichts da ist (6 stops). Just for fun ist hier ein 2 Jahre altes Video wo die GF1 mit dem IPhone14 verglichen wird und immer noch gewinnt: https://youtu.be/J81wNyy-7pw Das IPhone hat in den Grafiken zwar mehr Dynamik aber es arbeitet da voll mit Rausch- und leider auch Detailreduzierung. outofsightdd hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Kater Karlo Geschrieben 5. Juli Share #292 Geschrieben 5. Juli vor 3 Stunden schrieb D700: Natürlich stimmt das und das kannst Dui überall nachlesen. Warum gibt es sonst keine Billigknipsen mehr im herkömmslichen Kameramarkt? Und daß sowas zuerst die kleinen Sensoren trtifft ist auch logisch! Die kaufen aber auch keine MFT ... Die haben eher kein R&D Budget für sowas und was sollen sie daher auch sonst sagen! Du kansst Dir ja wirklich alles schönreden; sogar ollen Kram, der lediglich immer wieder aufgewärmt wird auch wenn es Dir entgangen ist, ich habe von Fotografen geredet, also von Leuten die das zu ihrem Hobby gemach haben, nicht von Knipsern. ... und die kaufen erst Recht kein KB embe71 hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
jens_ac Geschrieben 5. Juli Share #293 Geschrieben 5. Juli (bearbeitet) vor 23 Minuten schrieb beerwish: Die G9-II liegt zwischen ISO 200 und ISO 3200 sogar etwas darunter hat dafür aber den Bereich bis ISO 50, wo die GH7 in dieser Messung deutlich abfällt. Dieser Unterschied wundert mich ein wenig und als Messtechniker würde ich da lieber noch mal nachmessen. Was man auf der Seite auch sehen kann ist, dass der langsame Sensor in der G91, GX9 u.s.w. etwa da liegt wo die GH5 ist. Die Verbesserungen wie in der G9 hat der langsamer Sensor aber nicht mitgemacht. Die Messung ist schon OK aber aus meiner Sicht nicht so realistisch und vor allem nicht für Video geeignet - das sollte man sich auch einmal ansehen. Hier siehst Du, dass die GH7 im Video deutlich besser als die GH6 und alle anderen Vorgänger ist: https://www.cined.com/panasonic-lumix-gh7-lab-test-rolling-shutter-dynamic-range-and-latitude/ Summary: "The exposure latitude tests again reveal the power of 12-bit RAW images – we can push this little camera to 8 stops of latitude, with some room towards 9! This is at least one stop better than the predecessor LUMIX GH6 which only offered 10-bit ProRes HQ internally and also one stop better than the full frame Canon R5 C or Sony a7S III for example which exhibited 7 stops of exposure latitude." Und das Iphone ist im Vergleich dann wirklich schlecht, denn da ist alles an Rauschreduzierung schon passiert und in der Post lässt sich nichts mehr machen. Hier fällt das auf, beim Photon2Photos eben genau nicht: https://www.cined.com/iphone-15-pro-lab-test-rolling-shutter-dynamic-range-and-exposure-latitude/ Summary: "Quite a funny experience to run a phone through our lab tests! The rolling shutter is exceptionally good on the iPhone 15 Pro / Max, with around 5ms for all cameras, the front facing camera has 9.3ms which is still very good. Perfect for handheld video shooting. Looking at the waveforms and the iPhone 15 Pro dynamic range in IMATEST, at first glance you could be tricked into believing the very high values that are displayed. In the end it turns out that those high IMATEST values are achieved with a really high internal noise reduction, confirmed by the latitude results of 5 stops (which is on the very low end in our benchmark). Recent Micro four thirds cameras like the GH6 have seven stops of exposure latitude, consumer APS-C cameras like the FUJIFILM X-H2S or the Sony A6700 have 8 stops and the leader of the pack, the ARRI Alexa 35 has 12 stops to give you the benchmark of our testing." bearbeitet 5. Juli von jens_ac GH7 und iPhone. beerwish hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
beerwish Geschrieben 5. Juli Autor Share #294 Geschrieben 5. Juli vor einer Stunde schrieb x_holger: Olympus/OM System und Panasonic versuchen auf unterschiedlichen Wegen die Nachteile des kleineren FT-Sensors gegenüber 24x36 auszugleichen, über HiRes und HHHR, HDR, LiveGND, also Auflösung und DR zu verbessern. HiRes ist allerdings aufgrund der Hardware-Pixelverschiebung nicht nur Software, aber klar MultiShot-Technik wird genutzt. Ich hab das mal bei Lumix in der Liveshow angemerkt und die wollten das weitergeben: An sich haben die GH7 und G9-II alles was man braucht um live-stacking in der Kamera zu machen. Wenn man ein HHHR oder HighRes Bild macht, dann werden 16 Bilder aufgenommen und zusammengerechnet. Alle Zonen in denen sich was bewegt, werden einfach aus einem Bild genommen und hoch skaliert damit es keine Bewegungsartefakte gibt. Die Technik könnte man ganz einfach nehmen um genau so ein Bild mit mehr Dynamik zu bekommen ohne die Auflösung zu erhöhen. Das müsste sogar einfacher sein und wäre mir viel lieber. Es könnte dann, zur Sicherheit und zum Vergleich, ein normales Bild aus der Serie geben und das gestackte und man könnte dann vergleichen und das bessere nehmen. Dass das nicht gemacht wird kann eigentlich nur daran liegen dass da Patente im Weg sind, die bei Erhöhung der Auflösung nicht ziehen. Ansonsten ist das eigentlich eine logische Funktion wo man sich fragt wieso das nicht schon längst gemacht wurde. Olympus/OM macht das auch aber als live-ND auf Basis von Bildern die lückenlos belichtet werden (quasi 360° shutter angle). Dadurch bekommen Bewegungen korrekte Bewegungsunschärfe aber es geht nur bei Langzeit-Belichtungen die aus mehreren mindestens 1/120s langen Einzelbelichtungen zusammengesetzt werden. Bei 8 Aufnahmen (3 Stufen ND) ist man dann schon bei mindestens 1/15s. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
outofsightdd Geschrieben 5. Juli Share #295 Geschrieben 5. Juli Der Punkt wird ja weiterhin sein, dass die Kameras die Möglichkeiten haben, die Relativbewegungen zwischen zwei Auslösungen ein Stück weit auszugleichen oder notwendige Daten zum exakten Überlagern zu erzeugen. Weiter hinten im Prozess manuell zusammenzukleistern wird natürlich auch immer besser, aber gewinnt nur, wenn die Hersteller der Kameras sich nicht darum kümmern, solche Mehrfachverrechnungen weiterzuentwickeln. Das LiveND war auf dem Kanal von microfournerds auch mit der OM-5II wieder schön gezeigt worden, als sie in Idland schöne Wasserfallfotos freihändig mit "getauchter" Kamera gemacht hat, während die anwesenden KB-Hobbyisten große Stative, Schutz gegen Wasser usw. aufzubauen und dahin zu schleppen hatten. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
beerwish Geschrieben 6. Juli Autor Share #296 Geschrieben 6. Juli (bearbeitet) vor 20 Stunden schrieb outofsightdd: Der Punkt wird ja weiterhin sein, dass die Kameras die Möglichkeiten haben, die Relativbewegungen zwischen zwei Auslösungen ein Stück weit auszugleichen oder notwendige Daten zum exakten Überlagern zu erzeugen. Weiter hinten im Prozess manuell zusammenzukleistern wird natürlich auch immer besser, aber gewinnt nur, wenn die Hersteller der Kameras sich nicht darum kümmern, solche Mehrfachverrechnungen weiterzuentwickeln. Die elektronische Stabilisierung kann sogar die Bewegungen während der Belichtung erfassen und ausgleichen. Ich habe das mit Video getestet aber Panasonic redet auch davon den rolling shutter bei Fotos zu korrigieren. Man denkt dann an die schiefen Laternenpfähle wenn man aus dem Fahrzeug fotografiert aber ich bin sicher, darum geht es gar nicht. Wenn die Kamera auf und ab bewegt wird, während der rolling shutter von ober nach unten über das Bild läuft, dann wird das Bild entweder gedehnt oder gestaucht. Da sich die Bewegung der Kamera während der Zeit ändern kann ich dieser Effekt sogar lokal in bestimmten horizontalen Regionen anders als in anderen. Action cams machen das schon länger so, dass sie das alles messtechnisch erfassen und ausgleichen. Aus lokalen Dehnungen werden dann lokal geringere oder höhere Auflösungen und wenn es dunkler ist und länger belichtet wird gibt es in einzelnen Bildern dann leichte Unschärfe. Nach meiner Beobachtung macht Panasonic das in den neuen Kameras auch so. Das geht natürlich vor allem dann gut wenn man viel Fläche und Auflösung zum Spielen hat. Weil vertikale Bewegungen viel häufiger und stärker vorkommen braucht man vor allem oben und unten Reserven. Leider geht das nur dann wirklich gut, wenn man mit sehr kurzen Belichtungszeiten arbeitet. Action-cam Stabilisierung funktioniert nicht wirklich wenn man 180° shutter angle nutzt und lange Belichtungszeiten für Bewegungsunschärfe einstellt. Wenn das für mehrfach belichtete Fotos mit extrem kurzer Belichtungszeit einsetzt wird, könnte das aber ideal genutzt werden um die Frames trotz Verzerrung genau übereinander zu legen und dann die Schärfe und das Rauschen insgesamt zu verbessern. bearbeitet 6. Juli von beerwish Link zum Beitrag Auf anderen Seiten teilen More sharing options...
beerwish Geschrieben 6. Juli Autor Share #297 Geschrieben 6. Juli Um noch mal auf die Frage zu kommen was eigentlich von den Kunden gekauft wird. Hier sind die Verkaufszahlen für Japan von der BCN: https://www.43rumors.com/these-were-the-best-selling-cameras-on-the-japanese-market-in-june/ In den Top 20 ist nur eine MFT-Kamera. Das ist die G100, die mit Objektiv unter 600€ kostet. Da ist auch nur eine Vollformatkamera. Die Nikon Z5-II. 18 Kameras sind APS-C kits die in der Regel um 1000€ kosten. Ich denke das zeigt, dass zumindest in Japan sehr viele kostengünstige Kits mit einem oder auch mal zwei Objektiven verkauft werden und da schauen die Käufer nicht auf die Sensorgröße sondern sie kaufen etwas bezahlbares mit einem Namen wie Sony, Nikon oder Canon. Bei diesem Spiel könnten die MFT-Hersteller gut mitmischen indem sie besonders kleine Kameras anbieten, die noch etwas günstiger sind und überlegene Funktionen bieten. Dazu gehört dann eventuell PDAF, IBIS und bei Panasonic gute Video-Funktionen während OM-System mit der OM-5-II z.B. mit Robustheit und guten Foto-Funktionen glänzt. Die kostengünstigen APS-C Kameras sind oft ziemlich spartanisch ausgestattet und es gibt nur selten IBIS und Spritzwasserschutz in der Preisregion. Es gibt da einen Markt und ich bin sicher dass solche Kameras unter 1000€ auch in Europa und USA gut verkauft werden könnten. Man müsste sie nur bauen und ich habe Zweifel ob das mit den aktuell verfügbaren Sensoren möglich ist - lasse mich aber sehr gerne vom Gegenteil überzeugen. Ich würde mich nicht wundern wenn die OM-5-II in solchen Listen jetzt öfter auftaucht obwohl sie noch ein wenig zu teuer ist. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
outofsightdd Geschrieben 6. Juli Share #298 Geschrieben 6. Juli (bearbeitet) vor 12 Minuten schrieb beerwish: 18 Kameras sind APS-C kits die in der Regel um 1000€ kosten. Bei dieser Statistik kann man trefflich bescheißen. Ich bin der Meinung, da sollte man alle Kits eines Modells als eins zählen, so verfälscht sich das Bild, je mehr Kitvarianten einer Kamera angeboten werden. Dass hingegen APS-C durchaus Marken-unabhängig eine wichtige Rolle spielt und es das auch gibt, weil eben (entgegen mancher Forenmeinung) auch da etwas Marge hängen bleibt, sehe ich schon auch. Rein von der Leistung der Kameras gibt's aber keine Gründe, warum das Feld nicht stärker von MFT durchsetzt sein könnte. So toll sind die dort in diesen APS-C verbauten Sensoren auch nicht, weder die alten Canon 24MP, noch die von Sony oder Nikons ewiger 20MP. bearbeitet 6. Juli von outofsightdd Link zum Beitrag Auf anderen Seiten teilen More sharing options...
rostafrei Geschrieben 6. Juli Share #299 Geschrieben 6. Juli vor 6 Minuten schrieb beerwish: ... Es gibt da einen Markt und ich bin sicher dass solche Kameras unter 1000€ auch in Europa und USA gut verkauft werden könnten. Man müsste sie nur bauen und ich habe Zweifel ob das mit den aktuell verfügbaren Sensoren möglich ist - Hm... Da kommt mir wieder die Sache mit der abgespeckten Kameravariante in den Sinn. Es gibt genug Sensoren, Gehäuse, Bajonetts, Prozessoren und sonstige Hardware (z.B. Akkus) zur Auswahl. So ein Projekt wie die Sigma BF von OMDS. Nicht einfach nur abgespeckt, um kleiner, leichter und kompakter zu sein, sondern gezielt konzentriert auf die früheren "Alleinstellungsmerkmale" ohne Spielerei wie z.B. Artfilter oder verschiedene Videomenüs und die dafür weiter verfeinert. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
beerwish Geschrieben 6. Juli Autor Share #300 Geschrieben 6. Juli vor 19 Minuten schrieb outofsightdd: Rein von der Leistung der Kameras gibt's aber keine Gründe, warum das Feld nicht stärker von MFT durchsetzt sein könnte. So toll sind die dort in diesen APS-C verbauten Sensoren auch nicht, weder die alten Canon 24MP, noch die von Sony oder Nikons ewiger 20MP. Das ist das, was ich nicht verstehe. Die G100 verkauft sich offenbar gut aber die GX9 wird nicht mehr produziert, die G97 (ehemals G90/91/95) ist nach wie vor hervorragen und mit dem ziemlich guten 12-60/3.5-5.6 bietet sie Spritzwasserschutz, IBIS und ganz gute Video-Leistung. Es weiß nur kaum jemand dass es die Kamera überhaupt gibt. Die EM10 Mark4 gibt es ab ca. 700€ mit Objektiv. Das sind alles Kameras mit einer IMX269-Version und man hat irgendwie das Gefühl die Hersteller haben das bereits abgehackt und arbeiten an was anderem oder eventuell auch an gar nichts. Gar nichts wäre aber gar nicht gut. Ich kann mir nicht vorstellen, dass man ohne brauchbare kleine Modelle langfristige überleben kann. outofsightdd und panasonictraum haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden