Jump to content

Fragen zum High Res Modus bei Olympus


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 22 Minuten schrieb Helios:

Ich habe lediglich darauf hingewiesen, dass deine Berechnung falsch ist

Eine derartig abwertende Bewertung "FALSCH" bedarf bitte einer ausreichenden Begründung und Herleitung, ich bitte darum sonst ist mir das zu "persönlich".

Link zum Beitrag
Auf anderen Seiten teilen

vor 51 Minuten schrieb 01af:

lenkt nur ab von dem eigentlichen Disput – nämlich der Frage, ob das Objektiv bei einer Sensor-Auflösungssteigerung durch High-Res-Trick weniger gefordert werde als durch einen (gleich großen) Sensor mit entsprechend mehr Pixeln. Und die Antwort auf diese Frage lautet: nein.

Vielleicht ist einfach die Frage falsch gestellt. Richtig wäre die Frage inwieweit die optische Leistungsfähigkeit den möglichen Auflösungsgewinn beschränkt. Wronski et al. schreiben dazu:

Zitat

The most important factor is the sampling ratio* at the focal plane, or sensor array. In practical terms, this means the lens must be sharp enough to produce a relatively small lens spot size compared to the pixel size.

*Ratio of the diffraction spot size of the lens to the number of pixels in the spot. A sampling ratio of two and above avoids aliasing.

Der Diffraction Spot (Airy-Scheibchen) wird theoretisch in einem idealen System von der Wellenlänge des Lichts und der Blende bestimmt - praktisch natürlich vom gesamten optischen System und wird naturgemäß eher größer. Schon bei moderaten Blenden übersteigt die Größe des Scheibchen schnell die Pixegröße (bei F2.8, 550nm Wellenlänge ist es ca. 3,75µm, ein 20MP mFT Sensor hat 3,3µm). Selbst bei einem idealen optischen System sind wir schnell am Limit. Nicht umsonst beschränkt Olympus dass auf Blende 8.

Und weiter:

Zitat

The combination of our algorithm and the phone’s optical system leads to significantly improved results at 1.5× zoom, small improvement up to 2× zoom and no additional resolution gains returns thereafter. Those results suggest that our algorithm is able to deliver resolution comparable to a dedicated tele lenses at modest magnification factors (under 2×).

Auch in den anderen Papers die zitiert werden oder die ich so gefunden habe wird aktuell von einem maximalen Zugewinn an Auflösung ein Faktor von 1.5 - 2.5 ausgegangen - bei einem idealen optischen System. Dies ist auch mit meinen Test vergleichbar - bei Blende 4 und der G9 war der von mir geschätzte Zugewinn bei ca. 1.5x, was hier und auch anderswo gezeigt wurde geht auch durchaus in die Richtung 2x. Also eine effektive Auflösung von 30-40Mpx - was ja schon sehr beachtlich ist. Alles darüber hinaus ist eher eine "Leervergrößerung" ohne zusätzlichen Informationsgewinn. Mit AI wird da in Zukunft sicherlich mehr möglich sein.

Zitat

Und genau diese Antwort ist aus meiner Sicht noch nicht auf einfache und klar verständliche Weise, frei von persönlichen Dingen veranschaulicht bzw. beantwortet worden.

Die Frage lässt sich so beantworten - je besser das optische System desto größer der mögliche Zugewinn an Auflösung bei nicht AI basierten Algorithmen. Oder kurz: "Sh.. in, Sh.. out"

Link zum Beitrag
Auf anderen Seiten teilen

vor 46 Minuten schrieb pizzastein:

Was das Objektiv nicht an Details liefert, kann der Sensor nicht erfassen (egal, ob mit HighRes oder nativ hoher Auflösung). Alles andere würde bedeuten, das Sensor zaubert Details hervor, die nicht da waren.

Wenn man hier so liest, könnte man durchaus auch zu einer anderen Konklusion kommen. Ausser du meinst, dass das Objektiv so schlecht ist, dass es sogar bei einer einzelnen Aufnahme schon stark den Sensor hindert seine Auflösung zu erreichen (also um den Faktor 1-2x den man mit der Mehrfachaufnahme etwa herausholen kann).

 

Wobei dies ja genau die Definition der HiRes Technik ist...

"Alles andere würde bedeuten, das Sensor zaubert Details hervor, die nicht da waren." 

Link zum Beitrag
Auf anderen Seiten teilen

Am 16.4.2020 um 11:50 schrieb Aaron:

Benutze ich nun ... bei mFT einen 80 MP Sensor (egal ob nativ oder durch Verwackeln) ...

Um die Theorie noch ein bisschen grauer zu machen, weise ich darauf hin, dass die Rechnung "80 Mpx = 80 Mpx = 80 Mpx" so auch nicht ganz richtig ist. Über die Unterschiede in der Gesamtleistung zwischen eine hochauflösenden Bayer Sensor, einem Foveon Sensor, bei welchen salopp die 3 Sensorarrays zusammen gezählt werden und einem niedrig auflösenden Sensor mit Pixel Shift wurde in den Foren dieser Welt schon genug gehauen, getreten und gestochen, das müssen wir hier nicht neu aufrollen. Und wenn, dann müsste man noch eine Technik aus der Steinzeit der Digitalfotografie außer Konkurrenz mitlaufen lassen: Monochromsensor mit Filterrad für direkte RGB Auszüge und deren Verrechnung zu einem Farbbild. Diese Technik ist nämlich qualitativ bis heute unschlagbar, aber leider sehr langsam und nur für absolut unbewegte Motive einzusetzen.

Das aber nur nebenbei, denn in der Praxis sind wir hier noch mit einer weiteren Variablen konfrontiert: Elektronische Behübschung des Ergebnisses, um höhere Systemleistung vorzutäuschen. Eine Technik, welcher das in dieser Hinsicht ausnahmsweise wirklich smarte Mobiltelefon schon sehr weit getrieben hat. Ein Vergleich von Ergebnissen müsste sich daher an messtechnischen Vergleichen von Original und bildmäßiger Wiedergabe einer Vielzahl von Motiven orientieren, um elektronischen Mätzchen, welche bestimmte Muster bevorzugen, das Handwerk zu legen. Und gerade das ist wieder praxisfern. Susi Sorglos wird argumentieren "Mit doch egal was der Taschenrechner meint, ich mag es schön schrill bunt, so wie das da". Und wir wissen alle, was sie gerade in der Hand hält.

Und die Erkenntnis? Komplizierte Zusammenhänge lassen sich schwer in einfache Formeln quetschen und am Ende gewinnt sowieso das iPhone.

Ja und nochwas: Wenn wuschler unter dem Gipfelkreuz steht und feststellt "Verdammt, jetzt habe ich die Theorie eingepackt! Ich wollte doch die Kamera mitnehmen!", dann ist die gute Laune sowieso im ... na sie wissen schon.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb tengris:

Elektronische Behübschung des Ergebnisses, um höhere Systemleistung vorzutäuschen. Eine Technik, welcher das in dieser Hinsicht ausnahmsweise wirklich smarte Mobiltelefon schon sehr weit getrieben hat.

Genau darum geht es doch. Denn nichts anderes ist Pixelshift. Sehr gut auch im von Lichthummel geposteten Google Paper erklärt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Minuten schrieb tengris:

weise ich darauf hin, dass die Rechnung "80 Mpx = 80 Mpx = 80 Mpx" so auch nicht ganz richtig ist

Na klar können wir noch über Foveon, Monochromsensor und sonst was an dieser Stelle diskutieren, wozu? Und die elektronischen Mätzchen kürzen sich heraus, wenn wir sie einfach nicht betrachten, bei beiden Seiten. Erkenntnisgewinn lässt sich auch vermeiden wenn alles zu kompliziert betrachtet wird. Ja, bei meiner Berechnung schließen ich alles andere aus, kann das bitte einfach so bewertet werden?

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 13 Minuten schrieb Aaron:

Eine derartig abwertende Bewertung "FALSCH" bedarf bitte einer ausreichenden Begründung und Herleitung, ich bitte darum sonst ist mir das zu "persönlich".

Ich bin dir keine Rechenschaft schuldig. 😉 Spaß beiseite, ich habe die wichtigsten Punkte bereits erwähnt, du hast:

- die Auflösungen über die Fläche berechnet, die Formel bezieht sich aber auf lineare Auflösungen (du müsstest sie entsprechend umstellen)
- die Auflösung des Sensors einheitlich mit 0,5 cy/px angenommen, das ist nicht realistisch, allerdings relevant, da Pixelshift auf diesen Wert einfluss nehmen kann
- bei der Farbauflösung im High-Res-Modus den Pixelversatz nicht berücksichtigt

Ich denke wir sind uns einig darin, dass die Formel nur eine Nährung darstellt und sich Auflösung nicht einfach so auf die Fläche umlegen lässt, zudem auch noch weitere Faktoren mit reinspielen.

Darüber hinaus hast du deine Erfahrungen hier im Thread wie folgt erwähnt:

"Nach meinen Erfahrungen haben die HR Aufnahmen der Olympus Kameras nicht ansatzweise das Niveau einer nativen Sensorauflösung von bspw. 42 MP an KB mit einem eher schlecht auflösenden Objektiv an KB."

Natürlich lässt du dabei offen, welches Objektiv du bei deinen Erfahrungen an der Olympus-Kamera verwendet hast, ebenso sind natürlich "nicht ansatzweise" und "eher schlecht auflösend" relative Begriffe. Ich kann halt nur nicht nachvollziehen, wie deine Berechnung deine Erfahrung bestätigen sollte, selbst wenn die zuvor genannten Punkte richtig eingeflossen wären? Und warum es überhaupt wichtig ist, die persönliche Erfahrungen derart zu bestätigen, wenn daraus keine Gesamtbetrachtung erfolgen soll und andere Werte zu anderen Relationen führen (was hier der Fall ist). 

Link zum Beitrag
Auf anderen Seiten teilen

Es dürfte unbestritten sein, dass die Auflösung des Objektivs der entscheidende Faktor ist; und je dichter die Fotodioden (Pixel) des Sensors gepackt sind, umso besser muss das Objektiv auflösen, damit die vielen Megapixel des Sensors wirklich einen Qualitätsgewinn bedeuten.

Nach meiner (nicht wissenschaftlich-experimentell belegten) Erfahrung bekommt man bessere Bilder mit einem Spitzenobjektiv und einem 8-16MP Sensor als mit einem Flaschenhals und einem 32-61MP Sensor.

Natürlich die allerbesten Ergebnisse mit dem besten Objektiv und einem 61MP- Sensor.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb Helios:

Was die Veranschaulichung angeht, hat @wasabi65 es in Beitrag #184 bereits angesprochen: das schwierigste ist, etwas komplexes möglichst einfach zu erklären, so dass es auf der einen Seite verständlich wird, dabei aber noch immer korrekt bleibt. Ich habe es beispielsweise in Beitrag #13 und weiterführend #45 versucht. Wenn aus deiner Sicht ein Punkt unklar ist, dann Frage doch explizit deswegen nach, und ich bin mir sicher es wird eine vernünftige Antwort kommen (von mir auf jeden Fall). Das setzt aber die notwendige Unvoreingenommenheit voraus, die immer vorhanden sein sollte, wenn etwas nicht bekannt ist. Nur dann bringt ein Erklärungsversuch etwas.

Danke auf jeden Fall für Deine bisherigen Beiträge. Was mir als Laien noch nicht so hundertprozentig klar ist, weshalb es ausgeschlossen ist, dass wenn ein Sensor durch ein Objektiv ein Motiv mehrfach versetzt abscannt, nach der Verrechnung / Interpolation der Einzelbilder nicht mehr Auflösung herauskommen kann, als das Objektiv im Einzelbild zu erzeugen vermag. Unbestritten ist für mich auch, dass die durch HiRes erreichbare Qualitätsverbesserung mit der Qualität des Objektivs ebenfalls steigt.

In Bezug auf die verbesserte Farbauflösung sind mir die Dinge ersichtlich, in dem von mir angesprochenen Punkt nicht.

So dann wird von einigen Postern hier behauptet, dass die mFT Pro Objektive allein aufgund ihrer begrenzten Leistung nicht in der Lage seien, es mit einem Vergleichsbild aus einen nativen 42 mpx Sensor aufzunehmen. Andererseits wird in der Fine Art Printer Ausgabe 01/20 berichtet, dass der Handheld HiRes Modus der E-M1X qualitativ bessere Bildergebnisse liefert als eine 51 mpx Canon EOS  5DS R

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb pizzastein:

Was das Objektiv nicht an Details liefert, kann der Sensor nicht erfassen (egal, ob mit HighRes oder nativ hoher Auflösung). Alles andere würde bedeuten, das Sensor zaubert Details hervor, die nicht da waren.

Auf das Einzelbild bezogen ist das richtig. Aber werden bei dem Versatz des Sensors vom Objektiv auf Pixellevel exakt die gleichen Information / Details eines abgebildeten Objektes abgebildet oder eben verschiedene, welche bei der Zusammensetzung des Gesamtbildes dann zu mehr Informationen führen, als das Objektiv im Einzelbild liefern kann? Das ist meine Überlegung.

Das gleiche Objektdetail landet ja auf einem Bayer-Sensor sozusagen auf einem anderen, oft auch andersfarbigen Pixel. Welche Auswirkungen hat das?

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb tgutgu:

Aber werden bei dem Versatz des Sensors vom Objektiv auf Pixellevel exakt die gleichen Information / Details eines abgebildeten Objektes abgebildet oder eben verschiedene, welche bei der Zusammensetzung des Gesamtbildes dann zu mehr Informationen führen, als das Objektiv im Einzelbild liefern kann.

Wenn das Objektiv feine Strukturen liefert, die der Sensor nicht schon vollständig mit seiner Standardauflösung erfassen kann, dann führt HighRes immer zu einer besseren Detailwiedergabe. Bei allen anständigen mFT-Objetiven dürfte das der Fall sein, da 20MP für die keine besondere Herausforderung sind.

vor 11 Minuten schrieb tgutgu:

Das gleiche Objektdetail landet ja auf einem Bayer-Sensor sozusagen auf einem anderen, oft auch andersfarbigen Pixel. Welche Auswirkungen hat das?

Ich werde mal Vergleiche raussuchen von Kameras, die nur das machen (also vier Einzelbilder kombinieren).

bearbeitet von pizzastein
Link zum Beitrag
Auf anderen Seiten teilen

vor 58 Minuten schrieb Helios:

- die Auflösungen über die Fläche berechnet, die Formel bezieht sich aber auf lineare Auflösungen (du müsstest sie entsprechend umstellen)

- da sich das Ergebnis auch auf eine Fläche bezieht ist es so doch richtig da durchgängig mit Flächen berechnet wurde. Gerade in der 4x größeren Fläche liegt doch der Vorteil des großen Sensors. Das Ergebnis lässt sich ja auch wieder auf einen linearen Wert umstellen.

Wie dem auch sei, am relativen Wert zueinander dürfte sich doch kaum etwas ändern....

 

vor 58 Minuten schrieb Helios:

- die Auflösung des Sensors einheitlich mit 0,5 cy/px angenommen, das ist nicht realistisch, allerdings relevant, da Pixelshift auf diesen Wert einfluss nehmen kann

-welcher Wert wäre realistisch und in welcher Größenordnung nimmt Pixelshift darauf Einfluss?

vor 58 Minuten schrieb Helios:

- bei der Farbauflösung im High-Res-Modus den Pixelversatz nicht berücksichtigt

wieso nicht? Wie hätte ich bei der Farbauflösung den Pixelversatz berücksichtigen müssen?

bearbeitet von Aaron
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb Aaron:

Na klar können wir noch über Foveon, Monochromsensor und sonst was an dieser Stelle diskutieren, wozu?

Die Sinnhaftigkeit dieser Diskussion an dieser Stelle habe ich eigentlich in Zweifel gezogen. Allerdings nicht weil sie nicht relevant ist, sondern weil sie in dieser Runde ohnehin nicht so kompetent und vorurteilsfrei geführt werden kann, dass wir zu letztgültigen Wahrheiten finden. Sie ist allerdings durchaus berechtigt. Denn wir wissen alle, dass nur der Monochromsensor die volle nutzbare Auflösung hat. Bei der Bayer Matrix und der damit berechneten und teilweise interpolierten Information wird die nutzbare Auflösung geringer sein. Das ist auch das Argument der Anbieter von Monochromen Kameras. Eine Monochromumwandlung eines Bayer Sensors wird nie an den Monochromsensor heran reichen. Des gleichen ist die Praxis von Sigma, bei einem Sensor mit 14,7 x 3 Megapixeln forsch auf 46 Megapixel aufzurunden, hinterfragenswert. Ebenso ist es beim Pixelshift. Wenn ich den Sensor um je ein Pixel rauf und runter sowie links und rechts verschiebe, dann habe ich theoretisch die volle Farbauflösung, weil jeder Bildpunkt mit jeder Filterfarbe abgetastet wurde. Wenn ich aber - zur Erhöhung des Auflösungsvermögens um halbe Pixel verschiebe, dann steigt zwar die Auflösung sichtbar an, aber nicht so weit, dass sie mit einem Sensor der vierfachen Pixelzahl Schritt halten würde. Mal abgesehen, dass unterschiedliche Hersteller das Thema Shifting unterschiedlich interpretieren. Und Pixel Shiftung gab es zum ersten Mal mit einem Sensor von 2048 x 2048 Pixeln, also 4 Megapixeln.

Auf deine Berechnungen bezogen bedeutet dies, dass zwar die Formel

   Systemauflösung = (1 / (1/Sensorauflösung + 1/Objektivauflösung))

als richtig außer Zweifel steht, dass aber die dafür eingesetzten Werte hinterfragenswert sind. Selbst unter vereinfachten Bedingungen ist die Aussage 80 MP Sensor (egal ob nativ oder durch Verwackeln) gewagt.

Im Prinzip hätte die angeführte verallgemeinerte Form der Systemauflösung genügt, um alles zu diskutieren. Für eine hohe Systemauflösung ist eine hohe Sensorauflösung UND eine hohe Objektivauflösung erforderlich. Schwächelt das eine, kann auch das andere nicht mehr viel retten. Tiefer muss man nicht ins Detail gehen.

Sobald man aber mit konkreten Zahlen operieren möchte, stößt man auf das Problem, dass die Charakteristik dieser "Auflösungen" völlig unterschiedlich verläuft. Der Sensor ist ein digitales Array von lichtempfindlichen Zellen. Nimmt man damit immer feiner werdende Strukturen auf, dann verläuft das bis etwa zur halben Sensorauflösung linear. Dann kommt man in einen Bereich, wo Moire Effekte auftreten, welche stark von der Orientierung des Linienrasters (horizontal, vertikal, schräg) abhängen. In diesem Bereich kann man schwer eine vernünftige Auflösung angeben. Beim Objektiv ist es ganz anders. Hier verläuft die Charakteristik analog. Feiner werdende Linien werden in der Nähe der Grenzauflösung mit immer geringerer Modulationstiefe übertragen. Das heisst eine Struktur aus schwarzen und weissen Linien verliert an Kontrast und wird immer flauer, bis nur mehr ein mittleres Grau übrig bleibt. Und diese unterschiedlichen Charakteristiken treffen jetzt aufeinander und interagieren zu einem Gesamtergebnis.

Fazit:
Halten wir und an einfache Fakten und überlassen wir die schmutzigen Details den Physikern, Mathematikern und Optikwissenschaftlern. Auf dem hier diskutierten Level führt dies bestenfalls zu unnützen persönlichen Animositäten.

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb Aaron:

Kannst du das bitte belegen bzw. woher stammt diese Aussage?

Hast Du Dir die Beispiele in diesem Thread angesehen? Das ehe ich eine deutliche Detailverbesserung durch HighRes. Das wäre nicht möglich, wenn die Objektive schon bei Standardauflösung an ihrer Grenze wären.

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb tgutgu:

... welche bei der Zusammensetzung des Gesamtbildes dann zu mehr Informationen führen, als das Objektiv im Einzelbild liefern kann? Das ist meine Überlegung.

Hast du dir auch schon einmal überlegt, ob du deinem Kühlschrank mehr Bierflaschen entnehmen könntest, wenn du sie einzeln herausnimmst, als wenn du sie alle auf einmal herausräumst? Wohl kaum, oder? Schließlich hängt die Zahl der Bierflaschen im Kühlschrank nicht davon ab, auf welche Weise und in welcher Reihenfolge man sie herausnimmt.

.

vor 19 Minuten schrieb tgutgu:

Das gleiche Objektdetail landet ja auf einem Bayer-Sensor sozusagen auf einem anderen, oft auch andersfarbigen Pixel. Welche Auswirkungen hat das?

Das bewirkt, daß man aus 40 Mio. Abtastpunkten ein 80-MP-Bild erzeugen kann.

.

vor 10 Minuten schrieb pizzastein:

Wenn das Objektiv feine Strukturen liefert, die der Sensor nicht schon vollständig mit seiner Standardauflösung erfassen kann, dann führt High-Res immer zu einer besseren Detailwiedergabe.

Das war nicht nur nicht die Frage, es ist auch keine Antwort. Denn ein Sensor mit endlich großer Pixelzahl kann niemals alle vom Objektiv gelieferten Informationen erfassen. Deswegen führt eine Erhöhung der Pixelzahl immer zu besseren Detailwiedergabe – egal, auf welche Weise die Erhöhung der Pixelzahl bewerkstelligt wird.

.

vor 6 Minuten schrieb tengris:

Denn wir wissen alle, daß nur der Monochrom-Sensor die volle nutzbare Auflösung hat.

Das ist nicht wahr.

.

vor 6 Minuten schrieb tengris:

Bei der Bayer-Matrix und der damit berechneten und teilweise interpolierten Information wird die nutzbare Auflösung geringer sein.

Die Auflösung einer Kamera mit Bayer-Sensor ist nicht geringer als die einer Monochrom-Kamera mit gleicher Pixelzahl. Sie ist nur anders verteilt. Das Bayer-Prinzip opfert etwas von der räumlichen Auflösung und gewinnt dafür Farbauflösung.

.

vor 6 Minuten schrieb tengris:

Eine Monochromumwandlung eines Bayer-Sensors wird nie an den Monochrom-Sensor heranreichen.

Das gilt nur für Schwarzweißbilder. Für Farbbilder hingegen taugt der Monochrom-Sensor gar nichts.

.

vor 6 Minuten schrieb tengris:

Desgleichen ist die Praxis von Sigma, bei einem [Foveon-]Sensor mit 14,7 × 3 Megapixeln forsch auf 46 Megapixel aufzurunden, hinterfragenswert.

Richtig. Ein Foveon-Pixel ist nicht drei, sondern etwa zwei Bayer-Pixel wert. Die Bildqualität des 14,7-MP-Foveon-Sensors entspricht also ungefähr der eines 30-MP-Bayer-Sensors. Etwa das gleiche Verhältnis gilt auch für Monochrom-Sensoren: Wird die teuer erkaufte Farbinformation eines Bayer-Sensors weggeworfen, um ein Schwarzweißbild zu erzeugen, so entspricht seine Qualität etwa dem, was ein Monochrom-Sensor mit halb so vielen Pixeln erzeugen würde.

.

vor 6 Minuten schrieb tengris:

Wenn ich den Sensor um je ein Pixel auf und nieder sowie links und rechts verschiebe, dann habe ich theoretisch die volle Farbauflösung, weil jeder Bildpunkt mit jeder Filterfarbe abgetastet wurde. Wenn ich aber – zur Erhöhung des Auflösungsvermögens – um halbe Pixel verschiebe, dann steigt zwar die Auflösung sichtbar an ...

Nix "aber". Denn bei Olympus passiert schließlich beides. Erst wird mit Hilfe von vier um je ein Pixel verschobenen Aufnahmen die volle Farbinformation für die ersten 20 Mio. Pixel eingesammelt. Dann erfolgt dasselbe noch einmal, um ein halbes Pixel verschoben, für die zweiten 20 Mio. Pixel. Also acht Aufnahmen insgesamt.

.

vor 6 Minuten schrieb tengris:

... aber nicht so weit, daß sie mit einem Sensor der vierfachen Pixelzahl Schritt halten würde.

40 Mio. Pixel mit voller Farbinformation sind etwa ebenso gut wie 80 Mio. Bayer-Pixel.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Minuten schrieb 01af:

...Denn bei Olympus passiert schließlich beides. Erst wird mit Hilfe von vier um je ein Pixel verschobenen Aufnahmen die volle Farbinformation für die ersten 20 Mio. Pixel eingesammelt. Dann erfolgt dasselbe noch einmal, um ein halbes Pixel verschoben, für die zweiten 20 Mio. Pixel. Also acht Aufnahmen insgesamt...

Das wird leider fast immer bei der Betrachtung "vergessen" und ist, wie ich finde, der eigentliche Clou. Aber auch nur bei der Verwendung des Stativ-Modus'.

Link zum Beitrag
Auf anderen Seiten teilen

55 minutes ago, tengris said:

Des gleichen ist die Praxis von Sigma, bei einem Sensor mit 14,7 x 3 Megapixeln forsch auf 46 Megapixel aufzurunden, hinterfragenswert.

7 minutes ago, 01af said:

Richtig. Ein Foveon-Pixel ist nicht drei, sondern etwa zwei Bayer-Pixel wert. Die Bildqualität des 14,7-MP-Foveon-Sensors entspricht also ungefähr der eines 30-MP-Bayer-Sensors. […]

Es ist einfach eine Frage der Definition. Sigma bezieht sich bei der Angabe der MP-Zahl auf die Anzahl der Sensorpixel und diese betragen nunmal bspw. 15,4 x 3 = 46 MP (wie bei jedem Sensor ist die effektive Fläche aber dann etwas geringer und entspricht den 14,7 x 3 = 44 MP).  Bezieht man sich auf die Pixelanzahl der Ausgabedatei, dann erhält man natürlich keine 44/46 MP. Allerdings ließe sich bei Bezug auf die Ausgabedatei infolge auch nicht minder die Angabe der MP-Zahl aus Bayer-Sensoren hinterfragen, welche aus großteils interpolierten Farbinformationen besteht …

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb tengris:

(...)

Sobald man aber mit konkreten Zahlen operieren möchte, stößt man auf das Problem, dass die Charakteristik dieser "Auflösungen" völlig unterschiedlich verläuft. Der Sensor ist ein digitales Array von lichtempfindlichen Zellen. Nimmt man damit immer feiner werdende Strukturen auf, dann verläuft das bis etwa zur halben Sensorauflösung linear. Dann kommt man in einen Bereich, wo Moire Effekte auftreten, welche stark von der Orientierung des Linienrasters (horizontal, vertikal, schräg) abhängen. In diesem Bereich kann man schwer eine vernünftige Auflösung angeben. Beim Objektiv ist es ganz anders. Hier verläuft die Charakteristik analog. Feiner werdende Linien werden in der Nähe der Grenzauflösung mit immer geringerer Modulationstiefe übertragen. Das heisst eine Struktur aus schwarzen und weissen Linien verliert an Kontrast und wird immer flauer, bis nur mehr ein mittleres Grau übrig bleibt. Und diese unterschiedlichen Charakteristiken treffen jetzt aufeinander und interagieren zu einem Gesamtergebnis.

(...)

Der von mir hervorgehobene Testteil zeigt m. E. einen wesentlichen Aspekt, der schon immer seit Anwendung von Digitalsensoren glatt vergessen, bzw. fasch "gesehen" wird. Ich stellte immer wieder fest, dass besagte Moiré-Effekte für Auflösung gehalten wurden. Im Vergleich mit dem Original stellt sich dann schnell heraus, dass da eigenlich nichts aufzulösen ist, bzw. die originale Struktur nichts mit der nach der Aufnahmekette angezeigten Struktur zu tun hat. Den Moiré-Effekt kann man für messtechnische Zwecke nutzen (das habe ich 2 Jahrzehnte lang beruflich gemacht), aber das sind "Auflösungen", die mit der abgetasteten Struktur nichts gemeinsam haben, rein rechnerische Werte, und die Strukturen müssen regelmäßig sein.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb 01af:

Hast du dir auch schon einmal überlegt, ob du deinem Kühlschrank mehr Bierflaschen entnehmen könntest, wenn du sie einzeln herausnimmst, als wenn du sie alle auf einmal herausräumst? Wohl kaum, oder? Schließlich hängt die Zahl der Bierflaschen im Kühlschrank nicht davon ab, auf welche Weise und in welcher Reihenfolge man sie herausnimmt.

Du gehst nicht auf meine Fragen ein. Diese Art von Analogien a la Bier aus Kühlschrank bringen (mir) nichts. Meine Frage war, ob es so ist, dass wenn ich den Sensor verschiebe und jeweils eine andere Einzelaufnahme mache, tatsächlich immer die gleichen Details abgebildet werden oder allein durch den Shift mehr Informationen zur Verfügung stehen und in der Zusammenrechnung zu mehr Informationen führen als das Objektiv im Einzelbild abbilden kann. Da sehe ich keinen Zusammenhang zu dem Bierflaschen-Kühlschrank Beispiel.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb pizzastein:

Hast Du Dir die Beispiele in diesem Thread angesehen? Das ehe ich eine deutliche Detailverbesserung durch HighRes. Das wäre nicht möglich, wenn die Objektive schon bei Standardauflösung an ihrer Grenze wären.

Ja. Ich sehe da zwar eine Detailverbesserung, diese stellt mich jedoch relativ nicht zufrieden. Auch wenn die Objektive nur "Standardauflösung" (= 20 MP) können ist bei einer Erhöhung der Sensorauflösung IMMER auch eine Erhöhung in der resultierenden Bildauflösung festzustellen, oder hattest du meinen Beitrag dazu nicht gelesen? #180

Jedenfalls traue ich mir nicht zu anhand der  in Forumsauflösung geposteter Bidchenauf eine Objektivauflösung >= 20 MP zu schließen...

vor 27 Minuten schrieb tgutgu:

Kannst Du den umgekehrten Fall, den Du ja postuliert hast, belegen?

An welcher Stelle habe ich das postuliert? Mit einer vereinfachten Berechnungsformel habe ich dargestellt, dass das selbe Objektiv bei einer Auflösung von 150 lp/mm am 24 x 36 mm Sensor 78 MP Details auflösen kann und am 13 x 18 mm Sensor 21 MP Details. Somit würde dieses Objektiv ab einer Sensorauflösung > 21 MP limitieren. Ich gehe nicht davon aus, dass insbesondere Zoomobjektive, dazu zähle ich auch die PRO Linsen, 150 lp/mm durchgängig und am Rand auflösen können. Letzlich entscheiden Ergebnisse im Bild und diese lassen sich einfach vergleichen, jenseits jeder Theorie!

bearbeitet von Aaron
Link zum Beitrag
Auf anderen Seiten teilen

vor 25 Minuten schrieb Aaron:

Ich gehe nicht davon aus, dass insbesondere Zoomobjektive, dazu zähle ich auch die PRO Linsen, 150 lp/mm durchgängig und am Rand auflösen können. Letzlich entscheiden Ergebnisse im Bild und diese lassen sich einfach vergleichen, jenseits jeder Theorie!

Das ist sicherlich zutreffend. Das schaffen aber auch nicht die hochwertigen KB Zooms. Wo die mFT Pro Objektive im Vergleich liegen, fehlt mir bislang jede Information.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...