Jump to content

Fragen zum High Res Modus bei Olympus


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor einer Stunde schrieb tgutgu:

Da sehe ich keinen Zusammenhang zu dem Bierflaschen-Kühlschrank-Beispiel.

Das ist das Problem. :(

Also schön, ich kau's dir vor: Der Kühlschrank ist das Objektiv. Die Gesamtheit der Bierflaschen darin sind das vom Objektiv zur Verfügung gestellte Bild. Du bist der Sensor. Die Flaschen, die du herausnimmst, sind die vom Sensor abgetasteten Bilddetails.

Und ob du nun alle Flaschen auf einmal (= Einzelaufnahme mit hochauflösendem Sensor) oder immer nur ein paar Flaschen in mehreren Schüben (= High-Res-Aufnahme) herausnimmst – die Gesamtmenge der herausnehmbaren Flaschen bleibt dieselbe. Was der Kühlschrank halt hergibt. Es existiert kein Trick, der dir erlaubt, mehr Flaschen aus dem Kühlschrank herauszunehmen, als drin sind.

Die Art, wie du zehn oder zwanzig oder alle Flaschen herausnimmst, hat keinen Einfluß darauf, wieviele Flaschen du am Ende herausgenommen haben wirst. Wenn du zehn Flaschen herausnimmst, ist es egal, ob du erst fünf und dann nochmal fünf oder gleich zehn Flaschen herausnimmst – in beiden Fällen hättest du fünf Liter Bier herausgenommen (wenn's 0,5-l-Flaschen wären).

Deine Frage in Beitrag #210 läuft darauf hinaus, ob die fünf Liter in den zweimal fünf Flaschen mehr sein könnten als die fünf Liter in den zehn Flaschen.

bearbeitet von 01af
Link zum Beitrag
Auf anderen Seiten teilen

Ist keine Analogie zu meiner Frage. Ein Gegenstand hat zweifelsohne mehr Details als das Objektiv auflösen kann. Wenn ich aber durch den Shift bei jedem Einzelbild andere Details aufnehme (?) und beim Zusammensetzen kombiniere, erhalte ich zusätzliche Informationen. Oder ist das ein Denkfehler?

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Aaron:

Ich bin dafür sofort 10 Flaschen herauszunehmen, PROST!

Ich sehe schon ... ich hätte die Analogie mit Champagner-Flaschen aufziehen sollen ...

.

vor 9 Minuten schrieb Aaron:

viel altes und neues Glas

Hauptsache, volles Glas. PROST!

Link zum Beitrag
Auf anderen Seiten teilen

41 minutes ago, 01af said:

Wenn du zehn Flaschen herausnimmst, ist es egal, ob du erst fünf und dann nochmal fünf oder gleich zehn Flaschen herausnimmst […]

Ich nähme lieber gleich alle zehn aus dem Kühlschrank, denn nach fünf Flaschen Bier bin ich mir nicht mehr so sicher ob die nächsten fünf auch alle heil ankommen und es aufgrund von Bewegungsunschärfen nicht doch zu "Informationsverlust" käme …

Link zum Beitrag
Auf anderen Seiten teilen

Um der Frage nachzugehen, ob auch eher schlechter auflösende Linsen bei HighRes MFT einen Detailgewinn erfahren, habe ich das Ol75-300 an der M5III bei 300mm, ISO 200 und f6.7 auf eine ebene Fläche gelegt und zwei Bilder gemacht. Das eine per 2s Selbstauslöser und elektronischem Verschluss, das andere im HighRes-Modus. Beide Bilder sind starke Crops und auf Forumgröße verkleinert. Entfernung zum Motiv ca. 10m. JPEG ooc. Die RAWs gucke ich mir noch an. Das Ergebnis war mehrfach reproduzierbar.

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 38 Minuten schrieb 01af:

Ich sehe schon ... ich hätte die Analogie mit Champagner-Flaschen aufziehen sollen ...

.

Hauptsache, volles Glas. PROST!

Ich sehe schon, auf Klärungsfragen sachlich und kompetent einzugehen, ist Dir nicht möglich. Nun denn, dann ist es eben so. Kannst gerne auch noch einen Bierdosenvergleich hinzufügen.

Experten handeln anders.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb 01af:

Der Kühlschrank ist das Objektiv. Die Gesamtheit der Bierflaschen darin sind das vom Objektiv zur Verfügung gestellte Bild. Du bist der Sensor. Die Flaschen, die du herausnimmst, sind die vom Sensor abgetasteten Bilddetails.

Wenn das Objektiv nicht schon bei einem einzigen Foto die Auflösung limitiert, dann kriegst du bei zwei bis acht Mal öffnen des Kühlschranks jedes Mal mehr Bier als nur mit einmal öffnen. Weil dein Durst limitierend ist und nicht der Kühlschrank.

😎

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb 01af:

Was der Kühlschrank halt hergibt. Es existiert kein Trick, der dir erlaubt, mehr Flaschen aus dem Kühlschrank herauszunehmen, als drin sind.

Übrigens, das erinnert mich an einen alten Mathematiker-Witz:

Sitzt ein Mathematik-Professor zusammen mit drei Studenten in einem Seminarraum. Plötzlich stehen fünf Studenten auf und verlassen den Raum. Denkt sich der Prof: "Wenn jetzt noch zwei reinkommen, ist gar keiner mehr da."

Wer diesen Witz nicht lustig findet, wird wohl auch glauben, der High-Res-Modus gäbe mehr Details, als das Objektiv liefern kann ...

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb 01af:

Denn ein Sensor mit endlich großer Pixelzahl kann niemals alle vom Objektiv gelieferten Informationen erfassen. Deswegen führt eine Erhöhung der Pixelzahl immer zu besseren Detailwiedergabe – egal, auf welche Weise die Erhöhung der Pixelzahl bewerkstelligt wird.

Mathematisch stimmt das wohl, bei meiner Ausführung dachte ich an praktische Relevanz.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb tgutgu:

Was mir als Laien noch nicht so hundertprozentig klar ist, weshalb es ausgeschlossen ist, dass wenn ein Sensor durch ein Objektiv ein Motiv mehrfach versetzt abscannt, nach der Verrechnung / Interpolation der Einzelbilder nicht mehr Auflösung herauskommen kann, als das Objektiv im Einzelbild zu erzeugen vermag. 

Mir ist ehrlich gesagt nicht klar, was du mit "Einzelbild" meinst? Deshalb fällt es mir schwer darauf zu antworten, ohne doch nur wieder zu wiederholen, was ich zuvor bereits geschrieben habe. 

vor 5 Stunden schrieb tgutgu:

So dann wird von einigen Postern hier behauptet, dass die mFT Pro Objektive allein aufgund ihrer begrenzten Leistung nicht in der Lage seien, es mit einem Vergleichsbild aus einen nativen 42 mpx Sensor aufzunehmen. Andererseits wird in der Fine Art Printer Ausgabe 01/20 berichtet, dass der Handheld HiRes Modus der E-M1X qualitativ bessere Bildergebnisse liefert als eine 51 mpx Canon EOS  5DS R

Nun, auch auf dieses Problem wollte ich mit meinem Hinweis zur Testerei bzw. den persönlichen Erfahrungen hinaus. Im Einzelfall und unter Einbeziehung konkreter Einflüsse in der jeweiligen Situation ist vieles möglich, deshalb wird daraus aber noch lange kein objektiver Fakt. Der High-Res-Modus kann eine höhere Auflösung bieten als ein 42-MP-Bayersensor, er kann es aber auch nicht. Die Diskussion darüber mit dem Ziel von Absolutismen ist genauso zielführend wie die Frage, welche Marke die beste Kamera baut. 

vor 3 Stunden schrieb Aaron:

da sich das Ergebnis auch auf eine Fläche bezieht ist es so doch richtig da durchgängig mit Flächen berechnet wurde.

Nur weil x+y=z ist kannst du daraus nicht x²+y²=z² machen. Wenn du unbedingt mit der in MP ausgedrückten Flächenauflösung rechnen möchtest, dann musst du dir die Formel entsprechend anpassen. 

vor 3 Stunden schrieb Aaron:

welcher Wert wäre realistisch und in welcher Größenordnung nimmt Pixelshift darauf Einfluss?

Ein realistischer Schätzwert liegt bei etwa 0,35 cy/px, plus/minus. Das Problem ist der Pixelshift, theoretisch kannst du damit nahe an die 0,5 cy/px heran kommen (16 Bilder), 0,45 cy/px sind nicht unrealistisch (8 Bilder) - es kommt, wie so häufig bei der Auflösung, auf die Kontraste an.

vor 4 Stunden schrieb Aaron:

wieso nicht? Wie hätte ich bei der Farbauflösung den Pixelversatz berücksichtigen müssen?

Nun, im Endeffekt werden zwei Vollfarbaufnahmen mit jeweils 20 MP miteinander verrechnet, du erhälst ja kein 80 MP Bild mit Bayer-Matrix. Die Gesamtfarbauflösung unterscheidet sich nicht signifikant von der Gesamtauflösung.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb Helios:

Mir ist ehrlich gesagt nicht klar, was du mit "Einzelbild" meinst?

Mit Einzelbild meine ich die während des HiRes Aufnahmeprozess jeweils versetzten einzeln aufgenommenen Bilder, die später zu einem Gesamtbild verrechnet werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb tgutgu:

... oder allein durch die Verschiebung mehr Informationen zur Verfügung stehen und in der Zusammenrechnung zu mehr Informationen führen, als das Objektiv im Einzelbild abbilden kann.

vor 27 Minuten schrieb tgutgu:

Mit Einzelbild meine ich die während des High-Res-Aufnahmeprozesses jeweils versetzten einzeln aufgenommenen Bilder, die später zu einem Gesamtbild verrechnet werden.

Ach so!? Ja dann ... ja, selbstverständlich enthält das durch Sensorverschiebung zusammengerechnete Bild mehr Informationen als das "Einzelbild". Aber das hat doch mit dem Objektiv nichts zu tun. Ich kann einfach nicht verstehen, warum du (und Zapper) so kritisch aufs Objektiv glotzt, während am Sensor herumgeschraubt wird (soll heißen, Normal- vs High-Res-Modus). Fällt es euch wirklich so schwer zu unterscheiden, was Objektiv und was Sensor ist?

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 38 Minuten schrieb 01af:

Ach so!? Ja dann ... ja, selbstverständlich enthält das durch Sensorverschiebung zusammengerechnete Bild mehr Informationen als das "Einzelbild". Aber das hat doch mit dem Objektiv nichts zu tun. Ich kann einfach nicht verstehen, warum du (und Zapper) so kritisch aufs Objektiv glotzt, während am Sensor herumgeschraubt wird (soll heißen, Normal- vs High-Res-Modus). Fällt es euch wirklich so schwer zu unterscheiden, was Objektiv und was Sensor ist?

 

Es geht um die Frage, ob durch den Shift ggf. mehr Auflösung herauskommt, als das Objektiv bei einem Einzelbild aufzulösen vermag. Selbstverständlich weiß ich zwischen Sensor und Objektiv zu unterscheiden.

Beim Handheld Modus wird nicht am Sensor „herumgeschraubt“, sondern es wird ausgenutzt, dass der Fotograf die Kamera nicht ruhig halten kann wodurch der „Shift“ erzeugt wird. Am Ende werden unterschiedliche Einzelbilder auf den Sensor abgebildet, die zusammengerechnet werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb 01af:

 Fällt es euch wirklich so schwer zu unterscheiden, was Objektiv und was Sensor ist?

 

Keine Ahnung, warum du behauptest, ich könne nicht zwischen Objektiv und Sensor unterscheiden. Entweder du verstehst mich falsch oder du willst mich falsch verstehen.  Ist mir aber beides relativ gleichgültig.

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb 01af:
vor 6 Stunden schrieb tengris:

Eine Monochromumwandlung eines Bayer-Sensors wird nie an den Monochrom-Sensor heranreichen.

Das gilt nur für Schwarzweißbilder. Für Farbbilder hingegen taugt der Monochrom-Sensor gar nichts.

In einem vorangehenden Beitrag habe ich geschrieben

vor 7 Stunden schrieb tengris:

eine Technik aus der Steinzeit der Digitalfotografie ... Monochromsensor mit Filterrad für direkte RGB Auszüge und deren Verrechnung zu einem Farbbild.

Diese Technik stammt eigentlich aus der Steinzeit der Glasplattenfotografie, aber in der digitalen Frühzeit wurde sie wieder aufgenommen. Es gab 2 Varianten:

Scanback mit einem Zeilensensor und RGB Filterrad. Damit wird je eine Aufnahme mit einem roten, grünen und blauen Farbauszugsfilter gemacht. In Sachen Aufwand und Aufnahmezeit die Höchststrafe, da schon alleine das Abscannen größenordnungsmäßig im Minutenbereich lag und das ganze drei mal notwendig war.

Scanback mit 3 versetzten Zeilensensoren, welche je einen R-, G- und B-Filter trugen. Deutlich schneller, weil in einem Scanvorgang alle RGB Auszüge anfielen.

Monochromer Flächensensor mit RGB Filterrad. Es gab dafür diverse Hardware für Großformatkameras von Sinar. Die würde heute noch funktionieren und könnte z. B. mal mit dem neuen Monochromback von Phase One kombiniert werden, wenn's ein bisschen besser sein darf. Damit wird je eine Aufnahme mit einem roten, grünen und blauen Farbauszugsfilter gemacht.

In allen Fällen kann aus den Farbauszügen ein Farbbild mit für die gegebene Pixelzahl maximale Qualität zusammen gesetzt werden.

Vorteil:
Keine Verluste, keine Kompromisse. Maximale Ausnützung der gegebenen Pixelzahl ohne Interpolation oder weitergehende elektronische Aufbereitung.

Nachteil:
Je nach Verfahren lange bis extrem lange Aufnahmezeiten. Damit nur für absolut statische Motive anwendbar. Aufwändigere technische Aufbauten erforderlich.

Der Nachteil der mangelnden Eignung für bewegte Motive trifft allerdings auf Pixelshift genau so zu. Der wesentliche Vorteil der aktuellen Lösungen besteht darin, dass sie in eine Kamera integriert werden können und dass die Bordelektronik die Rechnerei übernimmt. Gemäß dem uralten Motto von George Eastman "You press the button, we do the rest".

Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Minuten schrieb tgutgu:

Es geht um die Frage, ob durch den Shift ggf. mehr Auflösung herauskommt, als das Objektiv bei einem Einzelbild aufzulösen vermag. Selbstverständlich weiß ich zwischen Sensor und Objektiv zu unterscheiden.

Beim Handheld Modus wird nicht am Sensor „herumgeschraubt“, sondern es wird ausgenutzt, dass der Fotograf die Kamera nicht ruhig halten kann wodurch der „Shift“ erzeugt wird. Am Ende werden unterschiedliche Einzelbilder auf den Sensor abgebildet, die zusammengerechnet werden.

Das Objektiv löst immer gleich hoch auf, egal ob der Sensor 1 MP oder 80 MP hat. Wenn das Objektiv höher auflöst, als der Sensor zu erfassen vermag, dann helfen eben mehr Pixel oder HighRes.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb Helios:

Nur weil x+y=z ist kannst du daraus nicht x²+y²=z² machen. Wenn du unbedingt mit der in MP ausgedrückten Flächenauflösung rechnen möchtest, dann musst du dir die Formel entsprechend anpassen. 

Mathematisch gebe ich dir Recht, aber die tatsächlich erreichte Bildauflösung hängt ja auch von der Größe des Sensors ab. Also worauf ich hinaus will ist, wie wäre nach deiner Meinung die Formel richtig, um die relevante Sensorgröße zu berücksichtigen?

vor 3 Stunden schrieb Helios:

Nun, im Endeffekt werden zwei Vollfarbaufnahmen mit jeweils 20 MP miteinander verrechnet, du erhälst ja kein 80 MP Bild mit Bayer-Matrix. Die Gesamtfarbauflösung unterscheidet sich nicht signifikant von der Gesamtauflösung.

Das ist interessant, ja das habe ich so nicht bedacht, Danke für diese Info an der Stelle.

Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb marathoni:

Das wird leider fast immer bei der Betrachtung "vergessen" und ist, wie ich finde, der eigentliche Clou. 

Im Endeffekt wäre neben dem High-Res-Modus ein "Vollfarbmodus" mit vier Bildern und einem Pixel Versatz durchaus sinnvoll. Der Auflösungsgewinn wäre zwar im Vergleich geringer, dafür reduziert sich die Aufnahmezeit um die Hälfte und die Rechenzeit sehr dramatisch, die zur Verfügung stehende Rechenleistung könnte besser zur Artefaktvermeidung verwendet werden, und am Ende hätte man ein wirklich tolles (weil sauberes, gut durchzeichnetes) 20-MP-Bild. Ich versuche schon seit Jahren, darauf hin zu wirken...

vor 10 Stunden schrieb tgutgu:

Mit Einzelbild meine ich die während des HiRes Aufnahmeprozess jeweils versetzten einzeln aufgenommenen Bilder, die später zu einem Gesamtbild verrechnet werden.

Genau das passiert ja, in jedem Einzelbild stecken unterschiedliche Informationen, die in der verrechneten Gesamtaufnahme zusammengefügt werden (vereinfacht ausgedrückt). Das Objektiv hat diese Informationen aber die ganze Zeit geliefert, der Sensor konnte sie nur lediglich nicht in einem Bild auflösen. Und weil die Sensorauflösung durch den Pixelshift stark ansteigt, spielt die Objektivauflösung eine entscheidende Rolle bei der Beurteilung der Gesamtauflösung. 

vor 6 Stunden schrieb Aaron:

Mathematisch gebe ich dir Recht, aber die tatsächlich erreichte Bildauflösung hängt ja auch von der Größe des Sensors ab. Also worauf ich hinaus will ist, wie wäre nach deiner Meinung die Formel richtig, um die relevante Sensorgröße zu berücksichtigen?

Wenn du die Gesamtauflösung wissen möchtest, dann verrechnest du üblicherweise einfach die lineare Systemauflösung mit der physischen Sensorgröße, denn auf die bezieht sich ja sowohl die genutzte Objektivauflösung wie auch die Sensorauflösung. Alternativ kannst du dir auch die Formel umstellen (was ich hier nicht mache, weil ich davon nichts halte, so schwer ist das aber nicht ;) ). 

Aber selbst wenn du all das berücksichtigst ist es noch immer nur näherungsweise richtig, weil durchaus sehr relevante Faktoren (bspw. Kontrastverhältnis) gar nicht explizit betrachtet werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb tgutgu:

Ist keine Analogie zu meiner Frage. Ein Gegenstand hat zweifelsohne mehr Details als das Objektiv auflösen kann. Wenn ich aber durch den Shift bei jedem Einzelbild andere Details aufnehme (?) und beim Zusammensetzen kombiniere, erhalte ich zusätzliche Informationen. Oder ist das ein Denkfehler?

Du bekommst sicher mehr Farbinformationen, und damit wahrscheinlich harmonischere Farbverläufe. Ob dadurch auch mehr Strukturen aufgelöst werden ist mir auch nicht klar. 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Helios:

Und weil die Sensorauflösung durch den Pixelshift stark ansteigt, spielt die Objektivauflösung eine entscheidende Rolle bei der Beurteilung der Gesamtauflösung. 

Wieder mal so ein Satz, den man in Stein gemeißelt über den Forumseingang einmauern könnte.

Können wir dann bitte die vorhergehenden 247 Beiträge entsorgen - alles nur Rauschen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb Helios:

... du erhältst ja kein 80-MP-Bild mit Bayer-Matrix.

Doch. Beim Stativ-High-Res-Modus erhältst du genau das. Und bei Freihand-High-Res gibt's ein 50-MP-Bild mit Bayer-Matrix.

Stellt sich die Frage, warum Olympus das vom 20-MP-Bayer-Sensor im Stativ-High-Res-Modus gelieferte 40-MP-Vollfarbbild künstlich in eine 80-MP-Bayer-Rohdatei umwandelt. Ich vermute, es ist wegen der Speicherplatzersparnis und weil sich eine Rohdatei in der gegenwärtigen Software-Landschaft einfacher und flexibler handhaben läßt.

.

vor 5 Stunden schrieb tgutgu:

Es geht um die Frage, ob durch den Shift ggf. mehr Auflösung herauskommt, als das Objektiv bei einem Einzelbild aufzulösen vermag.

Das ist eine sinnlose Frage, denn – wie supmylo bereits sagte – was das Objektiv aufzulösen vermag, hängt nicht davon ab, was der Sensor für Purzelbäume vollführt.

Die Fragen, um die es tatsächlich geht, sind die, ob durch den High-Res-Modus wirklich mehr Details im fertigen Bild sichtbar würden als bei einer Normalaufnahme (Antwort: ja) und ob dafür das Objektiv mit weniger Leistung auskomme, als wenn man anstelle des High-Res-Modus einen (hypothetischen) Sensor einsetzte, der die Auflösung des High-Res-Modus mit einer Einzelaufnahme zustandebringt (Antwort: nein).

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Minuten schrieb micharl:

Wieder mal so ein Satz, den man in Stein gemeißelt über den Forumseingang einmauern könnte.

Können wir dann bitte die vorhergehenden 247 Beiträge entsorgen - alles nur Rauschen.


Aber darum dreht es sich doch die ganze Zeit, weil genau das eben hier von einigen bestritten wurde.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...