Jump to content

Fragen zum High Res Modus bei Olympus


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 1 Stunde schrieb Helios:

Wenn du die Gesamtauflösung wissen möchtest, dann verrechnest du üblicherweise einfach die lineare Systemauflösung mit der physischen Sensorgröße, denn auf die bezieht sich ja sowohl die genutzte Objektivauflösung wie auch die Sensorauflösung.

Was verstehst du unter linearer Systemauflösung? Meinst du die Sensorauflösung? Die Gesamt-Systemauflösung ist ja unbekannt und soll ermittelt werden. Falls du die Sensorauflösung meinst habe ich diese ja genau mit der physischen Sensorgröße verrechnet, deswegen die Umrechnung von lp/mm in eine Fläche entsprechend der Sensorgröße, also MP auch beim Objektiv auf die projizierte Fläche.

bearbeitet von Aaron
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Aaron:

Was verstehst du unter linearer Systemauflösung? Meinst du die Sensorauflösung? Die Gesamt-Systemauflösung ist ja unbekannt und soll ermittelt werden. Falls du die Sensorauflösung meinst, habe ich diese ja genau mit der physischen Sensorgröße verrechnet, deswegen die Umrechnung von lp/mm in eine Fläche entsprechend der Sensorgröße, also MP auch beim Objektiv auf die projizierte Fläche.

Ich muß Helios zustimmen: Deine Berechnungen in Beitrag #180 sind fehlerhaft und somit für die Katz'.

Die von dir zugrundegelegte Formel

Zitat

Systemauflösung = 1 / (1/Sensorauflösung + 1/Objektivauflösung)

bezieht sich auf lineare Auflösungen. Du berechnest jedoch auf die Fläche bezogene Auflösungen und steckst diese dann einfach in obige Formel. Das funktioniert so nicht. Im übrigen sind deine Auflösungswerte fürs Objektiv ziemlich willkürlich an den Haaren herbeigezogen.

Belaß es doch einfach dabei: Wird bei gleichbleibender Objektivauflösung die lineare Sensorauflösung verdoppelt, so erhöht sich, abhängig von der gegebenen Objektivauflösung, die lineare Systemauflösung um einen Faktor, der größer ist als eins und kleiner als zwei. Mit schwachen Objektiven ist die Zunahme der linearen Systemauflösung näher bei 1×, mit exzellenten Objektiven näher bei 2× (ohne aber jemals exakt 2× zu erreichen ... in der Praxis wäre, sagen wir, 1,7× schon ein sehr guter Wert).

Wie die Erhöhung der Sensorauflösung bewerkstelligt wird – sei es durch Sensorverschiebung (Stativ-High-Res) oder Kameraverschiebung (Freihand-High-Res) oder durch einen neuen Sensor mit mehr Pixeln – spielt dabei keine Rolle.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Aaron:


Aber darum dreht es sich doch die ganze Zeit, weil genau das eben hier von einigen bestritten wurde.

Das wurde nicht bestritten. Es geht auch nicht um die „Purzelbäume“ des Sensors, sondern um die Verrechnung der Einzelbilder, und ob dabei mehr Informationen herauskommen, als das Objektiv im Einzelbild allein zu liefern vermag und ob dabei die Auflösung des Objektiv tatsächlich die Grenze auch für das errechnete Gesamtbild darstellt (was ich per se nicht bestreite, aber es ist mir noch nicht schlüssig dargelegt worden, da helfen kein Bierflaschenanalogien). Dass eine höhere Auflösung des Objektivs im ganzen Prozess förderlich ist bestreitet niemand.

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

Liebe Mitforenten, ich finde diese Diskussion über den HighRes Modus bei mFT Kameras, wenn sie ernsthaft und zielführend geführt wird, sehr hilfreich bei der Vermeidung von Missverständnissen in zahlreichen Diskussionen. Diese sind auch häufig der Grund, dass Diskussionen aus dem Ruder laufen.Lasst uns bitte weiter konstruktiv zu Erkenntnissen kommen, Fehler korrigieren und so ein gesteigertes Interesse an Produkten mit HR-Modus generieren. Solange Zweifel, Unkenntnis, verschleierte Aussagen und Marketingformulierungen einem ein ungutes Gefühl geben und dieses durch Erfahrungen bestätigt wird ist das die Grundlage für "vorsichtige Zurückhaltung"....

Unstrittig ist, dass die Objektivauflösung die entscheidende Rolle spielt, wenn es um die Steigerung der Detailauflösung im fertigen Bild geht. Um ein grundsätzliches und einheitliches Verständnis, zunächst nur zur Objektivauflösung herbeizuführen, bitte ich um Diskussion zu folgenden Fallbeispiel aus #180.

Annahme: Ich habe ein Objektiv welches 150 lp/mm auflöst. Dieses kann ich (per Adapter) sowohl an eine KB-Kamera als auch an eine mFT Kamera anflanschen. Möglich wäre in diesem Betrachtungsfall auch ein natives mFT-Objektiv mit 150 lp/mm.

Jetzt versuche ich diese lineare Objektivauflösung auf die physikalische Sensorgröße (Fläche ) umzurechnen:

KB: 150 lp/mm x 24mm = 3.600 lp x 2= 7200 Pixel ; 150 lp/mm x 36mm = 5.400 lp x 2 = 10.800 Pixel. 10.800 x 7.200 = 77,7 MP

mFT: 150 lp/mm x 13mm = 1950 lp x 2 = 3.900 Pixel; 150 lp/mm x 18mm = 2.700 lp x 2 = 5.400 Pixel. 3.900 x 5.400 = 21,1 MP

Würde diese Berechnung so stimmen wäre die Erkenntnis bzw. Schlussfolgerung, dass eine Aulösungserhöhung des Sensors über 20 MP bei mFT weitaus weniger bringt als bei KB.

Es geht mir hierbei nicht um einen Systemvergleich als solches (obwohl es natürlich einer ist) sondern um den Erkenntnisgewinn zu Hihg Res bei mFT. Mache ich bei obiger Berechnung einen Fehler, falls ja wo? Danke für euere Beteiligung.

bearbeitet von Aaron
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Aaron:

... ich finde diese Diskussion über den High-Res-Modus bei Mikrovierdrittel-Kameras, wenn sie ernsthaft und zielführend geführt wird, sehr hilfreich bei der Vermeidung von Mißverständnissen in zahlreichen Diskussionen. Dies sind auch häufig der Grund, daß Diskussionen aus dem Ruder laufen.Laßt uns bitte weiter konstruktiv zu Erkenntnissen kommen ...

Solange die Antworten auf Fragen ignoriert und stattdessen einfach die Fragen wiederholt werden – da bist du nicht der einzige, der das so macht –, wird das mit zielführender Diskussion und konstruktiven Erkenntnissen nichts werden.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor einer Stunde schrieb tgutgu:

Das wurde nicht bestritten. Es geht auch nicht um die „Purzelbäume“ des Sensors, sondern um die Verrechnung der Einzelbilder, und ob dabei mehr Informationen herauskommen, als das Objektiv im Einzelbild allein zu liefern vermag und ob dabei die Auflösung des Objektiv tatsächlich die Grenze auch für das errechnete Gesamtbild darstellt (was ich per se nicht bestreite, aber es ist mir noch nicht schlüssig dargelegt worden, da helfen kein Bierflaschenanalogien). Dass eine höhere Auflösung des Objektivs im ganzen Prozess förderlich ist bestreitet niemand.

Entweder Du siehst es falsch, oder Du drückst Dich falsch aus, wenn Du „... als das Objektiv im Einzelbild allein zu liefern vermag...“ schreibst. Wie schon oben geschrieben, liefert das Objektiv bei gegebener Blende/Brennweite immer exakt dasselbe Bild, völlig unabhängig davon, welcher Sensor dahinter liegt.

Wenn 100 Leute ins Kino gehen und theoretisch auf demselben Platz sitzen, ist das Bild auf der Leinwand immer dasselbe, kommt aber in unterschiedlicher Qualität in den Gehirnen der Kinobesucher an, weil die Sensoren und die nachgelagerte Datenleitung/Bildverarbeitung unterschiedlich gut sind (Fehlsichtigkeiten, getrübte Linsen, Netzhautdegeneration etc.).

Wenn Du ein schwaches Objektiv verwendest, das feine Details optisch nicht auf den Sensor bringt, kann sich der Sensor das fehlende Detail nicht ausdenken. Da bringt dann eine Pixelerhöhung oder -verschiebung nichts, weil das feine Detail optisch gar nicht auf die Sensorfläche projiziert wird.

Wenn Dein Objektiv allerdings feinere Details liefert, als der dahinterliegende Sensor erfassen kann, hilft die Pixelverschiebung, auch noch diese Details abzutasten. Die Alternative dazu ist eben eine höhere Pixeldichte.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb supmylo:

Entweder Du siehst es falsch, oder Du drückst Dich falsch aus, wenn Du „... als das Objektiv im Einzelbild allein zu liefern vermag...“ schreibst. Wie schon oben geschrieben, liefert das Objektiv bei gegebener Blende/Brennweite immer exakt dasselbe Bild, völlig unabhängig davon, welcher Sensor dahinter liegt.

Wenn 100 Leute ins Kino gehen und theoretisch auf demselben Platz sitzen, ist das Bild auf der Leinwand immer dasselbe, kommt aber in unterschiedlicher Qualität in den Gehirnen der Kinobesucher an, weil die Sensoren und die nachgelagerte Datenleitung/Bildverarbeitung unterschiedlich gut sind (Fehlsichtigkeiten, getrübte Linsen, Netzhautdegeneration etc.).

Wenn Du ein schwaches Objektiv verwendest, das feine Details optisch nicht auf den Sensor bringt, kann sich der Sensor das fehlende Detail nicht ausdenken. Da bringt dann eine Pixelerhöhung oder -verschiebung nichts, weil das feine Detail optisch gar nicht auf die Sensorfläche projiziert wird.

Wenn Dein Objektiv allerdings feinere Details liefert, als der dahinterliegende Sensor erfassen kann, hilft die Pixelverschiebung, auch noch diese Details abzutasten. Die Alternative dazu ist eben eine höhere Pixeldichte.

 

Die Frage von tgutgu lautet eigentlich:

Ist die Auflösung identisch, wenn ich

  1. mit einem gegebenen Objektiv ein Bild auf einen 80MP- Sensor aufnehme, ODER
  2. ich es auf einem 20MP- Sensor aufnehme der 4mal teilpixelweise verschoben wird.
Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Minuten schrieb Markus B.:

Die Frage von tgutgu lautet eigentlich:

Ist die Auflösung identisch, wenn ich

  1. mit einem gegebenen Objektiv ein Bild auf einen 80MP- Sensor aufnehme, ODER
  2. ich es auf einem 20MP- Sensor aufnehme der 4mal teilpixelweise verschoben wird.

Nein, das ist die Frage, auf die ich geantwortet habe:

vor 2 Stunden schrieb tgutgu:

Es geht auch nicht um die „Purzelbäume“ des Sensors, sondern um die Verrechnung der Einzelbilder, und ob dabei mehr Informationen herauskommen, als das Objektiv im Einzelbild allein zu liefern vermag und ob dabei die Auflösung des Objektiv tatsächlich die Grenze auch für das errechnete Gesamtbild darstellt...

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 35 Minuten schrieb supmylo:

Entweder Du siehst es falsch, oder Du drückst Dich falsch aus, wenn Du „... als das Objektiv im Einzelbild allein zu liefern vermag...“ schreibst. Wie schon oben geschrieben, liefert das Objektiv bei gegebener Blende/Brennweite immer exakt dasselbe Bild, völlig unabhängig davon, welcher Sensor dahinter liegt.

Daran zweifle ich auch nicht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb tgutgu:

Daran zweifle ich auch nicht.

Okay. Da der Sensor aber pixelverschiebenderweise nicht mehr auflösen kann, als ihm das Objektiv liefert, dürfte Deine Frage dann beantwortet sein, oder?

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb supmylo:

Okay. Da der Sensor aber pixelverschiebenderweise nicht mehr auflösen kann, als ihm das Objektiv liefert, dürfte Deine Frage dann beantwortet sein, oder?

Nein, nein, nein!

man kann ganz einfach die Auflösung errechnen und wirklich extreme Details aus sogar schlechten Objektiven hervorholen.

... hab' ich letztens bei CSI Dingsda gesehen, mit Überwachungskamera soweit reinzoomen, dass man Etiketten am Hemd lesen kann ... alles kein Problem ... isch schwör!

 

Disclaimer: der obige Text ist natürlich vollkommen ernst gemeint und bestätigt meinen Glauben an amerikanische Crimeserien ... zu schade, dass die Leute, die sowas da immer zeigen, nicht bei japanischen Kamerafirmen arbeiten wollen :) 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Markus B.:

Die Frage von tgutgu lautet eigentlich: [...]

Nein, so lautet seine Frage eben nicht – siehe Beitrag #237.

.

vor einer Stunde schrieb Markus B.:

Ist die Auflösung identisch, wenn ich

  1. mit einem gegebenen Objektiv ein Bild auf einen 80-MP-Sensor aufnehme, ODER
  2. ich es auf einem 20-MP- Sensor aufnehme, der viermal teilpixelweise verschoben wird.

Und wie oft möchtest du diese Frage noch beantwortet bekommen? Drei- oder viermal reicht nicht?

.

bearbeitet von 01af
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb nightstalker:

man kann ganz einfach die Auflösung errechnen

Der Halbsatz ist korrekt! 😉😎

vor 2 Minuten schrieb nightstalker:

wirklich extreme Details aus sogar schlechten Objektiven hervorholen.

 

Und der ist in gewissen Grenzen nicht falsch. AI basierte Algorithmen, insbesondere wenn die Eigenschaften der Optiken bekannt sind können aus mittelmäßigen Linsen beachtliches herausholen. Hier treiben die Smartphone Hersteller die Entwicklung in hohem Tempo voran. Wenn man sich die Mühe macht und sich etwas ernsthafter damit beschäftigt finden sich wirklich beachtliche Programme. Leider hab ich keine MATLAB Lizenz mehr um das alles auszuprobieren..

Leider wird bei der ganzen Diskussion hier der entscheidende Dritte Faktor ignoriert - nämlich der Algorithmus der aus den Einzelbildern das Gesamtbild errechnet. Und da wissen wir leider ziemlich wenig. Selbst die Frage ob das Gesamtbild vor oder nach dem De-Mosaicing errechnet wird kann nicht beantwortet werden, hat aber maßgeblichen Anteil an der erreichbaren Auflösung. Und viele andere Fragezeichen tun sich hier auf.

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb nightstalker:

Nein, nein, nein!

man kann ganz einfach die Auflösung errechnen und wirklich extreme Details aus sogar schlechten Objektiven hervorholen.

... hab' ich letztens bei CSI Dingsda gesehen, mit Überwachungskamera soweit reinzoomen, dass man Etiketten am Hemd lesen kann ... alles kein Problem ... isch schwör!

 

Disclaimer: der obige Text ist natürlich vollkommen ernst gemeint und bestätigt meinen Glauben an amerikanische Crimeserien ... zu schade, dass die Leute, die sowas da immer zeigen, nicht bei japanischen Kamerafirmen arbeiten wollen :) 

 

Das Gegenbeispiel sind die ganzen UFO-, Nessie- und Yeti-Bilder, die grundsätzlich nur mit schlechtestmöglicher Systemauflösung und Destabilizer geschossen werden.😀

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Minuten schrieb Lufthummel:

Der Halbsatz ist korrekt! 😉😎

Und der ist in gewissen Grenzen nicht falsch. AI basierte Algorithmen, insbesondere wenn die Eigenschaften der Optiken bekannt sind können aus mittelmäßigen Linsen beachtliches herausholen. Hier treiben die Smartphone Hersteller die Entwicklung in hohem Tempo voran. Wenn man sich die Mühe macht und sich etwas ernsthafter damit beschäftigt finden sich wirklich beachtliche Programme. Leider hab ich keine MATLAB Lizenz mehr um das alles auszuprobieren..

Leider wird bei der ganzen Diskussion hier der entscheidende Dritte Faktor ignoriert - nämlich der Algorithmus der aus den Einzelbildern das Gesamtbild errechnet. Und da wissen wir leider ziemlich wenig. Selbst die Frage ob das Gesamtbild vor oder nach dem De-Mosaicing errechnet wird kann nicht beantwortet werden, hat aber maßgeblichen Anteil an der erreichbaren Auflösung. Und viele andere Fragezeichen tun sich hier auf.

Genau auch auf diese Aspekte beziehen sich meine Fragen / Zweifel, ob die Auflösung des Objektivs tatsächlich die Obergrenze des Möglichen darstellt. Ich will nicht in Abrede stellen, dass es so sein könnte.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb 01af:

Doch. Beim Stativ-High-Res-Modus erhältst du genau das.

Ja, das ist ein Fehler meinerseits, weil ich etwas anderes ausdrücken wollte als ich eigentlich geschrieben habe. Worauf ich hinaus wollte ist die unterschiedliche Herleitung, die eine Gleichsetzung nicht erlaubt. 

vor 4 Stunden schrieb Aaron:

Was verstehst du unter linearer Systemauflösung? Meinst du die Sensorauflösung? Die Gesamt-Systemauflösung ist ja unbekannt und soll ermittelt werden. Falls du die Sensorauflösung meinst habe ich diese ja genau mit der physischen Sensorgröße verrechnet, deswegen die Umrechnung von lp/mm in eine Fläche entsprechend der Sensorgröße, also MP auch beim Objektiv auf die projizierte Fläche.

Du hast doch folgende Formel in Beitrag #180 genannt:

Systemauflösung = 1/ (1/Sensorauflösung + 1/ Objektivauflösung)

Wie bereits dargelegt gilt diese als grobe Nährung für lineare Auflösungen, wenn du sie überhaupt verwenden willst musst du die lineare Sensorauflösung und lineare Objektivauflösung einsetzen und erhältst hinterher die lineare Systemauflösung. Aus der wiederum kannst du, wenn du es unbedingt möchtest, auch eine Flächenauflösung errechnen. Dazu musst du dann einfach die lineare Systemauflösung mit den Sensordimensionen verrechnen. 

Wenn das alles aber böhmische Dörfer für dich sind, frage ich mich (und das meine ich explizit nicht persönlich), warum du es in das Thema überhaupt einbringst? Das ist nicht persönlich gemeint, aber der Informationsgehalt für die Diskussion ist damit eh nicht signifikant zu steigern, und diese Systemfrage überflüssig, weil nicht allgemein beantwortbar (das kann ich dir jetzt schon verraten, weil ich diese Vergleiche selbst bereits im Labor durchgeführt habe). 

vor 2 Stunden schrieb tgutgu:

das Objektiv im Einzelbild allein zu liefern vermag und ob dabei die Auflösung des Objektiv tatsächlich die Grenze auch für das errechnete Gesamtbild darstellt (was ich per se nicht bestreite, aber es ist mir noch nicht schlüssig dargelegt worden

Da du immer noch davon sprichst, dass das Objektiv etwas "im Einzelbild allein zu liefern vermag" weiß ich ehrlich gesagt nicht, wie man es noch anders als bisher von verschiedenen Seiten beschrieben darlegen soll? Das Objektiv projiziert eine statische Abbildung in eine Ebene, also einen fixen Informationsstand, völlig egal was sich dort befindet. Wenn es ein Sensor ist, dann hängt es von eben diesem ab, was er davon auflöst und was nicht. Dabei spielt es prinzipiell keine Rolle, ob er es in einer Aufnahme macht oder per Pixelshift in mehreren, ob es ein Foveon-Sensor ist oder ob er eine Farbfiltermatrix verwendet, es kann auch ein Zeilen- oder Punktsensor sein - alle haben ein unterschiedliches Auflösungsvermögen, aber nichts davon wird insgesamt mehr Informationen liefern können als vom Objektiv bereit gestellt wird. Mit einem fiktiven Sensor mit unendlicher Auflösung könnte man alle Informationen einsammeln und damit die tatsächliche Maximalauflösung des Objektivs abbilden. Wie sich nun die einzelnen Auflösungen der realen Methoden und Sensoren final unterscheiden hängt von den konkreten Methoden und Sensoren ab. Mehr ist es im Endeffekt nicht. Welcher konkrete Einzelpunkt ist dabei für dich nicht schlüssig? 

Link zum Beitrag
Auf anderen Seiten teilen

vor 52 Minuten schrieb Lufthummel:

...Leider wird bei der ganzen Diskussion hier der entscheidende Dritte Faktor ignoriert - nämlich der Algorithmus der aus den Einzelbildern das Gesamtbild errechnet. Und da wissen wir leider ziemlich wenig. Selbst die Frage ob das Gesamtbild vor oder nach dem De-Mosaicing errechnet wird kann nicht beantwortet werden, hat aber maßgeblichen Anteil an der erreichbaren Auflösung. Und viele andere Fragezeichen tun sich hier auf.

Genau aus diesen und ähnlichen Gründen fände ich ich eine Antwort der Olympus Entwickler/Konstrukteure aus Japan interessant.

Die Antwort des Olympus Service aus Deutschland vom 15.04.2020 ließ da viele Fragen offen; ich muss allerdings auch einräumen, dass ich diesen Thread hier erst am 09.04.2020 gestartet habe, also die ganze Diskussion hier noch nicht kannte, als ich meine Frage an Olympus formulierte. Heute würde ich die Fragen anders formulieren, ich habe ja durch die Diskussion hinzugelernt.

Meine Frage am 08.04.2020 an den Olympus-Service war:

"Es wird von anderen Fotografen die Meinung geäußert, dass sich die Detailauflösung im High Res-Modus gegenüber dem normalen Modus nicht ändere und die Zerstreuungsscheiben bei beiden Modi gleich groß seien. Die Auflösung liege nach wie vor bei 20 MegaPixel. Der Rest sei eine höchst komplexe Rechnerei unter Berücksichtigung von Geisterbildern, Moire-Effekten und Schärfungs-Algorithmen. Demzufolge seien auch die Anforderungen an das Auflösungsvermögen des Objektivs im High Res-Modus nicht höher als sonst. Das deckt sich aber nicht mit meinen eigenen Beobachtungen. Was sagt denn Olympus zu dieser Frage? Bewirkt der Subpixel-Shift im High Res-Modus tatsächlich eine höhere Detail-Auflösung? Wie sieht es mit den optischen Anforderungen an die Objektive beim High Res-Modus aus? ..."

 

Vielleicht gebe ich die Antwort des Olympus-Service einfach mal sinngemäß umschrieben im Konjunktiv wieder, ohne Namen zu nennen:

Der Antwortende habe im Zuge meiner Anfrage auch noch einige der Fachmeinungen im Detail studiert ...

Der Stellungnahme des Kamerabuchautors stimme er vollauf zu, er habe die Diskussion dort im Forum bereits verfolgt ... und der Kamerabuchautor habe sich ja auch bereits beim Olympus-Service zu den Details des HiRes-Modus erkundigt ...

Durch den Sensorshift und die Aufnahme mehrerer Einzelbilder würden durch die Verrechnung der Bilddaten feine Details besser definiert werden.

Das Auflösungsvermögen des Objektivs mache sich natürlich auch bei HiRes-Aufnahmen bemerkbar. Je weniger Verzeichnungen und Artefakte entstünden, desto klarer und genauer sei die Abbildung auf dem Sensor. Für die Aufnahme im HiRes-Modus würden aber andere Anforderungen an das Objektiv gestellt, als bei einer Aufnahme mit einem 80 MP-Sensor, es sei also kein "80 MP Objektiv" erforderlich.

Natürlich würden auch für HiRes-Aufnahmen die gleichen Regeln wie für "normale" Aufnahmen gelten- je besser die Abbildungsleistung des Objektivs, desto besser würde die Abbildung auf dem Sensor ausfallen. Und auch im HiRes-Modus sei die Detailtiefe in der Bildmitte höher als am Bildrand, wo Verzeichnungen durch den relativ weiten Weg über den Rand der Linsenelemente einfacher entstünden....

Alle aktuellen Olympus Objektive seien bestens für Aufnahmen im HiRes-Modus geeignet; die PRO-Objektive erzielten eine besonders hohe Abbildungsgüte und Detailtiefe - unabhängig vom Aufnahmemodus.

bearbeitet von x_holger
vertippt
Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Minuten schrieb Helios:

Welcher konkrete Einzelpunkt ist dabei für dich nicht schlüssig? 

Schlüssig ist Deine Antwort für mich schon. Mich beschäftigt nur der Punkt, ob es denkbar ist, dass ein um 0,5 Pixel verschobenes Einzelbild andere Details beinhalten kann als das vorherige Einzelbild, so dass für das Zusammenrechnen mehr Informationen vorhanden sind und ob es ggf. bei der Zusammenrechnung eine Rolle spielen könnte, dass dasselbe Detail auf ein anderes Pixel der Bayer Matrix trifft, so dass am Ende mehr Informationen (Details) zur Verfügung stehen?

Mir geht es nicht darum irgendwelche vorgebrachten Feststellungen zu widerlegen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb supmylo:

Das Gegenbeispiel sind die ganzen UFO-, Nessie- und Yeti-Bilder, die grundsätzlich nur mit schlechtestmöglicher Systemauflösung und Destabilizer geschossen werden.😀

schon mal zuende gedacht, das Ganze?

vielleicht sind Yeti und Nessi ja einfach natürlich unscharf? ... Ha! Damit hast Du nicht gerechnet! ..  -\_ :) _/- 

 

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

vor 30 Minuten schrieb x_holger:

Vielleicht gebe ich die Antwort des Olympus-Service einfach mal sinngemäß umschrieben im Konjunktiv wieder, ohne Namen zu nennen:

Für die Aufnahme im HiRes-Modus würden aber andere Anforderungen an das Objektiv gestellt als bei einer Aufnahme mit einem 80-MP-Sensor, es sei also kein "80-MP-Objektiv" erforderlich.

Jetzt frage ich mich, ob die Leute beim Olympus-Kundendienst wirklich so inkompetent sind oder ob du ihre Antwort hier nur verfälscht wiedergegeben hast.

.

vor 30 Minuten schrieb x_holger:

Natürlich würden auch für HiRes-Aufnahmen die gleichen Regeln wie für "normale" Aufnahmen gelten – je besser die Abbildungsleistung des Objektivs, desto besser würde die Abbildung auf dem Sensor ausfallen.

Na also. Wieso sollten sie in einem Satz Blödsinn erzählen und sich dann im nächsten Satz selber widersprechen?

.

vor 30 Minuten schrieb tgutgu:

Mich beschäftigt nur der Punkt, ob es denkbar ist, daß ein um 0,5 Pixel verschobenes Einzelbild andere Details beinhalten kann als das vorherige Einzelbild ...

So eine Aussage macht mich fassungslos. Wie kann man so eine triviale Selbstverständlichkeit anzweifeln? Erst recht, nachdem deine Frage schon zigmal beantwortet wurde. Also, extra für dich zum zigundersten Male: Ja, selbstverständlich enthält das um ein halbes Pixel verschobene Einzelbild im allgemeinen andere Details als das vorherige Einzelbild. :rolleyes:

Link zum Beitrag
Auf anderen Seiten teilen

vor 29 Minuten schrieb nightstalker:

 

vielleicht sind Yeti und Nessi ja einfach natürlich unscharf? ... Ha! Damit hast Du nicht gerechnet! ..  -\_ :) _/- 

 

Ne, bei diesen Aufnahmen wird meist Reality-Shift eingesetzt- da reicht die Auflösung der Optiken leider nicht aus, und die Algorithmen können da einfach nicht mehr rausholen 😎😉🤣

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Lufthummel:

Und da wissen wir leider ziemlich wenig. Selbst die Frage ob das Gesamtbild vor oder nach dem De-Mosaicing errechnet wird kann nicht beantwortet werden

Es gibt kein "wir", keinen kollektiven Wissensstand und es können mehr Fragen beantwortet werden, als die meisten vielleicht sogar annehmen (deine Frage wurde sogar schon beantwortet). Der entscheidende Faktor liegt ganz woanders, wurde aber auch hier schon erwähnt: der glaube daran, dass es irgendeine konkrete, höchstgenaue Antwort auf allgemeine Fragen gibt, dass diese höchstgenaue Antwort praktische Relevanz besitzt, und dass sich dadurch ein Fazit aus der Diskussion ergibt, dem zwangsläufig alle zustimmen müssen, weil es kein Gegenargument mehr gibt. Nichts davon ist realistisch, letzteres schon deshalb nicht, weil man die Gegenargumente einfach aus dem Hut zaubern kann. Mit genug Unwissenheit lässt sich alles beweisen, und mit genug Vehemenz wird es schon jemand glauben. 

vor 23 Minuten schrieb tgutgu:

Mich beschäftigt nur der Punkt, ob es denkbar ist, dass ein um 0,5 Pixel verschobenes Einzelbild andere Details beinhalten kann als das vorherige Einzelbild, so dass für das Zusammenrechnen mehr Informationen vorhanden sind und ob es ggf. bei der Zusammenrechnung eine Rolle spielen könnte, dass dasselbe Detail auf ein anderes Pixel der Bayer Matrix trifft, so dass am Ende mehr Informationen (Details) zur Verfügung stehen?

Das ist nicht nur denkbar, nur deshalb funktioniert das ganze überhaupt. Welchen Sinn sollte Pixelshift sonst haben? Die Dateigröße lässt sich auf anderem Wege einfacher erhöhen. 😉

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...