Jump to content

Sony A7R IV mit 61 MP gerade vorgestellt!


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 7 Minuten schrieb Atur:

weder der sensor noch das  objektiv müssen mehr auflösung bringen als sonst auch.  

Das Objektiv schon, der Sensor wird dadurch als höherauflösend simuliert, dass er Zwischenpositionen abrastert.

Zum Objektiv: was das nicht an Details liefert, kann der Sensor nicht herbeizaubern, egal, wie fein er das vom Objektiv projizierte Bild abrastert.

Zur Erklärung folgende Grafik:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Quelle: https://photographylife.com/how-to-read-mtf-charts

Die ganz linken Linien sind das originale Motiv und gleichzeitig das Bild, dass ein exzellentes Objektiv auf den Sensor abbildet. Nach rechts werden die Objektive schlechter, sie können die Struktur immer unschärfer wiedergeben, bis nur noch ein  gleichmäßiger Matsch zu sehen ist. Das exzellente Objektiv, dass diese Struktur knackscharf wiedergeben kann, ist unterfordert, mit einem höher auflösenden Sensor könnte es auch deutlich feinere Strukturen wiedergeben. Bei den rechten Bildern ist das Objektiv überfordert, eine feinere Abtastung würde nicht zu mehr Details im Bild führen.

Ich empfehle jedem mit HighRes-tauglicher (mFT)-Ausrüstung, das mal selbst zu testen: man nimmt ein Testmotiv mit feinen Details und einmal ein sehr scharfes Objektiv (Blende/Bildausschnitt mit höher Schärfe) und einmal eine schlechteres Objektiv (bzw. stark abgeblendet oder Bildausschnitt mit sichtbarem Randabfall). DAs nimmt man einmal mit nornmaler AUflösung und dann mit HighRes auf und vergleicht, ob mehr Details im Bild sichtbar werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Minuten schrieb pizzastein:

Das Objektiv schon, der Sensor wird dadurch als höherauflösend simuliert, dass er Zwischenpositionen abrastert.

Aber dieses "abrastern vom Zwischenpositionen", wie du es nennst, das die höhere Sensorauflösung simuliert, wird doch nicht durch eine einzelne Aufnahme erreicht, sondern indem der Sensor zwischen mehreren Einzelbelichtungen verschoben wird, wodurch auch die Motivinformationen eingefangen werden, die bedingt durch die Abstände zwischen den Sensorpixeln bei einer Einzelaufnahme verloren gehen würden. Jede Einzelaufnahme wird, wie schon mehrmals geschrieben, nur mit 61MP gemacht - es können bei der Einzelaufnahme keine "Zwischenpositionen" ausgelesen werden, weil sich zwischen den Sensorpixeln nichts befindet, was Bildinformationen einfangen könnte. Die höhere Auflösung entsteht erst beim der nachträglichen Zusammenfügen der Einzelbilder mit der Imaging Edge Software auf dem Rechner, vergleichbar mit dem Stiching einer Panoramaaufnahme, nur dass hier das Ziel ein anderes ist.

Wichtig dabei ist, dass jede Einzelaufnahme à 61MP scharf ist und das Motiv sich zwischen den Aufnahmen nicht bewegt. Natürlich kann man sagen, dass Multi-shot mit "schlechten" Objektiven wenig Sinn ergeben, da deren Abbildungsfehler durch dichtere Rasterung nicht verschwinden, ebenso wie sie nicht durch eine echte Erhöhung der Sensorauflösung verschwinden, d.h. Schärfeabfall am Rand, CAs, Vignettierung etc. wird durch Multi-shot nicht besser. Allerdings gibt es ja kaum Objektive, die selbst abgeblendet über die gesamte Bildfläche einfach nur Mist sind, insofern profitieren fast alle Objektive (mehr oder weniger) von einer höheren Auflösung - egal ob diese durch Multi-shot erzielt wird oder durch eine nominell höhere Sensorauflösung.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb pizzastein:

, der Sensor wird dadurch als höherauflösend simuliert, dass er Zwischenpositionen abrastert.

In meiner grenzenlosen Naivität 😎 kann ich mir das nur so vorstellen. Ein gutes Objektiv bedient idealtypisch genau einen Pixel auf dem Sensor perfekt, mit ein bisschen "Schmier" an den Rändern. Gar nichts dürfte da nicht sein. Wenn ich jetzt den Sensor um einen halben Pixel verschiebe, komme ich in den unsauberen Bereich.

Link zum Beitrag
Auf anderen Seiten teilen

vor 41 Minuten schrieb voti:

Aber dieses "abrastern vom Zwischenpositionen", wie du es nennst, das die höhere Sensorauflösung simuliert, wird doch nicht durch eine einzelne Aufnahme erreicht, sondern indem der Sensor zwischen mehreren Einzelbelichtungen verschoben wird, wodurch auch die Motivinformationen eingefangen werden, die bedingt durch die Abstände zwischen den Sensorpixeln bei einer Einzelaufnahme verloren gehen würden.

Ja, so war es gemeint. Ob noch signifikant Informationen zwischen den Pixeln verloren gehen, weiß ich nicht. BSI-Sensoren mit Mikrolinsen sollten eigentlich so ziemlich alle Infos einfangen, hier kann man Schemata zu Sensoren durchklicken:

https://www.stemmer-imaging.com/de-de/grundlagen/vorder-oder-rueckseitig-beleuchtete-sensoren/

Deshalb gehe ich davon aus, die Sensorverschiebung um einen halben Pixel ist vor allem dann sinnvoll, wenn die einzelnen Pixel zu grob sind für das, was das Objektiv an feinen Strukturen abbilden kann.

Link zum Beitrag
Auf anderen Seiten teilen

vor 30 Minuten schrieb shutter button:

In meiner grenzenlosen Naivität 😎 kann ich mir das nur so vorstellen. Ein gutes Objektiv bedient idealtypisch genau einen Pixel auf dem Sensor perfekt, mit ein bisschen "Schmier" an den Rändern. Gar nichts dürfte da nicht sein. Wenn ich jetzt den Sensor um einen halben Pixel verschiebe, komme ich in den unsauberen Bereich.

So ein Objektiv ist ja ein extrem analoges Wesen ;-) Es rastert das Licht nicht, folglich kann es auch kein "Schmier" an den Rändern jedes Pixels geben, der durch Sensorverschiebung plötzlich sichtbar wird.

Jedes Objektiv weist, abhängig vom Aufwand der optischen Rechnung, der Verarbeitung und Glasgüte, mehr oder weniger ausgeprägte Bildfehler auf - unscharfe Abbildung ist nur einer von vielen. Das Missverständnis, dass hier m.E. vorliegt: man zwar mit Recht behaupten, dass Multi-shot in der Praxis weniger Vorteile bringt, je mehr Bildfehler, u.a. Unschärfen, ein Objektiv aufweist. Es wird dann zwar eine partielle Verbesserung (in einigen Bildbereichen) durch Multi-shot erreicht, aber das Gesamtergebnis ist trotzdem nicht zufriedenstellend. Dennoch erhöht Multi-shot per se nicht die Anforderung an die optische Güte eines Objektivs. Objektive, die unter optimalen Aufnahmebedingungen bei 61MP und 100% Ansicht eine überwiegend "pixelscharfe" Abbildung erzielen, tun dies auch bei einer 240MP Multi-shot Aufnahme, da es sich ja nur um ein zusammensetzen pixelscharfer Einzelaufnahmen handelt.

Anders wäre es, wenn der Sensor tatsächlich 240MP auflösen würde und man diese mit einer einzelnen Aufnahme abtasten würde. In diesem Fall könnten beim herein-zoomen ins Bild Unschärfen sichtbar werden, die vorher (bei niedrigerer Aufllösung) nicht sichtbar waren.

bearbeitet von voti
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 1 Stunde schrieb pizzastein:

Ich empfehle jedem mit HighRes-tauglicher (mFT)-Ausrüstung, das mal selbst zu testen: man nimmt ein Testmotiv mit feinen Details und einmal ein sehr scharfes Objektiv (Blende/Bildausschnitt mit höher Schärfe) und einmal eine schlechteres Objektiv (bzw. stark abgeblendet oder Bildausschnitt mit sichtbarem Randabfall). DAs nimmt man einmal mit nornmaler AUflösung und dann mit HighRes auf und vergleicht, ob mehr Details im Bild sichtbar werden.

ich glaube Dir, dass Deine Tests das ergeben haben.
Ich verstehe es nur nicht. 

Erklärbar wäre es für mich allenfalls dadurch, dass ein schlechtes Objektiv die Differenzierung nicht abbilden kann, die durch die Verschiebung um einen halben Pixel entsteht.
D.h. wenn das Objektiv auch auf den verschobenen Pixel (ist Pixel m oder s?) dieselbe Information sendet wie auf den Pixel in der Ausgangsposition.
Dann gäbe es keinen Gewinn durch den pixel shift.

Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Minuten schrieb Atur:

ich glaube Dir, dass Deine Tests das ergeben haben.
Ich verstehe es nur nicht. 

Das Ergebnis ist schon einleuchtend, da in dem Beispiel das schlechtere Objektiv schon bei einer einzelnen Aufnahme sichtbar schlechter (unschärfer) abbildet als das bessere Vergleichsobjektiv. Die Unschärfe wird durch höhere Abtastung nicht schärfer.

Um zu beweisen, dass die Anforderung an die optische Güte bedingt durch Multi-Shot -Aufnahmen höher ist, müsste man 2 Objektive hernehmen, die Einzelaufnahmen im Falle der A7RIV bei 61MP pixelscharf abbilden können (zumindest in einigen Bildbereichen), aber nur eins der beiden Objektive das bei noch deutlich höherer Auflösung vermag. In diesem Fall müsste sich bei der Multi-Shot Aufnahme der Unterschied bemerkbar machen, was aber nicht so sein wird, da mit beiden Objektiven das fertige Gesamtbild aus pixelscharfen Einzelaufnahmen zusammengesetzt wurde. Anders gesagt: wenn keine der Einzelaufnahmen hoch genug aufgelöst ist, um die Unterschiede zwischen den beiden Objektiven sichtbar zu machen, dann kann der Unterschied logischerweise auch nicht in dem aus den Einzelaufnahmen zusammengesetzten Gesamtbild sichtbar werden, da trotz des höheren Auflösungsvermögens des besseren Objektivs, keine der damit aufgenommen Einzelaufnahmen mehr Motivdetails zum Gesamtbild beisteuert.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Absalom:

Laut DXO ist das 90F2.8 das schärfste E-Mount.

Bei opticallimits sieht man das etwas detaillierter. Selbst mit "nur" 42 MP nimmt die Schärfe in der Bildmitte ab f5.6 schon wieder ab, während für beste Ränder f5.6 nötig ist. Dummerweise gibt's bei f5.6 und >200 MP schon ein Problem mit Unschärfe durch Beugung. Ich bin gespannt, ob irgendein KB-Objektiv in den Randbereichen von 240 MP profitiert. Im Video von Sony sind aus gutem Grund Ausschnitte aus bzw. nahe der Bildmitte gezeigt.

Die Kombination aus vier Aufnahmen finde ich noch interessant, nicht nur um den Bayer-Filter auszugleichen, sondern auch, um das Rauschniveau der kleinen Pixel deutlich zu verbessern.

Link zum Beitrag
Auf anderen Seiten teilen

13 hours ago, Atur said:

wenn ich den Sensor verschiebe und jeweils eine Aufnahme pro Position mache, ist es für das Objektiv doch völlig egal, an welcher Position der Sensor gerade steht.
Das Objektiv hat keine Rasterung, die irgendwo Lücken oder Zwischenpositionen hat. 
Ich verstehe nicht, warum bei HighRes/ pixel shift das Objektiv mehr können muss, als bei jeder normalen Aufnahme.
Wer oder was "rastert" denn diese Zwischenpositionen ab?

Ja, fürs Objektiv ist es völlig egal. Die Rasterung bezog sich lediglich auf die verschiedenen Positionen des Sensors.

13 hours ago, voti said:

Mit der Verschiebung um 1/2px wird erreicht, dass auch die Motivinformationen erfasst werden, die ohne 1/2px Verschiebung, bedingt durch die "Lücken" zwischen den einzelnen Sensorpixeln, verloren gehen würden.

Ergo, bei Aufnahmen ohne 1/2 Pixelshift gar nicht erst vom Objektiv aufgelöst werden müssen, da sie bei normalen Aufnahmen (mit Abständen von 1 Pixel) ohnehin nicht ersichtlich sind. Genau deshalb muss das Objektiv auch mehr leisten, denn es können nicht zusätzliche räumliche Informationen aufgezeichnet werden ohne überhaupt vorhanden zu sein. Gibt es verlorene Information in den Lücken, dann löst das Objektiv ja bereits in eben dieser 1/2 px Schrittweite auf und nicht nur in 1 px – also im Fall der A7RIV mehr als 61 MP.

Wobei sich dieser Gewinn zusätzlicher räumlicher Info, wie von @pizzastein angemerkt, ohnehin durch Überlappungsbereiche und Mikrolinsen bedingt in nicht zu dramatischen Dimensionen bewegt und die tatsächliche nominelle Auflösung dieser Modi seitens deren Detailgehalt definitiv nicht vergleichbaren nativen Aufnahmen entspricht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 23 Minuten schrieb Ynos2015:

Was hat denn pixel-shift mit Objektiv und Sensor zu tun? Ich halte die ganze Diskussion für fehlgeleitet. Pixel-shift ist nichts anderes als eine softwarebasierte Lösung, die einzelne Bilder ( in diesem Falle 16 Bilder)  zu einem möglichst optimalen Bild zusammenrechnet. Wo ist das Problem?

Das "Problem" ist, das der Eine oder andere meint, dass die Anforderung an einem Objektiv dadurch nicht steigt. Das ist falsch. Die tatsächlich erreichbare Auflösung bei Pixelshift ist  direkt abhängig von der Objektivleistung. Ein sehr hoch auflösendes Objektiv wird daher nur unter idealen Bedingungen (Bildmitte, optimale Blende) vom Pixelshift profitieren.  

Link zum Beitrag
Auf anderen Seiten teilen

vor 58 Minuten schrieb flyingrooster:

Ergo, bei Aufnahmen ohne 1/2 Pixelshift gar nicht erst vom Objektiv aufgelöst werden müssen, da sie bei normalen Aufnahmen (mit Abständen von 1 Pixel) ohnehin nicht ersichtlich sind. Genau deshalb muss das Objektiv auch mehr leisten, denn es können nicht zusätzliche räumliche Informationen aufgezeichnet werden ohne überhaupt vorhanden zu sein.

Der Argumentation (1 Satz) kann ich schon im Ansatz nicht folgen und noch weniger der Schlussfolgerung (2. Satz), daher ist es schwer, etwas darauf zu erwidern. 

Ein letzter Versuch, es noch mal in andere Worte zu fassen und dann lasse ich es auch gut sein: Weder mit noch ohne 1/2-Pixelshift kann ein Objektiv bei jeder einzelnen Aufnahme der Pixelshift-Aufnahmereihe mehr als die vorhandenen 61MP (bzw. deren Ladungsspeicher) mit Licht versorgen und muss folglich auch bei jeder einzelnen Aufnahme nicht mehr als die physikalisch gegebene 61MP Auflösung "bedienen". Schafft es das bei einer Einzelaufnahme, dann ist die Leistung auch für das von der Software zusammengerechnete Multishot-Gesamtbild ausreichend. Ein noch höheres Auflösungsvermögen (also > 61MP) des Objektivs würde hierfür keinen Mehrwert mehr liefern, da der Sensor bei jeder Einzelaufnahme nicht mehr als die 61MP auflösen kann.
Ergo: eine Multishot-Aufnahme an der A7RIV ist nicht geeignet, zu prüfen, ob ein Objektiv auch bei noch höherer Auflösung als 61MP gute Leistungen erzielen würde.

vor 16 Minuten schrieb vidalber:

Die tatsächlich erreichbare Auflösung bei Pixelshift ist  direkt abhängig von der Objektivleistung. 

Das habe ich nicht bestritten. Nur dass es einen Unterschied in den Anforderungen an ein Objektiv im Vergleich zwischen einer Multi-Shot-Aufnahmereihe und einer Einzelaufnahme gibt (s.o.). Wie ich schon weiter oben schreib: Bildfehler/Unschärfen werden durch Multi-Shot nicht verschwinden, insofern nimmt man logischerweise keine Scherbe, wenn man bei Multi-Shot Top-Resultate in Bezug auf die Schärfe erzielen will - ebenso wie man bei einer Einzelaufnahme keine Scherbe verwenden würde.

bearbeitet von voti
Link zum Beitrag
Auf anderen Seiten teilen

vor 33 Minuten schrieb voti:

Ergo: eine Multishot-Aufnahme an der A7RIV ist nicht geeignet, zu prüfen, ob ein Objektiv auch bei noch höherer Auflösung als 61MP gute Leistungen erzielen würde.

Da bin ich anderer Meinung und ich versuche, mich grafisch zu erklären.

Mal angenommen, ein Objektiv projiziert auf einen Sensor scharfe Strukturen (Helligkeitsverlauf blau dargestellt), die etwas feiner sind, als die Pixel:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Beide Pixel "sehen" nur eine Mischung (grüner Strich) aus viel Helligkeit "0" und wenig Helligkeit "100". Wird nun ein Pixel in die Mitte verschoben (rot), "sieht" das Pixel vor allem Helligkeit "100":

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Dadurch "sieht" das rote Pixel ein Bilddetail, das ohne Pixelshift nicht möglich war. Das funktioniert allerdings nur dann, wenn das Objektiv scharf genug abbildet. Wenn durch mangelnde Schärfe die Helligkeitsbereiche verschmiert werden, bekommt man kaum noch einen Detailgewinn über ein verschobenes Pixel:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von pizzastein
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb pizzastein:

Bei opticallimits sieht man das etwas detaillierter. Selbst mit "nur" 42 MP nimmt die Schärfe in der Bildmitte ab 

Wird endlich mal Zeit für gebogene Sensoren :) 

Ansonsten könnte man durch MicroLens Shifting noch etwas Randschärfe gewinnen. 

aber wahrscheinlich wird es zukünftig einfach riesige Objektive geben. Sigma 35F1.2 zeigt ja schon wo es hingeht.

bearbeitet von Absalom
Link zum Beitrag
Auf anderen Seiten teilen

45 minutes ago, voti said:

Der Argumentation (1 Satz) kann ich schon im Ansatz nicht folgen und noch weniger der Schlussfolgerung (2. Satz), daher ist es schwer, etwas darauf zu erwidern.

Die Argumentation (1. Satz) ist eine Fortsetzung deiner zitierten Feststellung, dass ohne die 1/2 px Verschiebung jene Motivinformation in den Lücken zwischen den Sensorpixeln verloren ginge. Daher muss das Objektiv für Pixelshiftaufnahmen zusätzlich diese Lücken bedienen können, für eine normale Aufnahme jedoch nicht, da die Lücken dabei ohnehin nicht ausgelesen werden. Daraus resultieren nötige Mindestauflösungen des Objektivs in unterschiedlichen Größenordnungen.

59 minutes ago, voti said:

[…] und dann lasse ich es auch gut sein

Ich ebenfalls, Urlaub und nervige Handy-Tipperei tun ihr Übriges … ;)

 

Link zum Beitrag
Auf anderen Seiten teilen

Leute wir bekommen eine Kamera mit 61MP - in Worten EINZUNDSECHZIG MILLIONEN Fotodioden!

Was muss uns da dieser High-Res Shot mit bis zu 240MP kümmern? Wer von euch braucht sowas? Selbst mit 24 oder 36 MP kann man gross printen, also was sollen die langen Diskussionen über die Funktionsweise und die Auflösungsreserven dieses Modus je nach Objektiv  - alles wohl nicht sehr praxisrelevant, oder?

Link zum Beitrag
Auf anderen Seiten teilen

vor 43 Minuten schrieb Markus B.:

Leute wir bekommen eine Kamera mit 61MP - in Worten EINZUNDSECHZIG MILLIONEN Fotodioden!

Was muss uns da dieser High-Res Shot mit bis zu 240MP kümmern? Wer von euch braucht sowas? Selbst mit 24 oder 36 MP kann man gross printen, also was sollen die langen Diskussionen über die Funktionsweise und die Auflösungsreserven dieses Modus je nach Objektiv  - alles wohl nicht sehr praxisrelevant, oder?

Kater Karlo nach dem High-Res Shot. Nicht schlecht oder? Er wohnt immer noch an der gleichen Hausnummer 13, Bingo!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

bearbeitet von max gandhi
Link zum Beitrag
Auf anderen Seiten teilen

vor 33 Minuten schrieb Markus B.:

Leute wir bekommen eine Kamera mit 61MP - in Worten EINZUNDSECHZIG MILLIONEN Fotodioden!

Was muss uns da dieser High-Res Shot mit bis zu 240MP kümmern? Wer von euch braucht sowas? Selbst mit 24 oder 36 MP kann man gross printen, also was sollen die langen Diskussionen über die Funktionsweise und die Auflösungsreserven dieses Modus je nach Objektiv  - alles wohl nicht sehr praxisrelevant, oder?

Da bin ich ganz bei Dir. Dieser High Res Modus  ist im Prinzip unsinnig, gerade weil 61 mehr als genug sind. Wir sind langsam in der Fototechnik  an einem Punkt angekommen, wo technische Neuerungen nur noch lächerlich sind. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 21 Minuten schrieb Lichtmann:

Fotografiert jemand regelmäßig mit dem High Res Modus, oder dient der nur für Testzwecke?

Gibt es hier einen High Res- Bilderthread (ist mir zumindest nicht aufgefallen) wo man Vergleichsbilder anschauen kann?

Da wirst du praktisch wohl nur im Bereich mFT fündig, ansonsten die Pana KBs die hier im Forum allerdings nur in homöopathischen Dosen vorhanden sind.

Rein praktisch würde ich die Funktion im Bereich Architektur und Produktfotografie vermuten.

bearbeitet von wuschler
Link zum Beitrag
Auf anderen Seiten teilen

Pixelshift:

als Laie würde ich ganz einfach sagen ; es gilt wie eh und je : die Anzahl Pixel sollte in einem gewissen Verhältnis zur Güte der Linse stehen um das optimalste herausholen zu können .... wenn jetzt da zusätzlich mehr Pixel simuliert werden oder nicht bzw , wenn es mehr sind sind dann halt mehr

bzw um allfällige "PixelabstandsLöcher" zwischen den Pixeln abzuholen wird ja eben  um diese Distanz verschoben aber das Licht (Strahlen) zwischen den Löchern muss auch erst vom Objektiv geliefert werden......

bearbeitet von potz
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...