Jump to content

Voigtländer APO-Lanthar 50mm F2.0 Aspherical FE


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo Helios

Ich finde auch , dass bei Astro Randschärfe schnell recht wichtig werden kann  .

Ich kann zwar wenig Erfahrung auf diesem Gebiet aufweisen  , aber bei meinen wenigen Versuchen war ich schon recht erstaunt ,

wie schlecht manche hochgelobten Linsen trotz Verwendung eines Sachtler Statives mit 3 kg Kopf  gerade an den Rändern aussahen.

Zum Koma gibt es hier was rudimentäres :

https://www.fredmiranda.com/forum/topic/1625777/0#chapter13

 

Grüsse

Armin

bearbeitet von sch8mid
Link zum Beitrag
Auf anderen Seiten teilen

Naja wie gesagt. Randscharf bei Offenblende ist, soweit mir bekannt, nur bei Unendlichstellung wichtig. So wie z.B. bei Astro. Und ein 50f2 ist jetzt nicht die probate Astro Konfiguration. Also ich sehe dieses Glas nicht in diesem Bereich. 
Ich sehe es im Bereich Produkt und Food, Stadt- und Landschaft, real estate. Da, wo man in Teilbereichen  eine natürliche Perspektive, hohe Detailschärfe und neutrale Farbwiedergabe benötigt. Also tendenziell vom Stativ und auch selten aufgeblendet. Große Prints, Magazine, Exposes.  Dieses Zeug. Ein 10er Zwischenring dazu und man hat ein gutes Werkzeug. 

Link zum Beitrag
Auf anderen Seiten teilen

Danke Armin, das Review ist mir bekannt und ich hoffe, demnächst eigene Erfahrungen gerade auch am Stern sammeln zu können. 🙂

vor 5 Stunden schrieb Solid P:

Und ein 50f2 ist jetzt nicht die probate Astro Konfiguration. Also ich sehe dieses Glas nicht in diesem Bereich. 

Es ist ja vollkommen in Ordnung, dass das für dich nicht die passende "Konfiguration" ist, sei es weil du kein Astro machst, oder weil du Astro anders machst. Für mich ist sie das gerade in der Kombination aus Brennweite, Lichtstärke, Größe, Gewicht und sonstiger Nutzen durchaus, sofern ab Offenblende Auflösung und Bildfehlerkorrektur (speziell Koma, aber nicht nur) über das gesamte Bildfeld passen. Es gibt also kein Grund für Verallgemeinerungen darüber, was "probat" ist oder nicht. 

Link zum Beitrag
Auf anderen Seiten teilen

https://visualvoyager.net/sample-photos-voigtlander-apo-lanthar-50mm-12-0-lens/

Nicht so arg ergiebig , aber der Vollständigkeit halber :

Voigtländer APO Lanthar  > Leica Summicron > CZ Sonnar 55 mm > FE 50/1.8

 

https://visualvoyager.net/comparison-voigtlander-apo-lanthar-50mm-standard-lenses/

bearbeitet von sch8mid
Link zum Beitrag
Auf anderen Seiten teilen

Am 27.12.2019 um 22:54 schrieb Helios:

...

Das ist nicht korrekt, wenn im Multishot per bewegtem Sensor eine höhere Auflösung erzielt werden soll, dann muss das Objektiv diese auch liefern. Etwas anderes wäre es, wenn das Objektiv während der Aufnahme bewegt werden würde - hier kann auch ohne höhere Objektivauflösung eine höhere Bildauflösung erreicht werden.

Das glaube ich ist ein Gerücht. 

bearbeitet von olyleison
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Am 2.1.2020 um 16:50 schrieb olyleison:

Das glaube ich ist ein Gerücht. 

Das ist keine Glaubensfrage, es handelt sich nicht um ein Gerücht sondern ist eine Tatsache. Der vom Objektiv erzeugten Abbildung ist es egal, welche Auflösung der Sensor besitzt oder wie häufig sie digitalisiert wird - um am Ende eine bestimmte Qualität zu erreichen muss diese bereits bei der Erzeugung der Abbildung vorhanden sein. Dementsprechend kann unabhängig vom Auflösungsvermögen des Sensors (real oder per Multishot) nie mehr als die maximale Leistung des Objektivs erzielt werden, Verbesserungen betreffen darüber hinaus maximal Bildfehler, die erst durch den Sensor selbst erzeugt werden. Wie erwähnt ist es etwas anderes, wenn durch Bewegung des Objektivs mehrere Abbildungen erzeugt und verrechnet werden. 

Ich hindere dich nicht daran, etwas falsches zu glauben - bloß bleibt es deswegen trotzdem falsch. 

Link zum Beitrag
Auf anderen Seiten teilen

Das sind Alternativtatsachen. Es ist doch vollkommen egal ob ich den Sensor verschiebe und das Objektiv nicht verschiebe oder das Objektiv verschiebe und den Sensor nicht verschiebe oder beides gegeneinander verschiebe. Bei jedem Einzelshot wird der Sensor nicht mehr aufnehmen können als er imstande aufzunehmen ist. Das ist doch trivial. Die Verteilung der Informationen auf den Pixeln ändert sich aber bei jeder Änderung der Position Sensor-Objektiv und wird dann superponiert und zusammengerechnet. Ein Objektiv, dessen Auflösungsvermögen die Auflösung des Sensors im Einzelshot übertrifft schafft auch jeden Multishot und wenn es aus 1000 Einzelbildern zusammengebastelt wird.

Aber ich glaube, wir reden aneinander vorbei.

Link zum Beitrag
Auf anderen Seiten teilen

Die Verteilung kann sich ändern wie sie will, wichtig ist nur wie viele Informationen maximal zur Verfügung stehen. Solange das Objektiv nicht bewegt wird ändert sich die Informationsmenge nicht, für die maximale Qualität der Gesamtaufnahme muss das Objektiv diese dementsprechend auch liefern - egal ob es sich um eine Einzelaufnahme oder eine zusammengesetzte Mehrfachaufnahme handelt. Oder anders herum, würde ein Objektiv exakt die maximal von einer Einzelaufnahme erfassbaren Informationen liefern, dann ergäbe eine Pixel-Shift-Aufnahme keinen Sinn, weil es zu keinem Informationsgewinn käme (solch ein Objektiv gibt es natürlich in der Realität nicht, es dient nur der Verdeutlichung der Auswirkungen). 

Ob wir aneinander vorbei reden, vielleicht, den Begriff "Alternativtatsachen" verbitte ich mir (im übrigen muss man diesen immer in Großbuchstaben und mit möglichst vielen Ausrufezeichen schreiben, damit er auch richtig wirkt).

bearbeitet von Helios
Link zum Beitrag
Auf anderen Seiten teilen

Würde ein Verschieben des Objektivs nicht zu geänderter Perspektive und/oder Schärfeebene führen? Und damit qualitätsmindernde Probleme beim Zusammenrechnen verursachen?

Beim klassischen RGB-Sensor reicht ein Verschieben des Sensor jedoch schon für eine bessere Qualität, mindestens die Farbauflösung kann selbst bei einem minderwertigen Objektiv gesteigert werden.

Link zum Beitrag
Auf anderen Seiten teilen

Es reichen minimalste Änderungen der Objektivposition, theoretisch auf Subpixelebene. Die Auswirkungen auf Perspektive und Schärfeebene wären da bei normalen Aufnahmen äußerst gering, und solange die Gewinne durch die Verrechnung höher ausfallen bleibt es im Endeffekt bei einem Gewinn. Wie gut das in der Praxis funktioniert zeigt ja nicht zu letzt die E-M1X, bzw. kann jeder ausprobieren, muss es dann halt extern rechnen lassen. 

Letztlich gibt es aber nur die drei Möglichkeiten, entweder hat man ein entsprechend hochauflösendes Objektiv und bewegt den Sensor, oder man bewegt minimal das Objektiv und muss Gewinne und Verluste gegenrechnen, oder man macht es über den Faktor Zeit und nutzt Änderungen der Atmosphäre, des Lichts, etc. am Motiv. So machen es die Astrophotographen, gegebenenfalls auch per Lucky Imaging. 

Unbestritten ist, dass es Verbesserungen bei allen Problemen gibt, die durch den Sensor erst in die Aufnahme hinein kommen. Die bei Bayer-Sensoren deutlich reduzierte Farbauflösung wird erhöht, das Rauschen wird reduziert, sogar die Dynamik kann erhöht werden. Bloß ging es ja hier um das Objektiv, und die Frage, ob beim Apo Lanthar 50 über die Pixel-Shift-Aufnahme ein besonders hohes Auflösevermögen ermittelt werden kann.

Link zum Beitrag
Auf anderen Seiten teilen

Am 7.1.2020 um 12:18 schrieb Helios:

Das ist keine Glaubensfrage, es handelt sich nicht um ein Gerücht sondern ist eine Tatsache. Der vom Objektiv erzeugten Abbildung ist es egal, welche Auflösung der Sensor besitzt oder wie häufig sie digitalisiert wird - um am Ende eine bestimmte Qualität zu erreichen muss diese bereits bei der Erzeugung der Abbildung vorhanden sein. Dementsprechend kann unabhängig vom Auflösungsvermögen des Sensors (real oder per Multishot) nie mehr als die maximale Leistung des Objektivs erzielt werden, Verbesserungen betreffen darüber hinaus maximal Bildfehler, die erst durch den Sensor selbst erzeugt werden. Wie erwähnt ist es etwas anderes, wenn durch Bewegung des Objektivs mehrere Abbildungen erzeugt und verrechnet werden. 

Ich hindere dich nicht daran, etwas falsches zu glauben - bloß bleibt es deswegen trotzdem falsch. 

Dem gibt es eigentlich nichts hinzuzufügen!!!

Link zum Beitrag
Auf anderen Seiten teilen

Am 7.1.2020 um 18:17 schrieb Helios:

Es reichen minimalste Änderungen der Objektivposition, theoretisch auf Subpixelebene. Die Auswirkungen auf Perspektive und Schärfeebene wären da bei normalen Aufnahmen äußerst gering, und solange die Gewinne durch die Verrechnung höher ausfallen bleibt es im Endeffekt bei einem Gewinn. Wie gut das in der Praxis funktioniert zeigt ja nicht zu letzt die E-M1X, bzw. kann jeder ausprobieren, muss es dann halt extern rechnen lassen. 

Wenn ich dich richtig verstehe, dann sollte Pixelshift mit einem gering auflösendem Objektiv mit einer E-M1ii vom Stativ eine schlechtere Auflösung erreichen als eine E-M1X Freihand. Würde gerne die Nagelprobe machen. Hast du einen Vorschlag, welches meiner Objektive (gearlist) dafür am besten geeignet wäre?

Link zum Beitrag
Auf anderen Seiten teilen

Wenn die anderen Einflussfaktoren auf die Bildqualität hinreichend ausgeschaltet sind, das Objektiv "schlecht genug" auflöst und das Motiv entsprechende Details liefert, dann sollte das Freihand-High-Res der E-M1X ein besseres Ergebnis liefern als die "normale" High-Res-Funktion vom Stativ. Die Schwierigkeit liegt darin, diese Grundbedingungen zu schaffen um zweifelsfrei die Unterschiede der Funktion (und eben nur diese) bewerten zu können. Wie viele Tage habe ich Zeit, um deine Gearlist durchzugehen? 😉

Ernsthaft, ich möchte da keine Empfehlung abgeben, weil ich die Umstände nicht kenne und Hobbytests (ist nicht despektierlich gemeint, sondern dient nur der Beschreibung) oft mehr Fragen aufwerfen als Antworten liefern. Die Body Cap Lens bietet sich von den optischen Leistungen an, der große Bildwinkel und die Fischaugencharakteristik macht aber den Vergleich sehr schwer. Das Tokina 300 mm wäre das andere extrem, das löst aber nicht grundsätzlich schlecht auf, sondern hat eine konstruktionsbedingte Kontrastschwäche, die leicht zu falschen Interpretationen führt. Wenn du einen Adapter für die gelisteten Objektive oder Altglas besitzt, würde ich ein etwas längerbrennweitiges KB-Objektiv und erstmal nur geringe Bewegungen, bspw. per Handauslösung auf einem nicht fixierten Kugelkopf anfangen und mehrere Durchgänge vergleichen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Minuten schrieb SKF Admin:

Ich lasse diese sehr interessanten und lehrreichen Exkurs hier mal stehen, auch wenn er im Thread zum Voigtländer APO-Lanthar 50mm ziemlich off topic ist.

Jetzt gerne wieder zurück zum eigentlichen Thema…

Da noch Posts mit Ergebnissen ausstehen, wäre nicht ein eigener Thread und Verschiebung der Beiträge (und Löschung meines Beitrags...) sinnvoll?

Link zum Beitrag
Auf anderen Seiten teilen

Am 7.1.2020 um 14:43 schrieb Helios:

Oder anders herum, würde ein Objektiv exakt die maximal von einer Einzelaufnahme erfassbaren Informationen liefern, dann ergäbe eine Pixel-Shift-Aufnahme keinen Sinn, weil es zu keinem Informationsgewinn käme

Natürlich kommt es zu einem Informationsgewinn bei Multishotaufnahmen oder wie erklärst du dir, dass das zusammengerechnete Bild eine höhere Auflösung hat als eine Einzelaufnahme. Selbst wenn die Zielauflösung bei Multishot-Aufnahmen nicht steigt (wie beim Multishot-Modus der A7RIII), werden durch die Verschiebung des Sensors mehr Informationen aufgezeichnet, in diesem Fall Farbinformationen, die ein Demosaicing überflüssig machen (siehe hier).

Das ist doch gerade Sinn und Zweck der Multishot-Aufnahmen, dass das Motiv in feinerem Raster abgetastet wird. Um die maximal mögliche Qualität zu erreichen, muss bei jeder Einzelaufnahme das Objektiv die Sensorauflösung „bedienen“. Ein noch höheres Auflösungsvermögen würde keinen Qualitätsgewinn mehr bringen, weil die Einzelaufnahmen dadurch auch nicht mehr Details zeigen würden. Und wenn die Einzelaufnahmen das maximal mögliche Auflösungsvermögen erreicht haben, gilt das logischerweise auch für das daraus errechnete Gesamtbild.

Natürlich hilft es auch bei Multishot-Aufnahmenein, ein möglichst scharfes Objektiv zu verwenden, aber die Anforderungen sind nicht höher als bei Einzelaufnahmen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb voti:

Natürlich kommt es zu einem Informationsgewinn bei Multishotaufnahmen oder wie erklärst du dir, dass das zusammengerechnete Bild eine höhere Auflösung hat als eine Einzelaufnahme.

Auflösung und Bilddetails müssen nicht immer miteinander korrelieren.

vor 8 Stunden schrieb voti:

Selbst wenn die Zielauflösung bei Multishot-Aufnahmen nicht steigt (wie beim Multishot-Modus der A7RIII), werden durch die Verschiebung des Sensors mehr Informationen aufgezeichnet, in diesem Fall Farbinformationen, die ein Demosaicing überflüssig machen (siehe hier).

Ok, was man mit Multishotaufnahmen immer gewinnt, die Unvollkommenheiten des Sensors werden beseitigt bzw. minimiert (Bayer Matrix, Rauschen).

vor 8 Stunden schrieb voti:

Natürlich hilft es auch bei Multishot-Aufnahmenein, ein möglichst scharfes Objektiv zu verwenden, aber die Anforderungen sind nicht höher als bei Einzelaufnahmen.

Was das Objektiv nicht an Details liefert, kann der Sensor nicht herbeizaubern.

Praktisch gesehen wird man sich natürlich oft in einer Grauzone bewegen, in dem weder der Sensor noch das Objektiv zu 100% die Detailwiedergabe begrenzen. Ich habe aber auch schon mit HiRes getestet (mit mFT), dass ein mit normaler Auflösung schon etwas schwammiger Randbereich nicht mehr Details liefert durch Multishot. Höchstens das Nachschärfpotential war höher durch verringertes Rauschen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Stunden schrieb voti:

aber die Anforderungen sind nicht höher als bei Einzelaufnahmen.

Das ist nicht korrekt und wird auch durch Wiederholung nicht richtiger, die entsprechenden Hintergründe habe ich hier im Thema bereits dargelegt. Falls dazu Fragen bestehen helfe ich gerne weiter, ich werde aber nicht die gleichen Argumente noch einmal wiederholen und bitte dafür um Verständnis. :)

Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Minuten schrieb Helios:

Das ist nicht korrekt und wird auch durch Wiederholung nicht richtiger, die entsprechenden Hintergründe habe ich hier im Thema bereits dargelegt. Falls dazu Fragen bestehen helfe ich gerne weiter, ich werde aber nicht die gleichen Argumente noch einmal wiederholen und bitte dafür um Verständnis. :)

Och, Du - dafür habe ich vollstes Verständnis für. Deine "Darlegungen der Hintergründe" werden durch Wiederholung allerdings ebenfalls nicht wahrer. 😁

Link zum Beitrag
Auf anderen Seiten teilen

34 minutes ago, leicanik said:

Und ich Blauäugiger habe gedacht: „Schaust mal da rein, da geht es ums Apo-Lanthar ...“ 

Geht es doch auch. Das Apo-Lanthar löst dermaßen hoch auf, dass sich nur damit auf empirischem Wege nicht herausfinden lässt ob nun das Objektiv den limitierenden Faktor bei Multishot-Aufnahmen darstellt oder nicht … ;)

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Stunden schrieb flyingrooster:

Geht es doch auch. Das Apo-Lanthar löst dermaßen hoch auf, dass sich nur damit auf empirischem Wege nicht herausfinden lässt ob nun das Objektiv den limitierenden Faktor bei Multishot-Aufnahmen darstellt oder nicht … ;)

Das ist absolut korrekt , und wir hätten die perfekte Überleitung  :-)

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...