Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Das Objektiv ist kleiner und leichter, ich kann das besser in einer Position halten, das Sucherbild wackelt weniger und ich kann daher besser mit der Lupe fokusieren. Das ist die Praxis. In der Theorie hast du natürlich recht.

 

In dem Fall würde sich statt croppen auch eine Kamera mit Sensorstabi anbieten... dann gewinnt man gleich mehrfach.

Link zum Beitrag
Auf anderen Seiten teilen

 

 

Das Objektiv ist kleiner und leichter, ich kann das besser in einer Position halten, das Sucherbild wackelt weniger und ich kann daher besser mit der Lupe fokusieren. Das ist die Praxis. In der Theorie hast du natürlich recht.

 

Das erkläre mal den ganzen Profifotografen die ihre Einstelligen und professionelle Teleobjektive nutzen. Die sagen doch immer, dass es ein gewisses Gewicht braucht, um Kamera und Objektiv ruhig zu halten.

 

Gruß

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Das erkläre mal den ganzen Profifotografen die ihre Einstelligen und professionelle Teleobjektive nutzen. Die sagen doch immer, dass es ein gewisses Gewicht braucht, um Kamera und Objektiv ruhig zu halten.

 

Ich hatte mal versucht, ein manuelles 300mm an der a6000 zu nutzen (also nicht stabilisiert). Da war das Bild sehr zittrig bei Vergrößerung zum Fokussieren. Das dürfte recht klar am Blickwinkel, als am zu großen Objektivgewicht gelegen haben. Trotzdem macht es das manuelle Fokussieren schwierig. Natürlich ist das ein sehr spezieller Fall, der sich mit aktuellerer Technik sehr viel eleganter lösen lässt.

Link zum Beitrag
Auf anderen Seiten teilen

Das erkläre mal den ganzen Profifotografen die ihre Einstelligen und professionelle Teleobjektive nutzen. Die sagen doch immer, dass es ein gewisses Gewicht braucht, um Kamera und Objektiv ruhig zu halten.

 

Gruß

 

Hans

 

Genau, je höher das Massenträgheitsmoment, desto "ruhiger" wird es, auch theoretisch.

Link zum Beitrag
Auf anderen Seiten teilen

Croppen ist eine Notlösung, welche durchaus funktioniert, wenn ich es aber öfters brauchen würde, wäre ein anders Objektiv halt doch zielführender.

 

Warum Notlösung ?

 

Meine Entscheidung zu 42 MP basiert auf der Möglichkeit, endlich mal aus dem Vollen croppen zu können.

 

Entspannt am 5K Display, ohne grelles Licht oder in demütiger Haltung, kann sich meine Kreativität zur Auswahl der interessanten Ausschnitte erst voll entfalten :-)

 

Und das Beste aus Fotos mit hochwertigen kompakten Objektiven (mit M-, S-, G- Mount) , die Unschärfen in den Ecken zeigen, kann verwendet werden.

 

ist doch wunderbar, dass diese Option möglich ist und jeder entscheiden kann, das zu nutzen oder nicht ?!

bearbeitet von fourthird
Link zum Beitrag
Auf anderen Seiten teilen

Warum Notlösung ?

 

Meine Entscheidung zu 42 MP basiert auf der Möglichkeit, endlich mal aus dem Vollen croppen zu können.

 

Entspannt am 5K Display, ohne grelles Licht oder in demütiger Haltung, kann sich meine Kreativität zur Auswahl der interessanten Ausschnitte erst voll entfalten :-)

 

Und das Beste aus Fotos mit hochwertigen kompakten Objektiven (mit M-, S-, G- Mount) , die Unschärfen in den Ecken zeigen, kann verwendet werden.

 

ist doch wunderbar, dass diese Option möglich ist und jeder entscheiden kann, das zu nutzen oder nicht ?!

 

Stimmt, Warum mit einer Kugel schießen, wo es doch auch Schrot gibt?

 

Gruß

 

Hans

 

bearbeitet von Hacon
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mein PS Skript zu der Methode kennst du?

 

https://github.com/Lufthummel/Lumix_Metadata/tree/master/ps_scripts

 

Ich nutze es sehr gerne mit 6K Aufnahmen, wirkt mitunter Wunder.

 

Dein Skript habe ich getestet. Wie könnte man dieses Skript abwandeln, dass nur die im Fokus liegenden Bereiche zusammengeführt werden?

 

Meine Tests mit Fokusstacking PS vs. Focusprojects3 gingen klar zu Gunsten von FP3 aus, ohne dass eine unnötige Kontrastanhebung erfolgte.

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe in einem anderen Thread schon vorgerechnet :

Wenn geringe tiefenschärfe nicht gewünscht (zb am Berg) und gutes objektiv, dann werden aus 35mm auf 8000px am 4K-TV beim crop auf die Hälfte VERLUSTFREIE 70mm und beim crop auf ein viertel ein VERLUSTFREIES Foto am hd-TV entsprechend dem bildwinkel eines 140mm objektiv.

Die ganzen Geschichten wie mikrokontraste etc wirken am betrachtungsmedium TV NICHT, da der TV zb schlechter komprimiert (weil er schneller sein muss), ...

Bei vielem ist croppen besser als schleppen;-)

Link zum Beitrag
Auf anderen Seiten teilen

Bei vielem ist croppen besser als schleppen;-)

 

Die Voraussetzung ist dabei dann eine extrem gute Auflösung der Optik, denn wer eine etwa vier jahre alte Optik von seiner Kamera mit 18-20 mPix abschraubt und an eine Kamera mit 50 mPix schraubt wird feststellen, dass sich die Anzahl der Lilienpaare und das Auflösungsvermögen der Optik beim Croppen massiv sichtbar wird.

 

Hatte selber schon superduper-topscharfe Objektive an der 18 mPix Kamera jahrelang genutzt, gecroppt und so weiter, und bin nun mit Sensorgrößen >30 mPix von der Optik überrascht, die ist zwar scharf und gut bei gleichem Ausgabeformat und bei gleicher Ausgabegröße, aber im Crop wird´s gruselig.

 

;)

Link zum Beitrag
Auf anderen Seiten teilen

Hohe Sensorauflösung bringt eine Optik nicht selten an dessen Grenze - habe ich schon mehrfach festgestellt.

Ein Objektiv, welches mit 20 mPix top Ergebnisse bringt, kann mit 40 mPix (zum Vergleich auf 20mPix gecroppt oder nicht) stark nachlassen.

 

:)

 

Jein ... in gleicher Grösse werden die Bilder des 40MP Sensors höher aufgelösst sein, als die des 20ers ... nur die 100% Ansicht ist logischerweise besser beim 20er Sensor ... aber die ist ja auch Pixelabhängig

Link zum Beitrag
Auf anderen Seiten teilen

Auf der anderen Seite, und das ist meine Erfahrung, je höher das Systemgewicht, desto größer die Anstrengung und Muskelanspannung, um das ganze zu halten, was zu mehr zittern führt.

 

 

genau ... wenn man das aufzeichnen wollte, wären das zwei Graphen die sich schneiden (ähnlich wie bei Schärfenzunahme durch Abblenden und Beugung) ... irgendwo gibts ein Idealgewicht, das man sehr ruhig halten kann und das noch kein Muskelzittern in zu grossem Mass verursacht.

 

Es ist auch ruhiger, wenn das Gewicht mehr im Body liegt, als im Objektiv. 

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe in einem anderen Thread schon vorgerechnet :

Wenn geringe tiefenschärfe nicht gewünscht (zb am Berg) und gutes objektiv, dann werden aus 35mm auf 8000px am 4K-TV beim crop auf die Hälfte VERLUSTFREIE 70mm und beim crop auf ein viertel ein VERLUSTFREIES Foto am hd-TV entsprechend dem bildwinkel eines 140mm objektiv.

Die ganzen Geschichten wie mikrokontraste etc wirken am betrachtungsmedium TV NICHT, da der TV zb schlechter komprimiert (weil er schneller sein muss), ...

Bei vielem ist croppen besser als schleppen;-)

 

Mann kann (und sollte) aber seinen 4K Fernseher mit genau skalierten Bildern füttern, dann entfällt die schlechte Komprimierung. Aber auch so fallen die Mikrokontrastunterschiede nicht auf.

Link zum Beitrag
Auf anderen Seiten teilen

Auf der anderen Seite, und das ist meine Erfahrung, je höher das Systemgewicht, desto größer die Anstrengung und Muskelanspannung, um das ganze zu halten, was zu mehr zittern führt.

 

Genau deswegen habe ich den relativierenden Teil mit genannt => Theoretisch.

 

Allerdings kann ich mich an Zeiten erinnern, wo Bierhumpen möglichst lange gehalten werden sollten.

 

Viele Teilnehmer versuchten es mit strammer Haltung und verkrampften zeitnah, nachteilig für die Zeiten.

 

Andere hielten die Gläser in lockerer Haltung, was der Körper dann durchaus mit weitaus besseren Zeiten honorierte.

Link zum Beitrag
Auf anderen Seiten teilen

Gutes Beispiel :-)

 

Tatsächlich habe ich noch nie beobachtet, dass Zeitgenossen versucht haben Tontauben mit Kugeln zu treffen :-)

 

Na ja, wenn die Disziplin "Tontaubenschießen" hießt, ist es auch ein sinnvolles Vorgehen, wenn die Disziplin "Schießen" heißt, nicht unbedingt.

Link zum Beitrag
Auf anderen Seiten teilen

Jein ... in gleicher Grösse werden die Bilder des 40MP Sensors höher aufgelösst sein, als die des 20ers ... nur die 100% Ansicht ist logischerweise besser beim 20er Sensor ... aber die ist ja auch Pixelabhängig

 

Ja, klar ... nicht nur Pixelabhängig, auch von der Optik anhängig - die CTF oder MTF-Diagramme zeigen ja bis zu welcher "Auflösung" das Ganze Sinn hat.

 

Die ganzen Spezis, die im Vergleich einer Canon-50-mPix zu einer Mittelformat-Knipse die Aussage treffen, dass da keine Unterschiede seien, haben exakt diese Details des Auflösungsvermögen einer Optik verschwiegen ;) Rechnet man nun passende und richtig gute Optiken in die Gleichung, dann sieht das schon wieder anders aus.

 

;)

 

Link zum Beitrag
Auf anderen Seiten teilen

Ja, klar ... nicht nur Pixelabhängig, auch von der Optik anhängig - die CTF oder MTF-Diagramme zeigen ja bis zu welcher "Auflösung" das Ganze Sinn hat.

 

Die ganzen Spezis, die im Vergleich einer Canon-50-mPix zu einer Mittelformat-Knipse die Aussage treffen, dass da keine Unterschiede seien, haben exakt diese Details des Auflösungsvermögen einer Optik verschwiegen ;) Rechnet man nun passende und richtig gute Optiken in die Gleichung, dann sieht das schon wieder anders aus.

 

;)

 

 

wie gesagt, das kann auch über dem angeblichen Grenzlevel Sinn machen, die Systemauflösung ist das Produkt aus Objektiv- und Sensorauflösung

 

oder einfacher gesagt (mit Fantasiezahlen) auch ein Wirkungsgrad von 0,9 würde ein Objektiv noch beschneiden, wenn es die theoretische Maximalauflösung des Sensors nicht bringt.

 

Wenn man dann noch ins Grübeln über Farben kommt, stellt man fest, dass der 40MP Sensor halt doch nur 20 Million grünempfindliche und je 10 Millionen rot/blauempfindliche Pixel besitzt ... da überschneidet sich noch einiges, aber es geht definitiv Auflösung verloren.

 

Ich habe vor Jahren mal das lustige Experiment gemacht, ein 6MP Bild auf 4MP herunterzurechnen (damals mit Stepsharpener, sehr aufwändig mit mehreren Stufen skaliert) und wieder auf 6MP zu bringen ... mehrere Personen konnten keinen Unterschied feststellen zwischen Original und dem zweimal skalierten Bild.

 

Wir lassen uns gerne blenden von den superhochauflösenden Sensoren ... aber eigentlich schaffen sie gerade mal so um die 2/3 der Nennauflösung, wenn ein Bild mit mehreren Farben dargestellt werden soll. (das ist der Grund, wieso Foveonbilder mit weit geringerer Auflösung mithalten können)

Den Unterschied kann man zB mit Pentax K1 Bilder sehen, die im Pixelshiftmodus aufgenommen sind ... sie haben trotzdem nicht mehr Auflösung, aber halt an jedem Punkt das Ergebnis aller Farbpixel.

 

(Ich warte ja nur darauf, dass endlich ein Hersteller einen Modus anbietet, bei dem normale Bilder verlustfrei skaliert werden, so dass jeder Pixel alle Farben hat .. würde viel kleinere Dateien ergeben, die für Laien auch noch besser aussehen würden ... naja, weil die halt den Hintergrund der 100% Ansicht nicht verstehen ;) .. )

Link zum Beitrag
Auf anderen Seiten teilen

Den Unterschied kann man zB mit Pentax K1 Bilder sehen, die im Pixelshiftmodus aufgenommen sind ... sie haben trotzdem nicht mehr Auflösung, aber halt an jedem Punkt das Ergebnis aller Farbpixel.

 

Ja, der Modus ist wirklich beeindruckend, für statische Motive sind die Ergebnisse wirklich extrem detailliert unter Beibehaltung der Auflösung. Einziger Nachteil bei der Technologie ist die Unfähigkeit bewegte Motive aufzunehmen. Der Vorteil der Technologie liegt für mich auch im nutzbaren RAW in Lightroom, aus Gründen der Datenmenge nutze ich da aus der Kamera einfach TIFF, dann bin ich bei nur noch 100-120 MB pro Foto. Bei Pentax kann man übrigens mit der Technologie HighIso Rauschen vermeiden, klappt einwandfrei, der Kontrastumfang steigt beträchtlich. Solche Technologie würde ich mir bei Olympus auch wünschen.

 

Die OM-D macht Pixelshift ja auch, allerdings herkömmlich unter Vergrößerung der Auflösung (Pixelanzahl) - und ich muss sagen - blöderweise nutze ich das eigentlich nie, denn die Ergebnisse haben mich nicht überzeugt. Wie sich das im Crop auswirken würde anstelle Teleobjektiv wäre mal eine Frage - das könnte da tatsächlich bei Statischem einen Vorteil bringen.

 

Riesige Sensorauflösungen halte ich für keinen guten Weg, das bringt in meinen Augen zu viel Datenlast und zu wenig Nutzen.

 

;)

Link zum Beitrag
Auf anderen Seiten teilen

 

 

Die OM-D macht Pixelshift ja auch, allerdings herkömmlich unter Vergrößerung der Auflösung (Pixelanzahl) - und ich muss sagen - blöderweise nutze ich das eigentlich nie, denn die Ergebnisse haben mich nicht überzeugt. Wie sich das im Crop auswirken würde anstelle Teleobjektiv wäre mal eine Frage - das könnte da tatsächlich bei Statischem einen Vorteil bringen.

 

Riesige Sensorauflösungen halte ich für keinen guten Weg, das bringt in meinen Augen zu viel Datenlast und zu wenig Nutzen.

 

;)

rein theoretisch würde es helfen, wenn Du das auf 20 MP herunterrechnest ... 

Link zum Beitrag
Auf anderen Seiten teilen

Die OM-D macht Pixelshift ja auch, allerdings herkömmlich unter Vergrößerung der Auflösung (Pixelanzahl) - und ich muss sagen - blöderweise nutze ich das eigentlich nie, denn die Ergebnisse haben mich nicht überzeugt.

 

Womit wir wieder bei der 100% Ansicht wären, nehme ich an. ;)

 

Denn die Olys wenden dabei nicht nur eine "herkömmliche" Erhöhung der (räumlichen) Auflösung, sondern zusätzlich auch eine Abtastung mit allen drei Sensorfarbtypen an jeder Pixelposition an (grün, wie auch bei Pentax, doppelt) und das sowohl an der initialen, wie auch der geshifteten, Aufnahmeposition.

 

Auf Pixelniveau einer RAW-Aufnahme mangelt es der Methodik entsprechend an 64 bzw. 80 MP Detailfülle, auf die Hälfte runtergebrochen schaut's aber schon ganz anders aus und auf die native Auflösung einer normalen Aufnahme runterskaliert (analog einer K-1), schauen dabei aber doch wirklich superfeine Ergebnisse raus, oder?

Link zum Beitrag
Auf anderen Seiten teilen

Denn die Olys wenden dabei nicht nur eine "herkömmliche" Erhöhung der (räumlichen) Auflösung, sondern zusätzlich auch eine Abtastung mit allen drei Sensorfarbtypen an jeder Pixelposition an (grün, wie auch bei Pentax, doppelt) und das sowohl an der initialen, wie auch der geshifteten, Aufnahmeposition.

 

Bist Du ganz sicher, dass die Oly das mit den drei Farben an jedem Pixel so macht  ?

 

Wenn ich mit der Pentax etwas bewegtes mit PixelShift fotografiere habe ich neben der Treppchenbildung auch Bereiche mit Pixeln von nur einer der drei Farben, mache ich das mit der Oly habe ich nur Treppchenbildung und keinerlei einzelne Pixel der drei Farbabtastungen.

 

;)

Link zum Beitrag
Auf anderen Seiten teilen

Die OM-D macht Pixelshift ja auch, allerdings herkömmlich unter Vergrößerung der Auflösung (Pixelanzahl) - und ich muss sagen - blöderweise nutze ich das eigentlich nie, denn die Ergebnisse haben mich nicht überzeugt. Wie sich das im Crop auswirken würde anstelle Teleobjektiv wäre mal eine Frage - das könnte da tatsächlich bei Statischem einen Vorteil bringen.

 

Da würde mich auch mal genauer interessieren, was genau Du gemacht hast (welches Objektiv, welche Blende eingestellt).

 

Ich habe das bisher nur testweise gemacht mit der Pen-F, wo die raw-Datei 80MP ausgibt. Da sollte man lieber nicht pixelpeepen... Neben begrenzter Objektivauflösung und/oder Beugungsunschärfe fallen Randabfälle oder schlechte Zentrierung massiv auf. Skaliert auf die Sensorauflösung wird das Bild wunderbar rauscharm, die normale Körnigkeit ist weg.

 

EDIT: ich war zu langsam...

bearbeitet von pizzastein
Link zum Beitrag
Auf anderen Seiten teilen

Bist Du ganz sicher, dass die Oly das mit den drei Farben an jedem Pixel so macht  ?

 

Pentax und Olympus wenden andere Methodiken an. Bei Pentax werden vier Bilder geschossen und jedes der Folgebilder um eine ganze Pixelposition verschoben aufgenommen, so dass im Endeffekt jede "Farbe" an jeder Position aufgenommen wurde (grün doppelt). Bei Olympus werden acht Bilder geschossen und jedes der Folgebilder um eine halbe Sensorpixellänge im (eckigen) Kreis herum verschoben (ja, der berühmte eckige Kreis ;)), so dass ebenfalls jede "Farbe" an jeder Position aufgenommen wurde. Jedoch kommt es dabei logischerweise (zumindest bei rot und blau) zu einer ungleichen Häufigkeitsverteilung der Abtastung (weniger Überlagerungen an den Rändern als in der Mitte des Ausgangspixels).

 

Unterschiede zwischen Pentax und Olympus in der Erscheinung von Bewegungsartefakten sind wahrscheinlich in der zwingenderweise unterschiedlichen Verrechnung all dieser Einzelbilder begründet. Bei Pentax ist diese recht naheliegend, bei Olympus rotieren jedoch eine Menge sich, oft nur partiell, überschneidender Areale herum – keine Ahnung wie diese Aufdröselung und Zuordnung zu finalen Farbwerten im Detail erfolgt. Auf jeden Fall wird es ziemlich hässlich, wenn mehr als nur der Sensor herumrotiert ... ;)

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...