Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo

 

Da sich hier viele für lichtstarke Objektive interessieren, stellt sich mir die Frage, was diese für einen Vorteil haben. Wenn ich davon ausgehe, dass z.B. das preislich erschwingliche 100-300er Blende 5,6 bietet, ein (theoretisch denkbares) 100-300er mit Blende 2,8 aber unbezahlbar wäre, von der Größe und dem Gewicht mal ganz abgesehen - was hätte das für einen Vorteil? Wenn ich mich nicht gewaltig irre, kommt es doch vom Ergebnis her auf das gleiche raus, wenn ich statt dieser einen - teuer zu bezahlenden - Blendenstufe die Empfindlichkeit von 160 auf 320 erhöhe. Wäre es daher nicht sinnvoller, wenn alle Anstrengungen der Hersteller in Richtung höhere ISO-Werte mit geringstem Rauschen gingen? ISO 3200 nahezu rauschfrei anstatt ISO 160, würde doch mehr bringen, als eine Erhöhung der Lichtstärke um eine Blende. Oder mache ich da jetzt einen Denkfehler?

 

Eistiger

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Eistiger,

 

ich glaube mit lichtstarken Teleobjektiven meinen die meisten hier lichtstarke Festbrennweiten à la 1.4/40 mm oder 1.4/50 mm, die ja dank Crop-Faktor 2 zum leichten Telebereich gehören. Der Sinn eines, um Dein Beispiel aufzugreifen, 2.8/100-300mm bliebe mir aufgrund der extrem aufwändigen Konstruktion (Gewicht, Preis) und des damit zunichte gemachten Vorteils des kompakten mFT-Systems eher verschlossen... In diesem Fall machst Du in meinen Augen keinen Denkfehler :)

 

Ich bin mir sicher, dass die Weiterentwicklung der Sensoren es ermöglicht, in den nächsten Jahren (m)FT-Sensoren mit rauschfreien ISO 6400 zu erwerben - dann werde ich selber auch über einen Tausch meiner geliebten GF1 nachdenken :)

Link zum Beitrag
Auf anderen Seiten teilen

...Wäre es daher nicht sinnvoller, wenn alle Anstrengungen der Hersteller in Richtung höhere ISO-Werte mit geringstem Rauschen gingen? ISO 3200 nahezu rauschfrei anstatt ISO 160, würde doch mehr bringen, als eine Erhöhung der Lichtstärke um eine Blende. Oder mache ich da jetzt einen Denkfehler?...
Ja, ich denke du machst ein paar Denkfehler, obwohl du mit deinem Argument für manche Situationen auch Recht hast:

  1. In deinem Beispiel gehst du von falschen Zahlenverhältnissen aus: Der Unterschied zwischen f:2.8 und f:5.6 beträgt nicht eine sondern zwei Blendenstufen. Du müsstest, um das zu kompensieren, also nicht von ISO 160 auf 320 erhöhen, sondern gleich mal auf 640. Bislang geht eine Verringerung des Rauschens bei kleinem Sensor allzuoft mit einem Verlust an Detailzeichnung einher. Ebenso verringert sich der Kontrastumfang mit höherer Empfindlichkeit. Das ist bei allem Fortschritt immer noch ein Problem.
  2. Für lange Teleobjektive stimme ich dir dennoch zu: Statt riesige Rohre für teures Geld bringt da gerade im kompakten mFT-System eine gute High-ISO-Qualität sicher mehr.
  3. Aber bei etwas kürzeren Brennweiten bleibt auch eine gute Lichtstärke größenmäßig noch im Rahmen. Und hohe Lichtstärke steht ja nicht nur für die Möglichkeit, ausreichend kurze Belichtungszeiten zu erzielen (was man eben auch mit höherer ISO erreichen könnte), sondern auch für mehr Freistellungspotenzial - und das kannst du eben nicht mit höherer ISO-Zahl kompensieren. Gerade wegen des kleinen Sensors braucht man um den Hintergrund unscharf zu bekommen besonders hohe Lichtstärken.

Gruß, leicanik

Link zum Beitrag
Auf anderen Seiten teilen

ein Hauptvorteil lichtstarker Optiken ist-gerade bei verhältnismäßig kleinem Sensor wie MFT- die Möglichkeit bei offener Blende Objekte viel schöner freistellen zu können,z.B.etwa störenden Hintergrund in Unschärfe "verschwinden" zu lassen.

 

Hoppala,leicanik hat schneller geschossen:-))

Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich davon ausgehe, dass z.B. das preislich erschwingliche 100-300er Blende 5,6 bietet, ein (theoretisch denkbares) 100-300er mit Blende 2,8 aber unbezahlbar wäre, von der Größe und dem Gewicht mal ganz abgesehen - was hätte das für einen Vorteil?

 

Keinen, Du hättest bei 2.8 und einer Entfernung von 10 Meter eine Schärfentiefe von 9 cm. Bei 5 Meter nur mehr 2,2 cm :eek:.

 

Das will, glaube ich, auch keiner haben.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich mit ISO-640 und F5,6 noch auf eine ausreichend kurze Belichtungszeit komme, reicht das natürlich, sofern mich das stärkere Rauschen nicht stört und ich brauche kein lichtstärkeres Objektiv.

 

Aber was ist, wenn ich nur noch mit ISO-1600 und F2,8 auf ausreichend kurze Belichtungszeiten komme? - Dann habe ich mit F5,6 keine Chance mehr.

Wer Hallensport in relativ dunklen Sporthallen fotografiert, braucht durchaus auch mal ISO-1600, 3200 oder noch mehr bei F2,8, wenn er Bewegungsunschärfe mit einer ausreichend kurzen Belichtungszeit vermeiden will. (Nicht umsonst ist das Canon 200/1,8 bei Hallensport-Fotografen ziemlich beliebt... da ist manchmal selbst F2,8 nicht lichtstark genug.)

Link zum Beitrag
Auf anderen Seiten teilen

Hallo

 

Da sich hier viele für lichtstarke Objektive interessieren, stellt sich mir die Frage, was diese für einen Vorteil haben. Wenn ich davon ausgehe, dass z.B. das preislich erschwingliche 100-300er Blende 5,6 bietet, ein (theoretisch denkbares) 100-300er mit Blende 2,8 aber unbezahlbar wäre, von der Größe und dem Gewicht mal ganz abgesehen - was hätte das für einen Vorteil? Wenn ich mich nicht gewaltig irre, kommt es doch vom Ergebnis her auf das gleiche raus, wenn ich statt dieser einen - teuer zu bezahlenden - Blendenstufe die Empfindlichkeit von 160 auf 320 erhöhe. Wäre es daher nicht sinnvoller, wenn alle Anstrengungen der Hersteller in Richtung höhere ISO-Werte mit geringstem Rauschen gingen? ISO 3200 nahezu rauschfrei anstatt ISO 160, würde doch mehr bringen, als eine Erhöhung der Lichtstärke um eine Blende. Oder mache ich da jetzt einen Denkfehler?

 

Eistiger

 

 

bei einem lichtstarken Objektiv kannst Du trotzdem ISO 3200 verwenden ;) UND aufblenden.

 

Aber Du hast schon recht, gerade im Fall der lange Teleobjektive wäre eine rauscharme ISO 3200 Einstellung wohl sehr hilfreich, da wirklich lichtstarke Superteleobjektive extrem teuer werden ... im kürzeren Bereich aber, will man oft den schmaleren Schärfebereich und wird deshalb trotzdem auf Lichtstärke gehen.

Link zum Beitrag
Auf anderen Seiten teilen

... im kürzeren Bereich aber, will man oft den schmaleren Schärfebereich und wird deshalb trotzdem auf Lichtstärke gehen.

Ließe sich nicht geringe Schärfentiefe auch in Software realisieren? Keine Software kann etwas unscharfes scharf rechnen (Information erfinden). Umgekehrt solllte es aber gehen (Information wegwerfen).

 

Kolja

Link zum Beitrag
Auf anderen Seiten teilen

Ließe sich nicht geringe Schärfentiefe auch in Software realisieren? Keine Software kann etwas unscharfes scharf rechnen (Information erfinden). Umgekehrt solllte es aber gehen (Information wegwerfen).

Das ließe sich nur dann in derselben Art wie bei einem dementsprechend lichtstarken Objektiv realisieren, wenn zusätzlich für jede Pixelposition die Entfernung zum Sensor aufgezeichnet würde. Aber ich fürchte auf so eine Funktion wird man noch eine ganze Weile warten müssen... ;)

 

 

Grüße

Link zum Beitrag
Auf anderen Seiten teilen

Ließe sich nicht geringe Schärfentiefe auch in Software realisieren? Keine Software kann etwas unscharfes scharf rechnen (Information erfinden). Umgekehrt solllte es aber gehen (Information wegwerfen).

 

Kolja

 

Ja, gibt es sogar schon.

 

Dabei werden mehrere Aufnahmen gemacht und daraus eine geringere Schärfentiefe errechnet ... auch den Grad der Unschärfe kann man verstärken, dabei wird sozusagen die Unschärfe aufgesteilt.

 

Software, die sowas kann:

 

FocalPoint 2 - onOne Software

Link zum Beitrag
Auf anderen Seiten teilen

Ja, gibt es sogar schon.

 

Mich würde mal ein Vergleich zwischen einem "echten" f1.4 Offenblend-Portrait und einem per Software simulierten interessieren.

 

Solange nur ein Bild als Quelle dient, kann ich mir nicht vorstellen, dass dabei was brauchbares rauskommt. Sieht dann wahrscheinlich eher nach solchen Artfilter-Effekten wie Diorama etc. aus. Wenn jedoch ein Stereobild gemacht wurde, könnte die Sache schon anders aussehen, denn dann wäre theoretisch die Tiefeninformation ermittelbar und damit auch ein realistischer Schärfeverlauf errechenbar.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn jedoch ein Stereobild gemacht wurde, könnte die Sache schon anders aussehen, denn dann wäre theoretisch die Tiefeninformation ermittelbar und damit auch ein realistischer Schärfeverlauf errechenbar.

Genau das ist der Punkt. Es müssen zumindest zwei Bilder gemacht werden und der Abstand der Aufnahmepositionen muß genau bekannt sein um die nötige Tiefeninformation ermitteln zu können. Und das auch nur theoretisch, weil erstmal ein derart fortgeschrittener Algorithmus entwickelt werden will der auf beiden Bildern vorhandene analoge Strukturen als solche zu erkennen vermag - jede noch so winzige Kleinigkeit und das pixelgenau.

 

Und wenn diese Hürde tatsächlich genommen ist, bräuchte man an sich auch geeignete 3D Objektive dafür. Denn es ist reichlich unpraktikabel mit normalen Objektiven immer zwei Bilder von unterschiedlichen Positionen (bekannten Abstands) aus aufnehmen zu müssen. Mag als Spielerei nett sein, aber für den Alltag wohl eher nix.

 

Im auf deren Website befindlichen Demovideo wurde offensichtlich kein einziges Foto mittels einer an sich notwendigen Simulation der Tiefenschärfe anhand der Tiefeninformation erstellt. Dafür liegen die scharfen/unscharfen Bereiche immer auch an den "falschen" Stellen. Damit unterscheiden sich dann auch die dadurch erzielbaren Tiefenschärfeeffekte von Aufnahmen dementsprechend schnellerer Objektive.

Der erzielbare Effekt ist daher eher zB dem bekannten Dioramafilter vergleichbar, nur deutlich freier konfigurierbar und mit der Möglichkeit Bildanteile per Auswahl davon auszuklammern (zB Personen). Letztlich kann man genau dieselben Effekte auch in Photoshop und der Arbeit in mehreren Ebenen inkl. Verlaufsauswahlen erzielen, in dieser Software wirds aber wohl deutlich komfortabler ablaufen.

 

Soll nicht heissen, dass die damit erhaltenen Ergebnisse schlecht wären. Ganz im Gegenteil, ich finde sie bietet einige interessante Möglichkeiten und auf die Art lassen sich Effekte erzielen welche mit schnellen Objektiven allein nicht erzielbar wären.

Aber es ist einfach keine 100% realistische Simulation geringer Tiefenschärfe von dementsprechend schnellen Objektiven. Hätte mich jetzt ehrlich gesagt aber auch sehr gewundert - siehe oben... ;)

 

 

Grüße

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Ließe sich nicht geringe Schärfentiefe auch in Software realisieren?

Hier mal eine ältere Aufnahme, wo ich das per Software für den Hausgebrauch probiert habe. :)

 

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Mich würde mal ein Vergleich zwischen einem "echten" f1.4 Offenblend-Portrait und einem per Software simulierten interessieren.

 

Solange nur ein Bild als Quelle dient, kann ich mir nicht vorstellen, dass dabei was brauchbares rauskommt. Sieht dann wahrscheinlich eher nach solchen Artfilter-Effekten wie Diorama etc. aus. Wenn jedoch ein Stereobild gemacht wurde, könnte die Sache schon anders aussehen, denn dann wäre theoretisch die Tiefeninformation ermittelbar und damit auch ein realistischer Schärfeverlauf errechenbar.

 

Ich habe es erst einmal gesehen, aber das sah sehr realistisch aus ... ist ja auch klar, wenn die Unschärfe erkannt und einfach verstärkt wird, abhängig vom Zerstreuungskreis.

 

Da ich solche Software selbst nicht nutze, kann ich aber keine weitergehenden Erfahrungen dazu beisteuern. Ich gehe aber davon aus, dass wir das auch bald als Standard in den Kameras sehen werden (in irgendeinem Modell wurde es schon beworben, hab mir das Modell aber nciht gemerkt :/ )

Link zum Beitrag
Auf anderen Seiten teilen

...Ich gehe aber davon aus, dass wir das auch bald als Standard in den Kameras sehen werden...

Huh, da werden die Puristen dann aber aufjaulen :D.

 

@Maxi: ich finde Dein Ergebnis überzeugend. Ich hätte dem 2. Bild die Bearbeitung nicht angesehen. Meine Bildverarbeitungs-Kentnisse reichen für solche Tricks nicht aus, aber wenn es auf Knopfdruck ginge ("Blende 1.4 Simulation"), dann wäre ich dabei.

 

Kolja

Link zum Beitrag
Auf anderen Seiten teilen

@Maxi: ich finde Dein Ergebnis überzeugend. Ich hätte dem 2. Bild die Bearbeitung nicht angesehen. Meine Bildverarbeitungs-Kentnisse reichen für solche Tricks nicht aus, aber wenn es auf Knopfdruck ginge ("Blende 1.4 Simulation"), dann wäre ich dabei.

 

Kolja

 

Und damit nähern wir uns wieder der Frage, ob immer alles unbedingt mit Hilfe teurer, schwerer Objektive erreicht werden muss, oder eine wesentlich preiswertere Hardware (Sensor)- oder Software-Lösung in vielen Fällen nicht zu vergleichbar guten - oder gar besseren? - Ergebnissen führen kann. Den Puristen mag's grausen, aber wenn man es dem Ergebnis nicht ansieht - was ist dann an der Software-Lösung verwerflich? Wo ist die Grenze, bis zu der die moderne Technik und ihre Möglichkeiten akzeptiert werden? Müssten die Puristen dann nicht auch heute noch mit chemischem Film fotografieren?

 

Ich frage mich andererseits, warum man heute auf die Möglichkeit verzichten sollte, im Extremfall mit einem relativ lichtschwachen, aber bezahlbaren Objektiv mit ISO 12800 Fotos zu machen - zwar nicht perfekt, aber immerhin in einer Qualität, die vor nicht allzu langer Zeit selbst mit gepushtem 400er Film und extrem lichtstarken Objektiven nicht möglich war?

 

Eistiger

Link zum Beitrag
Auf anderen Seiten teilen

Den Puristen mag's grausen, aber wenn man es dem Ergebnis nicht ansieht [...]

Ich bin zwar kein Purist, denn dafür mag ich technische Innovationen und Spielereien viel zu sehr (zB mag ich die Vorteile von EVFs nicht mehr missen).

 

Aber dem hier gezeigten Beispiel sieht man, genauso wie den meisten anderen, eindeutig an, dass die geringe Schärfentiefe per Nachbearbeitung erreicht wurde. Einerseits an den Übergangsstellen scharf-unscharf (Haare, Schulter-/Brustbereich) und andererseits, daran dass nur entweder scharfe oder unscharfe Stellen existieren. Es fehlt an entfernungsabhängigen Übergängen. Die weiter entfernten Strukturen im Bild müssten viel verschwommener sein, wenn das Hauptmotiv in dieser Form vom recht nahen Umfeld freigestellt wäre.

 

Es ist unheimlich mühsam bei Fotos dieser Art wirklich überzeugende Tiefenschärfe zu imitieren. Um zu halbwegs schnellen und dennoch annähernd perfekten Ergebnissen zu kommen ist das Bild zu komplex aufgebaut, bei mir klappt sowas eigentlich nur bei Hauptotiven welche man per Auswahl sehr gut vom Hintergrund isolieren kann. Keinesfalls sollten dabei Übergänge in den Hintergrund hinein oder eine Unzahl an weiteren Objekten vorhanden sein. Sonst wird es zumindest mir viel zu aufwendig.

 

Warten wir mal ab was die Zukunft bezüglich solcher Automatiken bringt. Sobald Überzeugendes angeboten wird, nur her damit. Jede neu eröffnete Option ist herzlich willkommen. Aber bis dahin (und den gut nutzbaren ISO 25600) behalt ich mir definitiv meine lichtstarken Objektive... ;)

 

 

Grüße

Link zum Beitrag
Auf anderen Seiten teilen

@Maxi: ich finde Dein Ergebnis überzeugend. Ich hätte dem 2. Bild die Bearbeitung nicht angesehen.

Es gab eine Zeit Kolia, da wollte ich mit der onOne Software FocalPoint auf das ganze schwere Glas gänzlich verzichten,

wer natürlich ein Haar in der Suppe finden will, findet es auch. ;)

 

Ich denke aber auch, dass viele unserer Bilder ohne Anmerkungen und Exifdaten einen ganz anderen Stellenwert einnehmen würden.

.

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Huh, da werden die Puristen dann aber aufjaulen :D.

 

 

das haben sie auch getan, als mFT die Verzeichung und sonstigen Fehler in der Kamera korrigierte ... hat ihnen aber nicht viel genützt und seit man Canonobjektive im RAW Konverter und so manche andere sogar auch in der Kamera entzerren kann, ist es auf einmal OK.

 

Genauso wird es mit den Kameras auch in diesem Bereich weitergehen, der Hund bellt, die Karawane zieht weiter ;)

Link zum Beitrag
Auf anderen Seiten teilen

In der Theorie ist natürlich alles denkbar. Sowohl rauschfreie ISO 12800 auf Mini-Sensoren als auch per Software simulierte Tiefenschärfe. Z.B. könnte das Stereobild aktueller 3D-Kompaktkameras wie der Fuji Real 3D W3, bei der die Kamera den Objektivabstand und die Brennweite ja genau kennt, für so eine Simulation eine gute Basis liefern.

 

Bis das ganz aber tatsächlich an die Qualität einer hochwertigen Kamera mit größerem Sensor und lichtstarkem Objektiv heranreicht, wird noch viel, viel Wasser die Elbe, den Main und die Donau hinabfließen. Abgesehen davon wird in der Zeit die Entwicklung bei den hochwertigen Optiken und Sensoren auch nicht stehenbleiben und diese dann in noch ganz andere Dimensionen vorstoßen können.

Link zum Beitrag
Auf anderen Seiten teilen

In der Theorie ist natürlich alles denkbar. Sowohl rauschfreie ISO 12800 auf Mini-Sensoren als auch per Software simulierte Tiefenschärfe. Z.B. könnte das Stereobild aktueller 3D-Kompaktkameras wie der Fuji Real 3D W3, bei der die Kamera den Objektivabstand und die Brennweite ja genau kennt, für so eine Simulation eine gute Basis liefern.

 

Bis das ganz aber tatsächlich an die Qualität einer hochwertigen Kamera mit größerem Sensor und lichtstarkem Objektiv heranreicht, wird noch viel, viel Wasser die Elbe, den Main und die Donau hinabfließen.

Und bittschön auch den Rhein, wenn`s recht ist :D

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...