Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo,

 

Hier mal meine Gedanken zur Schärfentiefe in geraffter Darstellung:

 

 

Wenn ein Objektiv rektilinear abbildet -und nur solche Objektive sollen hier betrachtet werden- , dann sind die objektseitige Fokusebene und die bildseitige Fokusebene nach entsprechender Skalierung geometrisch kongruent.

 

Allerdings ist die Bildebene 2-dimensional, während die abgebildeten Objekte ja 3-dimensional sind.

Davon "weiss" das Objektiv jedoch nichts, denn einzelne Lichtstrahlen enthalten keine Information über die Entfernung.

 

Ein rektilinear abbildendes Obkjektiv bildet daher alle eintretenden Lichtstrahlen stets so ab, als ob sie sich mit der objektseitigen Fokusebene schneiden würden. An dem (evtl. auch nur gedachten oder konstruierten) Schnittpunkt des Lichtstrahls mit der objektseitigen Fokusebene entsteht ein Bildpunkt in der Bildebene an der entsprechenden Stelle.

 

Daher muss man lediglich alle objektseitigen Lichtstrahlen gedanklich soweit verlängern, bis sie die objektseitige Fokusebene schneiden, und man erhält dann ein massstäbliches Abbild aller Zerstreuungskreise.

 

Dazu muss man die Brennweite der Linse nicht kennen. Man muss lediglich die Apertur und die Entfernung wissen.

 

Es sei:

 

o: Entfernung der objektseitigen Fokusebene vom Nodalpunkt der Linse.

(d.h. die Entfernung vom Mittelpunkt der Linse, an dem sich alle Mittelpunktsstrahlen schneiden.)

e: Fokusabweichung, d.h. die Entfernung eines realen Objektes von der gedachten objektseitigen Fokusebene.

a: Apertur. Die Öffnung, bzw. Durchmesser der Linse oder Blende.

z: Zerstreuungskreis, und zwar im Massstab der Objektebene; nicht im Massstab der Bildebene.

 

Dann ergeben sich aus dem Verlauf der realen Lichtstrahlen und der gedachten verlängerten Lichtstrahlen und dem geometrischen Strahlensatz diese überraschend einfachen Zusammenhänge:

 

z = a/(o/e-1)

e = o/(a/z+1)

 

Setzt man nun für z den 1500ten Teil des Bildkreises bzw. der Bilddiagonalen im Massstab der Objektseite ein, dann lässt die Schärfentiefe sich leicht berechnen, ohne dass man die Brennweite oder das Bildformat oder Sensorformat kennt.

 

Man erhält 2 Resultate (vor und hinter der Fokusebene), da z sowohl positiv als auch negativ eingesetzt werden muss.

 

Man muss daher weder die Brennweite noch das Format des Sensors kennen, um die Schärfentiefe zu ermitteln.

 

 

Grüsse und schöne Bilder,

 

Peter

Link zum Beitrag
Auf anderen Seiten teilen

:-)

ohne Deine Ausführungen im Detail verstehen zu wollen, aber den Satz:

"Man muss daher weder die Brennweite noch das Format des Sensors kennen, um die Schärfentiefe zu ermitteln" kann man wohl empirisch widerlegen.

 

Dass der Sensor keine Rolle spielt, sehe ich auch so.

 

Aber dass die Brennweite keine Rolle spielt, ist nachweislich falsch, denn es würde bedeuten, dass (bezogen auf Kleinbildformat) mein 16mm Weitwinkel bei gleicher Blende und gleichem Objektabstand den gleichen Schärfebereich zeigt wie das 400mm Tele. Ein einfacher Test zeigt aber Unterschiede....

 

Viele Grüße,

Alfred

Link zum Beitrag
Auf anderen Seiten teilen

:.

 

Aber dass die Brennweite keine Rolle spielt, ist nachweislich falsch, denn es würde bedeuten, dass (bezogen auf Kleinbildformat) mein 16mm Weitwinkel bei gleicher Blende und gleichem Objektabstand den gleichen Schärfebereich zeigt wie das 400mm Tele. Ein einfacher Test zeigt aber Unterschiede....

Peter meint nicht die relative Blende sondern die Apertur, das ist der

Durchmesser der Blende in mm. Man sieht es, wenn man in seiner Formel die

Maßeinheiten einsetzt. Um mit der relativen Blende zu rechnen, muss man

für a Brennweite/f einsetzen.

 

 

Gruß

Bernhard

Link zum Beitrag
Auf anderen Seiten teilen

Brennweite und Sensorgrösse legen zusammen eine technische Grenze für dem möglichen Abbildungsmassstab fest.

 

Weil ich aber den endgültigen Abbildungsmassstab erst durch den Bildausschnitt festlege, den ich mache, haben sie keinen absoluten Einfluss auf den Abbildungsmassstab und daher auch nicht auf die Schärfentiefe.

D.h. einen Einfluss haben Brennweite und Sensorgrösse schon, aber nur in dem Sinne, dass sie die Grenzen des Machbaren festlegen.

 

Ich rechne mal ein Beispiel mit meiner Formel:

 

e = o/(a/z+1)

 

damit das transparent wird.

 

Ich fotografiere einen Spatz. Damit noch ein bisschen von der Umgebung auf das Bild kommt, werde ich später einen Bildkreis von etwa 20cm ausschneiden, ganz egal wie gross das Bild ist, denn ich will ja den Spatz abbilden.

 

Der maximal zulässige Zerstreuungskreis z im Real World Massstab ist daher 20cm/1500 = 0,13mm.

Der Abstand zum Spatz ist etwa 30m. Also o = 30000 mm.

Die Apertur ist 7cm, weil mein Teleobjektiv oder Spektiv eine 7cm Frontlinse hat und nicht anderweitig abgeblendet ist.

Also a = 70mm.

 

Nun setze ich den Zerstreuungskreis positiv ein:

 

e = 30000/(70/0,13+1) = 55,6 mm

Das ist die Schärfentiefe nach vorne.

 

Ich setze ihn nochmal negativ ein:

 

e = 30000/(70/ -0,13+1) = -55,82 mm

Das ist die Schärfentiefe nach hinten.

 

Bei Teleaufnahmen ist die Schärfentiefe nach vorne und hinten fast gleich, man kann die obige Formel deshalb auch vereinfachen zu:

 

e = o*z/a, es ergibt sich dann 30000*0,13/70 = 55,7.

Der Fehler ist bei Teleaufnahmen kleiner als 10% und man kann ihn für fotografische Zwecke vernachlässigen.

 

Grüsse und schöne Bilder,

 

Peter

bearbeitet von Peter Heckert
Link zum Beitrag
Auf anderen Seiten teilen

Man kann noch etwas weiter überlegen:

 

e = o/(a/z+1)

z = B/1500. (B ist der Durchmesser des Bildkreises (in der objektseitigen Fokusebene gemessen) und 1/1500 ist das normierte Auflösungsvermögen des menschlichen Auges, bei normiertem Blickwinkel)

 

Wenn der zulässige Zerstreuungskreis (im Real World Masstab natürlich) genauso gross ist, wie die Apertur, dann haben wir den Spezialfall der hyperfokalen Entfernung.

 

Man erhält daraus den Durchmesser des hyperfokalen Bildkreises als a*1500. Das ist meines Wissens eine neue Erkenntnis, oder zumindest nicht Allgemeinwissen.

 

Die Schärfentiefe nach vorne ist dann o/2 und die Schärfentiefe nach hinten ist unendlich. Das stimmt exakt mit dem überein, was die herkömmlichen Formeln sagen.

 

Ausserdem kann man die generelle Grösse des Zerstreuungskreises im Unendlichen nun leicht ermitteln:

 

Wenn e unendlich ist, und o endlich ist, dann muss a/z = -1 sein.

Also muss der Zerstreuungskreis im Unendlichen genauso gross wie die Apertur sein.

D.h. der Zerstreuungskreis im Unendlichen, wenn man in im real world Masstab misst, ist stets so gross wie die Apertur.

 

Wenn ich also mit einer 70mm Linsenöffnung einen Spatzen fotografiere, dann ist der Hintergrund im Unendlichen fast vollständig weichgezeichnet.

D.h. man kann ungefähr den Grad der Weichzeichnung im Vorhinein abschätzen.

 

Siehe hier: https://www.systemkamera-forum.de/members/peter+heckert-albums-naturfotografie-picture9450-p1020856cr1000.html

 

Das Grüne im Hintergrund ist eine Wiese, die etwa 100m hinter dem Hügel lag.

 

Grüsse und schöne Bilder,

 

Peter

bearbeitet von Peter Heckert
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Klasse Erklärungen, schönen Dank dafür.

Sie haben meinen mathematischen Horizont erweitert, der seit dem Schümnasium vor sich hindümpelte.

Hintergrund meiner Feststellung, daß ich keinen Taschenrechner zu erwerben brauche, ist die Tatsache, daß nur zwei einfache Faktoren für das Verhältnis der Bildschärfe zur Unschärfe zu werten sind.

Das ist erstens, wie bereits vielfach beschrieben, der Blendenöffnungswert, beziehungsweise der der Eintrittspupille.

Der zweite, noch wichtigere Faktor ist das Verhältnis Kamera-Objektiv zum Objekt und ganz wesentlich das vom Objekt zum Hintergrund.

Eigentlich brauche ich mich mit diesen Zahlen überhaupt nicht zu beschäftigen, wenn meine Kamera mir eine zuverlässige Vorabdarstellung (Schärfentiefenvorschau OM-D) der zu erwartenden Tiefenschärfe liefert.

Trotzdem erneut schönen Dank für die erhellenden Erläuterungen ...

Link zum Beitrag
Auf anderen Seiten teilen

Das ist richtig.

Und nicht richtig ;-)

 

Mir geht es darum herauszufinden, welche Blende ich verwenden muss, damit ich später noch Ausschnitte machen kann.

 

Ausserdem möchte ich die Schärfentiefe wissen, damit ich weiss wie genau ich fokussieren muss, damit die Ausschnitte auch scharf werden.

 

Es ist praktisch, wenn man das vorher schon ungefähr weiss und es nicht durch Versuch und Irrtum rausfinden muss.

 

Ausserdem habe ich ein Spektiv, von dem ich die Brennweite nicht weiss.

Es ist dann beruhigend zu wissen, dass ich die auch nicht wissen muss ;-)

 

Grüsse und schöne Bilder,

 

Peter

Link zum Beitrag
Auf anderen Seiten teilen

  • 3 months later...

Ich hab die Zeichnung nun noch etwas optimiert, und auch als PDF hochgeladen.

 

Ist fast druckreif nun... ;)

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

DOF.pdf

 

Peter

Link zum Beitrag
Auf anderen Seiten teilen

:-)

ohne Deine Ausführungen im Detail verstehen zu wollen, aber den Satz:

"Man muss daher weder die Brennweite noch das Format des Sensors kennen, um die Schärfentiefe zu ermitteln" kann man wohl empirisch widerlegen.

 

Dass der Sensor keine Rolle spielt, sehe ich auch so.

 

Aber dass die Brennweite keine Rolle spielt, ist nachweislich falsch, denn es würde bedeuten, dass (bezogen auf Kleinbildformat) mein 16mm Weitwinkel bei gleicher Blende und gleichem Objektabstand den gleichen Schärfebereich zeigt wie das 400mm Tele. Ein einfacher Test zeigt aber Unterschiede....

 

Viele Grüße,

Alfred

 

die blende an sich ist auch erstmal ein errechneter wert.

die physische größe der blende ist von der objektivkonstruktion und der Brennweite abhängig.

 

Optisch, also wenn man von vorn durch das Objektiv guckt, ist der Durchlass bei 50mm F2.0 genau so groß wie 100mm F4.0, denn die Blende an sich ist eben auch nur ein mithilfe der brennweite errechneter Wert.

Was physisch dahinter ist, weiß man nicht, bis man das Objektiv nicht zerlegt hat, denn die Blende kann in wirklichkeit kleiner oder größer sein, wenn vor und nach der Blende verkleinernde oder vergrößernde Linsenelemente verbaut sind.

 

Entscheidend für die Schärfentiefe ist also schlicht und ergreifend die optische Größe wenn man von vorne durch die Linse blickt. Imo eine sehr einfache Faustregel, die ich auch praktisch schon lange im Einsatz habe.

 

Der Zusammenhang mit der Sensorgröße erschließt sich dann auch ganz schnell. Das Bild wird bei MFT um Faktor zwei beschnitten, das heißt die Brennweite verlängert sich. Aus einem 50mm F2.0 wird also ein 100mm F4.0. Dementsprechend bräuchte man um denselben Ausschnitt und dieselbe Tiefenschärfe zu erziehlen wie ein 50mm F2.0 ein 25mm F1.0!

Entscheidend für die mögliche kurze Tiefenschärfe eines Systems ist also der Abbildungsmaßstab vom Objekt zum Sensor.

Link zum Beitrag
Auf anderen Seiten teilen

Hier noch die 2te Seite und das vollständige PDF Dokument:

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

DOF.pdf

 

Man sieht, dass man die Schärfentiefe ermitteln kann und zwar für beliebige Bildausschnitte, ohne dass man Brennweite oder Sensorgrösse kennen müsste.

 

Im Allgemeinen kennt ein Fotograf ja Gesichtsfeld und Entfernung ungefähr, denn im Allgemeinen weiss er, was er fotografieren will :D.

Natürlich muss er die Apertur aus Brennweite und Blendenzahl berechnen.

Die Sensorgrösse muss er jedoch überhaupt nicht kennen.

 

Es soll hier nicht bestritten werden, dass mit einem kleinen Sensor im Allgemeinen auch grössere Schärfentiefe einhergeht.

 

Es soll lediglich bestritten werden, dass dies an dem kleineren Sensor liegt.

Es liegt vielmehr daran, dass Kameras mit kleinem Sensor (insbesondere Kompaktkameras) im Allgemeinen Objektive mit kleinerer Apertur (bzw. Öffnung) haben.

 

An der Sensorgröße liegt es nicht.

 

Grüsse,

 

Peter

Link zum Beitrag
Auf anderen Seiten teilen

Es liegt vielmehr daran, dass Kameras mit kleinem Sensor (insbesondere Kompaktkameras) im Allgemeinen Objektive mit kleinerer Apertur (bzw. Öffnung) haben.

 

An der Sensorgröße liegt es nicht.

 

Exakt, das liegt aber auch vor allem an dn optisch und praktisch machbaren Grenze bei ca. 1:0.7 - 1:0.95 - Objektive mit großer Apertur haben also bei kleineren Sennsoren automatisch größere Brennweiten. Oder umgekehrt, Weitwinkel mit großem Freistellvermögen sind nur bei großen Sensoren herstellbar.

Gute, einigermaßen fehlerfreie Objektivformeln für große aperturen sind eben eher selten, daher sind Blende zwischen 1.4 und 2.0 das höchste der gefühle was uns olympus und panasonic bieten kann...

Link zum Beitrag
Auf anderen Seiten teilen

Aus meinen Studien über Fernrohre und Okulare weiss ich:

 

Theoretisch könnte man in einer 35mm KB Kamera dort, wo sonst der Film sitzt, eine Feldlinse anbringen, welche die Lichtstrahlen wieder konvergent macht, und dahinter eine Linse, die das Bild auf einen kleineren Sensor projiziert.

Das resultierende Bild hätte dieselbe Schärfentiefe wie bei einer 35mm Kamera.

Es ist also prinzipiell möglich, auch kleinere Sensoren mit Objektiven beliebig grosser Apertur (bei kurzer Gesamtbrennweite) auszustatten.

Oder man könnte einen beliebigen WW Vorsatzkonverter konstruieren.

 

Natürlich ist das sehr teuer. Ein grösserer Sensor ist wohl billiger und leichter als eine solche Optik.

 

D.h. der Grund für die höhere Schärfentiefe bei kleinerem Sensor liegt nur in der Durchführbarkeit und an den Kosten für die Optik.

 

Eine theoretische Begründung, die auf optisch-physikalisch-geometrischen Gesetzmässigkeiten beruhen würde, gibt es dafür nicht.

 

Übrigens darf man z.B. annehmen, dass z.B. ein 14 oder 7mm Objektiv für MFT so ähnlich gebaut sein muss, denn da das Auflagemass bei MFT 20mm beträgt, sind einfache einlinsige Objektive mit Brennweiten < 20mm nicht möglich, denn mit diesen könnte man nicht auf unendlich fokussieren.

 

Aber eigentlich geht es mir darum, das Phänomen "Schärfentiefe" und "Hintergrundunschärfe" zu verstehen und auf einfache Weise zu berechnen.

Aus der obigen einfachen Formel kann man weitere neue, und sehr praktische Zusammenhänge ableiten, z.B. die "kubische Schärfentiefe" die ich erfunden habe ;-)

Das bedeutet: Die Schärfentiefe ist genauso groß wie das Gesichtsfeld. Das ist überraschend einfach berechenbar, so einfach dass man es auch leicht im Feld abschätzen kann und praktisch anwenden kann und daraus auch andere Schärfentiefen ermitteln kann.

 

Das arbeite ich in Moment aus ;-)

 

 

Grüsse,

 

Peter

bearbeitet von Peter Heckert
Link zum Beitrag
Auf anderen Seiten teilen

(...)

Es ist also prinzipiell möglich, auch kleinere Sensoren mit Objektiven beliebig grosser Apertur (bei kurzer Gesamtbrennweite) auszustatten.

Oder man könnte einen beliebigen WW Vorsatzkonverter konstruieren.

 

Natürlich ist das sehr teuer. Ein grösserer Sensor ist wohl billiger und leichter als eine solche Optik.

 

D.h. der Grund für die höhere Schärfentiefe bei kleinerem Sensor liegt nur in der Durchführbarkeit und an den Kosten für die Optik.

 

Eine theoretische Begründung, die auf optisch-physikalisch-geometrischen Gesetzmässigkeiten beruhen würde, gibt es dafür nicht.

 

Übrigens darf man z.B. annehmen, dass z.B. ein 14 oder 7mm Objektiv für MFT so ähnlich gebaut sein muss, denn da das Auflagemass bei MFT 20mm beträgt, sind einfache einlinsige Objektive mit Brennweiten < 20mm nicht möglich, denn mit diesen könnte man nicht auf unendlich fokussieren.

 

Aber eigentlich geht es mir darum, das Phänomen "Schärfentiefe" und "Hintergrundunschärfe" zu verstehen und auf einfache Weise zu berechnen.

Aus der obigen einfachen Formel kann man weitere neue, und sehr praktische Zusammenhänge ableiten, z.B. die "kubische Schärfentiefe" die ich erfunden habe ;-)

Das bedeutet: Die Schärfentiefe ist genauso groß wie das Gesichtsfeld. Das ist überraschend einfach berechenbar, so einfach dass man es auch leicht im Feld abschätzen kann und praktisch anwenden kann und daraus auch andere Schärfentiefen ermitteln kann.

 

Das arbeite ich in Moment aus ;-)

 

 

Grüsse,

 

Peter

 

Die findigen Optiker haben sich nicht ohne Grund die Retrofokus-Konstruktion ausgedacht. Dieser umgedrehte Telekonverter sitzt an der richtigen Stelle, wo er auch noch gleich den Bildkreis und Strahlengang an das Bildaufnahmesystem anpassen kann. Das geht vor dem eigentlichen Objektiv nicht.

Für Leica-M gibt es ja durchaus Objektive mit Brennweiten kleiner als Auflagemaß, deren hintere Linse(n) sehr weit hinter das Bajonett eintauchen. Die Brennweite muß also nicht zwingend beim Auflagemaß enden.

Wer baut einlinsige Objektive? Lensbaby mal ausgenommen, die wollen ja, wie der Name schon sagt, erst noch richtige Objektive werden. Es kommt halt ganz darauf an, was und wie man abbilden will.

Meines Wissens bilden Einlinser (andere Objektive auch, wenn man das nicht explizit korrigiert) sphärisch ab. Könntest Du auch dafür die von Dir erfundene "kubische Schärfentiefe" bei der Abbildung auf eine plane Fläche wie Film oder Sensor berechnen?

Zitat: "Das bedeutet: Die Schärfentiefe ist genauso groß wie das Gesichtsfeld."

Könnte es sein, dass das schon in alten verstaubten Lehrbüchern steht? Wobei das Bildfeld (Feld = nicht Raum) ja eigentlich eine Fläche ist und deshalb keine Tiefe haben kann?! Genauer müsste es doch dann heißen: "Die Ebene gleicher Schärfe in einer bestimmten Entfernung ist genauso groß wie das in dieser Entfernung bestehende (ggfs. spährische) Bildfeld."

Oder liege ich da mathematisch völlig daneben?

Ich bilde doch auf dem Sensor (Film) im Bereich der definierten Schärfentiefe einen innerhalb des Bildkreis-Kegelstumpfes liegenden Pyramidenstumpf ab. Dessen Höhe ist davon abhängig, wie ich die Schärfe an der Grenze der Schärfentiefe definiere. Das ist ja durchaus variabel und nicht zuletzt von Betrachtungsabstand zum fertigen Bild und dessen Größe abhängig. Dieses Pferd müsste man also von hinten aufzäumen und je nach Bildgröße und Betrachtungsabstand den Unschärfekreis definieren.

Link zum Beitrag
Auf anderen Seiten teilen

. . . .

Ich bilde doch auf dem Sensor (Film) im Bereich der definierten Schärfentiefe einen innerhalb des Bildkreis-Kegelstumpfes liegenden Pyramidenstumpf ab. Dessen Höhe ist davon abhängig, wie ich die Schärfe an der Grenze der Schärfentiefe definiere. Das ist ja durchaus variabel und nicht zuletzt von Betrachtungsabstand zum fertigen Bild und dessen Größe abhängig. Dieses Pferd müsste man also von hinten aufzäumen und je nach Bildgröße und Betrachtungsabstand den Unschärfekreis definieren.

 

Alle Achtung, Wofgang!

 

Wahrscheinlich verfolge ich diese Diskussion so erwartungsfroh, weil sie so außergewöhnlich sachlich geführt wird.

Da werden die vielen einleuchtenden Erkenntnisse beinahe schon zur erfreulichen Beigabe.

Beispiel: die "kubische Schärfentiefe", so wie von Peter beschrieben, hat mich so beeindruckt, dass ich sie nicht hinterfragt habe.

 

Du bist mit Deinen Überlegungen dazu, Deinem Signum - beginnend mit Wenn und endend mit ... - gefolgt.

 

Was bringen die weiteren Beiträge?

 

Hier kann ich nur fragen, nicht beitragen.

 

Henri

Link zum Beitrag
Auf anderen Seiten teilen

Zitat: "Das bedeutet: Die Schärfentiefe ist genauso groß wie das Gesichtsfeld."

Könnte es sein, dass das schon in alten verstaubten Lehrbüchern steht?

 

Ich bin natürlich kein Fachmann, d.h. solche verstaubten Werke kenne ich nicht. Ich muss mich auf das beschränken, was ich online finde. Allerdings wurde auch in den Physikvorlesungen beim Studium der Elektrotechnik das Thema "Optik" etwas tiefer behandelt, als im Physikuntericht an der Schule, d.h. Grundkenntnisse habe ich durchaus.

Das war allerdings vor etwa 30 Jahren, d.h. meine Grundkenntnisse sind etwas verstaubt ;-).

 

Natürlich will ich das Rad nicht zweimal erfinden, deshalb wäre ich für Literaturhinweise dankbar.

Ich habe noch nichts gefunden, das wirklich hilfreich war, überall findet man halbwahre Behauptungen, z.B. "Die Schärfentiefe wird mit zunehmender Brennweite kleiner".

Sowas verwirrt nur, denn es stimmt nicht.

Wenn der Bildmasstab gleich bleibt, die Blendenzahl gleich bleibt, und daher der Abstand zunimmt, dann bleibt die Schärfentiefe gleich.

 

Mein Interesse ist nicht akademisch, sondern mir geht es um die praktische Anwendung.

 

Ich umreise meine Idee mal kurz:

e: zulässige Fokusabweichung bzw. Schärfentiefe.

d: Entfernung der Fokalebene, bzw. des Gesichtsfeldes.

G: Duchmesser des Gesichtsfeldes.

a: Apertur der Linse.

 

e = d*G/1500/(a+G/1500).

Wenn man Tiere oder Planzen fotografiert, dann will man ja kleinste Details noch scharf sehen, deshalb ist die Auflösung stets wesentlich kleiner als die Apertur. Deshalb kann man das für diese Anwendung vereinfachen zu:

 

e = d*G/1500/a.

Setzt man nun e = G, dann erhält man

a= d/1500.

 

Weil die Schärfentiefe nach vorne und hinten etwa gleich ist (wenn die Auflösung kleiner als die Apertur ist), erhält man also die kubische Schärfentiefe, wenn a=d/750 ist.

 

D.h. als Daumenregel kann man sich merken:

 

a=d/1000 => Schärfentiefe ist etwas grösser als Bildbreite.

a=d/500 => Schärfentiefe ist etwas kleiner als Bildbreite.

a >> d/500 => Schärfetiefe ist wesentlich kleiner als Bildbreite und ihre relative Grösse kann man grob abschätzen, wenn man diese Regel kennt.

Das gilt auch dann, wenn man nachträglich Bildausschnitte macht, vorausgesetzt, dass die Mitte des Ausschnitts genau im Fokus ist!

 

Ich finde das ungemein praktisch.

 

Gibt es ein Werk, in dem das so praxisnah und verständlich erläutert und auch erklärt wird?

 

Grüsse,

 

Peter

bearbeitet von Peter Heckert
Link zum Beitrag
Auf anderen Seiten teilen

Ich bin natürlich kein Fachmann, (...)

Ich auch nicht, bin auch kein Optiker.;) Habe nur beruflich sehr viel mit optischen Instrumenten und Optik-Entwicklern zu tun.

(...) deshalb wäre ich für Literaturhinweise dankbar. (...)

Vielleicht Eugene Hecht, Optik: Beispiel

Habe noch die Ausgabe von 1994. Für mich als Nicht-Mathematiker trotz viel Formelitis gut verständlich, didaktisch m. M. n. sehr gut gemacht.

 

Gibt es ein Werk, in dem das so praxisnah und verständlich erläutert wird?

 

Grüsse,

 

Peter

 

Da ich ein Praktiker bin und lieber im Sucher oder auf dem Display meine Bilder gestalte, statt dazu mit dem spitzen Bleistift durch die Wiese zu kriechen (sorry;)), finde ich zum Beispiel diese Beschreibungen hier interessanter als die Rechnerei:

Schärfentiefe und Bokeh

Für mich ist das Aussehen (Bokeh) der Unschärfe wichtiger als das Unschärfescheibchen an sich, wenn es ein Teil der Bildgestaltung sein soll. Da hilft die Rechnerei nichts, weil das von der Konstruktion der Optik abhängt und beim gleichen Unschärfescheibchendurchmesser von saumäßig bis schön aussehen kann. Das können die Optik-Entwickler begrenzt simulieren.

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

Es geht mir ja gerade darum, den spitzen Bleistift, Tabellen und Diagramme zu vermeiden.

So wie ich das beschrieben und vereinfacht habe, kann man das ja schätzen, wenn man den Zusammenhang begriffen hat. Man kann ruhig 20% Fehler in Kauf nehmen; fotografisch ist das irrelevant.

 

Bokeh ist ein verwandtes, aber anderes Thema.

Auch das lässt sich leicht abschätzen: Das maximale Bokeh kann nicht grösser werden, als die Apertur der Linse.

 

Beispiel, fotografiert mit 30mm, Blende 2,8:

 

 

69856d1341426054-tiefenschaerfe-depth-field-rechner-apertur.jpg

 

Die Apertur ist also etwa 10mm und genauso gross wird das Bokeh im weit entfernten Hintergrund. Wenn der Hintergrund statt 3m nur doppelt so weit weg wäre, wie der Messchieber, dann wäre das Bokeh etwa 5mm.

 

Man kann also z.B. im Vorhinein abschätzen, welches Bokeh ein 30mm 1:2,8 Objektiv bei einem Porträt liefern kann: Die Bokehscheibchen werden etwas grösser als die Iris der Augen. Noch grösser konnen sie prinzipiell nicht werden.

 

Hier hilft es auch tatsächlich, die Brennweite zu erhöhen: Mit 100mm bei Blende 4 würde man maximal Bokehscheibchen von 25mm erhalten, völlig unabhängig vom Abbildungsmassstab....

 

Das kann man ebenfalls aus meiner zeichnerischen Konstruktion intuitiv erkennen, viele Rechenkünste braucht es da nicht, wenn man den Zusammenhang begriffen hat.

 

Vielen Dank für den Verweis auf das sehr gute Zeiss Dokument. In weiten Teilen sagt es dasselbe aus, was ich bereits gerechnet und gezeichnet habe.

 

Grüsse,

 

Peter

bearbeitet von Peter Heckert
Link zum Beitrag
Auf anderen Seiten teilen

...Theoretisch könnte man in einer 35mm KB Kamera dort, wo sonst der Film sitzt, eine Feldlinse anbringen, ...

 

Nicht nur theoretisch, für Teleskope ist das mittlerweile weit verbreitet. Ich habe mal einen Vergleich zwischen einer KB -Kamera (mit einem 1,5x Extender) und einer FT-Kamera (mit 0,75x Reducer) am gleichen Teleskop gemacht - wie nicht anders zu erwarten kommt am Ende das gleiche Bild raus.

Nur, daß die KB Kamera die 4-fache Belichtungszeit bzw. zwei Stufen mehr Verstärkung benötigt.

Noch deutlicher wird es am Mikroskop ersichtlich, da sind kaum Grenzen gesetzt. Ein und das selbe Objektiv kann man mit entsprechender Zwischenoptik von PentaxQ bis Mittelformat einsetzen. Gar nix passiert mit der Tiefenschärfe (und auch nicht mit der Beugung).

 

LG Horstl

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...