Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Die Helligkeit wird allgemein in EVs gemessen (Exposure Value)... hier kann durchaus eine Dämmerungsaufnahme die gleiche Helligkeit=EV, wie ein Bild tagsüber in einer trüben Gasse haben... und

 

 

 

 

 

Wieso und nu? Die automatischen Belichtungskorrektur stellt in beiden Fällen den gleichen EV-Wert ein.

Link zum Beitrag
Auf anderen Seiten teilen

@klarus

Nimm doch iAuto das macht genau das im Unterschied zu A oder P. Bei meiner Sony ist es der goldene iAuto Modus. Der macht sogar mehrfachbelichtungen anstatt den Blitz auszufahren um den dunklen Bildcharakter zu bewahren.

bearbeitet von wasabi65
Link zum Beitrag
Auf anderen Seiten teilen

...die das Signal zwischen Sensor und Belichtungsautomatik abnimmt (es entspricht der äusseren Situation) und damit die Belichtungskorrektur ansteuert, damit die das Bild auf einen definierten helleren oder dunkleren Wert bringt.

 

So wie Du Dir das vorstellst funktioniert es nur, wenn die Kamera in der Lage ist, das Motiv zu analysieren und zu erkennen. Bisher weiss eine Automatik nicht, ob Du Dich in einem von einer dämmrigen Funzel beleuchteten Keller befindest oder ob Du in einer gleissend hellen Halle aufnimmst. Genausowenig weiss eine Automatik, ob Du eine weisse oder eine schwarze Wand aufnehmen willst. Sie kann das auch nicht anhand des reflektierten Lichtes erkennen, da eine schwarze Wand in der Mittagssonne eventuell mehr Licht abgibt als eine weisse in der Dämmerung.

 

Ansatzweise machen das die bestehenden intelligenten Automatiken (iAuto) schon, indem die das Bild auf dem Sensor mit diversen abgespeicherten Mustern vergleichen. Allerdings ist die Rechenleistung und Speicherkapazität aktueller Systeme noch weit davon entfernt, das in ausreichender Geschwindigkeit und mit akzeptabler Genauigkeit tun zu können.

 

Zwar hat das Thema im Zeitalter des EVF an Bedeutung verloren, weil man das Ergebnis ja sofort sieht und sowieso immer einen Finger am Korrekturrad hat. Die Smartphoneknipser brauchen das aber, da sie in der Regel nicht wissen, wie man heller oder dunkler macht. Weil es davon aber mehr gibt als Fotografen, kommt das sicher irgendwann ;)

bearbeitet von Bluescreen222
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Du versuchst den Teufel mit dem Belzebub auszutreiben.

 

Die Kamera registriert nicht direkt wenig oder viel Licht, sondern richtet die Parameter Blende/Zeit/ISO auf einen zu erzielenden 18%igen Grauwert aus. Von einer unveränderlichen Szene ausgehend, welche im Laufe des Tages einzig verschieden intensiv beleuchtet wird (aber jeden Tag nach demselben Schema), könnte man sicher eine dir vorschwebende Automatik generieren, welche auf Basis der erhaltenen Parameter Blende/Zeit/ISO quasi die Tageszeit und damit verbundenen "Korrekturfaktor" berechnet, um die Szene bei Dämmerung dunkler und zu Mittag heller wiederzugeben.

 

Nur gibt's unter realen Bedingungen eben zwei Punkte welche diese Berechnung nicht erlauben. Erstens ist die Beleuchtung nicht jeden Tag gleich (Wetter, Jahreszeit, Standort, Abschattungen, etc.) und zweitens unterscheiden sich fotografierte Szenen hinsichtlich ihrer Helligkeitsverteilungen voneinander. Damit lässt sich nicht mehr rückschließen ob nun bspw. die errechnete kürzere Belichtungszeit aus der Verfügbarkeit von mehr Licht (zB Mittagszeit), durch eine hellere Szene (zB Schneelandschaft), Lage in der Sonne (im Gegensatz zu Schatten), etc. resultiert.

 

Das zugrunde liegende logische Problem deines Vorschlages besteht eben darin, dass die 18%-Regel ausgeschaltet werden soll indem man eine neue Berechnung einführt, welche letztlich ebenfalls auf dieser beruht.

 

 

Gegen Automatiken wettere ich übrigens nicht. Mir ist jede sinnvolle Automatik willkommen, welche dem Fotografen "sinnlose Rechenspielchen" oder automatisierbare Aufgaben abnimmt und ihn mehr auf das Motiv und den fotografiischen Prozess (inkl. subj. Entscheidungen darüber was er wie abbilden möchte) konzentrieren lässt.

Leute, die "automatische Belichtungskorrektur", die Ihr hier diskutiert, ist seit über 20 Jahren die übliche Belichtungsmessung analoger und digitaler Kameras aller Art und nennt sich "Mehrfeldmessung". Dabei wird die Szene analysiert und mit in der Kamera hinterlegten Mustern verglichen, wobei nicht nur die relativen Belichtungsunterschiede, sondern auch die absolute Helligkeit einfliesst. So kann z. B. festgestellt werden, bei welchem Motivteil es sich wahrscheinlich um Himmel (mit oder ohne Sonne) handelt, der bei der Belichtungsmessung nicht zu berücksichtigen ist. Anfänglich machte man das mit bloss 6 Messfeldern, inzwischen gibt es auch Spiegelreflexkameras, die einen Belichtungsmesser mit VGA-Auflösung haben (bei den Spiegellosen ist die Auflösung sowieso kein Thema).

 

Das 18%-Grau-Prinzip gilt längstens nur noch bei der mittenbetonten und Spotmessung.

 

Gesendet von meinem SM-P605 mit Tapatalk

Link zum Beitrag
Auf anderen Seiten teilen

Leute, die "automatische Belichtungskorrektur", die Ihr hier diskutiert, ist seit über 20 Jahren die übliche Belichtungsmessung analoger und digitaler Kameras aller Art und nennt sich "Mehrfeldmessung".

Wenn dies vollautomatisch so tadellos funktionierte, frage ich mich was klarus eigentlich möchte bzw. warum ich mich (bis auf die Fujis zumeist mit Mehrfeldmessung unterwegs) so regelmässig der Belichtungskorrektur bediene... ;)

 

 

Das 18%-Grau-Prinzip gilt längstens nur noch bei der mittenbetonten und Spotmessung.

Ja, in Reinform. Miss mal mittels Mehrfeldmessung einen hellen und einen dunklen Hintergrund an und sag mir wie die Kamera diesen jeweils wiedergeben möchte.

bearbeitet von flyingrooster
Link zum Beitrag
Auf anderen Seiten teilen

Eine Mehrfeldmessung dient dazu die Belichtung möglichst sinnvoll zu ermitteln (sprich: unbeeinflusst von dunklem Vordergrund und hellem Himmel .. sowie von hellen Fenstern und dunklen Zimmern rundherum), sie dient nicht dazu Stimmungen zu transportieren. 

Also Abdunklung von abendlichen Szenen oder ähnlichem.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Denke, Du tust dem Matthis unrecht. Er hat nur gesagt, dass diese 'Automatik' existiert... ob sie funktioniert, ist was anderes...

Stimmt auch wieder...

 

In der von klarus angefragten Form existiert sie aber eben nicht. Die Mehrfeldmessung ist ja eine feine Sache, absolute Lichtstärke wird aber auch dabei nicht gemessen, sondern wieder "nur" Relationen miteinander verglichen.

Link zum Beitrag
Auf anderen Seiten teilen

Da haste Recht, Gockel, wollte meinen Beitrag auch noch in diese Richtung gerade biegen... hab dann aber gesehen, dass Du fleissig am schreiben warst, so dass ich mir die Geradebiegung sparen konnte (ich weiss halt schon vorher, was Du schreiben wirst... bist halt berechenbar...)... ja, das Problem des TOs kann wohl 'automatisch' nicht gelöst werden... is halt so...

Link zum Beitrag
Auf anderen Seiten teilen

Zumindest noch nicht an den üblichen aktuellen Kameramodellen. Wer weiss was noch alles kommen wird.

Wobei ich mir, zumindest innerhalb meiner Lebenszeit, vollautomatische Berücksichtigung der belichtungsseitigen Intention des Fotografen nicht etwarte. ;)

 

[...] hab dann aber gesehen, dass Du fleissig am schreiben warst [...]

Erinnert mich dran das frontseitige Objektiv des Handys doch noch abzukleben...

Link zum Beitrag
Auf anderen Seiten teilen

Ich denke gerade... bei bestimmten Situationen sollte so eine 'Automatik' schon wissen, was Sache ist. Beispiel:

 

o 1/3 der Bildfläche hat einen EV von ca. 14.6 (das ist Sunny16 und typischerweise sonnenbeschienene Flächen).

o 1/3 hat einen EV von mehr als 'Sunny16' (können nur gleissende Wolken/Sonne sein)

o 1/3 hat einen EV von deutlich unter 'Sunny16' (also Schattenpartien)

 

Hier müsste die Kamera wissen, was Sache ist... zumal - wer sich mal mit Sunny16 beschäftigt hat - dies eine ziemliche 'Konstante' ist.

Link zum Beitrag
Auf anderen Seiten teilen

Erinnert mich dran das frontseitige Objektiv des Handys doch noch abzukleben...

Genau, an Deiner Stelle würde ich mich versteckt halten...

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

Kameras der Zukunft werden einfach die Stimmung des Fotografen beim Betrachten der Szene ermitteln und die Belichtung danach ausrichten. Wie die Kameras das machen werden? Nun, zunächst wird man es noch mit einem Sensor im Handgriff der Kamera machen, welcher den elektrischen Hautwiderstand misst. Recht primitiv also. Diese Methode wird später verfeinert, Topmodelle werden dann direkt mit elektronischen Chips kommunizieren, welche ins limbische System und andere korrespondierende Hirnareale des Fotografen eingepflanzt werden können. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Wieso und nu? Die automatischen Belichtungskorrektur stellt in beiden Fällen den gleichen EV-Wert ein.

 

Die Kameras haben seit Jahren genau das eingebaut was du forderst. Es kann aber aus einer Reihe von Gründen nie perfekt funktionieren, genau wie ein Autofokus nie perfekt ist und auch die automatisch gewählte Blende ist nicht automatisch immer die richtige für die Wünsche des Fotografen.

 

Meine erste gute Kamera war 1993 eine Nikon F90. Die hatte eine der ersten Matrix-Messungen und ermittelte die Helligkeit von vier großen Feldern des Bildes und im Zentrum noch mal mehrere kleine. Damals wurde z.B. schon erkannt ob es oben viel heller als unten ist (Himmel und Erde). Die F90 war die erste Kamera mit Übertragung der eingestellten Entfernung in die Elektronik. Damit wurden die Messfelder bei Nahaufnahmen anders berücksichtige als bei großen Entfernungen. Damals habe ich viele Dias belichtet. Eine nachträgliche Korrektur gibt es da nicht und meistens war die Automatik ziemlich gut.

 

Später hatten die Kameras im Spiegelkasten Massenhaft Messfelder für die Helligkeit verschiedener Farben und konnten Himmel, Gras und vieles anderes besser erkennen und bei der Entscheidung für die Belichtung berücksichtigen. Die DSLRs nutzt das alles genau so weiter, weil der Sensor vor der Belichtung ja in der Regel nicht mitspielt. Bei der DSLM kann jetzt sogar der volle Sensor herangezogen werden und damit weiß die Kamera ob sie auf ein Gesicht oder Auge scharf stellt und das kann in die Belichtungsmessung eingehen. Damit werden die Bilder noch präziser belichtet, wenn die Kamera richtig erkennt was auf dem Bild ist.

 

ABER

 

Es gibt häufig Situationen in denen es (fast) völlig unmöglich ist automatisch zu erkennen was auf dem Bild wichtig ist und was der Fotograf von der Kamera erwartet:

 

Man nimmt vor einer Wand eine Gruppe von Schornsteinfegern auf und dann eine Gruppe von Ärzten. Woher soll die Kamera wissen, dass die einen Schwarz und die anderen Weiß gekleidet sind? Sie wird das dunklere Bild vermutlich etwas länger belichten als das hellere. Die Feger werden dunkelgrau und die Ärzte werden hellgrau. Bei Fotos mit viel Schwarz oder viel Weiß muss man meist eingreifen.

 

Oder man fotografiert ein Tier im Wald. Woher soll die Kamera wissen welchen Baum oder welchen Tier im Wald man scharf gestellt haben will? Die Automatik scheitert daran genau so wie bei einer Gruppe, wo man entweder alle scharf drauf haben muss obwohl sie gestaffelt herumstehen (kleine Blende) oder man will eine Person herauspicken (größte Blende).

 

Bei Personen vor einem Sonnenuntergang mit Leuten im Vordergrund will man eventuell nur schwarze Silhouetten und einen stimmungsvollen Himmel oder die Gesichter sind wichtig und die Hauttöne sollen so gut wie möglich aussehen.

 

Die Kamera (oder genauer der Softwareentwickler) kann immer nur Annahmen treffen was in bestimmten Situationen typischerweise gewünscht ist. Man bekommt also immer ganz ordentliche Belichtungen wenn man typische Fotos macht. Wer besonderes im Sinn hat muss öfter eingreifen. Was automatisch mit der aktuellen Technik möglich ist, wird gemacht. Wer der Automatik helfen will, kann die unterschiedlichen Motivprogramme nutzen. Wenn man auf Portrait, Sport oder Abendstimmung stellt, weiß die Kamera was man will und richtet sich danach. Wenn man weiß wie die Kamera das macht, kann man es auch selber entsprechend einstellen. Heute ist für jeden quasi alles möglich.

Link zum Beitrag
Auf anderen Seiten teilen

Also ich habe eigentlich kein Problem damit, die Belichtung im Automatik Mode zu korrigieren, ohne sie wirklich 'manuell' zu korrigieren... das ganze läuft in Sekundenbruchteilen ab:

 

o Wenn ich der Automatik zutraue (vom Motiv her), dass die Belichtung stimmt, dann drücke ich einfach ab

o Wenn ich befürchte, dass die Lichter/Himmel ausfressen könnten, dann halte ich vorher (Messwertspeicherung) kurz leicht nach oben

o Wenn mir die Schatten wichtig sind, dann halt vorher kurz nach unten

 

Ich bin froh, dass die Automatik nicht schlauer ist als ich (und auch zum Glück nicht perfekt) und ich daher ahnen kann, wie sie sich (egal ob falsch oder richtig) verhält... Das letzte, was ich brauche, ist die perfekte Automatik, die dann halt im entscheidenden Moment unliebsame Überraschungen produziert....

 

P.S.: Meine Standard-Messmethode ist seit Jahren gleich: Mittenbetont... nix schlau...

bearbeitet von kirschm
Link zum Beitrag
Auf anderen Seiten teilen

Stimmt auch wieder...

 

In der von klarus angefragten Form existiert sie aber eben nicht. Die Mehrfeldmessung ist ja eine feine Sache, absolute Lichtstärke wird aber auch dabei nicht gemessen, sondern wieder "nur" Relationen miteinander verglichen.

Doch, die absolute Helligkeit wird gemessen. Das ist einer der Gründe, weshalb die Mehrfeldmessung mit manuellen Objektiven nicht funktioniert (wenn die Kamera die Lichtstärke nicht kennt, kann sie keine absoluten Werte ermitteln).

 

Gesendet von meinem SM-P605 mit Tapatalk

Link zum Beitrag
Auf anderen Seiten teilen

Doch, die absolute Helligkeit wird gemessen. Das ist einer der Gründe, weshalb die Mehrfeldmessung mit manuellen Objektiven nicht funktioniert (wenn die Kamera die Lichtstärke nicht kennt, kann sie keine absoluten Werte ermitteln).

 

Gesendet von meinem SM-P605 mit Tapatalk

 

Die Eingabe der Lichtstärke eines manuellen Objektivs ist wesentlich älter, sogar älter als die Mehrfeldmessung. Bereits meine Nikkormat FT2 wollte wissen, wie lichtstark das Objektiv ist. Das wurde bei den alten Nikonkameras mit der berühmten "Ritsch-Ratsch-Bewegung" bewerkstelligt. Und die erste Nikon mit Mehrfeldmessung war meines Wissens die Nikon FA. Sie war übrigens auch die erste mit Programmautomatik. Aber sie verwendete die ganz normalen manuellen Nikkore. Grundsätzlich ginge es also schon, nur sind heutige Kameras nur noch auf eine elektronische Kommunikation mit dem Objektiv ausgelegt und wissen daher tatsächlich bei einem manuellen Objektiv die Lichtstärke nicht.

Link zum Beitrag
Auf anderen Seiten teilen

Und die erste Nikon mit Mehrfeldmessung war meines Wissens die Nikon FA. Sie war übrigens auch die erste mit Programmautomatik.

Genau. Sie war die allererste Kamera mit Mehrfeldmessung überhaupt: http://www.kleinbildkamera.ch/1983-nikon-fa/ und die erste Nikon mit Programm- und Blendenautomatik. Die erste SLR mit Programmautomatik war die Canon A1 schon fünf Jahre früher: http://www.kleinbildkamera.ch/1978-canon-a-1/

 

 

Das was der TO hier möchte ist ja genau das was Nikon damals schon bieten wollte. Ich sehe das Problem heute aber nun wirklich nicht mehr. Wenn man in raw fotografiert kann man ja alles nachträglich korrigieren. Eine Bearbeitung ist ja sowieso nötig wenn man perfekte Ergebnisse haben möchte. Oder man benutzt die grüne intelligente Automatik und hofft dass diese eben intelligent genug ist. Ich benutze die nie deshalb weiss ich nicht wie gut die an der A7II ist.

 

Die Belichtungsautomatik schafft doch Bilder mit 18% Grauwert, ob ich nun in der Dämmerung oder am Mittag knipse, das Bild hat immer die gleiche Helligkeit.

Du bist falsch informiert. Das ist schon seit der Nikon FA von 1983 nicht mehr zwingend der Fall, wenn eine Mehrfeld bzw. heute Matrixmessung genannt vorhanden ist. Die gleiche Helligkeit erhältst du mit einer Integralmessung wie sie vorher immer benutzt wurde.

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

Nein, dadurch entstehen technisch schlechte Bilder, bei denen der Grossteil der Tonwertinformationen im dunklen Bereich liegt und das Histogramm links anschlägt.

 

Man kann Dunkelheit auch simulieren, indem man die Mitten absenkt, Lichter aber erhält ... und am besten kann man Bildern eine Stimmung geben, wenn man nicht anfangs 2/3 der Tonwerte weggeworfen hat ;)

Danke! Jetzt ist mir endlich mal klargeworden, was der Unterschied zwischen de Reglern "Belichtungskorrektur" und "Helligkeit" ist. *stirnklatsch*

 

maui

bearbeitet von m(A)ui
Link zum Beitrag
Auf anderen Seiten teilen

Die Eingabe der Lichtstärke eines manuellen Objektivs ist wesentlich älter, sogar älter als die Mehrfeldmessung. Bereits meine Nikkormat FT2 wollte wissen, wie lichtstark das Objektiv ist. Das wurde bei den alten Nikonkameras mit der berühmten "Ritsch-Ratsch-Bewegung" bewerkstelligt. Und die erste Nikon mit Mehrfeldmessung war meines Wissens die Nikon FA. Sie war übrigens auch die erste mit Programmautomatik. Aber sie verwendete die ganz normalen manuellen Nikkore. Grundsätzlich ginge es also schon, nur sind heutige Kameras nur noch auf eine elektronische Kommunikation mit dem Objektiv ausgelegt und wissen daher tatsächlich bei einem manuellen Objektiv die Lichtstärke nicht.

 

Das ist so nicht ganz richtig.

 

Die klassische Springblende in der Nikon übermittelt nicht die absolute Lichtstärke. Die Kameras kannten immer nur die relative Änderung zur offenen Blende.

 

Nikon hatte traditionell Zeitautomaten. Man wählte also die Blende, wobei sich am Sucherbild zunächst nichts ändert. Die Kamera weiß aber um wie viele Stufen die Blende zufallen wird, wenn man auslöst. Aus der Belichtungsmessung bei offener Blende plus Anzahl der zufallenden Blendenstufen ergibt sich damit die Belichtungszeit die eingeblendet wird.

 

Bei Programm und Blendenautomatik muss die Blende bei Nikon bekanntlich auf offen arretiert werden. Nun überlegt sich die Nikon eine Zeit und Blendenkombination und entscheidet bei kürzeren Belichtungszeiten um wie viele Stufen die Blende zufallen soll ohne zu wissen welche Blende das dann ist.

 

Man kann sich das in den älteren Nikkoren ansehen wenn man sie von der Kamera nimmt. Wenn man die Blende zudreht, gibt es da einen kleinen Hebel mit dem man sie aufdrückt. Diesen Hebel nutzt die Kamera um zu erfahren wie viele Blendenstufen gewählt wurden. Bei ganz alten Objektiven ist es übrigens ein Mitnehmer am oberen Rand des Objektives.

 

Heute ist das anders. Neue Objektive übermitteln die Blende, Brennweite und die eingestellte Entfernung. Daraus können die Automatiken dann besser die nötigen Zeiten ermitteln und das Motiv bewerten. Insbesondere bei den Motivprogrammen kann die Kamera nun viel besser "mitdenken".

 

Absolute Blenden und Lichtmengen gibt es nur mit externen Belichtungsmessern, die messen wie viel Licht am Motiv ankommt. Man muss manuell die Zeit/Blenden/ISO-Kombination einstellen, die man ermittelt hat. Da wären dann übrigens die T-Blenden von Cine-Objektiven besser als F-Blenden. Die Kino-Leute belichten nach wie vor gerne mit externer Belichtungsmessung.

 

Link zum Beitrag
Auf anderen Seiten teilen

Das ist so nicht ganz richtig.

 

Die klassische Springblende in der Nikon übermittelt nicht die absolute Lichtstärke. Die Kameras kannten immer nur die relative Änderung zur offenen Blende.

 

Stimmt, das hatte ich falsch in Erinnerung. Danke für die Richtigstellung :)

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...