Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich kann auch vergleichen habe beide (GX7 & A7) werde aber NIE hier ein Vergleich einstellen.

Mir muss die Qualität der Bilder gefallen und nicht den Technik-Experten und ich weis welche. :D

(µ4/3 wird reduziert)

bearbeitet von B.W.G.
Link zum Beitrag
Auf anderen Seiten teilen

Ein Vergleich steht und fällt zu allererst mit der richtigen Belichtung und das gilt immer und auch mit RAW! Wer das nicht wahrhaben will muss leiden! Sooo kritisch sind die beiden Motive nicht, die habe ich auch schon geknipst, sogar mit alten FT-Kameras mit den "schlechten" Sensoren.

Was vergessen wird ist, dass eine korrekte Belichtung bei solchen Motiven, die die Lichter nach oben NOCHT NICHT clippt, in den Schatten enorm viel mehr Spielraum erlaubt. Das liegt ganz einfach an den verbogenen Gradationskurven.

 

@Hans, erzeuge ordentlich belichtete (nicht nachträglich zu reparierende) Bilder. Dann diskutieren wir weiter. Ich hatte ja schon mal geschrieben, dass Du die beiden Bilder besser vergisst. Das hatte seinen Grund! Hier wird mir das im Moment zu emotional und zu sehr auf Personen gemünzt. Es geht hier nur und ausschließlich um technische Zusammenhänge!

Link zum Beitrag
Auf anderen Seiten teilen

Stell dir ein Fenster vor hinter dem eine Akkordeon steht.

Das Fenster ist genau so groß, dass es zusammengeschoben von außen komplett sichtbar ist.

Nun ist es aber zu Beginn nicht zusammengeschoben sondern du siehst nur das rechte Ende und einen Teil der Mitte.

Verschiebt nun jemand hinter dem Fenster das Akkordeon (ohne es weiter zusammenzuschieben) so weit bis du das linke Ende durch das Fenster siehst, dann verschwindet dafür das rechte Ende aus deinem Blickfeld.

Dies wäre praktisch der Belichtungsregler.

Wenn er aber nun das Akkordeon nicht verschiebt, sondern zusammenschiebt dann wirst du am Ende das gesamte Akkordeon durch das Fenster sehen können.

So funktionieren die Tiefen/Lichter Regler in Lightroom.

Sie verschieben nur einen der beiden Endbereiche indem sie die Abstufungen dazwischen "zusammenschieben".

Der andere Endbereich bleibt fixiert.

Ich habe gerade Schwierigkeiten, das zu verstehen. Was stellt das Akkordeon dar, die Gesamtmenge der Pixel im Bild oder die Bittiefe? Aufgrund der Digitalisierung nimmt die Farbtiefe zu den Schatten hin ja ab, also wäre das Akkordeon links kleiner als rechts, oder?

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Nun, wie wäre es denn gewesen, der mFT-Kamera nicht gerade das bekanntermassen schlechteste Objektiv zu gönnen bei einem solchen Vergleich?

Mit einer vernünftigen Optik hätte auch die Antenne besser ausgesehen, hätte das Haus Zeichnung und wäre das Bild insgesamt erheblich schärfer.

Bei mir steht dieses 14-140 nur herum, ich werde es unter keinen Umständen mehr an einer Kamera verwenden, weil ich damit ohne jede Frage die Qualität auf ein Minimalmass herunterziehe und der eigentlich guten Kamera eine mehr oder minder schlechte Kompaktkameraqualität aufzwinge.

Die Nutzung einer solchen Linse in einem Vergleich verbietet sich doch eigentlich vollständig, wenn man mit dieser Gegenüberstellung eine Aussage erzielen will, oder?

 

Das Objektiv gehört zu den besten Superzooms und kann mit normalen Consumerzooms locker mithalten, kuck Dir einfach mal hier die grafische Aufbereitung der Auflösung an:

 

Panasonic Lens: Zooms - Panasonic 14-140mm f/4-5.8 ASPH MEGA OIS LUMIX G VARIO HD (Tested) - SLRgear.com!

 

auf das Diagramm kann man klicken und die Brennweiten und Blenden durchgehen ... insbesondere im Normalbereich ist das Superzoom beeindruckend, das entspricht auch meinen eigenen Erfahrungen.

Link zum Beitrag
Auf anderen Seiten teilen

meinen Erfahrungen entspricht dieser Test nicht. Für ein Superzoom möglicherweise ausreichend, aber im Vergleich mit jeder Festbrennweite eben doch nur ein Kompromiss.

Und dieser Kompromiss dann als Grundlage eines Vergleiches?

Ist aber letztendlich auch egal, hier sollte sich Jeder seine eigenen Gedanken machen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe gerade Schwierigkeiten, das zu verstehen. Was stellt das Akkordeon dar, die Gesamtmenge der Pixel im Bild oder die Bittiefe? Aufgrund der Digitalisierung nimmt die Farbtiefe zu den Schatten hin ja ab, also wäre das Akkordeon links kleiner als rechts, oder?

 

Die Pixelzahl bleibt ja gleich, sonst würde sich die Bildgröße ändern.

 

Die Farbtiefe in Bits ändert sich auch nicht, die ist von der Datei auch festgelegt.

Also eine bestimmte Anzahl an Abstufungen pro Farbkanal.

(Diese ist beim RAW aber auch größer, weswegen es bei extremeren Veränderungen am Bild auch nicht so schnell zu sichtbaren Farb- oder Helligkeitsabstufungen kommt.)

 

Das Akkordeon stellt die Tonwerte, also die Helligkeitsverteilung im Bild dar.

Praktisch das Histogramm.

Wenn man an Belichtung oder Tiefen/Schatten spielt, sieht man den beschriebenen Effekt des Akkordeons:

Verschieben (Belichtungsregler) oder Strecken/Stauchen (Kontrast-, Tiefen, Lichterregler).

 

In einem Standard Jpeg ist eben oft nicht der gesamte Teil der vom Sensor aufgenommenen Tonwerte vorhanden, sondern nur ein Ausschnitt.

Oben und unten mag etwas fehlen.

Das Bild soll eben eine möglichst realistische Wiedergabe am Ausgabemedium erlauben, welches ja auch eine begrenzte Ausgabedynamik hat.

 

Würde man den gesamten Tonwertumfang des Sensors einfach in die Datei zusammenschieben, wäre das Ergebnis wie gesagt flau.

Klar kann man den Kontrast erhöhen wie wir es im RAW gemacht haben.

Wenn man aber den Kontrast erhört, verfälscht sich aber der Bildeindruck, da Bildelemente in den Höhen und Tiefen sich von der Helligkeit annähern, welche in der Realität eben unterschiedlich hell sind.

Das mag nicht bei jedem Motiv erwünscht sein.

(Kameras haben oft dennoch eine Funktion die den selben Bildeindruck mit Jpeg ermöglicht. AutoDR oder eine fest eingestellte DR-Erweiterung. Die macht dann auf Wunsch das selbe, muss aber eben VOR der Aufnahme gewählt werden. Beim RAW habe ich die Möglichkeit eben auch noch später.)

 

Ich kann im RAW Editor natürlich die selbe Darstellung wie beim Jpeg erreichen indem ich auch etwas vom Tonwertumfang abschneide.

Die Standardeinstellung der RAW-Editoren ist normal auch so, dass ebenfalls ein recht natürlicher Look erzeugt wird.

Der Unterschied ist aber, dass die Anzeige/Ausgabe immer nur eine nondestruktive Interpretation der Rohdaten mit den aktuellen Reglereinstellungen ist.

Die abgeschnittenen Lichter sind nicht wirklich weg, sondern werden nur nicht angezeigt.

Ziehe ich an den richtigen Reglern sehe ich sie wieder.

 

Das lässt sich wie gesagt am Histogramm (welches die aktuelle Interpretation/Ausgabe darstellt und nicht das maximale Mögliche in den Rohdaten) gut beobachten.

 

Beim Jpeg gibt es eben keine "versteckten" Informationen welche noch vorhanden sind wenn ich Tonwerte in den Lichtern wegschneide.

Weg ist hier wirklich weg sobald ich die Datei speichere.

bearbeitet von Thyraz
Link zum Beitrag
Auf anderen Seiten teilen

Das Akkordeon stellt die Tonwerte, also die Helligkeitsverteilung im Bild dar.

Praktisch das Histogramm.

Wenn man an Belichtung oder Tiefen/Schatten spielt, sieht man den beschriebenen Effekt des Akkordeons:

Verschieben (Belichtungsregler) oder Strecken/Stauchen (Kontrast-, Tiefen, Lichterregler).

Bei einem 12bit RAW bleibt für die 12. Blendenstufe noch ein Bit pro Kanal an Information übrig. Daraus lässt sich nichts mehr hochziehen.

Manche denken, die Tonwerte würden sich beim Unterbelichten linear nach unten verschieben, und man könnte sie dann per RAW wieder ebenso linear mit dem Regler wieder hervorzaubern. Tatsächlich aber sind sie weg. Wenn man so praktiziert, dann wird man mit einem 14bit Sensor möglicherweise zuerst mal eine Verbesserung feststellen, und die dann auf die Sensorgröße schieben. Liegt ja nahe. Man sieht immer das, was man sehen will.

Eine höhere Auflösung hilft dann noch zusätzlich beim Schattenaufhellen. Aber beides hat nicht direkt was mit der Sensorgröße zu tun.

Link zum Beitrag
Auf anderen Seiten teilen

Bei einem 12bit RAW bleibt für die 12. Blendenstufe noch ein Bit pro Kanal an Information übrig. Daraus lässt sich nichts mehr hochziehen.

 

12 Bit ergibt 4096 mögliche Abstufungen pro Kanal.

Wieso belegen die ersten 11 Blendenstufen genau 4095 davon, so dass nur noch 1 Bit übrig bleibt?

 

Oder bleibt die Wertigkeit eines Bits übrig (also der Unterschied zwischen 11 und 12 Bit Tiefe) und somit 4096-2048 = 2048?

 

Verstehe ich nicht so richtig. :confused:

bearbeitet von Thyraz
Link zum Beitrag
Auf anderen Seiten teilen

12 Bit ergibt 4096 mögliche Abstufungen pro Kanal.

Wieso belegen die ersten 11 Blendenstufen genau 4095 davon, so dass nur noch 1 Bit übrig bleibt?

 

Oder bleibt die Wertigkeit eines Bits übrig (also der Unterschied zwischen 11 und 12 Bit Tiefe) und somit 4096-2048 = 2048?

 

Verstehe ich nicht so richtig. :confused:

 

Um zu wissen welcher Anteil der Gesamtdynamik eines Sensors in welchem Anteil der Bittiefe landet,

muss man an sich ja zusätzlich wissen wie der Hersteller das von Analog nach Digital umsetzt.

 

Stop! Die 11 oder 12 oder 14 .... Blendenstufen haben genau gar nichts mit der Bittiefe zu tun!

Die 4096 Steps sind die Aufteilung, in die der Dynamikumfang geteilt ist. Ob ich - mal anders ausgedrückt - die 4096 Teile auf die Länge eines Kleinwagens (kleiner Dynamikumfang) oder eines LKW (großer Dynamikumfang) verteile, DAS ist hier die Frage. Danach erst kommt die variable Abstufung innerhalb der 4096 Steps für die Tonwertzuordnung. Das kann beispielsweise so aussehen, dass 1500 Steps über die Motorhaube und 1500 Steps über das letzte Viertel des Hecks verteilt sind und der Rest von 1096 Steps sich über die Mitte verteilt (mit gleitendem Übergang). Zumindest im unteren Teil (Schatten) werden ein paar Steps nicht verwendet, weil sie nur Müll enthalten. DAS hängt dann aber auch von der Rauschfreiheit des Analogsignals vor der Digitalisierung und diversen Driften ab. 12 Bit auflösen ist nicht trivial! Wer das mal in Hardware aufgebaut hat wie ich hat Respekt vor der Leistung, die da von den Kameras abgeliefert wird.

Die RAW-JPG-Umsetzung vermurkst die 12 Bit (4096 Treppenstufen vom Keller bis zum Dachboden) dann in 8 Bit (256 Treppenstufen ebenfalls vom Keller bis zum Dachboden, vorausgesetzt vorher wird nicht im Keller der Boden aufbetoniert und am Dachboden die Decke nicht abgehängt).

bearbeitet von wolfgang_r
Link zum Beitrag
Auf anderen Seiten teilen

@flyingrooster danke :)

Der genaue interne Aufbau war mir so nicht bekannt.

 

Manche denken, die Tonwerte würden sich beim Unterbelichten linear nach unten verschieben, und man könnte sie dann per RAW wieder ebenso linear mit dem Regler wieder hervorzaubern. Tatsächlich aber sind sie weg.

 

@deadpoet, dennoch verstehe ich nicht so ganz, was das mit dem von dir Zitierten direkt zu tun hat.

Unterbelichtete Stellen aus einem Bild zu holen bedeutet ja nicht, dass ich mindestens 12 Blendenstufen erreichen will.

Ich hab ja nie geschrieben man solle völlig falsch belichten und dann das Ergebnis am PC retten.

Es ging darum Lichter nicht ausbrennen zu lassen und dennoch möglichst viel aus den Schatten herauszuholen wenn es das Motiv erfordert und die Kamera erlaubt.

 

edit:

@wolfgang das mit der Verteilung der Blendenstufen über die 4096 Steps war das was ich mit Analog-Digital Umsetzung meinte.

Ob es eben linear ist oder nicht.

 

flying roosters Link zeigt ja auch auf, dass es wohl nicht linear ist.

Ob die Werte wie dort nun geschriebenes Gesetz für alle RAW Formate sind oder nicht, weiß ich nicht (vielleicht du ;)).

bearbeitet von Thyraz
Link zum Beitrag
Auf anderen Seiten teilen

@deadpoet, dennoch verstehe ich nicht so ganz, was das mit dem von dir Zitierten direkt zu tun hat.

Ich bin immer noch gedanklich bei #1396, die höhere Dynamik des großen Sensors. Irgendwie sind wir dann wohl auf die EBV gekommen.

Unterbelichtete Stellen aus einem Bild zu holen bedeutet ja nicht, dass ich mindestens 12 Blendenstufen erreichen will.

Da wäre dann die Frage, wieviele Blendenstufen überhaupt wiedergegeben werden können. Und wo die höhere Dynamik der großen Sensoren letztlich herkommen soll. Die Bittiefe kann es nicht sein, denn die ist nicht von der Sensorgröße abhängig. Bleibt also nur die größere Fläche, bzw. höhere Auflösung.

Man könnte das ja mal ganz praktisch ausprobieren, indem man einen mFt-großen Crop aus KB mit einem mFT-VF Bild vergleicht. Bzw. wenn man vier mFT Fotos zusammenfügt, steigt dann die Dynamik auf KB-Level?

Ich hab ja nie geschrieben man solle völlig falsch belichten und dann das Ergebnis am PC retten.

Es ging darum Lichter nicht ausbrennen zu lassen und dennoch möglichst viel aus den Schatten herauszuholen wenn es das Motiv erfordert und die Kamera erlaubt.

Habe ich schon verstanden. Aber wenn du die Lichter schützen willst, musst du knapper belichten, und das geht dann eben auf Kosten der Tiefen. Einen Tod muss man sterben.

Link zum Beitrag
Auf anderen Seiten teilen

Und wo die höhere Dynamik der großen Sensoren letztlich herkommen soll. Die Bittiefe kann es nicht sein, denn die ist nicht von der Sensorgröße abhängig. Bleibt also nur die größere Fläche,

 

Das ist es, 4 mal größere Fläche ist 4 mal mehr Licht bei gleicher relativer

Öffnung (Blendezahl)

Link zum Beitrag
Auf anderen Seiten teilen

Damit ändert sich aber nicht die Beleuchtungsstärke pro Flächeneinheit.

Die hohe Dynamik gilt dann natürlich für gleiche Augabegröße, also für

Formatfüllende Aufnahmen und gleichen Einsatzzweck.

Bei der 100%-Betrachtung bleibt der höhere Füllfaktor

der lichtempfindlichen Fläche bei gleicher Verdrahtungsdicke

und die in der Regel größeren Pixel erlauben kleinere ISO.

(16 zu 24 MPixel auf 4facher Fläche).

bearbeitet von Berlin
Link zum Beitrag
Auf anderen Seiten teilen

Wie hoch könnte man denn dann mit den ISO gehen bei einer Auflösung von 6 (sechs) Pixel auf der KB-Fläche?

 

Ich glaube genau so hoch nur die 6 Pixel hätten größere Fläche was zu weniger Rauschen bei gleicher ISO führen würde.

 

Bitte nicht böse sein wenn Bullshit geschrieben..

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...