Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

 

Nachtrag @Specialbiker: Gravity ist der einzige Film, der mich in 3D bisher überzeugt hat. Liegt vielleicht auch daran, weil es keine unscharfen Hintergründe gibt, durch die das Auge auf eine bestimmte Schärfenebene gedrängt würde. ;)

 

Stimmt, den hab ich eigentlich übersehen: Der einzige (nicht animierte) 3D-Film, der mir (aus Sicht der Wiedergabetechnik) auch gefallen hat.

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Das Problem bei 3D ist das Material:

Ich kenne ausser Animationen, bei denen ein Rechner den 3D Effekt steuert, keinen wirklich überzeugenden 3D-Film.

 

OT

Meine 3D Lieblingsfilme sind diese zwei:

 

http://www.amazon.de/Thor-Kingdom-Steelbook-2D-Blu-ray-Collectors/dp/B00GU40H7Q/ref=sr_1_1?s=dvd&ie=UTF8&qid=1396967233&sr=1-1&keywords=thor+-+the+dark+kingdom+3d

 

http://www.amazon.de/Avatar-Aufbruch-nach-Pandora-Blu-ray/dp/B007QU5GXS/ref=sr_1_1?s=dvd&ie=UTF8&qid=1396967397&sr=1-1&keywords=avatar+3d

 

/OT

Link zum Beitrag
Auf anderen Seiten teilen

Man könnte das Thema bis zur Unendlichkeit weiterführen - aber besser nicht hier.

 

Zur A7s: Da sie nun mal keine 4k intern aufnehmen kann, ist es eigentlich fast OT, schwerpunktmäßig gerade hier über 4k zu diskutieren.

Zumal vermutlich kein einziger Spielfilm jemals mit einer A7s gedreht werden wird - zumindest nicht, wenn zumindest ein minimales Budget existiert. Im Spielfilm will man in der Regel Freiheiten in der Postpro haben und die gibt es bei 8bit nunmal nicht. Deshalb wird die A7s eher ein Con/Prosumer-Gerät bleiben.

 

Erst mit Verwendung von externen Aufnahmegeräten, evtl. dem XLR-Zusatz und einem kleinen Rig wäre die Kamera auch für technisch höhere Ansprüche interessant. Da bewegen wir uns dann aber schon bei Preisen über 4k... ;)

Dort wird die Luft dann aber eng, da die Production Camera 4k von Blackmagic und die GH4 (sowie bald die Blackmagic URSA beinah) auch schon mitspielen. Gerade läuft außerdem die NAB und etliche Hersteller kündigen 4k-Kameras im mittleren Preissegment (<10k) an.

 

Man wird die tatsächliche Qualität v.a. im lowlight-Bereich abwarten müssen, um abschätzen zu können, was die A7s besonders macht.

Der Preis wird eine nicht unerhebliche Rolle spielen...

Link zum Beitrag
Auf anderen Seiten teilen

 

Den ersten Film habe ich jetzt nicht gesehen, wogegen in Avatar der 3D Effekt deswegen so gut kommt, weil die meisten Szenen animiert sind. Die Aufnahmen, die nicht animiert sind, zeigen ebenfalls den "Schuhschachteleffekt", wie ich ihn oben beschrieben hab: Eine Ebene im Vordergrund, mit Darstellern, die nahezu flach abgebildet werden, mit einem davon "räumlich künstlich abgesetzten" Hintergrund. Bei Avatar sind das halt nur 1-2% vom Film, da kann man drüber hinwegsehen, aber wenn ein Film überwiegend so plakativ rüberkommt, fängt der Effekt an, auf die Nerven zu gehen.

 

Hans (sorry für OT, ich hör auch schon wieder auf . . .  )

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Schade nur, dass die Einführung der Kamera mit dem "Lightroom-Debakel" zumindest in manchen Fällen eine weitere Verbreitung eingeschränkt hat. Ich habe erst vor einigen Wochen einige alte XE1-Raws mit dem aktuellen Lightroom entwickelt und muss zugeben: Die Ergebnisse war viel näher an dem, was ich von der A7 kenne, als an meinen MFT Aufnahmen. 

 

Sorry für OT (aber ich war 8 Wochen auf Reise...):

 

Ich hatte es ja genauso vorrausgesagt. Inzwischen kann LR5.4 sogar die JPG-Filmemulationen der Fujis als feste Presets nachahmen. Ein Träumchen bei der Schnelligkeit der Entwicklung in LR - im Grunde nun genauso schnell wie JPGs, nur mit deutlich mehr Spielraum.

 

Der Erfolg der X-T1 zeigt auch, dass X-Trans kein Thema mehr zu sein scheint - jedenfalls nicht im negativen Sinne.

 

Nach 6 Wochen Rumgeschleppe mit dicken Canonen hab ich mir nun auch das Telezoom geholt und kann im Grunde beim Kunden mit einer vollständigen nativen Brennweitenabdeckung auffahren. Wenn er es eines Tages annehmen würde käme natürlich ein 2. Gehäuse und das wunderbare 56/1,2 sowie das 10-24/4,0 als WW-Zoom dazu. Aber dann wäre man mit 2Kameras, 3 Zooms und 2 Festbrennweiten sehr gut aufgestellt. Die von mir verwendete Canon-Ausrüstung hat besonders im WW-Bereich deutliche Schwächen (das 24/1,4L ist im Grunde erst bei f8 randscharf!), dafür sind die beiden neuen L-Zooms (24-70/2,8L II und 70-200/2,8L IS) tatsächlich spitze - aber auch sehr schwer...

 

Bei Sony habe ich eine solche Aussicht nie gesehen und tue dies auch heute nicht - die eigenen Objektive sind bis auf einige (teure) Ausnahmen eher Mittelmaß.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Meine eigenen Videoerfahrungen sind nahe Null, mich würde aber mal interessieren wie sich die Videonachbearbeitung on eurer Erfahrung von der Fotonachbearbeitung unterscheidet.

 

Zu meinem Verständnis, bitte korrigiert mich wenn da irgendwo ein Denkfehler drin ist: Wenn ich den maximalen Dynamikumfang aus einem Foto herausholen will ist es meist sinvoll die Mitteltöne unter zu belichten, um Zeichnung in den Lichtern zu halten und dann Schatten und Mitteltöne in der Nachbearbeitung zu pushen was bei Iso 100 mit einem aktuellen Sony Sensor kein Problem ist. Aber dabei habe ich natürlich ein Raw was recht effizient komprimierte 11 Bit hat. Pro MP fällt dabei ungefhr ein MB an.

 

Wenn ich jetzt ein Video mit meiner a7 aufnehmen würde, so hätte das 28Mbit bei 24p was bei grob 11Mp pro MP raus kommt wobei nicht jeder Frame einzeln gespeichert wird, sondern die Verändernug von Frame zu Frame, was letztlich wohl zu einer größeren Effizienz führt als bei meinem Raw. In der Summe habe ich aber immernoch deutlich weniger Information pro Bildpunkt als bei meinem Raw. Das führt dann dazu, dass starke Nachbearbeitung wie das pushen der Schatten zu Tonwertabrissen etc. führt.

 

Nachdem was ich gelesen hat versucht man dem Problem, dass die Dateien weniger Nachbearbeitung verkraften, zu begegnen in dem man Profile verwendet, welche einen sehr Kontrast haben um so zu verhindern, dass alles dunkle als Schwarz und ales Helle als Weiß ohne Abstufungen abgespeichert wird.

 

Meine eigentliche Frage: Wieviel Dynamik kann man so jetzt mit optimalen Einstellungen schon aus einer a7r (habe gelesen die sei der a7 in diesem Punkt überlegen) herausholen, wenn man es mit einem Raw vergleicht

Und welche Vorteile würde eine geringere Komprimierung der Daten wie sie die a7s verspricht bringen, wobei mich auch der Unterschied zwischen der Qualität, welche die Kamera direkt auf die SD speichert und dem was extern in 1080p abgreifbar ist interessieren würde.

 

Ein anderer Punkt wäre Schärfe, wie weit ist eine a7r da von einem optimalen Ergebnis in 1080p entfernt? Kann man das z.B. in Zeilen quantifizieren oder ist das irgendwo schön illustriert?

 

Ist schon bekannt, wie die a7s die 1080p Bilder produziert? Werden da 4 Pixel zu einem zusammen gefasst oder werden andere Verfahren verwendet?

 

Grüße,

Phillip

 

Eine ähnliche Qualität und Möglichkeit wie man Sony RAW Bilder bearbeitet gibt es eben im Consumerbereich nicht. Da hat man im Vergleich grobe Einschnitte.

Dazu müsste man eine Kamera kaufen die RAW Video kann, wie die Blackmagic Kameras mit CinemaDNG. Kosten in dem Fall aber wieder deutlich extra, wieder Cropfaktor und haben alle einen kleinen Sensor und sind für Bilder untauglich. Auch ist die Funktion wegen der simplen Firmware ziemlich... eingeschränkt. Ist nicht meine Welt ;)

Unsere A7® hat kein RAW und leider auch nichtmal die erwähnten Gammakurven nicht um wenigstens die vorhandenen Informationen perfekt (aus)nutzen zu können.

Einen Dynamikumfang wie du aus den RAW Bildern kennst wirst du mit den Sonys im Video bei weiten nicht umsetzen können. Ist wie ein sehr stark komprimiertes JPG Bild zu bearbeiten :)

 

Allerdings kommt es auf den Anspruch an. Es ist sehr wohl möglich mit den Profilen wie Neutral und mit DRO einen deutlich besseren Dynamikumfang wie bei bei dem Standardprofil zu erreichen. Auch viel viel mehr wie bei normalen Consumer Camcordern. So kann man sehr wohl noch einiges an den Kontrasten und Farben anpassen. Das zusammen mit dem Look großer Sensoren macht sehr tolle Aufnahmen möglich.

An Werkzeugen stehen einige zur Verfügung, hauptsächlich die YUV Kurve (etwa wie die Gammakurve in LR) und eine 3-Weg Farbkorrektur in der sich selektiv die Highlights, Mitten und Tiefen in Farbe, Kontrast und Sättigung anpassen lassen. Das auch wiederum über Masken selektiert, gezeichnete oder per Chromakey (Farbkey) und es lässt sich alles ineinander kombinieren/verschachteln.

Dazu Effekte wie Vignette oder wie in LR auch Verläufe mit "Filtern befüllt".

 

Ganz ehrlich, vom Aliasing und Moire der aktuellen A7® abgesehen, ist fürs Hobby schon sehr viel in echt hoher Qualität möglich ohne jetzt "4K 4:2:2 10Bit uncompressed" haben zu müssen! Ich persönlich möchte ja keinen Kinofilm drehen ;) Die A7s wird das noch einmal toppen.

Man muss sich nur mal mit den Profilen und DRO beschäftigen die optimale Einstellung zu finden. Ich finde nach ein paar Versuchen Neutral -2-2-2 und DRO Level 3 gut.

Manche schwörten bei der NEX5N noch aufs Portät oder Sonnenuntergang da es die feinsten Farbübergänge und Highlights bot. Muss mich auch noch mal mehr mit beschäftigen.

 

Wenn wir uns treffen sollten kann ich dir gern mal eine Videobearbeitung zeigen bzw was von dir bearbeiten und was herumprobieren was so möglich ist.

Ich habe ein sehr gutes Schnittprogramm was auch im professionellen Bereich eingesetzt wird und gerade mitunter durch seine Farbkorrektur herraussticht.

Diese läuft in 10Bit Farbtiefe ab was einem sichtbar mehr Möglichkeiten beim bearbeiten gibt als das eh nur 8 bittige Material auch noch in 8Bit zu zerreißen.

Ist zwar dann nur auf 10Bit interpoliert aber besser wie nichts, der Unterschied ist wirklich sichtbar (was manche ja nicht glauben) ;)

Link zum Beitrag
Auf anderen Seiten teilen

Das sehe ich anders, mir erscheint die Argumentation, man könne aus 4x8bit 1x10bit (zumindest Y) machen und dabei zwar kein echtes 10bit, aber eine höhere Qualität als 8bit erreichen, schlüssig. Richtig umgesetzt sollte sich aus 4:2:0 auch 4:4:4 machen lassen, wenn man das denn will. 

 

Eine Verbesserung des Chroma Subsamplings auf 4:4:4 ist quasi eine rein mathematische Angelegenheit - Haken dran.

 

Natürlich lassen sich beim Zusammenführen von Pixeln auch Zwischenwerte generieren (Raster-/Dithering-Algorithmen erzeugen ja auch den Eindruck feinerer Abstufungen mit weniger Farben/Grauwerten, wenn der Sehabstand groß genug ist). Bei 4 Pixeln lassen sich also nach Mittelwertbildung in der Theorie auch zwei zusätzliche Bits gewinnen.

 

Wieviel Qualität davon in der Praxis hinzugewonnen werden kann, wird sich mir aber erst noch zeigen müssen.

 

Vor 2 Jahren wurden identische Prognosen für 3D genannt.

 

3D scheiterte primär daran, dass es bislang immer noch mit unbequemen Brillen und unzulänglicher Tecnik (zu hoher Geisterbildanteil) verbunden ist - oder dort, wo schon brillenlos, noch mit zu vielen anderen Einschränkungen. Dazu kommt dann noch das in der Tat noch recht geringe Angebot an Filmen, die tatsächlich von 3D profitieren.

 

Ich bin jedoch ziemlich fest davon überzeugt, das die nächste 3D Welle kommen und nachhaltiger sein wird. Auch hier kann letzlich vom 4K Hype profitiert werden, denn auch die Techniken, die mit Pol-Filtern arbeiten und dabei die Auflösung in einer Richtung halbieren, liefern gegenüber heutigem FullHD zumindest immer noch ein doppelt so hoch aufgelöstes 3D Bild. Auch die brillenlosen Techniken benötigen höhere Panel-Auflösungen. 4K ebnet also besserem 3D ebenfalls den Weg.

 

Meine eigenen Videoerfahrungen sind nahe Null, mich würde aber mal interessieren wie sich die Videonachbearbeitung on eurer Erfahrung von der Fotonachbearbeitung unterscheidet.

[...]

 

@Phillip, Deine Fragen lassen sich da nicht mal eben so auf die Schnelle beatworten. Dennoch ein Versuch:

 

Im Prinzip sind die Grundlagen, um die Dynamik optimal herauszuarbeiten bei bewegten Bildern die gleichen, wie bei Standbildern. Auch hier sind ausgebrannte Bereiche nicht mehr zu retten und Schatten, die einfach nur schwarz sind, ebensowenig. Deswegen gieren ja alle auch im Videobereich nach zumindest 10 Bit liefernden Kameras, um etwas mehr Reserven für die nachträgliche Anpassung zu erhalten. Hier ist jedoch i.d.R. immer noch 8 Bit das Limit.

 

Deswegen sind die Möglichkeiten, um schon vorab in der Kamera ein Profil wählen zu können, das die vom Sensor gelieferte Dynamik besser in das 8 Bit Korsett zu pressen, umso wichtiger. Hier scheint die A7S nun einiges mehr zu bieten, als bisherige Kameras im Consumer/Prosumer Bereich. Auch die zumindest theoretisch bestehende Möglichkeit, über die Reduzierung von 4K auf 2K (4 Pixel werden zu einem), wieder was zurückzugewinnen, ist verlockend.

 

Deine Rechnungen hinsichtlich der Datenmengen sind nicht linear übertragbar. Wie Du schon selbst gesehen hattest, kodieren die Video Codecs nicht jedes Bild getrent voneinander, sondern im Wesentlichen (bis auf sporadisch eingefügte Vollbilder) nur das Delta. Dabei werden auch Bewegungsvektoren mit berücksichtigt.

 

Dennoch kommen weitere negative Einflüsse zusammen, als bei Still-Bildern. Geringe Datenraten des Codecs wirken sich zumindest bei stärkeren Bewegungen und stark verrauschtem Material schwerwiegend auf die Qualität aus. Dann noch das Chroma Subsampling, also die geringere Menge von Farbinformationen gegenüber den Helligkeitsinformationen, das bei 4:2:0 noch ungünstiger ist, als man es ohnehin schon vom Bayer-Prinzip kennt.

 

Auch die Scaler, die bei hochauflösenden Sensoren i.d.R. nicht sämtliche Pixel für die Skalierung nutzen, sondern Teile davon einfach verwerfen (Binning), verschlechtern das Ergebnis gegenüber einer guten Skalierung, wie Du sie bei Photos i.d.R. anwendest. Immerhin müssen davon ja 24 - 120 Bilder pro Sekunde so skaliert werden...

Rolling Shutter (und Verfahren, die das zu mindern versuchen), tragen auch zur Verschlechterung der Ergebnisse bei.

 

Vielen dieser negativen Faktoren begegnet die A7S nun mit besseren Mitteln, als die A7 / A7R:

 

- Kein Pixel Binning (zumindest bei 1080p mit 24/25/30 fps) und ansonsten geringeres Binning

- (Vermutlich) kaum Rolling Shutter durch den scneller auslesbaren Sensor

- Verlustärmerer Codec und cleaneres (rauschärmeres) Quellmaterial, das den Codec von vornherein zu weniger "Matsch" zwingt

- Möglichkeit, komplett ohne Kompression und mit besserem Subsampling (4:2:2) am HDMI-Ausgang abzugreifen

- Zumindest theoretisch die Mögichkeit, aus 4K Material mit 8 Bit und 4:2:0 am Ende 2K Material mit 10 Bit und 4:4:4 Subsampling zu erzeugen

Link zum Beitrag
Auf anderen Seiten teilen

8 bit AVCHD-Material zu graden ist halt in etwa so, wie ein stark komprimiertes JPG zu bearbeiten.

 

Mit der Dynamik hat das erstmal wenig zu tun, die läßt sich ja gegebenenfalls via Profil komprimieren, damit sie in die 8bit reinpasst.

 

Eine andere Frage ist die Möglichkeit, feine Tonwertabstufungen aufzuzeichnen. Das kann 8bit und v.a. AVCHD nicht besonders gut.

Ich habe schon relativ viel mit RAW-Video gearbeitet (v.a. BMCC) und bin von der Möglichkeiten begeistert. Man spart halt unglaublich

viel Zeit beim Dreh und hat logischerweise nachträglich mehr Arbeit, aber auch unendlich mehr Möglichkeiten.

 

Der Unterschied ist ähnlich wie JPG-Raw bei Foto, nur das der 8bit Farbraum bei Video im Grunde nur die Tonnwerte 16-235 darstellen darf.

 

10bit in einem vernünftigen Codec um die 50-100MBit bei HD wären also eine Art Zwischenschritt. 8bit AVCHD ist eben das untere Ende und

RAW dabei das obere. RAW bedeutet aber auch gigantische Dateimengen (unser Spielfilm liegt z.Z. auf insgesamt 60 TB Raids verteilt...).

Link zum Beitrag
Auf anderen Seiten teilen

Danke euch dreien für die Antworten.

 

 

Einen Dynamikumfang wie du aus den RAW Bildern kennst wirst du mit den Sonys im Video bei weiten nicht umsetzen können. Ist wie ein sehr stark komprimiertes JPG Bild zu bearbeiten :)

Davon war ich ausgegangen, aber mich würde sehr interessieren ob das näher quantifizierbar ist. So in der Art mit einem Video habe ich 3 Blenden weniger als mit einem Raw bei gleicher Ausgabegröße.

 

 

 

Ganz ehrlich, vom Aliasing und Moire der aktuellen A7® abgesehen, ist fürs Hobby schon sehr viel in echt hoher Qualität möglich ohne jetzt "4K 4:2:2 10Bit uncompressed" haben zu müssen! Ich persönlich möchte ja keinen Kinofilm drehen ;) Die A7s wird das noch einmal toppen.

Ich hätte schon Lust mal was anderes als Foto zu machen, frage mich aber wie weit ich meine üblichen Motive wohl mit meiner a7 als Video umsetzten könnte. Mit meinem aktuellen PC macht schneiden keinen Spaß, das hab ich schonmal ausprobiert. Ein neuer ist aber bestellt und wird im Laufe der Woche von mir zusammen gesetzt, dann sollte die "Der PC raubt mir noch die letzte Lust am Schnitt" Komponente zumindest beseitigt sein. 

Ich habe mir damals die Canon 550d gekauft weil Philip Bloom mich total für Video begeistert hat, irgendwie hats dann aber doch nicht gezündet. Eines der einzigen Resultate war dies (am besten kurz vorm Einschlafen^^): 

 

Falls das mit dem Treffen demnächst klappt lass ich mir gerne deinen Workflow zeigen.

 

 

So, und jetzt bin ich gespannt, ob ich das tatsächlich irgendwie mal umsetze ;-).

 

Grüße,

Phillip

bearbeitet von Phillip Reeve
Link zum Beitrag
Auf anderen Seiten teilen

Davon war ich ausgegangen, aber mich würde sehr interessieren ob das näher quantifizierbar ist. So in der Art mit einem Video habe ich 3 Blenden weniger als mit einem Raw bei gleicher Ausgabegröße.

So einfach ist das leider nicht. Man könnte jetzt theoretisch argumentieren, dass Du mit einem 14 Bit RAW 6 Blendenstufen mehr hast, als mit einem 8 Bit Format. Praktisch gibst Du aber Deine Bilder hier ja auch als 8 Bit JPEG zum Besten. Vorher konntest Du jedoch mit Roh-Daten spielen, die 14 Blendenstufen abdeckten und sie in der Nachbearbeitung auf den Zielraum zurechtspreizen/stauchen etc.

 

Dasselbe Potenzial hast Du auch bei Video mit den A7 Varianten, die sensorseitig alle mindestens 14 Blendenstufen abdecken (bei der A7S tippe ich sogar auf 15 Blendensufen), musst aber den Verlauf der Tonwertkurven bereits vorab in der Kamera mittels Profilen möglichst gut auf den Zielraum adjustieren. Hinterher kannst Du mit den abgegriffenen 8 Bit Daten dann noch ein bisschen an den Farben drehen ("Graden"), an der Dynamik kann dann aber nicht mehr viel gespielt werden, um nicht Abrisse oder Banding (z.B. im Himmel) zu riskieren.

 

 

Ich hätte schon Lust mal was anderes als Foto zu machen, frage mich aber wie weit ich meine üblichen Motive wohl mit meiner a7 als Video umsetzten könnte.

 

Video lebt natürlich von der Bewegung und dem Spiel mit dem dazu passenden Ton. Da sind Menschen, Tiere etc. i.d.R. spannender, als Landschaft...

 

Auch da gibt es aber natürlich Ausnahmen, z.B. tolle Time-Lapses.

 

Bin schon gespannt auf Deine ersten Werke!

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Nochmal zum Thema Dynamikumfang.

 

Das Problem ist eigentlich nicht ein zu großer Dynamikumfang (Ausnahmen natürlich ausgeschlossen wie Gegenlichtsituationen), sondern eher die unzureichende Anzahl der Tonwerte bei 8bit.

 

Die neue A7s bietet ja u.a. das SLog2 Profil - eine logarithmische Gamma-Kurve, die das äußerste aus den Sensoren herauskitzelt. Da ich ja vermute, dass der Sensor in der A7s quasi dem aus den Videokameras F5/55 entspricht, und diese im SLog-Modus ca. 14 Blenden Dynamikumfang aufnehmen können, sollte dies für die A7s auch gelten. Soweit so gut.

 

Das eigentliche Problem kommt jetzt: Durch die sehr starke Komprimierung v.a. der oberen Teile der Gammakurve ist das Bild völlig flau und muss entsprechend wieder "auseinandergezogen" werden. Und zwar am besten so, dass v.a. die Hauttöne wieder in einen normalen Bereich kommen. Wenn ich die nun komprimierten Lichter auseinanderziehe fehlen mit nun selbst in der 8bit-Darstellung Tonwerte und es kommt gezwungenermaßen zu Tonwertabrissen. Dies läßt sich nur durch eine höhere Bitrate des Ausgangsmaterials umgehen.

 

Ich habe SLog-Material bereits in 8bit und 10bit gesehen. Das 8bit-Material sieht nach der "Normalisierung" in der Regel schei... aus.

 

Hier ein wenig Input zum SLog2: http://blog.abelcine.com/2013/01/18/sonys-s-log2-and-dynamic-range-percentages/

Link zum Beitrag
Auf anderen Seiten teilen

So einfach ist das leider nicht. Man könnte jetzt theoretisch argumentieren, dass Du mit einem 14 Bit RAW 6 Blendenstufen mehr hast, als mit einem 8 Bit Format. Praktisch gibst Du aber Deine Bilder hier ja auch als 8 Bit JPEG zum Besten. Vorher konntest Du jedoch mit Roh-Daten spielen, die 14 Blendenstufen abdeckten und sie in der Nachbearbeitung auf den Zielraum zurechtspreizen/stauchen etc.

 

Dasselbe Potenzial hast Du auch bei Video mit den A7 Varianten, die sensorseitig alle mindestens 14 Blendenstufen abdecken (bei der A7S tippe ich sogar auf 15 Blendensufen), musst aber den Verlauf der Tonwertkurven bereits vorab in der Kamera mittels Profilen möglichst gut auf den Zielraum adjustieren. Hinterher kannst Du mit den abgegriffenen 8 Bit Daten dann noch ein bisschen an den Farben drehen ("Graden"), an der Dynamik kann dann aber nicht mehr viel gespielt werden, um nicht Abrisse oder Banding (z.B. im Himmel) zu riskieren.

Das das theoretisch geht ist mir klar, ich kann auch mit 4 bit 16 Blenden Dynamikumfang haben, 0000 ist dann Schwarz, 0001 eine Blende über schwarz und 1111 weiß, nur die Übergänge sind dann sagen wir mal etwas aprubt, je mehr bit ich habe desto weicher sind sie. Genauso bedeutet ein geringerer Dynamikumfang bei gleichem bit Wert weichere übergänge.

 

Das ich das selbe Potential bei allen a7x habe sehe ich noch nicht ganz, ich bräuchte ja erstmal ein Profil welches wie das von Kevenzmann erwähnte SLog2 Profil den gesamten Dynamikbereich in meine 8 bit Datei abbildet. Ich denke das könenn die normalen Profile in der a7 z.B. nicht leisten. Mal gucken wie weit ich mit DRO und z.B. dem Neutral -2 Profil komme und wieviel Bearbeitungsspielraum dann noch bleibt.

 

Grüße,

Phillip

Link zum Beitrag
Auf anderen Seiten teilen

Das ich das selbe Potential bei allen a7x habe sehe ich noch nicht ganz, ich bräuchte ja erstmal ein Profil welches wie das von Kevenzmann erwähnte SLog2 Profil den gesamten Dynamikbereich in meine 8 bit Datei abbildet. Ich denke das könenn die normalen Profile in der a7 z.B. nicht leisten. Mal gucken wie weit ich mit DRO und z.B. dem Neutral -2 Profil komme und wieviel Bearbeitungsspielraum dann noch bleibt.

 

Mit demselben Potenzial meinte ich den Dynamikumfang des Sensors. Der ist bei der A7 und A7R ähnlich, und die A7S wird vielleicht noch ein klein bisschen drauflegen. Wie es auch bei 8 Bit Output für Videos nutzbar gemacht wird, hängt aber dann natürlich von den Profilen (DRO-Level und Filmprofile) ab. Die Videos mit den Feuerartistinnen habe ich z.B. mit DRO Auto und dem Filmprofil "Nachtszene" gedreht. SLog2 wird keine Wunder bewirken können, aber sicher manchmal eine bessere Basis liefern.

Link zum Beitrag
Auf anderen Seiten teilen

Die A7 dürfte ohne Profile wie slog2 bei ca. 9-10 Blenden liegen, was schon ziemlich viel ist.

 

Wer sich mit slog bzw. logarithmischen Gammakurven beschäftigt, erkennt schnell, womit man sich das "Dynamikwunder" erkauft.

Bei 8bit ist das alles andere als eine gute Grundlage, da die Gammakurve im oberen Bereich viel zu flach ist. Also sind Tonwertabrisse quasi inklusive.

 

Bei 8bit Video muss (!!) der endgültige "Look" möglichst schon bei der Aufnahme "eingebacken" werden. Ein wenig Farbkorrektur und leicht Schwarz- und Weisswertanpassung geht, viel mehr aber häufig nicht ohne Einbußen.

 

Von daher sind die mächtigen Bildprofile in der A7s schon mal ein guter Anfang - aber 10bit wären einfach eine andere Liga.

Link zum Beitrag
Auf anderen Seiten teilen

Um wieder zur A7s zurück zu kommen: Dass sie kein RAW oder ProRes aufnehmen kann wie die Blackmagic Pocket Cinema Camera, finde ich seltsam. Einen Vergleich zur GH4 fänd ich interessant. Aber 1080p60 und dazu die gute Low-Light-Fähigkeit, das hat in meinen Augen schon mal Potenzial! Und vielleicht kann Sony ja auf Codec-Seite noch was machen, bei Blackmagic kam RAW ja auch erst später dazu?

 

Zumindest bei der BMPCC war es von Anfang an vorgesehen und angekündigt, und sollte mit der Auslieferung bereitstehen. Ist dann doch etwas später geworden. Sony sagt über die internen Aufzeichnungsmöglichkeiten, dass man diese aufgrund der Hitzeentwicklung beschränken musste. Das ist dann eben der Nachteil, wenn man maximale Leistung in einem minimalen Gehäuse haben möchte. RAW intern auf die Karte zu schreiben ist allerdings in meinen Augen auch eine zweifelhafte Lösung. Bei FullHD mit 30p geht es noch, alles darüber ergibt aber keinen Sinn (außer, dass es auf dem Datenblatt gut aussieht). Bei der BMPCC ist es deswegen interessant, weil der Sensor eh nicht mehr liefert und man so ein extrem kleines Paket erhält. Der Sensor der A7s kann aber mehr, und die vollen Möglichkeiten würde man so oder so nicht intern ausschöpfen können. Da habe ich volles Verständnis, wenn man es komplett weglässt. Allerdings wäre es wünschenswert gewesen, wenn Sony eine vernünftige externe Lösung anbieten würde. In die Richtung geht letztlich auch meine primäre Kritik: Gegen die internen Codecs habe ich an sich gar nichts (4K 4:2:0 8bit hätte es noch sein dürfen, aber auch das ist an sich nicht schlimm), aber die Beschränkungen bei der externen Aufzeichnung sind in meinen Augen der Knackpunkt. 

 

 

Wieviel Qualität davon in der Praxis hinzugewonnen werden kann, wird sich mir aber erst noch zeigen müssen.

 

Ich hatte irgendwo die Tage mal eine rein statistische Berechnung gesehen, die sah an sich gut aus (ich habe mich aber nicht näher damit beschäftigt). Echte 10bit wird es natürlich nicht werden, aber doch deutlich mehr als 8bit, und das ist in meinen Augen schon nicht unerheblich. Allerdings kann es nicht darüber hinweg täuschen, dass besonders dieser Punkt in meinen Augen ein recht großer Haken ist. Ich hoffe, Sony überarbeitet in dem Punkt nochmal die Spezifikationen, soll ja eh noch etwas hin sein bis zum endgültigen erscheinen. Jetzt heißt es, Druck zu machen ;)

bearbeitet von Helios
Link zum Beitrag
Auf anderen Seiten teilen

 

Ist 8bit in der Wiedergabe nicht der Grund, warum man selbst heute noch hin und wieder Color Banding bei Farbverläufen sieht? Mir sind 10bit viel lieber als 4K.

 

Dafür besitzt aber eben jeder TV eine entsprechende Bildverarbeitung die das ausgleichen kann und entsprechend Zwischenstufen generiert um Soli-Effekte oder Color-Banding zu minimieren. Gerade die Sony TVs sollen da ja nicht so schlecht sein. Das 10-Bit-Material muss ja dann trotzdem wieder in 8-Bit gewandelt werden, damit man es auf dem TV schauen kann.

(man schaut sich doch nicht Videos/Filme auf einem mickrigen TFT an? Das kann doch nicht die Referenz sein)

Bei der 8-Bit-Wandelung wird ja dann trotzdem wieder Qualität verschenkt und Grau/Farbstufeninformationen gelöscht, die dann der TV nachträglich wieder per eigener Software generieren muss. Es gibt auch gravierende Unterschiede ob ich das aus Videosicht auf einem schlechten Eizo-TFT-Monitor betrachte oder einem OLED-TV mit nahezu unendlichen Kontrastumfang.

 

zu 4K:

 

4K und Lossless-Codec stehen da im Widerspruch zu Objektiv- und Sensorauflösung (Bayer-Sensor-Problematik d.h. UHD am TV sind ca. 24! MP auf Kamerseite und schaut einmal bei DXO welche Objektive überhaupt in diese Nähe kommen...) und Betrachtungsabstand Leinwand/TV (Nasenspitze TFT-PC-Monitor und 2m 65" TV ist schon ein Unterschied). Wer aus der Heimkinoecke kommt, weiß wie gut 1080p auf Blu-ray in nur MPEG4 aussehen kann. Selbst der AVCHD-Codec liefert eine deutlich bessere Bildqualität als das was über Satellit als HD vom Sender geliefert bekommt. So schlecht ist AVCHD eigentlich nicht, wie es immer gemacht wird. Die Datenrate ist da eigentlich vollkommen aureichend. HEVC H.265 soll ja noch effizienter arbeiten. Man kann das nicht immer allein an Bitraten festmachen und auch die GH4 kocht da sicherlich auch nur mit Wasser.

 

 

 

Ich glaube nicht, dass besonders viele Besitzer von 3D-TVs regelmäßig 3D-Content schauen

 

Hängt davon ab ob das Shutter 3D ist oder passives 3D. Shutter 3D kann man sich auch nicht lange antun un der Großteil de verkauften TV-Geräte besitzt eben nur Shutter-3D. 4K hat für mich videoseitig eigentlich nur einen sinnvollen Zweck und zwar passives 3D in 1080p-Auflösung und das am besten auf einem OLED-TV. Das ist mit dem 3D auf aktuellen Geräten nicht zu vergleichen. Auch brillenloses 3D wird von höheren Auflösungen profitieren. 2D-Inhalte in normalen Haushalten eher weniger. Da wird noch nicht einmal 1080p ausgereizt.

 

 

In der Fotografie geht man mit dem Ausgabemedium vollkommen anders um: Egal ob du dir die Fotos am Bildschirm ansiehst oder riesig ausdruckst, Fotos betrachtet man sich in Ruhe und geht da auch schon mal näher mit dem Auge ran.

 

So sehe ich das auch. Schaut euch doch einmal die gleichen 4K-Clips auf einem nur 1080p-OLED-TV an und dann wird offensichtlich welche Dinge für ein subjektiv besseres Bilderlebnis mehr Relevanz haben. Auch hoher Kontrast generiert subjektiv wahrgenommene "Schärfe".

Ich bin alljährlich auf der IFA und ehrlich, 4K ist nicht wirklich der riesen Qualitätssprung für Bewegtbilder zu dem er aktuell gemacht wird und als Download oder über Broadcasting wird auch UHD genügend kastriert sein, dass die Unterschiede zu gutem 1080p-Material auf Blu-ray noch geringer werden.

Trotzdem wird UHD und 8K kommen, weil der Erhöhung der Auflösung für die TV-Hersteller der einfachste Schritt ist um zum Neukauf anzuregen und viele Kunden werden gar nicht merken, dass da wo 4K draufsteht eigentlich kein 4K drin ist.

Link zum Beitrag
Auf anderen Seiten teilen

Dafür besitzt aber eben jeder TV eine entsprechende Bildverarbeitung die das ausgleichen kann und entsprechend Zwischenstufen generiert um Soli-Effekte oder Color-Banding zu minimieren. Gerade die Sony TVs sollen da ja nicht so schlecht sein. Das 10-Bit-Material muss ja dann trotzdem wieder in 8-Bit gewandelt werden, damit man es auf dem TV schauen kann.[...]

 So schlecht ist AVCHD eigentlich nicht, wie es immer gemacht wird. Die Datenrate ist da eigentlich vollkommen aureichend. HEVC H.265 soll ja noch effizienter arbeiten. Man kann das nicht immer allein an Bitraten festmachen und auch die GH4 kocht da sicherlich auch nur mit Wasser.

Du machst auf mich den Eindruck, als ob die dich zwar intensiv mit Fernsehern beschäftigt hättest, nicht aber mit der Bildverarbeitung. Für die Bildausgabe sind 8 bit fein und völlig ausreichend. Wenn ich aber Dateien bearbeite zerfällt eine Datei welche stark komprimiert wurde sehr schnell und es kommt zu komischen Farben und Tonwertabrissen, das sieht man zum Ende dieser Seite schön: Da gehts zwar um Raw vs JPg aber eine Videdatei verhält sich in etwas wie eine nochmals stärker komprimierte JPG Datei .

Warum du Tonwertabrisse ausgerechnet den Fernseher beheben lassen willst ist mir schleierhaft, mein PC hat deutlich mehr Rechenleistung und wird qualitativ bessere Algorithmen anwenden können. Sofern es denn tatsächlich behebbar ist, ich bin da bis zur Demonstration des Gegenteils mal sehr skeptisch.

 

Grüße,

Phillip

bearbeitet von Phillip Reeve
Link zum Beitrag
Auf anderen Seiten teilen

Celle, es ist aus meiner Sicht ein deutlicher Unterschied, ob es sich nur um Banding aufgrund der mit 8 Bit möglichen 256 Zwischenstufen handelt oder um Banding, das dadurch entstanden ist, dass nachträglich noch aufgrund eines unglücklich gewählten Kamera-Profils (z.B. SLog2 im "oberen Bereich") die Stufen auseinandergezogen wurden. Letzteres könnte man nur noch durch Dithering wieder ausgleichen, also im Prinzip so etwas ähnliches wie Rauschen, das aus genügend Abstand homogen aber mit neuen Zwischenwerten wahrgenommen wird. Gute Rendering Software sollte in der Lage sein, dies z.B. bei der Konvertierung von 10 Bit in 8 Bit Material selbst einzufügen. Ich persönlich möchte jedoch eher nicht, dass das Wiedergabegerät da nachträglich noch Hand anlegt, um Banding, das bereits im eingespielten Material steckt, zu verringern.

 

h.265 ist in der Tat effizienter, aber bislang wohl nur für 4K Übertragungen spezifiziert und in den meisten GPUs noch nicht implementiert (bei der Wiedergabe also mit entsprechend höherer Belastung der CPU verbunden). Ich sehe es aber genauso, dass bereits in AVCHD mit nur 8 Bit, 4:2:0 und h.264 Encoding mehr steckt, als man es gemeinhin aus Consumer Kameras geliefert bekommt. Gut produzierte Blu Rays zeigen das ebenso wie z.B. Timelapses, die aus hochqualitativ aufgenommenen Einzelbildern am Ende in ein entsprechendes Format generiert wurden.

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

4K und Lossless-Codec stehen da im Widerspruch zu Objektiv- und Sensorauflösung (Bayer-Sensor-Problematik d.h. UHD am TV sind ca. 24! MP auf Kamerseite und schaut einmal bei DXO welche Objektive überhaupt in diese Nähe kommen...) und Betrachtungsabstand Leinwand/TV (Nasenspitze TFT-PC-Monitor und 2m 65" TV ist schon ein Unterschied). 

 

Es wird immer mindestens einen limitierenden Faktor geben, im Idealfall wäre es nur die Physik, in der Realität sind es meist verschiedene Flaschenhälse. Das kann man als gegeben hinnehmen und nur auf ein Gleichgewicht hinarbeiten, also den besten Kompromiss aus allen Bereichen, oder man zielt eben auf die maximale Leistung ab. Oder auf irgendetwas dazwischen. Was man macht bleibt jedem selbst überlassen.

Im Widerspruch steht das Aufheben eines Flaschenhalses auch unter Beibehaltung anderer nicht, schon allein, weil sich in den meisten Fällen eine Verbesserung der Gesamtleistung daraus ergibt, selbst wenn nicht das jeweilige Optimum erreicht wird. Ob es für einen selbst Sinn ergibt oder nicht, wie gesagt, muss jeder selbst entscheiden. Ich jedenfalls möchte mich nicht einschränken lassen, nur weil es sein könnte, dass ein Teil der Qualität eh durch andere Faktoren verloren geht ;)

Link zum Beitrag
Auf anderen Seiten teilen

Grundsätzlich finde ich es besser, sich bei der Weiterentwicklung von Sensoren auf höhere Dynamik/geringeres Rauschen zu konzentrieren als auf die Erhöhung der MP. Für Fotografie sind 12 MP zwar ein bißchen wenig, doch wenn man die MP so auf dem Level um 24 belässt und dafür kontinuierlich die Dynamik weiter verbessert, dann erscheint mir dies für die Praxis relevanter, nutzbringender und nachvollziehbarer... Unter diesem Aspekt ist die A7s auch für Fotografen auf dem richtigen Weg! So schafft man bei "available light" und "handheld" größere Spielräume/Reserven schaffen und macht Investitionen in teure, lichtstarke Optiken vielfach unnötig. (Wenn man bedenkt, dass der Sprung von einem 2,8/50mm zu einem 1,4/50mm idR überproportional teuer ist und doch nur dem Gewinn von zwei ISO-Stufen entspricht, also z.b. von 100 auf 400 :rolleyes: ). Ein Traum wäre ein 24 MP(KB)-Sensor, der bei, sagen wir mal, ISO12800 die Dynamik und das Rauschen aktueller KB-Sensoren bei ISO 800 bietet...Vielleicht dauert das gar nicht mehr so lange, warten wir mal zwei neue Modellgenerationen ab, vielleicht ist es dann ja die A7rs :)

bearbeitet von Viewfinder
Link zum Beitrag
Auf anderen Seiten teilen

Ich persönlich, der sehr viel mit seiner "alten" Fuji X100 mit 12 MPix fotografiert, halte 12 MPix, sofern diese Auflösung auch unter ungünstigen Bedingungen gehalten werden kann, in der Regel für ausreichend.

Mit dieser Auflösung habe ich schon über 1m breite Poster ausgedruckt und hatte keine Probleme damit.

 

Sony als weltweit größter Sensorhersteller kann seine Kameras natürlich leichter mit verschiedenen Sensoren austatten, als das die meisten anderen Hersteller können. Deshalb finde ich es prima, das dieser Sensor (der wie gesagt m.M. nach aus der Videosensorensparte von der F5/55 stammt) den Weg in eine kleine Quasihybridkamera gefunden hat.

Je nach Preisniveau könnte das eine sehr interessante Kamera mit jeder Menge Alleinstellungsmerkmalen werden, dessen niedrige Auflösung v.a. Pixelpeepern bei Crop-Ausschnitten auffallen wird.

Link zum Beitrag
Auf anderen Seiten teilen

Sony als weltweit größter Sensorhersteller kann seine Kameras natürlich leichter mit verschiedenen Sensoren austatten, als das die meisten anderen Hersteller können. Deshalb finde ich es prima, das dieser Sensor (der wie gesagt m.M. nach aus der Videosensorensparte von der F5/55 stammt) den Weg in eine kleine Quasihybridkamera gefunden hat.

 

Viele Hersteller betreiben eigene Sensorentwicklungen und lassen diese dann, wenn sie es nicht selbst können, von Auftragsfertigern (zu denen auch Sony gehört) produzieren. Sony hingegen ist im Endeffekt auch nur Kunde im eigenen Haus, wirtschaftlich agieren die Bereiche unabhängig voneinander. Natürlich ist der Kontakt intern enger, aber überbewerten würde ich die Situation nicht.

Ob die Entwicklung des Sensors der A7s enger als üblich mit den Sensoren aus der F5 oder F55 zu tun hat ist in meinen Augen schwer abzuschätzen, es gibt ja bisher nur recht dürftige Informationen. Und was bekannt ist, zeigt eher Unterschiede als Gemeinsamkeiten auf. Andererseits ist es letztlich auch vollkommen egal, sofern die finale Leistung stimmt.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...