Jump to content

UHD / 4K - Consumer-tauglich oder Marketing-Hype?


Empfohlene Beiträge

Die Kritiker werden nun einwenden, dass der werte Herr nicht gerade die in dem Bereich neutralste Stimme haben wird, zumindest zeigt es aber die dort ausgerufene Strategie.

 

Soweit ich weiß hatten eine ganze Reihe von Unternehmen noch vor wenigen Jahren genau diese Strategie und haben sich aus dem Markt dann wieder zurück gezogen.

Link zum Beitrag
Auf anderen Seiten teilen

Fernsehen ist ja grundsätzlich nicht gerade das Medium der Zukunft.

Aber Displays braucht es auch für Streamingdienste. Und LG ist in den letzten zwei Jahren mächtig gewachsen und macht Samsung, Sony und Panasonic das Leben schwer...

 

Bevor ich mir jedoch ein 4k-Display kaufe, muss eine Art allg. Standard wie z

B. 4k BluRay da sein. V.a. der neue Farbgamut Rec.2020 ist bisher bei keinem Display verfügbar. OLEDs machen zwar noch Probleme, aber da es bereits OLED Class A Grading Displays von Sony in HD gibt ( allerdings rel. klein und sehr teuer) wird es mit der Farbtreue auch für den Consumer irgendwann erschwinglich(er).

 

Ich sehe hier auf meinem IPS Display mit 2560Px keinen einzigen Pixel, wenn ich entsprechend weit weg bin. Höchstens bei skalierten Texten oder ähnlichem. Aber sicher nicht bei Bewegtbild.

 

Wer meint, ihm reiche HD nicht, kann es natürlich mit einem 4k-Display versuchen. Fotoslideshows könnten besser aussehen, mehr tut sich vermutlich nicht. Ich schaue Filme am liebsten, wenn nicht im Kino, mit meinerX-Pro1 guten, alten Röhre. Im Vergleich sieht FÜR MICH jeder Flatscreen schäbig aus. Ich bekomme vermutlich demnächst eine 16:9 Röhre (die einzige, die je gebaut wurde) und freue mich am filmischen Bild! :)

Link zum Beitrag
Auf anderen Seiten teilen

Bevor ich mir jedoch ein 4k-Display kaufe, muss eine Art allg. Standard wie z.B. 4k BluRay da sein. V.a. der neue Farbgamut Rec.2020 ist bisher bei keinem Display verfügbar.

 

Wesentlich für die Unterstützung seitens des Displays ist doch eigentlich nur der Anschluss-Standard. 4K mit 60p leisten DisplayPort 1.2 und HDMI 2.0 und der Kopierschutz HDCP 2.2 sollte dann auch schon unterstützt sein. Alles andere ist Problem des BD-Players und so, wie ich es verstanden habe, ist die Spezifkation auch bereits bestätigt.

 

Rec 2020 deckt 75,8% des gesamten CIE 1931 Farbraumes ab (zum Vergleich: AdobeRGB deckt 52,1% davon ab, Rec.709, 35,9%). Wenn also irgend eine Display Technologie Chancen hat, dem Rec 2020 nahezukommen, dann wohl auf Basis von RGB LEDs oder auf Basis von OLED. Rec 2020 ist außerdem nicht nur ein Farbgamut, sondern auch eine Festlegung von zu unterstützenden Auflösungen (3840x2160 und 7680x4320, also 4K und 8K). Die volle Unterstützung wirst Du also so schnell nicht finden (aber vielleicht schafft das ja die gute alte Röhre :)). Oder meintest Du nur einen Anschluss, der Rec 2020 unterstützt? Das wäre dann z.B. HDMI 2.0.

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Die 4k Consumer-Schiene ist m.M. aufgrund der stark eingebrochenen Verkaufszahlen von TVs, Playern und auch

Blu-Rays zu erklären. Das 4k-Inhalte auch in den nächsten Jahren keine ganz große Verbreitung erfährt ist doch klar.

Hier noch eine Meinung dazu:

http://www.apfelpage.de/2014/01/19/4k-und-der-krampf-hinter-dem-hdmi-anschluss/

 

Für mich persönlich ist 4k als Display-Technologie auch deshalb völlig uninteressant. Was soll ich denn da drauf

überhaupt schauen. Meine eigenen Fotos in hoher Auflösung auf der Glotze? Die ersten 4k BluRays 2016?

 

Wenn ich vergleiche, wie sich ein herkömmlicher Film (egal ob über DVD, BluRay oder Streaming-Dienste) auf meinen

Displays macht, ist mein 27er Apple schon wirklich scharf. Aber im direkten Vergleich gucke ich trotzdem lieber auf der

Röhre. Das hängt nicht mit einer pauschalen "besser" vs. "schlechter" Beurteilung zusammen, wie es hier im Forum ja

oft versucht wird. Jede Technologie hat ihre spezifischen Eigenschaften. Wer diese kennt, kann sich dann bewußt für eine

entscheiden. Warum ich überhaupt hier mitschreibe, liegt daran, dass neue Technologien oft als große Verheissung

angepriesen werden. Dabei werden sämtliche bestehenden Technologien als "von gestern" und "rückwärtsgewand"

oder "schlechter" abgetan. Aber allein diese Formulierungen zeigen mir bereits, dass man sich mit den individuellen

Vor- und Nachteilen gar nicht beschäftigt hat.

 

Ich habe beruflich schon mit 3D gearbeitet und es auch vor dem Kunden angepriesen. Dabei war ich mir aber über den

begrenzten Sinn dieser Darstellungsart bewusst und habe dem Kunden das auch nicht verheimlicht. Für 3D-Videos

benötigt man entsprechend angepasste Scripts und szenische Auflösungen. Einfach drauf losarbeiten, wie bei 2D macht

wenig Sinn.

4k ist zwar nur begrenzt damit vergleichbar, aber die Sinnhaftigkeit einer neuen Technologie pauschal beurteilen zu wollen, grenzt,

in die eine - wie in die andere Richtung, schlicht an Größenwahn.

 

Als Fazit bleibt doch festzuhalten, dass niemand etwas gegen 4k hat. Im Grunde sprechen aber nur wenige, und sehr individuelle

Gründe für die Anschaffung eines 4k Displays zum heutigen Zeitpunkt. 

 

Da ich selbst ja in Bälde in 4k Filme produzieren kann und das testweise auch einmal tun werde, um den Arbeitsablauf und das Ergebnis

beurteilen zu können, werde ich mich ganz bestimmt damit auseinandersetzen. Mir ist aber durchaus bewusst, dass 4k kein Heilsbringer

ist, sondern gerade zur Zeit ein Argument für die Erschließung neuer Marktpotentiale für die Industrie.

Arbeitet man in diesem Bereich, wäre es fahrlässig, dieses Argument kategorisch auszuschließen. Ich würde aber keinem meiner Kunden

zu einer 4k-Produktion raten, auch wenn ich sie theoretisch machen könnte. Das Ergebnis wird aber in 1. Linie teurer, nicht besser.

 

 

Für mich ist 4k v.a. deshalb interessant, weil ich bei meinen Dokumentationen keine absolute Kontrolle über die Bildgestaltung habe.

Mit 4k habe ich aber nun die Möglichkeit, wie man das im Fotobereich schon lange macht, auch größere Ausschnittsänderungen ohne

Qualitätsverlust im Endprodukt (HD oder 2k) machen zu können. Dabei ist aber zu berücksichtigen, dass 4k heute nicht, wie man als

Laie gerne glaubt, 4x so hoch auflöst wie HD, sondern effektiv ca. 50-70% höher. Das gilt zumindest, wenn man sich keine ALEXA 65

(http://www.arrirentalgroup.com/alexa65/) oder RED EPIC DRAGON (http://de.red.com/products/epic-dragon) für den Urlaub ausleihen

möchte...

 

Ich zitiere mal aus einem Review der für mich interessanten Sony PXW-FS7, dessen Auflösung der von weitaus teureren Sony PMW-F5/55

(http://www.sony.de/pro/product/broadcast-products-camcorders-digital-motion-picture-camera/pmw-f55/overview/) entspricht und so

in der Consumerklasse in der nächsten Zeit sicher nicht zu erwarten ist:

 

The QHD images resolve about  1700 TVl/ph with aliasing above that, at any speed from 1-60fps.

In HD, images from 1-60fps are downsampled from the 4K capture, showing clean detail up to 1080 TVl/ph with gentle aliasing beyond that point.

http://www.dvinfo.net/article/acquisition/sonyxdcam/first-look-sony-pxw-fs7-l-s-s-shoulder-mount-camcorder-part-1.html

 

 

Sogenannte 4k Videokameras wie die Panasonic GH4 oder die FZ1000 "dümpeln" bei etwa 1000 Linien rum, also immerhin "fast" HD.

Das muss man sich dann vor Augen halten, wenn jemand wieder behauptet, die extreme Auflösungssteigerung von 4k Video könne er

auf seinem neuen 4k-Display bewundern: "Ein Unterschied wie Tag und Nacht."  ;)

 

Das tolle an 4k Consumergeräten ist, dass sie in etwa HD-Auflösung beherrschen, also nach einem downconvert auf HD optimale Leistung zeigen.

Dabei sind sie allerdings in der Regel weniger lichtempfindlich als ihre veralteten HD-Kollegen...

bearbeitet von kavenzmann
Link zum Beitrag
Auf anderen Seiten teilen

Für mich persönlich ist 4k als Display-Technologie auch deshalb völlig uninteressant. Was soll ich denn da drauf überhaupt schauen. Meine eigenen Fotos in hoher Auflösung auf der Glotze? Die ersten 4k BluRays 2016?

Ja und ja.

...und z.B. auch selbstproduzertes 4K Material aus Deiner FS7 (zu Deinen "effizienten" Auflösungs-Zahlen komme ich noch).

 

Sehr nützlich finde ich auch die Möglichkeit, darauf FullHD Material mit einer Schnitt- bzw. Grading-Software zu bearbeiten, die mehrere Bild-Fenster enthält + all die vielen Regler, Timeline, Footage-Übersichten etc. (genügend Rechner- und Grafkkarten-Leistung vorausgesetzt). Könnte man zwar auch mit zwei FullHD Monitoren lösen, aber nicht so übersichtlich. Da sind übrigens die Betrachtungsabstände auch deutlich geringer.

 

Ich würde aber keinem meiner Kunden zu einer 4k-Produktion raten, auch wenn ich sie theoretisch machen könnte.

Es soll auch Kunden geben, die da eigene Vorstellungen mitbringen...

 

Sogenannte 4k Videokameras wie die Panasonic GH4 oder die FZ1000 "dümpeln" bei etwa 1000 Linien rum, also immerhin "fast" HD. Das muss man sich dann vor Augen halten, wenn jemand wieder behauptet, die extreme Auflösungssteigerung von 4k Video könne er auf seinem neuen 4k-Display bewundern: "Ein Unterschied wie Tag und Nacht."  ;)

 

Ich weiß ja nicht, wo Du diese merkwürdigen Werte herzitierst (EosHD-Diskussionen? Meinst Du da vielleicht auch Material, das von 4K auf FulHD downgesampled wurde?). Ich habe für die GH4 z.B. Angaben von bis zu 1778 LP/BH gesehen.

EDIT: Das war wohl der Wert in Linienpaaren (pro Bildhöhe) für die Foto-Auflösung (gemessen von ColorFoto). Für Video hat ProfiFoto offenbar 800 Linien für FullHD und 1377 Linien für den 4K Modus gemessen. Andere kommen da aber wieder zu anderen Werten (z.B. 960 Linien für FullHD) und die Frage ist auch, ob das nur aus dem bereits durch den Codec gelaufenen Daten ermittelt wurde oder RAW am HDMI-Ausgang...

 

Natürlich schlucken die AA-Filter und das Debayering etwas von der theoretisch auslesbaren Auflösung, aber das gilt für FullHD Kameras genauso, wenn sie Farbe produzieren und halbwegs Moiré resistent sein sollen. Der Abstand bleibt also gewahrt und natürlich ist dieser auch sichtbar, auch wenn Du uns (und offenbar auch Deinen Kunden) immer wieder etwas anderes einreden möchtest. Diese Betrachtung zeigt allerdings auch, dass aus 4K auf 1080p mit einem guten Algorithmus downgesampletes Material um einiges besser aussehen kann (auch auf einem FullHD Monitor). Einen weiteren Quaitätssprung bei 4K bekommen wir also noch mal, wenn es aus 8K downgesampled wurde (ob den dann noch jemand sieht?).

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Ich weiss, jetzt müssen die Fakten wieder gedreht und gewendet werden...

 

Ich hab mal weiter recherchiert und nur einen einzigen belastbaren Test gefunden.

Dieser bestätigt der GH4 tatsächlich sogar eine Auflösung bis zu 1600 TVL/ph im 4k-Modus, was wirklich erstaunlich ist:

 

http://www.dvinfo.net/article/acquisition/review-panasonic-dmc-gh4-camera.html/2#prettyPhoto

 

Ich bleibe aber dabei - der Gewinn gegenüber ausgereiztem HD beträgt eben max. 50-70% und keinen Deut

mehr. Das ist einfache Mathematik. Diesen Auflösungsgewinn will ich auch nicht runterreden, er ist ja da.

Es herrscht aber (außer hier) eine Art common sense darüber, dass man mit 4k-Kameras eine sehr schönes

HD-Bild herstellen kann. Das wiederrum stützt meine These, dass 4k auf der Aufnahmseite durchaus schon Sinn

macht. Aber auf der Ausgabeseite eben nur begrenzt...

Als Consumer darf man deswegen trotzdem die neuste 4k-Hardware kaufen - nur bitte nicht behaupten, dass das

jetzt das einzig Wahre ist.

 

Keiner muss sich von mir etwas einreden lassen. Deswegen zitiere ich jetzt die inzwischen x-te und auch letzte Quelle,

die das ausspricht, was hier einer nicht wahr haben will:

 

"The camera’s 4K images are, in and of themselves, not particularly exceptional as 4K images go, but as with the dancing bear,

the miracle is that a $1700 hybrid cam can shoot 4K at all. And when you take those 4K images and downsize ‘em to HD, you get

the best HD images ever seen from a hybrid cam (with the exception of those from the Canon 1D C), images that are every bit as

good as those from many single-purpose HD cameras."

 

Adam Wilt (nachzulesen im oben verlinkten Artikel)

 

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Sehr nützlich finde ich auch die Möglichkeit, darauf FullHD Material mit einer Schnitt- bzw. Grading-Software zu bearbeiten, die mehrere Bild-Fenster enthält + all die vielen Regler, Timeline, Footage-Übersichten etc. (genügend Rechner- und Grafkkarten-Leistung vorausgesetzt). Könnte man zwar auch mit zwei FullHD Monitoren lösen, aber nicht so übersichtlich. Da sind übrigens die Betrachtungsabstände auch deutlich geringer.

 

Jetzt sind wir aber schon bei Computerdisplays. Der erste iMac mit Retina-Display steht kurz vor der Veröffentlichung, und die zweite oder dritte Generation wird definitiv meinen alten iMac ablösen. Ich freue mich auf die ultrahochauflösenden Bildschirme! Alles am Computer wird schärfer und besser aussehen, auch Fotobearbeitung wird dadurch sicher aufgewertet werden. Texte werden besser lesbar sein. Der Wechsel vom iPad 1 zum iPad 3 war damals riesig für mich! Ich kann bei billigen 27" Bildschirmen mit 1080p-Auflösung nur den Kopf schütteln, arbeiten würde ich an so einem Gerät nicht wollen – da sind mir meine 1440p doch lieber.

 

Aber: Das sind Computerdisplays. An denen sitze ich näher dran und habe es vor allem mit statischen Inhalten zu tun. Da merke ich den Auflösungsunterschied viel eher als bei bewegten Bildern. An einem TV ist der Betrachtungsabstand relativ zur Diagonale viel größer.

Link zum Beitrag
Auf anderen Seiten teilen

Es herrscht aber (außer hier) eine Art common sense darüber, dass man mit 4k-Kameras eine sehr schönes HD-Bild herstellen kann.

Auch hier herrscht darüber "Common Sense". Das sieht man auch bei der A7S im XAVCS 50MBit 1080p30 Modus (der aus downgesampleten 4K Readout erzeugt wird) schon "out-of-the-box". Vom Atomos Shogun erhoffe ich mir wegen der dann möglichen "Pseudo" 10-Bit Verarbeitung und den noch geringeren oder komplett eliminierten Codec-Verlusten für das Rohmaterial noch mal einen gewissen Schub und zusätzlichen Bearbeitungsspielraum. Ich hoffe, er ist die 1500 EUR wert...

 

Ich bleibe aber dabei - der Gewinn gegenüber ausgereiztem HD beträgt eben max. 50-70% und keinen Deut mehr. Das ist einfache Mathematik. Diesen Auflösungsgewinn will ich auch nicht runterreden, er ist ja da.

Da knirscht es schon wieder. Auf was beziehen sich Deine Prozentangaben? Lassen wir die Zahlen aber mal außen vor...

 

Diese "Gewinneinbuße" ergibt sich auch nur dort, wo 4K, das nicht selbst schon durch Downsampling (z.B. von 6K oder 8K) generiert wird, mit 1080p (2K) verglichen wird, das bereits aus Downsampling erzeugt wurde. Es ist nur eine Frage der Zeit, wann auch 4K aus höheren Auflösungen (mit vollem Readout) generiert wird und dann sind wir wieder bei 100% (oder 400%, je nachdem, was die Bezugsbasis ist...).

 

Das wiederrum stützt meine These, dass 4k auf der Aufnahmseite durchaus schon Sinn macht. Aber auf der Ausgabeseite eben nur begrenzt...

Je nachdem, wie das 4K Material entstand (somit bei Video also nur einer Frage der Zeit und bei "Photo-Slideshows" oder Anwendungen wie dem o.g. Videoschnitt schon sofort voll nutzbar), aber das hatten wir ja gerade schon...

 

Aber: Das sind Computerdisplays. An denen sitze ich näher dran und habe es vor allem mit statischen Inhalten zu tun. Da merke ich den Auflösungsunterschied viel eher als bei bewegten Bildern. An einem TV ist der Betrachtungsabstand relativ zur Diagonale viel größer.

Diese 4K "TVs" werden nicht selten auch für Videoschnitt als Computerdisplays missbraucht, da 4K auf 27 Zoll zwar schön fein auflösen, aber eben dennoch die Schriften und Bedienungselemente für ein entspanntes Arbeiten zu klein dargestellt werden, wenn man wirklich viele Informationen auf dem Schirm haben möchte.

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Lieber Helge,

 

wir können nicht in die Zukunft schauen - wir stellen uns Fragen zum Hier und Jetzt.

 

In der Profiliga gibt es schon seit Uhrzeiten Videokameras mit hohen Megapixelzahlen:

 

- 2007 begann RED mit der RED ONE mit 12,6 MPix, die ein 4,5k RAW schreibt und trotzdem am Ende (bis ca. 2011) immer "nur" für 2k eingesetzt wurde

 

- 2012 kam Sony mit der F65 und einem 20 MPix-Sensor raus, auch hier ist 4k möglich, meistens wird aber in 2k endgefertigt

 

Hat das einen Grund? Hat es!

Nämlich dass einige Firmen (genau genommen die innovativsten in der Szene) bis zu 20MPix Bayer-Sensoren einsetzen, um ein perfektes 2k Bild

zu erzeugen. 4k hat theoretisch die 4-fache Auflösung.

Um also perfekt ausgereiztes 4k zu erzeugen, bräuchte es nach obiger Rechnung (die also nicht von mir, sondern von Sony und RED stammt) S35-Sensoren

mit rund 48-80 MPix für Video. Da wollen wir die benötigten Datenraten mal lieber nicht ausrechnen. V.a. nicht, wenn die ersten schon nach HFR, also

mind. 48 B/s anstatt der bisherigen 24B/s schreien und gerne 12-16bit möchten...

 

Mit den heutigen Kameras, v.a. Consumer Kameras wie der Pana GH4, Sony A7s, Pana LZ1000, Sony RX10,Sony Z100 usw. ist man in der Lage ein

sehr schönes HD-Bild zu erzeugen. Das Signal in 4k wäre einfach nur eine sehr ähnliche Qualität in einem größeren Container, der dadurch aber

wiederrum viel stärker komprimiert werden müsste. Also wird die gewonnen Auflösung als Bildinformation am Ende durch die nötige Kompression

vermutlich egalisiert oder im Zweifel sogar verschlechtert.

 

Was macht man also (in meiner Branche zumindest): Man beginnt in 4k aufzuzeichnen, arbeitet i.d Regel aber schon in der Timeline mit 2k oder rechnet

spätestens vor dem Mastering auf 2k oder HD runter.

Was heisst das jetzt für den Consumer? Er wird in den nächsten Jahren wenig "echten" 4k Content zu sehen bekommen. So war es bei der Umstellung

auf HD auch. Erstmal wurde über Jahre einfach alles upgescaled und keiner hats gemerkt...

 

Wie lange das noch so geht, weiss niemand. Irgendwann gibt es vielleicht tatsächlich jede Menge 4k Videos, die diese Bezeichnung auch verdienen.

Dann können wir gerne nochmal von vorne anfangen.

 

 

 

bearbeitet von kavenzmann
Link zum Beitrag
Auf anderen Seiten teilen

Das hängt natürlich von Deinem Schnittprogram ab.

 

Methode 1:

4k Material auf eine HD-Timeline schmeiseen und auf die richtige Größe skalieren - schneiden - fertig.

 

Methode 2:

4k Material in einer 4k-Timeline schneiden und erst den fertigen Film in HD ausgeben. Fertig.

 

Methode 3:

4k Material zunächst auf HD runterrechnen (womit auch immer) und dann die HD Version des Materials

im Schnittprogramm bearbeiten. Fertig.

 

Methode 4:

wie Methode 3, aber em Ende des Schnitts, werden die original 4k-Daten anstatt der runtergerechneten zur Endfertigung

genutzt. Das heisst Proxy-Schnitt.

 

Über die Sinnhaftigkeit der Methoden und deren Qualität kann man pauschal nicht viel sagen.

 

Wenn möglich, würden Viele natürlich möglichst lange in 4k bleiben und erst am Ende runterrechnen.

So kann man, sobald man eine 4k-Version haben möchte einfach nochmal in 4k ausspielen.

 

Ich persönlich werde aber in HD/2k-Timelines schneiden und beim Schnittprogramm "Scale to fit" einstellen, sodass

das 4k-Material zwar komplett angezeigt wird, aber totzdem in der original Auflösung verbleibt. Nun kann ich z.B.

"ohne Verlust" croppen und stabilisieren und nachschärfen oder was weiß ich und immer das 4k original verwenden.

Erst bei der finalen Ausgabe wird alles auf HD ausgegeben. So verbindet man m.M. nach am besten beide Welten.

 

Hier gibts Input:

http://nofilmschool.com/2014/06/downscaling-4k-1080p-panasonic-gh4

 

Etwas detaillierter:

http://www.hdwarrior.co.uk/2014/05/22/down-converted-4k-footage/

 

 

bearbeitet von kavenzmann
Link zum Beitrag
Auf anderen Seiten teilen

Erik, auch wenn ich Deine Sicht mehr oder weniger nachvollziehen kann...
 

Um also perfekt ausgereiztes 4k zu erzeugen, bräuchte es nach obiger Rechnung (die also nicht von mir, sondern von Sony und RED stammt) S35-Sensoren mit rund 48-80 MPix für Video.

 

...sehe ich das noch nicht so recht ein. Verluste durch das Bayer-Prinzip sind spätestens bei vierfacher Pixelzahl vollständig eliminiert. Bezogen auf den jetzt von Sony in der A7S (wegen 3:2 Format, wo schon Beschnitt für 16:9 entsteht) gewählten Sensor, also maximal 48 MP. In noch höheren Vielfachen sehe ich daher keinen Nutzen - außer, dass die Kamera dann noch höherauflösende Einzelbilder liefern kann.

Bei Hybrid-Kameras sind deutlich höhere Sensor-Auflösungen allerdings längst die Regel. Hier fehlte bislang nur die Rechenleistung, sie gleich ohne Line-Skipping / Pixel-Binning in die gewünschte Ziel-Auflösung zu bringen und auch die Sensoren ließen ein Readout mit so hoher Bandbreite im Consumer-Preisbereich bislang nicht zu. Dafür sind ganz andere Energiemengen und entsprechend auch andere Kühlmaßnahmen nötig, die bisher alles andere als handlich waren.

Auch das scheint sich aber gerade zu ändern. Die Samsung NX1 schafft offenbar einen vollen Sensor-Readout ihres 28 MP Sensors mit 30 fps. Das wären also rund 7K mit 30 fps oder ein entsprechend hochwertig herunterskaliertes 4K Bild. Wenn sie dann auch schon h.265, 10 Bit und interne Aufzeichnung eingebaut bekommen, sähen die anderen aktuellen 4K Consumer Kameras und auch die eine oder andere Kamera im Semi-Profi-Segment auf dem Papier schon wieder recht alt dagegen aus. Mal sehen, was tatsächlich am Ende rauskommt...

Was ich aus dieser manchmal recht kontroversen aber dennoch wohl für alle Seiten auch erkenntnisreichen Diskussion selbst bislang als Zwischenfazit mitnehme:

  • 4K liefert auf jeden Fall die Voraussetzung für besseres FullHD (unstrittig)
     
  • Für die Bearbeitung von Fotos und Videoschnitt werde ich schon zeitnah auf ein 4K Display (ca. 32 Zoll) upgraden, auch hier scheint der Nutzen aufgrund des geringen Betrachtungsabstandes und der eher statischen Inhalte weniger strittig zu sein
     
  • Für ein Upgrade auf großformatige 4K TV Wiedergabe werde ich mir wohl auch noch etwas Zeit lassen. Da sehe ich das ähnlich wie der werte Herr von LG: Hier wird OLED mit nun deutlich fallenden Preisen und besserer Lebensdauer den Markt in absehbarer Zeit ziemlich umkrempeln. Jetzt noch in eine andere Display-Technologie zu investieren, wenn man es nicht unbedingt jetzt schon "braucht", würde man wohl zu schnell bereuen. Bis dahin düfte sich auch das Wirrwarr mit den benötigten Anschlussstandards einigermaßen sortiert haben. Das schiebe ich also auch erst mal auf 2015 oder vielleicht sogar 2016, je nach Preisentwicklung bei den 4K Großformat OLEDs. Vielleicht hat bis dahin "Mutti" auch bei dem einen oder anderen die Wand freigegeben ;)
bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Meine Erfahrung mit Panasonic AXW 804 50 Zoll 1799 €(Raum bestimmte die Bildschirmgröße) mit 1,5 bis 3 m Betrachtungsabstand:

 

4K Clips der GH4 und Einzel-Bildbetrachtung (JPEGs aus RAW)

 

sind eine Freude fürs Auge und setzen das Ausgangmaterial perfekt um. FHD Bildschirme sind Geschichte für mich. Warten kann man immer mit der Neuanschaffung von Geräten. Für SAT TV sehe ich keine Notwendigkeit der Anschaffung. Allerdings sind Unterschiede von Sendeanstalten, die in FHD senden, wie Servus TV, gut zu HD Sendern zu unterscheiden.

bearbeitet von sardinien
Link zum Beitrag
Auf anderen Seiten teilen

Philip Bloom hat sich in seinem Blog auch vor einigen Tagen mit der Thematik 4K und raw auseinandergesetzt. Zumindest was die Produktion in 4K raw angeht, hat er durch seine Canon 1DC ja schon einiges an Erfahrungen sammeln können, auch wenn sich diese insbesondere bzgl. der Datenmengen und der benötigten Speichermedien bei neueren Kameras inzwischen um einiges relativieren lassen.

 

Wenn auch manchmal etwas "old school", erscheint es mir lesenswert: http://philipbloom.net/2013/10/10/4kraw/

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Interessantes Thema, da will ich meinen Senf als Augenoptikermeister mal beisteuern:

Zunächst: Kane009 hat vollkommen Recht, auf der Couch im Wohnzimmer ist Full HD völlig ausreichend, der Unterschied bei einem Betrachtungsabstand > 3m ist definitiv nicht sichtbar, auch nicht mit Visus 2.0

Ihr glaubt gar nicht was ich in meiner täglichen Praxis so erlebe.

Die Mehrzahl unserer Mitmenschen hat ein Refraktionsdefizit, auch die mit Brille! Eine Brille ist eigentlich nur unmittelbar nach der Anfertigung aktuell, oft wäre schon wenige Monate später eine andere (leicht modifizierte) Brillenstärke besser. Viele Brillenträger benutzen ihre Brille aber viel zu lange und lassen viel zu selten die Gläserstärken aktualisieren. Das führt dazu, dass der maximal erreichbare Visus mit perfekter Korrektion des Refraktionsdefizits gar nicht zur Verfügung steht.

Wenn also jemand mit Visus 1.0 mit alter Brille bei mir auf dem Stuhl sitzt ist das schon ausgesprochen gut!

Und dann gibt es die Brillenverweigerer, die zwar einigermassen klarkommen, aber nur mit Visus 0.7 oder weniger unterwegs sind. 'Ich seh gut' sagen die. Das reicht. Die sehen noch nicht mal den Unterschied zwischen SD und HD. Die Leute sollten alle erstmal ne anständige Brille aufsetzen, bevor sie über 4K nachdenken.

Auch die, die im Moment noch keine haben/hatten.

Ich behaupte mal frech, dass ich bei jedem Nichtbrillenträger die Sehschärfe verbessern könnte, wenn auch marginal.

 

Ich seh den Vorteil von 4K vielmehr am PC als in der Unterhaltungselektronik. Ein 30' Schirm als PC Monitor mit 4K Auflösung ist was feines. Da sitz ich aber 50 cm davor. Da ist auch das Präsentieren von Fotos ein Genuss.

Für Video braucht man IMHO 4K definitiv nicht. 

Link zum Beitrag
Auf anderen Seiten teilen

Viele Brillenträger benutzen ihre Brille aber viel zu lange und lassen viel zu selten die Gläserstärken aktualisieren. Das führt dazu, dass der maximal erreichbare Visus mit perfekter Korrektion des Refraktionsdefizits gar nicht zur Verfügung steht.

 

Da ich für meine letzte Brille im Mai gerade erst 600€ bezahlt habe, könnte ich es mir gar nicht leisten, sie häufiger als alle 3 Jahre auszutauschen. Realität und Optikerwünsche gehen da halt notgedrungen auseinander. ;) 

Link zum Beitrag
Auf anderen Seiten teilen

Da ich für meine letzte Brille im Mai gerade erst 600€ bezahlt habe, könnte ich es mir gar nicht leisten, sie häufiger als alle 3 Jahre auszutauschen. Realität und Optikerwünsche gehen da halt notgedrungen auseinander. ;)

Nur kurz, da OT:

Brillen sind im Verhältnis zur Nutzungszeit *nicht* teuer, ganz im Gegenteil.

Eine gute Brille (zB für 600,- EUR) kostet pro Stunde tatsächlicher Nutzung ca. 3,4 ct. bei einer Nutzdauer von 3 Jahren.

Fast nichts in deinem Haushalt ist günstiger.

Nochmal:  Pro Stunde tatsächlicher Benutzung

Link zum Beitrag
Auf anderen Seiten teilen

Das glaube ich dir. Dennoch sind das Zusatzkosten, die nur für mich als Brillenträger anfallen. Die Kasse übernimmt davon genau ... nichts. Ich will damit auch nur sagen, dass es einen guten Grund gibt, warum viele ihre Brillen eventuell länger verwenden als optisch ideal wäre.

Link zum Beitrag
Auf anderen Seiten teilen

3 Jahre geht ja noch.

Ich hab nicht selten mit Kunden zu tun, da ist die Brille 8, 9, 10 Jahre und noch älter! 

Die Gläser zerkratzt, die Vergütung teilweise abgerubbelt, nach der Reinigung im Ultraschallbad schwimmen die Fettaugen obenauf ... 

Die Augen dahinter zugekniffen, da sieht man selbst als Laie dass da was nicht stimmen kann.

Geht aber noch. Bitte nur einmal reinigen und geraderichten...

So jemandem im Blödmarkt einen HD-Fernseher anzudrehen, ist eigentlich eine Frechheit. Geschweige denn 4K...

Aber die Menschen sind halt so.

Ein HD-Fernseher kaufen ist offensichtlich mehr sexy als erstmal 'ne gescheite Brille.

Link zum Beitrag
Auf anderen Seiten teilen

Ich komme gerade vom Augendoktor. Fast noch genauso wie vor 9 Jahren. Aber ich konnte mit den neuen Einstellungen noch die Zeile mit Visus 1,25 lesen / erraten!!11

Jetzt kommst Du, Helge! Muss ich mir vielleicht doch noch eines von diesen neumodischen Fernsehgeräten kaufen?

 

PS: ich will meine alte Brille behalten!

bearbeitet von Kane009
Link zum Beitrag
Auf anderen Seiten teilen

Wird mir eigentlich gerade etwas zu sehr off-topic.

 

Dennoch eine Frage an @Lichtverbieger:

Welchen Anteil haben bei Deiner Kundschaft die Altersweitsichtigen? Die brauchen eine Brille i.d.R: nur im Nahbereich als Lese- und vielleicht noch als PC-Arbeitsplatz-Brille. Selbst wenn sie sich damit länger durchschlagen, als manchem Optiker lieb ist (und damit der vorzeitigen Gewöhnung an stärkere "bequemere" Gläser vorbeugen), hat diese Gruppe i.d.R. noch eine sehr gute Sehleistung in dem Bereich, in dem man üblicherweise sein TV platziert.

 

(Bei mir setzte die "Altersweitsichtigkeit", wie bei vielen ab ca. 40 ein, ich "darf" aber zum Glück immer noch dieselbe Brille tragen - wurde nach acht Jahren vom Optiker kontrolliert und er riet mir von einer neuen Brille ab, obwohl er sie natürlich gerne verkauft hätte. Damit kann ich das gesparte Geld für ein 4K Display verwenden)

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...