Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ok im laufen bringt der Monopod nur bedingt was. Aber er bringt auch da noch was. Durch die Höhe und das Gewicht lässt sich da auch noch gut was rausholen jenachdem wie ich das in der Hand halte. Bin noch am experimentieren. Jetzt weis ich nicht wie groß dein Rig ist, A7s und Shogun... ist ne andere Klasse als eine A7r mit einer FB ;)

Das Problem mit dem stabilisieren ist das die Hintergründe sich anders bewegen als der Vordergrund, die Personen, dann hält der Stabi diese ruhig und der Hintergrund bewegt sich seltsam. Dazu, in deinem Fall, kommt noch die Bewegungsunschärfe. Und natürlich immer ein Problem: Der Rollingshutter Effekt...

 

Waren auch Aufnahmen mit dem 16-35 aus der Hand dabei? Diese müssten doch deutlich ruhiger gewesen sein?

Link zum Beitrag
Auf anderen Seiten teilen

Ich hatte beim Laufen dennoch ein normales (Carbon) Stativ unter dem Rig hängen, um wenigstens ein bisschen Stabilisierung zu bekommen. Hat vermutlich auch was genützt, aber es reicht eben nicht.

 

Ich glaube, die Aufnahmen mit dem FE 16-35/ OSS waren alle stehend vom Stativ. Mir ist schon klar, dass diese auch beim Gehen viel ruhiger gewesen wären, aber mir war auch die Nähe zu den Personen und die Freistellung des FE 1.8/55 wichtig.

 

Den Rolling-Shutter bekämpft der digitale Stabi übrigens auch gleich noch ein bisschen.

bearbeitet von tpmjg
Link zum Beitrag
Auf anderen Seiten teilen

  • 8 months later...

Ich krame diesen Fred mal wieder hervor, da mich interessieren würde, ob und wie sich das Meinungsbild zwischenzeitlich gewandelt hat.

 

Mittlerweile ist die Auswahl intern-4K-fähiger Hybridkameras ja deutlich gewachsen. Die in 2015 erschienenen Kameras von Sony (z.B. RX100 IV, RX10 II, A7RII, A7SII) beherrschen es schon fast alle, in 2016 wird wohl kaum noch ein Kamerahersteller, der zumindest ein bisschen Wert auf Videoqualität legt, mehr drum herum kommen. Auch bei den "RTF"-Multikoptern geht kaum noch etwas unter 4K über den Tisch.

 

Bei den Wiedergabe-Geräten eine ähnliche Entwicklung: "Normale" 4K TVs sind längst deutlich unter 1000 EUR zu bekommen, selbst 4K OLEDs nähern sich schon so langsam der 3000 EUR Grenze und in 1-2 Jahren werden sie wohl den Massenmarkt erreichen.

 

Auch die Verarbeitung ist inzwischen nicht mehr ganz so die Welt des Schmerzes, wie noch vor 1-2 Jahren. Die aktuellen PCs und Laptops haben i.d.R. schon genügend leistungsfähige CPUs und GPUs, >=8 GB RAM, SSDs etc. und die meisten ernstzunehmen Schnittprogramme können es damit importieren, schneiden und exportieren - nicht selten sogar schon recht flüssig.

 

Für meinen Teil habe ich inzwischen die gesamte Kette auf 4K umgestellt. Zuletzt das Display, da ich zwar schon die höhere Qualität von 4K Material, das auf 1080p skaliert wiedergegeben wird, zu schätzen gelernt hatte, mir aber der letzte Kick von "echtem" 4K dann doch fehlte. Wer solches Material selbst produziert, wird sicherlich auch eine etwas höhere Bereitschaft haben, für die Wiedergabe in 4K zu investieren, auch wenn ansonsten der Content noch recht dünn gesäht ist. Die 4K Blu-Ray ist erst mal auf das Frühjahr 2016 verschoben worden, ich bin mir aber recht sicher, dass dann auch schnell Material verfügbar wird, da neue Kinoproduktionen schon seit einiger Zeit in dieser Qualität gedreht werden.

 

Für diejenigen, die ebenfalls über ein Upgrade beim TV bzw Monitor nachdenken, vielleicht ein paar Erfahrungswerte, die ich bei der Suche machte:

  • Bei den Anschlüssen solltet ihr darauf achten, dass das Gerät mindestens HDMI 2.0, besser noch HDMI 2.0a unterstützt. Erst mit HDMI 2.0 (entspricht in etwa dem Pendant zu DisplayPort 1.3) wird ein 4K Signal auch mit 60 Hz verarbeitet und erst mit HDMI 2.0a kann das Gerät dann auch das neue "HDR" Material richtig interpretieren. Davon gibt es zwar noch nicht viel, aber ein paar Demos findet man z.B. schon auf http://demo-uhd3d.com
  • Das Gerät sollte auch schon HEVC (h.265) decoding beherrschen, mit dem zukünftig sicherlich ein Großteil des 4K Materials kodiert und verteilt wird.
  • Das für HDR erforderlichen Kontrastverhältnis erreichen heute nur wenige Geräte, allen voran natürlich OLED Displays, die im Gegensatz zu LCDs "echtes" schwarz auf Pixelebene liefern können. Allerdings erreichen sie z.T. noch nicht ganz die für HDR Displays geforderten maximalen Helligkeitswerte, was ich jedoch eher als geringe Einschränkung empfinde
  • Wem auch 3D wichtig ist, der sollte auf ein Gerät mit passiver Technik (auf Basis von Polfilter-Brillen, die man aus dem Kino kennt) achten. Bei 4K Geräten ergibt sich dann für das bislang nur erhältliche 2K 3D Material auch kein Auflösungsverlust mehr. Nachdem in den letzten 2-3 Jahren ja um "Home-3D" eine ziemliche Ernüchterung eingetreten ist, sehe ich zumindest die neuen 4K OLEDs von LG mit "Cinema 3D" nun auf einem Level angekommen, bei dem 3D auch zu Hause Spaß macht.

Eure Erfahrungen und Meinungen würden mich nun interessieren!

 

Link zum Beitrag
Auf anderen Seiten teilen

Mein 4K 50 Zoll hat einen großen Farbraum und kann 4k 60 P bzw h265 direkt abspielen.

 

RAWs betrachten wir nativ via LR 6.3 am 50 Zoll mit 1-2 m Abstand. Dabei schalte ich ab und an auf 1:1 und der Betrachter vermutet eine neue Aufnahme :). Auch die Zuspielung via DP geht mit 60 P.

 

Meinen Qualitätsstandard des Eingangmateriales habe ich angehoben, da größere 4K Bildschirme Fehler eher aufzeigen. Dadurch wandert weniger Bildmaterial ins Archiv:). Hier die Punkte, die ich modifiziert habe:

 

Videostabilisierung (Freihand ist die LX 100 mit 30 P und 4 K top) via Soft oder Stativ

4K Video mit: GH4, GX8 und LX100 (keine Blendensprünge und MF ähnliche AF Nachführung)

Video Ton, wenn möglich via Ohrwurm

Nachbearbeitung: möglichst nur Sxhnitt und Ton, wegen Qualität

4K Postfocus nütze ich gerne fürs Focus stacken

Nachtaufnahmen mit niedrigen ISOs via stacking

RAWs werden selektiv entrauscht, die GX8 erlaubt zur Not auch mal ISO 6400

 

Fazit:

4K ist für mich Standard, genau wie 20 MP bei MFT, da Crops damit mehr Spielräume haben.

 

PC:

Ein 2009 I7 PC mit 16 GB Arbeitsspeicher und SSD ist nicht überfordert :)

 

Ausblick:

2016 möchte ich in 4k Wildlife Videos einsteigen und warte auf das 100-400 mm. 2017 kommt eine 4K 60 P Cam hinzu. 4K Cams erfordern schnelle Prozessoren. Dies beflügelt die Sensorauslesegeschwindigkeit (Foto und Video) und die Fortschritte im AF und Anzeigeverhalten Sucher/Display (Bildnachführung-Verschlussverdunkelung).

Link zum Beitrag
Auf anderen Seiten teilen

@Gerd

Mein 4K 50 Zoll hat einen großen Farbraum und kann 4k 60 P bzw h265 direkt abspielen.

RAWs betrachten wir nativ via LR 6.3 am 50 Zoll mit 1-2 m Abstand. Dabei schalte ich ab und an auf 1:1 und der Betrachter vermutet eine neue Aufnahme :). Auch die Zuspielung via DP geht mit 60 P.

 

Ist etwas unklar geblieben: Ist der 50" ein TV oder ein PC-Monitor? Falls ersteres: Bildbearbeitung am TV ? Oder?

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

@Gerd

 

Ist etwas unklar geblieben: Ist der 50" ein TV oder ein PC-Monitor? Falls ersteres: Bildbearbeitung am TV ? Oder?

Ist ein PANA AXW804.  Die RAW Bildbearbeitung nehme ich hauptsächlich am 27 Zoll Dell 2713 HM vor, nur kleine Korrekturen am 50 Zoll nachträglich. Die Farbeinstellung am 50 Zoll ist nahezu identisch mit dem 27 Zoll. Die Pixeldichte beider Bildschirme ist ähnlich. Bei der 4K Videobearbeitung mit Magix Video Pro X7 fehlt mir noch die Möglichkeit einer Smart Copy, wie mit FHD Material. Würde manche Bearbeitung (nur harte Schnitte) wesentlich beschleunigen in 4K.

 

Grundsätzlich sollten nur noch 64bit Programme Anwendung finden.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Gerd,

 

da warst Du ja schon sehr früh dabei. Die Frage, ob sich Deine Meinung zwischenzeitlich geändert hat, erübrigt sich damit dann wohl... :)

 

Mein 4K 50 Zoll hat einen großen Farbraum und kann 4k 60 P bzw h265 direkt abspielen.

Das sind schon gute Voraussetzungen, für das, was uns wohl in 2016 erwartet. Die bange Frage, die jeden "Early-Adopter" wohl bewegt, ist der Reifegrad. Hast Du z.B. mal die HEVC-Demos von demo-uhd3d.com oder auch selbst generiertes HEVC-Material getestet? Auf meinem LG 55EG9209 laufen zwar die Demos von demo-uhd3d.com alle, aber ich habe festgestellt, dass es mit selbst gerendertem h.265 4K Material z.T. zu Aussetzern kommt. Allerdings werden diese auch auf meinen PCs nicht flüssig wiedergegeben, da selbst die ansonsten sehr leistungsfähige Nvidia Geforce GTX980 noch keine vollständige Hardware-Decodierung für h.265 unterstützt. Das leisten erst die jüngeren, ansonsten aber schwächeren GTX 950 und 960. Ich denke, ich muss mich da noch ein bisschen tiefer mit der h.265 Parametrisierung befassen...

 

Meinen Qualitätsstandard des Eingangmateriales habe ich angehoben, da größere 4K Bildschirme Fehler eher aufzeigen. Dadurch wandert weniger Bildmaterial ins Archiv:).

Die Feststellung habe ich auch gemacht. Wenn ich mir jetzt auf dem "großen" noch mal das weiter oben verlinkte Venice Carnival 4K Video anschaue, sehe ich erst so richtig, was da noch alles vergeigt wurde. Auf kleinen Displays mit 1080p war einiges mehr verzeihlich.

 

Auch bei TV-Produktionen gaben die Mitbenutzer meines TVs Kommentare in der Art: "Jetzt sieht man erst, was da alles an Pappmaché verarbeitet wird" und "da sieht man aber, das mit Greenbox gearbeitet wurde". Es werden also viele bisher noch funktionierende Illusionen zerstört und der Anspruch an die Produktion wächst.

 

Ausblick:

2016 möchte ich in 4k Wildlife Videos einsteigen und warte auf das 100-400 mm. 2017 kommt eine 4K 60 P Cam hinzu. 4K Cams erfordern schnelle Prozessoren. Dies beflügelt die Sensorauslesegeschwindigkeit (Foto und Video) und die Fortschritte im AF und Anzeigeverhalten Sucher/Display (Bildnachführung-Verschlussverdunkelung).

Ja, das ist dann wohl der weitere Entwicklungspfad. Sony's A6000 Nachfolger soll ja mutmaßlich auch schon 4K mit 60 Hz liefern können. Wichtiger wäre mir allerdings ein 10 Bit fähiger Codec.

 

Generell wird das Thema 10 Bit nun wohl durch "HDR-TV" präsenter werden. Bin gespannt, wie es damit weitergeht. Die ersten Demos sehen jedenfalls vielversprechend aus (sofern das Gerät sie richtig interpretiert, ansonsten sieht man nur eine kontrastarme Fehldarstellung).

 

Ich glaube, ich werde Andreas mal bitten, den Thread in das systemübergreifende Unterforum zu verlagern.

bearbeitet von 3D-Kraft
Link zum Beitrag
Auf anderen Seiten teilen

Hallo 3D-Kraft,

 

HVEC-Demos

 

mein AXW804 spielt diese perfekt ab, im Gegensatz zu meinem PC. Im Moment befasse ich mich damit noch nicht tiefer

 

10 Bit Codec

 

ist sicher für die Nachbearbeitung ein  Vorteil. Ich versuche die Cam internen Einstellungen so vorzunehmen, dass keine Nachbearbeitung am 8 Bit Material anfällt. Bei mir wirkt sich besonders die Einstellung in der Cam Lichter -4, Schatten +4 sehr positiv aus. Die Ergebnisse bekommen damit mehr Dynamik.

 

Fazit:
die Entwicklung geht weiter. Im Fotobereich ist es viel einfacher ausgezeichnete Ergebnisse zu erzielen und diese an 4K Displays zu betrachten, als im Videobereich.
Leider sind die technischen Angaben der Gerätehersteller sehr dürftig und Neueinsteiger verlieren schnell die Lust, sich tiefer in die Materie einzuarbeiten.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Gerd,

 

da warst Du ja schon sehr früh dabei. Die Frage, ob sich Deine Meinung zwischenzeitlich geändert hat, erübrigt sich damit dann wohl... :)

 

Mir ist dieser Thread in den vergangenen Tagen auch aufgefallen - entsprechend habe ich mich etwas eingelesen, und die Argumente der Zweifler und Protagonisten verinnerlicht.

 

Ganz klar (für mich): An 4K geht kein Weg vorbei, und ich denke, 8K wäre das Ziel, auf das hinzusteuern sich lohnen könnte (in Verbindung mit verbesserten Farbräumen, die noch zusätzlich ins Spiel kommen, nicht als Alternative). 

 

Aber gehen wir doch kurz eine Generation zurück: Eigentlich kann ich gar nicht begreifen, wieso der Unterschied zu 4K nicht jedem "ins Auge springt", wüsste ich es aus den Erfahrungen mit HD nicht besser. Obwohl SD zu HD wie Pixelmatsch zu "einer ersten Stufe vernünftiger Wiedergabe" aussieht, haben selbst hier schon viele Menschen ein Problem, den Unterschied zu "sehen". Da mir einige solcher Beispiele aus meinem persönlichen Umfeld bekannt sind, weiß ich, dass diese Personen definitiv nicht an Sehschwäche leiden. Sie sind gegenüber optischen Eindrücken auch nicht "blind", sondern reagieren i. A. sehr positiv, wenn sie beispielsweise brillante Aufnahmen in hoher Auflösung gezeigt bekommen - sie können nur nicht sagen warum.

 

Das Problem ist also nicht mangelnde Wahrnehmungsfähigkeit, sondern ein Mangel darüber, sich einer "verbesserten Wahrnehmung bewusst zu werden". Das ist das "Auge, auf dem viele fast wie blind erscheinen". Nennen wir es vielleicht "Metawahrnehmung".

 

Ein ganz kleiner Ausflug in den Rennsport, Formel 1: Es gibt auch hier unterschiedliche Typen von schnellen Fahren: Die einen sind schnell, wissen aber nicht warum (dazu gehörte Jean Alesi etwa), andere sind nicht nur schnell, sondern können auch die Gründe dafür benennen (dazu gehörten M. Schuhmacher und auch N. Lauda) - letztere sind für einen Rennstall entscheidend, wenn es darum geht, die Technik des Autos zu verbessern, sie liefern das so kostbare Feedback, an welcher Schraube gedreht werden muss, um eine schnelle Runde hinzulegen.

 

Und so kommt es, dass zwei Personen vor einem 4K Monitor stehen, beide dieselbe brilliante Wiedergabe wahrnehmen, aber nur einem von beiden der Unterschied "zu normalen Sehgewohnheiten" bewusst wird (meistens können Personen "des ersten Typs" auch benennen, was ihnen an der Wiedergabe so gut gefällt), während die zweite Person eben nicht beschreiben kann, was ihr am Bild so gut gefällt. Und das ist das Problem: Dem zweiten Typ wird man das Thema 4K heute nur sehr schwer vermitteln können.

 

Da hilft es nur, wenn diejenigen die den Unterschied sehen, die Startentwicklung vorantreiben, und die anderen dann einfach "mitziehen". Denn hat sich 4K erst mal etabliert, dann sagen nach einer gewissen Phase der Eingewöhnung mit Sicherheit mehr als 90%, dass sie das neue Seherlebnis als positiv empfinden - der Rest leidet dann wohl doch an Sehschwäche     :D

 

 

Selbst hier im Forum, wo wir uns quasi unter Fachleuten befinden, haben nur die wenigsten einen 4K Monitor zur Bildbetrachtung, etwas, was mich eigentlich völlig verwundert. Denn es gibt keine Komponente in der ganzen Fotokette, mit der man das Seherlebnis so leicht und im Verhältnis günstig (im Vergleich zu dem, was Kameras und Objektive kosten) steigern kann, wie durch mehr Auflösung bei der Monitorwiedergabe (bei gleichzeitig gutem Farbraum) - schließlich ist der Monitor aus heutiger Sicht das mit Abstand schwächste Glied in der Kette. Ich habe hier den 5K-iMac seit ca. 13 Monaten im Betrieb (das Panel gibt es baugleich von Dell für den Windows User), und jedesmal, wenn ich mit neuen Fotos heim komme und diese an diesem Panel betrachte, freue ich mich über Auflösung und Farbraum dieses Meisterwerks   ;)     

 

Sollte Apple das 8K-Modell ankündigen (ist in Vorbereitung, die neue Auflösung wurde schon geleaket), werde ich noch am selben Tag die Vorbestellung auslösen, ganz klar. Und wäre ich gezwungen, mich finanziell einzuschränken, dann würde dies eher kameraseitig erfolgen als bei der Wiedergabe.

 

Zwar gibt es noch den Unterschied Video zu Standbild, aber der ist meiner Meinung nach eher marginal zu sehen (den Aufwand in der Verarbeitung einmal nicht betrachtet).

 

Hans 

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich mir auf dem 4k TV Gerät einen guten HD Film anschaue und einen 4k Film, dann ist der wahrnehbare Unterschied nicht so groß. Man muss da schon mit der Nase rangehen.

Das dürfte an folgende Einflussfaktoren liegen:

1) das Gehirn manipuliert und nivelliert beide Filme auf ein Niveau, so wie es sich für das Gehirn richtig und sinnvoll anfühlt. Ähnlich wie bei der Interpretation von Gleitsichtgläsern in deren unscharfen Bereichen.

2) die 4k TVs haben schoneine ziemlich gute Interpolation. Im Bewegtbild kann man wohl in diesem Beispiel dazugerechnete Bildinformationen von tatsächlich aufgenommenen nur schwer bis gar nicht unterscheiden.

 

Für Fotos sehe ich daher eher einen Nutzen von 4k oder 8k Bildschirmen als für Videos.

Ganz davon abgesehen, dass man für Fotos bis auf den Bildschirm die Verarbeitungskette nicht aufrüsten muss. bei Video kann das teurer werden (neuer Rechner, siehe Beitrag oben von Sardinien).

Link zum Beitrag
Auf anderen Seiten teilen

Ganz davon abgesehen, dass man für Fotos bis auf den Bildschirm die Verarbeitungskette nicht aufrüsten muss. bei Video kann das teurer werden (neuer Rechner, siehe Beitrag oben von Sardinien).

 

Wenn Du das Video selber rechnest ja. Aber ich habe das mal aus der Sicht des Betrachters formuliert: Für den hat sich mit dem Kauf des 4K Bildschirms das Thema fast schon erledigt (das neue Amazon TV kann beispielsweise in 4K streamen - ohne Mehrpreis gegenüber der Vorgänger-HD-Version).

 

Ich habe den Umstieg auf HD noch gut in Erinnerung. Ein Bekannter von mir führt ein kleines Unternehmen in der Filmbranche, von daher habe ich etwas Einblick erhalten. Anfangs eine Rieseninvestition, und nach ein paar Jahren Standard, wie so oft. Und diese Entwicklung werden wir auch bei 4K sehen - in ein paar Jahren ist es dann kein nennenswerter Mehraufwand mehr, hochauflösenden Material zu schneiden, weil sich alle Komponenten darauf eingerichtet haben (Kameras, PC, Speicher, Software und Codecs).

 

Die einzige Frage, die offen ist: Mit welcher Geschwindigkeit dieser Prozess erfolgen wird.

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Wenn Du das Video selber rechnest ja. Aber ich habe das mal aus der Sicht des Betrachters formuliert: Für den hat sich mit dem Kauf des 4K Bildschirms das Thema fast schon erledigt (das neue Amazon TV kann beispielsweise in 4K streamen - ohne Mehrpreis gegenüber der Vorgänger-HD-Version).

 

 

Hans

Also auf meinem 4k tv sehen auch die HD Filme deutlich besser aus als auf dem alten TV. Und die 4k Filme habe ich von amazon gestreamt. Meine persönliche Einschätzung der beiden Filmauflösungen siehe mein letzter Beitrag. Im Ergebnis unterstreiche ich das, was Du schreibst. Ein 4k TV lohnt sich!

Link zum Beitrag
Auf anderen Seiten teilen

Und diese Entwicklung werden wir auch bei 4K sehen - in ein paar Jahren ist es dann kein nennenswerter Mehraufwand mehr, hochauflösenden Material zu schneiden, weil sich alle Komponenten darauf eingerichtet haben (Kameras, PC, Speicher, Software und Codecs).

 

Die einzige Frage, die offen ist: Mit welcher Geschwindigkeit dieser Prozess erfolgen wird.

 

Hans

Dein Wort in Gottes Ohren, aber Apple wird wie bisher auch die Speicherausstattung seiner Rechner dazu nutzen, die Rechnermodelle preislich zu differenzieren.

 

Zu Samsung habe ich gerade gelesen, dass sie dabei sind, 256GB RAM und mehr einzuführen, zunächst noch nicht in consumer Rechnern. Aber das zeigt, wohin die Reise geht. Fehlen nur noch die schnellen übergroßen und bezahlbaren Festplattenersatzprodukte.

Link zum Beitrag
Auf anderen Seiten teilen

 

Generell wird das Thema 10 Bit nun wohl durch "HDR-TV" präsenter werden. Bin gespannt, wie es damit weitergeht. Die ersten Demos sehen jedenfalls vielversprechend aus (sofern das Gerät sie richtig interpretiert, ansonsten sieht man nur eine kontrastarme Fehldarstellung).

 

 

Das wird in der Tat spannend ... vor allem weil sich schon wieder ein "Mehrfach-Standard" abzeichnet dank Dolby ...?

 

http://stadt-bremerhaven.de/lg-zeigt-auf-der-ces-2016-neue-ultrahd-tvs-mit-hdr/

 

Und die sehr interessanten Links aus den Kommentaren:

 

http://www.dtcreports.com/weeklyriff/2015/10/19/not-all-hdr-is-created-equal/

 

http://www.digitaltrends.com/home-theater/hdr-for-tvs-explained/

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Also auf meinem 4k tv sehen auch die HD Filme deutlich besser aus als auf dem alten TV. Und die 4k Filme habe ich von amazon gestreamt. Meine persönliche Einschätzung der beiden Filmauflösungen siehe mein letzter Beitrag. Im Ergebnis unterstreiche ich das, was Du schreibst. Ein 4k TV lohnt sich!

 

Ein 4k TV lohnt sich nur, wenn man ihn auch mit genuinen 4k Inhalten füttern kann - und das ist im "öffentlich-rechtlichen" leider so gut wie nicht vorhanden.

Link zum Beitrag
Auf anderen Seiten teilen

Ein 4k TV lohnt sich nur, wenn man ihn auch mit genuinen 4k Inhalten füttern kann - und das ist im "öffentlich-rechtlichen" leider so gut wie nicht vorhanden.

Wie ich schrieb, meine Erfahrungen sind da anders. Auch gutes HD Material schaut besser aus.

Mein TV hat direkt die amazon app drauf. Mit geeigneter Internetleitung ist es nur ein kurzer Weg zu 4k. Und dann kann jeder mal für sich vergleichen. Hans schrieb oben von sich individuell unterscheidenden Eindrücken. Ich denke da ist durchaus etwas dran. Zum Beispiel: für mich wirken die Unterschiede eher klein, für Dich eher groß.

Link zum Beitrag
Auf anderen Seiten teilen

Sollte Apple das 8K-Modell ankündigen (ist in Vorbereitung, die neue Auflösung wurde schon geleaket), werde ich noch am selben Tag die Vorbestellung auslösen, ganz klar. Und wäre ich gezwungen, mich finanziell einzuschränken, dann würde dies eher kameraseitig erfolgen als bei der Wiedergabe.

Hmm, bei 8K werde ich dann auch langsam zum "Zweifler". Auf Display-Seite sehe ich da nun tatsächlich erst mal keinen nennenswerten Bedarf, es sei denn, man hat Platz für eine Kino-Leinwand. :)

 

Auf Aufnahmeseite wiederum schon eher, denn ebenso, wie 1080p (FullHD) Material, das aus 2160p durch "gutes" Downscaling generiert wurde, besser aussieht, lässt sich das auf die 2160p (4K) Darstellung übertragen, wenn sie aus 4320p (also 8K) generiert wurde. Die dafür erforderlichen Speichermengen, Rechenleistungen und Bandbreiten sind allerdings derart abartig, dass wir im Consumer-Bereich darauf wohl noch eine ganze Weile warten müssen.

bearbeitet von 3D-Kraft
Link zum Beitrag
Auf anderen Seiten teilen

Hmm, bei 8K werde ich dann auch langsam zum "Zweifler". Auf Display-Seite sehe ich da nun tatsächlich erst mal keinen nennenswerten Bedarf, es sei denn, man hat Platz für eine Kino-Leinwand. :)

 

Vielleicht müssen wir spätestens jetzt Foto und Video trennen.

 

Folgendes Beispiel (Bildbearbeitung - Betrachtung am Monitor): 

Der von mir angesprochene 5K-Monitor (5120x2880) hat eine 27 Zoll Diagonale und bringt es auf 217 dpi. Zum Vergleich: Ein aktueller 24MPix Sensor von Sony hat die Dimension 6000x4000, also immer noch deutlich mehr (42 MPix führen zu 7.952 x 5.304)

 

DPI Rechner hier:

http://pixeldensitycalculator.com

 

Das Vorgängermodell hatte bei einer halben Auflösung (2560 x 1440) also nur 108 dpi - den Sprung auf 217 dpi empfindet man als "dramatisch", es ist also überhaupt kein Problem, bei dem üblichen Betrachtungsabstand zu einem 27 Zoll Monitor die Verbesserung "überdeutlich" wahrzunehmen (wer hier zweifelt: Einfach mal den umgekehrten Weg gehen: Nach etwas Eingewöhnung auf 5K auf das Vorgängermodell zurück wechseln - der unmittelbare Eindruck: "Da ist was kaputt").

 

Den Abschnitt (aus http://www.deathmetalmods.de/retina-quad-hd-co-wieviele-pixel-braucht-ein-smartphone/ ) fand ich sehr bezeichnend: Auch wenn er primär die Auflösung bei Smartphones behandelt, trifft er dennoch den Nagel auf den Kopf:

" . . . .Zu alle dem muss man auch den Faktor Gewöhnung berücksichtigen: Nutzt man jahrelang nur Geräte mit Pixeldichten um 300 PPI, gewöhnt man sich an diese „Schärfe“. Schaut man dann kurzzeitig auf ein Display mit 450 PPI, springt einen der Unterschied zwar nicht an, aber andersherum würde eine monatelange Gewöhnung an 450 PPI selbst bei einem kurzen Blick auf ein 300 PPI Unterschiede erkennbar machen."

 

Noch ein Zitat aus diesem Artikel:

„Apple’s definition of Retina is based upon the vision of seniors"     :) 

 

Und hier, in einem Fotoforum, sprechen wir darüber, ob ein Bruchteil dessen, was bei Apple als "Retina" bezeichnet wird, überhaupt erforderlich ist   :D  

 

Die Meinung des Lesers Hartmut zum selben Artikel, der meine Erfahrung 1:1 bestätigt:

"Ich habe über Jahre hinweg mit 2-3 Monitoren gearbeitet, alles hochwertige Markengeräte mit 23,5, 24 und 27″, Auflösung 1980x 080/1200 Pixel.

Vor kurzem habe ich mir einen UHD (4k) Monitor angeschafft und nur diesen angeschlossen (Displayport, 60Hz).

Nach einigen Tagen kam dann doch wieder der Gedanke einen zweiten Monitor für Outlook und Messenger daneben zu stellen.

Ich war erschreckt wie „schlecht“ das Bild plötzlich auf dem zweiten Monitor war!!

Bevor nun jemand schreibt „das liegt an der Skalierung von Windows“. NEIN liegt es nicht. ich habe den Test gemacht und den 4k wieder abgeklemmt und mal eine Stunde nur mit einem 1980×1200 (24″) gearbeitet.

Kurz um, wer einmal an einem solch hochauflösendes Display, egal ob Smartphone, Tab, Notebook oder PC gearbeitet hat und dann auf das „alte“ zurück greift wird erschrecken wie es sein konnte das man dies einmal als „scharfes“ Display angesehen hat."

 

 

Also werden wir auch die nächste Auflösungsstufe (8K) immer noch deutlich wahrnehmen können, wenn auch nicht mehr so stark wie den Schritt auf 5K: Schon rein rechnerisch ist der Unterschied geringer, und auch von unserer Wahrnehmung her kommen wir nach und nach in einen Grenzbereich, dabei bitte nicht nur die "Auflösung der Netzhaut" als Maßstab nehmen - unser Auge ist beweglich, und das Gehirn "stitcht mit"   ;)

 

Mit den 5K-Erfahrungen im Hinterkopf schätze ich, dass wir auf einem Arbeitsplatzmonitor bis zu etwa 300 dpi noch sehr gut wahrnehmen können (8K entspricht ca. 340 dpi), d. h. selbst ein 5K Monitor lässt mit seinen 216 dpi noch viel Spielraum nach oben. Und, wie im verlinkten Artikel erwähnt wird, für junge Leute ist diese Grenze noch höher . . . 

 

Hans   

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Ich persönlich halte 4K vor allem für eine Bearbeitungs-Reserve bei Video, die ich sehr schätze. Ausgegeben werden 4K-Videos bei mir nach dem Schneiden weiterhin auf Full HD.

 

Ich halte nämlich den Sprung von Full HD auf 4K unter normalen Umständen der Präsentation nicht für so erheblich.

Außer, man kauft etwa einen 65-Zöller und schaut aus dem Sitzabstand für einen 45-Zöller, dann merkt man den Unterschied.

 

Mein Augenmerk gehört 8K, das dürfte dann ein gewaltiger Qualitätssprung sein. Den muss man dann aber auch beim Filmen (Stativ !) konsequent mit vollziehen.

 

Zur Frage: Marketing-Gag? Das ist vielleicht etwas hart. Ich persönlich würde das eher einen Zwischenschritt auf dem Weg zum nächsten großen Etappenziel nennen.

 

Link zum Beitrag
Auf anderen Seiten teilen

http://www.giga.de/unternehmen/lg/news/ces-2016-lg-zeigt-auf-aufrollbares-18-zoll-oled-display/

 

Der Trend geht zu immer dünneren displays an TV Geräten und jetzt wie im link wird es bald auch reale Produkte mit rollbaren und faltbaren displays geben.

Dann wird sich apple auch vom imac verabschieden und kleine boxen neben Tapetendisplays stellen.

Die Teile werden größer und damit wird die Auflösung steigen. Da sowas auch besser in die Wohnstube passt als ein voluminöses display oder tv Gehäuse wird die Adaption in den Haushalten schneller erfolgen als bisher. Schöne Zeiten.

Link zum Beitrag
Auf anderen Seiten teilen

http://www.giga.de/unternehmen/lg/news/ces-2016-lg-zeigt-auf-aufrollbares-18-zoll-oled-display/

 

Der Trend geht zu immer dünneren displays an TV Geräten und jetzt wie im link wird es bald auch reale Produkte mit rollbaren und faltbaren displays geben.

Dann wird sich apple auch vom imac verabschieden und kleine boxen neben Tapetendisplays stellen.

Die Teile werden größer und damit wird die Auflösung steigen. Da sowas auch besser in die Wohnstube passt als ein voluminöses display oder tv Gehäuse wird die Adaption in den Haushalten schneller erfolgen als bisher. Schöne Zeiten.

 

Jein, bzw. "sowohl als auch"   ;)

 

 

Für den Arbeitsplatz wird man schon aus Ergonomie-Gründen an beweglichen Monitoren festhalten, wie dünn diese auch immer sein mögen: Stichwort "einstellbarer Blinkwinkel". Ich hatte vor kurzem das "Vergnügen", an einem Ultrabook mit auf einer Tastatur fest eingerastetem Bildschirm zu arbeiten, und es verging keine Minute, in der ich nicht versucht habe, das Display in der Neigung anzupassen - nur das ging leider nicht.

 

Für eine Präsentation dagegen kann ich mir eine solche "Bildschirmleinwand" sehr schön vorstellen.

 

Und was Apple betrifft: So wie ich das Unternehmen kenne wird man alte Zöpfe (sprich: iMac) schnell auch abschneiden, sobald es etwas besseres gibt . . .   ;)  

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

http://www.giga.de/unternehmen/lg/news/ces-2016-lg-zeigt-auf-aufrollbares-18-zoll-oled-display/

 

Der Trend geht zu immer dünneren displays an TV Geräten und jetzt wie im link wird es bald auch reale Produkte mit rollbaren und faltbaren displays geben.

Dann wird sich apple auch vom imac verabschieden und kleine boxen neben Tapetendisplays stellen.

Die Teile werden größer und damit wird die Auflösung steigen. Da sowas auch besser in die Wohnstube passt als ein voluminöses display oder tv Gehäuse wird die Adaption in den Haushalten schneller erfolgen als bisher. Schöne Zeiten.

Tapetendisplays setzen jedoch voraus, dass man seine Filme an einer entsprechend großen und geeigneten Wand sehen will. Das ist sicherlich eher in wenigen Wohnungen möglich und der Fall. Insofern würde ich die flexible Aufstellung eines Gerätes immer bevorzugen, auch wenn dann die Größe naturgemäß etwas eingeschränkt bleibt.

 

(Ich könnte in meiner Wohnung nicht eine Wand identifizieren, an der Platz für ein Tapetendisplay wäre und ich kenne von der Einrichtung auch niemanden, bei dem so etwas der Fall wäre.)

Link zum Beitrag
Auf anderen Seiten teilen

Tapetendisplays setzen jedoch voraus, dass man seine Filme an einer entsprechend großen und geeigneten Wand sehen will. Das ist sicherlich eher in wenigen Wohnungen möglich und der Fall. Insofern würde ich die flexible Aufstellung eines Gerätes immer bevorzugen, auch wenn dann die Größe naturgemäß etwas eingeschränkt bleibt.

 

(Ich könnte in meiner Wohnung nicht eine Wand identifizieren, an der Platz für ein Tapetendisplay wäre und ich kenne von der Einrichtung auch niemanden, bei dem so etwas der Fall wäre.)

Ein Tapetendisplay könnte ich mir gut als Rollladenersatz vorstellen. :)

bearbeitet von joachimeh
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...