Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Den 4:3-Hype finde ich ehrlich gesagt Unsinn.

Erstens kommen bei der Bildbearbeitung ja noch die Bedienelemente an den Seiten hinzu. Da finde ich 16:10 oder 16:9 in Kombination mit MFT schon sehr praktisch.

Außerdem kann man imho mit 4:3 nicht mehr gescheit mit zwei offenen Fenstern gleichzeitig arbeiten, für Multitasking ist es somit ungeeignet. Selbst bei meinem 13"-Laptop krieg ich durch das breitere Format zwei Word-Fenster problemlos nebeneinander.

Link zum Beitrag
Auf anderen Seiten teilen

Den 4:3-Hype finde ich ehrlich gesagt Unsinn.

Erstens kommen bei der Bildbearbeitung ja noch die Bedienelemente an den Seiten hinzu. Da finde ich 16:10 oder 16:9 in Kombination mit MFT schon sehr praktisch.

Außerdem kann man imho mit 4:3 nicht mehr gescheit mit zwei offenen Fenstern gleichzeitig arbeiten, für Multitasking ist es somit ungeeignet. Selbst bei meinem 13"-Laptop krieg ich durch das breitere Format zwei Word-Fenster problemlos nebeneinander.

...und was hat dies nun mit dem Betriebssystem zu tun? :eek:  :confused:

Link zum Beitrag
Auf anderen Seiten teilen

Bei einem 8K-Monitor mit seinen ca. 33MP ergibt die Kombination mit einem 16-20MP-Sensor wiederumg wenig Sinn, da würde eine A7r mit 36MP gut passen. Dann würde tatsächlich der Glaskugelthread wahr bei Dir?

 

 

Die Frage ist, ob 8K Monitore für den (Nicht-High-)Endanwender überhaupt noch Sinn machen. Letztlich wäre das Hardwareaufrüstung total, verbunden mit recht großen Investitionen. Die Medienwelt ist ja noch nicht einmal durchgängig bei 4K angekommen.

bearbeitet von tgutgu
Link zum Beitrag
Auf anderen Seiten teilen

Hans schrieb 4:3-Format! Mit den notwendigen Rändern (bei 16:9 oder 16:10-Monitoren) an der Seite verliert "Monitor" etwa 1/3 seiner Fläche. Darum sind es dann nur noch 20-22 MP und die passen ganz gut zur GX8. ;)

 

 

Die Verlierer der aktuellen Digitaltechnik sind doch Hochformataufnahmen: Als jemand, der dieses Format immer wieder gerne einsetzt (wie sonst soll man die Gassen mediterraner Altstädte adäquat abbilden), ist es grauenhaft, dabei zusehen, wie die Mehrzahl der vorliegenden Monitorpixel bei diesen Aufnahmen "vergeudet" wird - allein deswegen werde ich auf 8K umsteigen, sobald verfügbar, um wenigstens etwas Reserven in der Vertikalen zu haben.

 

Nebenbei wiederhole ich meine Forderung nach quadratischen Sensoren (und EVF's natürlich), um eine Kamera für solche Aufnahmen nicht kippen zu müssen - ein Relikt der analogen Steinzeit sowie der (D)-SLR Technik: Hier  könnte Spiegellos echte Potenziale ausreizen, aber was tut man: Man watschelt lieber brav in den Spuren analoger wie digitaler SLR-Konzepte    :eek:

 

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Die Frage ist, ob 8K Monitore für den (Nicht-High-)Endanwender überhaupt noch Sinn machen. Letztlich wäre das Hardwareaufrüstung total, verbunden mit recht großen Investitionen. Die Medienwelt ist ja noch nicht einmal durchgängig bei 4K angekommen.

 

Wenn man den Umstieg auf 8K so kompliziert rechnet wie Du mag Deine Prognose stimmen    ;)

 

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

...und was hat dies nun mit dem Betriebssystem zu tun? :eek:  :confused:

 

Den Zusammenhang stellt die Monitor-Auflösung her: Wenn Du die vorangegangenen Beiträge nachverfolgst, wirst Du feststellen, dass es einen recht engen Zusammenhang zwischen Sensorformat (4:3, 3:2), Monitorauflösung sowie (mehr oder weniger) unterstützenden Betriebssystemen gibt.

 

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Die Verlierer der aktuellen Digitaltechnik sind doch Hochformataufnahmen: Als jemand, der dieses Format immer wieder gerne einsetzt (wie sonst soll man die Gassen mediterraner Altstädte adäquat abbilden), ist es grauenhaft, dabei zusehen, wie die Mehrzahl der vorliegenden Monitorpixel bei diesen Aufnahmen "vergeudet" wird - allein deswegen werde ich auf 8K umsteigen, sobald verfügbar, um wenigstens etwas Reserven in der Vertikalen zu haben.

 

Du kannst doch die Pivot-Funktion nutzen ... ups ... ach nee ... IMac. ;) Aber ich würde meinen Monitor auch nicht ständig umstellen wollen. Hmm, aber ein Monitor,der das EXIF-Tag Orientation ausliest und den Bildschirm mittels Motor umstellt wäre schon cool.

 

Quadratischer Sensor wäre toll, aber vermutlich sehr sehr teuer.

 

Link zum Beitrag
Auf anderen Seiten teilen

Den 4:3-Hype finde ich ehrlich gesagt Unsinn.

Erstens kommen bei der Bildbearbeitung ja noch die Bedienelemente an den Seiten hinzu. Da finde ich 16:10 oder 16:9 in Kombination mit MFT schon sehr praktisch.

Außerdem kann man imho mit 4:3 nicht mehr gescheit mit zwei offenen Fenstern gleichzeitig arbeiten, für Multitasking ist es somit ungeeignet. Selbst bei meinem 13"-Laptop krieg ich durch das breitere Format zwei Word-Fenster problemlos nebeneinander.

 

Dieses 4:3 stört mich ebenfalls an MFT - mit Ausnahme, wenn ich Hochformataufnahmen mache: Dann ziehe ich dieses Format vor, um den Verlust links / rechts zu verringern.

 

Heisst doch eigentlich: Wir brauchen wieder Multiformat Systeme (am besten mit quadratischer Grundfläche) - der Ansatz von Panasonic war so verkehrt nicht.

 

 

Hans

Link zum Beitrag
Auf anderen Seiten teilen

Du kannst doch die Pivot-Funktion nutzen ... ups ... ach nee ... IMac. ;) Aber ich würde meinen Monitor auch nicht ständig umstellen wollen. Hmm, aber ein Monitor,der das EXIF-Tag Orientation ausliest und den Bildschirm mittels Motor umstellt wäre schon cool.

 

Tatsächlich hatte ich Pivot schon in Erwägung gezogen (und wäre bereit, deswegen auf Windows umzusatteln). Aber: Der Wechsel bringt sehr viel Unruhe in die Betrachtung von Bildern. Ich habe eine Zeitlang mein iPad so genutzt, um dann festzustellen, dass man sich mit dem ständigen Rotieren auf Dauer keine Freude macht - der Formatwechsel sollte tatsächlich unauffällig erfolgen - meine Meinung.

 

 

Quadratischer Sensor wäre toll, aber vermutlich sehr sehr teuer.

 

ist die Frage, wo die Zukunft hin geht: Wollen wir wirklich alle 40/50 MPix Sensoren im 3:2 Format (die in 2-3 Jahren wohl nicht mehr kosten werden als 24Mpix heute), oder wäre eine Lösung 36 MPix im Quadrat (6000 x 6000) vielleicht das, was uns eher nutzen würde (ein 3:2 Crop hätte dann 24 MPix). Würde sich letzteres durchsetzen, wären die Herstellkosten in kurzer Zeit auch im Bereich "normaler Sensoren". Teuer wird es doch nur dann, wenn es eine Nische bleibt, und danach sieht es derzeit leider aus.

 

Zumindest unsere Objektive sind schon mal rund -  MFT wie E-Mount - ein guter Ansatz also     :D   

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

als Tipp: man kann 16:9 Monitore auch einfach um 90° drehen und dann hat mein sein Hochformat... Windows unterstützt das ohne Probleme. Aber ihr wollt euch wohl sichtlich das Leben schwer machen und für Hochformate extra teure 8k-Monitore kaufen :P zu den restlichen 4k, 8k-Diskussionen. es sieht bei HDMI immer noch übel aus. HDMI 2.0 gibt es zwar als standard, aber viele Geräte haben nur HDMI 1.4 etc. was bei 4k eine Framerate von 24 fps macht - unzumutbar. Es gibt zwar auch den DisplayPort und den sollte auch jeder bessere Monitor unterstützen und besitzen, aber verlassen würde ich mich erstmal nicht drauf. Hinzu kommt noch, dass vor allem die Grafikkarte 8k können muss! 4k gehen über DisplayPort, aber als digitale richtige nutzbare 60 fps Auflösung über HDMI 2.0 können das momentan auch nur die Top-Modelle (und die besitzen nichtmal HDMI 2.0, sondern nur HDMI 1.4-Anschlüsse, aber DisplayPort-Adapter auf HDMI 2.0 lassen die Grafikkarte die nutzbare digitale Auflösung dann auch wirklich nutzen. Obacht - hier gibt es viel Werbemüll bei Adaptern, der nur HDMI 1.4 kann)

Es gibt zwar schon Standards, die sogar 120 Hz bei 4k vorsehen, aber Geräte gibt es noch lange nicht. Momentan is das vor allem mit den 8k (4 x 4k! = 4-fache Bandbreite von 4k muss unterstützt werden!) noch ferne Zukunftsmusik für den breiten Consumer-Markt.

 

bearbeitet von Neto-Zeme
Link zum Beitrag
Auf anderen Seiten teilen

Dieses 4:3 stört mich ebenfalls an MFT - mit Ausnahme, wenn ich Hochformataufnahmen mache: Dann ziehe ich dieses Format vor, um den Verlust links / rechts zu verringern.

 

Heisst doch eigentlich: Wir brauchen wieder Multiformat Systeme (am besten mit quadratischer Grundfläche) - der Ansatz von Panasonic war so verkehrt nicht.

 

 

Hans

 

Wieso stört dich das "auch"? Ich glaube, es wurde vorher über das Bildformat des Bildschirms gesprochen.

 

Konsequent wäre tatsächlich ein quadratischer Sensor. Ausgehend vom Objektiv müsste der Sensor sogar rund sein. Aber nun verlassen wir endgültig die Diskussion über das Betriebssystem.

 

Davon abgesehen gibt es die Sensorformatdiskussion in zig anderen Threads -> immer ohne mehrheitlichen Ergebnis.

Link zum Beitrag
Auf anderen Seiten teilen

Irgendwelche Vor- und Nachteile haben alle. Ich habe lange Zeit Linux genutzt. Und es gab viele Dinge über die ich mich gefreut aber auch geärgert habe. Es gab zwei wesentliche Punkte, warum ich wieder bei Windows gelandet bin:

 

- ich habe es nie hinbekommen, dass meine Onboard-Soundkarte richtig erkannt wurde. Und irgendwann habe ich einfach eine externe Karte verwendet, die ich noch liegen hatte.

 

- viele Hersteller entwickeln ihre Programme nicht für Linux. Für fast alles gibt es Alternativen, aber eben nicht für alles. Und nicht alles ist genauso gut wie die anderen Programme.

 

 

Letzterer Punkt ist wohl auch bei Windows Phone einer der Hauptkritikpunkte. Die meisten Nutzer finden Windows Phone seit 8.1 von der Bedienung her Android überlegen und fast ähnlich gut wie iOS. Dazu ist die Performance bei Windows Phone bei gleicher Hardware wesentlich besser als bei Android. Mit der Einschränkung zu Android, dass man weniger individuell einstellen kann. Die größte Einschränkung ist aber wohl, dass die meisten Apps zuerst für iOS und Android programmiert werden. Und längst nicht alle für WP. Auch da gibt es für fast alles Alternativen. Aber halt nur "fast".  Und nicht alles ist genauso gut wie die anderen Apps.

Ich kann die überwiegende Kritik an Windows 10 nicht nachvollziehen. Ich sehe viele Vorteile zu Windows 8 und zu Windows 7. Im Vergleich zu Apple und Linux gibt es einige Nachteile, aber auch viele Vorteile. Der damals überall bekannte Bluescreen ist schon seit vielen Jahren Geschichte. Genauso war bei mir damals dass Problem, dass bei zunehmender Software (und auch Entfernung) das Betriebssystem irgendwann immer langsamer wurde. Das kann ich seit ein paar Jahren nicht mehr so bestätigen.

 

Windows 8 habe ich immer als einen Zwischenschritt von Microsoft gesehen. Von der Bedienung zwei Welten darzustellen habe ich nie so richtig verstanden. An den Kachelbildschirm konnte ich mich nie gewöhnen und ich habe ihn abgeschaltet. Übrigens ging mir das bei einem Tablet in umgekehrtert Reihenfolge ähnlich. Das Bedienung mit den Kacheln ist auf einem Tablet echt super, aber warum dazu dann noch einen Windows-Desktop? Dafür war es vom Gefühl her ein rieser Fortschritt, wie schnell mein Rechner im Vergleich zu Win 7 hochgefahren ist. Windows 10 dagegen ist in diesem Punkt gefühlt nicht schneller (aber auch nicht langsamer) geworden.  

Link zum Beitrag
Auf anderen Seiten teilen

Der Vergleich von Apple zu Windows zu Linux ist auch etwas arg.

Im Grunde würde ich das grob so einteilen:

Apple: für Nutzer, die ein fertiges funktionierendes Endprodukt wollen, ohne viel Eigenaufwand.

Windows: für Nutzer, die möglichst frei in ihrer Programmwahl sein möchte, eine relativ gut konfigurierbare Umgebung wünschen und auch selber mal ihren PC auseinandernehmen oder sogar selbst kleine nützliche Mini-Progrämmchen schreiben (in C, C++, Java läuft ja auch bei Apple) und dazu oben drauf noch jegliche Hardware benutzen wollen, aber zu allem eben noch einen recht guten Bedienkomfort wünschen.

Linux: sollte einzig und allein dem embedded vorbehalten sein, oder für Cracks, die gerne einfach nur ein Terminal benutzen. Klicki-Bunti-Linux, wie Ubuntu, versucht iwie krampfhaft Apple und Windows zu mischen und läuft obendrauf noch instabiler als Windows. Und dazu mangelt es eben auch noch an Anwendungen. Selbst die Spiele auf dem gepriesenen SteamOS (welches ja ein Linux is) laufen extrem schlecht im Vergleich zu Windows - bei gleicher Hardware.

Jedes Betriebssystem is eigentlich eher für unterschiedliche Wünsche und da gibt's kein "besser als", das man wirklich auf einer Ebene vergleichen kann. Allerhöchstens vielleicht die Ausführzeit von gleichen Programmen. Witzig finde ich ja auch, dass Apple und Linux, beide, auf dem UNIX-Kernel basieren.

Und den Bluescreen gibt es bei Windows schon noch, so wie auch den Blackscreen bei Linux. Nur verstehen glaub viele nicht, was der Bluescreen ist. Das ist ja keine Dummheit von Windows. Dass es den gibt, das ist eine Sicherheitsfunktion, dass das System nicht bleibend geschädigt wird oder einfach auch ein Sofort-Abbruch, wenn sicherheitsrelevante Systeme beschädigt werden, wie zum Beispiel, dass der Stackpointer mal eben in einem Speicherbereich liest, in den er gar nicht rein darf, so wie das unter anderem gerne mal bei schlecht programmierten Hardware-Treibern passiert, oder eben bei Schadsoftware - nur wird Software anders abgefangen als Hardware-Zugriffe.
Dieses populäre Rumgetue wegen dem Bluescreen find ich sowieso bisschen daneben.

Link zum Beitrag
Auf anderen Seiten teilen

...Was Microsoft dem User als Systemsteuerung zumutet, ist doch mittlerweile ein Alptraum: Statt mit einem neuen Windows eine neue Organisation einzuführen, nimmt man das Alte und setzt was Neues einfach oben drauf. Das hat mit Software Architektur wirklich nicht mehr viel zu tun - das ist Flickschusterei.

 

Da muss ich selbst so einem Äppel-Juser wie Dir Recht geben...

 

Mit dem 'Neuen obendrauf' kann man imgrunde nicht mehr als Ja/Nein... Ein/Aus... etc. 'einstellen'... bei 99% aller Einstellungen muss ich wieder in die 'gute alte verkorkste' Systemsteuerung...

 

Man versuche nur mal im 'Neuen obendrauf' eine Standard-App/Programm zu wählen, welches nicht in der Liste aufgeführt ist... gehen Sie zurück auf 'Los'...

 

Ich versuche, das 'Neue obendrauf' komplett zu vermeiden... nach einem Jahr schau ich mal, ob im 'Neuen obendrauf' inzwischen etwas mehr drin ist.... das jetzige 'Neue obendrauf' ist eine Lachplatte...

Link zum Beitrag
Auf anderen Seiten teilen

Wieso kompliziert gerechnet? 8K bedeutet neue Kameraaustattung, Monitor und einen größeren Teil der EDV. Das wäre fast ein totaler Neuanfang.

 

 

Also eine neue Kamera brauchst Du schon mal nicht - schon seit Jahren produzieren Kameras soviel Information, dass man locker einen 8K Monitor damit versorgen könnte - die Monitortechnik hinkt den Sensoren um geschätzt 5-8 Jahre hinterher.

 

Beispiel: Eine Aufnahme einer Sony A900 (von 2008) oder einer Panasonic G1 (Ende 2008?) sieht auf einem 5K Monitor mit Sicherheit (!) besser aus als das Bild einer aktuellen OMD-EM1 / GX8 / A7R / Canon 5D etc. auf einem Monitor der (Vorgänger-) Klasse 2560 x 1440 etwa (extreme High-Iso-Beispiele einmal aussen vor). 

 

Und ansonsten: Ein neuer Monitor ist kein totaler Neuanfang, auch nicht unter Windows, zur Not brauchst Du eine neue Grafik mit Display Port, das war's.

 

Ich kann nur jedem empfehlen, sich einmal eine Speicherkarte mit eigenen Bildern zu bespielen und damit zu einem Händler zu gehen, der einen 5K Monitor vorführen kann: Für mich war dieses Erlebnis tatsächlich "wie ein Neuanfang", aber in fotografischer Hinsicht.

 

Hans

bearbeitet von specialbiker
Link zum Beitrag
Auf anderen Seiten teilen

Also eine neue Kamera brauchst Du schon mal nicht - schon seit Jahren produzieren Kameras soviel Information, dass man locker einen 8K Monitor damit versorgen könnte - die Monitortechnik hinkt den Sensoren um geschätzt 5-8 Jahre hinterher.

 

Beispiel: Eine Aufnahme einer Sony A900 (von 2008) oder einer Panasonic G1 (Ende 2008?) sieht auf einem 5K Monitor mit Sicherheit (!) besser aus als das Bild einer aktuellen OMD-EM1 / GX8 / A7R / Canon 5D etc. auf einem Monitor der (Vorgänger-) Klasse 2560 x 1440 etwa (extreme High-Iso-Beispiele einmal aussen vor). 

 

Und ansonsten: Ein neuer Monitor ist kein totaler Neuanfang, auch nicht unter Windows, zur Not brauchst Du eine neue Grafik mit Display Port, das war's.

 

Ich kann nur jedem empfehlen, sich einmal eine Speicherkarte mit eigenen Bildern zu bespielen und damit zu einem Händler zu gehen, der einen 5K Monitor vorführen kann: Für mich war dieses Erlebnis tatsächlich "wie ein Neuanfang", aber in fotografischer Hinsicht.

 

Hans

 

Würde mal meinen mit 8k wollte man auch Video ansprechen. Und da bist Du ratz fatz beim Neuem Rechner. Gerade hab ich meinen nachgerüstet und glaube dass ich mit diesem (8Kerne; 16GB DDR3 Ram; 2GB Grafik) nicht hinkommen werde wenn es um 8k geht. Wie dann mal 4k auf meinem Rechner geht kann ich erst sagen wenn ich eine Kamera hier habe die das bringt. Fotomäßig reicht sowas auch darunter. Bei der Bearbeitung nun einiges schneller.

 

Grüße auch.

 

Link zum Beitrag
Auf anderen Seiten teilen

Würde mal meinen mit 8k wollte man auch Video ansprechen. Und da bist Du ratz fatz beim Neuem Rechner. Gerade hab ich meinen nachgerüstet und glaube dass ich mit diesem (8Kerne; 16GB DDR3 Ram; 2GB Grafik) nicht hinkommen werde wenn es um 8k geht. Wie dann mal 4k auf meinem Rechner geht kann ich erst sagen wenn ich eine Kamera hier habe die das bringt. Fotomäßig reicht sowas auch darunter. Bei der Bearbeitung nun einiges schneller.

 

Grüße auch.

 

 

Suche dir ein Programm zur Videobearbeitung, das den Proxy-Schnitt beherrscht. Dann hast du keine Probleme mit etwas schwächeren Rechnern.

Proxy bedeutet: Das Programm wandelt deine Video-Files in ein eigenes und leicht zu bearbeitendes Format um - aber keine Sorge, das passiert nur intern, alle Originale bleiben unangetastet - nach dem Schnitt wird der fertige Film in dem von dir gewünschten Format ausgegeben.

 

http://www.photounterwegs.biz/praxistipp-no-3-video-proxyschnitt-1080p-und-mehr-auf-nicht-ganz-neuen-pcs/

Link zum Beitrag
Auf anderen Seiten teilen

  • 10 months later...

Kleiner Tipp zu Windows...

 

Nachdem das neueste 'Funktionen-Update' von Windows 10 meine 100GB C-Partition fast dicht gemacht hat (auch nach Entfernen der alten Versionen durch die Datenträgerbereinigung), habe ich verzweifelt nach den Platzverschwendern auf meiner C-Partition gesucht.

 

Ergebnis:

 

Es gibt einen Folder c:\Windows\Installer\ (bei mir 25GB) in dem alle möglichen Uninstall Files gespeichert sind... leider kann man den Inhalt nicht einfach so löschen, weil sich sonst manche Programme nicht mehr deinstallieren lassen.

 

Es gibt aber einige Leichen, die man entfernen könnte, wenn man wüsste...

 

Dazu gibt es ein geiles Tool: PatchCleaner, http://www.homedev.com.au/Free/PatchCleaner

 

Hat bei mir glatt mal 17GB von den 25GB freigeschaufelt...

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...