Jump to content

Welche Grafikkarte?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich habe eine Nvidia Geforce 9500 GS eingebaut.

Der PC ist ein Quad core 2,4 GHz, 3 GByte, Vista 32bit

Beim Rendern mit Pinnacle Studio 12 dauert es doch ziemlich, bis die Überblendungen etc. fertig sind und in der Vorschau zu sehen sind. Würde eine bessere Grafikkarte eine Veresserung bringen?

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe eine Nvidia Geforce 9500 GS eingebaut.

Der PC ist ein Quad core 2,4 GHz, 3 GByte, Vista 32bit

Beim Rendern mit Pinnacle Studio 12 dauert es doch ziemlich, bis die Überblendungen etc. fertig sind und in der Vorschau zu sehen sind. Würde eine bessere Grafikkarte eine Veresserung bringen?

 

Sicher nicht! Nur dynamische Vorgänge wir Spiele profitieren von den Leistungen der Grafikkarten. Bilddarstellungen machen alle Karten mit "links".

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Rolf,

deine Aussagen sind richtig, wenn es um Bildbearbeitung geht. Nando hat aber nach der Leistung beim Rendern (Pinnacle Studio 12) gefragt.

 

Die Grafikkarten-Hersteller werben hier bei ihren Spitzenmodellen immer mit gesteigerter Leistung auch beim Rendern von H.264 bzw. AVCHD-codierten Video-Streams. Ich selber habe den Eindruck, daß die erzielte Leistung nicht unwesentlich vom Treiber - also nicht nur der Grafikkarte - abhängt.

 

Das Zusammenspiel Anwendung/Betriebssystem/Treiber/Hardware kann durch ein einziges Nadelöhr empfindlich ausgebremst werde.

Leider kann ich keine Empfehlung aussprechen; ich empfinde mein System auch als zu langsam und habe aber schon über ein Jahr keine neue Grafikkarte mehr gekauft .. werde vielleicht mal wieder im Winter ein wenig rendern.

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Hallo Rolf,

deine Aussagen sind richtig, wenn es um Bildbearbeitung geht. Nando hat aber nach der Leistung beim Rendern (Pinnacle Studio 12) gefragt.

 

Die Grafikkarten-Hersteller werben hier bei ihren Spitzenmodellen immer mit gesteigerter Leistung auch beim Rendern von H.264 bzw. AVCHD-codierten Video-Streams. Ich selber habe den Eindruck, daß die erzielte Leistung nicht unwesentlich vom Treiber - also nicht nur der Grafikkarte - abhängt.

 

Das Zusammenspiel Anwendung/Betriebssystem/Treiber/Hardware kann durch ein einziges Nadelöhr empfindlich ausgebremst werde.

Leider kann ich keine Empfehlung aussprechen; ich empfinde mein System auch als zu langsam und habe aber schon über ein Jahr keine neue Grafikkarte mehr gekauft .. werde vielleicht mal wieder im Winter ein wenig rendern.

Gruß Thorsten

 

Hallo Thorsten,

 

das Rendern (Ausrechnen von Überblendungen, Titel einmischen, etc) geschieht durch Rechenprozesse der CPU und Ablage der Ergebnisse in Arbeitsdateien auf der Platte. Dabei hat die Leistung der Grafikkkarte darauf überhaupt keinen Einfluss. Sondern es spielen nur CPU-Leistung, Bus-Frequenz und Plattenzugriffszeiten eine Rolle. Dabei ist bei neueren Rechnern (die Verwendung von Vista lässt darauf schließen) weder Bus-Frequenz noch Plattenzugriffszeit der limitierende Faktor.

 

Der Rechner von Nando sieht eigentlich vernünftig ausgerüstet aus.

 

Was Du da über die Kette der Komoponenten sagst, ist sicher richtig. Nur, bessere Grafikkarten gehen i.d.R. mit der Darstellung von 3D-Grafiken und dem Belegen mit Texturen, Berechnung von Unterdrückungen verdeckter Flächen u.a. richtig zur Sache, und das ist beim Darstellen flacher Bildchen nun überhaupt nicht gefragt.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Pinnacle 12 und das neue Studio 14 HD nutzen sehr wohl beim Rendern die Leistung der Grafikkarte. Ich empfehle die "ATI HD4770".

Viel Erfolg

PCSchule Bochum

Irgendwie scheint hier Rendern zwei Aktionen zu besetzen:

 

Geht es um die Wiedergabe eines Videos, bei dem die komprimierten digitalen Daten letzendlich in einzelne Pixel des dargestellten Bilds aufzulösen sind, und den man auch als Rendern bezeichnen kann, dann sind Hilfen moderner Grafikkarten sicher angezeigt. Schwache Grafikkarten müssten sich da mit Bildfehlern melden, wenn die CPU zu viel zu tun bekommt.

 

Nando geht es aber um Überblendungen, bei denen pro Einzelbild zwei Bilder auf Pixelebene aufgelöst, gemischt und dann wieder komprimiert werden müssen. Das läuft in der CPU und nicht in der Grafikkarte ab.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Hallo Rolf,

grundsätzlich werden beim Rendern die Einzelbilder (Frames bzw. Fields bei Halbbildern) neu berechnet und anschließend in den Video-Stream codiert. Aufgrund der hierfür nach wie vor unzureichenden CPU-Leistung (jedenfalls für moderne Codecs in FullHD) werben die Hersteller ATI und Matrox sowie nVidia mit der Beschleunigung dieses Prozesses durch ihre "großen" Grafikkarten.

Wie schon gesagt kann ich aber keine aktuelle Erfahrung oder Empfehlung beitragen; ich weiß schlicht nicht, wie groß dieser Effekt anzunehmen ist und ob sich der finanzielle Einsatz lohnt. Ich würde mich aber freuen, wenn ich die Leistung alleine verdoppeln könnte. Ich finde leider auch bei den Programm-Herstellern dazu keine stichhaltigen Empfehlungen ..

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Ja, Thorsten,

 

Du bestätigst mich. Bei der Wiedergabe gibt der Ton den Takt an und das Bild hat zu folgen. Schafft das die Hardware nicht, gibts Bildfehler.

 

Beim Rechnen von Überblendungen gibt man ja die Dauer der Überlappung von zwei Bildspuren vor. Im Schneideprogramm, bei ist das ein altes Premiere, kann man dann in Echtzeit bei geringer Auflösung den Effekt durchspielen, muss dann aber der Übergang rechnen (=rendern) lassen.

 

Mein Video wird noch als motion jpeg ablegt, also einer Folge von komprimierten JPEG-Einzelbildern. Die werden bei Überblendungen dann paarweise entpackt, gemischt und jedes Bild als ein neuer JPEG in einer Arbeitsdatei abgelegt, aber nicht als Einzelfiles.

 

Die modernen Kompressionsverfahren, die ja irgendwann ein Vollbild abspeichern und für Folgebilder nur noch Deltainformation haben, machen das Berechnen von Überblendungen eigentlich noch schwerer. Denn das Programm muss erst ein Vollbild suchen, die Deltas draufrechen und hat erst dann die Information, die mit dem entsprechenden Bild der zweiten Spur, das auf die gleiche Weise hergestellt werden muss, vermischt werden kann. Und das dauert eben seine Zeit. Und mit diesem Vorgang hat die Grafikkarte nichts zu tun.

 

Grüße .. Rolf

bearbeitet von RoDo
Link zum Beitrag
Auf anderen Seiten teilen

Hallo Rolf,

was du schreibst leuchtet mir ein; wie sind aber dann die Aussagen der Hersteller zu interpretieren?

Ist es also für diesen Arbeitsschritt "egal" welche Grafikkarte Nando einsetzt?

Erinnerst du dich noch an die "sagenhaften" MPEG-2 Karten, die die Video-Ausgabe auf den alten PC-Kisten überhaupt erst ermöglichten?

Gruß Thorsten

Link zum Beitrag
Auf anderen Seiten teilen

Nando geht es aber um Überblendungen, bei denen pro Einzelbild zwei Bilder auf Pixelebene aufgelöst, gemischt und dann wieder komprimiert werden müssen. Das läuft in der CPU und nicht in der Grafikkarte ab.

Bei solchen Aufgaben können GPUs inzwischen auch im PC Bereich viel übernehmen und sind dabei ein vielfaches schneller als eine normale CPU. Allerdings habe ich keine praktischen Erfahrungen, wieweit DirectX und gängige Videosoftware das wirklich unterstützen.

Link zum Beitrag
Auf anderen Seiten teilen

Bei solchen Aufgaben können GPUs inzwischen auch im PC Bereich viel übernehmen und sind dabei ein vielfaches schneller als eine normale CPU. Allerdings habe ich keine praktischen Erfahrungen, wieweit DirectX und gängige Videosoftware das wirklich unterstützen.

 

Das muss auch so sein. Die Graphic Processing Units sind Spezialisten für Bildaufbereitung mit teilweise extrem großen Unterschieden im Funktionsumfang. SiSoft Sandra oder andere Programme können davon einiges erzählen.

 

Aber generall muss man sich klarmachen dass die Graphikkarte die Durchgangsstelle für die (Bild-) Daten auf dem Weg CPU => Graphikkarte => Bildschirm darstellt. Um den von der Grafikkarte bereitgestellten Funktionsumfang nutzen zu können, muss also ein Programm erstmal die Grafikkarte befragen: "Was kannst Du?". Und aus den Antworten muss dann das Programm entscheiden, welche Funktionen es von der Hardware bekommt und welche von eigenen Resourcen zu erledigen sind. Nicht trivial!

 

Gemeinhin haben Grafikkarten einen Bildspeicher, der das gesamte am Monitor angzeigte Bild beinhaltet. Diesen Speicher können Programme auslesen, was z.B. die "Druck"-Taste macht, denn danach haben wir den Bildschirminhalt im Paste-Buffer. Oder Teile davon, denn der auszulesende Inhalt lässt sich ja eingrenzen. Im ersten Ansatz gilt also, man bekommt was man sieht (WYSIWYG). Nun gibt es Karten, die haben einen doppelten Bildspeicher. Dann wird im Hintergrund das nächste Bild aufgebaut und nach Beendigung wird der Anzeigepuffer einfach umgeschaltet.

 

Es wäre nun denkbar, dass ein Programm sich ein Bild im Hintergrundspeicher mit Hilfe der Grafikkarte aufbauen lässt und diese Pixeldaten dann wieder einliest, um sie weiterzuverarbeiten. Das ist dann schon Trickserei und würde sicherlich dazu führen, dass diese Programme nur mit ganz bestimmten Grafikkarten können. Also werden die Programmierer sich in Normalfällen davor hüten. Im Profibereich kann es aber schon sein, dass ein Programm eben ganz bestimmte Grafikkarten vorschreibt.

 

Nur Bildmischen, bei dem immer für die Intensität und der Farbe einzelner Pixel Mischungsrechnungen auszuführen sind, fallen m. E. nicht in den Aufgabenbereich von Grafikkarten und müssen deshalb von der CPU vorgenommen werden.

 

Und deshalb (@ Thorsten) sollte für die Aufgabe von Nando wirklich egal sein, welche Grafikkarte im Rechner sitzt.

 

@ Thorsten: Ja, eine Miro DC 50 plus hockt noch in meinem Rechner

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Nur Bildmischen, bei dem immer für die Intensität und der Farbe einzelner Pixel Mischungsrechnungen auszuführen sind, fallen m. E. nicht in den Aufgabenbereich von Grafikkarten und müssen deshalb von der CPU vorgenommen werden.

Mit den neuen APIs lassen sich seit einiger Zeit auch die Vektorprozessoren mancher Grafikkarten direkt nutzen. Siehe z.B. NVidas CUDA, Apple/Khronos OpenCL und DirectX11 Compute Shader.

Link zum Beitrag
Auf anderen Seiten teilen

Wichtig bei den Grafikkarten ist auch den jeweils aktuellen Treiber runter zu laden. Der alte Treiber sollte vorher deinstalliert werden.

Gruß

YB

Aber schön die Installationsfiles für den alten Treiber behalten! nVidia hat's mal geschafft, einen neuen Treiber in die Welt zu setzen, mit dem unser CAD-System nicht mehr lief und man wieder auf den alten Treiber zurück musste. Erst nach ca. 7 Monaten stand dann ein noch neuerer Treiber zur Verfügung, der dann lief.

 

Wie heißt's bei Software-Leuten: Was ist neu am neuen Release? Neue Fehler!

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Ich kann nicht sagen, wie weit das entwickelt ist, aber nvidia ("cuda") und ati ("stream") machen beide werbung für neue technologien, bei der die gpu mehr kann.

Powerdirector 8 und Loiloscope scheinen das als erste zu unterstützen

Videobearbeitungssoftware CyberLink PowerDirector 8 - Videos einfach bearbeiten - Leistungsstarker Videoschnitt

Super LoiLoScope

Link zum Beitrag
Auf anderen Seiten teilen

Ja,

 

aber es geht wieder mal (nur) um die Wiedergabe!

 

Grüße ... Rolf

 

Dazu noch ein aktueller Artikel in der c't. Fazit ist, dass eine leistungsfähige Nvidia-Grafikkarte mittels CUDA drei- bis viermal so schnell wie ein Core i7 H.264-Encodet. Es werden da acht Windows XP/Vista und ein Mac OS Programm verglichen, welche die GPGU's benutzen (General-purpose computing on Graphics Processing Units, also Grafikprozessoren, die normale Rechenaufgaben übernehmen).

 

Dazu gab es auch mal ein Artikel, dass aktuelle Passwortknackprogramme die Leistung der Grafikkarte(n) (mehrere! nur für diesen Zweck in ein System verbaut!) benutzen. Weshalb kürzere Passworte als sehr unsicher gelten.

 

 

Gruss Dani

Link zum Beitrag
Auf anderen Seiten teilen

OK,

 

da hab ich wohl die allerletzten Entwicklungen nicht mitbekommen. :mad:

 

Aber, wie man bei Power Director 8 sieht, ist das ganze wohl an spezifische Grafikkarten gekoppelt, und dann sind wir schon im Bereich der (semi-) professionellen Systeme, wie ich es in einem früheren Beitrag erwähnt habe.

 

Falls Nando noch mitliest: Jetzt gilt zu prüfen, ob seine Software eine ist, die diese Zugriffstechniken auf den Graphicprocessor unterstützt. Sonst wird ihm die Investition in eine dieser neuen Grafikkarten nichts bringen.

 

Kann mich noch an die PCs erinnern, die eine zusätzliche FPU unterstützten. Sieht so aus, als ob jetzt die GPUs dran sind.

 

Grüße ... Rolf

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...