Einzelnen Beitrag anzeigen
Ungelesen 07.05.09, 10:33   #10 Top
Benutzerbild von hacker1_archive
Mitglied seit: Jan 2009
Beiträge: 0
hacker1_archive ist offline
hacker1_archive
Member
 
Untouched Blu-Rays auf PC ruckelfrei?

Zitat:
Zitat von ZeroMike Beitrag anzeigen
Wenn hier von HD Video gesprochen wird, ist natürlich das AVC (h264) Format gemeint, und für dieses Format besitzen HD Grafikkarten dafür ausgelegte Decoder die das decodieren ohne Anstrengung erledigen.
Warum ist denn bei HD "natürlich das AVC(h264) Format gemeint? Wenn eine Grafikkarte einen AVC Decoder on Board hat, dann hat sie auch zu 99% einen VC-1 Decoder on Board.
Aber damit wir uns jetzt nicht falsch verstehen, ja natürlich meinte ich in meinen vorherigen Beiträgen MPEG-4 AVC.

Zitat:
Inkompatible Codecs stehen hier außen vor, und sollten für HD auch nicht verwendet werden.
Brauchen erst gar nicht, reicht ja schon, wenn der H.264 Stream inkompatibel zu DXVA ist, dann kann der Dekoder der Grafikkarte schon nichts mehr damit anfangen.

Zitat:
Das ganze lässt sich entfernt auch mit den erweiterten Befehlssätzen von CPUs vergleichen
Nein, eigentlich nicht, die Dekoder sind ja nicht nur ein erweiterter Befehlssatz im weitesten Sinne, sondern eine extra Hardware-Einheit.

Zitat:
Du kannst also zum decodieren von AVC HD Material deine CPU unter Last 100 Watt verbraten lassen
Für so viel ist mein Netzteil nicht mal ausgelegt, der ganze Laptop muss mit 60W auskommen.

Zitat:
oder Du verwendest eine Grafikkarte mit einem HD Decoder der dafür vielleicht 10 Watt benötigt.
Sagen wir mal 40W, weil 10W nun wirklich etwas unrealistisch sind. Dazu kommt dann ja auch noch der Verbrauch der CPU, die ja nebenbei auch noch läuft, und, auch wenn kaum ausgelastet, eine gewisse Menge Strom braucht.

Zitat:
Meine Grafikkarte wird beim decodieren von HD Material ca. 2° wärmer, und die CPU wird zu ca. 3 Prozent belastet, was ist da jetzt sinnvoller?
Kommt auf die Situation an. Wenn der Stream mit dem Dekoder der Grafikkarte kompatibel ist, und man keine zusätlichen Filter/Post-Processing benötigt, dann spricht nichts dagegen, das ganze über die GPU laufen zu lassen. Bei mir scheitert es aber meistens an einen der beiden genannten Gründe.

Zitat:
Deshalb ist auch deine Aussage NUR CPU nicht richtig und kommt dem Sprichwort mit Kanonen auf Spatzen schon recht nahe.
Wenn man mal die ganzen Ausnahmefälle betrachtet, in denen die GPU als Video-Decoder wegfällt, würde ich das so nicht unterschreiben. GPU-Decoding ist ein nettes Feature, allerdings würde ich dringend abraten, sein Mutlimedia-System vollkommen von GPU-Decoding abhängig zu machen. Und wie schon gesagt, wenn man keine Grafikkarte mit Video-Decoder besitzt, dann reicht auch NUR DIE CPU völlig aus.

Mit Zitat antworten Beitrag melden