Jump to content

780G - Ruckelfrei mit Hardwarebeschleunigung


moldina

Recommended Posts

Da in diesem und in anderen Foren immer wieder Probleme im Zusammenhang mit 780G-Boards auftreten (Hardwarebeschleunigung funkt nicht bzw. nicht stabil, schlechte Deinterlacing-Qualität etc.) und die Information über viele Threads verstreut zu finden ist, nachstehend eine kurze Zusammenfassung für all jene, die den Kauf des Boards in Erwägung ziehen und sich leidvolle Erfahrung sparen wollen:

 

Basiskonfiguration: Vista SP1, DVBViewer 3.9.4.0 (Renderer: EVR), PowerDVD 7.3, ATI CCC 8.5

 

Hardwarebeschleunigung für DVB (Hardwarebeschleunigung, Deinterlacing, Post-Processing)

Stabiles und qualitativ hochwertiges Deinterlacing (v.a. bei 1080i) ist nur mit einer Phenom X3/X4-CPU möglich, alle anderslautenden Aussagen sind defintiv nicht zutreffend. Aufgrund der durch den Einsatz eines Phenoms erweiterten Speicherbandbreite durch den HT 3.0 Link werden im Treiber Deinterlacing-Varianten freigeschaltet bzw. Post-Processing (De-Noise etc.) wird erst möglich. Unter Verwendung einer X2-CPU zeigen sich verschiedenste Anomalien, sofern die Hardwarebeschleunigung aktiv ist (Abstürze, HW-Beschleunigung deaktiviert sich, Deinterlacing nicht Vektor-Adaptiv bzw. bei 1080i verschiedenste Artefakte und Bildfehler, Pull-Down-Erkennung funktioniert nicht, Regler im CCC haben teilweise keine Auswirkung auf die Bildqualität etc.).

Habe seit ca. 2 Wochen nun den X2 4050e durch einen X3 8450 im Dauertest und bin nun erstmalig mit der Bildqualität sehr zufrieden, der Vergleich hält aus subjektiver Einschätzung einer ATI 2600XT stand. Die Darstellung ist subjektiv absolut ruckelfrei, Laufschriften dank Vektor-Adaptiven Deinterlacing stabil und ohne Mikroruckler, die größte Verbesserung ist jedoch bei 1080i-Sendern (Anixe HD, Discovery Channel HD) aufgrund des korrekten Deinterlacing und des aktivierten Post-Processing auszumachen. 720p-Sender laufen ebenso stabil und ohne wahrnehmbare Ruckler.

 

Folgende Empfehlungen von meiner Seite:

1.) Sofern HW-Beschleunigung im Umfeld von DVB genutzt werden soll -> Phenom X3/X4 (mit Undervolting und Reduzierung der Takfrequenz) oder auf stromsparende K10-CPUs warten

2.) Zusätzliche Grafikkarte ab ATI 36xx-Generation -> bietet ausgezeichnetes Deinterlacing/Post-Processing mit genügend Reserven

3.) SW-Decoder (CoreAVC etc.) nutzen -> Bildqualität ist gut, kommt jedoch nicht an jene mit HW-Beschleunigung ran und führt den Mehrwert des Boards ad absurdum

 

780G-Boards sind aus diesen Gründen nur mit den genannten Auflagen zu empfehlen, sofern die HW-Beschleunigung im DVB-Umfeld genutzt werden soll, ansonsten schlägt die Freude über das Board und die schönen Marketingaussagen leider sehr bald ins komplette Gegenteil um :)

Link to comment
  • Replies 265
  • Created
  • Last Reply

Top Posters In This Topic

  • Tüftler

    29

  • ZappoB

    25

  • morphus

    21

  • Black Dragon

    17

Top Posters In This Topic

Posted Images

Hallo,

 

keine Ahnung was du für Probleme hast. Ich habe das Gigabyte Board auch seit ca. drei Monaten und habe eine wunderbares und ruckelfreies Bild sowohl bei Premiere HD (ja, auch Fußball) und Discovery HD. Als CPU habe einen X2 3800 und benutze nur die Onboardgrafik. Als Codec verwende ich Powerdvd 7.3. All dies läuft auf einem 24" Yurako Monitor. Möglicherweise ist ja dein LCD TV das Problem. Die können mit der Qualität der Computermonitore eh nicht mithalten und machen mit ihren diversen Aufbereitungen (Deinterlacing, Rauschunterdrückung usw.) auch das beste HD Bild kaputt. Ich habe hier auch noch einen Toshiba HD TV Regza, auf dem schaut das gleiche vom Computer ausgegebene Bild total mistig aus. Und der ist ein Gerät der "Referenzklasse" mit sehr guten Testergebnissen.

 

Schönen Tag

Black Dragon

Edited by Black Dragon
Link to comment

[quote name='Black Dragon' date='Jun 25 2008, 13:27' post='199955'

... Die können mit der Qualität der Computermonitore eh nicht mithalten und machen mit ihren diversen Aufbereitungen (Deinterlacing, Rauschunterdrückung usw.) auch das beste HD Bild kaputt. Ich habe hier auch noch einen Toshiba HD TV Regza, auf dem schaut das gleiche vom Computer ausgegebene Bild total mistig aus. Und der ist ein Gerät der "Referenzklasse" mit sehr guten Testergebnissen.

 

Schönen Tag

Black Dragon

 

Stimmt aber nur solange wie man nicht berücksichtigt das die eingebauten "Bildverbesserer" nicht benutzt werden müssen. Man kann sie nämlich auch abschalten...

Und dann wird man entdecken, dass sich das Bild plötzlich ganz anders darstellt.

 

Wenn du ein bereits optimiertes Signal noch einmal bearbeitest/"optimierst" kann nur Müll dabei herauskommen. Mehr als 100% geht nicht.

 

Ein Großteil der Bearbeitung geschieht schon im Rechner. Wenn du da dann noch einen draufsetzt.

 

Ich hab hier mehrer Toshis stehen teils an Settops teils an Rechnern. Die Htpc Monitore laufen ohne jegliche Veränderungen in absolut neutraler Einstellung. Die gesamte Skaling, Deinterlacing und Korrekturschiene (Farbe Helligkeit, Kontrast) übernimmt der Rechner.

 

Und das Ergebniss überzeugt nicht nur subjektiv. Exakte Schwarz und Weiß-Punkte, keine Artefakte, Farbkontraste die am Referenzpunkt liegen etc etc.

 

Man muß halt nur wissen was man wo zu tun und zu lassen hat und nicht wild drauf los wurschteln.

 

Zum Thema 780G bzw. integrierte Chipsätze:

Hier kann ich nur sagen: Es kommt auf die Umstände an.

Sicher sind solche Boards unter bestimmten Bedingungen gut. Aber sie sind allein durch die hohe Integration und damit einhergehende generaliesierung in ihren Einsatzmöglichkeiten begrenzt. Wer mehr als Standart will zahlt drauf. (Wie der OP schon feststellte).

 

Nach meinen Erfahrungen sollte man für Anwendungen außerhalb des "normalen" eher auf Einzelkomponenten (vor allem im Grafik und Soundbereich) setzen.

 

Gruß

Pinbot

Link to comment
Hallo,

 

keine Ahnung was du für Probleme hast. Ich habe das Gigabyte Board auch seit ca. drei Monaten und habe eine wunderbares und ruckelfreies Bild sowohl bei Premiere HD (ja, auch Fußball) und Discovery HD. Als CPU habe einen X2 3800 und benutze nur die Onboardgrafik. Als Codec verwende ich Powerdvd 7.3. All dies läuft auf einem 24" Yurako Monitor. Möglicherweise ist ja dein LCD TV das Problem. Die können mit der Qualität der Computermonitore eh nicht mithalten und machen mit ihren diversen Aufbereitungen (Deinterlacing, Rauschunterdrückung usw.) auch das beste HD Bild kaputt. Ich habe hier auch noch einen Toshiba HD TV Regza, auf dem schaut das gleiche vom Computer ausgegebene Bild total mistig aus. Und der ist ein Gerät der "Referenzklasse" mit sehr guten Testergebnissen.

 

Schönen Tag

Black Dragon

 

Der LCD ist in keinem Fall das Problem, weil sonst würde die 2600XT dieselben Probleme machen.

Mit welcher Bildwiederholrate steuerst du den Monitor an?

Link to comment

@Pinbot

 

Hallo,

 

ich sehe das völlig anders. Gerade bei einem HTPC, der 24 Stunden/Tag wegen diverser Aufnahmen läuft, ist der Stromverbrauch *das* entscheidende Kriterium. Wenn ich mir da eine stromhungrige Grafikkarte und eine Power CPU reinsetzen soll würde ich mir dann doch eher einen ganz normalen HDTV Festplatten Receiver kaufen. Deswegen bin ich sehr glücklich über den 780G Chipsatz, der es mir ermöglicht mit ca. 45 W auszukommen. Das System des OP verbraucht sicher mindestens das Vierfache, ohne irgendeinen Vorteil zu haben. Ich bin zur Zeit sogar am überlegen, ob ich mir für SD Aufnahmen (die sich leider bei der geringe Zahl HD Sender nicht vermeiden lassen) zusätzlich einen Mini-ITX mit dem neuen Atom Board von Intel zusammenzubasteln. Damit ließe sich der Stromverauch nochmals dritteln.

Bei dem Toshiba TV habe ich übrigens eben mal testweise alles an "Bildverbesserungen" ausgeschalten. Er ist trotzdem deutlich schlechter als mein Yuraku Monitor.

 

Schönen Tag

Black Dragon

Edited by Black Dragon
Link to comment

>Der LCD ist in keinem Fall das Problem, weil sonst würde die 2600XT dieselben Probleme machen.

>Mit welcher Bildwiederholrate steuerst du den Monitor an?

 

60 HZ, 1400x900. Der Yuraku ist übrigens genauso per HDMI angeschlossen wie der Toshiba TV.

 

Schönen Tag

Peter Schwarz

Link to comment

Ok, unter energietechnischen Aspekten betrachtet magst du recht haben.

Wer allerdings unter dem Aspekt Multipurpose rechnet hat am Ende etwas anderes unter dem Strich stehen.

Würde ich meinen derzeitigen HTPC durch Einzelkomponenten gleicher Leistungsfähigkeit ersetzen würde ich in etwa auf den 3-4 fachen Anschaffungspreis kommen.

Dazu müssen aber die Einzelteile des Rechners etnsprechend leistungsfähig sein um auf die gleichwertige Leistungsstufe zu kommen. Und genau da hakt es imho bei den integrierten Chipsätzen. Ich bin also gezwungen upzudaten, habe damit aber dann Redundanz die nicht benötigt wird aber bezahlt wurde und somit unwirtschaftlich ist.

 

Zum Thema TV:Also Sorry aber mit solchen krummen Werten willst du ein auch nur halbwegs vernüftiges Videobild darstellen?

Mal agesehehen vom krummen Format, wie kriegst du bei 60Hz ein 25/50 Hz Signal dazu nicht zu Ruckeln???

 

2. Mach mal einen ordentlichen Parameterabgleich Nicht nur PI mal Daumen) und du wirst den Unterschied sehen.

 

Gruß

Pinbot

Link to comment
>Der LCD ist in keinem Fall das Problem, weil sonst würde die 2600XT dieselben Probleme machen.

>Mit welcher Bildwiederholrate steuerst du den Monitor an?

 

60 HZ, 1400x900. Der Yuraku ist übrigens genauso per HDMI angeschlossen wie der Toshiba TV.

 

Schönen Tag

Peter Schwarz

 

1.) Ich halte auch grundsätzlich nichts davon mir eine so starke CPU reinzusetzen, nur wenn ich mir einen HTPC baue, würde ich mir STB-Qualität erwarten, die man eben leider nur so erreicht

2.) Es ist technisch absolut ausgeschlossen, dass du PAL- oder 1080i-Material mit 50 Hz ruckelfrei bei 60 Hz hinbekommst

 

Nochmal, der Post soll nur jenen helfen, die sich ein 780G-Board samt Stromspar-CPU kaufen und dann enttäuscht sind, wenn es nicht die Qualität liefert, die man sich erwartet.

Vielleicht bin ich aber auch allein mit meiner Meinung, dass ich mir von einem HTPC um einige 100 € einfach einen entsprechenden Gegenwert erwarte.

Link to comment

-> Ist eine 3650 dann nicht die beste/billigste/stromsparendste Möglichkeit (im Vergleich zur dicken CPU)? So vom Gefühl her schon, oder?

 

Korrigier mich wenn ich falsch liege

Link to comment

> 2.) Es ist technisch absolut ausgeschlossen, dass du PAL- oder 1080i-Material mit 50 Hz ruckelfrei bei 60 Hz hinbekommst

 

Hallo,

 

was soll ich dazu sagen. Ich leide weder an einer Sehschwäche noch an zuviel Fantasie. Peremier HD habe ich seit letzen Sommer gebucht und mir so gut wie alle Fußballspiele angesehen. Keine Ruckler, einwandfreies Bild. Meine Frau, die auch manchmal Fußball schaut, eben auf dem Toshiba und einem Premiere HD Receiver, kommt sogar immer extra zu mir rüber weil mein Bild (vor allem in der Totale) deutlich besser ist. Und das alles bei 60 Hz.

 

Schönen Tag

Peter Schwarz

Link to comment
-> Ist eine 3650 dann nicht die beste/billigste/stromsparendste Möglichkeit (im Vergleich zur dicken CPU)? So vom Gefühl her schon, oder?

 

Korrigier mich wenn ich falsch liege

Definitiv die beste (genug Reserven, da leistungsfähige GPU), sofern der Platz im HTPC dafür vorhanden ist.

 

Preislich sehe ich sie gleichwertig, da das Preis-Delta zwischen X2<->X3 ziemlich genau dem Preis einer 36xx entspricht.

 

Daten über die Leistungsaufnahme der 36xx habe ich jetzt nicht zur Hand, die Gesamtleistungsaufnahme hat sich durch den X3 bei mir um ca. 10-15 Watt nach oben bewegt (Underclocking und Undervolting bringen doch einiges, man darf nicht vergessen, dass aufgrund der Hardwarebeschleunigung die CPU sehr wenig zu tun hat).

Link to comment

Die 3650 liegt bei Vollast kapp über 70 Watt (gemessen nicht geschätz) im Teillastbetrieb (GPU 30-70% Takt 300-600 Mhz) zw. 35 und 50 Watt. Im Niederlastbereich werdenim Mittel weniger als 30 Watt gezogen.

 

Durch die dynamische Taktung und die Tatsache dass man im HTPC-Bereich selten inndie Hochlastbereiche gerät, also ziemlich sparsam.

 

Mein HTPC (auf BE-2400 Basis) saugt im Bluray-Betrieb (File von Platte) max 80 Watt.

Mein Digicorder S2 liegt im HD-Betrieb bei 50 Watt....

 

Gruß

Pinbot

Link to comment
Kann man VA bei einer x2-cpu überhaupt bei 1080i aktivieren, d.h. es wird vektoradaptiv deinterlaced?

 

Unter Vista auswählbar, aber mit X2-CPU nicht verfügbar (weder SD- noch HDTV) -> wird meist mit Absturz oder Zurückschalten auf BOB oder Weave quittiert. Laut DXVAChecker auch nicht verfügbar, nur im CCC ist es dennoch auswählbar.

Unter XP ist es gar nicht auswählbar, sofern Motion-Adaptiv fix ausgewählt wird, schaltet der Treiber bei X2-CPU auf BOB oder Weave zurück.

Link to comment
Das ist dann tatsächlich totaler Mist. Den HT-Takt könnte man locker anheben, falls es nur daran liegen würde.

Dein Wort in ATIs Ohr... :)

Link to comment
Der Ht-Takt geht locker auf 2ghz. Das habe ich gerade getestet. Also wenn ati die Optionen freischalten würde, ginge bestimmt auch 1080i ruckelfrei.

Mag sein dass dies ausreichend wäre, wie ATI die Abfrage durchführt, werden wir vermutlich nicht erfahren.

Link to comment

Klar, deswegen werde ich meine Freizeit nicht weiter mit diesem unausgegorenen Mist vergeuden. Das wird nämlich wieder so eine Endlosgeschichte wie schon bei den 690g-Boards :)

Link to comment

Also ich kann die Diskussion teilweise nicht nachvollziehen.

 

1.) Bei mir läuft der 780G wirklich einwandfrei. Hatte vorher Intel 965P mit E6600 und HD2600XT. Beide Systeme liefen einwandfrei, stabil, sauber, machen (machten) bei mir unter XP SP2 mit PowerDVD 7.3 und Catalyst 8.4 bis 8.6 keinerlei Probleme. inkl. Hardwarebeschleunigung.

 

Mein Einzige Kritikpunkt beim 780G ist, dass man wohl einen Phenom benötigt um Vector-Adaptives Deinterlacing zu bekommen bzw. einen K10 Prozessor mit HT3.0.

 

2.) Die Bilqualität steht m.E. einer STB in nichts nach. Im Gegenteil. Mit Vector-Deinterlacing habe ich sogar ein besseres Bild wie jede mir bekannte STB. (auf meinem 50 Zoll Pioneer-Plasma/HDMI/720p50für TV/HDTV und1080p24 für Blu-Ray.

 

3.) Es ist nunmal nicht unter einen Hut zu bringen, was verschiedene Menschen für verschiedene Anwendungen mit Ihrem PERSÖNLICHEN HTPC/Gamer-PC/Stromspar-PC...... an Anforderungen stellen.

 

Für mich kann ich nur sagen, der 780G ist für meine Belange (TV/HDTV/Aufnahmen/DVD/Blu-Ray/Internet/Energieeinsparung) toll geeignet.

 

@moldina:

 

Habe gesehen, der Phenom X3 ist eingebaut. Vector-Adaptives-Deinterlacing nun wirklich problemlos möglich?

Hitzeentwicklung?

 

Würde mich brennend interessieren. :)

 

Danke

Edited by mb2
Link to comment
Habe gesehen, der Phenom X3 ist eingebaut. Vector-Adaptives-Deinterlacing nun wirklich problemlos möglich?

Hitzeentwicklung?

 

Würde mich brennend interessieren. :)

 

Danke

Ja, Vector-Adaptives-Deinterlacing ist nunmehr möglich, 1080i ist subjektiv absolut zufriedenstellend, der Unterschied ist offensichtlich (keine Ruckler und Deinterlacing-Artefakte).

V.a. bei Laufschriften ist klar ersichtlich, das VA-Deinterlacing verwendet wird.

Mit X3 8450@1Ghz und 1 Volt bleibt Wärmeentwicklung im Rahmen (das System zieht um 10-15 Watt mehr, was in Anbetracht des Technologiesprungs K8 -> K10 (Memory-Controller, Cachegröße) und der 3 Kerne absolut ok ist).

Underclocking/Undervolting via AMD Overdrive, da RMClock den X3 (noch) nicht korrekt unterstützt.

 

Sofern Vector-Adaptives-Deinterlacing läuft ist die Bildqualität einer STB sicher ebenbürtig, ohne dem hält die 780G dem Vergleich mit einer STB leider nicht stand (da muss man sich einfach zugestehen, dass jede brauchbare STB einfach besseres Deinterlacing bei zumindest SDTV durchführt)

Link to comment

Was das Deinterlacing angeht gibt es Hoffnung, denn Gigabyte hat ja ein Board (GA-MA78GPM-DS2H) mit Sideport-Memory angekündigt:

 

http://www.gigabyte.com.tw/Products/Mother...?ProductID=2859

 

Damit sollte dann auch besseres Deinterlacing und ruckelfreie Darstellung mit einer K8 CPU möglich sein. Hoffentlich ist das bald in Deutschland verfügbar. Es sollte wohl billiger sein als ein Phenom X3/X4 falls man schon ein 780 Board + K8 CPU hat.

 

Ansonsten denke ich das ich unter Vista32 SP1 mit dem Catalyst 8.5 OHNE (!) Southbridge-Treiber Vector-Adaptive Deinterlacing zur Verfügung hatte trotz K8-CPU, wenn ich das CCC während ich HD schaute aufgemacht habe. Mit SB-Treibern hatte ich nur noch Abstürze. Muss das aber noch mal prüfen, ob es wirklich an den SB-Treibern liegt. Nach meinem subjektiven Eindruck war das Bild ruckelfrei und das Deinterlacing perfekt. Bei Catalyst 8.6 habe ich dann nur noch Adaptiv zur Auswahl auch bei SD, was dann deutlich schlechter aussah (z.B. leicht flackernde Schrift bei der Tagesschau). Vielleicht kann das mal jemand nachvollziehen mit dem Catalyst 8.5 ohne SB-Treiber.

Link to comment

Habt ihr eigentlich auch das Problem das nach kurzen (sagen wir 5 Minuten) ausschalten des Monitors, der Rechner läuft dabei weiter, mach erneuten Einschalten keine Videosignal mehr am Monitor ankommt? Ich nutze in Moment die integrierte Radeon HD 3200 meines Gigabyte 780G Boards sowie den Catalyst 8.5 da der 8.6er zuviele Probleme macht. Betriebssystem ist Windows Vista Home Premium SP1 64-Bit, unter XP MCE 2005 tritt das Problem nicht auf. Gibt es einen Treiber oder einen Kniff das der Monitor nach ausschalten wieder erkannt wird?

Link to comment
Habt ihr eigentlich auch das Problem das nach kurzen (sagen wir 5 Minuten) ausschalten des Monitors, der Rechner läuft dabei weiter, mach erneuten Einschalten keine Videosignal mehr am Monitor ankommt? Ich nutze in Moment die integrierte Radeon HD 3200 meines Gigabyte 780G Boards sowie den Catalyst 8.5 da der 8.6er zuviele Probleme macht. Betriebssystem ist Windows Vista Home Premium SP1 64-Bit, unter XP MCE 2005 tritt das Problem nicht auf. Gibt es einen Treiber oder einen Kniff das der Monitor nach ausschalten wieder erkannt wird?

 

Ist es ein VGA oder DVI/HDMI Monitor? Bei HDMI/DVI gibt es ja den Hot Plug detect pin anhand dessen der Treiber erkennen sollte, dass der Monitor wieder da ist per Interrupt. Bei VGA geht das unter Vista glaube ich nicht, da nicht gepollt wird ob ein CRT angeschlossen ist (im Gegensatz zu XP). Ein Trick ist wohl ein Profil im CCC anzulegen und dann per Hotkey zu aktivieren, wenn das Bild nicht da ist. Damit umgeht man zumindest den Aufwand eines Reboots.

Link to comment
Was das Deinterlacing angeht gibt es Hoffnung, denn Gigabyte hat ja ein Board (GA-MA78GPM-DS2H) mit Sideport-Memory angekündigt:

 

http://www.gigabyte.com.tw/Products/Mother...?ProductID=2859

 

Damit sollte dann auch besseres Deinterlacing und ruckelfreie Darstellung mit einer K8 CPU möglich sein. Hoffentlich ist das bald in Deutschland verfügbar. Es sollte wohl billiger sein als ein Phenom X3/X4 falls man schon ein 780 Board + K8 CPU hat.

 

Ansonsten denke ich das ich unter Vista32 SP1 mit dem Catalyst 8.5 OHNE (!) Southbridge-Treiber Vector-Adaptive Deinterlacing zur Verfügung hatte trotz K8-CPU, wenn ich das CCC während ich HD schaute aufgemacht habe. Mit SB-Treibern hatte ich nur noch Abstürze. Muss das aber noch mal prüfen, ob es wirklich an den SB-Treibern liegt. Nach meinem subjektiven Eindruck war das Bild ruckelfrei und das Deinterlacing perfekt. Bei Catalyst 8.6 habe ich dann nur noch Adaptiv zur Auswahl auch bei SD, was dann deutlich schlechter aussah (z.B. leicht flackernde Schrift bei der Tagesschau). Vielleicht kann das mal jemand nachvollziehen mit dem Catalyst 8.5 ohne SB-Treiber.

 

Kannst du mit DXVAChecker verifizieren, ob VA verfügbar ist

Link to comment
Ist es ein VGA oder DVI/HDMI Monitor? Bei HDMI/DVI gibt es ja den Hot Plug detect pin anhand dessen der Treiber erkennen sollte, dass der Monitor wieder da ist per Interrupt. Bei VGA geht das unter Vista glaube ich nicht, da nicht gepollt wird ob ein CRT angeschlossen ist (im Gegensatz zu XP). Ein Trick ist wohl ein Profil im CCC anzulegen und dann per Hotkey zu aktivieren, wenn das Bild nicht da ist. Damit umgeht man zumindest den Aufwand eines Reboots.

Es ist ein Samsung 32" TFT den ich über HDMI und DVI/HDMI Adapter anschließe. Also gibt es noch keinen Treiber der dieses Problem gefixt hat.

Link to comment
Es ist ein Samsung 32" TFT den ich über HDMI und DVI/HDMI Adapter anschließe. Also gibt es noch keinen Treiber der dieses Problem gefixt hat.

Das könnte auch ein Problem des Samsung sein. Z.B. wenn das Hotplug-Detect beim Einschalten ein wenig zu früh kommt, bevor die EDID Daten lesbar sind, dann wird er nicht eingeschaltet. Oder er nimmt das HPD gar nicht weg wenn Du Ihn ausschaltest. Was passiert wenn Du nach dem Einschalten nochmal kurz den HDMI/DVI Stecker abziehst und wieder ansteckst?

 

@moldina:

Kannst du mit DXVAChecker verifizieren, ob VA verfügbar ist

Ist leider nicht verfügbar, ist also nur ein Fehler im CCC. Bleibt nur zu hoffen, dass der Sideport-Memory bei den neuen 780 Boards hilft.

Link to comment
Das könnte auch ein Problem des Samsung sein. Z.B. wenn das Hotplug-Detect beim Einschalten ein wenig zu früh kommt, bevor die EDID Daten lesbar sind, dann wird er nicht eingeschaltet. Oder er nimmt das HPD gar nicht weg wenn Du Ihn ausschaltest. Was passiert wenn Du nach dem Einschalten nochmal kurz den HDMI/DVI Stecker abziehst und wieder ansteckst?

 

Der Samsung TV ist nicht das Problem da unter XP dieses Problem nie auftrat. Im Moment ist das Problem allerdings Weg warum kann ich aber nicht sagen. Ich habe mir gestern einen Phenom X3 8450@1.8GHz mit 0.99V am laufen der es ermöglich Deinterlacing einzustellen und braucht im Moment gute 20W mehr als mein alter BE-2400@2GHz und 1.0V .

Link to comment

Nochmal ne Frage:

 

Es gibt ja die Möglichkeit von Hybrid-Crossifire: Soll heißen, zusätzlich eine HD3450 einbauen, Monitor an der zusätzlichen Grafikkarte anschließen und die Grafikleistung wird "gebündelt".

 

Denkst du dass damit eine vergleichbare Leistung/Qualität wie mit HD3650 oder einem Phenom erreicht werden kann, bzw. hast du die Möglichkeit das zu testen?

 

Wäre für mich ganz interessant zu wissen, denn sonst wäre das ja die billigste und auch kleinste Lösung.

Link to comment
Nochmal ne Frage:

 

Es gibt ja die Möglichkeit von Hybrid-Crossifire: Soll heißen, zusätzlich eine HD3450 einbauen, Monitor an der zusätzlichen Grafikkarte anschließen und die Grafikleistung wird "gebündelt".

 

Denkst du dass damit eine vergleichbare Leistung/Qualität wie mit HD3650 oder einem Phenom erreicht werden kann, bzw. hast du die Möglichkeit das zu testen?

 

Wäre für mich ganz interessant zu wissen, denn sonst wäre das ja die billigste und auch kleinste Lösung.

Habs probiert, bringt leider nichts. DXVAChecker zeigt mit und ohne HCF das gleiche an.

Link to comment

Hallo,

 

ich benutze gerade Hybrid Crossfire mit einer zusätzlichen Radeon 3450 weil ich gerade eine Spiel (Mass Effect) durchspiele, für das die reine Onboardgrafik zu schwach ist. Auf TV und auch HDTV hat das bei mir jedenfalls keinen merkbaren Einfluß. Allerdings solltest du den Monitor genau andersrum anschließen. Nämlich an die Onboard Grafik und auch im Bios die Grafik auf Onboard umstellen. Nur dann hast du den Vorteil, daß die zusätzliche Grafikkarte bei 2D Anwendungen auf das minimale runtergefahren wird und damit auch fast keine Energie verbrät. Andersrum macht es keinen rechten Sinn, dann fährt die 3450 immer vollen Takt, ob es gerade nötig ist oder nicht.

 

Schönen Tag

Black Dragon

Edited by Black Dragon
Link to comment

Hallo,

 

ich habe aber eh nicht die geringsten Probleme mit HDTV und dem 780G. Da bin ich aber scheinbar ein Einzelfall. Die Idee, die hinter Hybrid Crossfire steckt, finde ich jedefalls gerade weil ich auch gerne mal spiele, sehr genial.

 

Schönen Tag

Black Dragon

Edited by Black Dragon
Link to comment
  • 2 weeks later...

Da das Gigabyte-Board mit Sideport-Memory jetzt verfügbar ist, kann ich sagen, dass bei diesem Board laut DXVAChecker Motion-Adaptive Deinterlacing bis 1080i verfügbar ist auch mit K8-CPU. Leider nicht Vector-Adaptive, aber immerhin.

 

Ist also damit wirklich ne attraktive Lösung.

 

Gruß,

Matthias

Link to comment
Ist also damit wirklich ne attraktive Lösung.

 

Suboptimal. Der 780G hat mich viel Zeit und Nerven gekostet, bis ich rausfand, dass alles Rumprobieren mit Software und Treibern umsonst war, weil mein Prozessor nicht HT3.0 fähig ist. Hoffentlich kommt bald ein X2-Prozessor mit HT3.0 raus, einen Phenom brauche ich nicht in meinem HTPC. Vom Preis her wird es wohl gleich sein wie ein neues Motherboard, aber hoffentlich geht dann auch alles (inkl. Vector Adaptive).

Link to comment

Mit einem Phenom 8450 war rbei mir alles gut; Vista und XP funktioniert. Das Bild ist top und ruckelt bisher nicht. Mit Coo and Quiet nimmt das Gesamtsystem nur 85..90W auf

Link to comment

Habe mit meinem System (siehe Signatur) im CCC 8.6 die Auswahl ->Vector adaptiv deinterlacing. 5 Auswahlstufen sind vorhanden und denke nicht das mein Prozzi HT3.0 unterstützt.

Screenshot kann ich gerne nachliefern. Wünsche was Sichtbar sein soll werden gerne angenommen.

 

Ich bin mir sicher das alles stark von der richtigen Installation des CCC abhängt. Hatte bei Erstinstallation BlueScreen, dann alles im abgesicherten Modus mit DriverCleanerPro deinstalliert (Alles was mit ATI anfängt!)

Danach Komplettpaket installiert (englische Version IGP 8.6). Läuft seit 2 Wochen ohne Probleme.

Es ist auch möglich das die Einstellung fürs Deinterlacing bei höherer Auflösung verschwindet, habe wegen VGA-Converter nur 1024x768.

Werde später mein TFT nochmal anschließen und dann bei 720p testen. :)

Link to comment

Ok, habe getestet. Ein Screenshot brauche ich nicht nachzuliefern, meine Erkentnisse kann ja jeder nachtesten.

 

Wenn man im CCC 8.6 eine höhere Auflösung als 1024x768 einstellt, dann ist kein Vector adaptives Deinterlacing mehr auswählbar.

Die 5 Auswählmöglichkeiten wechseln dann zu nur noch 3, aber in allen steht dann Vector adaptiv drinn.

Eventuell mus "EIDED"(Display Erkennungs-Modus) ausgeschaltet werden, hab ich aber nicht getestet.

 

Ob dann bei nichtverändern des Schiebereglers Vector adaptiv benutzt wird, kann ich nicht sagen, aber ich denke nicht.

Dies sollte mal jemand mit großem Display bitte überprüfen und dann bitte posten.

 

Falls dies dann aber eine schlechtere Deinterlacing-Methode benutzt, ist es irgendwie Möglich im CCC 1024x768 einzustellen und mit einem externen Programm höher zu skalieren?

Vieleicht kann man so die Deinterlacing-Methode erzwingen? :)

Link to comment
Vieleicht kann man so die Deinterlacing-Methode erzwingen? :)

Kann man mit dem EVR-Renderer und einem Plugin, Grafiktreiber schaltet aber auf Weave zurück.

DXVAChecker meldet auch korrekt bei einer X2-CPU, dass mit VA und MA bei SDTV-Auflösung sense ist.

Deswegen schaltet der ATI-Treiber auch bei X2-CPU auf Adaptiv zurück, mit dem Effekt, dass die Regler im CCC ohne Wirkung sind (im übrigen haben auch die Regler für De-Noise etc. mit X2-CPU keine Wirkung).

VA ist viel zu komplex, um mit dieser kastrierten GPU und Memorybandbreite bei einer X2 zu laufen, deswegen schaltet es ATI auch verständlicherweise nicht frei. In einem direkten Vergleich zwischen Phenom/780G und 2600XT ist bei VA subjektiv bei 1080i ein kleiner Unterschied im Bereich Bildqualität zugunsten des 2600XT zu bemerken, weil ATI anscheinend die Qualität des Deinterlacings und Postprocessings von der Anzahl der Shader abhängig macht.

Nochmals: Shader kann man nicht programmieren, und da kann selbst ATI nicht zaubern ;)

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...