6600GT - default clock = 300/900MHz?!

  • Et Galaxy 6600GT AGP 8x grafikkort har ifølge testen hos Tweak.dk og andre steder en fabrikstunet default clock-frekvens på 525MHz på kernen og 1050MHz på hukommelsen.


    Kan nogen fortælle årsagen til at min står på 300/900? Måske fordi mit bundkort er AGP 4x (har lige købt et nyt AGP 4x bundkort - se signatur - selvom forhandleren af grafikkortet påstår jeg bør have AGP 8x for dobbelt hastighed, også selvom jeg modsiger ham med at andre folk og diverse tests siger dette ikke er tilfældet...)?


    Skal jeg måske sætte det til Automatisk overclocking (jeg har ikke lige styr på hvordan jeg skal overclocke manuelt endnu)?

  • Ah, ja, det var da genialt [og lige mens jeg sidder og skriver dette her gik min skærm til stor undren for første gang i sort, hvilket jo så er indlysende da jeg sekunder forinden trykkede på "Detektér optimale frekvenser" hvor resultatet blev = 568MHz/1,4GHz].


    Ville de fleste så nu låse denne optimale clockfrekvens uden bekymringer? Jeg kan forstå den detecter det lidt forskelligt, hver gang af hængig af hvor godt systemet håndterer stresstestene for automatisk genkendelse. Eller bør jeg lade det komme an på en prøve og se om der er fejl i grafik eller vente på at noget crasher? Som sagt er min forstand på overclocking minimal. Det handler vel om at finde balancen mellem Den Gode Side og Den Mørke Side (Jvf. Kraften).


    Som standard i 3D står den nu på 500MHz/900MHz. Stadig mindre end den lovede fabrikstuning på 525/1050?!


    EDIT: HVad er derfor øvrigt galt med signaturen? Det kan jeg ikke direkte gennemskue som skrevet til en moderator. Det er jo bare tekst, der er langt under det maksimale antal tegn. Jeg overser nok et eller andet?
    EDIT2: Der skulle være styr på signatur nu (lettere misforståelse).
    EDIT3: Og den her tråd hører vel egentlig til i overclocking-foraet - flot :roller:

  • Mon ik bare det er nvidia driveren som indstiller sig på dette? Det er jo standard for de kort.

    ¦ I7 2600K ¦ P8Z68-V ¦ EVGA GTX 780 TI ¦ TridentX 2400 MHz ¦ Arc Midi R2 ¦ NH-D14 ¦ U2713HM ¦

  • Præcis hvad jeg sidder med i baghovedet lige nu. Brugte heller ikke Galaxys driver-udvalg fra installations-cd'en, da det er ældre versioner: Forceware 71.25, 66.93, 66.93 (Galaxy WHQL)(For System Integrator Only), 56.64 og Detonator 45.33. Måske hvis jeg installerer en af disse, at fabriks-overclockingen træder i kraft. Der medfølger også et "Overclock Tool", som til forveksling ligner Coolbits (vil jeg stærkt tro).


    Kører p.t. med den uofficielle Nvidia-driver Forceware 76.45 (WHQL-godkendt)(22/04/2005), som jeg har set folk anbefale til 6600GT-grafikkort for ekstra framerates i spil som Half Life 2 og Doom III (har dog ikke selv testet påstanden endnu).

  • Okey. Jamen jeg tror også at hvis du installere den driver der fulgte med, så vil den selv overclock lidt.


    ELlers er det er jo ganske nemt med coolbits :P

    ¦ I7 2600K ¦ P8Z68-V ¦ EVGA GTX 780 TI ¦ TridentX 2400 MHz ¦ Arc Midi R2 ¦ NH-D14 ¦ U2713HM ¦

  • Yes, tager babyskridt her ;) Bare for at være på den sikre side. Men nu har jeg fået det bekræftet i et forum på http://www.chip.de af en tysker, at man skal installere medfølgende driver 66.93, som inkluderer fabriksoverclockingen. Jeg citerer:


    Quote


    Galaxy 6600GT 550/1050 1.8ns (nicht übertaktet):


    Mit den mitgelieferten Forceware 66.93 Treibern funktioniert die Grafikkarte einwandfrei. Installiere ich die neueren Forceware 71.89 Treiber oder irgendeine dazwischen, ist der Desktop übersäht mit Grafikfehlern. [...]


    :drink: