Sad lige og læste en artikel omkrings nvidias planer med den nye 300-serie. Det lyder til at der kommer knald på det.
GTX390 - Overkill eller Uberness
-
-
Quote
Oprindeligt indlæg af Hampen
Sad lige og læste en artikel omkrings nvidias planer med den nye 300-serie. Det lyder til at der kommer knald på det.
Blir vist ret vildt, også på prisen. -
Det må også blive noget så varmt.
-
NEJ NEJ NEJ!
Det går da kun ned ad for NVIDIA. Det bliver jo ikke bedre af flere Cores. Det ved alle da. selv når man kører SLI/CF med 2 mainstream kort, så kræver det at man bruge over 1920x1200 for at man kan bruge det til noget. med 4 GPUer skal man jo over 2560 x 1600 for at kunne udnytte det, og det kender jeg ingen skærm der benytter endnu.
Til bench vil det da sikkert være 2talt sygt. Men til gaming - ubrugeligt hvis vi ser på at det er et Quad-setup i kortet.
Hvorfor er det lige de ikke tager sig sammen og gør noget ordentligt, i stedet for at vælge den nemme løsning.
Men rimelig sygt at tænke på, om sådan et bæst kan bruges i Quad-setup, så det bliver Quad-Quad. altså 16 GPUer.
også rimeligt varmt når man tænker over det
-
Det er jo bare deres multi gpu kort. Der skal jo nok komme et a la 285. Et par af dem skal nok give smæk i pc'en.
-
lol.. Quad SLI på et enkelt grafikkort. Nvidia må da være lamme i bøtten! Kunne forestille mig sådant et kort vil blive et problembarn, ligesom 8800 GTX var (de blev alt for varme og var fejlbehæftet). Dette monster skal nok komme til at koste omkring 7000 kr, hvis det overhovedet kan gøre det.
Edit: Noget der lugter her.. Måske er det bare en skrivefejl, men artiklen skriver at kortet har 3584 mb GDDR3 ram. Så vidt jeg har forstået, vil GT300 serien kun bruge GDDR5 ram? Hvor er lige idéen i at bruge GDDR3 ram på sådan et kort, når GDDR5 skulle være hurtigere samt være ret strømbesparende i forhold til GDDR3.
-
Quote
Oprindeligt indlæg af gaming-king
også rimeligt varmt når man tænker over detByg-selv kabinet og,
Byg-selv vandkøling system
Kunne være nice hvis man så en pc, med 16 kølehoveder til 16 GPU'er. -
håber der kommet et GTX300serie ligesom 8800GT kortet som er et godt kort os til pengene bare med mindst 1gb GDDR3 el. GDDR5 ram på og så 512bit kunne være nice
-
Quote
Oprindeligt indlæg af Proctie
Byg-selv kabinet og,
Byg-selv vandkøling system
Kunne være nice hvis man så en pc, med 16 kølehoveder til 16 GPU'er.heh.
Ja man skal nok ikke vælge GPU køleløsningen her, men nærmere Full-cover
-
nok ikke et særligt sjovt kort i windows 32bit -> 3.5GB GDDR
-
og 2 af disse i dual/quad sli ?.
brug for 8 pci-e stik
der skal godt nok laves nye psuer...Tror der snart er brug for 1000 nye vindmøller mv.
-
Quote
Oprindeligt indlæg af gaming-king
NEJ NEJ NEJ!Det går da kun ned ad for NVIDIA. Det bliver jo ikke bedre af flere Cores. Det ved alle da. selv når man kører SLI/CF med 2 mainstream kort, så kræver det at man bruge over 1920x1200 for at man kan bruge det til noget. med 4 GPUer skal man jo over 2560 x 1600 for at kunne udnytte det, og det kender jeg ingen skærm der benytter endnu.
Til bench vil det da sikkert være 2talt sygt. Men til gaming - ubrugeligt hvis vi ser på at det er et Quad-setup i kortet.
Hvorfor er det lige de ikke tager sig sammen og gør noget ordentligt, i stedet for at vælge den nemme løsning.
Men rimelig sygt at tænke på, om sådan et bæst kan bruges i Quad-setup, så det bliver Quad-Quad. altså 16 GPUer.
også rimeligt varmt når man tænker over det
1. Du ved tilsyneladende ikke, hvorfor man går over til flere cores istedet for kraftigere grafikkort læs noget om arkitektur og find alle de problemer der ligger ved at give større og større cores istedet for flere cores grunden til at du ikke får ordentlig ydelse ved sli er jo at man ikke har lavet et tilstrækkeligt system til at maksimere ydelse.Du kan jo alene se på Central Processor units og eventuelt læse om de problemer man støtte på der og hvorfor man i dag både laver 2, 4 og snart 6 cores processorer.
Mon ikke deres ingeniører har lidt mere styr på det end din hjernekapacitet kan regne frem til
P.S. tjek eventuelt hvorfor ATI har fået større omsætning i år end sidste år. De har utrykkeligt sagt at det er for dyrt at producerer chips som eksempelvis GTX 285, da 2 4870 chips er billigere at producere og billigere at udvikle
2. der findes mange skærme der kører 2560 x 1600. vi taler blot 30 tommer.QuoteOprindeligt indlæg af TolaGarf
lol.. Quad SLI på et enkelt grafikkort. Nvidia må da være lamme i bøtten! Kunne forestille mig sådant et kort vil blive et problembarn, ligesom 8800 GTX var (de blev alt for varme og var fejlbehæftet). Dette monster skal nok komme til at koste omkring 7000 kr, hvis det overhovedet kan gøre det.Edit: Noget der lugter her.. Måske er det bare en skrivefejl, men artiklen skriver at kortet har 3584 mb GDDR3 ram. Så vidt jeg har forstået, vil GT300 serien kun bruge GDDR5 ram? Hvor er lige idéen i at bruge GDDR3 ram på sådan et kort, når GDDR5 skulle være hurtigere samt være ret strømbesparende i forhold til GDDR3.
problembarn og problembarn. Tja. 8800 GTX var altså heller ikke værre end du siger
-
Quote
Oprindeligt indlæg af gaming-king
Men rimelig sygt at tænke på, om sådan et bæst kan bruges i Quad-setup, så det bliver Quad-Quad. altså 16 GPUer.Man har nu aldrig kunnet køre med fire separate nVidia kort i QuadSLI, for at opnå QuadSLI skal man bruge 2x GX2 kort i normal SLI, altså 4 GPUer i det hele. Så 16 GPUer med GTX300 serien er vist ønsketænkning
Men bare det enorme CPU overhead der bliver når driveren skal forsøge at håndtere 16 kort ville være nok til at hive performance ned på et latterligt niveau. Det ser man alleredde med de nuværende kort, hvor 2x GTX280 feks. i de fleste spil yder bedre end 3x GTX280.
16 GPUer bliver ikke relevant lige foreløbig.
-
Quote
Oprindeligt indlæg af TueH
Man har nu aldrig kunnet køre med fire separate nVidia kort i QuadSLI, for at opnå QuadSLI skal man bruge 2x GX2 kort i normal SLI, altså 4 GPUer i det hele. Så 16 GPUer med GTX300 serien er vist ønsketænkning
Men bare det enorme CPU overhead der bliver når driveren skal forsøge at håndtere 16 kort ville være nok til at hive performance ned på et latterligt niveau. Det ser man alleredde med de nuværende kort, hvor 2x GTX280 feks. i de fleste spil yder bedre end 3x GTX280.
16 GPUer bliver ikke relevant lige foreløbig.
det er jo bare et spørgsmål om korrekt implementering i systemet, så vil man kunne udnytte 16 GPUkerner uden problemer.
-
Det bliver det nye Wankermark kort
Ideen er god nok det er bare spørgsmålet om Nvidia kan holde det koldt med den køler også er spørgsmålet jo hvad kommer det til at koste..
Hvis det kommer til at koste det samme som det speciele Asus GTX295 så er der godt nok ikke mange almindelige personer som på nogen måde kommer til at eje det.
-
ikke engang grund til at lave drivers til 32 bit styresystemer med alt det ram....
-
Quote
Oprindeligt indlæg af Fragman
ikke engang grund til at lave drivers til 32 bit styresystemer med alt det ram....Næ kan heller ikke rigtig se ideen med 32 bit styresystem alligevel de fleste computere idag har jo 4 gb ram idag og grafikkort minimum 512 mb så det giver jo ikke rigtig mening..
-
Quote
Oprindeligt indlæg af Helmer
1. Du ved tilsyneladende ikke, hvorfor man går over til flere cores istedet for kraftigere grafikkort læs noget om arkitektur og find alle de problemer der ligger ved at give større og større cores istedet for flere cores grunden til at du ikke får ordentlig ydelse ved sli er jo at man ikke har lavet et tilstrækkeligt system til at maksimere ydelse.Du kan jo alene se på Central Processor units og eventuelt læse om de problemer man støtte på der og hvorfor man i dag både laver 2, 4 og snart 6 cores processorer.
Mon ikke deres ingeniører har lidt mere styr på det end din hjernekapacitet kan regne frem til
P.S. tjek eventuelt hvorfor ATI har fået større omsætning i år end sidste år. De har utrykkeligt sagt at det er for dyrt at producerer chips som eksempelvis GTX 285, da 2 4870 chips er billigere at producere og billigere at udvikle
2. der findes mange skærme der kører 2560 x 1600. vi taler blot 30 tommer.Jeg kender ikke mange som har 30" skærme. Faktisk ingen når jeg tænker over det. Så det er da begrænset hvad der er der ude i landet.
Desuden, det jeg mener med at NVIDIA har været for ukreative her. Er som du selv siger, at CPU'er er multikernet. Der bruger man jo ikke flere Cores, men man udvikler en CPU som er flerekernet. Det har ingen GFX-producenter endnu gjort.
Jeg synes bare det er for ukreativt at smide flere på.
-
Dagens GFX er da hurtige nok til at CPU ikke rigtig kan følge med så om den næste bliver endnu en 2x1 GPU eller en dualkerne er jeg da fuldstændig ligeglad med.
Få implementeret dx11 rigtigt og hold hastigheden i ro det næste år, så brug tiden fornuftigt til at få lavet en chip layout der holder i stedet for både hvad angår hastighed og strømforbrug, så er man da nået langt i mine øjne.Højere GFX hastigheder er da kun for folk, som er "afhængige af wankermark", overdrivelse fremmer forståelsen.
Mvh
Sam -
Men navnet GTX390 giver jo mulighed for en 395, ligesom man gjorde med 280 -> 285