Forslag til kommende Build tråde

  • Når du / I kigger på CPU-usage mens i spiller, bruger I så bare ressourceovervågning eller findes der et andet fiks program til den slags?

    CPU: i5-6600k @ 4.2GHz
    GPU: GTX 1060 6GB
    RAM: 16GB DDR4 HyperX
    MOBO: Asus Z170i Pro Gaming
    SSD: Samsung 750 Evo 500GB
    Kabinet: Mini ITX Sugo SG13

  • Når du / I kigger på CPU-usage mens i spiller, bruger I så bare ressourceovervågning eller findes der et andet fiks program til den slags?


    Personligt bruger jeg bare ressourceovervågningen, der findes sikkert bedre metoder:-)

  • Det er ikke CPU'en som er flaskehals i min opløsning, må fjerne AA, og sætte nogle detaljer ned, mit grafikkort har en kamp i lige det spil... Opløsning 2560x1440.

    Såå... folk skal bare sætte opløsningen op så forsvinder CPU flaskehalsen på magisk vis? Ej come on...
    Det er sødt at du ikke svarer på Sakkuras indlæg når han rent faktisk bidrager med noget konstruktivt:
    [Blocked Image: https://i.imgur.com/vlUCsfG.png
    Kilde:
    http://www.techspot.com/review…ogs-benchmarks/page5.html
    Viser ret tydeligt at en 5350 er en virkeligt dårlig CPU til det spil.


    Ved løb gennem bymidten:


    Med alt på max. med AAx8 er CPU forbruget på 40-50% (Uspilleligt - Frygteligt... )
    Med alt på max. uden AA er CPU forbrugt på ca. 70% (Spilbart.... Men dårligt...)
    I High uden AA ligger CPU forbrug på ca. 70-80% (Spilbart.... Men dårligt...)
    I medium uden AA - CPU 80-90% (Spilbart, og ja FPS ligger på typisk 20-25 stykker.)
    I low uden AA - CPU 80-90% (FPS ligger på typisk 22-35.)

    Er det så det samlede billede fra resourceovervågningen i windows? Det kan du ikke bruge til en rygende fis.
    Det er et øjebliksbillede der intet viser om hvilke kerner der er belastet hvor meget af hvilke tråde.

  • Jeg tror bare, at I skal lade Dnope være i sin egen fantasiverden. Det er generelt meget tydeligt gennem denne og tidligere tråde, at Dnope ikke svarer nogen, hvis de modsiger hans tidligere udtalelser.


    I kan jo bare se, at både Sakkura, LeetDonkey og HerrMansen har modsagt ham i denne ene tråd, og han har ikke reageret på det en eneste gang. Folk, som ikke svarer igen på konstruktiv kritik er i min optik overhovedet ikke troværdige, og det lugter bare langt væk af en gut, som gerne vil lyder klog på området, men måske egentlig ikke er det.


  • Du tager fejl, for det første har du lagt et link til testen, så man kan se hvilket grafikkort der er brugt - Så er det rent faktisk muligt at skrive det er lidt noget pjat, og hvorfor. Uden oplysninger om hardware, og software er en test jo værdiløs. Dog skal det siges at lige det spil har været tæt på en retsag, for at bevist ødelægge ydelsen for AMD hardware, og det er ikke lovlig, så det er nok det dårligste eksempel man kan finde på en test, jeg vil ikke kalde det et konstruktivt indlæg, set i lyset af det - Jeg testede spillet uden de nyeste patch, og uden nyeste AMD drivere, som sammen fixer nogle af problemerne som det spil står med i forhold til AMD:-)


    Der er brugt et R9 290X grafikkort, der er brugt en opløsning på ????x???? - Jo større grafikkort, jo mere bliver CPU'en belastet, jo lavere opløsning, jo mere bliver CPU'en belastet.


    Med et R9 290 vil du ha' ca. dobbelt så høj ydeevne, som med et R9 270.


    Der for vil denne test kræve ca. 2 gange så høj ydelse af CPU'en, som hvis du havde spillet med et R9 270 grafikkort, ergo bliver en lille CPU selvfølge hurtigt en kæmpe hæmme sko for et så stort grafikkort - Hvordan skal jeg tage sådan en test seriøst, jeg skriver jo netop at et R9 290X grafikkort kræver en FX-8350, eller I7-4670 CPU. lige som jeg skiver at en Athlon X4 5350 max. bør køre med et R9 270 grafikkort, osv.. kopiere det jeg skrev her, du har åbenbart ikke ville læse det - Jeg synes da jeg forklarede det rimeligt godt? Så godt så man kunne mistænke dig for at undlade at læse det med vilje, eller nægte at forstå hvad der stod, anyway.. Et udpluk af hvad jeg skrev i aller første besked:


    "Tager man et R9 270 og sætter i en maskine med en I5-4670/FX-8350 så vil man normalt altid være begrænset af grafikkortet i spil, og udnytter slet ikke CPU'en.


    Tager man en I3-4130 sammen med et R9 290 grafikkort, så vil CPU'en næsten altid begrænse computeren i spil, og man udnytter ikke grafikkortet.


    Men vælger man et grafikkort som passer nogenlunde til CPU'en, så vil det nogle gange være CPU'en som er begrænsningen, og andre gange grafikkortet som er begrænsningen.


    Så tænk jer om når i samler computere, det nytter ikke noget at se på en test med et GTX780ti eller R9 290X og en masse CPU'er ved en opløsning på 1680x1050 - For skal du ud og købe et grafikkort til over 3000kr?, og spiller du i 1680x1050? For de flestes vedkommende, nej... Jammen så kan du ikke bruge testen til noget, en dual core intel vil måske arbejde under halvt så godt som en I7-4770K i sådan en test, men hvis du laver samme test med et R9 270 grafikkort i 1920x1080, så vil en I7-4770K næsten ikke være målbart hurtigere i de fleste spil, for så er det grafikkortet som er for langsomt i de fleste spil, og ikke den lille dual core CPU."


    Nåe ja.. Jeg glemte helt din kritik af ressourceovervågningen, som sikkert ikke er perfekt, men du blev tabt i svinget da du skrev jeg ikke kunne se hvor mange kerner der var belastet - Det kan jeg rent faktisk, for når jeg sætter grafikkortet til en lav opløsning, og lave detaljer, så er det tydeligt om CPU'en bliver belastet ca. 30%, 60% eller 90-100%, og det fortæller om der bliver brugt 1, 2 eller 4 CPU kerner. Ligesådannet læser jeg næsten altid om et spil, inden jeg direkte bruger det til en test, netop så jeg ved hvor mange kerner det bruger, og hvad jeg skal være opmærksom på. Det fremgår ofte i forums, hvad frustrere folk i netop det spil, og det kan fortælle noget om spillet - I tidernes morgen, var et spil som det første Crysis rigtigt intresandt, for det var faktisk mængde af RAM på grafikkortet, og computeren RAM hastighed der havde meget at sige dengang. Så ligemeget hvor store CPU'er, eller grafikkort de havde, så hjalp det ikke hvis de havde 666mhz RAM, eller 256mb RAM på grafikkortet, nå.. Det var historie, som ikke har noget direkte med sagen at gøre som sådan, men man kan lære en del ved at læse hoved trækne først:-)

  • I kan jo bare se, at både Sakkura, LeetDonkey og HerrMansen har modsagt ham i denne ene tråd, og han har ikke reageret på det en eneste gang. Folk, som ikke svarer igen på konstruktiv kritik er i min optik overhovedet ikke troværdige, og det lugter bare langt væk af en gut, som gerne vil lyder klog på området, men måske egentlig ikke er det.


    Jeg svare, og har svaret alle på nær Sakkura. Også LeetDonkey, og HerrMansen har fået svar.


    Har du nogle konstruktive spørgsmål, så svare jeg da også gerne på dem. Hvorfor jeg så gav mig tid til at svare på det du skrev denne her gang, det kalder man høflighed. Din oplevelse af mig, bliver da nok ikke bedre af, hvis du virkeligt ikke har set jeg havde svaret HerrMansen, og hvad LeetDonkey angår, så har jeg været i haven med mine børn, det antager jeg er ok;-)

  • Folk, som ikke svarer igen på konstruktiv kritik er i min optik overhovedet ikke troværdige, og det lugter bare langt væk af en gut, som gerne vil lyder klog på området, men måske egentlig ikke er det.


    Hahaha.

    Cyberduck
    | Lian Li PC-O11DXL | ASRock PG Velocita B550 | Ryzen 5600X | 4x8GB TridentZ Royal RGB @3600 Mhz | RTX 3080 | Seasonic Platinum 750W | 4T NVME, 1TB NVME | 6TB WD RED HDD | Vandkøling fra EK |

  • Jo større grafikkort, jo mere bliver CPU'en belastet, jo lavere opløsning, jo mere bliver CPU'en belastet.

    Hænger det altid sådan sammen?


    Altså, stiger ens CPU forbrugt virkelig, hvis man sætter opløsningen ned, eller misforstår jeg?


    Jeg troede netop at større opløsning: = mere arbejde til grafikkortet -> mere data CPUen skal sende til grafikkortet.



    Jeg er godt med på at hvis man vil teste om sin CPU er flaskehalsen, så kan man skrue ned for grafik og opløsningen, for at se om CPUen er problemet. Men ved ikke helt om det er det, du mener?

    CPU: i5-6600k @ 4.2GHz
    GPU: GTX 1060 6GB
    RAM: 16GB DDR4 HyperX
    MOBO: Asus Z170i Pro Gaming
    SSD: Samsung 750 Evo 500GB
    Kabinet: Mini ITX Sugo SG13


  • Du forstår det rigtigt, og nej det hænger teoretisk ikke altid sådan sammen, men jeg har i praksis ikke set et spil hvor det ikke gør - Men det betyder ikke at det ikke kan eksistere:-)


    Pointen er i bund, og grund - Hvis du har en ældre computer, så vi spil producenten gerne ha' du kan køre spillet alligevel, så når du skruer ned for setting f.eks. fra Ultra til medium settings, så skruer de fleste spil også ned for CPU forbruget, for at tilgodese den mindre computer. Oven i det, vil CPU'en kunne slappe af hvis grafikkortet arbejder 100%, så hvis grafikkortet ikke er så stort, så vil grafikkortet ikke 'spørge' efter data hele tiden, og det vil spare yderligere CPU kraft. Det er nok de største grunde til et stort grafikkort, kan få en lille CPU til at se så dårlig ud.


    Når du køre i en højre opløsning, så vil grafikkortet ikke skulle bruge flere data, fordi at 'opløsningen' er beregninger, som udelukkende bliver lavet af grafikkortet, og derfor kun belaster grafikkortet - Ego kommer der lavere FPS, og grafikkortet vil ikke spørger efter lige så mange data fra CPU'en, så CPU'en kan slappe mere af.


    Tak fordi du spørger:-)

  • Nåe ja.. Jeg glemte helt din kritik af ressourceovervågningen, som sikkert ikke er perfekt, men du blev tabt i svinget da du skrev jeg ikke kunne se hvor mange kerner der var belastet - Det kan jeg rent faktisk, for når jeg sætter grafikkortet til en lav opløsning, og lave detaljer, så er det tydeligt om CPU'en bliver belastet ca. 30%, 60% eller 90-100%, og det fortæller om der bliver brugt 1, 2 eller 4 CPU kerner.


    ressourceovervågning er næsten til at lukke op og skide i til det, som du gerne vil pointerer her Dnope. Den viser dig i hovedtræk på et øjebliksbillede hvordan systemet bliver belastet i hovedtræk.


    Problemet ligger lidt i at man ikke kan se nøjagtig hvordan belastningen ligger på de forskellige kerner i forhold til hinanden. Typisk vil kerne 1 ligge på 100%, kerne 2 95-80%, kerne 3 og 4 omkring de 60% og har du flere kerner så fiser resten bare husleje af, da de ligger nede omkring 20% udnyttelse, altså de kommer slet ikke i brug på nogen måde i 99% af alle de spil, som findes idag.


    Jeg vil næsten vædde på, at du ikke kan finde 5 spil idag, som udnytter over 4 kerner hvor belastningen ligger linieært på alle kerner, altså fra kerne 1 til 8 og hvor belastningen er ens på alle kerner eller bare tæt på.
    Typisk fiser kerne 7 og 8 husleje af med en udnyttelse omkring de 20%, så kan du spørge hvordan jeg så ved det, men jeg har et lille program på min desktop, som netop viser belastningen pr. kerne både i % og med en graf og det er uanset om man så bruger win 7 eller win 8/8.1, de to sidste kerner i mit tilfælde bliver slet ikke belastet undtagen jeg bruger videoredigering hvilket ikke har noget som helst med spil at gøre.


    Du slår osse meget på tromme for win 8.1, alt ære og respekt for det, men faktum er at med et AMD setup, så er din fordel ved at opgradere fra win7 til 8.1 en 3-6% bedre udnyttelse af dine mange kerner, så er det nok i faktiske tal til at retfærdiggøre en opgradering som koster omkring de 800,-, det er det ikke i mine øjne.
    At det så alligevel er smart at gøre det, det er en helt anden sag, men det har slet ikke noget med at udnytte de mange kerner, som man egentlig har til rådighed.


    Mvh
    Sam

    AMD 2600X Ryzen, MSI X470 gaming plus, 16GB G.Skill 24ooMhz DDR4 ram, Noctua NH-U12S, Sapphire RX Vega 56 Pulse ,Crucial MX100 512GB SSD(OS), Crucial MX500 2TB SSD,2 WD 1.5TB Black Caviar, 4TB WD Red HD, Thermaltake thoughpower DPS G 1050 wattPSU,Lian-LI PC-011 Dynamic white, Iiyama 27" IPS skærm. Logitech Z213 højtalersæt, Win 10 pro 64 bit.

  • Cpu og gpu. Jeg har gentagne gange set et setup, hvor der begynder at mangle grafikkræfter, blive fint køreklar med at opdatere grafikkortet. Ja, så kan det godt ske, at cpu ikke er kraftig nok til at få max ud af kortet, men det er godt nok.
    Ved et nyt build er det selvfølgelig anderledes og de bør opvejes mod/med hinanden.
    Et gtx 780 vil vel altid performer bedre end et 750 ligemeget hvilken cpu der er produceret inden for de sidste 3-4 år og koster en 800 +

  • ressourceovervågning er næsten til at lukke op og skide i til det, som du gerne vil pointerer her Dnope. Den viser dig i hovedtræk på et øjebliksbillede hvordan systemet bliver belastet i hovedtræk.


    Problemet ligger lidt i at man ikke kan se nøjagtig hvordan belastningen ligger på de forskellige kerner i forhold til hinanden. Typisk vil kerne 1 ligge på 100%, kerne 2 95-80%, kerne 3 og 4 omkring de 60% og har du flere kerner så fiser resten bare husleje af, da de ligger nede omkring 20% udnyttelse, altså de kommer slet ikke i brug på nogen måde i 99% af alle de spil, som findes idag.


    Jeg vil næsten vædde på, at du ikke kan finde 5 spil idag, som udnytter over 4 kerner hvor belastningen ligger linieært på alle kerner, altså fra kerne 1 til 8 og hvor belastningen er ens på alle kerner eller bare tæt på.
    Typisk fiser kerne 7 og 8 husleje af med en udnyttelse omkring de 20%, så kan du spørge hvordan jeg så ved det, men jeg har et lille program på min desktop, som netop viser belastningen pr. kerne både i % og med en graf og det er uanset om man så bruger win 7 eller win 8/8.1, de to sidste kerner i mit tilfælde bliver slet ikke belastet undtagen jeg bruger videoredigering hvilket ikke har noget som helst med spil at gøre..


    I svaret til dig tidligere havde jeg skrevet hvordan kernerne ca. blev belastet. Jeg har ændret det nu, så det er skåret ud i pap - Nu kan man ikke misforstå hvordan belastningen ligger fordelt.


    Du kan se den enkelte kerne i windows 8.1(Jeg kan ikke huske hvordan ressourceovervågningen virker i windows 7/Vista/XP), og ja nogle kerner er mere belastet end andre, noget som jeg rent faktisk kikker på, hvad mener du med det du skriver? For du kan jo netop se den enkelte kerne i ressourceovervågningen, og det stemmer ikke over ens med det du skriver, sådan som jeg læser det.

  • Cpu og gpu. Jeg har gentagne gange set et setup, hvor der begynder at mangle grafikkræfter, blive fint køreklar med at opdatere grafikkortet. Ja, så kan det godt ske, at cpu ikke er kraftig nok til at få max ud af kortet, men det er godt nok.
    Ved et nyt build er det selvfølgelig anderledes og de bør opvejes mod/med hinanden.
    Et gtx 780 vil vel altid performer bedre end et 750 ligemeget hvilken cpu der er produceret inden for de sidste 3-4 år og koster en 800 +


    Men nu går Dnope jo og anbefaler en Athlon 5350, som koster ~400 kroner. Og den er altså virkelig elendig til gaming. Der får man mere ud af at opgradere CPUen end grafikkortet - med mindre grafikkortet da også er virkelig elendigt.


    Forskellen mellem en langsom CPU og et langsomt grafikkort er jo at med et langsomt grafikkort kan man løse problemer med ydelsen ved at skrue ned for grafikindstillingerne (eller i værste fald opløsningen); ydelsesproblemer med CPUen kan man sjældent gøre det store ved.

  • Et gtx 780 vil vel altid performer bedre end et 750 ligemeget hvilken cpu der er produceret inden for de sidste 3-4 år og koster en 800 +


    Til over 800kr., og som passer til en socket som er max. 2år gammel - Så vil det normalt give noget ekstra med et større grafikkort ja, men det betyder ikke at det vil give ret meget ekstra ydelse altid, det kommer meget andet på spillet, nogle spil fortrækker en AMD CPU, andre en Intel, og nogle et nvidia grafikkort, andre AMD - Lige som nogle hovedsageligt bruger CPU kraft, hvor andre bruger grafikkortet mest.


    Uanset hvad er det altid en fordel at CPU, og grafikkort passer nogenlunde sammen størrelses messigt i forhold til de spil man spiller, og den opløsning man spiller i - Læs evt. besked nr. 30




    mvh.

  • Forskellen mellem en langsom CPU og et langsomt grafikkort er jo at med et langsomt grafikkort kan man løse problemer med ydelsen ved at skrue ned for grafikindstillingerne (eller i værste fald opløsningen); ydelsesproblemer med CPUen kan man sjældent gøre det store ved.

    Det kan jeg i hvert fald skrive under på. Man kan f.eks. komme rigtigt langt med et HD4870 som jeg havde før, ved at skrue ned for grafikken hist og her. Dog var der intet at gøre med min Athlon x2 3600+. Hvis CPU'en ikke kunne følge med, så var der intet at gøre.

    CPU: i5-6600k @ 4.2GHz
    GPU: GTX 1060 6GB
    RAM: 16GB DDR4 HyperX
    MOBO: Asus Z170i Pro Gaming
    SSD: Samsung 750 Evo 500GB
    Kabinet: Mini ITX Sugo SG13

  • Det kan jeg i hvert fald skrive under på. Man kan f.eks. komme rigtigt langt med et HD4870 som jeg havde før, ved at skrue ned for grafikken hist og her. Dog var der intet at gøre med min Athlon x2 3600+. Hvis CPU'en ikke kunne følge med, så var der intet at gøre.


    Ja, der er selvfølgelig en grænse for hvornår det ikke går at kun skifte grafikkortet. Men at skrue lidt med hjælper rigtig meget og derefter et skift af gpu hjælper også i lang tid. Mit gamle 9800gtx holdt godtnok i mange år. Jeg ser ofte folk der har købt en rimelig cpu i deres første build, skifte hele systemet unødvendigt i jagten på højere framerate. Jeg forventer min 3570k holder i lang tid endnu, men nu skifter jeg heller ikke bare fordi der er kommet nye sockets.

  • Ja, der er selvfølgelig en grænse for hvornår det ikke går at kun skifte grafikkortet. Men at skrue lidt med hjælper rigtig meget og derefter et skift af gpu hjælper også i lang tid. Mit gamle 9800gtx holdt godtnok i mange år. Jeg ser ofte folk der har købt en rimelig cpu i deres første build, skifte hele systemet unødvendigt i jagten på højere framerate. Jeg forventer min 3570k holder i lang tid endnu, men nu skifter jeg heller ikke bare fordi der er kommet nye sockets.

    Ja det er jeg enig i.


    Har faktisk også været indehaver af et GeForce 9800 (GTS dog), GeForce 9600 GTS og ja - det kunne køre fremragende i et par år :D


    Jeg håber blot min nuværende CPU kan holde skansen det næste stykke tid. Det er nu alligevel ikke nogle særlig krævende spil jeg kaster mig over, hvilket også betyder et HD6870 er mere end rigeligt for mig lige for tiden.

    CPU: i5-6600k @ 4.2GHz
    GPU: GTX 1060 6GB
    RAM: 16GB DDR4 HyperX
    MOBO: Asus Z170i Pro Gaming
    SSD: Samsung 750 Evo 500GB
    Kabinet: Mini ITX Sugo SG13

    Rettet en gang, sidst af p3t3r ().