Indlæg af Sakkura


    Nej, den test jeg har fundet fra Tom's Hardware tester også med RAM op til DDR3-1866 CL8. Dvs. et godt stykke over normalen, som vel er DDR3-1600 CL9 i øjeblikket.


    BF3 vil ikke køre godt med en APU, i hvert fald ikke en gammel A6er. Læg mærke til opløsningen:


    [Blocked Image: http://i.imgur.com/qfIjwGu.png]


    Mht. mig og AMD, så er det da underligt at jeg har et grafikkort fra AMD hvis jeg har så meget imod dem. Og så ville det da klæde dig at gå efter bolden i stedet for manden.


    At du begynder at vise hvad APUen kan med et HD6850 er ret irrelevant. Læg snarere mærke til hvordan selv en overclocket A8-3850 roder rundt med gennemsnitlig FPS et pænt stykke under 30.

    Modern Warfare 3 er et console port med forældet grafik for 2011 (endsige 2013). Så hellere Crysis 1 - som dine tal bekræfter er mere krævende.


    Der findes langt mere krævende spil fra 2011 eller for den sags skyld 2010. Eksempelvis skal man ikke regne med mere end 20-25 FPS selv med en Trinity-baseret A8 eller A10 i Metro 2033, som er fra 2010. Okay, noget overclocking og væk med AA, så kan det være de kan klare det. Men en Llano-baseret A6?


    [Blocked Image: http://i.imgur.com/ti84e5M.jpg]

    Sakkura skriver : Den er sku da ikke god til tunge spil.


    Det passer ikke. Jeg skriver at den ikke er en god ide, for man vil være nødt til at køre ved lave settings og lav opløsning.



    Og nu havde Sakkura tidligere givet udtryk for at han mente AMD laver dårlige CPU'er, og de laver skam udenmærket CPU'er, lige som Intel gør. En AMD yder fuldt ud lige så godt til prisen, som en Intel gør. Derfor var jeg ekstra hård ved Sakkura, da jeg naturligt antog at han ville skrive noget ...... alligevel bagefter, og det kan nå at komme endnu


    Det passer heller ikke. AMD laver gode processorer, der er bedre end Intels processorer til visse opgaver og dårligere til andre opgaver. Lige præcis Zambezi (Bulldozer) var noget af en skuffelse. Llano er okay, vel faktisk meget mere end okay når man ser på prisen.



    Crysis 1 er snart 6 år gammelt. Det er ikke længere et krævende spil. Og alligevel kører det kun lige med nød og næppe 30 FPS overclocket, ved en opløsning som langt de færreste anvender i dag.

    Den er super, men den koster så også 300 kroner mere.
    De er i øvrigt begge to produceret af Seasonic.


    En 250 GB Samsung 840 er en fin SSD til en ret fantastisk pris. En 256 GB Samsung 840 Pro er den hurtigste på markedet, men koster så en 4-500 kroner mere.

    Ivy Bridge-processorer (såsom Core i5-3570 eller Core i7-3770) understøtter officielt kun op til 1,5V. Så med 1,65V kører memory controlleren overvoltet, så det er lidt i stil med overclocking (bare uden at få en hurtigere computer af det).

    Et sidste spørgsmål (so far) :D: Hvad er forskellen på disse 2
    http://www.edbpriser.dk/grafik…id-6802650.aspx?q=HD+7850
    http://www.edbpriser.dk/grafik…id-6874051.aspx?q=HD+7850


    Fabrikanten er jo anderledes, men kortene kan vel det samme? dog kan jeg se en forskel på "4096 x 2160" & 4096 x 3112" Hvilket må være størrelserne?


    De har forskellige kølere og forskellige skærmstik. Det med 4096 x 2160 osv. er den opløsning de forskellige stik maksimalt kan håndtere. Men det er bare de generelle begrænsninger der er for hhv. DVI, HDMI og Displayport.

    Hvis han ikke skal overclocke kan man evt. spare lidt på bundkortet, da der ikke er brug for Z77.


    En Core i5-3570 er stort set lige så god i spil som en Core i7-3770, så der kunne man også spare nogle penge.


    Jeg ville vælge RAM der kører ved 1,5V i stedet for 1,65V.


    Strømforsyningen behøver ikke være 650W. 550W ville være fint til det system. Eksempelvis en Corsair TX550M.


    2 GB på grafikkortet burde være nok ved 1080p. Men ellers kan man jo tage et Radeon HD 7970, det har 3 GB som standard.


    Personligt ville jeg så bruge nogle af de sparede penge på et lidt federe kabinet. Men man kan sagtens leve med et Elite 430.


    Nå ja, og husk der følger SATA-kabler med bundkortet.

    AMD slog i hvert fald for nylig fast at de kører videre med deres nuværende serie til i hvert fald fjerde kvartal 2013. Nvidia har gået lidt mere stille med dørene, men mon ikke der også går et pænt stykke tid før deres næste serie udkommer? Ellers virker timingen af GTX Titan også mærkelig.