Ja bare skift rammerne eller sæt flere rammer i ,hvis du kan
Du vil nok ikke se forskel om de kører 2400 Mhz eller 2666 Mhz
Ja bare skift rammerne eller sæt flere rammer i ,hvis du kan
Du vil nok ikke se forskel om de kører 2400 Mhz eller 2666 Mhz
Ydelse skal måles pr. time og ikke pr. Watt ,,Med mindre at elregningen ikke er betalt der hjemme eller på din arbejdsplads
M1 mangler desuden SMT (hyperthread) eller CMT (AMD udgave af hyperthread )
og kan kun måle sig på single core ydelse ,og er derfor ikke hurtigere , end Intel og AMD til noget som helst ! hvis der er strøm i kontakten !
Jo...
Kort og godt .
Kan vi stole på at bilerne reagerer ens når vi trasker ud på kørebanen
Hvad er mon reglerne for sikkerhed og pålidelighed for fremstillere af autonome fartøjer.
Har lov skabere og offentligheden grund til at stole på sikkerhed og pålidelighed af de autonome køretøjer som testes på gader og veje allerede nu ?
Har de autoriserede stillingstagere (om de findes) kompetencer til at gennemskue
AI og program sikkerheden på de autonome fartøjer.. Eller overlades stillingtagen til sikkerheden udelukkende til fabrikanterne af de autonome enheder ,selv at kontrollere..
og Samtidigt forventes det så at brugere af autonome fartøjer samt øvrige trafikanter skal stole blindt på fabrikanterne .(Det er da aldrig gået godt !)
Her kan trafikstyrelsen så komme ind .Hvis fabrikanterne er villige til at rapportere til denne
om sikkerhed ,pålidelighed og evt .Mangel på samme..
men for at dette kan sig lade sig gøre vil det kræve en endnu ikke eksisterende lovgivning om standarter i programmel ,AI og open source ,som udviklere og fabrikanter typisk ikke vil have interesse i at dele
Kan dette så medføre at trafikstyrelsen vil modtage upålidelige indsendte rapporter omhandlende sikkerhed og pålidelighed ,som de mere eller mindre blindt vil agere ud fra..
Hvor meget vil organisationer presse på for at få autonome køretøjer på gaden snarest så de kan spare chauffør lønninger .Hvor meget vil :lad os sige Dansk Erhverv gøre for at andre traffikanter tager hensyn til autonome fartøjer frem for at de autonome køretøjer tilpasses øvrige trafikanter
Her et eksempel fra : Dansk Erhverv
(Man har haft udfordringer, når en person ikke overholder sin vigepligt ,men krydser direkte ud foran bilen ,der "naturligvis" bremser og giver plads. .Vælger andre personer så også at krydse ,når de ser den første at gå over .Så står vi lige pludselig med en lang kø af biler, der vil vokse så lang tid folk fortsætter med at krydse ud foran den forreste bil..
Hvis folk spekulerer i at bilerne er totalt bundet op af reglerne, så kan de give en masse uhensigtsmæssige situationer .der normalt ikke ville være opstået .hvis bilen var ført af en person ,Det bliver spændende at se hvordan det bliver løst udtaler "Christoffer Greenfort
Chefkonsulent for Dansk Erhverv ")
Tilsyneladende forventer Dansk Erhverv at hvis bilen er ført af En person ville denne ikke standse for en fodgænger eller ??
Eller forventer de at det autonome køretøj ikke skal holde tilbage ,når næste person krydser vejen ..For så vil jeg sandelig ikke håbe at Dansk Erhverv ,får indflydelse på hvornår autonome køretøjer må blive førerløse !!
Samtidig hvis folk ikke må spekulere i, om autonome køretøjer er bundet op af reglerne.
Så bliver det da virkeligt livsfarligt at færdes i trafikken, med autonome biler indenfor synsvidde
For at runde af kommer jeg tilbage til udgangspunktet ...
Om udviklere og fabrikanter Hver har deres eget regelsæt bestemt af bilmærket er det ud for deres betragtninger at bestemme: hvad som er sikkert ,eller burde der være en klar concensus ,For hvis ikke,...
Så vil det jo betyde at at alle andre som færdes i trafiken er bekendt med afvigelserne bilmærkerne imellem, hvilket vil betyde at folk tvunget bruger en masse tid på at tilpasse sig til de enkelte bilmærkers autonome fartøjer, i stedet for omvendt
Samtidig med at programmer til de autonome køretøjer vokser må det også antages ,at disse programmer bliver langt mere uoverskuelige og af denne grund alene ,kan skjule farlig og uhensigtsmæssig programkode (Hvis AI Får gentaget en løgn ofte nok bliver det til en sandhed)Der ud over kommer alt det som kan påvirke enhver computer
Hvad mener i ???
Hej
jeg har set i din manual, https://www.manualslib.com/pro…mus-Xi-Hero-10327332.html
kapitel 3.5 ,Beskriver 2 XMP opsætninger du kan bruge .
Asus anbefalet og opsætningen på din RAM label.
Har du kørende nogen OC allerede ( I Windows )
Så deaktiver denne først.
Hvis BIOS ikke bliver fuldendt ved opstart med den ene XMP opsætning
. Så prøv den anden .
Lykkes dette heller ikke .Har du nok en fejl på en af RAM blokkene..
om tilfældet .Så prøv at bytte om på dine RAM blokke (flyt RAM fra bank 1 til bank 2 og omvendt )eller sæt kun RAM i bank 1..
Så kan du være heldig ,at det kører
Kan ikke se dine billeder..
Din PSU er kraftig nok .
Så med mindre den har en fejl så...
du kan starte med at køre OCCT test (gratis V8.2.0)
Prøv dit grafikkort i en anden maskine .Du kan evt. presse det lidt med MSI afterburner .Hvis det kører der ,vil jeg rette opmærksomheden mod bundkortet.
Med mindre fejlen kun forekommer når du streamer.så må fejlen være streamlabs OBS.
Fjernet
Fjernet
Hører ikke til her under hardware
Er der ikke noget du kan bygge videre fra ,på den gamle computer ??
I stedet for at købe nyt, som du faktisk er utilfreds med allerede fra starten.
Jeg kan desværre kun finde den ene af modellerne hos proshop
8032803 og du skal købe operativsystem licens oven i
og som du selv skriver ...Kølingen og bundkort er noget skidt.
Jeg syntes du skal lede lidt mere ,hvis du vil købe en færdigbygget PC
Ja det vil jeg tro.
Du kan evt.sætte en lille 40-50 mm blæser på vrm .
Så burde du være kørende.
Kunne ikke lige finde andet(desværre)
Med mindre du skal dele en masse information med andre,som F.eks at stremae ud på nettet .Det være sig spil eller video..
bør du nok skifte til den højere download hastighed .
de 20 Mb upload er nok til spil, og de 200 Mb download er langt bedre end de 80 Mb ..Især hvis flere deles om internet forbindelsen
Da chip udviklingen får en 2 årig cyklus .Med halvdelen af tiden rettet mod X86 platformen . Regner jeg med at teknologien også når ud på denne, og at de så vil
konkurrere med AMD & Intel .
Mon ikke SLI / NVlink kommer tilbage ??
Grace, Nvidia’s first CPU, is perhaps unsurprisingly Arm-based, with tons of bandwidth to accompany GPUs in large-scale AI and HPC applications.
Nvidia has officially entered the CPU market with Grace, a data center CPU which is designed to accompany GPUs in at-scale AI and high performance computing (HPC) markets.
Nvidia Grace CPU
Nvidia’s Grace CPU (on left of the board) is designed to sit alongside GPU accelerators in data centers and supercomputers (Source: Nvidia)
“Today, we’re introducing a new kind of computer, the basic building block of the modern data center,” said Jensen Huang, Nvidia’s CEO in his keynote speech at the company’s GPU Technology Conference (GTC). Grace “brings together the latest GPU accelerated computing, Mellanox high-performance networking, and something brand new: the final piece of the puzzle.”
Huge natural language processing (NLP) AI models such as GPT-3 are hungry for compute and growing model size and complexity is helping drive demand for ever more powerful AI computers in the data center and cloud.
GPUs are designed for fast compute with high memory bandwidth, but the CPU in between memory and the GPUs is often the bottleneck in moving data into the GPUs. In his GTC keynote speech, Huang described a training system designed for AI models so large that they cannot fit into the GPU’s memory. A typical system, he said, might have four GPUs with a total of 80 GB of super-fast memory running at 2 TB/s each. Beside the GPUs is a CPU with a 1-TB memory running at only 0.2 TB/s. The CPU memory is three times larger, but 40 times slower than the GPU.
Nvidia Grace CPU
A typical data center system, bound by the bandwidth between the CPU and GPUs (Source: Nvidia)
With faster CPU memories and dedicated channels between the CPU and each GPU, the situation improves, but PCIe becomes the bottleneck. NVLink, designed as a fast GPU-GPU interconnect, could be used, but there are no x86 CPUs that have NVLink, let alone four NVLink channels.
Enter Grace, Nvidia’s purpose-built CPU named after US computing pioneer Grace Hopper. It’s designed for accelerated computing applications at large scale in data center and HPC applications, with four next-generation NVLink channels providing extremely fast interconnect — 900 GB/s bi-directional bandwidth. This can optimize data movement and simplify programming by providing a single large address space. Grace is also cache coherent to simplify programmability.
Nvidia Grace CPU
Nvidia’s proposed architecture vastly improves bandwidth between LPDDR5x memory and GPU accelerators (Source: Nvidia)
Grace uses LPDDR5x memory technology, which offers twice the bandwidth of DDR4 at 10X the energy efficiency. LPDDR5x is already popular in the mobile world, but Nvidia has been working with its partners to support server-class reliability through mechanisms like ECC and redundancy to make memory products suitable for the data center.
The result is systems able to train trillion-parameter AI models that currently take months in just a few days, 10X faster than today’s best architectures. There is also the possibility of making real-time inference possible for systems as large as these, opening up a raft of exciting applications.
Armed and ready
Grace is based on an as-yet unreleased Arm Neoverse core, with each Grace CPU delivering 300 SPECint for a total of more than 2400 SPECint rates for an eight-GPU DGX system.
“Grace highlights the beauty of Arm,” said Huang. “Their IP model allows us to create the optimal CPU for this application, which achieves X-Factor speed up.”
Nvidia announced six months ago that it intends to acquire Arm, but Grace would have been in the works for a long time prior to that decision. The Arm architecture has been gaining ground in the data center over the last few years, where the cores offer energy efficiency and allow for denser racks. Nvidia already uses Arm CPU cores in its Bluefield DPUs.
“Arm is the most popular CPU in the world, for good reason — it’s super energy-efficient and its open licensing model inspires a world of innovators to create products around it,” Huang said. “Arm is used broadly in mobile and embedded today. For other markets like the cloud, enterprise and edge data centers, supercomputing and PCs, Arm is just starting and has great growth opportunities. Each market has different applications and has unique systems, software, peripherals, and ecosystems. For the markets we serve, we can accelerate Arm’s adoption.”
Nvidia’s primary competition in the data center CPU market is Intel, with AMD following behind. All three companies have been building out their computing platforms to prepare for the age of heterogeneous compute. Intel has the most complete portfolio, and AMD is set to acquire Xilinx imminently; with the Grace CPU launch Nvidia is edging closer to the complete platform. However, Huang stressed that Nvidia architectures and platforms will support x86 and Arm, “whatever customers and markets prefer.”
Huang said Nvidia’s data center roadmap was now centered on three silicon lines: CPU, GPU and DPU (data processing unit, Nvidia’s Arm-based NIC chip).
“Each chip architecture has a two year rhythm, with likely a kicker in between,” Huang said. “One year, we’ll focus on x86 platforms, one year we’ll focus on arm platforms. Every year, we’ll see new exciting products from us.”
Nvidia Grace CPU
Nvidia’s product cadence over the next few years, including CPUs, GPUs and DPUs (Source: Nvidia)
Supercomputing with Grace
Nvidia’s first customer for Grace is CSCS, the Swiss National Supercomputing Center. Grace will power CSCS’s brand new supercomputer, ALPS, which will be the world’s fastest AI supercomputer at 20 exaflops (7x faster than Nvidia’s Selene). Alongside Grace, ALPS will use a not-yet-announced Nvidia GPU. It will be used to advance research in climate and weather, material sciences, molecular dynamics, as well as domains like economics and social sciences. Alps will built by HP enterprise and come online in 2023.
Huang also used his keynote to announce a couple of interesting partnerships.
Nvidia will collaborate with AWS on cloud instances that combine AWS’ Graviton 2 Arm-based AI accelerator together with Nvidia GPUs for AI and cloud gaming. Calling Graviton CPUs “extremely impressive,” Huang pointed out that mobile gaming is growing fast and is the primary form of gaming in some markets today. The new Nvidia-AWS instances will allow users to stream Arm-based applications and Android games straight from AWS. They are expected later this year.
Another key partnership is with Ampere, a startup building Arm-based CPUs for data center and cloud applications. This partnership will create scientific and cloud computing SDKs and reference systems.
Kilde EE Times
MVH Palle
Køb ATX bundkort .Det er både billigere og bedre !
Lad ikke fruentimmeren bestemme størrelsen af din PC kasse..
Det er nok i din BIOS
Power / Wake on : Keyboard ,Mouse eller LAN
vil jeg tro