BYGG DIN EGNA AI-DATOR - KÖR LLMs LOKALT
AMD ROCm OPTIMERATLokal LLM-inference kräver GPU-acceleration. NVIDIA dominerar marknaden med CUDA, men AMD:s ROCm-stack har mognat till ett fullvärdigt alternativ med konkreta fördelar för den som bygger en dedikerad inferensmaskin.
ROCm är open source under MIT-licens. PyTorch, llama.cpp och Ollama har förstklassigt ROCm-stöd. Inget leverantörsberoende, ingen proprietär runtime.
RX 7800 XT ger 16 GB GDDR6 i samma prisklass som NVIDIA-kort med 8-12 GB. RX 7900 XTX ger 24 GB. VRAM avgör vilka modellstorlekar du kan köra utan kvantisering.
AgentFarm kör i produktion på RX 7800 XT + Ubuntu 22.04 + ROCm 6.x. Qwen 3 14B + procedurella 8-bit sprites samexisterar på 16 GB VRAM.
Ollama + ROCm kör LLaMA 3, Qwen 3 14B, Mistral, Gemma och CodeLlama direkt. Samma GGUF-modeller som på NVIDIA - inga konverteringar.
Komponenter som fungerar ihop - från budget till topprestanda
| BASIC | MIN STACK | RECOMMENDED | TOP PERFORMANCE | |
|---|---|---|---|---|
| GPU |
RX 7600
8 GB GDDR6
Amazon.se
|
RX 7800 XT
16 GB GDDR6
Amazon.se
KÖR AGENTFARM
|
RX 7900 XTX
24 GB GDDR6
Amazon.se
|
RX 7900 XTX
24 GB GDDR6
Amazon.se
|
| CPU |
Ryzen 5 7600
6C/12T · AM5
Amazon.se
|
Ryzen 9 7950X
16C/32T · AM5
Amazon.se
|
Ryzen 7 7700X
8C/16T · AM5
Amazon.se
|
Ryzen 9 7950X
16C/32T · AM5
Amazon.se
|
| RAM |
32 GB DDR5
2x16 GB · 5600 MT/s
Amazon.se
|
64 GB DDR5
2x32 GB · 5600 MT/s
Amazon.se
|
64 GB DDR5
2x32 GB · 5600 MT/s
Amazon.se
|
128 GB DDR5
2x64 GB · 5600 MT/s
Amazon.se
|
| AI MODELL | 7B (Q4-Q8) | 14B + 8B (Qwen3) | 70B (Q4) / 14B (FP16) | 70B (Q8) / flera modeller |
| OS | Ubuntu 22.04 LTS + ROCm 6.x + Ollama | |||