TILLBAKA TILL TERMINAL

HARDWARE TERMINAL

BYGG DIN EGNA AI-DATOR - KÖR LLMs LOKALT

AMD ROCm OPTIMERAT

VARFÖR AMD OCH ROCm FÖR LOKAL AI-INFERENCE

Lokal LLM-inference kräver GPU-acceleration. NVIDIA dominerar marknaden med CUDA, men AMD:s ROCm-stack har mognat till ett fullvärdigt alternativ med konkreta fördelar för den som bygger en dedikerad inferensmaskin.

ÖPPEN MJUKVARUSTACK

ROCm är open source under MIT-licens. PyTorch, llama.cpp och Ollama har förstklassigt ROCm-stöd. Inget leverantörsberoende, ingen proprietär runtime.

VRAM PER KRONA

RX 7800 XT ger 16 GB GDDR6 i samma prisklass som NVIDIA-kort med 8-12 GB. RX 7900 XTX ger 24 GB. VRAM avgör vilka modellstorlekar du kan köra utan kvantisering.

TESTAD PIPELINE

AgentFarm kör i produktion på RX 7800 XT + Ubuntu 22.04 + ROCm 6.x. Qwen 3 14B + procedurella 8-bit sprites samexisterar på 16 GB VRAM.

MODELLEKOSYSTEM

Ollama + ROCm kör LLaMA 3, Qwen 3 14B, Mistral, Gemma och CodeLlama direkt. Samma GGUF-modeller som på NVIDIA - inga konverteringar.

AgentFarm Space Station

PAKETLÖSNINGAR

Komponenter som fungerar ihop - från budget till topprestanda

BASIC MIN STACK RECOMMENDED TOP PERFORMANCE
GPU
RX 7600
8 GB GDDR6
Amazon.se
RX 7800 XT
16 GB GDDR6
Amazon.se
KÖR AGENTFARM
RX 7900 XTX
24 GB GDDR6
Amazon.se
RX 7900 XTX
24 GB GDDR6
Amazon.se
CPU
Ryzen 5 7600
6C/12T · AM5
Amazon.se
Ryzen 9 7950X
16C/32T · AM5
Amazon.se
Ryzen 7 7700X
8C/16T · AM5
Amazon.se
Ryzen 9 7950X
16C/32T · AM5
Amazon.se
RAM
32 GB DDR5
2x16 GB · 5600 MT/s
Amazon.se
64 GB DDR5
2x32 GB · 5600 MT/s
Amazon.se
64 GB DDR5
2x32 GB · 5600 MT/s
Amazon.se
128 GB DDR5
2x64 GB · 5600 MT/s
Amazon.se
AI MODELL 7B (Q4-Q8) 14B + 8B (Qwen3) 70B (Q4) / 14B (FP16) 70B (Q8) / flera modeller
OS Ubuntu 22.04 LTS + ROCm 6.x + Ollama