TILLBAKA TILL TERMINAL

HARDWARE TERMINAL

BYGG DIN EGNA AI-DATOR - KÖR LLMs LOKALT

AMD ROCm OPTIMERAT

🚀 Kör AI-modeller lokalt på din egen GPU

Med AgentFarm och rätt hårdvara kan du köra LLaMA, Qwen, Mistral och andra open source-modeller helt privat - utan molntjänster eller månadsavgifter.

🔒 100% privat - ingen data lämnar din dator
💰 Inga API-avgifter
Snabb inference - 50+ tokens/sek

⚡ MIN STACK

Hårdvaran som driver AgentFarm

16GB VRAM

AMD Radeon RX 7800 XT

16GB GDDR6 · ROCm 6.x · Ollama inference

Köp på Amazon.se →
16 CORES

AMD Ryzen 9 7950X

16 kärnor · 32 trådar · 5.7GHz boost

Köp på Amazon.se →
64GB

Corsair Vengeance DDR5 64GB

2x32GB · DDR5-5600 · CL36

Köp på Amazon.se →
LADDAR PRODUKTER

🎯 VARFÖR AMD FÖR AI/ML?

🔧 ROCm 6.x SUPPORT

Full PyTorch och TensorFlow-kompatibilitet via ROCm. Kör lokala LLMs utan CUDA-beroende - helt open source.

💾 VRAM ÄR NYCKELN

24GB VRAM på 7900 XTX klarar 70B-modeller med kvantisering. 16GB på 7800 XT räcker för de flesta 7B-13B modeller.

🐧 UBUNTU 22.04 LTS

ROCm fungerar bäst på Ubuntu 22.04 LTS. Vi kör AgentFarm på exakt denna setup - testat och verifierat.

💰 MER VRAM PER KRONA

AMD-kort ger ofta mer VRAM per krona jämfört med NVIDIA. Perfekt för hobbyprojekt, startups och privatpersoner.