Vill du köra AI-modeller utan dyra GPU:er? I den här guiden visar vi hur du kan köra lätta LLM i Kubernetes lokalt – med CPU och ONNX Runtime. Perfekt för test, utveckling och prototypning, och en bra startpunkt innan du skalar upp i molnet med GCP eller AWS.