top of page
Artiklar
Tech insights från it-experter inom branschen


Så kör du en egen AI-gateway på Kubernetes för self-hosted LLM:er
Så sätter du upp en egen AI-gateway på Kubernetes och kör LLM:er i din egen infrastruktur. Steg för steg med llama.cpp, OpenAI-kompatibelt API och exempel för produktion.
för 6 dagar sedan11 min läsning


SDNit blir AWS Advanced Tier Partner
SDNit blir nu AWS Advanced Tier Partner vilket vi tycker är otroligt kul! Ett kvitto på vår tekniska kompetens och leveransförmåga inom AWS. För våra kunder innebär det lägre risk, snabbare resultat och bättre stöd i molnresan.
30 jan.2 min läsning


SDNit utses till lanseringspartner för AWS European Sovereign Cloud
SDNit har blivit utvald som lanseringspartner för AWS European Sovereign Cloud och tar en aktiv roll i lanseringen av AWS nya molnmiljö i Europa.
19 dec. 20252 min läsning


Säker och skalbar AI med Kubernetes – där DevOps möter SecOps
AI är inte längre experiment – det är drift. Upptäck hur du bygger en säker och skalbar AI-infrastruktur i Kubernetes, där DevOps möter SecOps.
30 okt. 20253 min läsning


3 sätt att ta dina MLOps-modeller hela vägen till produktion
De flesta ML-projekt fastnar innan de når produktion. Här delar vi tre konkreta sätt att lyckas med MLOps – och få dina modeller att börja leverera på riktigt.
7 okt. 20252 min läsning


Så byggde våra DevOps-konsulter en skalbar lösning för övervakning av Mist-switchar
Trött på att famla i mörkret när det gäller nätverksdrift? Det var vi också. Därför byggde våra DevOps-konsulter en lösning för...
25 sep. 20253 min läsning


Från labb till verklighet – därför är MLOps avgörande för att lyckas
Många ML-projekt fastnar i labbet och når aldrig produktion. Här förklarar vi varför – och hur en genomtänkt MLOps-pipeline löser problemen. Lär dig hur vi kan sätta upp en produktionsklar lösning på bara 3–4 veckor.
22 sep. 20252 min läsning


AI i Kubernetes – så kommer du igång utan dyra GPU:er
Vill du köra AI-modeller utan dyra GPU:er? I den här guiden visar vi hur du kan köra lätta LLM i Kubernetes lokalt – med CPU och ONNX Runtime. Perfekt för test, utveckling och prototypning, och en bra startpunkt innan du skalar upp i molnet med GCP eller AWS.
21 aug. 20253 min läsning
bottom of page
