Artikeln utforskar dilemmat mellan att distribuera stora språkmodeller (LLM) lokalt eller i molnet, med hänsyn till faktorer som integritet, säkerhet, skalbarhet och kostnadseffektivitet. Lokala distributioner föredras för experiment, prototyper samt av företag med strikta krav på dataskydd och reglering. Molnlösningar framhålls för deras snabbhet och skalbarhet, där Microsofts framgång med Azure OpenAI service och dess kundtillväxt nämns som ett exempel. Författaren planerar att i artikeln guida läsaren genom hur man sätter upp en lokal LLM-stack med hjälp av verktyg som Ollama (Llama v2), Supabase pgvector, Langchain.js och Nextjs.