Artikeln utvärderar Apple Silicon, specifikt M2 Max och M2 Ultra, för lokal körning av stora språkmodeller (LLMs) och jämför prestandan med moderna PC-system med NVIDIA GPU:er. För icke-batchad LLM-inferens, som token-generering, drar Apple Silicon nytta av sin höga minnesbandbredd och enhetliga minne, vilket kan matcha eller överträffa NVIDIA 4090 trots lägre VRAM-hastighet. NVIDIA GPU:er är dock överlägsna för batchad databearbetning och LLM-träning, där antalet GPU:er och deras snabbhet är viktigare. Författaren identifierar svag säkerhet för GPU-användning i virtuella maskiner/containers på Apple Silicon och NVIDIA CUDA:s dominans som de största nackdelarna. Slutsatsen är att Apple Silicon är ett starkt alternativ för lokal LLM-inferens, särskilt för modeller som kräver mycket minne, men har begränsningar inom säkerhet och ekosystemstöd jämfört med NVIDIA/CUDA.