Google’s New LLM Runs on Just 0.5 GB RAM — Here’s How to Fine-Tune It Locally”

Google har lanserat en ny, liten AI-modell kallad Gemma 3 270m. Modellen är mycket resurssnål och kan köras lokalt med endast 0.5 GB RAM. Författaren experimenterade med att finjustera modellen lokalt för att förutsäga saknade drag i schackpartier. Experimentet utfördes helt offline utan användning av molnbaserade GPU:er. Verktyg som unsloth AI och Hugging Face Transformers användes för finjusteringen.