How to use hugging face to fine-tune ollama's local model - Beginners - Hugging Face Forums

En användare upplever problem med att finjustera en lokal Ollama-modell, specifikt gemma:2b, på sin laptop. Felet involverar att systemet inte hittar nödvändiga filer (t.ex. GGUF-filer och konfigurationsfiler) under Ollamas modellkataloger, vilket leder till OSError vid laddning av vikter. Frågan ställs om Ollama endast fungerar som en proxy och om modellfiler måste laddas ner direkt från Hugging Face. Andra användare rapporterar liknande problem med llama3 i VSCode och undrar om tokenizer-filer behöver laddas ner separat från Hugging Face. Trots att den ursprungliga användaren kort nämnde att de hittat en lösning, indikerar senare kommentarer att problemet kvarstår för andra.