Ollama
technology- Sida skapad automatiskt som wiki-länk - TODO Fyll i med mer information
Referenced in (8)
-
From PDF to Markdown with Local LLMs — Fast, Private, and Free
Artikeln beskriver en metod för att konvertera PDF-filer, inklusive skannade dokument, till ren och strukturerad Mark...
-
Ollama-OCR: Now Available as a Python Package! - Anoop Maurya - Medium
Ollama-OCR är nu tillgängligt som ett Python-paket, vilket förenklar integrationen av avancerade OCR-funktioner i app...
-
How to Convert Any Text Into a Graph of Concepts - Towards Data Science
Artikeln presenterar en metod för att omvandla text till en "kunskapsgraf" (graph of concepts) med fokus på att förbä...
-
Tool support · Ollama Blog
Ollama har nu lanserat stöd för verktygsanrop (Tool calling) för populära modeller som llama 3.1, vilket möjliggör me...
-
How to use hugging face to fine-tune ollama's local model - Beginners - Hugging Face Forums
En användare upplever problem med att finjustera en lokal Ollama-modell, specifikt gemma:2b, på sin laptop. Felet inv...
-
Fine-Tune Smaller Transformer Models: Text Classification
Artikeln beskriver hur man finjusterar mindre transformer-modeller för textklassificering, med fokus på att bygga en ...
-
The Local LLM Stack You Should Deploy: Ollama, Supabase, Langchain, and Nextjs
Artikeln utforskar dilemmat mellan att distribuera stora språkmodeller (LLM) lokalt eller i molnet, med hänsyn till f...
-
List of Different Ways to Run LLMs Locally | Dr. Walid Soula | ILLUMINATION
Artikeln beskriver olika metoder och verktyg för att köra stora språkmodeller (LLMs) lokalt på en dator. Författaren ...