Articles from April 30, 2024
7 articles
-
Implementing a Retrieval-Augmented Generation (RAG) System with OpenAI’s API using LangChain
Artikeln är en omfattande guide för att implementera ett Retrieval-Augmented Generation (RAG) system med OpenAI:s API och LangChain. Den beskriver ...
-
List of Different Ways to Run LLMs Locally | Dr. Walid Soula | ILLUMINATION
Artikeln beskriver olika metoder och verktyg för att köra stora språkmodeller (LLMs) lokalt på en dator. Författaren rekommenderar specifikt verkty...
-
Open-Source SORA Has Arrived! Training Your Own SORA Model!
Artikeln presenterar LATTE som en öppen källkodsmodell liknande Sora, som använder Vision Transformer-arkitekturen för text-till-video-generering. ...
-
Streaming with Faster-Whisper vs 🤗Insanely Fast Whisper
Artikeln jämför prestanda mellan Faster-Whisper och 🤗Insanely Fast Whisper, två optimerade implementeringar av OpenAI:s Whisper-v3. Författaren har...
-
The Local LLM Stack You Should Deploy: Ollama, Supabase, Langchain, and Nextjs
Artikeln utforskar dilemmat mellan att distribuera stora språkmodeller (LLM) lokalt eller i molnet, med hänsyn till faktorer som integritet, säkerh...
-
Thoughts on Apple Silicon Performance for Local LLMs
Artikeln utvärderar Apple Silicon, specifikt M2 Max och M2 Ultra, för lokal körning av stora språkmodeller (LLMs) och jämför prestandan med moderna...
-
Why Gemini 1.5 (and other large context models) are bullish for RAG
Introduktionen av Gemini 1.5 med dess 1 miljon token kontextfönster har väckt debatt om dess inverkan på Retrieval-Augmented Generation (RAG). Arti...