Författaren har byggt ett RAG-system (Retrieval Augmented Generation) för en statlig enhet och använt A/B-testning med RAGAS-mått för att utvärdera olika hämtningsmetoder. Hybridhämtning (semantisk + vektor) med LLM-baserad omrankning visade ingen signifikant förbättring med syntetiska utvärderingsfrågor, medan HyDE försämrade kvaliteten avsevärt. Semantisk sökning från Azure AI Search ansågs tillräcklig tillsammans med vektorsimilaritet. Viktiga lärdomar inkluderar vikten av att använda en baslinje och experiment, samt att utvärdera med tre typer av frågor: expertformulerade, verkliga användarfrågor och syntetiska frågor. Artikeln nämner framtida tekniker att utforska, såsom Raptor, SelfRAG, Agentic RAG, förfining av frågor och GraphRAG, och beskriver några av dem. Den diskuterar också dessa tekniker som 'ramverk' ovanpå den underliggande RAG-tekniken, jämförbart med 'chain of thought' inom prompt engineering eller MVC inom webbutveckling.