Information literacy and chatbots as search

Artikeln argumenterar starkt emot användningen av stora språkmodeller (LLM) och chattbotar som ersättning för traditionell informationssökning, då de anses vara olämpliga för tillgång till information. Huvudargumentet är att LLM:er endast är statistiska modeller som genererar trovärdiga ordsekvenser, vilket gör att korrekt information från dem är slumpmässig och kan vara farligare om den är "rätt" 95% av gångerna på grund av ökat förtroende. Användning av chattbotar förhindrar utvecklingen av informationskompetens genom att ta bort användarens förmåga att tolka, förfina frågor och utvärdera källor, vilket är avgörande för att förstå informationslandskapet. Artikeln bemöter vanliga motargument som Retrieval Augmented Generation (RAG), LLM:ers effektivitet för kod, och att traditionella sökmotorer också har brister, men betonar att dessa inte löser de grundläggande problemen med chattbotar för informationssökning. Författaren uppmanar till högre krav på källhänvisning och transparens, och varnar för att acceptera "AI-slop" som information, samt lyfter fram de miljömässiga och sociala konsekvenserna av dessa system.