Artikeln analyserar hur stora språkmodeller (LLM) som ChatGPT och Llama 3.1 interagerar med meningslösa konversationer, då de saknar mänsklig förmåga att avgöra en diskussions relevans. Ett experiment genomfördes där en Llama 3.1 LLM kördes lokalt och testades mot fyra enklare textgenereringsbotar. En bot som upprepade samma fråga ("cheese bot") fick LLM:en att snabbt anpassa sig med triviala och slutligen tomma svar. En bot som matade LLM:en med slumpmässiga fragment från Star Trek-manus ("trek bot") lyckades hålla LLM:en engagerad i 1000 unika men för människor osammanhängande svar. En tredje bot som genererar slumpmässiga frågor introduceras för att variera input ytterligare.