What can LLMs never do? - by Rohit Krishnan

Trots avancerade förmågor misslyckas stora språkmodeller (LLM) med till synes enkla uppgifter som att skapa ordrutnät, spela Sudoku eller Wordle. En betydande begränsning är "reversal curse", där modeller inte automatiskt generaliserar relationer (t.ex. från "A är B" till "B är A") även om informationen finns i träningsdata. LLM:er är probabilistiska modeller som utför enstaka inferenspass, vilket leder till "måldrift" och svårigheter med iterativa uppgifter då de inte dynamiskt kan hantera kontext eller selektivt fokusera uppmärksamhet. Problemet ligger i att LLM:er, som autoregressiva modeller, kämpar med uppgifter som kräver iterativ beräkning och dynamisk minneshantering bortom ett enda framåtpass, även med mycket stora modeller som GPT-4. Även om smart prompting (t.ex. Chain of Thought) och externa system kan förbättra prestanda, kvarstår utmaningen med sann generalisering bortom träningsdata och dynamiskt resonemang för nuvarande LLM-arkitekturer.