Forskare undersökte hur GPT-2 väljer mellan "a" och "an" trots att den bara förutsäger ett ord i taget. De identifierade en specifik MLP-neuron (neuron 892 i lager 31 av GPT-2 large) som är avgörande för att förutsäga token " an". Tekniker som Logit Lens och Activation Patching användes för att lokalisera och analysera denna neuron. Neuronens utgångsvikter visade en hög överensstämmelse (congruence) med " an"-tokenens inbäddning, vilket indikerar dess direkta bidrag till förutsägelsen. Artikeln föreslår att neuroners utgångs-congruence kan användas för att hitta andra tokenspecifika neuroner.