Artikeln utforskar hur BERT kan användas för att bedöma innehållskvalitet, med fokus på grammatisk korrekthet, snarare än att direkt förstå kvalitet som människor. Den refererar till diskussioner med John Muller om Googles användning av BERT för att förstå innehåll och upptäcka keyword stuffing. Författaren föreslår en metod för att använda en BERT-modell, finjusterad med CoLA-datasetet, för att identifiera grammatiskt inkorrekta meningar som en indikator på innehållskvalitet. En förenklad implementering presenteras med hjälp av Ludwig, Ubers verktyg för djupinlärning, och en Google Colab-notebook för att göra processen tillgänglig för icke-experter. Processen innefattar att extrahera text från webbsidor, dela upp den i meningar och sedan använda den tränade modellen för att förutsäga grammatisk korrekthet.