Google lanserade BERT-uppdateringen i oktober 2019, en maskininlärningsmodell avsedd att förbättra förståelsen av sökfrågor och innehåll genom att tolka ords betydelse i sitt sammanhang. BERT bygger på dubbelriktad förträning med en "transformer attention"-mekanism, vilket möjliggör en djupare kontextuell förståelse jämfört med tidigare enkelriktade modeller. Utvecklingen inom AI och naturlig språkförståelse, driven av BERT och liknande modeller från företag som Baidu, Facebook och Microsoft, har sett betydande framsteg under de senaste åren. Google har nyligen meddelat en massiv utökning av BERT:s användning till nästan alla engelska sökfrågor och introducerar "Passage Indexing", en teknik som rankar och visar specifika passager från webbsidor. "Passage Indexing" förväntas förbättra 7% av alla sökfrågor globalt genom att mer effektivt identifiera och presentera den mest relevanta informationen, även om den är djupt begravd på en sida.