Google kan indexera sidor som är blockerade av robots.txt om de inte kan genomsöka sidan och därmed inte se noindex-taggen. John Mueller från Google förklarar att om Googlebot inte kan genomsöka en sida på grund av robots.txt, kan den inte läsa noindex-direktivet, vilket kan leda till indexering baserat på externa länkar. Det är oftast säkert att ignorera rapporter i Google Search Console om sidor som är "indexed, though blocked by robots.txt" eftersom genomsnittliga användare inte kommer att se dessa resultat. Att använda en noindex-tagg utan att blockera sidan via robots.txt är att föredra, då det tillåter Google att genomsöka och respektera noindex-direktivet. Sökoperatorn "site:" är inte pålitlig för diagnostiska ändamål eftersom den inte är kopplad till Googles primära sökindex.