Artikeln återbesöker historien om SEO, med fokus på indexering och sökordsrankningstekniker från 20 år tillbaka och jämför dem med dagens metoder. Den förklarar utvecklingen från rent sökordsbaserad rankning med modeller som Boolean, Probabilistic och Vector Space Model, där den sistnämnda blev mest relevant för sökmotorer. Författaren avfärdar myter som 'keyword density' och klargör grundläggande begrepp som 'keyword' och 'query' för marknadsförare. Artikeln drar paralleller mellan tidig sökmotorindexering och biblioteksvetenskap, med referens till 'the little old lady in the library'-konceptet, men belyser webbens brist på en enhetlig struktur. Den skiljer mellan mänsklig läsning och maskinell läsning (text mining kontra strukturerad data) och betonar vikten av strukturerad data, kopplat till konceptet 'man, a machine' och Zipf's Law.