Artikeln jämför oron för superintelligens och AI:s potentiella risker med de historiska farhågorna kring atomvapen och en eventuell kedjereaktion i atmosfären. Den belyser risken för en "runaway reaction" där maskininlärning snabbt överträffar mänsklig intelligens, vilket kan leda till oförutsägbara och farliga konsekvenser. Filosofen Nick Bostroms bok "superintelligence" nämns som en central källa för den alarmistiska synen på AI, som menar att en intelligensexplosion är både farlig och oundviklig. Flera framstående personer, inklusive Stephen Hawking och Elon Musk, tar hotet från superintelligens på allvar.