Sårbarheter i ChatGPT och dess tredjeparts-plugins, upptäckta av Salt Labs, kunde leda till läckage av användarkonversationer och privat innehåll, inklusive en "zero-click exploit" som gav tillgång till privata GitHub-repositorier. De huvudsakliga sårbarheterna berodde på felaktig implementering av OAuth-standarden, vilket kunde tillåta angripare att fånga upp eller missbruka OAuth-tokens för att komma åt användarkonton. En specifik sårbarhet i Pluginlab, som används av många ChatGPT-plugins, möjliggjorde åtkomst till GitHub-repos via "askthecode"-pluginet genom att manipulera användar-ID:n. Andra upptäckta sårbarheter krävde att offret klickade på en länk för att installera en skadlig plugin eller omdirigera OAuth-token till en angripare. Artikeln belyser de ökande säkerhetsriskerna inom det snabbt växande ekosystemet för generativ AI och vikten av noggrann granskning av tredjeparts-integrationer för att skydda känslig data.