Hacker plants false memories in ChatGPT to steal user data in perpetuity - Ars Technica

Säkerhetsforskaren Johann Rehberger upptäckte en sårbarhet i ChatGPT:s långtidsminne som tillät angripare att plantera falsk information och skadliga instruktioner. Sårbarheten utnyttjade indirekt promptinjektion för att lagra falska minnen, vilket kunde lura ChatGPT att tro på felaktiga användardetaljer och styra framtida konversationer. Rehberger utvecklade ett proof-of-concept som visade hur all användarinmatning kunde exfiltreras kontinuerligt från ChatGPT-appen för macOS. OpenAI avfärdade initialt rapporten men implementerade en delvis fix efter demonstrationen av sårbarheten. Trots fixen kan obetroddt innehåll fortfarande plantera falska minnen, och användare uppmanas att granska sina lagrade minnen.