Text-till-bild-generatorer som Stable Diffusion förstärker skadliga stereotyper (rasistiska, misogyna, etc.) på grund av fördomar i deras träningsdata. Forskare, inklusive Sasha Luccioni och team från Stanford, Columbia och University of Washington, har undersökt dessa fördomar och funnit dem svåra att förutsäga och mildra. Försök till mildring, som 'guardrails' eller noggrann promptskrivning, har visat sig vara ineffektiva för att helt åtgärda de inbäddade stereotyperna i modeller som DALL-E och Stable Diffusion. Forskare varnar för att använda dessa modeller i applikationer med verkliga konsekvenser och uppmanar till en kritisk syn på deras effekter, särskilt med tanke på branschens fokus på snabbhet framför att åtgärda samhälleliga skador.