Artikeln beskriver en interaktiv demo för bildöversättning med pix2pix-tensorflow. pix2pix-modellen tränas på par av bilder, som byggnadsfasader till etiketter, för att generera motsvarande utdatabilder från givna indata. Flera demonstrationer presenteras, inklusive edges2cats, facades, edges2shoes (tränad på Zappos-bilder) och edges2handbags (tränad på Amazon-bilder), som visar modellens kapacitet och begränsningar. Implementationen av den interaktiva demon är gjord i javascript med Canvas API och använder deeplearn.js för att köra modellerna. Förtränade modeller, inklusive de som används i den interaktiva javascript-implementeringen, är tillgängliga på GitHub.