DALL-E: minaccia o asso nella manica per i graphic designer?

12 Ottobre 2022
Posted in Digital
12 Ottobre 2022 Sottosopra Comunicazione

DALL-E: minaccia o asso nella manica per i graphic designer?

Ma soprattutto: sarà finalmente in grado di produrre loghi in word come i clienti ci chiedono da decenni?

In caso ci fosse ancora qualche dubbio, le macchine hanno preso il sopravvento. Negli ultimi anni, con la comparsa di nuove intelligenze artificiali che generano testi di senso compiuto e immagini grafiche sempre più dettagliate, persino il lavoro creativo sembra non essere più al sicuro.

DALL-E è stato il primo algoritmo di intelligenza artificiale capace di generare immagini a partire da descrizioni testuali. Creato da OpenAI a San Francisco nel gennaio 2021, il suo nome è una combo tra quello dell’artista surrealista Salvador Dali e il robottino spazzino WALL-E, protagonista del film Pixar. Ma Salvador si starà rivoltando nella tomba oppure sarebbe entusiasta di questa tecnologia e la userebbe per creare opere ancora più surrealiste? Le macchine sono buone, cattive o intrinsecamente neutre? Noi grafiche e copy avremo ancora un lavoro o è finalmente arrivato il momento di intraprendere un percorso professionale comprensibile ai nostri genitori ed andare a zappare la terra? Le domande sono molte e la posta in gioco alta. Andiamo a indagare la questione più nel dettaglio.

A stretto giro dopo il lancio di DALL-E sono comparsi i concorrenti, ognuno con le sue peculiarità. Midjourney ha optato per uno stile predefinito, che tende a produrre scenari “fantasiosi, surreali, sublimi e stravaganti”. DALL-E 2 favorisce il fotorealismo, mentre Stable Diffusion è il cattivo della cricca, senza filtri e quindi pieno di contenuti NSFW. Persino TikTok ormai ha un filtro greenscreen che autogenera immagini.

Come per le altre forme di intelligenza artificiale, DALL-E e compari sollevano domande esistenziali ed etiche su immagini, arte e realtà. Chi è l’artista delle creazioni, DALL-E o il suo programmatore umano? Cosa succede quando si produco immagini false ma verosimili ad uso di un pubblico già estenuato dalla lotta quotidiana tra realtà e fake news? DALL-E avrà mai coscienza di sé? Se sì, come faremo a scoprirlo? Sembra Matrix. A proposito, se volete vedere il deepfake di Keanu Reeves fare cose buffe, eccolo qui nel suo account TikTok. (Bellino, ma @deeptomcruise è estremamente più realistico nella sua eterna giovinezza.)

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose – Kenny Loggins

Le AI di grafica sono cattive

I deepfake ci traghettano subito nell’ade delle AI grafiche. Per quanto la punta dell’iceberg siano i simpatici video di Keanu e Tom, la maggior parte dei deepfake sono a sfondo sessuale, spesso a spese di ignare celebrity di sesso femminile. In un rapporto del 2020 Sensity, un’azienda che monitora la circolazione di deepfake, stimava il numero di deepfake in circolazione attorno ai 49.000, di cui oltre il 95% porno, spesso con donne famose protagoniste a loro insaputa.

Il problema dei software con pochi filtri e controlli, come il già citato Stable Diffusion, è che gli utenti possono usarli per generare immagini fotorealistiche di proteste, immagini pedopornografiche, finte prove di fake news e disinformazione in generale.

Se DALL-E e Midjourney hanno implementato filtri rigorosi per bannare materiale pornografico e impedire di creare arte usando immagini di personaggi pubblici, Stable Diffusion una volta scaricato non impone nessun vincolo all’utente. Il suo creatore sostiene che il problema non è del suo software ma che anzi, sono le altre AI ad essere paternalistiche. Andiamo benissimo. Però se volete potete provare la versione beta gratuita (e quindi con filtri) di Stable Diffusion qui.

Un altro problema di questi software è che sono estremamente energivori. Ogni richiesta avvia un una grandissima ricerca di immagini e un’enorme sequela di calcoli, che risucchia letteralmente elettricità. Gli elevati costi di calcolo, e quindi energetici, sono il motivo per molti di questi motori ammettono nuovi membri solo su invito.

Un altro rischio è che i motori grafici perpetuino gli stereotipi negativi (di genere, etnia, religione…) che già circolano abbondantemente nel web. Alcuni ricercatori che si occupano di AI temono infatti che questi servizi possano reiterare immagini tossiche pescate nei dati online per auto-istruirsi. Un’inquietante esempio è quello descritto nel documentario Netflix Coded Bias, che indaga gli stereotipi degli algoritmi che regolano la tecnologia di riconoscimento facciale.


Che paura.

Le AI di grafica sono nostre amiche

In rete si legge di artisti e designer che, sentendosi già sottovalutati e sottopagati nei loro settori – dai concept artist dei videogiochi e dell’industria cinematografica ai designer di loghi freelance – sono comprensibilmente preoccupati per l’automazione offerta dalle AI. Per questo alcune community artistiche hanno bandito le immagini generate da intelligenza artificiale. A noi onestamente sembra un po’ la stessa paura atavica che potevano avere i pittori quando è stata inventata la macchina fotografica o gli illustratori quando Adobe ha introdotto Photoshop. Non sono pochi infatti gli artisti che già stanno usando questi motori grafici a loro favore.

Gila von Meissner, utente di Midjourney, è una graphic designer e autrice-illustratrice di libri per bambini che solleva il tema dell’equilibrio di potere con gli editori. “I libri illustrati pagano pochissimo” dice. “La maggior parte degli illustratori incontra difficoltà finanziarie. Perché non rendere il lavoro più facile e veloce? Il personaggio è mio, mie sono le modifiche agli sfondi creati dall’AI, è mia la voce e la storia. Un processo che prima mi richiedeva mesi ora mi prende una settimana. Questo lo rende forse meno originale?”

Ecco un plugin per utilizzare Stable Diffusion su Photoshop 

Altri utenti pro delle AI spiegano come le intelligenze artificiali possano essere molto utili quando si tratta di fare una bozza da mostrare ai clienti. Sappiamo tutti quanto possa essere frustrante e lento preparare tre versioni di un progetto o di un design per un cliente che alla fine ci comunicherà che gli basta un logo in Word. Bruno Da Silva, artista e design director di R/GA, un’agenzia di marketing e design, afferma: “Quando voglio proporre un’idea, per me è importante mostrarne l’aspetto visivo, il carattere tipografico, i colori. Spesso è impossibile assumere un fotografo o un illustratore per realizzare qualcosa di veramente speciale in pochi giorni o in una settimana. I generatori di immagini sono particolarmente efficaci nell’abbozzare idee nelle prime fasi di un progetto, fanno risparmiare tempo ai designer che altrimenti cercherebbero per giorni riferimenti e ispirazione su Google Images, Shutterstock, Getty, Pinterest o dal lavoro degli altri”.

Questi strumenti sono estremamente divertenti e hanno la capacità di cogliere di sorpresa. Qui, un creator ci mostra come usare l’AI per creare fondali video.

Le AI grafiche producono effettivamente arte?

Per rispondere a questa domanda, alcuni emeriti pensatori del nostro tempo si sono interrogati tutta la vita. Secondo Umberto Eco, le caratteristiche definitorie più importanti dell’arte, oltre al valore estetico attribuitole dal creatore e dal “ricevente”, sono la volontà umana dietro l’opera d’arte e il campo che l’opera apre all’interpretazione. Senza questi due, Eco sostiene che l’arte degenera in un semplice artefatto o nel kitsch. In altre parole, un’opera d’arte si basa sulle intenzioni del suo creatore (intentio auctoris), del fruitore (intentio lectoris), e del processo di interpretazione (intentio operis). Chissà cos’avrebbe detto Eco delle AI, se fosse ancora vivo. Forse avrebbe introdotto il concetto di intentio machinae.

Nella sua teoria estetica, Adorno si preoccupava anch’egli delle relazioni tra arte e società. Sosteneva che l’accresciuta libertà dell’arte moderna doveva sfociare in una maggiore responsabilità verso il commento sociale. “Il contenuto di verità si trova in definitiva nella relazione tra molteplici interazioni dialettiche che emergono dalle posizioni dell’opera d’arte rispetto al soggetto e una più ampia tradizione sociale, nonché dialettiche interne all’opera stessa.” Quindi con Adorno caschiamo malissimo. Le AI potrebbero sì incentivare l’impegno sociale, così come potrebbero ostacolarlo in maniera perversa (come è già successo nel web2 con i social network e la loro complessa relazione con le fake news).

Venendo ai pensatori contemporanei, Lorenzo Ceccotti (aka LRNZ) è un artista di conceptual visual art che vive e lavora a Roma. Secondo Ceccotti “le AI sono non possono essere d’aiuto per la produzione di conceptual visual art e anzi temo sia un pratica che andrebbe fortemente scoraggiata. […] È l’AI a produrre l’immagine operando il processo di semiosi visiva. L’AI non sa nulla della nostra visione mentale, qualora ce ne fosse una. Volendo essere molto generosi, vista la genericità assoluta dei prompt rispetto alla complessità del risultato, l’utente può essere al limite il soggettista, l’editor, il curatore, la fonte di ispirazione, qualsiasi dicitura si voglia dargli, ma non può essere in nessun modo considerato autore dell’immagine, perché l’immagine non l’ha mai pensata, non sa nulla dell’immagine, può solo fruirne come cliente spettatore e eventualmente sceglierla per usarla in un libro, esattamente come succede con la fotografia stock, ma senza la spiacevole sensazione che potrebbe venire usata da qualcun altro, visto che l’AI genera immagini diverse per ogni prompt. Se pensiamo alle sterminate possibilità di rappresentazione di un essere umano è assolutamente patetico pensare che proprio quello che ci ha offerto un software ad approccio stocastico possa davvero essere quello che stavamo pensando.”

La visione di noi Sottosopra

Nell’epoca in cui viviamo i cambiamenti sono veloci ed estremi. Qui in Sottosopra siamo convinte che l’avanguardia estetica necessiterà probabilmente sempre dell’abilità umana, anche se i metodi per incanalare quell’abilità cambieranno radicalmente. Siamo infatti convinte che queste tecnologie diventeranno lo standard per l’illustrazione, il design e l’editing di immagini. Un po’ come il nocode si sta affiancando alla programmazione tradizionale e Jasper e gli altri software di intuitive writing al copy. Quello che non sappiamo è come diventerà il mondo a fronte di un tale cambiamento di paradigma. Sicuramente il nostro settore evolverà tantissimo nei prossimi anni, e noi non vediamo l’ora (ma abbiamo anche un po’ paura) di vedere cosa ci aspetta! Nel frattempo, la nostra Anna ha esplorato un po’ i meandri di DALL-E ed ecco il risultato.

Se il futuro ti inquieta ma ti incuriosisce anche, ecco un bell’articolo sul neuromarketing e uno sui dark pattern.

Potrebbe interessarti anche:

, ,