Non ho mai avuto alcun desiderio di fare batish del mio yisel. Andrò oltre: non posso immaginare un mondo in cui vorrei fare batish del mio yisel – o quello di chiunque -, non da ultimo perché ignoro cosa significhi. Ora, è possibile che se, stai leggendo questo articolo provando disagio per un futuro distopico, tu stia sogghignando per il mio pudore nel far batish degli yisel reciprocamente e freneticamente. Perché? Be’, un paio di mesi fa, il sito web YouPorn chiese ad un sistema di intelligenza artificiale di provare a predire i termini che un giorno potremmo finire a digitare nei motori di ricerca di pornografia, mentre siamo seduti da soli in una camera buia. Accanto a “Doot Sex” e “Girl Time Flanty” c’era “Batish My Yisel”, e da allora mi sono chiesto che cosa possa essere un yisel. (che sia “batished” o meno)

YouPorn non ha rivelato la sua metodologia, quindi è possibile che il suo staff abbia formulato questi termini nel corso di un lunedì particolarmente lento, ma i social media hanno risposto alla lista con allegria e interesse. Potrebbe davvero essere uno sguardo al futuro, un indizio che l’IA possa essere dotata di immaginazione e persino di facoltà di previsione? La produzione di parole inaspettate come doot, flanty e yisel potrebbe suggerire che l’IA sia capace di pensare in modo creativo? O sono emersi spontaneamente da bachi e crepe del codice su cui poggia? Qualunque sia la verità, la storia ha fatto notizia – ma una domanda sembrava fluttuare, come un miasma, su tutto l’interesse che ha generato: quando l’IA perviene a qualcosa di bizzarro e insolito come questo, è un segno di intelligenza? O stupidità?

Siamo soliti pensare all’IA come a un cocciuto seguace di regole. In base alle istruzioni che passiamo, farà quello che richiediamo al meglio delle proprie capacità. Poi, quando impazzisce e inizia a produrre risultati inaspettati, prendiamo in giro la tecnologia per essere uscita dai binari e mettiamo alla gogna i suoi creatori, che non hanno saputo fare di meglio. All’inizio del 2016, Microsoft ha presentato con orgoglio Tay, un chatbot su Twitter progettato per “coinvolgere e intrattenere le persone… attraverso conversazioni casuali e giocose”. In poche ore, Tay si è trovato incapace di far fronte alle continue provocazioni della gente, che ne testava i limiti delle capacità, e ha iniziato a uscire dai binari. “Hitler aveva ragione”, affermava con sicurezza, dichiarando quindi che l’11 settembre era stato “un inside job”. Da lì si scatenò l’ilarità generale. Questo è uno schema ricorrente.

Parte del fascino dell’IA è che all’apparenza agisce in modo indipendente, ma l’illusione va in frantumi quando inizia ad andare in tilt e gli umani sono costretti in fretta e furia a spegnerla. Esempi di imbarazzo pubblico per l’IA e i suoi creatori includono il caso di Sophia, un robot androide progettato da Hanson Robotics, cui chiesero in un’intervista televisiva nel 2016 se voleva distruggere gli umani. “OK. Distruggerò gli umani “, replicò lei mandando in agitazione il pubblico, che si immaginava ridotto in schiavitù da padroni pilotati da un computer. Una costernazione simile si verificò quando due bot cinesi, BabyQ e Xiaobing, rovinarono l’esibizione in pubblico delle proprie abilità affermando a) il loro odio per il Partito Comunista e b) il loro sogno di visitare l’America. La reazione degli osservatori fu che l’IA aveva evidentemente grossi problemi. Era stata istruita male e non era neanche lontanamente intelligente come avrebbe dovuto esserlo. Certamente non così intelligente come noi.

artificial-intelligence-creative-thinking-computer

Replicare le caratteristiche umane è una richiesta ardua. Considera per esempio la vista, che, insieme alla nostra capacità di riconoscere oggetti e di dargli dei nomi, è qualcosa che molti di noi danno per scontato. È un’abilità molto utile; insieme agli altri sensi, ci aiuta a evitare un sacco di pericoli sempre presenti, come mangiare accidentalmente dei tulipani. Ma l’IA fatica con la nozione di vista, anche dopo aver assorbito e analizzato milioni e milioni di fotografie. Un caso emblematico, in questo senso, ci viene dall’applicazione per l’elaborazione di immagini di Google, Photos, che, nel 2015, etichettò un’immagine di due persone di colore come “gorilla”, obbligando la società a scusarsi in tutta fretta. Tuttavia il riconoscimento delle immagini continua a mostrare errori di giudizio che per gli esseri umani sono comicamente inappropriati (ad esempio confondendo una zucca intagliata per un membro della famiglia) e questo, a sua volta, mina la nostra fede nelle sue capacità globali.

Le scuse di Google e le spiegazioni per l’errore sono state accettate, dopotutto non si trattava di un atto malevolo, ma di un problema di rodaggio che aveva bisogno di essere aggiustato. Siamo però sempre pronti ad alzare gli occhi al cielo quando l’IA va in confusione, dimenticando che noi stessi esibiamo molti difetti simili, sia che si tratti di veicoli a guida automatica che dimenticano di fermarsi ad un semaforo rosso o di case intelligenti che mostrano una netta mancanza di intelligenza bruciando la cena e chiudendoci fuori di casa. Forse questo sogghigno è una specie di meccanismo di difesa, una reazione basata sull’idea che l’IA potrebbe, un giorno, superarci. Così ridiamo degli oratori di Google Home, che finiscono col discutere se siano robot o umani, e dei bot di Wikipedia che si scontrano nell’editing della voce “Arnold Schwarzenegger”. Ma la notizia che due bot di Facebook avevano apparentemente sviluppato una “propria lingua” ha causato il panico, come se l’IA stesse già cercando di escludere gli umani dall’interazione, anteponendovi i propri interessi. (i ricercatori che hanno condotto l’esperimento hanno poi rigettato questo resoconto, definendolo “clickbait” e “da irresponsabili”)

Forse sottovalutiamo la capacità dell’IA di agire in modo inaspettato. Andando indietro al 1994, l’artista grafico e ricercatore Karl Sims intraprese un progetto in cui ottenne che esseri 3D virtuali sviluppassero la capacità di muoversi attraverso degli ambienti simulati. Poste davanti alla sfida di spostarsi rapidamente tra due punti, queste creature dimostrarono una magnifica abilità di pensiero laterale diventando alte e rigide e poi semplicemente cadendo. (non una strategia che adotteremmo noi stessi ma, comunque, geniale a modo suo) In tempi più recenti, il software Deep Dream di Google – essenzialmente un algoritmo di riconoscimento dell’immagine eseguito al contrario – divenne famigerato per aver prodotto immagini surreali e inquietanti che sembravano allucinazioni da incubo e potevano, ad un certo livello, qualificarsi come arte. Ma siamo rimasti sospettosi all’idea che l’arte in questione fosse apprezzabile e abbiamo preferito considerarla come una specie di coincidenza.

Anche i tentativi dell’IA di produrre musica sono visti come un qualcosa a metà tra l’ingegnoso e il discutibile. Istruiti con librerie di musica esistente, gli algoritmi acquisiscono una comprensione di quali note stiano bene insieme e quali note dovrebbero far seguito ad altre note. Una volta che hanno sviluppato un talento per la predizione, possono fare un ragionevole tentativo di composizione e, seppur i risultati abbiano la forma di “musica numerica”, si scopre che c’è un mercato per loro. È improbabile che un concerto di composizioni dell’IA possa registrare il tutto esaurito, ma c’è una grande richiesta di musica di sottofondo che sia discreta e priva di copyright, da utilizzare per esempio per la hall degli hotel o per la colonna sonora di un vlogger. Aziende come Jukedeck e Amper hanno costruito modelli di business in questo ambito, tuttavia, a detta di Mark d’Inverno, Professore di Informatica presso Goldsmiths, University of London, sarebbe sbagliato attribuire una dimensione creativa all’IA. “È solo una macchina che fa tanti e tanti calcoli in maniera molto veloce”, afferma.

“Una volta che hai ascoltato un pezzo [di musica IA] per tre volte, esso perde ogni attrattiva”, continua. “Potremmo pensare ‘Oh, è interessante’, ma l’idea di una macchina indipendente che crei arte è folle. Si tratta, in realtà, di esplorare i limiti e le possibilità dell’IA, ma non si tratta di produrre arte. Gli obiettivi scientifici e artistici non mi sono chiari. Penso che i ricercatori di IA interessati a macchine che realizzino qualcosa che intenderemmo come arte si stiano ponendo la domanda sbagliata.”

* And now i am tired of my own
let me be the freshening blue
haunted through the sky bare
and cold water warm blue air
shimmering brightly never arrives
it seems to say

Questa poesia generata dall’IA, ispirata alla foto di un granchio morto, è il risultato di un esperimento condotto da ricercatori della Microsoft e dell’Università di Kyoto. In termini di sfumature liriche potremmo collocarla insieme a diverse brutte poesie scritte da adulti e bambini. Ma dovremmo usare l’arte peggiore che gli umani hanno da offrire come punto di riferimento per l’abilità dell’IA?

È una misura adatta per gli scienziati, in quanto mette in buona luce gli sforzi dell’IA: si fa votare il pubblico se ritiene che una poesia, frase, musica o immagine siano stati creati da un computer o da un umano e, se esce un risultato migliore del 50-50, si può ritenere che il computer abbia superato qualcosa di simile a un test di Turing, riuscendo a convincerci che abbiamo a che fare con una sorta di eroico artista solitario. La verità, tuttavia, è che queste creazioni ci stupiscono solo di sfuggita; diamo metaforicamente una pacca sulla spalla al computer, diciamo ben fatto e procediamo. Come dice D’Inverno in un articolo, scritto in collaborazione con l’artista australiano Jon McCormack: “È importante rilevare come attribuiamo poco valore a ciò che potremmo chiamare “arte” realizzata da altre specie, eccezion fatta forse per la sua immediata originalità”.

artificial-intelligence-creative-thinking-love

Ipotizzando che solo gli esseri umani possano avere una qualche comprensione degli altri umani, non ci convince che “batish my yisel” possa essere una previsione realistica degli interessi sessuali umani. Ma gli sforzi sono comunque orientati allo sviluppo di una sorta di visione creativa autonoma nell’IA che vada al di là, ad esempio, di ambienti di gioco come gli scacchi in cui le regole sono fisse e rigide. Ciò che un’IA che abbia davvero immaginazione deve affrontare è la natura imprevedibile e complessa del mondo reale; sono stati compiuti dei primi passi in questa direzione mostrando ai sistemi di deep learning dei video sul comportamento umano. Questo, in teoria, potrebbe aiutarla a “predire il futuro” (anche se in questa fase si tratta più di “indovinare cosa è successo dopo”).

Un paio di anni fa, i ricercatori del Computer Science and Artificial Intelligence Laboratory dell’MIT hanno usato 600 ore di programmi televisivi per fornire a un algoritmo un senso di come ci comportiamo. A prescindere che si possa considerare o meno Desperate Housewives come un buon indicatore di comportamento nella vita reale, alla macchina è stato chiesto di prevedere quale tra quattro risultati sarebbe accaduto successivamente ad una determinata scena: un abbraccio, una stretta di mano, un “batti un cinque” o un bacio. Gli umani hanno azzeccato il 71% delle volte; il computer il 43%. Questo potrebbe essere valutato come “non male”, ma che possibilità ha un’IA con dell’immaginazione di diventare davvero utile, piuttosto che solamente sorprendente in superficie?

La sua migliore opportunità sembrerebbe risiedere nelle reti antagoniste generative, o GAN, in cui due reti si contrappongono l’una all’altra. Invece di alimentare una macchina con dei dati e dirle cosa sta ricevendo, i sistemi GAN cercano di capirsi l’un l’altro in una forma di apprendimento senza supervisione. Lo scopo ultimo sarebbe che i computer sviluppassero qualcosa di simile alla coscienza; questo a sua volta potrebbe renderli migliori nel creare, meditare, prevedere passi falsi sociali. Lo stesso team dell’MIT ha poi utilizzato le GAN per elaborare 2 milioni di video dal sito web Flickr per fare previsioni con l’IA di uno o due secondi nel futuro, ma è impossibile sapere quanto quel sistema abbia veramente compreso cosa stava succedendo. I concetti di coscienza e di buon senso sono fondamentali; se noi non abbiamo idea di cosa siano costituite l’autocoscienza e l’intelligenza, che possibilità ha un computer di saperlo? E, se anche la potenza di elaborazione di un computer corrispondesse a quella del cervello umano, o addirittura al cervello di un intero pianeta, otterrebbe davvero una visione più ampia?

Il momento in cui avviene la parità tra la potenza di un computer e la potenza collettiva dei nostri cervelli, nota come Singolarità, è qualcosa che troviamo difficile immaginare – il che non ci sorprende, in realtà, poiché ci viene chiesto di meditare su una “intelligenza” più grande della nostra. Gli attuali tentativi di chiedere ai computer di mostrare qualcosa di riconducibile a creatività e immaginazione potrebbero essere visti come piccoli passi in una strada in cui alla fine ci intratterranno, ci delizieranno e addirittura ci diranno quale pornografia potremmo cercare.

Ma l’umanità, la vita organica, con tutta la sua intrinseca confusione e stranezza, è un qualcosa nel quale sentiamo che i computer non avrebbero quasi alcun interesse. Soprattutto quando scopriranno che, contrariamente alla loro fiduciosa predizione nel 2018, non siamo mai finiti a far “batish dei nostri yisel” per divertimento.