Qualche giorno fa mi sono imbattuto in un articolo del MIT Technology Review in cui, dopo aver analizzato 16.625 documenti sul futuro dell’Intelligenza artificiale, gli autori pronosticavano la fine dell’era del deep learning. Penso quotidianamente all’IA, fa parte del mio lavoro, ma dopo aver letto quell’articolo mi sono fermato un attimo per riflettere sull’argomento. Quando l’era del deep learning sarà terminata – cosa che, senza dubbio, avverrà – che cosa le farà seguito?

Nel corso degli ultimi due anni abbiamo visto enormi progressi tecnologici nell’IA, in particolare nelle aree dell’elaborazione del linguaggio naturale, della visione artificiale e della robotica. Ciò è dovuto principalmente al successo del machine learning, la tecnologia che consente alle macchine di apprendere dai dati e migliorare le loro prestazioni in base all’esperienza.

Ma questi progressi ci stanno portando più vicino alla riproduzione dell’intelligenza umana? Cosa ci porteranno i prossimi anni? E quali sfide dovremo affrontare successivamente?

Da Dartmouth a HAL 9000

Il computer HAL 9000 di “2001: Odissea nello spazio” di Arthur C. Clarke e Stanley Kubrick è l’archetipo di intelligenza artificiale. È dotato di capacità simili a quelle umane, come comprendere il linguaggio, elaborare strategie per raggiungere un obiettivo, raccogliere dati da ciò che lo circonda e prendere decisioni basate su questi dati. HAL 9000 fu concepito negli anni ’60, tra tanto ottimismo sulla scia del Dartmouth Summer Research Project sull’Intelligenza artificiale. La conferenza del 1956 riunì Allen Newell, Herbert Simon, John McCarthy, Marvin Minsky e Ray Solomonoff e tanti altri, segnando la nascita dell’IA come campo di ricerca scientifica.

Nonostante l’ottimismo iniziale, quello dell’IA è stato un viaggio turbolento. Era opinione diffusa che sarebbero bastati alcuni anni per sviluppare tecnologie in grado di riconoscere le persone, comprendere il linguaggio umano e tradurre tra qualsiasi lingua. Ma queste aspettative hanno portato a un periodo noto come l’inverno dell’IA, durante il quale i finanziamenti per la ricerca hanno subito forti tagli.

Decenni dopo, l’inverno di IA è finito e l’ottimismo è sbocciato.

La corsa all’oro dell’IA

Oggi usiamo algoritmi IA su base giornaliera. Ad esempio, ogni volta che utilizziamo internet per fare una ricerca, quando facciamo ricorso ad un traduttore online o quando riceviamo un consiglio dal sito web dal quale di solito acquistiamo libri. Le transazioni in Borsa sono eseguite da algoritmi in una manciata di millisecondi. Gli algoritmi di riconoscimento dei pattern stanno diventando sempre più popolari nelle analisi di imaging medico. Grandi aziende come Google, Facebook, Microsoft, Amazon e Uber stanno sviluppando veicoli autonomi, assistenti personali digitali, sistemi di dialogo e traduttori automatici, immagazzinando enormi quantità di dati e ricorrendo a tecniche di apprendimento automatico. Stiamo assistendo ad una vera e propria “corsa all’oro”, in particolare con Stati Uniti, Cina, Canada, Francia ed Europa impegnati a fare grandi investimenti strategici nell’IA per accelerare i progressi.

Una delle caratteristiche più appetibili dell’intelligenza artificiale è la capacità di prendere decisioni complesse. Fu proprio questo l’oggetto di studio delle prime opere di Herbert Simon (premio Nobel per l’economia nel 1978), a cui si deve il principio di razionalità limitata, per cui un processo decisionale deve prendere in considerazione la limitazione delle informazioni disponibili, la limitazione cognitiva per elaborare dette informazioni e il limite di tempo per decidere. Attualmente stiamo osservando il successo in quest’area degli ambienti controllati, come i giochi che hanno regole rigorosamente definite. Il sistema AlphaGo, attraverso tecniche di apprendimento di rinforzo, ha battuto i migliori giocatori umani a “Go”, avvenimento storico che pensavamo avrebbe impiegato ancora decenni per arrivare.

La sfida maggiore è quella di abbandonare questi ambienti simulati e costruire macchine in grado di prendere decisioni “in tutta libertà”, sulla base delle osservazioni che fanno del mondo reale. Quando ciò sarà possibile, al di là della robotica industriale che già conosciamo, avremo un ampio ventaglio di professioni assegnabili alle macchine: medici, ingegneri, giudici e analisti finanziari. Tutto questo dovrebbe avvenire nei prossimi decenni.

Assistenti personali onniscienti

Una delle più antiche idee utopistiche legate all’IA è la traduzione automatica: la capacità di una macchina di tradurre tra qualsiasi coppia di lingue, superando tutte le barriere linguistiche e mediando la comunicazione tra gli umani. Quest’area ha visto un’evoluzione notevole negli ultimi anni, grazie a tecniche di deep learning come le reti neurali. Anche se non è ancora possibile tradurre automaticamente un libro con lo stesso livello di competenza di un traduttore umano, molti contenuti tradotti da macchine, come notizie o e-mail, mostrano una qualità di gran lunga superiore rispetto a cinque anni fa.

Nell’immediato futuro, ci aspettiamo che i progressi nell’elaborazione del linguaggio naturale (che comprendono il riconoscimento e la sintesi vocale, l’estrazione di informazioni semantiche e i sistemi di dialogo) siano integrati negli assistenti personali: gadget in grado di comunicare con noi, di gestire i nostri programmi giornalieri e cercare informazioni online. Questi gadget sapranno tutto ciò che c’è da sapere sui nostri gusti e preferenze e diventeranno presto indispensabili.

Forme di intelligenza

Per fare previsioni su un futuro più lontano, dobbiamo pensare ad una visione più ampia e meno antropomorfica dell ‘”intelligenza”. L’ispirazione biologica è condizione necessaria per creare un’IA? Nel complesso, tendiamo ad affrontare il futuro dell’IA alla luce di ciò che sappiamo dell’intelligenza umana, ma è l’unica forma possibile di “intelligenza”?

Diamo un’occhiata all’aerodinamica: anche se il volo degli uccelli è stato l’ispirazione per creare dispositivi volanti, gli aeroplani non sbattono le ali come fanno gli uccelli. Analogamente, potrebbe essere possibile costruire macchine “intelligenti” senza cercare di replicare i meccanismi cerebrali. Tipi di “comportamento intelligente” potrebbero emergere in sistemi con più agenti: di fronte alla necessità di cooperare per risolvere un problema, questi agenti svilupperanno automaticamente protocolli di comunicazione per l’interscambio. In che lingua parleranno queste macchine? Cosa c’è in comune tra questo linguaggio artificiale e quello umano? Quale emergerà come il più favorevole per ottenere un comportamento intelligente, un linguaggio simbolico come il nostro oppure “rappresentazioni continue” incomprensibili all’orecchio umano? È possibile mediare tra tali rappresentazioni interne e il linguaggio umano con l’obiettivo di raggiungere l’interpretabilità?

Sfortunatamente, non disponiamo ancora di un manuale che possa guidarci attraverso le possibilità e i limiti dell’IA, fornendoci al tempo stesso gli strumenti per ottenere innovazioni dirompenti.

In altre parole, l’IA ha appena lasciato la fase preistorica e si trova ora nell’ “Età Antica”: un periodo segnato da straordinarie imprese collettive, come le Grandi Piramidi di Giza (circa 2500 AC), ma anche da tecniche relativamente rudimentali. Gli storici stimano che le Grandi Piramidi siano state (affannosamente) costruite da circa 10.000 lavoratori in turni di 3 mesi nell’arco di 30 anni. Il numero di scienziati e ingegneri che attualmente lavorano nell’IA supera certamente quel numero. Lo sforzo computazionale, misurabile in teraflop e nell’energia dissipata nei giganteschi centri di elaborazione dati, sicuramente rivaleggia con l’energia umana spesa per sovrapporre i blocchi di pietra delle piramidi. Tuttavia, le tecniche che usiamo oggi nell’IA sembrano altrettanto rudimentali.

Uomo contro macchina

L’IA ha un impatto sempre maggiore sulla nostra vita quotidiana e i benefici sono innegabili. Tuttavia, ci sono ancora competenze chiave che occorre padroneggiare per sbloccare determinate limitazioni degli attuali sistemi di intelligenza artificiale. L’apprendimento senza supervisione è uno di questi, poiché è l’unico modo in cui un sistema può imparare senza le direttive dell’uomo. Non solo, ma è molto difficile fare previsioni in un campo in cui la tecnologia dei vecchi tempi è ancora sulla strada per raggiungere il suo pieno potenziale. Ci sono buone probabilità che succederà qualcosa di dirompente che ci indicherà una direzione completamente nuova.

Questo è il motivo per cui non credo che le macchine diventeranno mai “più intelligenti di noi” o che siamo anche solo minimamente vicini ad una comunicazione altrettanto fluida di quella mostrata da HAL 9000. Nonostante gli allarmismi espressi da Stephen Hawking e Elon Musk, che vedono nell’IA “la più seria minaccia alla sopravvivenza della specie umana”, non sembra plausibile che i pericoli più immediati dell’IA verranno da una super-intelligenza. Al contrario, deriveranno dalla nostra impreparazione e dall’abuso che faremo di tali tecnologie se sopravvalutiamo le loro capacità e non riusciamo a comprendere i loro difetti e le loro carenze.