Un lunedì pomeriggio del mese scorso stavo dando una dimostrazione di Juro , il nostro prodotto per il software di gestione dei contratti. Il nostro team di vendita era occupato e ho pensato che sarebbe stato divertente. I nostri clienti sono avvocati e questa persona era l’assistenza del responsabile area legale di una società di fascia media. Ho snocciolato i messaggi di alto livello che di solito usiamo per inquadrare questi incontri e quindi, prima di passare al prodotto, ho chiesto se avevano delle domande.

«Sì, grazie Richard: sa dirmi se fa IA?»

Sono rimasto confuso. Non sono sicuro che l’IA sia qualcosa che “si fa”, ma a prescindere: «Sì, abbiamo modelli di apprendimento automatico nel prodotto; vorrei però chiederle, perché me lo ha chiesto? Cosa sta cercando di fare?»

«Non ne sono sicuro, ho solo bisogno di sapere se fa IA. OK, lo fa. Fa la blockchain?»

Inutile dire che questo è un pessimo modo per affrontare i processi legali: mettere la tecnologia al primo posto e le persone all’ultimo. Questo approccio, dove l’attenzione è tutta focalizzata sulla tecnologia senza alcun riguardo per ciò di cui le persone hanno effettivamente bisogno, è tanto inutile quanto diffuso.

La verità è che per la maggior parte delle persone, avere a che fare con la legge e i processi legali è stressante. Persone e aziende affrontano questioni legali in momenti molto importanti: acquistare una casa, presentare un ricorso in tribunale, assumere un nuovo dipendente, trovare un nuovo cliente. Ma invece di essere gradevoli, amichevoli e umani, questi processi sono spesso stressanti, disorientanti e preoccupanti.

Tutti odiano gli avvocati

Gli avvocati non godono sempre della fiducia dei loro clienti, e lo dico in quanto ex avvocato. Uno studio di Princeton ha scoperto che la persona media ha un’alta stima della loro competenza, ma non è lo stesso per quanto riguarda l’affidabilità e la cordialità. Le questioni legali continuano a essere delle cose astruse e complicate per la maggior parte delle persone. E, sebbene la tecnologia stia certamente trasformando l’industria legale su tutti i piani (in particolare per quanto riguarda l’utilizzo dell’IA), non si è sfruttato il suo potenziale per offrire alle persone una migliore esperienza in materia di diritto, limitandosi piuttosto a rendere il lavoro più efficiente e redditizio per i grandi studi legali.

L’industria legale ha finalmente iniziato il suo percorso con l’IA, con l’applicazione del machine learning su quasi tutto il flusso di lavoro all’interno degli studi legali. Quella della revisione dei contratti è stata la prima categoria a decollare davvero; gli studi legali si sono serviti del riconoscimento di identità denominate e del riconoscimento ottico dei caratteri per dire ai clienti cosa c’è nei loro contratti. Altre applicazioni dell’IA sono state indirizzate ad attività legali come fatturazione, gestione del tempo, e-discovery e ricerca legale. Tutto ciò è confortante, ma non è di grande aiuto agli utenti finali.

In che modo l’IA modellerà l’esperienza delle persone in materia di legge

La buona notizia è che l’IA, se implementata con cura, ha il potenziale di cambiare profondamente l’esperienza delle persone reali in materia di legge, rendendo quei processi arcani e impenetrabili più accessibili e più umani per tutti.

Ecco quattro fattori da considerare per realizzare questo obiettivo.

1. Ecco i chatbot

Joshua Browder creò DoNotPay quattro anni fa, originariamente come app per contestare le multe per i parcheggi. Da allora è stato ampliato incorporando più di 1.000 chatbot, finendo col ricevere investimenti da Andreesen Horowitz. DoNotPay utilizza l’intelligenza artificiale (supportata da Watson di IBM) per generare automaticamente documenti per contestare varie infrazioni e multe, consentendo agli utenti finali di accedere a stressanti processi legali direttamente dal telefono.

Ma sebbene DoNotPay sia stato accolto molto caldamente in certi ambienti, in altri non è stato proprio così e, anzi, c’è stata molta ostilità, in alcuni casi ci sono state perfino delle cause legali. Quella della legge è una professione regolamentata, con avvocati che hanno bisogno di qualifiche riconosciute per intraprendere determinate “attività protette”; attività che non sono aperte ai profani, tanto meno ad algoritmi. Certi avvocati non vogliono cedere i loro imperi segreti a qualche programma e men che meno le loro ore fatturabili.

Se l’IA deve davvero rendere più umana l’esperienza con la legge, questo atteggiamento non può sopravvivere. Se un chatbot è in grado di riprodurre ciò che fai in modo più veloce, più economico e con un’esperienza migliore per l’utente finale, allora la tua attività merita davvero di essere “protetta”? Come avvocato, non preferiresti passare il tempo a dare del vero valore? I chatbot stanno già aiutando molte persone con servizi bancari, mutui, acquisti e servizi pubblici: non c’è motivo per cui il discorso debba essere diverso per il diritto, con l’IA che offre alle persone un’esperienza accessibile, proprio nel momento del bisogno. I pionieri di Stanford e Suffolk hanno abbracciato questa sfida: è solo questione di tempo prima che le autorità di controllo si adeguino.

2. I contratti che le macchine riescono a leggere

In sostanza, un contratto legale è solo l’espressione scritta di una relazione: una serie di promesse che regolano il modo in cui due parti si trattano. I contratti dovrebbero essere motivo di festa; purtroppo, la maggior parte della gente li odia. Una ricerca dell’ IACCM ha dimostrato che l’83% delle persone non è soddisfatto del processo contrattuale. Firmare, scansionare, pubblicare e infine perdere documenti rende i contratti fondamentalmente poco amichevoli e non collaborativi, danneggiando sin dall’inizio le relazioni tra persone e aziende.

Ciò è in parte dovuto al formato predefinito dei contratti: file statici di Word o in formato PDF. Sono formati da dati non strutturati su cui non è facile compiere ricerche; le piste di controllo delle attività vengono perse, insieme alle cronologie delle negoziazioni. Questo processo arcaico è il motivo per cui una coppia che acquista una casa potrà contrarre un mutuo online in una finestra di chat con un broker digitale, ma quando si tratta del contratto di vendita effettivo, è probabile che si ritrovino con la scansione di un documento cartaceo a tre colonne, quasi illeggibile, che dovranno in qualche maniera provare a decifrare. I software di gestione dei contratti fanno ancora fatica a superare questo problema, nonostante i progressi della tecnologia.

Ma se i contratti sono leggibili automaticamente, possono essere collaborativi e dinamici fin da subito. Le aziende non dovranno pagare studi legali per scoprire cosa c’è nei loro contratti, perché saranno ricercabili. Se la nostra coppia di neoproprietari non capisce i cambiamenti nei loro documenti di passaggio di proprietà, potrà scorrere indietro nella cronologia delle versioni e mandare commenti ai loro avvocati per avere delle risposte.

Ancora meglio, i modelli di apprendimento automatico inizieranno a comprendere le clausole problematiche che confondono i lettori e segnalarli durante la stesura, suggerendo alternative in un linguaggio più semplice. Se il testo di una clausola è talmente astruso che la maggior parte dei lettori non riesce a capire di cosa si stia parlando e a spendere altri soldi per farsi spiegare le cose da avvocati, allora l’IA potrebbe individuare il problema nella bozza e segnalarlo agli autori. Se l’IA è in grado di agevolare la rinascita del linguaggio semplice nella stesura dei testi, ciò non può che aiutare a rendere il diritto più umano.

3. Prevedere (e decidere) il futuro

La capacità predittiva dell’IA, per quanto riguarda i big data, potrebbe trasformare il sistema legale a tutti i livelli. Se riuscisse ad aiutare persone e aziende a individuare i rischi che potrebbero derivare da un determinato piano di azione, questi potrebbero evitare costosi processi prima ancora che insorgano. Se una questione legale è inevitabile, l’analisi predittiva potrebbe dirci quanto tempo ci vorrà e quanto potrebbe costare. Se si riuscisse a far capire meglio alle persone le conseguenze delle loro strategie legali, ciò potrebbe evitare risultati difficili e stressanti per gli utenti finali.

Per fare questo alcune aziende hanno già iniziato a utilizzare set di dati pubblici. A New York, Premonition ha raccolto tutti i dati disponibili al pubblico che gli è stato possibile reperire, utilizzandoli per prevedere le percentuali di vittoria per determinate questioni legali davanti a ciascun tribunale e giudice. L’obiettivo è guidare i potenziali richiedenti alle sedi dove è probabile che ottengano il miglior risultato per il loro caso. Se ammettiamo che siamo in grado di determinare se è probabile che un ricorso abbia successo in un determinato tribunale, questo vuol dire che potremmo anche determinare se è probabile che abbia successo ovunque e, nel farlo, è un po’ come se stessimo effettivamente dando un verdetto previsionale attraverso l’IA, non è vero?

Il fatto che questo sia possibile o desiderabile è un’altra questione, il che mi porta al punto successivo.

4. Senza riprodurre i pregiudizi del passato

L’uso dell’IA per migliorare le esperienze delle persone nel sistema legale rappresenta anche un’opportunità per rimuovere i pregiudizi dai processi legali. In teoria, le decisioni algoritmiche dovrebbero essere libere da pregiudizi storici che colpiscono le minoranze nelle loro interazioni col sistema giudiziario; l’IA dovrebbe essere agnostica davanti a fattori come etnia, genere e orientamento sessuale. Ma i risultati finora dimostrano tutt’altro.

Le autorità pubbliche negli Stati Uniti hanno già iniziato a utilizzare l’IA nei processi legali che comportano grandi volumi di calcoli: ad esempio, assegnando punteggi di rischio alle persone arrestate, in termini di probabilità di recidiva. Tuttavia, in uno studio di ProPublica, i ricercatori hanno scoperto che i punteggi generati dall’IA assegnati a più di 7.000 persone in Florida erano “notevolmente inaffidabili”: su tutta la gamma di potenziali crimini, le previsioni erano appena più accurate del lancio di una moneta, solo il 61%. Quando sono in gioco vite e libertà, questo non è abbastanza.

Peggio ancora, il sistema ha esacerbato le disparità razziali, piuttosto che rimuoverle: c’era circa il doppio delle probabilità di etichettare gli imputati neri come criminali rispetto a quelli bianchi. Questo pregiudizio è un rischio chiave che accompagna l’espansione del mandato dell’IA in campo legale. Il pregiudizio si può superare, ma ci vorrà un po’ di impegno; sarebbe un enorme passo indietro se portassimo i pregiudizi e le disuguaglianze degli antiquati processi legali nel nostro nuovo mondo basato sull’intelligenza artificiale.

Anche la mancanza di visibilità nel processo decisionale è un problema. Nello studio di ProPublica, per gli imputati era impossibile comprendere il ragionamento alla base del punteggio: gli algoritmi di apprendimento automatico non mostrano il loro funzionamento, il che rende le loro decisioni difficili da impugnare. Un sistema giudiziario sano che rispetti lo stato di diritto è uno in cui la giustizia non è solo fatta, ma in cui si capisca anche come venga fatta: i partecipanti devono essere in grado di capire perché è stata presa una determinata decisione in un determinato processo legale, altrimenti non sapranno cosa fare per evitare un’altra causa la prossima volta. Se i modelli di apprendimento automatico devono diventare partecipanti attivi nei processi legali, ci deve essere trasparenza nei loro ragionamenti. Altrimenti, i rischi legali diventano ancora meno amichevoli, piuttosto che più umani.

Meno artificio, più intelligenza

L’invasione dell’IA in ogni procedimento legale, dagli accordi commerciali di alto valore alle parti quotidiane del sistema giudiziario, sembra inarrestabile. Ma la traduzione del potere trasformativo dell’IA in un sistema giuridico più umano, per quanto possibile, non è inevitabile. Ci vorranno sforzi mirati e intelligenti da parte di aziende tecnologiche, venditori, autorità di controllo, istituzioni pubbliche ed educatori per assicurarsi che gli utenti finali rimangano al centro della nostra attenzione. L’intelligenza artificiale può certamente rendere il diritto più umano: ma solo se gli umani faranno sì che sia tale.