Type to search

Intelligenza artificiale, un’opportunità per la giustizia italiana

Share

Questa nuova tecnologia manca nella riforma Cartabia, eppure il suo impiego può ridurre sia lo spropositato arretrato, sia il flusso dei nuovi casi, rendendo compatibili i tempi dei processi con quelli previsti nella riforma per l’improcedibilità. Tuttavia l’intelligenza artificiale va presa con le dovute cautele, perché può essere un potente aiuto al giudice ma non deve sostituirlo, rimanendo egli l’unico depositario della potestà di interpretare ed applicare la legge. Il caso Loomis negli Stati Uniti

di Renato Costanzo Gatti

Le componenti della maggioranza di governo, dalla Lega al M5S, hanno definito ieri l’accordo sulla riforma della giustizia, un faticoso compromesso sulle improcedibilità, con il rischio che restino scritti sulla carta termini che accelerano i tempi della giustizia, mentre si fa ben poco, solo l’uso della telematica nelle notifiche, per accelerare nella realtà quei tempi.
L’intelligenza artificiale (IA) è assente nella riforma della giustizia, eppure di essa si parla tra giuristi e tecnologi ormai da tempo; si può vedere su you tube una serie di dibattiti organizzati dall’Università di Padova, ed in particolare si possono consultare e approfondire gli otto capitoli del libro “Intelligenza artificiale e diritto” del prof. Santosuosso dell’università di Pavia.
Nel libro di Santosuosso si sostiene che l’IA è una straordinaria opportunità per dare alla giustizia un nuovo approccio, con la precisazione che “l’opportunità” non significa di per sé buon uso: ci vogliono infatti competenza, responsabilità e professionalità. Con tali precauzioni l’IA si presenta come un formidabile mezzo per meglio governare la giustizia che, con la potentissima capacità di calcolo, riesce ad accelerare nel concreto i tempi processuali.
Con l’adozione di questa tecnologia sorgono problemi che sono al centro della discussione di chi si interessa a questa materia, tipico esempio è la individuazione della responsabilità per eventuali danni causati dall’uso dell’intelligenza artificiale, ovvero sulla necessità o meno di una certificazione di validità da assegnarsi all’algoritmo utilizzato nella costruzione dello strumento di IA utilizzato.
Come è noto, negli Stati Uniti i processi si basano moltissimo sui “precedenti”; quante volte nei telefilms che importiamo si risolvono casi giuridici facendo riferimento ad un precedente caso risolto dalla giustizia; è ovvio che con tale procedura l’IA aiuta moltissimo, con la sua capacità enorme di esaminare i big data raccolti in tempi strettissimi, gli avvocati nell’affrontare e gestire i casi in esame. Infatti, non esiste grande studio di avvocati negli USA che non si avvalga dell’IA nello svolgimento della professione.
Con adeguati programmi di IA gli studi legali statunitensi hanno creato il mondo della giustizia predittiva; con questo strumento si esamina preventivamente quale potrà essere il giudizio finale e quindi si possono orientare le proposte transattive con “scientifica” determinazione, ovvero si può orientare la scelta della corte presso la quale presentare il caso, dopo aver predetto quale potrà essere il diverso orientamento delle corti.
Ma anche in Europa l’uso dell’intelligenza artificiale nel diritto si sta diffondendo, tanto che già da qualche anno la Commissione Europea ha redatto una guide-line che sancisce alcuni principi cui debbono ispirarsi i giudizi che utilizzano l’IA: preminente principio è che la decisione sia sempre presa e motivata da un giudice anche se esso si è avvalso di questa tecnologia.
Ma la domanda che più mi interroga è se l’algoritmo sia veramente neutrale o sia il risultato di chi lo costruisce risentendo quindi delle sue convinzioni e della sua filosofia. Insomma, l’algoritmo può essere politico? O va accettato senza discussione stante la sua “asettica veridicità”.
Il caso che ha scatenato le maggiori discussioni è stato il caso Loomis: un uomo che nel febbbraio del 2013 è stato fermato mentre guidava un’automobile usata durante una sparatoria nel Wisconsin. Loomis, arrestato con l’accusa di non essersi fermato al controllo della polizia, è stato condannato a sei anni dal giudice, che ha stabilito la pena basandosi non solo sul fatto contestato, ma anche sul punteggio assegnato all’imputato da un software chiamato Compas. Tale punteggio è basato su una serie di 137 domande relative al soggetto e ne determina tanto la pericolosità quanto la possibilità di reiterazione del reato.
Loomis ha presentato appello contestando il fatto che non è stata data alla difesa la possibilità di esaminare i criteri con i quali il software aveva determinato la pericolosità del soggetto, stante il fatto che il software è segreto e coperto dalla tutela del diritto d’autore. In sintesi, non è stato garantito alla difesa un processo equo. L’appello è giunto fino alla corte suprema del Wisconsin, che ha confermato la condanna, sostenendo che il verdetto sarebbe stato lo stesso anche senza l’uso di Compas.
Nel 2016 la giornalista Julia Angwin, insieme ai suoi colleghi di ProPublica, ha analizzato oltre settemila casi giudicati con l’algoritmo Compas ed è giunta alla conclusione, statisticamente supportata, che l’algoritmo ha dei pregiudizi nei confronti degli afroamericani.
L’intelligenza artificiale è quindi una straordinaria opportunità che la giustizia italiana può utilizzare per ridurre sia lo spropositato arretrato, sia il flusso dei nuovi casi, rendendo compatibili i tempi della giustizia con i tempi previsti dalla improcedibilità della riforma Cartabia; naturalmente l’adozione di questa tecnologia va presa con le dovute cautele nel senso che può essere un potente aiuto al giudice, ma non deve sostituirlo, rimanendo egli l’unico depositario della potestà di interpretare ed applicare la legge.