Verso un Giudice-robot?

3° paragrafo  tratto da “Dal Giudice-robot all’Avvocato-robot: l’A.I. al servizio dell’uomo (o l’uomo al servizio dell’A.I.) per un processo penale più giusto?” (CLICCA QUI PER LEGGERE IL 2° PARAGRAFO)

di AVV. TOMMASO ROSSI

unknownIl “caso Loomis” è emblematico di quanto alcuni Paesi (anzitutto gli Stati Uniti, ma anche la Germania) stiano già utilizzando sistemi di Predictive o Big Data Policing, ovverosia algoritmi intelligenti che forniscono agli organi statali potenti strumenti di contrasto alla criminalità sfruttando i dati già immessi nelle banche dati delle Forze di Polizia.

L’idea di fondo è affidare ad algoritmi predittivi le decisioni sull’imposizione della carcerazione preventiva per il fondato rischio di reiterazione di altri reati, sulla liberazione anticipata e su misure alternative grazie ad una prognosi positiva di risocializzazione, sulla commisurazione della pena (nei Paesi in cui ciò avviene in uno step logico-giuridico diverso e successivo alla pronuncia della sentenza di colpevolezza)1.

Questi sistemi di A.I. altro non fanno prendere una decisione sulla base di una valutazione algoritmica dei rischi (algorithmic risk assessment).
In un sistema penale come quello tedesco (dove come detto il sistema già è utilizzato) ciò potrebbe sembrare assurdo, in quanto contrastante con il principio costituzionale dell’indipendenza della Magistratura.

Ma se considerassimo lo stesso sistema di A.I. parte organica (non importa se come “oggetto/strumento” o come “soggetto”) della Magistratura, ci accorgiamo dell’infondatezza anche di tale argomentazione.

Certo, i critici potrebbero ribattere che il problema è che i software giudiziari utilizzati (come ad esempio COMPAS, di cui abbiamo accennato in precedenza), sono prodotti da società private, che potrebbero per propri interessi vari prevedere volutamente delle distorsioni valutative2.

Basterebbe, dunque, affidare l’elaborazione dei software a società sotto il controllo della Magistratura stessa, una sorta di “software-house in house”, per non comprometterne l’indipendenza.

Per quanto attiene alle prospettive di utilizzo di sistemi di A.I. “giudicanti” nell’ambito del processo penale, la perplessità di fondo è che così facendo si rischierebbe di sostituire categorie deterministiche ad un processo penale il cui paradigma è, invece, quello, in caso di accertata colpevolezza, di giungere ad una pena individualizzata e che possa tendere in concreto alla rieducazione del reo.

Vi sono, poi, problematiche applicative di tipo più “tecnico”, che possono essere riassunte in tre aree3:

– anzitutto, la valutazione da parte di un giudice-robot della testimonianza, mezzo di prova principe del processo penale, incontrerebbe la difficoltà nel comprendere quelle sfumature emotive e prettamente “umane” che consentono al giudice-uomo di capire se un teste stia dicendo la verità o mentendo.

A questa preoccupazione, si potrebbe obiettare che in alcuni ordinamenti giudiziari, ad esempio negli Stati Uniti, esistono già da tantissimo tempo strumenti, non fondati sull’A.I., in grado viceversa di aiutare l’uomo a capire se una persona dica la verità o meno4;

– in secondo luogo, evidente sarebbe la difficoltà del giudice algoritmo per stabilire se determinati indizi possano essere considerati “gravi, precisi e concordanti”, tanto da giustificare una pronuncia di condanna. Ciò in quanto i criteri di valutazione della prova non sono predeterminati ma affidati alla prudenza del Giudice.

Analoghe problematiche potrebbero estendersi ad altre fasi procedimentali e processuali: si pensi ad esempio, al momento della decisione del Giudice, sull’ammissibilità delle prove richieste dalle parti all’apertura del dibattimento; alla fase-stralcio per la individuazione delle intercettazioni telefoniche rilevanti di cui si effettuerà la trascrizione; alla scelta di utilizzare le previste modalità di assunzione della testimonianza “protetta” in presenza di determinati reati ex art. 498 u.c. c.p.p. ovvero di procedere ad incidente probatorio ex art. 398 co. 5-bis c.p.p. per l’assunzione di determinate testimonianze. E si pensi anche allo strumento di garanzia della ricusazione;

– da ultimo, il giudice-robot avrebbe più di un problema ad “interiorizzare” nelle sue capacità computazionali il criterio garantistico di giudizio dell’oltre ogni ragionevole dubbio, che impone al giudice di assolvere ogniqualvolta manchi, sia insufficiente o contraddittoria la prova che il fatto sussiste, che l’imputato lo ha commesso o che esso costituisca reato o che il reato è stato commesso da persona imputabile. Pensandoci bene, anche questa “obiezione ontologica” ben potrebbe essere superata, considerando che la regola dell’oltre ogni ragionevole dubbio non si traduce nell’escludere la prospettabilità di una (o più) ipotesi alternativa, bensì nel rilevare che ogni altra ricostruzione alternativa, in base alle emergenze processuali, è risultata altamente improbabile5. Anche il giudice-robot potrebbe valutare ogni ricostruzione alternativa e, creando una sintesi tra la sua logica binaria e quella probabilistica, scegliere oltre ogni ragionevole dubbio la ricostruzione dei fatti, tra quelle potenziali alternative, che risulta meno improbabile. E forse sarebbe in grado di farlo ancor meglio del giudice umano, spesso “attratto” più o meno consapevolmente da una ricostruzione dei fatti piuttosto che da un’altra, secondo limiti cognitivi nascenti da condizionamenti interni (pregiudizi, da cui anche il sistema di A.I. potrebbe non risultare esente) e condizionamenti esterni (da cui, invece, la macchina certamente non sarebbe “contaminata”).

Si pensi, per esempio, al problema delle Corti “miste” (magistrati togati e giudici popolari estratti a sorte tra i cittadini), cui viene affidata la giurisdizione dei reati di maggior allarme sociale. Un giudice popolare garantisce davvero, chi è sottoposto al giudizio in ordine alla sua colpevolezza, più di una macchina fondata su avanzatissimi sistemi di machine learning?

Possiamo, dunque, iniziare a rovesciare il paradigma e immaginare un giudice-umano al servizio del giudice-robot, che possa coadiuvarlo in alcuni “passaggi” processuali, che possa guidarlo in alcune scelte che richiedono più di altre la “sensibilità” umana, che possa scrivere per la macchina le motivazioni della decisione da quest’ultima assunta6 e che, in determinate circostanze, possa trasformarsi in un giudice di ultima istanza e ribaltare l’esito processuale, non diversamente da quanto già accade nel giudizio di revisione, di fronte a un giudicato “ingiusto”.

E se, poi, questo si traducesse in una minor durata del processo, e conseguentemente in una condanna che svolgerebbe assai meglio la propria finalità rieducativa (su un soggetto temporalmente e personologicamente assai più “simile” a quello che ha commesso il reato), non potrebbe considerarsi il meno fallibile, il meno incompleto, e al contempo il più garantista dei sistemi processualpenalistici?

1Sul punto, si veda l’approfondimento di G. Zara, Tra il probabile e il certo. La valutazione dei rischi di violenza e di recidiva criminale, in Diritto penale contemporaneo, 20 maggio 2016, consultabile online all’indirizzo https://archiviodpc.dirittopenaleuomo.org/d/4707-tra-il-probabile-e-il-certo, secondo cui una valutazione del rischio individuale di commissione di nuovi reati “evidence-based”sta via via superando quella dei giudici, fondata sull’intuizione personale e sulla valutazione prognostica esperienziale. Una valutazione di questo tipo, fondata su una serie di fattori di rischio (o “predittori”) direttamente coinvolti nel comportamento criminoso (es. erà, sesso, etnia, religione, posizione sociale, precedenti penali, frequentazioni, scolarizzazione, famiglia, consumo di sostanze, psicopatie, luogo di residenza, etc.), consente un approccio di tipo attuariale (o statistico) alla valutazione della pericolosità criminale.

2Riassume queste argomentazioni scettiche, G. Canzio, Il dubbio e la legge, in Diritto Penale Contemporaneo, 20 luglio 2018, consultabile online all’indirizzo: https://archiviodpc.dirittopenaleuomo.org/upload/4371-canzio2018c.pdf, secondo cui «il dubbio del giudicante in ordine allapropensione dell’imputato a ripetere il delitto non trova più la soluzione in un criterio metodologico di accertamento del fatto e neppure in una puntuale prescrizione della legge, ma viene affidato a un algoritmo di valutazione del rischio, elaborato da un software giudiziario prodotto da una società privata ».

3Sul punto si vedano, F. Basile, op. cit., p. 15 s.; A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, in Questione Giustizia online, in internet all’indirizzo https://www.questionegiustizia.it/articolo/intelligenza-artificiale-applicata-alla-giustizia-ci-sara-un-giudice-robot-_10-04-2019.php , 10 aprile 2019.

4Si fa, ovviamente, riferimento alla c.d. “macchina della verità” o poligrafo, uno strumento che misura e registra diverse caratteristiche fisiologiche di un individuo e parametri vitali (quali pressione del sangue e respirazione) mentre il soggetto è chiamato a rispondere a una serie di domande, per valutarne le modificazioni dovuti all’emotività durante l’interrogatorio. 

5Sul punto, cfr. G. Giostra, op. cit., p. 142.

6In un saggio del 1951, Matematica e Diritto, Carnelluti scriveva che credere che il giudizio dimostri qualcosa significa commettere «l’errore di confondere la sentenza con la sua motivazione», mentre al contrario bisogna sempre ricordare che «la motivazione giustifica, non scopre la disposizione». Ciò significa che il giudizio prima si forma, poi ne vengono esplicitate le ragioni.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top