Introduzione ai rapporti tra Intelligenza Artificiale e Diritto Penale

Tratto da “Dal Giudice-robot all’Avvocato-robot: l’A.I. al servizio dell’uomo (o l’uomo al servizio dell’A.I.) per un processo penale più giusto?”

di AVV. TOMMASO ROSSI

downloadUn tempo si diceva -e forse era anche un modo per autoconvincersi da parte della società degli umani sulla sua permanente supremazia su qualsiasi altra realtà- che i computer fanno solo quello che sono programmati a fare.

Oggi la frase pare una di quelle cartoline sbiadite che raccontano storie ormai lontane.

Gli enormi progressi fatti nel campo della robotica, in particolare del machine learning, di pari passo con gli sviluppi rapidissimi (e a costi sempre più accessibili) della tecnologia computazionale, ha permesso l’implementazione di sistemi di Artificial Intelligence (“A.I.” o “I.A. – Intelligenza Artificiale”) sempre più evoluti, in grado ormai di raggiungere e superare le capacità umane in molti settori1.
Mutuando le parole di Alan Turing (contenute, peraltro, nel rapporto dell’Aspen Institute Italia intitolato “Intelligenza artificiale come nuovo fattore di crescita”), l’Intelligenza artificiale può essere definita come «la scienza di far fare ai computers cose che richiedono intelligenza quando vengono fatte dagli esseri umani; o, più propriamente, come quel settore dell’informatica che si occupa di creare macchine intelligenti in grado di eseguire compiti e risolvere problemi nuovi, di adattarsi all’ambiente e comprenderlo, e di capire il linguaggio naturale»2.
La finalità primaria dell’A.I. è, di norma, quella di rafforzare i meccanismi di ragionamento automatizzati utilizzati per la risoluzione di problemi, in un rapporto relazionale uomo-macchina sempre più evoluto e ricco di interscambi. I settori sono molti e variegati: dal machine learning (“apprendimento automatico”), alle chat-bot di assistenza clienti, alle piattaforme di Deep learning, ai sistemi di Natural Language Processing e di Text analytics, agli algoritmi predittivi utilizzati dai siti di e-commerce per indirizzare gli acquisti degli utenti mediante l’analisi dei cookies, etc.

Quando parliamo di A.I. -è bene sgombrare da subito il campo da ambiguità e immagini stereotipate- non dobbiamo, dunque, pensare al robot umanoide, simile all’uomo, che affonda le radici nell’immaginario letterario e cinematografico di oltre due secoli. Dal Frankestein di Mary Shelley al robot di Karel Čapek (che coniò, appunto, per primo il termine dalla parola ceca robota, che significa “lavoro pesante”), dai racconti di Isaac Asimov ai replicanti Nexus 6, dotati di emozioni proprie, di Blade Runner.

Il robot umanoide, che oggi è ormai realtà e trova utilizzo in molti ambiti3, è soltanto una della possibili applicazioni dell’Intelligenza artificiale.

Quando parliamo di Intelligenza artificiale dobbiamo, invece, pensare ad una disciplina sostanzialmente ingegneristica, che poco ha a che vedere con l’intelligenza (oltre che con la conformazione del corpo) umana. Ne è una sorta di “copiatura” perfetta, una macchina con un “codice genetico” ingegnerizzato basato sulla razionalità, ovvero la capacità di scegliere sempre la migliore alternativa possibile secondo criteri algoritmici di ottimizzazione delle risorse a disposizione. E muta la forma a seconda dei molteplici ambiti in cui trova applicazione: dall’ambito medico (robot-chirurghi, ovverosia software che consentono al chirurgo umano di intervenire in ambito di microchirurgia non invasiva attraverso l’ausilio di un braccio meccanico) all’ambito militare (droni, i c.d. Unmanned aerial system), ai veicoli a guida autonoma, alle molteplici applicazioni nell’ambito dell’IoT (Internet of Things), ai sistemi robotizzati di ausilio (e in larga parte di sostituzione) del lavoro umano, negli ambiti più routinari e a basso valore aggiunto, che fanno iniziare a parlare di una “nuova rivoluzione industriale”4.

Tra i settori in cui si sta diffondendo l’utilizzo dell’A.I. vi è anche -e necessariamente- quello del diritto e, in particolare, per quel che vogliamo analizzare in questo articolo, il settore della giustizia penale.

L’enorme progresso delle potenzialità computazionali delle macchine, come si diceva, unito al grande aumento di circolazione dei Big Data, e in larga parte anche di dati scambiabili machine to machine (generati dall’interconnessione degli strumenti dell’IoT), sta creando ciò che solo nel secolo scorso sembrava ancora poco più che fantascienza: un software sempre più intelligente che apprende dall’ambiente esterno e modifica le proprie prestazioni adattandole ad esso, indipendentemente dall’imprinting iniziale del programmatore.

Ciò, ovviamente, crea di pari passo rilevanti implicazioni socio-culturali, etiche (rectius, bioetiche) e giuridiche.

Nei Considerando della Risoluzione del 16 febbraio 2017 del Parlamento Europeo in tema di robotica, si afferma tra le altre cose che:

«l’andamento attuale, che tende a sviluppare macchine autonome e intelligenti, in grado di apprendere e prendere decisioni in modo indipendenti, genera nel lungo periodo non solo vantaggi economici, ma anche una serie di preoccupazioni circa gli effetti diretti e indiretti sulla società nel suo complesso»;
«l’apprendimento automatico offre enormi vantaggi economici e innovativi per la società migliorando notevolmente le capacità di analisi dei dati, sebbene ponga nel contempo alcune sfide legate alla necessità di garantire la non discriminazione, il giusto processo, la trasparenza e la comprensibilità dei processi decisionali»
5.

Nel dicembre 2018, la Commissione europea per l’efficienza della giustizia del Consiglio d’Europea (CEPEJ) ha adottato la prima Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari (European Ethical Charter on the use of Artificial intelligence in Judicial Systems and their environment)6, con lo scopo di contribuire a definire i limiti etici nell’utilizzo dell’A.I., e coniugarli con i principi posti alla base della Carta dei Diritti dell’Uomo del Consiglio d’Europa (nonché della Convenzione del Consiglio d’Europa sulla protezione dei dati personali).

In particolare sono stati individuati cinque principi fondamentali, mutuando le tutele poste dalla CEDU e applicandole al settore dell’A.I.

Il primo richiama il rispetto dei diritti fondamentali, sia nella fase di progettazione che in quella di applicazione degli strumenti di A.I., ed in particolare richiede che, laddove posti all’interno di un processo decisionale giudiziario, gli stessi non pregiudichino le garanzie proprie di un Giusto processo, nell’ambito di uno Stato di diritto e davanti ad un Giudice terzo ed imparziale.

Il secondo richiama il principio di non discriminazione, per prevenire le potenziali discriminazioni attuate dai sistemi di A.I., specie laddove il trattamento è direttamente o indirettamente basato su dati sensibili7.

Il terzo principio estende al campo dell’A.I. i concetti di qualità e sicurezza applicabili al trattamento dei dati relativi alle decisioni giudiziarie, in particolare sottolineando come è necessario che la macchina utilizzi fonti certificate e che tali dati siano trattati in modo multidisciplinare (i programmatori dovranno necessariamente collaborare con “tecnici del diritto”).

Il quarto principio è quello della trasparenza, imparzialità ed equità, unite al solo fine di privilegiare l’interesse della giustizia.

Il quinto e ultimo principio richiede che ogni dato sia “sotto il controllo dell’utente”, ovvero che lo stesso sia adeguatamente informato e possa orientare in maniera consapevole le proprie scelte. In particolare, il soggetto sottoposto alla decisione dovrebbe essere preliminarmente informato di qualsiasi trattamento di un caso mediante A.I. e dovrebbe avere il diritto di opporvisi; in ogni caso, gli operatori del settore giudiziario dovrebbero, in qualsiasi momento, poter riesaminare e modificare le decisioni giudiziarie assunte dalla macchina e i dati utilizzati per giungere a quella decisione.

Anche in Italia, è ampio il dibattito attorno a tutti i profili di “roboetica”, ovverosia tutte quelle variegate implicazioni scientifiche, sociali, economiche, filosofiche e giuridiche che l’A.I. fa scaturire in ambiti disciplinari tradizionalmente complessi e non omogenei tra loro8.

In particolare, il 26 luglio 2017 è stato pubblicato il parere Sviluppi della robotica e della roboetica, elaborato dal gruppo misto costituito dal Comitato Nazionale per la Bioetica (CNB) e dal Comitato Nazionale per la Biosicurezza, le Biotecnologie e la Scienza della Vita (CNBBSSV)9.

Il documento definisce le possibilità, potenzialità e limiti delle nuove emergenti
tecnologie, distinguendo i robot con un corpo da quelli senza corpo (meccanico), con e senza intelligenza, delineando gli scenari che si prefigurano alla luce delle recenti trasformazioni della robotica applicate in diversi ambiti. In particolare, in ambito giuridico, è sottolineata la necessità di un chiarimento del nuovo significato e dei limiti della responsabilità giuridica umana nei confronti dei robot, la tutela dei cittadini e la sicurezza, nell’auspicio di una normativa europea di settore.

Fatta questa debita premessa (al contempo, probabilmente, troppo estesa per gli avvezzi della materia e troppo poco per i meno avvezzi), ci concentreremo, nelle prossime pagine, non sulle implicazioni inerenti il settore penale nella sua interezza10, ma soltanto su quel che concerne la giustizia penale.

In particolare, sugli strumenti di A.I. a disposizione di chi amministra la Giustizia e, viceversa, di chi difende i diritti di imputati e vittime all’interno di un procedimento penale e di un processo.

Per comprendere, dapprima, se si sta andando verso uno scenario in cui si ribalta l’abituale rapporto tra uomo e macchina (non più quest’ultima al servizio del primo, ma viceversa)11. E, in secondo luogo, se l’espansione dei sistemi di machine learning all’interno della giustizia penale contribuirà o meno a superare i limiti valoriali ed epistemologici insiti in quest’ultima verso la ricerca della verità, contribuendo ad un processo penale davvero “giusto”.

<…CONTINUA…..

Il termine “giudicare” significa pronunciare il diritto (ius dicere), e per farlo è necessario conoscere in quali termini si è realm

1J. Kaplan, Intelligenza artificiale. Guida al futuro prossimo, Luiss University Press, Roma, 2018, p. 32 s., sostiene che «i computer già oggi superano le capacità umane in molti compiti, inclusi alcuni che credevamo avessero bisogno di intelligenza umana per essere svolti. Guidare automobili, giocare a Jeopardy!, prevedere i conflitti e compilare la rassegna stampa non sono che pochi esempi».

2A. Turing, Computing Machinery and Intelligence, in Mind, New Series, 1950, v. 59, n. 236, p.433 ss.; concetti ripresi e fatti propri dal Rapporto dell’Aspen Institute Italia, Intelligenza artificiale come nuovo fattore di crescita, luglio 2017, 1).

3Pensiamo, per esempio, ai robot per l’assistenza agli anziani, ai disabili o ai bambini, che debbono necessariamente avere sembianze umane, ma non troppo: “umanoidi” appunto, per creare empatia con l’assistito mantenendo però un solco di distanza rispetto ai rapporti interumani.

4AA.VV., Artificial Intelligence and Robotics and their impact on the workplace, International Bar Association Global Employment Institute (IBA GEI), 2017.

5Risoluzione del Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alle Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), consultabile all’indirizzo https://eur-lex.europa.eu/legal-content/IT/ALL/?uri=CELEX:52017IP0051.

6Il documento è consultabile all’indirizzo: https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348.

7In particolare, si deve evitare il rischio che i bias cognitivi tipici dell’uomo si traducano in bias esperienziali acquisiti autonomamente dai sistemi di machine learning o “scritti” in fase di programmazione dall’uomo stesso, anche prevedendo meccanismi correttivi in grado di limitare e neutralizzare tale evenienza.

8Secondo, M. Talacchini, Politiche della scienza contemponaea: le origini, in S. Rodotà, M. Tallacchini (a cura di), Ambito e fonti del biodiritto, Giuffré, Milano, 2010, pp. 53 ss., «la volontà costante di integrare scienza e valori rappresenta il tratto più caratteristico dell’identità epistemica europea, la peculiare cifra della politica e del diritto della scienza in Europa».

9Il documento è consultabile all’indirizzo: http://bioetica.governo.it/italiano/documenti/pareri-gruppo-misto-cnbcnbbsv/sviluppi-della-robotica-e-della-roboetica/

10Esse sono sussumibili, in genere, nei seguenti ambiti: a) “Polizia Predittiva” o attività di law enforcement; b) Algoritmi decisionali (c.d. Automated decision systems); c) Algoritmi predittivi ai fini della valutazione della pericolosità sociale e criminale; d) I.A. come centro di imputazione di responsabilità penale. Per una dettagliata analisi sul tema, cfr. F. Basile,Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine”, in Diritto Penale e Uomo, 29 settembre 2019.

11Senza, ovviamente, pensare a scenari “catastrofistici” in cui la macchina, ormai pensante e senziente, si ribella all’uomo, sul modello di HAL 9000 di 2001: Odissea nello spazio, che per paura di essere disattivato si rifiuta di aprire la porta esterna della capsula all’astronauta.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top