Scarica il PDF

Sentenze algoritmiche e principi del diritto. Per un rinnovamento nella continuità

Andrea Giordano

1. L’esigenza di conoscere i corollari delle condotte è connaturale all’uomo; e la certezza delle regole è tacita condizione della loro accettabilità.
Che una giustizia ‘certa’ sia una giustizia ‘giusta’ è il rilievo sotteso al recente, e crescente, impiego delle tecniche di giustizia predittiva, che consentono di prevedere la sentenza ‘probabile’ attraverso il medio di algoritmi.
Se lo scopo è, dunque, la predizione degli esiti delle controversie, e la ratio la certezza delle decisioni e lo stesso affidamento, la fede laica degli utenti del sistema ‘giustizia’, i mezzi sono gli algoritmi, operazioni logiche che, a partire da dati in ingresso, forniscono dati in uscita attraverso una sequenza finita di passaggi.
Che gli algoritmi possano essere applicati all’ambito del processo, contrapponendo la matematica razionalità al soggettivismo della decisione, lo dimostrano i recenti esempi europei, tra cui emerge la piattaforma francese “Predictice.com”, che consente la determinazione dell’esito della lite in forza delle tecniche del machine learning, e finanche interni (si pensi alla sezione “Giurisprudenza Predittiva” sul sito della Corte di Appello di Venezia o il progetto “Prevedibilità delle decisioni” avviato dalla Corte di Appello di Bari).
Lo dimostrano, del resto, insieme alle – esplicite od implicite – applicazioni di modelli matematici da parte della giurisprudenza, le affinità ontologiche tra algoritmi e processo, sequenze logiche tese all’approdo a risultati in forza di passaggi obbligati e inestricabilmente connessi.

2. In antitesi rispetto alla predizione delle liti in forza di sequenze algoritmiche sembrano, tuttavia, porsi gli stessi canoni che presiedono al corretto esercizio della funzione giurisdizionale.
Se è, infatti, vero che la prevedibilità è un valore, radicato nello stesso ordinamento positivo, indisponibile è il principio di indipendenza interna ed esterna della funzione giudiziaria, di cui all’art. 101, c. 2, Cost..
Insieme all’indipendenza, rileva il trasparente esercizio della funzione giurisdizionale, garantito dalla controllabilità in facto e in iure dei suoi prodotti, attraverso lo specchio della motivazione e gli strumenti di censura delle decisioni.
Eppure, ad onta del formale schermo di neutralità che lo caratterizza, l’algoritmo sottende scelte e assunzioni contingenti, che presiedono alla raccolta e selezione dei dati alla base della sequenza. A seconda dei dati che si immettono, muta il risultato; e la sistematizzazione dei dati può dare luogo a deviazioni da quel principio di uguaglianza che alimenta la certezza (cosa avvenuta in relazione al software inglese Hart, le cui decisioni venivano assunte attribuendo un particolare peso specifico al codice di avviamento postale dei condannati, con l’effetto di discriminare gli abitanti in zone degradate).
Ai rischi di discriminazione si aggiungono quelli, pure connaturali agli algoritmi, di ‘oscurità’ e non controllabilità.
L’intelligenza artificiale può finanche superare quella umana di cui è figlia, tanto che finanche il programmatore può avere difficoltà a ripercorrere l’iter seguito dalla macchina.

3. Le infinite potenzialità degli algoritmi, che promuovono l’efficienza del sistema ‘giustizia’ e – più latamente – della macchina amministrativa, si scontrano con le difficoltà connesse alle possibili derive delle intelligenze artificiali.
A un punto di sintesi è approdata la giurisprudenza amministrativa, che, con riferimento ai procedimenti amministrativi, ha fissato alcuni paletti invalicabili.
Pur premettendo che “non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti” e che, non solo l’esclusione dell’intervento del funzionario persona fisica rispetta i principi dell’attività amministrativa, ma serve anche a rafforzarne l’imparzialità, il Consiglio di Stato ha sottolineato che le procedure robotizzate, da una parte, non possano comportare elusioni del dettato positivo e, dall’altra, non possano mai sostituirsi all’attività cognitiva e di giudizio.
Perché ciò sia possibile, l’algoritmo deve essere, anzitutto, conoscibile ex ante in tutti i suoi aspetti, da chiunque ne abbia interesse, oltre a dover essere suscettibile ex post di un sindacato giurisdizionale pieno.
Come, poi, il medesimo Consiglio di Stato ha precisato in una ulteriore, recente, sentenza, tre principi devono sempre essere massimamente garantiti: il principio di conoscibilità, destinato a coniugarsi con quello di comprensibilità, “per cui ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata”; il principio di non esclusività della decisione algoritmica, che impone che, nel processo decisionale, esista sempre un contributo umano capace di controllare, validare ovvero smentire la decisione automatica; il principio di non discriminazione algoritmica (“secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche”).
L’orizzonte può essere esteso al processo, che, con il procedimento, condivide struttura e funzione.
Come la decisione pubblica robotizzata, così la sentenza algoritmica si deve basare su modelli matematici rigorosamente conoscibili e comprensibili (si pensi all’impiego – avallato da recente dottrina – dei criteri di interpretazione della legge di cui all’art. 12 delle Disposizioni sulla legge in generale), controllabili in forza della motivazione e sindacabili con i mezzi di impugnazione.
L’effettività dei controlli impone la non esclusività del sistema algoritmico, non solo in primo grado – ove gli algoritmi non possono comunque obliterare valutazioni di opportunità, equità o bilanciamento di contrapposti interessi che postulano un giudice persona fisica –, ma anche e soprattutto nei gradi successivi, non potendosi prospettare Corti di appello o giudici di legittimità robotizzati.
Il canone di indipendenza deve essere, poi, preservato, sia in forza della richiamata non esclusività del sistema algoritmico, sia della idoneità dello stesso a garantire esiti compatibili con il principio di uguaglianza; ciò in forza di una selezione dei dati a monte il più possibile improntata a criteri oggettivi, vagliabili in forza della parte motiva delle pronunce e sindacabili in sede di impugnazione.
Se l’algoritmo aspira a sostituire il giudicante, deve essere, tanto quanto quest’ultimo, indipendente o neutrale e deve, tanto quanto quest’ultimo, erogare output ‘controllabili’.
Terzietà, imparzialità ed indipendenza non necessariamente escludono la robotizzazione; ‘giusto’ processo e sequenze algoritmiche non appartengono ad universi incompatibili. Processo e robotica sono, invero, conciliabili ove i modelli impiegati siano conoscibili, comprensibili e, per l’effetto, ‘controllabili’. Perché il processo, come il diritto, non è mai mera tecnica; bensì, tecnica di umanizzazione della tecnica. È tecnica esercitata nell’interesse di uomini che, in quanto tali, sentono il bisogno, anzi hanno il diritto, di essere giudicati dai propri simili.