Obblighi di mantenimento determinati con l'ausilio dell'intelligenza artificiale
29 Agosto 2023
Introduzione
Non solo l'ineluttabile avanzata della tecnologia in tutti gli ambiti della nostra vita, ma anche la ricerca spasmodica di efficienza, il mito dell'erogazione istantanea di un servizio su semplice domanda, l'onnipresente riferimento alle statistiche giudiziarie (non più solo in chiave nazionale, vista la risonanza e l'importanza attribuita alle varie indagini comparative condotte dalla Commissione europea sulla performance dei sistemi giudiziari) e l'aspirazione ad una maggiore certezza del diritto grazie alla prevedibilità delle decisioni: sono solo alcuni dei fattori che hanno favorito il repentino ingresso dell'Intelligenza Artificiale (IA) anche nel mondo del diritto. Il che porta a chiedersi quali siano i vantaggi attesi, e i rischi prevedibili, in un settore che tradizionalmente si è basato sulla dialettica tra umani e sul confronto originale tra tesi. Non vi è dubbio che anche nel settore giustizia vi siano aree che meglio di altre si prestano ad una certa standardizzazione delle decisioni, come ad esempio le cause seriali o quelle in cui tutto o parte del thema decidendum sia il calcolo di somme da porsi a carico di una parte. Tuttavia, la maggiore preoccupazione che l'uso di tali tecniche suscita in un settore ad altissima sensibilità come quello della giustizia è legata alle loro intrinseche modalità di funzionamento, la cui opacità ha portato gli esperti a coniare l'espressione “effetto scatola nera” (black box effect). Una felice metafora già usata nei primi commenti al funzionamento dell'IA accosta il processo decisionale di quest'ultima alla dinamica di un treno che entra in una galleria: l'utilizzatore è in grado di percepire solo la situazione iniziale e finale del processo logico, come un osservatore vedrebbe il treno entrare ed uscire dalla galleria, senza sapere cosa sia successo all'interno della stessa. Di tale possibilità sembrerebbe abbia fatto uso (il condizionale è d'obbligo, alla luce di quanto si dirà nel paragrafo che segue) la Corte d'Appello di Lima, in Perù, in una sentenza del 27.03.2023, che risulta al momento l'unico caso edito di decisione giudiziaria in tutto o in parte assistita dal programma Chat Gtp. risultati forniti da un'applicazione che usa l'IA per generare contenuti inediti. Il giudice ha difatti esordito richiamando la sentenza di primo grado, che aveva fissato nel 20% degli introiti del ricorrente l'importo dell'assegno di mantenimento da lui dovuto per la figlia, e ricordando che nel diritto peruviano il dovere di mantenimento incontra un limite nelle capacità contributive dei genitori. Ha quindi osservato che anche la madre, giovane e abile al lavoro, doveva farsi carico di una parte di tale obbligazione ed ha infine determinato, per presunzioni, la somma mensile necessaria a soddisfare i bisogni della minore. Solo all'esito di tale disamina, il giudice ha determinato l'importo dell'assegno posto a carico di entrambi i genitori “con l'assistenza della piattaforma di Intelligenza Artificiale di Open AI - Chat Gtp” per applicare la “tecnica di proporzione matematica” sulla base della quale ha dapprima sommato i redditi di entrambi e determinato in quale proporzione essi contribuivano ai bisogni della famiglia. Una volta individuata la percentuale di reddito espresso da ognuno di essi, ha applicato la stessa percentuale all'importo mensile reputato necessario per il mantenimento della minore ed ha quindi individuato la somma concretamente dovuta da entrambi. Dal testo della decisione non è possibile capire se l'intera motivazione sia stata elaborata da una piattaforma di IA, o se lo sia stata solo la parte relativa alle modalità di determinazione del quantum dell'obbligazione. Sta di fatto, che nel primo caso la decisione sarebbe ancor più rilevante in quanto dimostrerebbe che le nuove forme di intelligenza artificiale – di cui l'applicazione di Open AI è solo un esempio – sono in grado, per quanto ancora largamente perfettibili, di elaborare ragionamenti giuridici logici e consequenziali, ad imitazione del ragionamento umano, combinando gli elementi di fatto che vengono loro forniti. Se invece l'IA a cui il giudice ha fatto ricorso si è limitata a calcolare l'assegno giustificandone le ragioni sulla base di un quesito che conteneva in sé i parametri di riferimento (e dunque in un certo senso vincolava la decisione), si potrebbe opinare che il valore aggiunto non sia del tutto evidente. A mo' di esempio, nel caso specifico il giudice dichiara che il ricorrente “non ha provato l'attuale convivenza né lo stato di gravidanza della sua convivente”. Non è dato sapere, come anticipato, se questa sia una affermazione fatta dal giudice o elaborata autonomamente da Chat Gtp sulla base degli atti del giudizio: nel secondo caso, sarebbe tuttavia difficile – se non impossibile, dato il black box effect di cui sopra – capire in che modo l'applicazione abbia dedotto questo elemento di fatto, o se lo abbia correttamente interpretato alla luce delle regole che disciplinano il riparto dell'onere probatorio. Stesso discorso per quanto riguarda il riferimento alle c.d. massime di esperienza (las reglas de las maximas de la experiencia y del conocimiento) alle quali la sentenza si riporta per determinare la somma minima necessaria al mantenimento di un minore; a tali massime è comune fare riferimento nelle decisioni giudiziarie, a patto che esse non si risolvano in semplici illazioni o in criteri meramente intuitivi o addirittura contrastanti con conoscenze e parametri riconosciuti e non controversi. Nel caso di specie, tanto più trattandosi di sentenza in grado di appello, la possibilità di contrastare il contenuto di tali massime risulterebbe maggiormente difficoltosa. Come è noto, nell'aprile 2021 la Commissione europea ha presentato una proposta di regolamento (c.d. artificial intelligence act) che stabilisce regole armonizzate sull'intelligenza artificiale e modifica alcuni atti legislativi dell'UE. Il testo stabilisce una metodologia per la gestione dei rischi impiegata per definire i sistemi di IA ad alto rischio che pongono rischi significativi per la salute e la sicurezza o per i diritti fondamentali delle persone. Tali sistemi di IA dovranno rispettare una serie di requisiti obbligatori orizzontali per un'IA affidabile nonché seguire le procedure di valutazione della conformità prima di poter essere immessi sul mercato dell'Unione. Tra questi, come si evince dall'elenco di cui all'Allegato III alla proposta, vi sono anche “i sistemi di IA destinati ad assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti”, ovvero quei sistemi – come Chat Gtp – che si prestano ad essere impiegati non solo per ricerche giurisprudenziali ma anche per redigere, in tutto o in parte, un atto processuale di parte e finanche una sentenza. L'applicazione che la Corte d'Appello di Lima ne ha fatto, non è dunque che un esempio di quello che ci si può aspettare nel prossimo futuro tanto nel mercato dei servizi legali quanto negli stessi tribunali. Orbene, la definizione di “sistema di intelligenza artificiale” proposta dal regolamento rimanda ad “un software (…) che può, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. Si tratta di una nozione ampia, che evidentemente abbraccia qualsiasi possibile utilizzo di sistemi di IA in ambito giudiziario, da un più intelligente sfruttamento delle banche dati giurisprudenziali alla comparazione di tesi dottrinarie; dalla elaborazione di tabelle valoriali per il risarcimento del danno alla previsione di risultati in base alla ricorrenza di determinati tipi di decisioni in un dato ufficio giudiziario. Tra i vari utilizzi, è in particolare al concetto di giustizia predittiva che occorre qui fare riferimento, ovvero all'utilizzo di strumenti basati sull'intelligenza artificiale capaci di supportare la funzione legale e giurisdizionale mediante la capacità di analizzare in tempi brevi una grande quantità di informazioni al fine di prevedere il possibile esito – o i possibili esiti – di un giudizio. Ed invero, proprio la materia degli obblighi alimentari sembrerebbe prestarsi ad un utilizzo disinvolto di tali applicazioni, dal momento che – dati alcuni orientamenti di base (principio della bigenitorialità e della pari contribuzione ai bisogni dei figli, della salvaguardia di un livello minimo di sussistenza in capo al debitore, dell'adattamento dell'assegno in funzione dell'età del beneficiario e dell'evoluzione del costo della vita, etc.) – le conseguenze che i giudici traggono in punto di determinazione dell'assegno possono essere in qualche modo previste con una certa approssimazione. Tuttavia, la specificità di ogni singolo caso, il materiale umano con cui il giudice si confronta, i tanti dettagli che rivestono e colorano una fattispecie, la dialettica processuale che induce ripensamenti nelle parti e cambi di strategia, sono tutti fattori che difficilmente un'applicazione – per quanto intelligente – potrebbe tenere in debito conto, ed il rischio sembra essere quello di una standardizzazione non solo di approccio a vicende umane delicate ma anche di un appiattimento nella risposta dell'autorità giurisdizionale. Per dirla in altri termini: i fatti possono essere misurati, ma è la loro percezione a sfuggire ad una attendibile misurazione. A ciò si aggiunga un dato oramai acclarato, non fosse altro per i casi eclatanti che ne hanno disvelato l'esistenza: i risultati discriminatori nell'uso dei sistemi di IA sono direttamente legati alla qualità della base dati con cui essi sono alimentati. Dal caso americano COMPAS (software che doveva individuare il rischio di recidiva ma discriminava su base razziale) a quello francese delle Corti d'appello di Rennes e Douai (fallita sperimentazione di un software che avrebbe dovuto prevedere le somme corrisposte in determinate controversie da parte dei giudici francesi) passando per casi meno noti, ma più recenti, di azioni civili (negli Stati Uniti) totalmente infondate perché costruite su precedenti letteralmente inventati dal sistema di IA utilizzato, il panorama è indicativo dei rischi a cui può andarsi incontro in nome di un efficientismo che nulla ha a che vedere con la tutela dei diritti delle persone. Chi scrive dubita che questa sia la strada giusta per raggiungere i tanto agognati obiettivi della riduzione dei tempi processuali e della certezza del diritto, che dovrebbero invece essere perseguiti non solo attraverso una maggiore deflazione del contenzioso commerciale (per guadagnare risorse umane e materiali alla cura di quello familiare, essendo la famiglia l'ambito su cui uno Stato moderno e responsabile dovrebbe investire maggiormente per poter avere a lungo termine benefici in altri settori) ed in un maggiore coordinamento a livello locale e regionale sugli indirizzi giurisprudenziali, o sulla condivisione di migliori prassi. Meglio sarebbe utilizzare i sistemi di IA per snellire e supportare le fasi prodromiche o collaterali al processo decisionale (servizi di mediazione, di Cancelleria, di notifiche, etc.) piuttosto che spersonalizzare l'intervento del giudice in funzione di una più veloce risposta giudiziale che potrebbe essere comunque ottenuta se solo i carichi di lavoro fossero dimensionati rispetto al personale di magistratura. Offrire al giudice uno strumento per lavorare più velocemente non rende necessariamente un buon servizio né al destinatario finale della decisione, né al suo autore. Conclusioni
In termini generali, può senza dubbio affermarsi che tutte le applicazioni dell'IA lavorano su (e si nutrono di) precedenti, dai quali apprendono. Difficilmente, dunque, una decisione resa da un algoritmo sarà innovativa; essa sarà, verosimilmente, riproduttiva dei precedenti, laddove è proprio l'intuizione del giudice ad indurre i mutamenti giurisprudenziali. Il risarcimento del danno biologico, giusto per fare un esempio fra i tanti, non troverebbe posto nel nostro ordinamento se negli anni Settanta i giudici di Genova si fossero limitati a seguire l'allora consolidato orientamento della Corte di cassazione senza proporre una lettura alternativa del concetto di danno risarcibile. Pare allora a chi scrive che, tra i tanti possibili inconvenienti dell'utilizzo dell'IA anche in ambito giudiziario e giurisdizionale, due in particolare siano quelli a cui prestare maggiormente attenzione: la produzione di decisioni errate, ed in senso lato discriminatorie, a causa di una errata scelta della base di dati che alimentano le applicazioni di cui trattasi, ed il rischio di una staticità delle decisioni medesime. Rischi, entrambi, che soprattutto il diritto di famiglia non può permettersi di affrontare. |