I.A.: i valori, i criteri di utilizzo e le questioni sottese alla loro applicazione nella fase delle intercettazioni

18 Giugno 2024

L'avvento delle Intelligenze Artificiali pare irrompere massivamente negli ultimi due anni ma, in realtà, la I.A., almeno nella forma più elementare, esiste e impegna matematici, ingegneri, filosofi e scienziati dagli anni '50 del secolo scorso.

Oggi, se ci sentiamo quasi invasi dalle I.A. è perché le fruiamo in maniera consapevole e perché si inizia a dare risposte ai grandi dubbi giuridici ed etici sul loro sviluppo e sui loro usi, a partire dalle applicazioni in ambito di pubblica amministrazione fino a giungere all'uso investigativo.

Cosa sono e quali sono le Intelligenze Artificiali

Alla base di ogni forma e tipo di I.A. sussiste la programmazione algoritmica.

Quest'ultima, è quella «sequenza ordinata di operazioni di calcolo che in via informatica [è] in grado di valutare e graduare una moltitudine di domande» (Consiglio di Stato, sez. VI, 8 aprile 2019, n. 2270) o meglio, un insieme di operazioni logiche che, a partire da determinati dati in ingresso, fornisce, attraverso una sequenza finita di passaggi, determinati dati in uscita.

Sebbene l'algoritmo paia assumere un'aura di neutralità, in realtà è frutto di precise scelte e valori e di pre-giudizi compiuti dall'uomo; ciascun algoritmo, quindi, trova applicazione sulla base di scelte predeterminate dall'uomo, scelte da cui dipendono i criteri utilizzati per la selezione dei dati.

Per Intelligenza Artificiale s'intende, allora, un insieme di processi compiuti da un sistema algoritmico con l'abilità di mostrare capacità quali il ragionamento, l'apprendimento, la pianificazione e, nelle versioni più sviluppate, la creatività che consente di acquisire strategie risolutive e previsionali in base all'esperienza (sul punto: «Per "intelligenza artificiale" (IA) si intendono quei sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici. Usiamo l'IA quotidianamente, ad esempio per bloccare lo spam nella posta elettronica o per parlare con gli assistenti digitali. L'aumento della potenza di calcolo e della disponibilità dei dati e il progresso negli algoritmi hanno reso l'IA una delle tecnologie più importanti del 21° secolo.» tratto dalla Comunicazione della Commissione al Parlamento Europeo, al Consiglio Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato delle Regioni, Piano coordinato sull'intelligenza artificiale, Bruxelles, 7.12.2018).

A sua volta, l'I.A. si declina sotto vari aspetti: il primo è il machine learning (apprendimento automatico) che utilizza un ventaglio di tecniche statistiche per consentire ai computer di apprendere dai dati immessi in addestramento, identificando pattern e prendendo decisioni basate su esempi passati; poi, esiste il deep learning (apprendimento approfondito) che, invece, è un sottoinsieme più specifico del machine learning ed utilizza reti neurali profonde (composte da molteplici livelli) per apprendere dai dati (al suo interno troviamo, ad esempio, i grandi modelli fondazionali come GPT, DALL-E di OpenAI e LLaMa di Meta che hanno ridestato attenzione verso l'Intelligenza Artificiale Generativa); infine, i foundation model per l'interpretazione del linguaggio naturale che prendono il nome Large Language Model (LLM).

L'A.G.I. (Artificial General Intelligence), definita anche intelligenza artificiale forte, pone i più profondi e ampi dubbi in tema di addestramento iniziale e contenimento successivo.

Infine, tenuto conto che per riprodurre algoritmi in grado di riprodurre le capacità umane è necessario, prima, conoscere fino in fondo la natura neurologica umana, possiamo affermare con certezza che non esiste l'A.S.I. (Artificial Super Intelligence), oggi solo oggetto di studi scientifici in ambito tecnologico e neurologico.

Negli anni, la Pubblica Amministrazione, che è il primo e grande fruitore italiano di I.A., ha richiesto strumenti altamente automatizzati, quali appunto la programmazione algoritmica, particolarmente utili nelle procedure seriali o standardizzate implicanti l'elaborazione di ingenti quantità di istanze e dati oggettivamente comprovabili; per mezzo della programmazione algoritmica, i criteri normativi sottesi alle procedure vengono trasformati, per l'appunto, in algoritmi che conducono alla decisione finale, attraverso una sequenza predeterminata logica e condizionata predeterminata dal programmatore.

Le fonti normative e la giurisprudenza amministrativa che ammettono il ricorso alle procedure decisionali automatizzate

Per quanto l'avvento dell'I.A. in ambito processual-penalistico generi gravi perplessità, soprattutto per gli effetti in ambito di tutela delle garanzie difensive, resta il fatto che, in Italia, il dovere di incentivare l'uso delle nuove tecnologie nelle attività della Pubblica Amministrazione è stato espressamente previsto già con la legge 7 agosto 1990, n. 241Nuove norme in materia di procedimento amministrativo e di diritto di accesso ai documenti amministrativi”, la quale, all'art. 3 introdotto con l'art. 3-bis della legge 11 febbraio 2005, n. 15Modifiche ed integrazioni alla legge 7 agosto 1990, n. 241 concernenti norme generali sull'azione amministrativa”, riconosce che per conseguire maggiore efficienza nella propria attività «le amministrazioni pubbliche agiscono mediante strumenti informatici e telematici, nei rapporti interni, tra le diverse amministrazioni e tra queste e i privati».

Anche il Codice dell'Amministrazione Digitale (decreto legislativo 7 marzo 2005, n. 82 “Codice dell'amministrazione digitale”), sin dalla sua introduzione, ha incentivato l'utilizzo di strumenti digitali nell'ambito dei rapporti con gli enti e le Pubbliche Amministrazioni, stabilendo all'art. 12 che «le pubbliche amministrazioni nell'organizzare autonomamente la propria attività utilizzano le tecnologie dell'informazione e della comunicazione per la realizzazione degli obiettivi di efficienza, efficacia, economicità, imparzialità, trasparenza, semplificazione e partecipazione nel rispetto dei principi di uguaglianza e di non discriminazione, nonché per l'effettivo riconoscimento dei diritti dei cittadini e delle imprese di cui al presente Codice in conformità agli obiettivi indicati nel Piano triennale per l'informatica nella pubblica amministrazione».

A questo si aggiungano le argomentazioni sviluppate dalla nota sentenza delConsiglio di Stato, sez. VI, 8 aprile 2019, n. 2270, che ha definito i criteri e le modalità di utilizzo degli algoritmi nelle procedure decisionali della Pubblica Amministrazione e ha statuito che: «In primo luogo, come già messo in luce dalla dottrina più autorevole, il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l'algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell'algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato. In altri termini, la “caratterizzazione multidisciplinare” dell'algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l'algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice. In secondo luogo, la regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo».

Il Consiglio di Stato ha, altresì, chiarito che gli algoritmi risultano particolarmente efficaci per le procedure seriali o standardizzate, ovvero per quelle procedure implicanti l'elaborazione di ingenti quantità di istanze e caratterizzate dall'acquisizione di dati certi e comprovabili che non necessitano di apprezzamenti discrezionali così che l'utilizzo dell'automazione risulterebbe pienamente conforme ai canoni di efficienza ed economicità dell'azione amministrativa previsti dall' art. 1 della legge n. 241/1990 anche quale doverosa declinazione dell'art. 97 Cost.

Inoltre, nella stessa sentenza si dice che il ricorso a procedure “robotizzate” da parte della Pubblica Amministrazione non può certo essere motivo di elusione dei principi posti alla base dello svolgimento dell'attività amministrativa: la circostanza che la regola amministrativa si traduca in una regola algoritmica, dunque, non esclude il controllo da parte della P.A, la quale mantiene comunque un ruolo ex ante di mediazione e composizione di interessi, per mezzo di test, aggiornamenti e modalità di perfezionamento dell'algoritmo.

A distanza di pochi mesi dalla sentenza n. 2270/2019, sempre il Consiglio di Stato con la sentenza del 13 dicembre 2019, n. 8472, partendo dall'analisi del Regolamento Europeo in materia di privacy (Regolamento (UE) 2016/679 del Parlamento Europeo e del Consiglio è il Regolamento Generale U.E. sulla protezione dei dati e disciplina il trattamento dei dati personali relativi alle persone nell'UE, da parte di persone, società o organizzazioni), arriva a delineare un terzo aspetto essenziale, che, però, costituisce anche un limite delle procedure automatizzate,  l'imputabilità, e afferma che: «Il principio di conoscibilità, per cui ognuno ha diritto a conoscere l'esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata. Il principio, in esame è formulato in maniera generale e, perciò, applicabile sia a decisioni prese da soggetti privati che da soggetti pubblici, anche se, nel caso in cui la decisione sia presa da una p.a., la norma del Regolamento costituisce diretta applicazione specifica dell'art. 42 della Carta Europea dei Diritti Fondamentali (“Right to a good administration”), laddove afferma che quando la Pubblica Amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l'obbligo di sentirla prima di agire, di consentirle l'accesso ai suoi archivi e documenti, ed, infine, ha l'obbligo di “dare le ragioni della propria decisione”. Tale diritto alla conoscenza dell'esistenza di decisioni che ci riguardino prese da algoritmi e, correlativamente, come dovere da parte di chi tratta i dati in maniera automatizzata, di porre l'interessato a conoscenza, va accompagnato da meccanismi in grado di decifrarne la logica. In tale ottica, il principio di conoscibilità si completa con il principio di comprensibilità, ovverosia la possibilità, per riprendere l'espressione del Regolamento, di ricevere “informazioni significative sulla logica utilizzata».

Le questioni problematiche dell'uso delle intelligenze artificiali nella fase delle indagini preliminari

Anche l'uso delle I.A. in campo investigativo non è più un tabù. Da alcuni anni sono in corso usi e sviluppi di programmazioni algoritmiche avanzate per riconoscere volti, individuare postazioni, addirittura prevedere illeciti; tuttavia, se quest'ultima attività di profilazione e predizione con l'I.A. è stata vietata con il Regolamento Europeo da pochi giorni approvato (Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale), Bruxelles, 14 maggio 2024) al quale dovrebbe seguire un provvedimento normativo nazionale basato sugli stessi principi (Schema di disegno di legge recante disposizioni e delega al governo in materia di intelligenza artificiale approvato dal Consiglio dei Ministri n. 78 del 23 aprile 2024), le altre attività investigative svolte con le I.A. sono in corso e gli esiti vengono utilizzati e versati nel fascicolo del Pubblico Ministero.

Non sorprenda che prima delle parti private siano le Procure ad utilizzare in fase investigativa l'I.A.: come si è visto prima, già con la c.d. Legge Bassanini si spingeva affinché la P.A. si avvalesse sempre più della tecnologia al fine di velocizzare i tempi di processazione dei dati.

Come noto, la disciplina delle intercettazioni è stata modificata con la legge n. 7/2020 di conversione del decreto legge n. 28/2000 che ha modificato la disciplina delle intercettazioni di conversazioni o comunicazioni e l'intreccio normativo che ne è derivato presenta aspetti di vera innovazione rispetto alla disciplina che era stata dettata dal decreto legislativo n. 216/2017, c.d. Riforma Orlando.

La legge n. 7/2020 (come ricordato in La disciplina delle intercettazioni telefoniche ed ambientali, di D. Scarpino, su Penale Diritto e Procedura del 20 gennaio 2023) ha ridimensionato la portata di talune modifiche introdotte dalla previgente disciplina delle captazioni, recependo alcuni consolidati orientamenti giurisprudenziali; ha colto l'occasione per risolvere questioni problematiche in tema d'impiego del captatore informatico e di utilizzabilità delle intercettazioni in procedimento diverso; ha reso più chiara la modalità di acquisizione, al procedimento prima e al processo poi, nel contraddittorio tra le parti, delle intercettazioni ritenute utilizzabili; ha modernizzato il sistema di conservazione degli esiti delle intercettazioni nell'archivio informatico, tenuto dal Procuratore della Repubblica.

È nel perimetro dell'art. 268 c.p.p., tuttavia, che si ritiene debbano svolgersi le osservazioni in merito all'uso di I.A.

La Corte costituzionale con la sentenza n. 34 anno 1973, osservava a proposito di obbligo motivazionale che «Nel nostro sistema la compressione del diritto alla riservatezza delle comunicazioni telefoniche, che l'intercettazione innegabilmente comporta, non resta affidata all'organo di polizia, ma si attua sotto il diretto controllo del giudice. É al magistrato che la legge riconosce il potere di disporre l'intercettazione e dalla legge stessa sono desumibili i limiti di siffatto potere. (…) Del corretto uso del potere attribuitogli il giudice deve dare concreta dimostrazione con una adeguata e specifica motivazione del provvedimento autorizzativo».

Nell'ambito dei mezzi di ricerca della prova, specificamente delle intercettazioni con mezzi captativi occulti e contestuali del contenuto di una conversazione o comunicazione tra soggetti, si comprende subito che il problema dei dati offerti per l'addestramento dell'I.A., dei dati offerti per lo sviluppo dell'azione intercettativa e dei dati offerti per la trascrizione dei risultati intercettativi sono elementi che compartecipano alla formazione del medesimo mezzo di ricerca della prova.

Affinché una captazione possa essere ricompresa nel concetto d'intercettazione occorre che la stessa avvenga mediante l'utilizzo di strumenti meccanici senza i quali la comunicazione - riservata e svolta con modalità tali da escludere i terzi dall'ascolto - non potrebbe essere appresa: l'art. 268 c.p.p. prescrive che si provveda alla registrazione delle comunicazioni intercettate e, salvi casi eccezionali, tali operazioni possano essere compiute solo a mezzo di impianti installati presso la procura della Repubblica.

È, quindi, l'impiego di apparecchiature tecnologiche, atte a captare la conversazione, l'elemento maggiormente caratterizzante l'istituto processuale delle intercettazioni. A questo, si aggiunga il grande problema della carenza di un protocollo unico nazionale sulle modalità di traduzione e trascrizione, oggi ancora più evidente proprio a causa dell'uso di molteplici I.A. di trascrizione. Permane, altresì, l'assenza di un albo nazionale e, soprattutto, di un percorso formativo unico per i trascrittori (come segnala in Le trascrizioni delle intercettazioni: una terra senza regole e garanzie di R. Radi, su FiloDiritto dell'8 maggio 2020).

La Corte di cassazione ha definito più volte cosa sia la trascrizione: «(…) l'attività di trascrizione si esaurisce in una serie di operazioni di carattere meramente materiale, non implicanti l'acquisizione di alcun contributo tecnico- scientifico. [...] La persona incaricata delle trascrizioni non deve possedere particolari competenze, non apporta una sua "conoscenza" al processo, non incrementa il materiale conoscitivo. Il rinvio operato dall'art. 268, comma 7 c.p.p. all'osservanza delle forme, dei modi e delle garanzie, previsti per l'espletamento delle perizie, è solo funzionale ad assicurare che la trascrizione delle registrazioni avvenga nel modo più corretto possibile. In sintesi: la prova è rappresentata dalle registrazioni delle conversazioni intercettate, che, costituendo atti irripetibili, fanno parte del fascicolo del dibattimento; la trascrizione costituisce solo la modalità "principale" attraverso cui il contenuto di quella prova è resa fruibile nel processo» (Cass. pen., sez. V, 17 febbraio 2020, n. 12737, Cotugno + altri.); tuttavia, nessun riferimento è stato fatto all'uso di I.A. sia per la captazione sia per la trascrizione (dice ancora sul punto la Corte di cassazione: «La trascrizione della intercettazione costituisce una mera trasposizione grafica del loro contenuto», Cass. pen., sez. VI, 28 marzo 2018, n. 24744 e Cass. pen., sez. VI, 15 marzo 2016, e «La trascrizione delle registrazioni telefoniche si esaurisce in una serie di operazioni di carattere materiale, per le quali non sarebbe necessaria l'acquisizione di alcun contributo tecnico-scientifico», Cass. pen., sez. VI, 20 ottobre 2015, n. 3027).

Quali le modalità corrette e i limiti di utilizzo delle I.A. nelle intercettazioni

Come visto in precedenza, gli algoritmi non sono strumenti neutri ma sono frutto di precise scelte e valori, nonché di giudizi predeterminati dall'uomo e che, dunque, dipendono sempre dalle sue intenzioni.

Il rischio maggiore, infatti, è uno sviluppo etico di queste tecnologie, in cui non sia l'algoritmo a prendere decisioni: l'introduzione di bias fuorvianti o dataset di addestramento inadeguati potrebbero comportare difetti di disegno e di implementazione.  

La profilazione di criteri stereotipati e discriminatori sul piano matematico, ed il loro inserimento nell'algoritmo del sistema di I.A., comportano la processazione di informazioni e dati senza parametri di controllo o con dati errati, situazione che può condurre ad esiti errati e, addirittura, illegittimi sul piano normativo.

Serve, quindi, tutelare in ogni ambito di uso pubblico, anche quando investigativo, il principio di trasparenza mediante la piena conoscibilità e, dunque, la comprensibilità dell'algoritmo di generazione della specifica I.A. in uso, circostanza che implicherebbe anzitutto la divulgazione del codice sorgente alla base dell'algoritmo.

Non a caso la Carta Etica europea per l'uso dell'intelligenza artificiale nei sistemi giudiziari e nei loro ambienti della Commissione Europea per l'efficienza della giustizia (CEPEJ) ha definito un perimetro etico-giuridico preciso indicando, tra gli altri principi non derogabili, quello della trasparenza, imparzialità ed equità (fairness) e quello del controllo da parte dell'utente (under user control).

Oggi, non può prescindersi da tali considerazioni e, anzi, occorre affrontare de visu la questione: occorre riflettere sulla necessità di una modifica anche procedurale affinché il P.M. abbia l'obbligo di indicare, nel verbale previsto dal comma 1 dell'art. 268 c.p.p., che per gli strumenti di captazione e/o di successiva trascrizione sono stati utilizzati forme di I.A., inoltre, dando notizia sui dati di addestramento, così che si possa escludere che siano stati utilizzati dati errati o illeciti o bias o pre-giudizi.

Laddove difettino questi dati, le Difese dovranno attrezzarsi per instaurare una prassi virtuosa e richiedere, in fase di vaglio dibattimentale, una perizia specifica sull'attività investigativa, ai sensi dell'art. 220 c.p.p. e seguenti, che chiarisca non solo gli aspetti inerenti al contenuto delle intercettazioni ma, soprattutto, dipani ogni dubbio sull'I.A. in uso per svolgere quella attività di intercettazione e di successiva trascrizione (necessario riferirsi a quanto scrive G. Ubertis: «(…) se ai sensi dell'art. 220 comma 1 c.p.p., la perizia va ammessa quando occorra lo svolgimento di indagini o l'acquisizione di dati o valutazioni, per cui vengano richieste speciali competenze in ambito tecnico, scientifico o artistico, la formulazione normativa non comporta che essa sia l'unico mezzo di prova da ammettere ogniqualvolta l'attività istruttoria esiga abilità extragiuridiche. Così “il giudice, senza necessità di disporre perizia, può legittimamente desumere elementi di prova dall'esame dei consulenti tecnici dei quali le parti si siano avvalse” ex art. 233 c.p.p., qualora le conclusioni da loro fornite «gli appaiano oggettivamente fondate, esaustive e basate su argomenti convincenti»: sebbene convenga avvertire che l'apprezzamento di superfluità della perizia perché già disponibili consulenze tecniche non andrebbe confuso con quello sulla loro forza persuasiva, riservato al momento decisorio». tratto dall'articolo Perizia, prova scientifica e intelligenza artificiale nel processo penale di G. Ubertis pubblicato nel volume La consulenza tecnica di ufficio. Funzione, oggetto sindacabilità a cura di S. Patti e R. Poli, ed. Giappichelli, 2024.)

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.