Intelligenza artificiale e processo penale: percorsi di indagine tra efficienza e garanzie fondamentali

14 Marzo 2023

In che modo e in quali termini l'intelligenza artificiale può essere applicata ai vari aspetti della giustizia penale? E quando si possono effettivamente ricondurre tali interventi alla categoria dell'intelligenza artificiale piuttosto che all'utilizzo di programmi informatici applicati a sistemi di investigazione e/o valutazione penale? A quale realtà criminali tali forme di approccio possono essere concretamente e proficuamente applicate?
Premessa

Oggi è praticamente impossibile connettersi a Internet o aprire un qualunque giornale senza trovare articoli - di varia natura e di vario valore - che si occupano di intelligenza artificiale. Un tema, direbbero gli inglesi, particolarmente “cool”, anche se grande è a tutt'oggi l'incertezza sui confini, sulla definizione e sulla corretta prospettiva ermeneutica che tale argomento deve suscitare.

In quest'ottica, la problematica definitoria non può essere considerata secondaria: la rilevanza economica, tecnologica e statistica del fenomeno non può essere affrontata in termini generici. Individuare indistintamente la creazione e l'adattamento di algoritmi come forme di intelligenza artificiale rappresenterebbe un approccio superficiale e – per altri aspetti- probabilmente ingeneroso verso coloro che di tale problema effettivamente si occupano.

Nella presente sede occorre concentrare l'attenzione sulla tematica dell'intelligenza artificiale nell'ambito specificamente giuridico e in particolare in quello giuridico penale. Il problema deve essere affrontato in una duplice prospettiva: parlare di intelligenza artificiale vuol dire sicuramente interrogarsi su quali possono essere le utilizzazioni e gli sviluppi di applicativi destinati a prevenire, accertare e reprimere varie forme di criminalità. Nondimeno, allo stesso modo e in maniera anche più rilevante, è importante comprendere come l'intelligenza artificiale sia finalizzata allo sviluppo e alla realizzazione di fatti di rilievo penale e come da tale spunto, che la realtà quotidianamente offre, sia indispensabile prendere le mosse per affrontare il fenomeno.

Se non si considera questo aspetto, non potremo essere in grado di contrastare con armi pari - o perlomeno non troppo inferiori - manifestazioni criminali che, evidentemente, sono potenzialmente in grado di ottenere effetti devastanti sul piano qualitativo come su quello quantitativo. Non si tratta di una scelta, quanto di una precisa necessità, se si vuole evitare di fare la fine della cavalleria polacca a fronte delle divisioni corazzate della Wehrmacht. Rispetto alle analisi che da tempo sono state proposte sul tema, resta aperto e più che mai attuale la problematica - di non secondario rilievo - di un inquadramento del fenomeno. Fenomeno che in questi anni si è dilatato in termini esponenziali, anche se resta il dubbio sulla possibilità di individuare una soglia “quantitativa” di coefficiente informatico tale da determinare una modifica “qualitativa” dell'intervento, passando nell'area definibile dell'intelligenza artificiale.

Almeno un aspetto, indubbiamente, deve essere considerato con maggiore rilievo: l'autoapprendimento, allo stato applicato in molteplici forme e considerato in molti casi come la vera cifra distintiva dell'intelligenza artificiale. Algoritmi in grado di “cibarsi” della realtà informatico/telematica della quale sono chiamati a occuparsi, laddove il meccanismo a autoapprendimento sarebbe in grado di sviluppare manifestazioni analoghe al pensiero umano - o addirittura superiori in qualche modo a quest'ultimo – proprio metabolizzando e rielaborando disparate espressioni di tale pensiero, di natura comunicativa e dichiarativa – filtrando le stesse e quindi riproponendola in termini funzionali a specifiche esigenze.

Non pensiamo solo alle forme di sistemi di elaborazioni di testi ma anche di programmi destinati a raccogliere dai social il “sentiment”, i gusti, le opinioni dirette e indirette dei fruitori di tali social, consentendo rielaborazioni complesse e complete. Si tratta di un'elaborazione che contiene una suggestione tanto potente quando ingannevole, in quanto pone la riferibilità degli esiti della funzionalità dell'applicativi apparentemente al di fuori della sfera decisionale di coloro che il programma stesso hanno sviluppato e soprattutto voluto.

Si pensi, ad es. a programmi destinati ad attività di controllo sulle manifestazioni del pensiero su uno specifico social, destinate a indentificare e impedire la pubblicazione di espressioni caratterizzate da forme di pregiudizio e/o volontà di discriminazione. Se un simile programma viene alimentato dall'analisi delle realtà che su tale sociale è solita manifestarsi, è altamente verosimile che sia condizionata da quegli stessi pregiudizi che dovrebbe isolare e contrastare, salvo che – ovviamente – chi programma non abbia inserito degli specifici correttivi.

In questa prospettiva emerge il problema della documentazione del dataset, ossia dei database utilizzati per addestrare le IA; un problema serio, in quanto «…non sapere la provenienza dei dati da cui le IA imparano a dialogare, risolvere problemi, creare immagini, scrivere testi e molto, molto altro ancora, espone a rischi di discriminazione, abusi da parte dei governi, mancato rispetto delle minoranze e violazione di copyright…». Si tratta di «un aspetto molto delicato dello sviluppo delle IA…: la provenienza dei dati che servono per allenarle. Va ricordato che questa mole enorme di informazioni viene concessa agli sviluppatori in modo gratuito, con l'idea che ne facciano un uso non commerciale. Che non ci guadagnino su, insomma...». (Così E. Capone, L'intelligenza artificiale oltre quella umana e gli umani come formiche: OpenAI e i rischi della IA Forte, www.repubblica.it)

Un'idea, forse che deve essere ripensata, profondamente ripensata.

Il concetto che si vuole evidenziare era – e resta – chiaro, e proprio l'illusione dell'autoapprendimento consente di renderlo ancora più preciso. Allo stato, l'intelligenza artificiale non esiste e non opera se non nelle forme con le quali soggetti- a vario titolo e in vario modo e intensità- la determinano.

L'intelligenza artificiale non è in grado di autodeterminarsi – al momento, anche se occorre chiedersi per quanto; anni orsono il celebre astrofisico Stephen Hawking aveva paventato i rischi dell'intelligenza artificiale che potrebbe “spazzare via l'umanità”, ipotizzando lo sviluppo della cd cosiddetta strong AI, ossia di una vera intelligenza artificiale in grado di ragionare e risolvere problemi in autonomia.

Nell'attesa di questo giorno- vedremo se infausto o ragionevolmente fausto- dobbiamo considerare che in tutti i casi- anche e soprattutto quando si presenta in termini apparentemente “neutri”, come nel caso dell'autoapprendimento- la AI è frutto di precise e specifiche scelte, funzionali a precisi e specifici interessi. Qualsiasi forma oggi definita di intelligenza artificiale in realtà è il frutto di indicazioni che sono individuate, sviluppate realizzate applicate e corrette da singoli soggetti fisici.

Si tratta di una considerazione fondamentale, ove si consideri che uno degli aspetti centrali del diritto penale consiste nell'individuare la riferibilità a soggetti determinati di condotte che si assumono oggettivamente tali da integrare un reato. Questa è uno dei nodi centrali del sistema, nel momento in cui vi è la necessità di verificare la legittimità in chiave penale di condotte riferibili a realtà organizzate- private come pubbliche- strutturate su differenti livelli decisionali e attuare e gestite attraverso programmi informatici. In sostanza, a tutte le realtà complesse.

In molte di queste è relativamente semplice identificare la catena decisionale e i conseguenti provvedimenti che hanno determinato le scelte aziendali oggetto di valutazione. In molti altri, al contrario, si tratta di una attività investigativa difficile e problematica, anche se a volte le argomentazioni difensive possono presentarsi come frutto di semplificazioni e/o logicamente non credibili (ma non per questo meno efficaci nel rendere arduo il percorso di accertamento dei presupposti “storici” delle responsabilità).

A fronte di un programma la cui applicazione è tale da determinare eventi caratterizzati da un possibile rilievo penale (es: condotte discriminatorie in relazione all'organizzazione del lavoro o al controllo sul lavoro, applicazione di condizioni contrattuali standard non conformi alla legge in contesti bancari o assicurativi, omissione di controlli funzionali alla tutela dei diritti nell'ambito di realtà telematiche) lo schema di accertamento può essere sintetizzato in termini generali:

  • la violazione è frutto di scelte non corrette dei programmatori/sviluppatori del programma: non si può escludere logicamente a priori, ma nella maggior parte dei casi si tratta di semplici esecutori di indicazioni altrui
  • la violazione è frutto di valutazioni generali di natura giuridico-amministrativa dei soggetti che devono tradurre le indicazioni dei vertici aziendali al settore “informatico”: anche questa ipotesi è plausibili ma statisticamente non frequente, specie in realtà caratterizzate da elevati standard professionali
  • la violazione deriva da scelte aziendali riferibili agli organi di vertice della società/ente per ragioni economiche o strategiche di mercato, poi tradotte in termini operativi dalle strutture aziendali.

L'investigazione su forme di condotta che si manifestano a mezzo dell'utilizzo di algoritmi non può prescindere da questo approccio. Di certo, non semplice potrà essere la ricostruzione della catena decisionale- per via testimoniali o attraverso documenti, interni o esterni alla realtà aziendale: non semplice ma inevitabile.

Il profilo tecnologico

Un secondo aspetto che deve essere evidenziato riguarda la necessità degli approfondimenti tecnologici sui programmi oggetto di indagine: tali programmi sono in molti casi frutto di un'attività di sviluppo - alle volte pluriennale e spesso costosa – rispetto ai quali elevato può risultare l'impegno profuso - in termini umani ed economici - dalle aziende. Aziende che, pertanto, a torto o a ragione- potranno decidere di opporsi ad analisi nel dettaglio di tali programmi, la cui analisi, tuttavia, sarà inevitabile per l'accertamento di responsabilità derivanti dagli eventi e/o condotte che gli stessi programmi sono destinati a determinare. Analisi, inoltre, resa maggiormente complessa dall'esigenza di verificare anche in termini dinamici le modifiche e gli interventi sul programma stesso.

Si pone, pertanto, un problema anche di segreto industriale, di potenziale “disvelamento” di know how, che potrà essere affrontato – ovviamente - attraverso il contributo di consulenti in grado di approfondire tali aspetti anche – soprattutto- a fronte della ipotizzabile non piena collaborazione dei soggetti ai quali il programma risulta riferibile. Anche questo è un tema di straordinario momento e di altrettanta complessità: proviamo a pensare, ad es., alla tematica dei veicoli a guida automatica. Si tratta di capire, nel futuro immediato, chi e come dovrà rispondere di forme di non corretto funzionamento di veicoli senza autista.

A fronte di tale problema la catena decisionale potrebbe essere non impossibile da ricostruire, ma molto delicato potrà essere, al contrario, l'analisi delle modalità attraverso le quali si è giunti a questo risultato, e quindi comprendere quali tecnici hanno collaborato al progetto, quali hanno avuto il compito della supervisione dello stesso e se eventuali criticità riscontrate possano essere in tutto o in parte estese ai fruitori del veicolo. Un serie di questioni di straordinario rilievo per avere una risposta definitiva alle quali potrebbe essere necessario uno sforzo ermeneutico di particolare complessità.

Anche in questo caso di tratta di un problema noto e dibattuto, a fronte del fenomeno della diffusione di «algoritmi a volte opachi, a volte meno, creati dal deep learning, per inferire di tutto e di più, dai tratti intimi delle persone al rischio creditizio, dalle condizioni di salute alla propensione al crimine. Parliamo delle black box, scatole nere, sistemi di AI che non rendono visibili all'utente o ad altre parti interessate i loro input e soprattutto i loro processi. Questo significa che il modo in cui l'AI elabora le informazioni e produce le previsioni è oscuro e non comprensibile. Questo può creare problemi di trasparenza, affidabilità ed etica nell'uso dell'AI» (L. Tremolada, Stretta finale per l'«Ai Act»: cosa chiede Europa all'intelligenza artificiale?, ilsole24ore.it, 27.2.2023).

Possiamo aggiungere che si tratta di una problematica presente non solo nell'ottica generale della proposta di regolamento conosciuta come AI Act- ormai in dirittura di arrivo, e in prospettiva egualmente applicabile in tutti gli Stati membri dell'Unione europea - quanto anche nella prospettiva dell'indagine penale.

Il profilo tecnologico, presenta, tuttavia, una rilevanza “speculare” se rapportata agli strumenti – ovviamente programmi informatici- che l'autorità requirente e le forze dell'ordine potrebbero trovasi nella possibilità di utilizzare – in vario modo- nella ricerca e nell'accertamento della responsabilità, sia in relazione a singole vicende, sia con riguardo ad analisi massive e a confronto tra differenti procedimenti.

Se ipotizziamo utilizzo di programmi – definibili in senso lato come forme di intelligenza artificiale - dobbiamo considerare che le difese (degli indagati, ma anche delle persone offese, a fronte di richieste di archiviazione) potranno richiedere di analizzare nel dettaglio gli stessi, con conseguenti e speculari problemi di tutela del valore e della segretezza degli stessi. Ovviamente, la predisposizione di regolamenti ministeriali contenenti le specifiche tecniche dei programmi potrà ridurre – anche se non eliminare- il potenziale contenzioso al riguardo, specie laddove la necessità di fronteggiare manifestazioni nuove e atipiche potrò essere affrontata con programmi altrettanto innovativi e atipici.

L'approccio globale: il “recupero” dei dati delle n.r.

La riforma di cui al d.lgs. 150/2022 e successive modifiche ha – se mai ce ne fosse stato bisogno - evidenziato l'assoluta necessità di un recupero di efficienza globale degli uffici di procura (tra l'altro, del tutto esclusi dei benefici derivanti dall'ufficio del processo). Il legislatore ha disposto una serie di innovazioni e modifiche verosimilmente in astratto condivisibili ma certamente onerose sul piano organizzativo, senza che vi sia stato un adeguato rafforzamento – in termini di organico dei magistrati, del personale amministrativo e dei “mezzi” - del sistema.

Ne consegue che si impone una ricerca di riorganizzazione diretta a ottimizzare - con le forze a disposizione - la richiesta di giustizia che il legislatore ha delineato. L'informatica deve improntare l'intero procedimento penale sia sotto il piano della raccolta e del trasferimento dei dati, sia sotto profilo della gestione dei procedimenti sia sotto il profilo della definizione degli stessi e della valutazione degli esiti, al fine di consentire correzione di rotta o integrazioni su quelle che sono disposizioni generali dell'ufficio. Si tratta di un sistema organizzativo ambizioso, i cui esiti potrebbero portare, tuttavia, un notevole incremento in termini di rapidità ed efficace dell'azione dell'ufficio e di possibilità di valutazione costante dell'andamento dell'ufficio

A tal fine, un sistema basato sul “recupero” e sull'utilizzo dei dati esterni all'ufficio, trasmessi con le notizie di reato, può consentire un rilevante contributo sotto il profilo organizzativo-gestionale. Si tratta di estendere in termini generali (per quanto possibile) uno schema operativo già utilizzato per progetti realizzati, per specifici settori, anni orsono, presso la Procura di Torino, con oggetto la gestione dei dati delle numerose notizie di reato provenienti dagli accertamenti dell'INPS. Notizie di reato elaborate sul server dell'ente e quindi trasmesse su base cartacea alla Procura (n.b.: una eventuale trasmissione su portale non cambia il problema, anche se semplifica la trasmissione).

Era stato creato un programma in grado di interfacciare i dati del server INPS con quelli dei registri della Procura; dati che venivano, quindi, trasmessi non solo su base cartacea ma anche “caricati” direttamente in via telematica- senza un caricamento manuale, pertanto- e quindi smistati da personale di p.g. appositamente formato in una serie di moduli (modelli di archiviazioni, decreti penali, avvisi ex art. 415-bis c.p.p.) per la definizione dei procedimenti direttamente – di nuovo- su base telematica, con enorme risparmio in termini di impegno del personale. Moduli concordati in termini generali con l'ufficio GIP e quindi presentati al PM solo per la verifica e la firma.

Se consideriamo i settori nei quali soggetti “pubblici” (ASL, ARPA, uffici finanziari, dogane, GdF, solo per fare alcuni esempi) elaborano le notizie di reato su base informatica, la predisposizione di modelli di carattere generale per “replicare” il meccanismo messo a punto per i reati in materia previdenziale potrebbe essere esteso in termini significativi.

Non solo: sebbene con maggiori (anche se non insormontabili) difficoltà, un sistema analogo potrebbe essere sviluppato con gli uffici di P.G., che potrebbero affiancare la trasmissione della n.r. portale a una trasmissione (parziale) dei dati su base informatica, con conseguenza utilizzo per le iscrizioni e – successivo - utilizzo per la predisposizione degli atti di indagine. Anche in questo senso specie le n.r. seriali potrebbero prestarsi con estrema semplicità per questa tipologia di trattazione. Il “costo” di organizzazione di un simile sistema non è indifferente, ma i vantaggi sui tempi medio-lunghi potenzialmente elevati.

Non si tratta, pertanto, solo di dare progressivamente attuazione al fascicolo penale digitale, nei termini, nei tempi e nei modi indicati dal d.lgs.150/2022, quanto di transitare a una gestione globale digitale dei procedimenti. Il passaggio dal fascicolo cartaceo a quello digitale può essere paragonato, in tema di mobilità, al passaggio dalla bicicletta all'auto; nondimeno, se il fascicolo digitale non viene anche “fruito” dinamicamente con un approccio digitale, ciò significherebbe utilizzare l'auto solo per percorrere strade statali, rinunciando alle autostrade. Non ce lo possiamo permettere.

Ogni “ribaltamento” di dati con modalità manuali non solo determina un significativo impiego di tempo, ma comporta il rischio di errore di trascrizione. È poi evidente che il risparmio globale non può limitarsi al semplice caricamento dei dati sul SICP, ma deve consentire un utilizzo diretto degli stessi nella modulistica dell'ufficio per gli atti di indagine, quindi per i provvedimenti di definizione del procedimento e infine con possibile utilizzo per il Tribunale.

Ovviamente non per tutti i settori è possibile una standardizzazione dei modelli di deleghe e di contestazione, ma indubbiamente un simile approccio può riguardare una percentuale elevata dell'attività giudiziaria e può essere costantemente implementata. Il concetto di base è semplice: liberare il singolo magistrato dagli incombenti ripetitivi e standardizzabili per consentirgli di concentrare tempo ed energie sulla parte non prevedibile e – pertanto - “creativa” dell'attività, quella che richiede il maggiore impegno e la migliore professionalità.

A fronte delle possibili obiezioni circa le difficoltà informatiche e di coordinamento generale che una tale prospettazione potrebbe porre si deve osservare che dal punto di vista informatico si tratta in realtà di sistemi di non particolare complessità che ovviamente dovrebbero essere affrontati attraverso intervento di sistemisti in grado di tradurre le esigenze di coordinamento in dati in algoritmi specifici utilizzabili da parte della procura, previo concerto - eventualmente a livello sperimentale - con il Ministero e utilizzando le competenze e la professionalità di autorevoli istituzioni universitarie.

Si tratta di una forma di utilizzo dell'intelligenza artificiale? Ragionevolmente no. Potrebbe essere un contributo significativi ad una ricerca di maggiore efficienza del sistema? Verosimilmente si, e questo conta.

AI e giustizia penale: raccolta e confronto dei dati

Chiarito il contesto “organizzativo” dell'attività della Procura della Repubblica, l'analisi di forma di – in senso estremamente lato- approccio alla giustizia penale – come già precisato nel menzionato articolo, deve essere verificata in relazione profili profondamente differenti, il primo dei quali riguarda gli strumenti di raccolta, catalogazione e individuazione di correlazioni tra elementi oggettivi.

La presentazione delle denunce presso gli uffici di P.G. potrebbe essere organizzata in modo tale da assicurare una raccolta specifica di dati funzionali all'accertamento di reati seriali e alla trasmissione e valutazione degli stessi (ovviamente con il controllo della Procura) in funzione di possibili sviluppi investigativi.

Si tratterebbe di corredare i moduli di raccolta delle denunce/querele con un sistema di domande mirate sulla fattispecie denunciata e con la diretta selezione ed elaborazione di tali dati, a margine della trasmissione delle notizie di reato alla Procura della Repubblica e finalizzati a programmi specifici.

L'efficacia del programma si fonda sulla completezza e accuratezza dei moduli di raccolta dati dalle persone offese (moduli che devono essere riempiti, a opera della p.g., assumendo a sommarie informazioni i soggetti interessati in un lasso temporale brevissimo rispetto al fatto), che vengono inseriti nel data base del programma unitamente a tutti gli altri elementi oggettivi relativi al fatto (immagini da telecamere, tracce biologiche rinvenute, accertamenti diretti della p.g. intervenuta dopo il fatto sul posto e non solo).

I dati vengono quindi “immagazzinati” e costantemente confrontati tra loro, al fine di localizzare gli eventi e classificare gli stessi in base alle caratteristiche personali dell'autore dei fatti. In questo modo, tutti gli eventi che hanno luogo su una specifica area sono costantemente confrontati – sostanzialmente in tempo reale - e rispetto a ogni ulteriore episodio, in termini automatici, sono identificate similitudini e dissonanze rispetto a tutti gli altri. Il programma deve essere inoltre in grado di eseguire una verifica tra oggetti/indumenti rappresentati nelle immagini per accertare elementi ricorrenti, comparando altresì le abitudini operative degli autori dei reati (espressioni utilizzate, orari dei fatti, modalità di allontanamento del luogo dell'evento e così via).

Una prospettiva di grande utilità ove applicata per specifiche tipologie di reato, rispetto alle quali i temi da approfondire, le domande da porre, le alternative da chiarire, i dati e le informazioni da acquisire sono facilmente standardizzabili.

Una “raccolta” di dati e informazioni direttamente a opera della p.g. su base telematica, utilizzando moduli predeterminati in grado di “ribaltare” in banche dati specifiche le informazioni acquisite – modalità già sperimentate presso alcuni uffici - dovrebbe essere considerate quello che in termini medici è chiamato un “gold standard”.

Si pensi, al proposito, a numerosi reati informatici (frode informatica ex art. 640-ter c.p., accesso abusivo ex art. 615-ter c.p.) o comunque commessi in rete (truffe on line, ex 640 c.p., diffamazione telematica, ex art. 595 comma 3 c.p.); non solo, la standardizzazione delle indicazioni da raccogliere riguarda anche:

  • le truffe commesse per via “tradizionale”
  • i furti in appartamento o negli esercizi commerciali
  • le rapine - specie se non di particolare gravità
  • le violenze sessuali su mezzi pubblici o in luoghi pubblici

Tutti reati per i quali la possibilità di “raccolta” guidata in grado di interagire con i dati o di collegarsi a un sito istituzionale, rispondendo a una serie di domande mirate – anche su moduli a scelta multipla - funzionali ad essere con semplicità archiviate e quindi trasmesse alla competente Procure, con conseguente elaborazione dei dati e delle informazioni raccolte potrebbe consentire:

  • una raccolta sistematica completa di dati e informazioni
  • una possibilità di operare sui dati raccolti senza necessità di trasporli su altri supporti, potendo la copia informatica della denuncia sostituire (o, al più, affiancare) la trasmissione cartacea degli atti.

Modelli di approccio in tale senso rappresentano un futuro che incombe sul presente; modelli la cui capillare diffusione – specie se corredata da programmi di confronto e elaborazione dei dati adeguati – potrebbe fornire risultati positivi di entità sorprendente. E ciò senza scomodare – ancora una volta - il concetto di intelligenza artificiale, in quanto si tratterebbe solo in una possibilità di confronto su “masse” di dati e informazioni selezionati sulla base di criteri di ricerca condivisi più rapida ed efficace di quelle che potrebbe essere svolta “manualmente” da una squadra di p.g.

Ancora la solita domanda: un programma in grado di confrontare decine o centinaia di dati per individuare- ad es.- gli elementi storici ricorrenti tratti da una serie di rapine o di violenze sessuali è una forma di intelligenza artificiale? E ancora, come possono essere inseriti e verificati i parametri di confronto tra tali elementi? Sarà possibile implementare tali programmi con strumenti di confronto non derivanti solo dal dato “riferito” della persona informata quanto anche da immagini tratte da telecamere, suoni registrati da privati, geolocalizzazioni e elementi tratti da tabulati e log? Ci rendiamo conto della straordinaria rilevanza che in simile sistema integrato potrebbe avere? E siamo consapevoli delle obiezioni che potrebbero essere poste a tali forme di “potenziamento” degli strumenti investigativi.

Al proposito, si deve, ad esempio, segnalare che nello scorso dicembre il governo francese ha depositato un disegno di legge sui giochi olimpici del 2024 che intende tra le altre cose potenziare la sicurezza attraverso videocamere dotate di AI: una legge che, ove approvata, consentirà di installare telecamere in grado di riconoscere in tempo reale, attraverso l'intelligenza artificiale, i soggetti. Una misura che ha suscitato e sta suscitando proteste da parte di associazioni di cittadini e partiti politici anche fuori dalla Francia, fondate sul timore derivante dall'adozione massiva di strumenti di sorveglianza al di fuori della legge (cfr. L. Tremolada, op. cit.).

Proprio i database biometrici e di riconoscimento facciale sono tra quelli destinati a suscitare i maggiori contrasti in termini di ammissibilità e concreto utilizzo. Si tratta, in questi casi, di una tematica che interessa direttamente l'Ai Act, destinato - almeno nelle intenzioni - a mantenere al centro della protezione normativa, la tutela dell'integrità e dei diritti dell'individuo, in particolare stabilendo una classificazione dei sistemi di AI in base ai rischi che questi pongono per i diritti fondamentali.

In particolare «una volta individuati i sistemi considerati ad alto rischio verranno stabiliti dei requisiti specifici a cui questi devono conformarsi, oltre che degli obblighi per fornitori e utenti di IA appartenenti a questa categoria. Per alto rischio si intendono i casi in cui l'A.I. è usata per infrastrutture critiche come i trasporti, l'accesso all'istruzione o la progettazione di software per la gestione dei lavoratori o di servizi pubblici e privati essenziali. Verranno regolati anche l'uso di sistemi di riconoscimento biometrico da parte delle forze dell'ordine come nel caso del disegno di legge in discussione in Francia. Ed è previsto un capitolo dedicato all'uso di chatbot sul modello di ChatGpt per prevedere strumenti in grado di avvertire l'utente se il contenuto è generato da una macchina o da un essere umano» (così L. Tremolada, op.cit.).

Nonostante queste criticità - che potranno essere superate su base normativa - non vi sono ragioni per non favorire, in astratto, la scelta di un approccio informatico integrato alle indagini su numerose tipologie di reati. Puntare con coraggio e chiarezza a creare sistemi di raccolta (anche al limite per via telematica) di denunce e dati integrativi (posti poi immediatamente nella condizione di essere confrontati e analizzati dalla Procura) dovrebbe costituisca un obiettivo possibile e anzi auspicabile, anche in questo caso utilizzando le competenze e la professionalità di autorevoli istituzioni pubbliche (quali le facoltà di informatica).

Le problematiche collaterali

Rispetto all'attività sopra descritta, non si possono non rilevare due forme di macrocriticità, potenzialmente in grado di “limitare” l'efficacia dell'approccio descritto.

Prima di tutto, la raccolta di dati sopra descritta determina, per forza di cosa, la gestione di archivio. Dati di varia natura, potenzialmente anche sensibili, che devono essere non solo raccolti e confrontati, ma anche gestiti, protetti nella piena osservanza della disciplina in materia di riservatezza di cui al d.lgs. 196/2003 e successive modificazioni, ma che potenzialmente potrebbero essere utilmente oggetto di confronto anche su base territoriale più ampia rispetto al circondario o distretto nell'ambito del quale sono raccolti.

In secondo luogo, è assolutamente indispensabile che i dati e le informazioni siano acquisiti in termini di piena utilizzabilità, ossia con l'osservanza delle disposizioni procedurali di varia natura. Si tratta – verosimilmente - del maggiore limite allo sviluppo di strumenti investigativi riferibili al concetto di intelligenza artificiale. Si consideri in particolare il settore - di dimensioni ormai enormi - dei reati commessi sulla rete, siano essi informatici o ordinari.

Gli elementi storici che sono posti alla base delle comparazioni e della ricerca di correlazioni devono potere - in astratto - essere singolarmente e autonomamente portati all'attenzione del Tribunale (o del G.i.p. in fase di indagine). Le singole immagini che ritraggano, in ipotesi, il medesimo cappellino indossato durante le rapine o le dichiarazioni di persone informate che descrivono le frasi e la corporatura di un autore di rapine seriali potrebbero certamente essere oggetto di “ostensione” al Tribunale (nel primo caso) e oggetto di testimonianza (o di valutazione nell'ambito di un verbale, in fase di indagine) nel secondo caso?

Se la risposta è positiva, la comparazione è certamente effettuabile e l'interprete può “passare” ai due problemi successivi.

Il primo: in base a quali criteri/principi/metodi è stata compiuta la comparazione che ha portato, tra migliaia di elementi, a evidenziare una serie di relazioni che si assumono significative sul piano dalla ricostruzione delle responsabilità?

Il secondo: in base a quali criteri/principi/metodi l'insieme delle comparazioni e relazioni evidenziate può essere ritenuto in grado di costituire il fondamento, in termini di certezza o elevata probabilità, di penali responsabilità?

Le potenzialità investigative legate a una raccolta massiva di dati e informazioni nel settore potrebbe portare a risultati di straordinario rilievo attraverso l'utilizzo di programmi specificamente calibrati in tal senso, ma tale raccolta si scontra con la necessità dell'acquisizione dei dati attraverso provvedimenti giurisdizionali specifici, in molti casi presenti su server esteri, certo di non impossibile acquisizione, caratterizzata tuttavia da una tempistica non corrispondente alle effettive esigenze investigative.

Eppure, forse in nessun settore come in quello della criminalità informatica lo sviluppo di forme di ricerca, confronto e elaborazione di dati potrebbe portare e risultati sorprendenti. Un problema che potrebbe essere risolto solo prevedendo la creazione di strutture investigative sovranazionali specificamente deputate a tali forme di accertamenti. In caso contrario, dovremo limitarci e accertare e reprimere condotte isolate e verosimilmente marginali sul piano della rilevanza criminale.

Al di là del settore informatico/telematico, comunque, la chiave di volta del settore è rappresentata dalla possibilità di strutturare meccanismi specifici di raccolta e comparazione dati, con accuratezza e velocità non comparabile a quella della mente umana. Le potenzialità di accertamento e confronto si scontrano con tempi e modalità di raccolta dei dati, a livello globale.

Anche in questo caso - al momento - resta fondamentale la scelta dei dati da comparare e dei criteri di comparazione, che, comunque, sono devono essere verificabili dagli organi requirenti e giudicanti- oltre che- ovviamente dalle difese.

L'efficacia, in concreto, di tali sistemi, non potrà che essere verificata sulla base della comparazione di criteri specifici:

  • individuazione dei dati significativi
  • ampiezza, attendibilità, accuratezza e tempestività della raccolta dei dati
  • rispondenza delle modalità di acquisizione ai principi procedurali di settore
  • chiarezza e verificabilità dei criteri di comparazione/confronto dei dati
  • condivisibilità dei principi normativi e giurisprudenziale di applicazione al materiale “storico” così determinato.

Tale schema deve, inoltre, essere adattato alle differenti finalità dell'intero “meccanismo”; se sopra abbiamo esaminato la possibilità di catalogazione e valutazione prova penale, non dobbiamo dimenticare due differenti tematiche:

  • gli strumenti di valutazione preventiva della pericolosità, a fini di applicazione di misure cautelari o misure di prevenzione (v. infra, punto 5)
  • la valutazione prognostica funzionali alla polizia di prevenzione.

Prospettive completamente differenti, sulle quali il giudizio globale non può essere uniforme.

Ferma restando la potenziale sussistenza di criticità legale all'acquisizione dei dati la valutazione predittive funzionali alla prevenzione dei reati non possono suscitare obiezioni insormontabili. Non si tratta, in effetti, di “formare” un potenziale materiali probatorio in fase di indagini da tradurre- quindi- in prova, finalizzata l'accertamento delle responsabilità, quanto solo di individuare una serie di indicazioni in grado di porre le forze nell'ordine nella condizione di “trovarsi” nel luogo ove si ritiene potrà essere commesso uno specifico reato. In sostanza, un indicatore di potenziale flagranza, quale, ad es., l'individuazione di esercizi pubblici (farmacie, banche, uffici postali) dove si può presumere che verrà realizzata una rapina.

Ovviamente si potrà “ottimizzare” il sistema prevedendo una raccolta e selezione di dati potenzialmente funzionale sia alla “formazione” della prova penale sia calibrata sulla finalità preventiva, fermo restando che nel primo caso il “gestore” dei dati dovrà essere certo non solo dalla legittimità dell'acquisizione, quanto anche della piena potenziale utilizzabilità del dato stesso in ottica dibattimentale. Un esempio può rendere meglio la rilevanza di tale distinzione.

I reati sui mezzi pubblici: quale tipologia di indagine?

Le condotte penalmente rilevanti che possono essere più frequentemente riscontrate sui veicoli pubblici sono riconducibili a due categorie: una prima riguarda atti di violenza sessuale generalmente posti in essere in danno di donne giovani o di adolescenti; una seconda i cd borseggi, le cui vittime molto frequentemente sono persone anziane o quantomeno non giovanissime. Due categorie sociologicamente non sovrapponibili ma entrambe potenzialmente interessate all'accertamento e alla repressione delle tipologie di reato descritte.

È in corso di elaborazione, a Torino, un'applicazione che frutto dello sforzo congiunto dall'attività congiunta di una società privata specializzata nel settore, dell'azienda dei trasporti torinese, della polizia municipale. Un'iniziativa che dovrebbe avere originariamente a oggetto le violenze sessuali per poi estendersi, in prospettiva, anche al fenomeno dei borseggi. Si tratta di un sistema di segnalazione della possibilità di denunce - anche in termini informali - di condotte illecite subite o comunque percepite attraverso una app sviluppata in grado di rispondere a finalità profondamente differenti.

In primo luogo sensibilizzare la cittadinanza – tramite apposite campagne di comunicazione- sulla possibilità di reagire a tali forme di illecito attraverso una denuncia; in secondo luogo, quella di monitorare nel dettaglio il fenomeno; in terzo luogo, quella di raccogliere dei dati anche in forma anonima – in questo caso non direttamente finalizzata a un utilizzo procedurale- per consentire alle forze dell'ordine già incaricate di controlli sui veicoli di trovarsi nelle ore nei luoghi e sulle linee dove tali condotte vengono poste in essere.

Infine, ovviamente la finalità terminale di questa attività dovrà essere quella di consentire un recupero in termini di piena utilizzabilità dibattimentale delle dichiarazioni e denunce che possono portare alla individuazione in termini di certezza processuale degli autori di tali fatti.

In quest'ottica è evidente che la raccolta di dati attraverso una utilizzo di una app- quindi senza un' individuazione certa del soggetto che comunica gli stessi- potrà sicuramente avere una finalità ai fini della prevenzione dei reati oltre che di monitoraggio del fenomeno criminale, mentre soltanto una denuncia o una testimonianza attraverso derivanti da una formale identificazione potrà essere finalizzata a uno sviluppo investigativo tale da determinare in una richiesta di misura cautelare o comunque la contestazione specifica di un reato.

La prima strada non esclude l'altra, anche se la seconda ovviamente imporrà uno sforzo da parte della polizia municipale - e quindi della Procura - che potrà evidentemente portare a dei risultati concreti e si spera di grande rilievo, nel momento in cui si riusciranno a incrociare i dati testimoniali che derivano da una serie di domande specificamente calibrate - sia nell'ipotesi della violenza sia in quella dei borseggio - e a mettere in correlazione gli stessi con altri dati quali le immagini che vengono tratte vengono prese sui mezzi pubblici, da incrociare altresì con i gli esiti dei tabulati telefonici di soggetti sospettati. Attività funzionali a delineare un quadro probatorio in grado di porsi come base per l'affermazione di penale responsabilità e non soltanto per essere utilizzato dalla polizia municipale per prevenire eventuali ulteriori reati.

Un tale meccanismo può essere considerato un'applicazione di A.I.? Anche in questo caso possiamo rispondere che probabilmente non si tratta in senso stretto una forma di intelligenza artificiale quanto di un uso specifico mirato di programmi elaborati calibrati e applicati su realtà criminali che consentono delle forme di tipizzazione degli accertamenti e di lettura incrociata degli esiti degli stessi.

La valutazione sulla responsabilità

La tematica della “raccolta” degli elementi di prova in fase di indagine deve essere completata verificando la possibilità di utilizzo di programmi di I.A. per formulare valutazioni giudiziarie penali.

Valutazioni che implicano non solo una conoscenza e possibilità di confronto con il quadro normativo generale, con lo “stato dell'arte” della giurisprudenza e con elementi probatori di natura oggettiva, quanto anche di elementi di valutazione di differente natura: testimoniali, indubbiamente, ma anche valutativi tecnici (risultando l'idea che una valutazione di natura tecnico/scientifica possa essere in tutti casi individuata in termini oggettivi nulla più di un'illusione). Si tratta non solo di valutare i singoli elementi, quanto di dare conto di un quadro complessivo frutto dell'interazione tra gli stessi: l'art. 192 c.p.p., in tema di valutazione della prova, precisa che «L'esistenza di un fatto non può essere desunta da indizi a meno che questi siano gravi, precisi e concordanti».

La ricostruzione probatoria globale del giudice indubbiamente può essere condizionata da sintonie, simpatie, empatie (o da sentimenti opposti) e dunque è in astratto altamente fallibile; nondimeno, evitare tali forme di fallibilità riguarda la formazione e l'etica del magistrato, e la fallibilità sotto questi aspetti ricade nella patologia, più che nella fisiologia, del sistema. Nondimeno, si tratta di formulare giudizi (specie se di affermazione di responsabilità) in grado di rendere ragione della complessità dell'umano agire e delle innumerevoli variabili che lo condizionano, rispetto ai quali occorre decidere se un algoritmo sia di fornire un'adeguata e completa “lettura”.

La risposta non è semplice. L'art. 533 c.p.p. (Condanna dell'imputato) precisa che «Il giudice pronuncia sentenza di condanna se l'imputato risulta colpevole del reato contestatogli al di là di ogni ragionevole dubbio». Come si era già precisato «Se anche un applicativo può dare conto – e addirittura quantificare- percentuali di criticità (ossia dubbi) in ordine alla sussistenza di una responsabilità, è la connotazione di ragionevolezza che è difficilmente riconducibile all'interno di un algortimo; forse, sarebbe più semplice dire, che nell'individuazione della ragionevolezza del dubbio sta l'essenza del decidere.

Analogamente si deve ritenere – come già sopra l'abbiamo ricordato – per il complesso intreccio valutativo indicato dall'art. 192, comma 2, c.p.p. (“L'esistenza di un fatto non può essere desunta da indizi a meno che questi siano gravi, precisi e concordanti”) della cui ricostruzione il giudice, ai sensi del primo comma del medesimo articolo, deve dare conto (“Il giudice valuta la prova dando conto nella motivazione dei risultati acquisiti e dei criteri adottati”). Anche in questo senso, in particolare il requisito della gravità risulta non solo difficilmente riconducibile a principi generali e astratti, quanto volutamente “aperto” a un quadro di interconnessioni (e, aggiungiamo, a una specifica “sensibilità”) globalmente delineato dalla norma.

Così anche in relazione ai criteri di cui all'art. 133 c.p. (Gravità del reato: valutazione agli effetti della pena). In effetti, se la maggior parte dei criteri del quali il giudice deve tenere conto nell'esercizio del proprio potere discrezionale, ai fine di applicare una pena adeguata alla gravità del reato possono essere valutati in termini oggettivi, è difficile ricomprendere in tale categoria l'intensità del dolo o il grado della colpa o – in relazione alla capacità a delinquere - i motivi a delinquere e il carattere del reo.

In sostanza, il risultato finale “atteso -ossia il giudizio sulla responsabilità - potrebbe non essere “calcolabile” sulla base di algoritmi specifici; al contrario tutta una serie di aspetti - ossia il reperimento, la verifica, il confronto tra dati e informazioni a disposizione dell'a.g. nonché l'applicazione di principi scientifici ed esperienziali, potrebbero essere di grande supporto nell'attività degli organi giudicanti (e, prima ancora, della magistratura requirente). Un contributo sulle singole prove, quindi, fermo restando che la sintesi finale e la valutazione sulla personalità non potrebbe che essere frutto di una “metabolizzazione” su parametri di giudizio umani e non - per quanto “raffinati” - espressivi di I.A."» (così C. Parodi - V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, in sistemapenale.it, 6/2019).

Le valutazioni sulla pericolosità

A conclusioni globalmente differenti rispetto a quanto precisato nei punti precedenti e si deve verosimilmente in relazione alla possibilità di “demandare” ad algoritmi le valutazioni in tema di pericolosità, differentemente declinate in tema di esigenze cautelari di cui all'art. 274 lett. c) c.p.p., (a fronte del concreto e attuale pericolo di reiterazione criminosa), di applicazione di misure di sicurezza di cui all'art. 202 e 203 c.p. (Applicabilità delle misure di sicurezza, in relazione all'accertamento della pericolosità sociale) e di misure di prevenzione ai sensi dell'art. 6 d.lgs. 159/2011.

In realtà, si tratta di una differenza non tanto dal punto di vista quantitativo, ma qualitativo: la valutazione sulla personalità (elemento caratterizzante della quale è dato dalla pericolosità) può certamente essere in qualche modo scomposta in un'analisi di fattori. Fattori che un eventuale algoritmo potrà di cercare elaborare e quindi formulando in esito alla stessa una valutazione.

Il punto è che se anche soltanto uno viene in qualche modo individuato e applicato in termini non corretti si rischia di esprimere una valutazione espressive di un pregiudizio e non verosimilmente aderenti a quella che è la realtà del soggetto che deve essere valutato.

Al riguardo, alcuni aspetti devono essere evidenziati in via preliminare; non paiono compatibili con la “filosofia” del nostro sistema, alla luce anche delle indicazioni di matrice europea, programmi in base ai quali:

  • la decisione sulla pericolosità sia totalmente rimessa alle elaborazioni del programma
  • le elaborazioni che costituiscano uno degli elementi a disposizione del giudice, ma non verificabili (e, sul punto, si pone una volta di più il conflitto tra il diritto di proprietà industriale dei soggetti che elaborano l'applicativo e l'esigenza di verifica di coloro che dell'applicativo sono “oggetto”) o correlate a fattori estranei rispetto alla personalità del soggetto.

Inoltre, programmi sviluppati per tali finalità non dovranno solo utilizzare informazioni accurate sul soggetto per il quale la valutazione è effettuata, ma che il significato predittivo della stessa non potrà essere condizionato da fattori di genere, o sociali, etnici o economici.

Un aspetto centrale del problema non riguarda, tuttavia, l'algoritmo in sé e nemmeno la tipologia di compiti assegnati allo strumento di I.A. (perché la normativa, quanto meno europea, in maniera solidamente garantista, esclude che una qualsivoglia decisione possa discendere esclusivamente e senza controllo umano da un processo automatizzato) quanto appunto la base dati sulla quale l'algoritmo dovrà funzionare, da valutare in senso quantitativo come qualitativo.

La qualità dei dati dipende dalla loro provenienza e dalla pertinenza alla realtà da rappresentare ed allo scopo da ottenere. Non solo: non infrequentemente, gli sviluppatori o utilizzatori di questi modelli matematici (siano essi espressione di I.A. o meno) non dispongono di dati diretti relativi ai comportamenti a cui sono maggiormente interessanti nella costruzione del modello e procedono a “completare” lo sviluppo del programma sostituendolo con proxy data, o dati vicarianti o dati indiretti. Quanto ciò possa essere rischioso nel caso di specie è di tutta evidenza.

In ogni modo, la selezione dei dati per costruire ed allenare un modello matematico, la loro pertinenza all'oggetto voluto, la loro qualità, la loro provenienza e la loro non manipolabilità, sono il presupposto per ottenere uno strumento che sia realmente utile in quanto rappresentativo della realtà che si vuole valutare o prevedere. Inoltre, come già sopra evidenziato, anche la scelta dei dati e la loro qualità dovranno essere oggetto di trasparente comunicazione agli utenti di un modello matematico, come le modalità con cui vengono assimilati e valutati dal modello.

Sul tema sono state correttamente evidenziate alcune potenziali criticità dell'utilizzo di forme di AI per valutare la pericolosità:

  • «la verifica della qualità e natura dei dati la cui elaborazione si vuole affidare all'algoritmo;
  • l'individuazione dei soggetti sotto il cui controllo dovrebbe avere luogo l'inserimento (il Ministero della Giustizia, un'Authority, un organismo misto composto da esperti indipendenti?);
  • il diritto alla trasparenza, accessibilità e leggibilità dei codici sorgente, in un quadro di garanzie refrattario alla presenza di black boxes;
  • la definizione del grado di vincolatività del risultato algoritmico per il giudice: si tratterebbe di un semplice ausilio di cui il giudice potrebbe anche non tenerne conto o discostarsene motivando sarebbe invece obbligatorio? e quale potrebbe essere il grado di invalidità di una statuizione che si fondi sul prodotto dell'algoritmo oppure si discosti da esso? il loro impiego potrebbe avvenire soltanto su base volontaria?» (Così A. Ziroldi, Intelligenza artificiale e processo penale tra norme, prassi e prospettive, in questionegiustizia.it)

Esistono in letteratura numerosi casi caratterizzati da criticità e in tal senso e il rischio è troppo elevato per poter essere affrontato: l'”occhio” umano resta la soluzione che offre maggiori garanzie di una lettura globale della personalità di un soggetto. Un rischio elevatissimo; non solo sulla scelta dei criteri, ma anche sulla rilevanza degli stessi, nella valutazione complessiva, può portare a risultati disastrosi. Sul tema, emblematica e molto nota una decisione della Corte Suprema del Wisconsin, intervenuta sulla decisione di un tribunale nella quale, nel determinare la pena, i giudici avevano tenuto conto dei risultati elaborati dal programma COMPAS (Correctional offender management profiling for alternative sanctions) che aveva indicato l'imputato quale soggetto ad alto rischio di recidiva (v. S. Carrer, Se l'amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, giurispudenzapenale.com , 24.4.2019, commento al caso n. 2015AP157-CR, 5 April – 13 July 2016, Supreme Court of Wisconsin, State of Wisconsin v. E.L.L.).

In definitiva, la macchina può valutare i fatti e le connessioni tra fatti; forse solo un essere umano - a tutt'oggi, quantomeno - può «valutare» un altro essere umano.

Prova penale e predittività degli esiti

L'attività di Procura impone una costante verifica sugli esiti dei processi al fine di monitorare i vari settori e comprendere se assoluzioni “seriali” o quantomeno legate a fattori negativi - ermeneutici o investigativi - possano avere un ruolo negli esiti delle vicende processuali. Al proposito, considerati i gravosi impegni dei singoli sostituti, può essere considerata la possibilità di destinare una parte dell'attività dell'ufficio all''analisi delle sentenze del Tribunale sia per selezionare eventuali criticità costanti, sia per la predisposizione di provvedimenti generali di impugnazione da applicare ai singoli casi sia per individuare in termini efficace e rapidi l'approccio investigativi o ermeneutico non corretto nei singoli settori.

Indubbiamente meno banale può essere una ulteriore implementazione di tale approccio al lavoro di procura che tuttavia in qualche modo discende proprio dalle modifiche apportate al sistema in generale dalla riforma di cui al d.lgs. 150/2022 e successive modifiche; in conseguenza della riforma l'azione penale potrà essere esercitata o in negativo dovrà essere richiesta l'archiviazione ogni qualvolta non sia prevedibile a divenire a un giudizio di condanna. In base alla nuova versione dell'art. 408 c.p.p. «Quando gli elementi acquisiti nel corso delle indagini preliminari non consentono di formulare una ragionevole previsione di condanna o di applicazione di una misura di sicurezza diversa dalla confisca, il pubblico ministero, presenta al giudice richiesta di archiviazione».

Il punto riguarda proprio tale tipologia di valutazione che se per un elevato numero di tipologie di procedimenti non può che essere effettuata specificamente sulla base degli esiti delle indagini, per molti altri al contrario potrà derivare da una analisi di quelle che sono le indicazioni poniamo del tribunale in relazione a specifiche problematiche ermeneutiche e da una verifica globale sui dati che l'ufficio ha ottenuto in esito alle indagini.

Un programma, quindi, di verifica - su base informatica, anche in questo caso non necessariamente definibile come forma di intelligenza artificiale - delle prospettive di condanna legate a categorie di procedimenti che ovviamente non potrebbe vincolare le scelte del pubblico ministero (ben potendosi porre dei casi nei quali la l'esercizio dell'azione penale o al contrario l'archiviazione possono essere pienamente motiva di discostandosi così da quella che è la previsione dell'algoritmo) ma che potrebbe al contrario rappresentare sia per la Procura della Repubblica sia per certi altri aspetti per le parti private e per i difensori un elemento di valutazione importante in relazione alla scelte di esercizio dell'azione penale o alle scelte defensionale che possono essere conseguenti agli atti di uno specifico procedimento.

Un'attività che potrebbe essere utilmente svolta attraverso l'elaborazione di specifici algoritmi, anche ai fine di valutare se e quando proporre impugnazione; è ragionevole pensare che per numerose tipologie di reati per le quali la valutazione globale degli elementi sia chiave strettamente giuridica sia in chiave di prova storica sia in qualche modo standardizzabile potrebbero portare a valutazioni di sintesi standardizzabili e come tali replicabili nel momento in cui nel singolo caso potrà essere effettuata la valutazione sull'esercizio dell'azione penale.

Conclusioni

Il maggiore utilizzo degli algoritmi nell'ambito delle attività umane rende la tipologia di accertamento con oggetto questo ultimi non più una “nicchia” per iniziati quanto uno scenario consueto e prevedibile di numerose tipologie di indagine. È necessario farsi trovare pronti a tale approccio investigativo di questa natura, non solo sul piano tecnologico, ma su quello della professionalità.

La criminalità informatica in senso stretto - ossia il soggetto che opera in rete per finalità palesemente illecita ai fini di danneggiare o al fine di appropriarsi in maniera diretta criminale di beni e servizi altrui - non esaurisce affatto quello che è il panorama effettivo col quale la autorità giudiziaria dovrà confrontarsi.

Molto più insidiose, delicate, occulte e proprio per questo molto più difficili da fronteggiare sono forme di criminalità che si presentano attraverso forme di organizzazione dell'attività in termini informatici apparentemente del tutto lecite, verosimilmente inserite a fondo in contesti sociali ed economici dove le stesse vengono accettate e dove non di meno queste attività sono in grado di raccogliere informazioni elaborarle ed utilizzarli - in molti casi - nella migliore delle ipotesi all'insaputa dei soggetti da cui provengono e in molte altre invece contro gli interessi personali o economici di tali soggetti. Questa è la nostra nuova frontiera: se noi non siamo consapevoli di questo aspetto e se non mettiamo a punto gli strumenti idoneo per fronteggiare questa specifica forma di aggressione informatica evidentemente la partita è persa sin dall'inizio.

Resta una domanda di fondo, che deve essere posta. Se ragioniamo in termini di analisi di dati storici - specie in termini massivi – e di applicazioni di principi di diritto a tali dati (tralasciando, intenzionalmente, il problema dell'evoluzione del diritto) gli esseri umani potrebbero risultare meno “idonei” a giudicare - almeno in astratto - rispetto a un algoritmo, in quanto potrebbero:

  • non confrontare gli elementi in fatto correttamente ed esaustivamente
  • applicare percorsi logici condizionati da carenze culturali e pregiudizi
  • essere, indubbiamente, più lenti e imprecisi nell'elaborazione.

L'algoritmo non ha (forse) questi limiti. Di certo sa confrontare tutti gli elementi a disposizione, è maledettamente più veloce dell'uomo, ricorda e applica tutti i principi che gli sono stati «inculcati», riflette- al più- i pregiudizi di chi lo ha programmato.

Perché si vuole in molti casi e si accetta – in altrettanti casi - più volentieri il giudizio dell'uomo, che sappiamo che può sbagliare e che spesso sbaglia, che sappiamo essere condizionato o condizionabile da mille fattori o addirittura che può essere corruttibile o corrotto?

Risposta non è semplice e non è scontata. Forse, semplicemente, perché l'uomo è “attaccabile” in quanto fallibile, proprio per tutte queste ragioni. La “macchina”, il programma, no. O meglio attaccare chi è dietro la macchina – come abbiamo visto sopra - può essere molto più difficile. Una giustizia fallibile è formalmente improponibile, ma psicologicamente – per molti, almeno – più accettabile.

In conclusione:

  • Al di là delle etichette e delle definizioni, l'utilizzo dell'informatica per contrastare fenomeni criminali sia di natura informatica sia ordinari è una scelta imprescindibile in termini di efficienza per il sistema giudiziario.
  • L'utilizzo specifico di forme di intelligenza artificiale o adesso assimilate ai fini sia della ricostruzione delle responsabilità in fase di indagini, sia della valutazione delle stesse, non può che avvenire in termini assoluta adeguatezza sul piano procedurale e di conoscibilità delle metodiche utilizzate, dei principi di confronto applicati e dei dati analizzati.
  • L'utilizzo di algoritmi nell'ambito del sistema penale può presentare profili di utilità anche- con riguardo quantomeno a specifiche tipologie di reato- in relazione alla valutazione degli esiti dei procedimenti in funzione delle scelte sull'esercizio dell'azione penale.
  • Le valutazioni a mezzo di algoritmi in relazione alla pericolosità di soggetti – nelle varie nelle quali la stessa si può presentare nell'ambito del sistema penale – presenta dei margini di rischio elevati, tali da non sconsigliarne - quantomeno al momento - l'applicazione.
Riferimenti
  • F. Basile, Diritto penale e Intelligenza Artificiale, in Giur. It., Torino, 2019;
  • Commissione Europea, Libro Bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia, COM (2020) 65 final, Bruxelles, 2020;
  • V. C. Talamo, Sistemi di intelligenza artificiale: quali scenari in sede di accertamento della responsabilità penale?, IUS Penale (ius.giuffrefl.it), 3 Luglio 2020;
  • A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, questionegiustizia.it;
  • G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, sistemapenale.it, 11 novembre 2020.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario