Intelligenza Artificiale: cos'è e perché vale la pena di vigilare sul suo sviluppo

01 Agosto 2023

La questione legata all'Intelligenza Artificiale è oggi di grande attualità e attira l'attenzione dei media e degli operatori che lavorano in ogni campo della produzione e dei servizi. Si discute quindi molto di questa tecnologia, che ha rivoluzionato il modo in cui persone, aziende ed organizzazioni gestiscono i loro processi e prendono decisioni.
Cosa intendiamo per Intelligenza Artificiale

L'IA o intelligenza artificiale, anche indicata con l'acronimo AI: Artificial Intelligence, è l'abilità di una macchina di mostrare capacità considerate tipicamente umane, quali il ragionamento, l'apprendimento, la pianificazione e la creatività. Essa consente ai sistemi elettronici di capire il proprio ambiente, risolvere problemi e agire con un obiettivo specifico.

In pratica, il sistema riceve i dati, già preparati e immessi dall'uomo o raccolti dai sensori di cui esso stesso può essere dotato (come ad esempio una videocamera), li processa, li compara e risponde.

Quindi, a differenza di quanto accadeva in passato con le apparecchiature elettroniche tradizionali, i sistemi dotati di IA sono capaci di adattare il proprio comportamento, analizzando gli effetti delle azioni compiute in precedenza e lavorando in autonomia.

Gli esperti distinguono almeno tre tipi di IA: l'intelligenza artificiale limitata (ANI, o Artificial Narrow Intelligence),l'intelligenza artificiale generale(AGI, o Artificial General Intelligence) e la super-intelligenza artificiale (ASI, o Artificial Super Intelligence).

La prima avrebbe capacità contenute e sarebbe in grado di compiere un numero abbastanza limitato di operazioni, la seconda dovrebbe essere in grado di pensare e agire come l'uomo, la terza sarebbe invece in grado di svolgere molteplici compiti, a un livello superiore a quello umano.

Secondo alcuni studiosi, al momento saremmo ancora fermi all'ANI e abbastanza lontani dal successivo stadio evolutivo, ma le recenti affermazioni di Geoffrey Hinton (considerato il padrino dell'intelligenza artificiale) riguardo ai pericoli che si anniderebbero in questa tecnologia, hanno fatto rapidamente il giro del mondo e provocato qualche brivido ai più, rievocando scenari da film catastrofico-avveniristici, come Matrix.

Anche Stephen Hawking ha pronosticato che l'intelligenza artificiale potrebbe sviluppare una volontà tutta sua e che la sua ascesa potrebbe rappresentare insieme una buona e una cattiva cosa per l'umanità. Non solo perché questa tecnologia è in grado di minacciare milioni di posti di lavoro, ma anche perché potrebbe “superarci” in pochi decenni.

Il rischio più grande dell'IA, precisava Hawking, è la sua estrema efficienza. «Un'AI super intelligente sarà estremamente brava a raggiungere i suoi obiettivi, e se questi non saranno allineati ai nostri, saremo nei guai. Probabilmente non odiate le formiche e non calpestate questi insetti per cattiveria, ma se siete responsabili di un progetto idroelettrico sostenibile e c'è un formicaio nella regione che dovete allagare, andrà a finire male per le formiche. Cerchiamo di non mettere l'umanità nella posizione delle formiche».

Le innumerevoli applicazioni dell'IA

L'intelligenza artificiale ha cominciato a svilupparsi da più di 60 anni. La sua data di nascita convenzionale, infatti, risalirebbe al 1956, nel corso di un seminario tenutosi al Dartmouth College di Hanover, nel New Hampshire. Tuttavia, i progressi nelle capacità delle apparecchiature elettroniche, la sempre maggiore disponibilità di dati e lo sviluppo di nuovi algoritmi hanno determinato un incredibile balzo in avanti ed una sorta di mutazione nella qualità di questa tecnologia, che ha ormai innumerevoli applicazioni.

Essa è utilizzata per fornire suggerimenti basati sui comportamenti degli acquirenti ed offrire i risultati di ricerca più adatti, grazie al fatto che i motori di ricerca di cui è dotata sono capaci di registrare e analizzare un grande numero di dati relativi agli utenti.

I telefoni cellulari usano l'IA perché il prodotto risulti più personalizzato e siamo ormai abituati a servirci degli assistenti virtuali, che rispondono alle domande, danno suggerimenti e aiutano a organizzare la nostra agenda.

I software di traduzione automatica usano l'IA per migliorare le traduzioni o per inserire i sottotitoli automatici nei video.

Esistono poi le apparecchiature e gli elettrodomestici identificati con l'acronimo IoT (Internet of Things), come i termostati intelligenti, che imparano dai nostri comportamenti per ottimizzare l'energia.

Le automobili che guidiamo hanno già alcune funzioni che usano l'IA per la navigazione o per migliorare la sicurezza del veicolo e l'Unione europea ha finanziato uno studio su certi sensori che individuano possibili situazioni pericolose e incidenti, migliorando la viabilità e riducendo gli ingorghi nelle città. Grazie alla guida autonoma, infine, si ritiene di poter migliorare sicurezza, velocità ed efficienza anche nel traffico ferroviario.

Nell'ambito del cyber risk, esistono sistemi di IA che ci aiutano a riconoscere e combattere gli attacchi e le minacce informatiche, analizzando il flusso dei dati, riconoscendo eventuali tendenze e ricostruendo come sono avvenuti gli attacchi precedenti.

Esistono anche applicazioni in grado di individuare le fake news, attraverso l'analisi dei contenuti dei social media e l'identificazione di termini ed espressioni sospette.

In ambito medico, i ricercatori studiano come usare l'IA per analizzare grandi quantità di dati e scoprire corrispondenze e modelli in grado di migliorare diagnosi e prevenzione delle malattie ed è stato sviluppato un programma per rispondere alle chiamate di emergenza e riconoscere più velocemente se, ad esempio, l'interlocutore abbia in corso un arresto cardiaco.

Un progetto cofinanziato dall'UE sta sviluppando strumenti di ricerca testuale multilingue, per trovare le informazioni mediche disponibili più pertinenti, indipendentemente dalla lingua parlata dal paziente (fatali incomprensioni dovute a problemi linguistici sono ormai comuni negli ospedali).

Nel corso della pandemia, l'intelligenza artificiale è stata usata per i controlli della temperatura nei luoghi pubblici e per riconoscere le infezioni attraverso le immagini delle TAC ai polmoni, oltre che per fornire dati sulla progressione dell'epidemia.

Ma non è finita qui: si pensa che l'IA possa aiutare i produttori di beni di consumo ad essere più efficienti. L'utilizzo dei robot potrebbe infatti essere d'aiuto per riportare molti siti produttivi in Europa (ma senza aumentare il tasso di occupazione, purtroppo…) e l'IA potrebbe essere utilizzata per migliorare i canali di vendita o pianificare le manutenzioni da effettuare.

Esiste addirittura un progetto di ricerca che usa sistemi collaborativi e di realtà aumentata per migliorare la soddisfazione dei lavoratori nelle fabbriche e si ritiene che questa tecnologia possa essere utile per costruire un sistema alimentare più sostenibile, minimizzando l'uso di fertilizzanti e pesticidi, riducendo la quantità di irrigazioni e migliorando la produttività con un minore impatto ambientale. Si tratterebbe, insomma, di produrre cibo più sano.

Molti allevamenti nell'Unione Europea, inoltre, utilizzano già l'IA per monitorare i movimenti, la temperatura e l'alimentazione del bestiame.

Gli interrogativi che vale la pena porsi

A prima vista, sembra che questa tecnologia possa solo migliorare le condizioni umane, ma non dobbiamo dimenticare che simili nuovi materiali o strumenti, dalle prestazioni apparentemente straordinarie, hanno poi riservato drammatiche sorprese per l'umanità intera.

Pensiamo all'amianto, ai materiali PFAS etc.: tutte cose che si sono rivelate nocive per l'uomo, pur essendo state pensate per aiutarlo.

Anche per il mondo assicurativo l'IA rappresenta un grande interrogativo e può costituire uno straordinario aiuto, ma pone delicati problemi che interessano quasi tutti i rami.

Da un lato, essa può fornire – ad esempio – un sistema di allerta per i disastri naturali, riconoscendone i primi segni sulla base delle esperienze passate. Ciò permetterebbe di preparare la risposta più adeguata a tali eventi, aiutandoci a ridurre il loro tragico costo in termini di vite umane e determinando un grande risparmio sul piano finanziario, per quanto attiene ai danni a cose o animali.

Per altri versi, però, ci chiediamo come comportarci di fronte a quei sinistri che dovessero risalire all'uso dell'IA e non fossero riconducibili a responsabilità tipicamente attribuibili all'uomo, come accadrebbe per un conducente d'auto o un produttore di beni o servizi.

Interrogativi simili hanno già investito le compagnie di assicurazione, a partire dai problemi sorti per le autovetture a guida autonoma (chi è effettivamente responsabile per l‘eventuale sinistro: il conducente o il produttore del software che guida effettivamente l'auto? A chi andrebbe quindi intestata la polizza per la responsabilità civile: al proprietario dell'auto o al suo produttore?).

Ma lo stesso discorso si applica a qualsiasi prodotto o servizio che implichi una fonte o un'origine non direttamente umane e, come abbiamo visto, i campi di utilizzo dell'IA sono ormai infiniti.

Si pone insomma una questione di regole, il che accade in ogni occasione nella quale un nuovo soggetto si venga a trovare sotto i riflettori.

Trattandosi di uno strumento del tutto nuovo, è dunque necessario provvedere a tracciare le linee sulle quali la legge dello stato indicherà alla magistratura come dirimere le tante questioni che si sono già affacciate all'attenzione degli esperti, degli operatori e dei semplici utenti e cittadini.

La Proposta di Regolamento del Parlamento Europeo e del Consiglio

L'Unione Europea ha così pubblicato una Proposta di Regolamento del Parlamento europeo e del Consiglio, allo scopo di stabilire regole armonizzate su questa tecnologia, ponendosi l'obiettivo di sviluppare un tipo di IA sicura, affidabile ed etica.

La nuova legge sull'intelligenza artificiale ha l'obiettivo di assicurare che i sistemi di IA immessi sul mercato rispettino le normative vigenti in materia di sicurezza e i diritti fondamentali dei cittadini, per garantire lo sviluppo nel mercato di applicazioni lecite e affidabili.

Muovendosi sulle stesse linee già utilizzate con successo su altre questioni rilevanti, come il GDPR e la salvaguardia dell'ambiente, l'Unione ha scelto di raggiungere tali obiettivi con un approccio risk based. Poiché, nell'ambito di una materia in continua evoluzione, si rischierebbe di porsi in antitesi, rispetto al continuo sviluppo tecnologico del suo oggetto, un approccio direttamente proporzionato al rischio permetterebbe infatti di agganciare la norma alla sua crescita.

Fatta questa premessa, la definizione di produttore introdotta dalla nuova normativa lo individua come fornitore, cioè una persona fisica o giuridica, un'autorità pubblica, un'agenzia o un altro organismo che sviluppa un sistema di IA o che fa sviluppare un sistema di IA al fine di immetterlo sul mercato o metterlo in servizio con il proprio nome o marchio, a titolo oneroso o gratuito”.

L'ambito di applicazione riguarda:

  1. i fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell'Unione, indipendentemente dal fatto che siano stabiliti nell'Unione o in un paese terzo;
  2. gli utenti dei sistemi di IA situati nell'Unione;
  3. i fornitori e gli utenti di sistemi di IA situati in un paese terzo, laddove l'output prodotto dal sistema sia utilizzato nell'Unione.

In pratica, quando un sistema dotato di IA verrà immesso nel mercato UE, sarà utilizzato da cittadini dell'Unione o produrrà strumenti o servizi utilizzati all'interno dell'Unione stessa, si applicherà la normativa comunitaria.

La Proposta di regolamento differenzia i sistemi di IA a seconda che determinino un rischio inaccettabile, alto, oppure un rischio basso o minimo.

Quelli che comportano un rischio inaccettabile (perché violano diritti fondamentali dell'individuo, ad esempio) sono vietati. I sistemi a basso rischio sono sostanzialmente liberalizzati: i fornitori sono però comunque incoraggiati ad adottare codici di condotta.

Sono invece disciplinati nel dettaglio i sistemi ad alto rischio.

La classificazione di un sistema di IA ad alto rischio si basa sulla sua finalità, in linea con la normativa vigente dell'UE in materia di sicurezza dei prodotti. Vengono definiti i requisiti giuridici in relazione ai dati trattati ed alla governance applicata per la loro documentazione e conservazione, nonché la trasparenza, robustezza, accuratezza e sicurezza del sistema. È prevista una valutazione di conformità e la sua successiva certificazione, nonché un monitoraggio post commercializzazione ed una banca dati per i sistemi ad alto rischio.

Le applicazioni in campo giuridico

Algoritmi e sistemi di “machine learning” si prestano ad essere utilizzati anche in ambito giuridico, attraverso l'uso di sistemi informatici in grado di analizzare ed elaborare, in tempi
assai rapidi, notevoli quantità di dati.

Questi strumenti forniscono supporto a magistrati, avvocati ed a coloro che operano nel settore, consentendo loro di effettuare analisi predittive ed offrire più velocemente possibili soluzioni ai casi giudiziari.

Con l'aiuto dell'IA, ad esempio, si potrebbero svolgere compiti che al momento risulterebbero troppo complessi da porre in pratica, come catalogare le decisioni di giurisprudenza in funzione
della probabilità di successo di una determinata domanda. Il sistema, infatti, potrebbe essere addestrato ad analizzare i fatti e le prove per valutare le probabilità di esito di una determinata pretesa.

Un supporto di questo tipo si rivelerebbe utile anche per gli studiosi del diritto, che potrebbero effettuare ricerche ed organizzare il materiale disponibile assai più velocemente e con la massima efficacia.

In realtà, sono già disponibili vari motori di ricerca, che si avvalgono di algoritmi per
fornire risultati sempre più raffinati e possono aiutare a creare sommari automatizzati per
analizzare i testi giuridici, identificando parole chiave e tendenze, all'interno di grandi quantità di documenti.

Per condurre l'analisi di testi normativi, ad esempio, esistono già alcune piattaforme che offrono
servizi di analisi testuale, come IBM Watson e Google Cloud Natural Language. Esse consentono di analizzare i testi, estraendone informazioni basate su concetti chiave e sulle loro relazioni.

IBM Watson, ad esempio, è un sistema di intelligenza artificiale il cui funzionamento dipende da una serie di moduli, ognuno dei quali ha una specifica funzione e competenza.

Il modulo di analisi del linguaggio naturale permette di comprendere e analizzare il significato del testo e di estrarre le informazioni rilevanti. Il modulo di apprendimento automatico, invece, consente al sistema di apprendere continuamente da nuovi dati e di migliorare le proprie prestazioni.

C'è poi un modulo di ragionamento, fondato sulle evidenze conosciute, per elaborare ipotesi e valutare la loro plausibilità in base alle informazioni disponibili ed un modulo di elaborazione del linguaggio naturale, che genera risposte alle domande poste dagli utenti.

Questo sistema è dunque altamente flessibile e personalizzabile, il che lo rende interessante per gli utilizzi più disparati (al di là di quello giuridico), da quello sanitario a quello finanziario, dall'educazione alla prevenzione dei crimini o degli incidenti stradali.

Per quanto riguarda Google Cloud Natural Language, esso è specializzato nella comprensione dei documenti, inclusi quelli legali, ed è dunque in grado di analizzare un contratto, per identificarne i termini e le clausole principali.

Dobbiamo considerare che le cosiddette API (Application Programming Interface) utilizzate dall'Intelligenza Artificiale, sono strumenti che consentono ad un software di comunicare e interagire con gli altri. Si tratta di applicazioni che permettono agli sviluppatori di integrare funzionalità e servizi di terze parti con un notevole risparmio di risorse e arrivano perfino a stabilire standard e best practice per l'interazione tra i vari programmi, riducendo il rischio di errori o malfunzionamenti.

Sembra che questo sistema sia anche in grado di valutare il tono del testo analizzato - se, cioè, lo stesso sia positivo, neutrale o negativo - e di identificare le categorie grammaticali dei termini utilizzati, permettendo di valutare l'atteggiamento emotivo delle parti, (come la soddisfazione o la frustrazione) e di prevedere eventuali problemi o conflitti futuri.

A differenza di quanto teorizzato da molti esperti, questi sistemi di IA sono dunque in grado di eseguire ragionamenti complessi e di risolvere problemi che richiedono una comprensione assai profonda del contesto e delle informazioni fornite. A queste caratteristiche dobbiamo aggiungere la capacità di supportare un numero praticamente infinito di lingue e linguaggi diversi, il che farebbe pensare che, se non proprio nello stadio dell'ASI (la super intelligenza artificiale), si sia già arrivati ampiamente a quello dell'AGI, l'Artificial General Intelligence.

L'utilizzo nella redazione di sentenze e nella valutazione di decisioni giudiziarie

Sono già in atto sistemi di machine learning per la redazione di sentenze e per la valutazione di decisioni giudiziarie.

Il progetto denominato "Predicting Judicial Decisions of the European Court of Human Rights", condotto dalla London School of Economics, ad esempio, ha analizzato 5847 sentenze della Corte Europea dei Diritti dell'Uomo, mediante algoritmi di machine learning.

I ricercatori dell'Università della Pennsylvania hanno sviluppato un algoritmo per l'analisi
e la classificazione delle sentenze della Corte Suprema degli Stati Uniti, addestrato su 2400 decisioni, con l'obiettivo di prevedere l'esito di future cause.

Un algoritmo specificamente ideato per l'amministrazione della giustizia è il COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), ideato per valutare il rischio di recidiva di un individuo condannato, sulla base delle risposte fornite dall'imputato stesso sulla sua storia criminale, la personalità ed altri fattori che possono influenzare la sua probabilità di recidiva. In base alle risposte date, il sistema assegna un punteggio che indica il grado di pericolosità del soggetto, che dovrebbe essere utilizzato dai giudici per decidere se concedere o meno la libertà condizionata.

Un altro esempio di algoritmo impiegato nel campo giuridico è un modello predittivo denominato “Luminance”, che analizza documenti legali per identificare le clausole ritenute critiche ed è stato sviluppato proprio per aiutare avvocati ed operatori del diritto a risparmiare tempo nella revisione dei documenti. L'Intelligenza Artificiale permette a Luminance di imparare dall'analisi dei documenti, diventando sempre più preciso nel rilevarne le criticità.

Da ultimo, apprendiamo da Deloitte Legal che ChatGPT, un “chatbot” ovverosia uno strumento di OpenAI noto in Italia per essere stato bloccato con provvedimento d'urgenza dal Garante della privacy, avrebbe passato l'esame da avvocato in USA.

In pratica, la macchina avrebbe risposto in modo sufficientemente corretto alle stesse domande poste agli esseri umani per diventare avvocati.

D'altro canto – sempre negli Stati Uniti - un avvocato ha denunciato di essere stato “tradito” dall'Intelligenza Artificiale, avendo depositando un atto scritto proprio da ChatGPT ed avendo scoperto in seguito che la macchina si sarebbe “inventata” dei precedenti.

Per quanto ne sappiamo, l'IA non dovrebbe essere in grado di inventarsi dati inesistenti, ma potrebbe aver male interpretato quelli immessi e sviluppato precedenti sulla base della logica appresa, il che confermerebbe la necessità che sia l'essere umano a dover comunque controllare il lavoro svolto da questi strumenti.

Conclusioni

L'Intelligenza Artificiale costituisce un ausilio assai utile per l'uomo e - in ambito giuridico - per gli avvocati, gli studiosi del diritto e i giudici in genere, ma molti addetti ai lavori sottolineano quanto sia importante non pensarla come un'attività sostitutiva, rispetto a quanto l'essere umano è capace di svolgere. Si tratta infatti di uno strumento che, sotto molti aspetti, si presta a pesanti critiche.

Da un lato è possibile che l'addestramento degli algoritmi possa essere in qualche modo influenzato da pregiudizi e discriminazioni, oltre che da veri e propri errori, dipendenti dal tipo e dalla qualità dei dati utilizzati. Tutto questo si rifletterebbe sul suo uso in modo amplificato, perché una macchina potrà anche imparare a valutare gli estremi di una causa legale, ma il mestiere del giudice va ben oltre questo. Una cosa è l'intelligenza e un'altra sono l'etica e la “sapienza”, intesa come capacità di discernere il giusto dall'ingiusto, al di là dell'esperienza che si può imparare dalla semplice lettura dei dati.

Per contro, è essenziale tener d'occhio e regolare lo sviluppo di questo strumento, soprattutto in ambito giuridico ed è importante che tale attività venga svolta – in qualche modo – dall'interno.

La trasformazione che l'introduzione dell'IA sta determinando non può più essere interrotta, ma va guidata, perché è alto il rischio che soggetti esterni al mondo giuridico (come le grandi società tecnologiche, ad esempio) prendano il sopravvento sul suo controllo, determinando un impatto devastante sulle professioni, non solo legali, ma in tutti i campi dello scibile.

Come si è accennato, il Parlamento UE sta operando per istituire nuovi organismi preposti al controllo di questi operatori, definendo parametri e caratteristiche tecniche da implementare nelle applicazioni dell'IA.

In ambito giuridico, ad esempio, è stato ristretto il campo della cosiddetta “giustizia predittiva” basata sulla profilazione dei comportamenti criminali. Inoltre, sono stati introdotti limiti precisi ai modelli sui quali è possibile costruire applicazioni non ritenute in grado di garantire i diritti fondamentali e la sicurezza dell'ambiente (come GPT, per l'appunto).

Considerata la velocità con la quale questo strumento si evolve (dovremmo dire, impara…) siamo molto lontani dall'avere acquisito certezze sul suo utilizzo e sulle sue criticità, ma non v'è dubbio che l'IA costituisca forse la più grande sfida che la nostra società abbia mai affrontato.

La questione, insomma, è di non metterci nella posizione delle formiche cui si riferiva Stephen Hawking.

Per approfondire
  • EURLEX:Proposta di REGOLAMENTO DEL PARLAMENTO EUROPEO E DEL CONSIGLIO CHE STABILISCE REGOLE ARMONIZZATE SULL'INTELLIGENZA ARTIFICIALE (LEGGE SULL'INTELLIGENZA ARTIFICIALE) E MODIFICA ALCUNI ATTI LEGISLATIVI DELL'UNIONE
  • Franco Benassi: CHATGPT, l'evoluzione dell'intelligenza artificiale e la sua applicazione nel
    campo giuridico. Spunti per un dibattito
    . Su IL CASO.it, 11 maggio 2023.
  • Claudia Morelli: Insegnare la legge a ChatGPT - Le principali modifiche all'Artificial Intelligence Act. Su Altalex, 22 maggio 2023.
  • L'AI tradisce il legale, falsa partenza per ChatGpt in un tribunale di NY. Su Il Sole 24 Ore, Norme e Tributi, 29 maggio 2023.
  • Pranshu Verma e Rachel Lerma: A curious person's guide to artificial intelligence.Su The Post, 7 maggio 2023.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario