Intelligenza Artificiale e riflessi sulla professione dell'avvocato
Intervento dell'aprile 2025 a un incontro della Camera Civile di Piacenza
1.
A oggi – inizio aprile del 2025 – e la data è essenziale perché in questo campo il cambiamento e la novità sono all’ordine del giorno, l’Intelligenza Artificiale è un tema che non può essere ignorato, non fosse altro che tutti ne parlano – più o meno a proposito – e dunque è necessario cercare di orientarsi.
Partirai da quattro documenti che in questo momento hanno una certa rilevanza nell’attualità: Il provvedimento del Tribunale di Firenze dove si riconosce che in fondo l’avvocato che inserisca negli atti precedenti falsi (suggeriti, pare a una collaboratrice di studio da un modello di linguaggio ampio) non commette un atto sanzionabile da responsabilità aggravata se questi precedenti sono inifluenti; la dichiarazione del Presidente del CNF Greco che vuole “una intelligenza artificiale degli avvocati” finanziata dalla Cassa Forense; la pubblicazione della Carta dei principi sull'intelligenza artificiale dell'ordine degli avvocati di MIlano; il DDL sull'intelligenza artificiale (in particolare gli artt. 12 e 14).
Sono testi di varia provenienza e natura, ma sono tutti contraddistinti da un elemento comune e cioè il senso di inevitabilità dell’uso della Intelligenza Artificiale: non è contemplato che si possa scegliere di usare o no questo strumento, è dato per scontato (questo è un tratto evidente nel testo normativo del DDL) e con l’inevitabilità arriva, altrettanto inevitabilmente anche la deresponsabilizzazione.
Sul punto quindi è di grande interesse proprio quanto previsto dalla Carta dei principi dell’ordine di Milano quando prevede un impegno per gli avvocati molto rilevante:
Gli avvocati informano chiaramente i propri clienti dell'uso dell'Al e del possibile impatto sul servizio legale fornito. La trasparenza implica anche la capacità di spiegare come le tecnologie utilizzate possono contribuire ad elaborare i risultati e di garantire che questi ultimi siano comprensibili e giustificabili. È fondamentale che l'avvocato sia in grado di spiegare come l'Al abbia influenzato l'elaborazione di documenti, l'analisi di prove o altre attività legali, facendo in modo che ogni risultato generato sia comprensibile, giustificabile e motivato.
Quando l'Al viene utilizzata in ambito forense, gli avvocati descrivono i metodi e le tecnologie impiegate e forniscono informazioni che consentano di valutare la validità e l'affidabilità dei risultati nel pieno rispetto delle migliori prassi in materia di digital forensics.
Qesta affermazione, in parricolare la seconda parte, è chiaramente quasi impossibile da realizzare concretamente. Gli avvocati verrebbero chiamati a comprendere concetti e meccanismi estremamente complessi che coinvolgono informatica, matematica e linguistica. Se quindi da un lato l’affermazione rasenta il wishful thinking dall’altro però deve dare lo spunto per per cercare davvero di provare a capire qualcosa, non tutto, ma qualcosa, di questi strumenti che altrimenti potrebbero apparire quasi “magici” (a confermare la terza legge di Clarke). Questo anche perché, come è diventata prassi diffusa, forme di intelligenza artificiale vengono inserite nelle più disparate applicazioni, da quelle di Ufficio a quelle di messaggistica personale.
2.
Possiamo cominciare a dire che sotto l’ombrello del nome «Intelligenza artificiale» rientrano varie “cose”: il machine learning (apprendimento automatico), la pattern recognition (il riconoscimento degli schemi ricorrenti), le ipotesi predittive. Va anche considerato il fatto che questi concetti sono funzionalizzati al c.d. information Retrieval, cioè al recupero di informazioni.
Oggi, di fatto, il modello di intelligenza artificiale che, insieme, ha più un immediato impatto sulla nostra professione ed è più comunemente visibile è sicuramente quello Large Language Model (LLM). Un LLM utilizza e combina queste tecniche di apprendimento e riconoscimento di schemi ricorrenti allo scopo di restiuire informazioni compiute e immediatamente comprensibili. L’esito è un programma che, a una domanda in linguaggio naturale, risponde in linguaggio altrettanto naturale, fornendo le informazioni richieste: è facile riconoscere il learning, il riconoscimento di pattern e il retrieval di informazioni.
Ma osserviamo ancora che la traduzione di Large Language model potrebbe suonare come modello linguistico di grandi dimensioni e già questo ci fa capire che si tratta di un modello cioè un ambiente in cui il programma si trova ad operare basandosi su una grande quantità di dati. Questi dati sono costituiti da informazioni che il programma ha reperito “allenandosi” su testi di vario genere reperiti in rete. Il gran numero di questi testi fa sì che si tratti di un modello di grandi dimensioni ed è questo che fa la differenza perché – e qui sta il nocciolo – il programma opera a livello statistico e una statistica è tanto più accurata quanto più ampia è la base di dati di partenza.
La parte più interessante per noi esseri umani è naturalmente il fatto che questi meccanismi di analisi dei testi reperiti e di creazione del testo di risposta o “output“ può essere analizzato con gli strumenti della linguistica computazionale in una sorta di scoperta a ritroso dei meccanismi di funzionamento.
In linguistica computazionale troviamo il concetto di token cioè di unità linguistica, un concetto che si avvicina molto a quello di parola ma che non vi si identifca completamente perché il token, in quanto unità non ulteriormente divisibile può essere anche identtificato, oltre che il singorlo segno di punteggiatura, anche le varie occorrenze della parola, ad es.: «Acqua» (con l’iniziale maiuscola, in quanto all’inizio di una frase); «acqua » (la parola seguita da uno spazio, perché all’interno di una frase), etc.
È quindi possibile procedere a una «tokenizzazione» dei dizionari, analizzandone il contenuto e distinguendo in token i lemmi contenuti.
Sulla base di questa base di dati, la linguistica computazionale ricostruisce attraverso l’analisi statistica delle occorrenze dei token, una serie di funzioni matematiche che vanno a comporre un modello stocastico (cioè probablistico) che potrebbe essere in grado di comporre un testo partendo da un input e dando luogo a una sequenza di parole determinata probabilisticamente. In sostanza il modello riesce a determinare un testo sulla base del testo precedente (ad esempio attraverso l'uso di modelli Markoviani usati anche nella statistica computazionale).
Una prima implicazione è che la rispondenza agli schemi sintattici più statisticamente diffusi determina una maggiore probabilità che una frase determninata su base probabilistica sia corretta. una seconda implicazione è che poiché lavora sulla probabilità, un modello non è innovativo per definizione.
Il corpus di addestramento del modello è naturalmente a discrezione di chi lo sceglie, con tutto quello che ne consegue in termini di risultati. In linguistica anche il parlante è considerato come modello probabilistico. Questo ci fa riflettere.
Naturalmente un LLM essendo una combinazione di una base di dati amplissima e di una serie di programmi che in qualche modo svolgono analisi statistiche del corpus di addestramento, possono essere introdotte delle Tecniche di Raffinazione dei risultati come il RAG Retrieval Augmented learning o il Chain of Density. Il RAG.
Si tratta di due meccanismi che sfruttano i meccanismi probabilistici: nel primo caso individuando dei testi di riferimento prioritari dove pescare le informazioni rilevantisi
3.
Se tutto questo è vero, possiamo anche fare un passo avanti e prendere in considerazione il fatto che si tratta di un ulteriore spostamento di complessità dall'utente alla macchina..
In proposito prenderei a prestito alcune osservazioni che Umberto Eco faceva in una sua conferenza del 1983 intitolata “informatica e ambiente semiotico” nella quale si poneva provocatoriamente nel dire che non era cosi importante stabilire quanto i computer potessero diventare intelligenti quanto invece facessero diventare intelligenti gli esseri umani.
In quella lezione Eco parlava della differenza tra l’Utente che usa un programma già fatto e quello che invece crea un programma, imparandone la grammatica e la sintassi e poneva una distinzione tra linguaggi alti e bassi, dove il livello più basso è il linguaggio macchina vero e proprio, mentre il programmatore e l'utente parlino linguaggi via via sempre più alti. Appare chiaro che in un dialogo con un LLM il linguaggio è diventato altissimo, ben di più di una interfaccia punta e clicca e ancora di più di una interfaccia a righe di comando singole.
La parte più interessante che ci aiuta a capire non solo un meccanismo che spesso ci sfugge, ma anche un rischio cui ci esponiamo è quella in cui Eco cita Juri Lotman, uno studioso sovietico nato nel 1922 e morto nel 1993 che nei suoi studi distingueva tra cultura grammaticalizzate e culture testualizzate e fa un esempio illuminante: due baristi, uno che prepara i panini su ordinazione e l’altro che vende i panini presenti nel menu. Il secondo sa già che ha dei panini tipo e di fatto lavora meno dell’altro, ma il primo ha una padronanza maggiore dei singoli ingredienti del panino.
Ecco il punto: l’utente che fa uso di uno strumento come un LLM lavora meno, ma ha una minore padronanza degli ingredienti, nel nostro caso degli istituti e dei principi giuridici. Si potrebbe dire che il fenomeno non è qualitativamente diverso da quando una persona comune legga una sentenza su internet e ne capisce solo alcuni aspetti, ma a mio avviso subentrano altri aspetti che cambiano qualitativamente la questione. E in particolare subentra quello che è l’aspetto di come gli LLM vengono “venduti”, come cioè dei modelli efficaci e convincenti. Sicché inevitabilmente verrà più facile, invece di cercare i singoli ingredienti di una argomentazione giuridica, utilizzare un LLM che a fronte di una nostra domanda ci serva un menu già pronto.
Questo a meno che non subentri un principio che troppo spesso viene posto in ombra e cioè la responsabilità. Il fatto che venga usato un LLM o un qualsiasi altro strumento (compreso uno strumento umano) comporta una assunzione di responsabilità che non deve essere trascurata o dimenticata. L’antidoto della responsabilità contro la maggiore maneggevolezza dei risultati di un LLM dovrebbe garantire che ognuno di questi dovrebbe eessere ricontrollato e verificato.
Per questo lascia perplessi il testo del disegno di legge sulla IA recentemente pubblicato nel quale si sottolinea la centralità della decisione umana. Questo è un aspetto che non dovrebbe nemmeno essere messo in discussione perché se esiste una responsabilità, questa deve essere di un soggetto, a meno di non voler delegare decisioni a una entità astratta, ciò che mi sembrerebbe uno scenario del tutto non auspicabile.