Ha fatto il giro del mondo la notizia di un avvocato statunitense che ha fondato le proprie argomentazioni, in un ricorso avanti il Tribunale di Manhattan, su precedenti rinvenuti da ChatGPT, precedenti rivelatisi totalmente falsi e “inventati”.
Nulla di strano, a parte l’ingenuità dell’avvocato, per chiunque abbia dimestichezza con le “applicazioni” dell’intelligenza artificiale in particolare al mondo della giustizia e della decisione automatizzata.
ChatGPT, come noto, non è un motore di ricerca né una banca dati; è invece riconducibile a quei modelli probabilistici che, attraverso l’addestramento costituito dalla lettura di una enorme quantità di dati testuali, elaborano sequenze di testi senza comprenderne il significato. Emerge così la differenza ontologica che intercorre tra “comporre” un atto giuridico o un contratto e formulare una risposta a un quesito che richieda “intelligenza”; così come tra decidere e giudicare, sempre più evidenti appaiono le distorsioni provocate dall’impiego del lemma intelligenza artificiale.
Si pensi, per fare un altro esempio, a quelle applicazioni che vanno sotto il nome, pur esso equivoco, di giustizia predittiva, sintagma tanto suggestivo quanto impreciso nella misura in cui conferisce all’impiego di tecnologie di intelligenza artificiale la capacità di anticipare l’esito dell’attività decisoria umana, la quale diverrebbe a quel punto sostanzialmente inutile e sostituibile da un algoritmo di decisione.
Come si è osservato, l’intelligenza artificiale non predice alcunché; può stimare con quale probabilità un evento si realizzerà e questo forse giustifica l’impropria estensione del termine; ma rimane il fatto che nessuna tecnologia dà accesso al futuro.
Nei sistemi di machine learning l’apprendimento si sostanzia nella capacità di effettuare predizioni, ovvero di trovare le informazioni mancanti in base alle informazioni disponibili.
Il modello predittivo costituisce un algoritmo complesso che non viene costruito dall’uomo bensì dall’algoritmo addestratore. Una volta addestrato il sistema, il modello predittivo può venire applicato a nuovi individui, può evolvere e pervenire ad elaborare modelli capaci di previsioni “nuove”.
L’uomo dota la macchina di un metodo di apprendimento allo scopo di estrarre, dai dati a disposizione, il modello in base al quale effettuare le predizioni, dando così vita a una serie di possibili inconvenienti resi evidenti già dalle prime applicazioni in ambito giudiziale. Il famoso “caso Loomis” (Wisconsin), nell’ambito del quale tra i fattori tenuti in considerazione per la quantificazione della pena vi è stata l’elaborazione, da parte di un software predittivo proprietario (dunque coperto da riservatezza), delle risposte a un questionario, ha palesato pregiudizi, disparità di trattamento, opacità, violazione dei diritti fondamentali della persona.
Per questa ragione, così come per l’evidente “differenza di ragionamento” tra il cervello umano e i sistemi basati sull’apprendimento automatico, occorre stare in guardia da indebite semplificazioni e fraintendimenti e impegnare sforzi consistenti in una regolamentazione che bilanci accuratamente tutele e progresso.
*Riccardo Borsari è avvocato e professore all’Università di Padova. Si occupa in particolare di diritto applicato alle nuove tecnologie