ChatGPT, così come tutte le nuove intelligenze artificiali, è sicuramente una risorsa rivoluzionaria e utilissima, ma non certo se usata indiscriminatamente. Nonostante molti affermino che l’IA sia in procinto di sostituirci nel lavoro le cose non stanno proprio ancora così: lo ha imparato a sue spese Steven Schwartz, avvocato statunitense che si è trovato in una brutta situazione fidandosi troppo dell’intelligenza artificiale.
Il caso è avvenuto durante un processo intentato da Roberto Mata contro la compagnia aerea Avianca a causa di un carrello che lo ha ferito al ginocchio durante un volo. Durante il processo l’avvocato Schwartz ha citato come esempio diversi casi legali precedenti simili. Peccato che, cercandoli, questi casi non si trovassero da nessuna parte.
Il giudice ha chiesto a Schwartz di mostrare le sue fonti, e si è subito scoperto il problema: l’avvocato ha infatti mostrato screenshot di una conversazione con ChatGPT nella quale veniva chiesto all’intelligenza artificiale di trovare casi simili. GPT non è un motore di ricerca, ma “solo” un sofisticatissimo modello di linguaggio: pertanto è programmato per fornire risposte il più naturali possibili, ma non è garantita la loro accuratezza. E infatti tutti i casi erano inventati di sana pianta.
Schwartz si è difeso mostrando altri screenshot in cui chiedeva la conferma a ChatGPT che si trattasse di casi veri: l’intelligenza artificiale ha affermato contro ogni evidenza che sì, sono reali e trovabili su qualsiasi motore di ricerca legale. Ma così non è. La colpa quindi sta ai robot? Certo che no: il legale avrebbe dovuto sapere come funziona GPT, e l’ignoranza non è una scusa nel mondo della legge. L’avvocato sarà costretto a pagare pesanti sanzioni con la speranza che la lezione sia stata imparata: non siamo ancora arrivati al momento in cui ci si potrà fidare ciecamente dell’intelligenza artificiale.