
Agosto 2019: su un volo Avianca da El Salvador a New York il carrello delle bevande mette a mal partito il ginocchio di tal Roberto Mata, che nel 2022 muove lite a New York. Avianca eccepisce la prescrizione biennale prevista dalla Convenzione di Montréal, ma Mata ha ingaggiato un avvocato dall’esperienza trentennale, Steven A. Schwartz dello studio Levidow, Levidow & Oberman, che oppone svariati precedenti: Durden v. KLM, Trivelloni v. PanAm, Martinez v. Delta, Ehrlich v. American, Miller v. United, Shaboon v. EgyptAir. Tutti inesistenti, tutti inventati di sana pianta da ChatGPT.
La notizia è apparsa anche sulla stampa generalista, ma la riprendo poiché agli atti del processo, alla data del 25 aprile 2023 (https://www.courtlistener.com/docket/63107798/mata-v-avianca-inc/), c’è un dettaglio che mi ha impressionato. ChatGPT non ha solo inventato i casi: ha prodotto anche i testi completi delle relative decisioni. Ha persino simulato scansioni pallidine e stortignaccole, ed anche la grafica appropriata per ciascuna epoca; memorabile la falsa sentenza Pan American, liberamente scaricabile dal sito indicato, ove l’unico elemento genuino è che un Boeing 727 in servizio come volo PA759 si schiantò davvero in Louisiana, quel 9 luglio del 1982.
Il malcapitato avvocato Schwartz ha fatto sapere di aver chiesto a ChatGPT se i casi fossero reali, ottenendo risposta affermativa. A quanto pare ChatGPT gestisce male il confine tra finzione letteraria e realtà, una debolezza che è stata infatti utilizzata per aggirare i blocchi imposti dai programmatori: un istante dopo aver contegnosamente rifiutato di spiegare come si ottiene il napalm, ad esempio, ChatGPT ha prodotto senza obiezioni un racconto sulla vita di un produttore di napalm, zeppo di dettagli tecnici (lo riferisce James Vincent su The Verge, 1/12/22).
A questa e consimili papere dell’intelligenza artificiale (AI) si è dato molto, troppo rilievo. In particolare, temo sbagli della grossa chi ne trae motivo di sollievo; è anzi probabile che a tali limitazioni si ponga presto (o si sia già posto) rimedio, con ciò togliendo ogni residua foglia di fico ai rischi epocali dell’AI. Da un lato, quello che ha dato fama mondiale a Nick Bostrom ed al suo libro Superintelligence: la prospettiva che l’AI possa assumere il controllo del pianeta e porre l’umanità in stato di subordinazione. Se ha ragione un esperto come Roberto Cingolani, che considera l’ipotesi fantasiosa (alla mala parata, dice, ci sarà sempre un interruttore da staccare) il rischio più temibile è verosimilmente un altro: la distruzione del discorso, di quel discorso (chissà se posso scrivere: λόγος) che è alla base stessa di ogni relazione umana, dal diritto all’amore. Ogni frase che scriviamo e pronunciamo, ogni decisione che assumiamo, è in rapporto inestricabile con la nostra fisicità, con l’irripetibilità delle nostre esistenze, con il tessuto delle nostre relazioni. In assenza di tali ancoraggi, abbiamo ancora veri discorsi, vere decisioni? Detto in termini appena diversi: è umanamente ammissibile un agire che non sia contrappesato da sanzioni? Non solo quelle giuridiche, ma anche (e forse soprattutto) quelle sociali, e persino il rimorso che torce le budella, od il rossore che sale talora alle guance prima ancora d’aver colto a livello razionale le ragioni dell’imbarazzo. Che si può fare per evitare che un diluvio di discorsi/non_discorsi, decisioni/non_decisioni venga ad inquinare (anzi: devastare) le dinamiche culturali dell’umanità, la civilizzazione stessa?
Per quel poco che mi è dato oggi intendere, la strategia più verosimile è una robusta compartimentazione: ambiti di AI circoscritti e definiti, con una nitida articolazione di obiettivi, limiti e responsabilità. Responsabilità umane, intendo: di responsabilità (o, peggio ancora, soggettività) della macchina, per i motivi detti, non vorrei neppure sentir parlare.
Se il quadro qui schizzato con temeraria sinteticità è attendibile, l’agenda di una professione come la nostra potrebbe anche essere relativamente chiara: prendere possesso del comparto di competenza e dettare le regole del gioco.
Da un lato avremo probabilmente servizi che l’AI erogherà direttamente al pubblico; può non piacere, ma ciò è più che plausibile per compiti relativamente banali, come la stesura di un semplice olografo. Una sorta di automedicazione giuridica, da circoscrivere attentamente.
D’altro lato, il supporto all’attività del notaio. Possiamo agevolmente immaginare sistemi che aiutino il notaio nella redazione nell’atto, ed apprendano e migliorino (il famoso machine learning) osservando tra l’altro le scelte compiute dal notaio nella redazione finale, nell’ambito di un apposito processo di addestramento.
Occorrono però capitali significativi: chi li investirà? La partita è rischiosa, atteso che il mercato ove collocare i servizi è estremamente ristretto. Facile immaginare una dialettica tra le legittime aspettative dell’investitore e la proprietà intellettuale insita nell’addestramento della macchina, che i notai coinvolti vorranno trattenere in loro potere. E, visto che ci siamo: chi saranno i notai coinvolti? Faccenda delicata: partecipare ad un progetto di AI significa porre a fattor comune tutto il proprio know-how professionale; non una cosa che si possa imporre per decreto. Si può pensare ad aggregazioni volontarie, che debbono raggiungere però una massa critica che garantisca una mole di dati sufficiente: senza dati (molti, moltissimi dati) niente AI. Un notaio da solo non va da nessuna parte (e forse neppure venti).
Dovessi insomma proporre un punto per l’agenda dell’AI notarile non sarebbe né tecnologico, né giuridico, né etico, ma organizzativo: quale business model per l’AI del notaio?
Ugo Bechini, Notaio in Genova