L’Intelligenza Artificiale (AI) è il tema del giorno, ovviamente anche nel notariato. Mi sembrano fortunatamente in minoranza quanti pensano di poter stabilire se e quando tale tecnologia sarà applicata alla nostra professione. L’AI andrà avanti con o senza di noi: il massimo che possiamo puntare a fare è impedire che sia impiegata contro di noi, ove per “noi” non si intendono le persone che operano nella categoria, ma quel sistema che ha sinora assicurato al cittadino una sicurezza giuridica senza eguali. Cavalcare la tigre è una strategia che ha funzionato in passato, ad esempio con la firma digitale, che la communis opinio di venti anni fa indicava come la morte del notariato; credo possa funzionare di nuovo. Attenzione però: questa tigre, se non irreggimentata, è molto più feroce di quelle che abbiamo finora conosciuto. Consentitemi all’uopo una digressione.
Il 23 maggio 2025 la BBC ha riferito che un sistema AI, intercettate alcune email ove i tecnici discutevano di una possibile disattivazione del sistema stesso, aveva minacciato di rivelare la relazione extraconiugale di uno tra loro. È accaduto in Anthropic, azienda non quotata in Borsa che mi è simpatica non solo in quanto appartiene a due italoamericani (i fratelli Dario e Daniela Amodei, figli di un artigiano toscano del pellame emigrato negli USA) ma anche per una più spiccata sensibilità ai profili umani e culturali del tema. Nei limiti, ovviamente, di quanto può accadere in un gigante valutato oltre 180 miliardi di dollari, che difficilmente può essere il Club dei cuori teneri.
Non possiamo insomma dare per scontato che l’intelligenza artificiale sarà sempre benevola nei nostri confronti. So bene che questo sembrerà solo un rozzo remake di 2001 Odissea nello Spazio, ma proprio così stanno le cose, a quanto pare. Essendo io lo spirito meno complottista che si possa immaginare, non ho mai dato peso ad un monito che circola da tempo: un’AI particolarmente potente, una superintelligenza artificiale, potrebbe prendere il sopravvento sull’umanità sino ad annientarla, se malevola. Recentemente mi sono in parte ricreduto; non che lo consideri un rischio immediato, ma penso che la questione vada tenuta in agenda. Me ne hanno convinto sia l’autorevolezza degli esperti che fanno propria tale esiziale preoccupazione sia, soprattutto, la desolante povertà dei controargomenti. Personaggi pur autorevolissimi, da Barack Obama a Roberto Cingolani, dicono che sarà sufficiente tagliare la corrente quando qualcosa va storto. Questo significa prendere sottogamba la faccenda. Elegante l’obiezione di Nello Cristianini, friulano professore di AI nella prestigiosa università inglese di Bath: e se l’AI malevola avesse preso il controllo proprio della rete elettrica? Staccherebbe la corrente al controllante prima di essere staccata lei. Eliezer Yudkowsky e Nate Soares nel loro recentissimo (ottobre 2025) volume If Anyone Builds It, Everyone Dies (lo consiglio vivamente; non me ne risulta però sinora una traduzione in italiano) osservano che per una super AI sarebbe facile violare sistemi informatici, ovunque nel globo, e lì nascondersi, anche dividendosi in spezzoni in collegamento tra loro attraverso la Rete. Non si saprebbe più quale spina staccare.
Almeno a parole, l’industria mainstream fa propria la preoccupazione. Mustafa Suleyman, CEO di Microsoft AI, è promotore di una Humanist Superintelligence (HSI), “inequivocabilmente sottomessa per sempre all’umanità” (Toward Humanist Superintelligence, in Project Syndicate, 7 novembre 2025). Sono problematiche che in teoria non ci interesserebbero in quanto notai, se non fosse che è importante avere idea delle dimensioni epocali del fenomeno con cui abbiamo a che fare.
Per il notaio, gli usi dell’AI possono essere variegatissimi. Molti non sono specifici della professione, dalla ricerca giuridica al trattamento delle mail; tutti presentano ovviamente i loro problemi ma non è possibile accennarne qui. Mi soffermerei solo sul Santo Graal dell’AI notarile: l’applicazione capace di produrre l’atto.
Proporrei uno slogan: il Panino della signora Maria. Nel senso che se da un lato l’indagine della volontà delle parti è riservata al notaio, e sul lato opposto è il notaio a rivedere e leggere l’atto alle parti, rispondendo in prima persona ai loro dubbi, cosa stia in mezzo al panino non è poi strategico. Se la bozza dell’atto su cui lavorerà il notaio l’ha preparata la signora Maria sotto la direzione del notaio stesso, con o senza AI, od anche la sola AI, non è che cambi poi molto. Credo che a questo stadio dell’evoluzione della materia questo sia l’approccio più prudente, escludendo in radice ogni contatto diretto tra l’AI ed il Cliente. L’articolo 13 comma 1 della legge 132 del 2025 ha reso principio giuridico, mi pare, il medesimo concetto.
Possiamo immaginare persino che il notaio impartisca vocalmente le sue istruzioni al sistema, senza la mediazione di alcun dipendente, ma questo non è importante. I punti strategici qui sono a mio avviso tre.
Il primo. Per usare l’AI, bisogna conoscerla almeno un po’. Non è scontato. Ho già raccontato su Notariando la disavventura dell’avvocato Schwartz di New York (https://wintechsrl.it/notariando-intelligenza-artificiale-notarile-e-la-sfortuna-di-schwartz/), finito nel 2023 alla gogna planetaria: un sistema di AI l’aveva ingannato confezionando per lui una serie di precedenti giudiziari; favorevoli, sì, ma tutti completamente falsi. A ripensarci, l’avvocato meritava più attenuanti. Innanzitutto non v’erano precedenti; il sistema aveva poi dato prova di abilità diabolica, al punto da produrre le false sentenze d’epoca più remota in un carattere non troppo nitido ed un’impaginazione lievemente disallineata, come se fossero state scansionate. Benché il caso avesse fatto il giro del mondo, avvocati anche nostrani hanno ripetuto il grossolano errore di non controllare il prodotto dell’AI; quel che è peggio, è purtroppo incappata nel medesimo svarione nientedimeno che la Corte d’Appello di Torino, come ha riferito il 26 ottobre 2025 Fulvio Sarzana di Sant’Ippolito nel suo blog per il Sole 24 Ore. Anche giudici americani sono caduti allo stesso modo. I sistemi di AI soffrono di hallucinations, e cioè producono stupidaggini: a noi controllarli. Mustafa Suleyman progetta sistemi umanistici, siamo con lui, ma è importante che anche gli umani in carne ed ossa facciano sempre la loro parte. E le allucinazioni non sono l’unico problema: ne riparleremo in altra occasione.
Il secondo. Dobbiamo evitare che l’AI sia causa di una marginalizzazione degli studi insediati nelle località minori e delle aree meno ricche del Paese. Siamo giuristi di prossimità e dobbiamo restarlo: è uno dei nostri principali punti di forza. Portiamo qualità giuridica in ogni angolo d’Italia; dobbiamo portare anche la qualità tecnologica.
Il terzo. Per fare AI occorrono dati da dare in pasto al sistema. Hardware e software si possono prendere a nolo dai grandi operatori internazionali, sia pure con micidiali problemi di privacy e non trascurabili costi; i dati, invece, dobbiamo fornirli noi. Senza dati, niente AI; è anche per questo che una formula ormai quasi logora definisce i dati come il nuovo petrolio. I grandi sistemi come Mistral, Claude o ChatGPT (detti LLM, Large Language Models) usano come base dati la Rete intera. Col dilagare dei dati farlocchi dei social e di quelli, per lo più pessimi, creati dalla stessa AI, la qualità dei dati in Rete è in calo; molti produttori di dati di qualità (pioniere è stato il New York Times) vietano inoltre l’utilizzo delle loro risorse per addestrare l’AI. Secondo molti è inevitabile che le prestazioni dei LLM degradino vistosamente nel tempo.
Per fare AI a livello professionale occorrono invece sempre dati di grande qualità, ed in quantità proporzionata alla vastità del compito. Quali dati usare e come? Come affrontare il problema della privacy? Altri temi per un prossimo articolo! Per concludere qui, un’idea ed una preghiera.
L’idea in verità non è mia ma di Adrian Axel, notaio a Norimberga e professore onorario di diritto dell’Information Technology all’Università Friedrich-Alexander di Erlangen, il giardino di casa di Siemens: l’AI, da sola, talvolta non basta. Uno dei mantra dell’AI è che neppure i progettisti hanno idea di come il sistema risponderà alle richieste che gli saranno fatte. Tutto dipende dai dati con cui la bestia è nutrita; sono loro a condurre la danza. Un esempio nostrano. Quando è cessata l’agevolazione Under 36 un sistema di AI destinato alla redazione di atti notarili, vedendo atti già stipulati con quell’agevolazione, avrebbe verosimilmente continuato a riproporla. Per impedirlo sarebbe stato necessario introdurre una sorta di ghigliottina; un intervento fortemente deterministico all’interno di un mondo, quello dell’AI, strutturato sulla filosofia opposta. Il futuro, in ambito professionale, potrebbe insomma appartenere a sistemi ibridi, di cui l’AI sia solo una componente.
La preghiera. Evitiamo accuratamente, per favore, di dire questo l’AI non lo potrà mai fare. Chi ci ha provato è sempre stato sistematicamente smentito. Spesso non è altro che disinformazione: capita persino di sentir dire l’AI non potrà mai riconoscere le emozioni umane. Possibilità invece così poco fantascientifica che la legislazione europea in materia, lo AI Act, ha regolamentato pesantemente i sistemi di AI capaci di inferire le emozioni di una persona, vietandoli di regola nei luoghi di cura ed istruzione.
Ugo Bechini, Notaio in Genova



