Vademecum per avvocati sull’uso dell’AI: ecco quello dell’Ordine di Roma

La Commissione procedura civile dell’Ordine degli Avvocati di Roma ha recentemente diffuso un “Breve vademecum per avvocati sull’utilizzo dell’intelligenza artificiale” (puoi scaricarlo cliccando qui). Il documento mette subito a sistema un quadro di norme e standard: AI Act, linee guida UE sulle pratiche vietate, GDPR, la Legge 132/2025 (artt. 13-15-17), la legge professionale forense, il Codice Deontologico aggiornato, oltre a riferimenti CCBE e alla guida CCBE sulla GenAI. Finora, molte iniziative “di indirizzo” erano nate in chiave volontaria; qui, invece, l’uso dell’AI viene letto come tema di compliance professionale, intrecciando fonti UE, legge nazionale e doveri deontologici.

Consiglio: per approfondimenti, segnaliamo il volume “La legge Italiana sull’Intelligenza Artificiale”, a cura di Andrea Sirotti Gaudenzi e Vincenzo Franceschelli, acquistabile cliccando su Shop Maggioli o su Amazon.

La legge Italiana sull'Intelligenza Artificiale

La legge Italiana sull'Intelligenza Artificiale

Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.
Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.
Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico.

Vincenzo Franceschelli
Come professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU - Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.
Andrea Sirotti Gaudenzi
Avvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.

Leggi descrizione
Vincenzo Franceschelli, Andrea Sirotti Gaudenzi, 2025, Maggioli Editore
25.00 € 23.75 €

I principi-cardine: l’AI è supporto, la responsabilità resta dell’avvocato

Il vademecum ruota attorno a una premessa netta: l’AI deve essere usata secondo legalità, correttezza, trasparenza e responsabilità, con tecnologie conformi alle norme vigenti e con l’obiettivo di migliorare il servizio senza intaccare diritti e fiducia del cliente.

Il punto qualificante è la traduzione operativa di un principio che la Legge n. 132/2025 (della quale abbiamo parlato approfonditamente qui) ha reso centrale per le professioni: l’AI come strumento di supporto e mai sostitutivo. Il documento lo declina in due conseguenze pratiche:

  1. controllo umano effettivo: ogni output va controllato, rielaborato e “fatto proprio” dal professionista;

  2. responsabilità piena: l’atto resta integralmente in capo all’avvocato.

Doveri deontologici “tradotti” per l’uso dell’AI: indipendenza, segreto, competenza

La parte più utile è quella dove il vademecum “riaggancia” l’uso dell’AI ai doveri deontologici già noti, evidenziando i punti di frizione più realistici. Leggi anche: Modifiche al codice deontologico forense: guida alle ultime novità.

Tra i richiami più significativi:

  • indipendenza e responsabilità personale, anche quando l’AI è utilizzata da collaboratori;
  • lealtà, correttezza e diligenza, con attenzione ai rischi di conflitti e alla circolazione di dati provenienti da altri studi o clienti;
  • segreto professionale e riservatezza come vincoli non negoziabili;
  • competenza e aggiornamento tecnologico continuo, richiamando espressamente anche l’orizzonte della Legge n. 132/2025;
  • obbligo di veridicità e controllo delle fonti, che diventa cruciale rispetto al rischio di output inesatti o “allucinati”.

Non basta, quindi, “saper usare” uno strumento, serve saper governare il rischio professionale che quello strumento introduce (sul piano probatorio, informativo, privacy e deontologico). A tal proposito, segnaliamo che Maggioli Editore ha organizzato il corso “AI Strategica per Studi Legali: Architettura, Compliance e Automazione End-to-End” che guida  professionisti e studi legali nell’uso pratico dell’intelligenza artificiale, dalla scelta dei modelli alla costruzione di workflow e agenti, fino alla gestione della compliance <<<clicca qui per iscriverti>>>.

Indicazioni operative: cosa fare prima, durante e dopo l’uso dell’AI

Il vademecum non resta su un piano astratto: propone una piccola procedura interna (prima/durante/dopo), molto vicina a un protocollo di studio.

Prima dell’uso, raccomanda di scegliere piattaforme professionali conformi, comprendere termini di servizio e privacy policy, e conoscere limiti del sistema (con riferimento esplicito al rischio di “allucinazioni”).

Durante l’uso, la regola pratica è: minimizzare l’esposizione di dati e massimizzare il controllo. Si insiste su anonimizzazione, cautela nell’uso di chatbot pubblici, prompt chiari e divieto di caricare atti integrali o documenti sensibili su piattaforme non verificate.

Dopo l’uso, la verifica non è facoltativa: controllare norme e giurisprudenza su banche dati ufficiali, rielaborare personalmente testi e comunicazioni, e conservare traccia delle fonti e dell’impiego dell’AI nel fascicolo.

Potrebbe interessarti anche:

Trasparenza verso il cliente: dall’obbligo di legge alla prassi di studio

Il vademecum dedica un passaggio specifico alla trasparenza verso il cliente: informare dell’uso di strumenti di AI e del loro ruolo meramente ausiliario, con linguaggio chiaro, assicurando privacy e sicurezza dei dati.

È la traduzione dell’art. 13 della Legge n. 132/2025, e si innesta sul modello di informativa elaborato dal CNF (del quale abbiamo parlato qui): l’adempimento non è solo formale, perché incide sul rapporto fiduciario e sulla corretta gestione del consenso informato rispetto alle modalità di svolgimento dell’incarico.

Privacy, sicurezza e diritto d’autore: i tre fronti di rischio più immediati

La sezione su privacy e dati è costruita su principi molto concreti: usare solo dati necessari, preferire sistemi “privacy by design/by default”, evitare la condivisione di atti giudiziari o dati sensibili su piattaforme esterne e verificare sede e giurisdizione del fornitore.

Sul versante sicurezza informatica e diritto d’autore, il vademecum segnala misure minime (protezione dispositivi/account, connessioni sicure e crittografia) e richiama l’attenzione su licenze e rischi di violazione dei diritti di terzi negli output generati.

È qui che il documento “aggancia” un altro asse della Legge n. 132/2025: la centralità dell’apporto creativo umano e i limiti di protezione/circolazione dei contenuti, tema che per gli studi legali impatta sia sulla redazione sia sulla gestione dei materiali formativi e contrattuali.

Condotte da evitare e ricadute disciplinari: l’AI non è uno “scarico di responsabilità”

Tra le condotte da evitare spiccano divieti che fotografano rischi reali: citare fonti generate dall’AI senza verifica, affidare integralmente la redazione di atti o contratti, inserire dati personali o segreti professionali in chatbot pubblici, usare testi generati senza revisione umana. E soprattutto: non “scaricare” sull’AI errori o imprecisioni.

Sul piano disciplinare, il documento richiama esplicitamente la possibile segnalazione al Consiglio dell’Ordine e l’attivazione del procedimento dinanzi al CDD, con sanzioni graduabili fino alla sospensione o radiazione.

In chiusura: cosa rende “diverso” il vademecum di Roma rispetto alle iniziative precedenti

Il documento romano si segnala perché formalizza (in linguaggio essenziale ma operativo) tre idee che la Legge 132/2025 ha reso ormai non eludibili per la professione:

  • AI come supporto e non sostituzione del giudizio;

  • dovere di trasparenza verso il cliente sull’uso degli strumenti;

  • necessità di competenza/aggiornamento e di una gestione documentata dei rischi (dati, sicurezza, fonti).

Richiamo alla “Carta dei principi” di Milano (dicembre 2024)

Accanto al vademecum romano, si deve menzionare anche la “Carta dei Principi” dell’Ordine degli Avvocati di Milano (puoi scaricarla cliccando qui), pubblicata nel dicembre 2024, dunque prima dell’entrata in vigore della Legge n. 132/2025.

Si tratta di un documento che, con un taglio più generale, propone una cornice di principi orientativi per un uso consapevole dell’intelligenza artificiale in ambito forense, anticipando l’esigenza, oggi divenuta pienamente attuale, di integrare l’innovazione tecnologica con i doveri professionali e con la tutela della fiducia del cliente.

Conclusioni

Il vademecum di Roma, per la sua struttura “post Legge AI” e per il taglio pratico, può rappresentare un modello replicabile: è plausibile che, nei prossimi mesi, anche altri Ordini territoriali scelgano di dotarsi di linee guida operative analoghe, capaci di tradurre in prassi di studio i cardini della nuova disciplina (AI come supporto, trasparenza verso il cliente, presidio di riservatezza e controllo umano).

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

quattordici − 9 =

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.