“Non serve nascondersi”: quando il diritto sfida l’intelligenza artificiale
Alla Liuc giuristi, ingegneri e avvocati a confronto: dall’AI Act al deepfake, fino al giudice “digitale” che non può sostituire l’uomo. Opportunità, pericoli e nuove regole per la professione legale

Il giornalista Luca De Biase, uno dei più grandi esperti di tecnologie digitali e già direttore di Nova24, sostiene che con le nuove tecnologie è meglio collaborare che combattere. È un suggerimento di buon senso che però deve fare i conti con la paura del nuovo che pure esiste.
In apertura del convegno “Profili giuridici dell’intelligenza artificiale: problemi e opportunità” che si è tenuto all’università Liuc di Castellanza, il rettore Anna Gervasoni è partita proprio da questa considerazione, esortando i presenti a «non nascondersi dietro la paura del nuovo». Del resto il cambio di passo dettato dall’IA è già avvenuto e con il tempo «impatterà su tanti professionisti». In questo passaggio le università non possono limitarsi a guardare ma devono dialogare con chi lavora ogni giorno, per preparare studenti e operatori legali al cambiamento.
Una consapevolezza che i presidenti degli ordini degli avvocati di Busto Arsizio e Varese, entrambi presenti in aula, hanno dimostrato di avere. «Siamo già oltre, non possiamo rimanere indietro» ha detto Eliana Morolli. Il tema dell’IA sarà infatti al centro del congresso nazionale degli avvocati di ottobre. Carlo Battipede, presidente dell’ordine degli avvocati di Varese, ha a sua volta sottolineato che «i problemi sono molti, ma le opportunità non riusciamo neanche a immaginarle».
CAPIRE LA TECNOLOGIA PRIMA DI NORMARLA
Ad aprire il convegno l’intervento del professor Luca Mari – se incrociate un suo seminario andate ad ascoltarlo – che, non essendo un giurista, ha portato uno sguardo diverso spostando l’attenzione dal diritto alla natura stessa dell’IA, affrontando il tema su un piano culturale con tanto di esperimento in diretta.
«Siamo davanti a un cambio di paradigma: macchine che non eseguono solo istruzioni ma apprendono». Citando Ada Lovelace e Alan Turing, ha spiegato che i sistemi generativi mettono in crisi l’idea della parola come dominio esclusivo dell’umano.
La domanda se le macchine “pensino” è, per Mari, poco interessante. Ciò che conta è invece «il comportamento che esibiscono».
Mari ha dato un’indicazione importante ai giuristi riguardante la definizione legale di intelligenza artificiale. Definire l’oggetto di cui si tratta è molto importante, soprattutto per un giurista, e la definizione attuale rischia di essere troppo estesa, fino a comprendere “qualsiasi software”, con conseguenze sulla chiarezza normativa.
Molto meglio quindi l’espressione macbine learning, macchine che apprendono, come dice il matematico e medaglia Fields Pierre Louis Lions.
PERCHÈ L’IA NON PUÒ SOSTITUIRE IL GIUDICE
Se si scende sul terreno della pratica forense, l’IA giuridica oggi è a un livello «buono ma non ottimale». La qualità delle risposte dipende dall’addestramento e dalle fonti, spesso non rigorose. Fiorenzo Festi, ordinario di diritto privato alla Liuc, ha sottolineato che «nel diritto non esiste un ragionamento giusto: esistono ragionamenti più o meno convincenti».
Se spingiamo il limite dell’utilizzo dell’IA fino alla creazione di un “giudice artificiale”, quel limite viene anticipato dalla stessa legge. Festi ha infatti ricordato che l’articolo 14 della nuova legge consente l’IA solo per supporto organizzativo e ricerca giurisprudenziale, lasciando la decisione ai magistrati in carne ed ossa.
Inoltre una legge ordinaria non potrebbe attribuire a una macchina la funzione giurisdizionale senza modificare la Costituzione.
Nel caso di un arbitrato potrebbe accadere di affidarsi a un algoritmo, ma i problemi enormi sulla terzietà del giudizio rimarrebbero gli stessi: prevedibilità, trasparenza, orientamenti politici e culturali impliciti nell’addestramento. «Oggi accettiamo l’imprevedibilità dell’uomo; da una macchina pretendiamo coerenza e spiegabilità. Finché il giudice resterà un umano – ha precisato Festi – anche l’avvocato non sarà sostituibile, ma dovrà imparare a dialogare con strumenti digitali sempre più presenti» e potenti.
L’EUROPA DETTA LE REGOLE : L’AI ACT SPIEGATO AI GIURISTI
Alla base di tutta questa discussione c’è l’AI Act europeo. L’avvocato Gaetano Vitellino, ricercatore di diritto internazionale all’università Liuc, lo ha definito «un impianto complesso e ambizioso», considerando i 113 articoli, i 13 allegati, cioè un sistema che unisce hard law e soft law, ovvero linee guida e codici di condotta.
Il punto di partenza non è dunque la legge italiana, ma quella europea che l’Italia ha recepito. «La normativa nazionale può muoversi solo negli spazi che Bruxelles lascia liberi». Secondo Vitellino, l’Unione Europea punta a esercitare un ruolo da “superpotenza normativa”, il cosiddetto Brussels Effect, con regole che gli operatori economici adottano anche fuori dall’Europa o, per meglio dire, regole che rappresentano uno standard globale.
Il regolamento vieta pratiche considerate a rischio inaccettabile (manipolazione, social scoring), impone controlli stringenti sui sistemi ad alto rischio, tra cui quelli per l’amministrazione della giustizia, e definisce livelli di tutela graduati.
Due i concetti chiave: autonomia della macchina rispetto all’uomo e capacità inferenziale (previsioni, raccomandazioni, decisioni).
Resta aperta però una domanda cruciale: l’Unione Europea può regolare l’uso dell’IA nell’esercizio dei poteri sovrani, come la funzione giurisdizionale?
Se la risposta è no, parte della materia resterà nella disponibilità dei legislatori nazionali.
DIRITTO D’AUTORE E RISCHIO DI APPIATTIMENTO
Su un terreno molto concreto si è mosso l’avvocato Nicola Rondinone, professore di diritto commerciale alla Liuc, che ha affrontato il tema del diritto d’autore (art. 25 della legge italiana). Due i punti principali: la protezione delle opere generate con IA e l’addestramento dei modelli. Quando un contenuto è tutelabile? Lo è se c’è un contributo umano riconoscibile. Pertanto testi o immagini interamente prodotti da una macchina restano fuori dal diritto d’autore.
L’estrazione di dati (text e data mining) è ammessa su opere liberamente accessibili o presenti in banche dati a cui si abbia accesso legale, ma ogni autore può opporsi contrattualmente.
La vertità è che i controlli su questo terreno sono complessi e riutilizzare questi contenuti senza autorizzazione resta possibile.
Rondinone ha segnalato anche un effetto culturale ormai presente a più livello: un conformismo crescente. Tesi e atti prodotti con IA tendono a somigliarsi. C’è anche chi sostiene, con una punta di ironia, che non serve più dare voti a elaborati e tesi che sono scritti dall’IA, ma avrebbe più senso giudicare il prompt degli studenti, da cui dipende la risposta.
L’avvocato rischia di «diventare bravo a smanettare» più che a costruire argomenti originali. Per difendere la creatività serve formazione solida e capacità critica.
L’USO NEGLI STUDI LEGALI: OPPORTUNITÀ E TRAPPOLE
Di pratica professionale e uso dell’IA ha parlato l’avvocata Elena Falletti, autrice di un testo molto interessante dal titolo “Discriminazione algoritmica”, edito da Giappichelli Editore, e docente di Artificial Intelligence and Law al corso di laurea di ingegneria alla Liuc. Falletti, che è ha uno sguardo scientifico sul mondo forense, ha spiegato che l’IA generativa è basata su correlazioni statistiche e può “allucinare”: «Non è un sistema esperto lineare, ma una scatola nera che produce risposte plausibili, non necessariamente corrette». Per questo motivo l’articolo 13 della nuova legge prevede un ruolo solo di supporto.
Falletti ha messo in guardia i presenti sul danno reputazionale citando un caso recente avvenuto al Tribunale di Torino (settembre 2025) dove un avvocato è stato sanzionato ex art. 96 c.p.c. perché aveva depositato un atto generato male con IA.
Il consiglio è scegliere strumenti affidabili, preferibilmente localizzati e in lingua italiana, informare il cliente sull’uso dell’IA, formarsi continuamente e verificare sempre gli output cioè i risultati sfornati dalla macchina.
Ci sono però anche vantaggi concreti: supporto nella ricerca giurisprudenziale, analisi di grandi documenti (ad esempio estratti conto in cause di separazione), pianificazione delle fasi processuali, traduzione e sintesi di materiali complessi.
Insomma, l’IA premia chi ha già competenza e spirito critico mentre può mettere nei guai chi la usa senza capire.
IL NODO PENALE: NORME FRAGILI E PROVE DIGITALI
La chiusura è stata affidata al penalista Daniele Loglio, che ha portato uno sguardo disincantato: «Il diritto penale nel digitale ha già mostrato i suoi limiti».
I grandi scandali di data breach ( violazione della sicurezza che, in modo accidentale o illecito, causa la distruzione, la perdita, la modifica, la divulgazione non autorizzata o l’accesso a dati personali) e la nascita del GDPR (Regolamento generale sulla protezione dei dati) lo dimostrano: «Quando il penale fallisce, arriva la regolazione amministrativa. Anche oggi stiamo costruendo norme con i piedi d’argilla» ha avvertito Loglio.
La nuova legge introduce reati come la diffusione di deepfake ingannevoli (pena 1-5 anni) e aggravanti per chi usa IA per commettere reati. Ma definire la fattispecie richiamando l’AI Act, pensato per la regolazione del mercato, secondo Loglio, rischia di violare i principi di tassatività e determinatezza.
Sul fronte investigativo, ci sono strumenti che consentono analisi massive di dati e intercettazioni, molto utili alla difesa e alle indagini, ma pericolosi se basati su sequestri “onnivori”, privi di filtri e controlli, con l’effetto di riversare la vita digitale delle persone nelle mani delle autorità.
Restano invece irrisolti nodi storici, quali: giurisdizione, locus commissi delicti, regole di acquisizione e contestazione della prova.
L’Unione Europea punta a guidare l’aspetto normativo, ma «serve maggiore precisione descrittiva e una vera risposta ai problemi strutturali del penale nel digitale» ha concluso Loglio.
Il pensiero agile di Pierre Louis Lions: “Non chiamatela intelligenza artificiale”
“Non correggo più i compiti ma i prompt che i miei studenti danno a ChatGPT”
La community di VareseNews
Loro ne fanno già parte
Ultimi commenti
lenny54 su Entrano in vigore le nuove tariffe "metropolitane", Saronnese e Busto più vicine a Milano
Felice su Fucile d'assalto e mitragliette nella casa dell'ex ispettore di Malpensa
lenny54 su In vendita casa Bossi, villa simbolo della "Lega di una volta"
lauralaura su Ospedali troppo caldi: la Regione comprerà i condizionatori
gcbiakmw su Lo spinello fa male
Rita Campiotti su Torna IceOut, qual è la vostra gelateria preferita?
Accedi o registrati per commentare questo articolo.
L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.