Nota a TAR Lombardia, sez. V, 20.10.2025, n. 3348
La sentenza n. 3348 del 21 ottobre 2025, pronunciata dalla sezione V del TAR Lombardia, prende le mosse da un ordinario contenzioso scolastico, avente ad oggetto l’impugnazione del provvedimento di non ammissione di una studentessa alla classe successiva. Dietro la cornice apparentemente consueta del giudizio, si cela tuttavia una questione di ben più ampio respiro: l’utilizzo dell’intelligenza artificiale (IA) nella professione forense e le conseguenti ricadute sul piano della responsabilità e della deontologia dell’avvocato. Il Tribunale amministrativo, pur respingendo il ricorso nel merito, ha colto l’occasione per tracciare un monito di rilievo sistemico: l’impiego di strumenti basati sull’IA non attenua, né trasferisce, la responsabilità personale del difensore rispetto ai doveri di lealtà, diligenza e probità sanciti dall’ordinamento. La “firma” dell’avvocato, secondo il TAR, continua a rappresentare il presidio di garanzia e di assunzione di responsabilità individuale anche nell’epoca dell’automazione cognitiva.
Il caso trae origine dal ricorso proposto dai genitori di un’alunna non ammessa alla classe successiva, i quali lamentavano che essa non avesse potuto fruire degli strumenti compensativi e dispensativi previsti dal piano didattico personalizzato e che non le fossero state garantite adeguate misure di recupero e di potenziamento. Il ricorso, tuttavia, non ha trovato accoglimento poiché il Collegio ha accertato che l’istituto scolastico aveva predisposto idonee forme di supporto e recupero, di cui l’alunna non aveva usufruito. È stato inoltre ritenuto infondato il motivo concernente l’omessa ostensione di documenti interni (verbali di correzione e valutazione delle prove), in quanto non sussisteva un obbligo specifico di accesso in tal senso.
La peculiarità della vicenda non risiede, dunque, nel merito del contenzioso, bensì nel metodo difensivo adottato. Il difensore della parte ricorrente ha fondato le proprie argomentazioni su un ampio ventaglio di richiami giurisprudenziali, asseritamente provenienti da pronunce dei TAR e del Consiglio di Stato. Tuttavia, la verifica operata dal Collegio ha rivelato che molte delle sentenze erano inesistenti o del tutto non pertinenti rispetto alla materia trattata: a titolo esemplificativo, tra i precedenti citati figuravano la sentenza TAR Bologna n. 753/2020, relativa a un diniego di nulla osta per l’attività di volo da diporto o sportivo, e la sentenza TAR Campania n. 5236/2021, inerente la gestione di centri di accoglienza per migranti, entrambe del tutto estranee alla materia oggetto del giudizio.
In sede di trattazione orale, alla richiesta di chiarimenti, l’avvocato ha ammesso di aver reperito le pronunce giurisprudenziali mediante strumenti di ricerca basati sull’intelligenza artificiale, che avevano generato risultati errati o, usando le parole della Corte, “allucinazioni da intelligenza artificiale”.
Il TAR, nel prendere atto di tale circostanza, ha escluso qualsiasi “valenza esimente” del ricorso a tali strumenti, chiarendo che l’utilizzo dell’IA non può in alcun modo ridurre l’imputabilità soggettiva del contenuto dell’atto processuale. La sottoscrizione, osserva il Collegio, “ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale”. Il Tribunale ha, quindi, ritenuto la condotta contraria ai doveri di lealtà e probità processuale, richiamando espressamente gli artt. 88 c.p.c. e 9 del Codice Deontologico Forense, e ha sottolineato come l’inserimento di riferimenti errati sia idoneo a “inquinare” il contraddittorio e a rendere inutilmente gravosa l’attività di verifica del giudice e delle controparti. In un passaggio di notevole rilievo, il TAR Lombardia richiama la Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense (cd. Carta HOROS), elaborata dall’Ordine degli Avvocati di Milano nel 2024. Il documento, primo nel panorama forense nazionale, codifica il principio della centralità della decisione umana e chiarisce grava sul difensore un “onere di verifica e controllo dell’esito delle ricerche effettuate con sistemi di intelligenza artificiale”. In ossequio a tali principi, il Collegio ha disposto la trasmissione di copia della sentenza all’Ordine degli Avvocati di Milano per le valutazioni disciplinari di competenza, sancendo così l’apertura di un fronte deontologico nuovo e complesso: la responsabilità del difensore per l’uso improprio o non vigilato di strumenti tecnologici.
La decisione in commento si inserisce in un filone giurisprudenziale ancora in via di formazione, anche se in precedenza vi erano state alcune (pochissime) decisioni che avevano affrontato il delicato tema dell’utilizzo dell’intelligenza artificiale nel processo civile. Il Tribunale di Firenze, nel marzo 2025, pur rilevando l’utilizzo di citazioni inesatte generate da ChatGPT, ha escluso la lite temeraria ex art. 96 c.p.c., ritenendo insussistente la mala fede o colpa grave dell’avvocato o, ancora, nel settembre del 2025, il Tribunale di Torino (sez. lavoro)ha condannato la parte ex art. 96 c.p.c., stigmatizzando un ricorso “redatto col supporto dell’intelligenza artificiale” e definito “coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti”. La pronuncia del TAR Lombardia si distingue per il diverso approccio poiché il baricentro non è più la responsabilità processuale, ma quella deontologica e, pertanto, l’intervento del giudice amministrativo segna un passaggio evolutivo: dal biasimo processuale al presidio etico della professione.
In conclusione, la sentenza n. 3348/2025 del TAR Lombardia rappresenta, in definitiva, un punto di snodo nel rapporto tra professione forense e intelligenza artificiale perché essa non condanna l’uso della tecnologia, ma ne riafferma la necessaria sussidiarietà rispetto al controllo critico dell’essere umano; in altri termini, l’IA può essere un ausilio ma mai un sostituto, uno strumento e non un soggetto. La decisione richiama implicitamente l’esigenza di una “deontologia dell’algoritmo”: un nuovo paradigma etico che impone al difensore di conoscere, controllare e rendere trasparente il contributo delle tecnologie nei propri atti: in tal senso, la pronuncia lombarda non è solo un ammonimento disciplinare, ma una pietra miliare nel percorso di adattamento della cultura giuridica all’era digitale.
– Emanuele Dodero