Il Tribunale di Verona (sentenza n. 4203/2025 del 10/2/2026) ha condannato la parte soccombente al pagamento di un’ammenda in quanto l’avvocato aveva firmato un documento generato dall’IA senza controllarlo. A pagina 4 dell’atto c’era ancora il classico prompt dell’IA: “Se vuoi, posso proseguire… Fammi sapere.”
Nessuno aveva saputo rispondergli. Il giudice ha risposto per lui, introducendo il concetto di “obbligo di controllo rafforzato”.
Perché questa sentenza riguarda la Pubblica Amministrazione?
La PA italiana sta adottando massivamente soluzioni di IA generativa: per redigere delibere, determinazioni, risposte ai cittadini, report, pareri tecnici. Ma sta valutando i rischi cognitivi che questo comporta?
La sentenza veronese mette nero su bianco un principio scomodo: più potente è lo strumento, più alta è la responsabilità di chi lo usa. E questa responsabilità non può essere delegata al cosiddetto algoritmo. Il vero pericolo è l’erosione dell’autonomia cognitiva organizzativa
Il caso dell’avvocato non è una distrazione isolata. È il sintomo di un “outsourcing cognitivo” che rischia di diventare strutturale:
- Perdita di competenza critica: Quando deleghiamo sistematicamente la redazione di atti amministrativi all’IA, i funzionari perdono progressivamente la capacità di distinguere un testo giuridicamente solido da uno solo apparentemente plausibile.
- Dipendenza dallo strumento: L’organizzazione diventa incapace di funzionare senza l’assistente digitale. Cosa succede in caso di malfunzionamento, attacco cyber o blocco del servizio?
- Responsabilità diffusa (e diluita): Chi risponde di una determinazione redatta dall’IA ma firmata dal dirigente? Il funzionario che ha fornito il prompt? Il dirigente che l’ha approvata? Il RTD che ha autorizzato lo strumento?
- Rischio reputazionale e di compliance: Un errore in un atto amministrativo non è solo un danno economico: può compromettere la fiducia dei cittadini, violare diritti, generare contenziosi e sanzioni per responsabilità amministrativa.
Obbligo di controllo rafforzato nella PA: cosa significa concretamente?
Per gli enti locali, adottare l’IA generativa senza una policy strutturata di controllo non è innovazione: è negligenza organizzativa. Le domande che ogni RTD e dirigente dovrebbero porsi:
- Esiste una procedura formale di revisione umana per ogni atto prodotto con IA?
- I funzionari sono formati a riconoscere le “allucinazioni” e gli errori plausibili degli LLM?
- Esiste un tracciamento dei documenti generati con IA? E con quale livello di automazione?
- Sono stati valutati i rischi in termini di accountability, trasparenza e conformità GDPR?
- Il personale conserva le competenze necessarie a operare senza l’IA in caso di necessità?
Un Comune che usa l’IA per redigere atti amministrativi o, peggio, per prendere decisioni senza adeguate valutazioni, formazione e policy di controllo non sta solo violando la diligenza professionale. Sta costruendo una bomba a orologeria normativa.
Cosa dovrebbe fare (subito) l’Ente Locale
- Redigere una AI Policy interna: Prima di adottare strumenti, definisci procedure di utilizzo, controllo e tracciabilità.
- Formare il personale sul “controllo rafforzato”: Non basta saper usare l’IA. Serve saper verificare criticamente l’output.
- Implementare audit periodici: Verifica campionaria degli atti generati con IA, con focus su qualità giuridica e conformità.
- Documentare tutto: Analisi d’impatto, registri d’uso, prompt utilizzati, revisioni effettuate. In caso di contestazione, la tracciabilità è l’unica difesa.
- Mantienere la competenza umana: L’IA è un acceleratore, non un sostituto. Preservare l’autonomia cognitiva dell’organizzazione è una priorità strategica.
- Inoltre: adottare con le opportune personalizzazioni le diverse linee guida sull’utilizzo dell’IA nella Pubblica Amministrazione man mano che vengono rilasciate da AGID.
La sentenza di Verona non è solo una sanzione a un avvocato distratto. È un precedente giurisprudenziale che definisce un nuovo standard di responsabilità professionale nell’era dell’IA.
Per la PA, il messaggio è chiaro: innovare sì, ma con governo consapevole degli strumenti. L’intelligenza artificiale può migliorare l’efficienza degli enti locali, ma solo se accompagnata da intelligenza organizzativa e cultura della responsabilità. Altrimenti, il prossimo “Fammi sapere” dimenticato in una delibera comunale potrebbe costare molto più di 2.800 euro.
Contributo redatto con il parziale ausilio di strumenti di IA a cura dell’Ing. Massimo Poletti, Membro del Comitato Scientifico ed iscritto al ruolo degli Esperti e formatori del Centro Studi Paul H. Appleby











