L'intelligenza artificiale nel procurement pubblico: principi senza effettività

Osservazioni alla bozza di linee guida AGID (marzo 2026)

intelligenza artificiale
intelligenza artificiale

L'intelligenza artificiale nel procurement pubblico: principi senza effettività

Osservazioni alla bozza di linee guida AGID (marzo 2026)

 

Il contesto

L'AGID ha pubblicato, il 12 marzo 2026, la bozza delle Linee guida per il procurement di intelligenza artificiale nella pubblica amministrazione, aperta a consultazione pubblica fino all'11 aprile. Il documento si inserisce in un quadro normativo in rapida stratificazione — AI Act, L. 132/2025, D.Lgs. 36/2023, NIS2, Cyber Resilience Act — e rappresenta il primo tentativo organico di tradurre quel quadro in indirizzi operativi per le stazioni appaltanti.

Il paragrafo 3.1, dedicato ai principi generali del procurement, è il cuore sistematico del documento. Enuclea otto principi — risultato, fiducia, accesso al mercato, trasparenza, responsabilità, proporzionalità, controllo, sostenibilità — e li ancora, coerentemente, sia al Codice dei contratti pubblici sia alla L. 132/2025. L'impianto è apprezzabile. Il problema è altrove: nella distanza che separa l'enunciazione dei principi dalla loro effettività operativa. È su questa distanza che vale la pena ragionare, perché è lì che si gioca la reale utilità di un documento di questo tipo per le amministrazioni che lo dovranno applicare.
 

Il principio di responsabilità e il nodo della Corte dei conti

Il documento afferma che la PA mantiene la piena titolarità delle decisioni amministrative e non può delegare la responsabilità dell'uso dei sistemi di IA, neppure quando il sistema è fornito da terzi o erogato in cloud. L'affermazione è corretta e costituzionalmente necessaria: la funzione pubblica non si esternalizza, e l'interposizione di un algoritmo non muta la natura dell'atto che ne deriva.

Il problema è che questa affermazione lascia irrisolto il nodo più concreto che l'avvocatura interna degli enti pubblici si trova ad affrontare: come si raccorda la titolarità della decisione amministrativa con il regime della responsabilità contabile nei confronti della Corte dei conti? La giurisprudenza contabile ha elaborato, nel tempo, una nozione di colpa grave del funzionario pubblico che presuppone la possibilità di identificare una condotta deviante rispetto a uno standard di diligenza verificabile. Quando un sistema di IA partecipa al procedimento — anche solo a supporto istruttorio — quel confronto diventa più complesso: il funzionario che segue l'output del sistema risponde della scelta di affidarsi ad esso; quello che se ne discosta deve motivare perché. In entrambi i casi, la responsabilità è reale, ma i criteri per valutarla non sono ancora definiti.

Le linee guida avrebbero potuto — e dovrebbero — indicare come documentare il processo decisionale assistito dall'IA in modo da rendere verificabile, ex post, che il sistema è stato utilizzato come ausilio e non come sostituto della volontà amministrativa. Questa non è una questione tecnica: è la precondizione pratica perché il principio di responsabilità abbia un contenuto azionabile e non rimanga una dichiarazione di principio priva di conseguenze.
 

Trasparenza e tracciabilità: quando il principio non basta

Il documento colloca la tracciabilità come obbligo tecnico e organizzativo del fornitore, che deve consentire all'amministrazione di accedere alle informazioni necessarie a comprendere e verificare il comportamento del sistema. L'impostazione è corretta. Ma il testo non dice — neppure per rinvio allo Strumento B (Schema di Capitolato Tecnico) — quale sia la conseguenza contrattuale dell'inadempimento a tale obbligo.

Questa lacuna non è marginale. Chi esercita attività di avvocatura interna sa bene che i principi enunciati nelle linee guida di settore, quando non trovano traduzione in clausole tipizzate e azionabili, restano privi di effettività pratica. Il fornitore che non garantisce la tracciabilità promessa si trova esposto, nella migliore delle ipotesi, a una contestazione generica di inadempimento, che il contenzioso arbitrale o giurisdizionale risolverà con esiti incerti e tempi lunghi. Quello che serve, invece, è una casistica minima di inadempimento con le relative conseguenze contrattuali — risoluzione, penale, obbligo di adeguamento tecnico — differenziata per tipologia di sistema.

Il tema ha una proiezione più ampia. La trasparenza dei sistemi di IA non è solo una garanzia per l'amministrazione: è la condizione che rende possibile il controllo democratico sull'uso dell'intelligenza artificiale nella funzione pubblica. Un sistema opaco, che produce decisioni non spiegabili, mina la legittimazione dell'atto amministrativo indipendentemente dalla sua correttezza sostanziale. Le linee guida sembrano avere chiara questa consapevolezza a livello di principio; non riescono ancora a trasformarla in strumento.
 

Controllo e continuità del servizio pubblico

Il principio di controllo, così come formulato, introduce correttamente i meccanismi di fallback come presidio della continuità operativa in caso di malfunzionamento del sistema. Ma per le amministrazioni che gestiscono servizi pubblici essenziali — si pensi agli enti per l'edilizia residenziale pubblica, che erogano prestazioni a soggetti in condizione di fragilità, o alle aziende sanitarie, o agli enti previdenziali locali — il fallback non è una questione tecnica: è una questione di diritto pubblico. L'interruzione del servizio ha conseguenze giuridicamente rilevanti, che vanno dall'illegittimità del provvedimento adottato con un sistema in avaria fino alla responsabilità dell'ente per il danno subito dall'utente.

Le linee guida non affrontano il raccordo tra il principio di controllo e le disposizioni nazionali sulla continuità dei servizi pubblici, né chiariscono se la previsione contrattuale dei meccanismi di fallback costituisca clausola essenziale — condizione di ammissibilità dell'offerta — ovvero elemento migliorativo da valorizzare in sede di valutazione. Questa ambiguità produce, inevitabilmente, soluzioni disomogenee: ciascuna stazione appaltante eserciterà la propria discrezionalità con esiti difficilmente comparabili e, in alcuni casi, insufficienti rispetto al profilo di rischio del servizio gestito.
 

Proporzionalità senza strumento

Il principio di proporzionalità, nella sua formulazione, stabilisce che sistemi caratterizzati da elevata complessità o bassa spiegabilità devono essere adottati solo in presenza di benefici chiaramente motivati e documentati. La previsione è coerente con l'AI Act, che impone valutazioni di rischio graduate per i sistemi ad alto impatto. Il problema, ancora una volta, è operativo: il principio è formulato in termini negativi — ciò che non si deve fare — senza indicare attraverso quale atto la stazione appaltante deve dare conto, in sede procedimentale, della propria valutazione.

Nell'ordinamento dei contratti pubblici, la motivazione delle scelte tecniche è già oggi presidio di legittimità dell'azione amministrativa, sindacabile in sede giurisdizionale e contabile. La scelta di adottare un sistema di IA ad elevata complessità dovrebbe essere documentata in un atto formale — integrabile nel documento di analisi preliminare di cui all'art. 15 del D.Lgs. 36/2023 — che dia conto della comparazione tra soluzioni alternative, del livello di rischio atteso e dei benefici pubblici attesi. Le linee guida potrebbero indicare questo percorso senza imporre un modello rigido, ma orientando le amministrazioni verso uno standard minimo di documentazione che sia al tempo stesso presidio di legittimità e strumento di governance.
 

Conclusioni

Le linee guida in consultazione costruiscono un catalogo di principi sistematicamente coerente e normativamente ancorato. Il loro limite principale non è nell'impianto ma nel grado di operatività: i principi enunciati hanno bisogno di trovare, negli strumenti allegati e nei capitoli successivi, una traduzione procedurale e contrattuale sufficientemente dettagliata da orientare concretamente le stazioni appaltanti.

Il rischio, se questo passaggio non viene compiuto, è che le linee guida producano un effetto opposto a quello atteso: non un innalzamento della qualità del procurement pubblico di IA, ma una legittimazione formale di scelte che restano sostanzialmente non governate. L'intelligenza artificiale nella pubblica amministrazione pone domande nuove — sulla responsabilità, sul controllo, sulla legittimità democratica della decisione algoritmica — che meritano risposte nuove, non la riproposizione di principi generali che il sistema già conosce.

La consultazione pubblica è aperta fino all'11 aprile 2026. È un'occasione che le avvocature interne degli enti pubblici farebbero bene a non perdere,