Autore: Alessandro Giorgetta – 06/02/2026
L’AI ACT, OVVERO LA DOGANA INVISIBILE E IL KATECHON DELL’ALGORITMO
I. Premessa breve
Le frontiere non sono soltanto una linea geografica. Con l’AI ACT (Regolamento UE 2024/1689) sono diventate un “regime di conformità”: una dogana invisibile che seleziona ciò che può entrare nel mercato europeo e ciò che deve restarne fuori. La modernità non costruisce mura, costruisce standard. E il libero scambio non è più libertà di circolazione: è libertà condizionata dalla tecnologia.
II. La tecnica come forma del tempo
C’è un equivoco ricorrente nel dibattito contemporaneo sull’intelligenza artificiale e ancor più sulla sua regolamentazione: ossia che il diritto “arrivi dopo”, inseguendo la tecnica. Equivoco che nasce da un’immagine povera della norma – ridotta a divieto o autorizzazione – e da un’immagine eccessiva della tecnica – scambiata per destino ineluttabile («Stiamo diventando come degli insetti; simili agli insetti.» – F. Battiato).
Eppure, se si assume la più alta riflessione europea sulla modernità (Jünger, Spengler [[1]]), la tecnica non è soltanto un insieme di strumenti: è una forma del tempo, un modo di organizzare la percezione.
L’AI ACT non è, in questa prospettiva, soltanto un testo regolatorio. E’ un tentativo di costruire norme capaci di tenere insieme due parole che la tecnica tende a separare: fiducia e responsabilità. La posta in gioco non è la macchina in sé, ma l’assetto del mondo che essa rende praticabile: chi decide, su quali basi, con quali possibilità di contestazione, con quale allocazione dei costi (economici, reputazionali, sociali) del rischio. E tuttavia, come sempre accade quando il diritto tenta di disciplinare una tecnica nascente, la norma descrive tanto l’oggetto quanto la nostra impotenza a nominarlo fino in fondo (il rischio, in effetti, è il modo in cui una civiltà confessa di non credere più alla provvidenza, come ha insegnato Benedetto XVI°).
III. L’apparenza e il rischio come lingua comune: la tassonomia dell’AI ACT
L’intelligenza artificiale crea apparenza. Si intende porre l’accento sulla capacità dei modelli generativi di produrre risultati (testi, immagini, video) che possiedono una forte verosimiglianza, pur essendo privi di una reale comprensione o base ontologica nella realtà. Voglio spiegarmi meglio: nei modelli di linguaggio (LLM), l’apparenza riguarda la capacità di generare testi grammaticalmente corretti e retoricamente convincenti. Questo crea l’illusione del pensiero (simulazione del Ragionamento), dove l’utente scambia la fluidità sintattica per una reale comprensione semantica o competenza autonoma. Il punto è più facilmente comprensibile se si ha presente il c.d. AI hyperrealism: l’IA genera volti e scene che sono spesso indistinguibili dalla realtà. In molti casi, le facce create sinteticamente vengono percepite come “più umane” di quelle reali perché l’algoritmo tende a produrre tratti mediamente più attraenti o rassicuranti.
Epperò, quando l’apparenza credibile aumenta, la fiducia diventa rara. Ma ciò che è raro, nei mercati come nelle istituzioni, diventa più costoso. In finanza la fiducia è il presupposto del credito; in politica, della legittimità; nel diritto, dell’obbedienza ragionevole alle regole da parte del cittadino. L’IA crea apparenza e rende più oneroso distinguere il vero dal falso, il segnale dal rumore.
Il diritto, allora, non arriva dopo la tecnica, ma reagisce ad essa: le impone un regime. L’AI ACT sceglie una via tipicamente europea per disciplinare quest’apparenza creata dalla tecnica: non la idolatra e non la demonizza, bensì la classifica. Il suo gesto è una tassonomia che costruisce livelli di obbligazione crescente. In questa tassonomia, il divieto è la linea rossa: quando la macchina mira a deformare la decisione, a manipolare la volontà o a ridurre l’individuo a bersaglio vulnerabile, il rischio diventa “inaccettabile” (AI ACT, art. 5). La trasparenza, invece, è disciplina del verosimile: segnala la presenza dell’algoritmo, marca il contenuto sintetico, riduce la confusione tra mondo e simulacro. Ma la parte più rilevante, per l’economia, è il rischio “alto” (AI ACT, art. 6): qui il diritto non si limita a vietare: esige governance, tracciabilità, controlli e responsabilità lungo il ciclo di vita del software.
IV. Gli standard di Bruxelles in ambito di conformità e responsabilità.
Il diritto internazionale dell’economia conosce bene le dogane. Ma l’IA ne introduce una nuova: non fatta di tariffe, bensì di standard.
L’AI ACT è norma del mercato interno, eppure parla al mondo perché condiziona l’accesso a un mercato di dimensione continentale. Chi intende immettere sistemi e servizi basati sull’IA nel circuito europeo deve entrare in un linguaggio di conformità: requisiti, audit, valutazione, responsabilità (AI ACT, artt. da 8 a 28). La sovranità regolatoria diventa potere economico senza dazi. È qui che emerge la logica delle barriere non tariffarie: la disputa non è sul prezzo, ma sulla prova di aver adempiuto agli standard regolatori; non sulla merce, ma sul criterio che la rende commerciabile e non sanzionabile. In altre parole: chi governa i criteri, governa – secondo il legislatore dell’UE – gli scambi.
Nel diritto classico (ed anche in anche quello del Code Napoléon) la responsabilità segue la mano: chi agisce risponde, salvo che dimostri che “l’inadempimento o il ritardo é stato determinato da impossibilità della prestazione derivante da causa a lui non imputabile” (tanto dice l’art. 1218 del nostro Codice Civile). Invece, nell’economia digitale, l’azione è diffusa: tra dati, modelli, integrazioni e fornitori, la mano diventa filiera. La regolazione dell’AI ACT ricostruisce allora la colpa come catena documentale: obblighi di tracciabilità, gestione del rischio, controlli ex ante e monitoraggio ex post (si rimanda ancora agli artt. da 8 a 28): chi non ha adempiuto a questi obblighi preventivi, risponderà dei danni successivi.
V. Uno sguardo su agricoltura e banche
Ma ogni regime di conformità produce concentrazione: la fiducia diventa costo fisso; e dove i costi fissi crescono, il mercato seleziona chi può permettersi compliance, audit e certificazioni. Nel mercato agricolo, questo genera barriere [[2]].
Nel mondo bancario/finanziario, l’IA non è un accessorio. È architettura decisionale: interviene anzitutto nel credit scoring, ossia nella selezione del rischio di credito. Per questo l’AI ACT tratta alcune applicazioni come “alto rischio” (art. 6) quando incidono sull’accesso al credito o sul prezzo della protezione assicurativa. Qui il giudizio non è neutro: distribuisce possibilità di vita, include ed esclude, premia e penalizza. È la soglia in cui la compliance smette di essere funzione legale e diventa funzione economica: costo della fiducia, rischio di contenzioso, rischio reputazionale, costo del capitale. L’ordine non elimina l’azzardo: lo amministra.
VI. La contesa futura. Conclusione con una domanda
Ogni regime di conformità apre un conflitto naturale tra l’esigenza pubblica di verificare e l’interesse privato a proteggere ciò che rende competitivi – dati, pipeline, know how, segreti industriali. Nel diritto dei commerci questa frizione ha un nome: tutela dell’informazione. La questione strategica è l’equilibrio: quanta trasparenza serve per rendere affidabile il mercato della fiducia, senza trasformare l’obbligo di prova in espropriazione del vantaggio competitivo?
La geopolitica della tecnica rientra nel diritto attraverso strumenti apparentemente tecnici ma decisivi: controlli all’esportazione, restrizioni su assistenza tecnica, due diligence sulle catene del valore. In un mondo in cui modelli e infrastrutture possono essere dual use [[3]], la frontiera non coincide più con la dogana commerciale: coincide con la capacità di controllare trasferimenti, dipendenze, concentrazioni di potere tecnologico.
In questo disegno, la sovranità non consiste tanto nell’inventare regole nuove, quanto nel governare la capacità di attuazione e di interlocuzione con operatori globali e con filiere tecnologiche che non coincidono con i confini. È una sovranità amministrativa in senso alto: la capacità di tradurre dall’algoritmo al diritto, dal diritto al commercio, dal commercio alla sicurezza. L’AI ACT è un tentativo di tradurre la potenza in responsabilità, l’opacità in prova, l’arbitrio in procedura. In ultima analisi, un katechon: non arresto della tecnica, ma misura contro l’ebbrezza della velocità.
Resta una domanda che nessuna norma può sciogliere: se la previsione diventa automatica, quale parte dell’umano mettiamo a destino insieme alla macchina?
[[1]] Ernst Jünger, La mobilitazione Totale, pubblicato la prima volta in Krieg und Krieger, Berlin, Birkenmaier, 1930. O. Spengler, Der Mensch und die Technik. Beitrag zu einer Philosophie des Lebens, München, Fuks, 1931; tr. it. Spengler, L’uomo e la tecnica. Contributo a una filosofia della vita, Parma, Guanda, 1992; poi a cura di G. Raciti e traduzione di A. Treves, Torino, Aragno, 2016.
[[2]] Ad esempio, nel settore agricolo sono stati già compiuti studi che mettono in luce l’asimmetria e, più in generale, lo squilibrio di potere tra fornitori di tecnologie e impresa, così ridurre gli spazi di effettiva autodeterminazione negoziale dell’agricoltore: si veda ad es, P. Lattanzi, L’agricoltura di precisione: fisionomia, quadro strategico di riferimento e implicazioni giuridiche, in Rivista di Diritto Alimentare, 2024, n. 2. In chiave sistemica, v. anche R. Caso, Capitalismo dei monopoli intellettuali, pseudo-proprietà intellettuale e dati nel settore dell’agricoltura di precisione e dello smart farming: note a margine del right to repair, in Rivista di Diritto Alimentare, 2023, Quaderno n. 1.
[[3]] Sia consentito sul punto un rinvio a A. Giorgetta, Le industrie navale e della cybersecurity di fronte alla normativa sui prodotti dual-use (Con implicazioni sull’AML), in Rivista Marittima, n. 11-12 / 2023.
