Hanno iniziato i Greci, a nascondere l’invisibile con un enorme visibile. Il cavallo di Troia, uscito dalla genialità di Ulisse, è stata la prima “interfaccia” seducente attorno ad un sistema complesso.
E apparentemente nella storia, ogni grande nuova infrastruttura, ogni evoluzione tecnologica fondamentale ha avuto bisogno di un'interfaccia popolare per diventare inevitabile.
L'interfaccia è il cavallo di Troia dell'infrastruttura, accessibile, credibile, seducente, affabile. Quando l'utente chiede un assistente più utile, l'impresa costruisce una piattaforma dati più integrata.
Dal cavallo di Troia alla User Interface di “Minority Report”, la dinamica non è nuova nella storia della tecnologia. Internet è diventato socialmente dominante non quando esistevano i protocolli, ma quando sono arrivati browser, email, motori di ricerca, social network e smartphone. Il cloud non si è imposto come architettura distribuita, ma come Dropbox, Gmail, Netflix, iCloud, Salesforce.
L'interfaccia agisce come una forma di anestesia sociale, quasi una droga, mentre il pubblico si concentra sulla capacità di un chatbot di scrivere una mail o un tema scolastico, questa stessa visibilità agisce quasi come un filtro che maschera piattaforme e mondi dati sempre più complessi e sempre piu’ integrati.
Il mondo visibile dell’AI attira attenzione, legittima socialmente l’invasione fornendo una narrazione ricca di seduzione, di efficienza e anche di affidabilità, nonostante le frequenti critiche. E con l’attenzione anche gli investimenti, le strategie di mercato e i grandi capitali.
Ma la partita non si limita al mondo visibile e la facilità d'uso consumer abbassa la resistenza psicologica verso trasformazioni radicali delle architetture aziendali e statali che, altrimenti, desterebbero allarme.
L’AI visibile è quella di ChatGPT, Claude, Gemini, Copilot e tutti i sistemi di AI generativa e Large Language Model (LLM) che l'utente sperimenta quotidianamente attraverso un'interfaccia conversazionale.
Gli LLM rappresentano un sottoinsieme dell'AI generativa, tutti gli LLM sono AI generativa, ma non tutta l'AI generativa è un LLM. La loro caratteristica distintiva, affascinante e seduttiva, e quindi molto “visibile” è l'interfacciabilità diretta. L'utente digita, il sistema risponde e questa trasparenza operativa, anche quando il modello sottostante rimane una black box, crea una percezione di accessibilità e di controllo. L'utente vede l'AI, la interroga, può immaginare e dedurre comportamenti, spesso senza poterli controllare, ma con l'impressione di averne il controllo.
Da molti anni, da prima della comparsa degli LLM, modelli e tecniche di AI basate su reti neurali sono stati utilizzati in ambienti diversi: nei processi predittivi, nella logistica, nell'antifrode, nel trading algoritmico, nel targeting pubblicitario, nella gestione e nella diagnosi per immagini, ma operavano dietro le quinte, quasi in modo “nascosto” all'utente finale.
Con gli LLM, l'AI è uscita dall'anonimato dell'infrastruttura, è diventata protagonista e l'utente non vede più soltanto il risultato di un sistema algoritmico, ma percepisce un sistema che apparentemente “ragiona”, con una conversazione e una grammatica accessibile a chiunque sappia scrivere una frase, in qualunque lingua del globo.
La soglia di ingresso della nuova tecnologia è bassissima, sia per i costi che per l'apparente semplicità di utilizzo. Non serve più conoscere un linguaggio di programmazione, costruire query complesse, ma basta formulare una richiesta in linguaggio naturale. L'esplosione è stata dirompente, con centinaia di milioni di nuovi utenti in pochi mesi, con i dati di mercato che occupano le prime pagine di ogni newsletter e con cifre astronomiche spesso associate prevalentemente proprio alla parte visibile, che non necessariamente rappresenta l'intera filiera strutturale.
Gli LLM ormai hanno invaso molti ambiti sia del mondo enterprise che del mondo consumer, con l'esplosione del fattore coding e debugging, oltre alle più classiche applicazioni di empowerment e di efficiency, ma la lista si allunga ogni giorno.
Il mondo visibile è soprattutto il palcoscenico del mercato, il luogo in cui la tecnologia diventa narrabile e quindi vendibile. E tutte le grandi corporation con le loro piattaforme rilanciano quotidianamente annunci tecnologici, investimenti, strategie future, funzionalità avveniristiche, report di ogni tipo.
La facilità di utilizzo e la viralità degli strumenti influenzano anche la discussione sugli impatti sociali e sulla relative conseguenze. Non si approfondiscono abbastanza i temi sostanziali e non si fa educazione sui temi sostanziali delle architetture, le modalità con cui funzionano le reti, i guardrail, le regole di utilizzo, i bias derivati dalle modalità di apprendimento o di utilizzo. Se ne discute certamente nei tavoli “professionali”, ma con poca consapevolezza per la grande massa degli utilizzatori.
Il pubblico discute di studenti che scrivono temi con ChatGPT, di programmatori che temono la loro sostituzione, degli artisti e dei loro diritti d’autore, di insegnanti costretti a ripensare compiti e valutazioni, di chatbot usati come surrogati emotivi.
La visibilità rende i modelli pubblici politicamente e legalmente fragili, facilmente criticabili e i quadri regolatori si concentrano su queste fragilità. L'AI Act europeo, gli executive order statunitensi, le linee guida cinesi, così come le normative emergenti in decine di altre giurisdizioni, stanno costruendo impianti legislativi che ancora divergono per ambito, definizioni, obblighi di trasparenza e regime sanzionatorio, ma con la caratteristica comune di concentrarsi prevalentemente sugli aspetti “visibili”:
L’AI invisibile, cosi la definiamo per facilità di narrazione, non è una tecnologia specifica, ma un insieme di sistemi AI embedded nelle infrastrutture operative. L'AI dei dati non risponde a un prompt, non genera immediatamente un testo e non ha un'interfaccia conversazionale.
L'AI invisibile opera all'interno di infrastrutture dati, integra dataset eterogenei, costruisce modelli semantici delle organizzazioni, alimenta sistemi di decisione automatizzata o assistita in domini ad alta criticità come la difesa, l'intelligence, l'immigrazione, la sanità, la finanza o la supply chain. Nel settore logistico e manifatturiero l'AI invisibile è spesso parte integrante delle operazioni quotidiane dove sistemi predittivi ottimizzano rotte, manutenzione, gestione dei magazzini, approvvigionamento e pianificazione industriale sulla base di enormi quantità di dati operativi. L'utente finale non “vede” l'AI, ma ne subisce gli effetti attraverso tempi di consegna, disponibilità dei prodotti e costi operativi.
Con impatti personali a volte pesanti come il calcolo del credit scoring che Banche, fintech e piattaforme assicurative ricavano da modelli predittivi per stimare affidabilità finanziaria, rischio di insolvenza o probabilità di frode. In molti casi il cittadino non sa quali variabili abbiano influenzato il risultato finale, né quale peso abbiano avuto correlazioni e inferenze statistiche nella valutazione.
Esiste una profonda asimmetria nella governance contemporanea, ci stiamo concentrando nel regolare l'AI che “parla” lasciando campo libero all'AI che “decide”.
Il modello fondamentale qui non è il testo scritto, ma lo sviluppo di relazioni e di rappresentazioni delle entità reali del mondo, come persone, oggetti, eventi, organizzazioni. Palantir Technologies è il caso emblematico, più discusso anche se non sempre analizzato a fondo, di questo paradigma. Fondata nel 2003 da Peter Thiel e Alexander Karp con finanziamento della CIA, Palantir ha costruito per oltre vent'anni la sua posizione in ambienti ad alto rischio istituzionale, dove la visibilità è per definizione vietata. Gotham è la piattaforma per governi e agenzie di intelligence, Foundry ne è la versione commerciale, una piattaforma di integrazione dati che funge da sistema operativo per le operazioni aziendali connettendo sistemi ERP, manifattura, supply chain, finanza. AIP (Artificial Intelligence Platform), lanciato nell'aprile 2023, è il layer che connette gli LLM alle operazioni e permette di costruire agenti AI e workflow che interrogano le relazioni e le informazioni, generando intelligence azionabile mantenendone il controllo.
Un progetto dell'AI invisibile può processare immagini e dati sensoriali raccolti da droni, satelliti e altri sistemi di sorveglianza, riducendo il carico sugli analisti umani e accelerando il decision-making. E tutto questo avviene senza che il cittadino medio ne sia consapevole, senza interfaccia pubblica, senza conversazione visibile. Le decisioni operative, a volte anche decisioni di vita o di morte, vengono sempre più delegate ad algoritmi proprietari operati da aziende private, con conseguenze drammatiche in termini di accountability, trasparenza e supervisione democratica.
Nell'arena dell'AI invisibile non c'è solo Palantir, ovviamente, anche se altri player hanno approcci e modalità operative molto simili. C3.ai è una piattaforma enterprise AI focalizzata su applicazioni verticali come la manutenzione predittiva, ottimizzazione della supply chain, rilevamento di frodi. Anduril opera nell'hardware militare usando AI per rilevare, tracciare e classificare oggetti di interesse in qualsiasi dominio, terra, aria, mare, cyber. Anduril è l'emblema dell'AI che agisce nel mondo fisico, senza interfaccia linguistica, senza dialogo. BlackSky combina monitoraggio satellitare ad alta frequenza con analisi AI automatizzata delle immagini.
È interessante notare l'asimmetria di governance tra l'AI visibile e l'AI invisibile, quasi un paradosso regolatorio. Il dibattito pubblico sulla regolamentazione dell'AI, come l'AI Act in Europa e la Legge italiana sull'AI, si concentra quasi esclusivamente sull'AI visibile, o con impatti sulla quotidianità. Le iniziative di regolamentazione in Italia e in Europa, per fare un esempio, trattano principalmente “healthcare, finance, public administration”, senza fare riferimento a sistemi di decisione tattica militare o a piattaforme di sorveglianza predittiva, dove i rischi reali sono vastamente più alti. I modelli LLM pubblici sono moderati non perché l'AI invisibile sia più sicura, ma perché l'AI visibile è esposta.
Nel mondo visibile, l'errore è palese e lo chiamiamo “allucinazione” quando il sistema inventa una fonte o una frase mai pronunciata, esponendosi alla critica. Nel mondo invisibile, l'equivalente dell'allucinazione è molto più insidioso perché non si presenta come una frase falsa, ma come una “realtà operativa” prodotta dal sistema.
Un punteggio di rischio errato o un'associazione sbagliata tra entità diventano la base per decisioni successive come un rifiuto creditizio o una segnalazione di sorveglianza. L'eventuale errore non sembra tracciabile, non produce interventi immediati sul sistema, neppure quando dirige un razzo contro una scuola di bambini innocenti.
La dicotomia tra AI visibile e invisibile ci riporta nel vecchio rischio del digital divide, non tanto tra chi ha accesso all'AI e chi non ce l'ha, ma tra chi è soggetto e chi la controlla. Il cittadino è target di sistemi decisionali AI, spesso inconsapevole, senza strumenti di controllo, senza nessuna possibilità e neppure capacità di accesso per controllo e consapevolezza.
E c'è una seconda differenza che la letteratura sulla governance fatica ancora a metabolizzare. Nel visibile, il guardrail impedisce al modello di dire certe cose, nel mondo invisibile, la domanda decisiva non è cosa il sistema dice, ma cosa attiva e non sembrano esserci processi di filtro etico e comportamentale, comandano i dati, le relazioni, la reazione immediata dei modelli.
Immaginiamo un iceberg dove la punta emersa è l'AI che vediamo, ChatGPT, Copilot e i vari chatbot, mentre la massa sommersa è l'AI che non vediamo, i sistemi operativi di decisione, le piattaforme di integrazione dati, i motori di intelligence che operano in silenzio nelle organizzazioni.
Una fake news, un'allucinazione, un utilizzo eticamente discutibile dell'AI visibile è immeritatamente oggetto di analisi e di critica, di discussione su etica e responsabilità e, conseguentemente, di modalità e regole di controllo.
Un errore dell'AI invisibile, che non si permette di essere chiamato allucinazione, può portare a catastrofi con conseguenze drammatiche, dove la discussione è sulla politica della bomba e non sull'utilizzo “unmanned”, non supervisionato, di un sistema di AI invisibile.
Eppure, mentre gli LLM operano su pattern linguistici statistici e non “sanno” cosa è un'entità, ma predicono quale testo è probabile dato un contesto, una piattaforma come Palantir opera su ontologie esplicite e strutturate, crea relazioni con proprietà e storie. La differenza fondamentale è che le piattaforme AI avrebbero possibilità di explanation ben più importanti di quello che possono fare le piattaforme LLM con le loro black box, solo che tali spiegazioni, spesso, non vengono esportate e restano sotto il controllo degli operatori interni, dando l’impressione di non essere neppure prese in considerazione.
I due mondi che apparentemente non corrono in parallelo, sono parte dello stesso iceberg e si alimentano a vicenda. Il visibile produce la domanda, alimenta l'immaginario, attira il capitale e legittimazione sociale, l'invisibile approfitta e assorbe questa pressione e la traduce in infrastruttura, integrazione e potere operativo.
E’ il visibile che trascina l'invisibile, anche se è l'invisibile che sostiene il visibile.
L'esplosione dell'AI generativa crea nelle imprese una richiesta diffusa di “portare l'AI nei processi”, ma quando questa richiesta entra davvero in azienda, incontra subito un limite. i chatbot generalisti non bastano e per produrre valore stabile l'AI deve accedere a dati interni, ruoli, permessi, sistemi legacy, workflow, policy operative. A quel punto la conversazione visibile deve essere collegata all'infrastruttura invisibile. L'assistente non può limitarsi a generare testo, ma deve interrogare database, aggiornare sistemi e attivare procedure.
L'AI visibile è la narrativa, ha dato a tutti una grammatica comune per parlare di AI. Prima si parlava di machine learning, computer vision, NLP, predictive analytics . Ora, con i chatbot, l'AI è diventata comprensibile anche al management non tecnico, il prompt è la metafora universale dell'interazione uomo-macchina. Questa semplificazione culturale rende interessanti e acquisibili sistemi molto più complessi come agenti, workflow automatizzati, piattaforme dati, ontologie operative.
Il linguaggio del visibile rende vendibile l'invisibile e produce legittimazione. Quando milioni di persone usano strumenti generativi nella vita quotidiana, l'adozione aziendale appare meno rischiosa e più inevitabile.
L'evoluzione verso sistemi agentici rende ancora più sfumata la separazione tra AI visibile e invisibile. Gli agenti AI non si limitano a generare contenuti, ma eseguono operazioni, coordinano workflow, interrogano sistemi esterni e prendono micro-decisioni operative. In questo scenario l'interfaccia conversazionale diventa solo il livello superficiale di sistemi che agiscono direttamente sull'infrastruttura organizzativa.
Una governance matura dell'AI non può limitarsi alla superficie conversazionale dei modelli generativi. Deve interrogare l'intera catena che va dall'interfaccia alla decisione, dal prompt all'azione, dal modello al dato, dal dato all'ontologia, dall'ontologia al workflow, dal workflow all'impatto sociale. Senza questo spostamento dello sguardo, continueremo a regolare soprattutto l'AI che parla, mentre l'AI che decide resterà ai margini della visibilità democratica.
Forse è tempo di allargare i nostri orizzonti, o meglio cominciare ad interessarci della parte sommersa dell'iceberg, perche’ il cavallo di Troia dell’AI è sempre maliziosamente affascinante anche se pieno di dati e non piu’ di soldati.



