mercoledì 13 maggio 2026

Il mondo Visibile e il mondo Invisbile dell'A.I.

Hanno iniziato i Greci, a nascondere l’invisibile con un enorme visibile. Il cavallo di Troia, uscito dalla genialità di Ulisse, è stata la prima “interfaccia” seducente attorno ad un sistema complesso.

E apparentemente nella storia, ogni grande nuova infrastruttura, ogni evoluzione tecnologica fondamentale ha avuto bisogno di un'interfaccia popolare per diventare inevitabile.

L'interfaccia è il cavallo di Troia dell'infrastruttura, accessibile, credibile, seducente, affabile. Quando l'utente chiede un assistente più utile, l'impresa costruisce una piattaforma dati più integrata.

Dal cavallo di Troia alla User Interface di “Minority Report”, la dinamica non è nuova nella storia della tecnologia. Internet è diventato socialmente dominante non quando esistevano i protocolli, ma quando sono arrivati browser, email, motori di ricerca, social network e smartphone. Il cloud non si è imposto come architettura distribuita, ma come Dropbox, Gmail, Netflix, iCloud, Salesforce.

L'interfaccia agisce come una forma di anestesia sociale, quasi una droga, mentre il pubblico si concentra sulla capacità di un chatbot di scrivere una mail o un tema scolastico, questa stessa visibilità agisce quasi come un filtro che maschera piattaforme e mondi dati sempre più complessi e sempre piu’ integrati.

Il mondo visibile dell’AI attira attenzione, legittima socialmente l’invasione fornendo una narrazione ricca di seduzione, di efficienza e anche di affidabilità, nonostante le frequenti critiche. E con l’attenzione anche gli investimenti, le strategie di mercato e i grandi capitali.

Ma la partita non si limita al mondo visibile e la facilità d'uso consumer abbassa la resistenza psicologica verso trasformazioni radicali delle architetture aziendali e statali che, altrimenti, desterebbero allarme.

L’AI visibile è quella di ChatGPT, Claude, Gemini, Copilot e tutti i sistemi di AI generativa e Large Language Model (LLM) che l'utente sperimenta quotidianamente attraverso un'interfaccia conversazionale.

Gli LLM rappresentano un sottoinsieme dell'AI generativa, tutti gli LLM sono AI generativa, ma non tutta l'AI generativa è un LLM. La loro caratteristica distintiva, affascinante e seduttiva, e quindi molto “visibile” è l'interfacciabilità diretta. L'utente digita, il sistema risponde e questa trasparenza operativa, anche quando il modello sottostante rimane una black box, crea una percezione di accessibilità e di controllo. L'utente vede l'AI, la interroga, può immaginare e dedurre comportamenti, spesso senza poterli controllare, ma con l'impressione di averne il controllo.

Da molti anni, da prima della comparsa degli LLM, modelli e tecniche di AI basate su reti neurali sono stati utilizzati in ambienti diversi: nei processi predittivi, nella logistica, nell'antifrode, nel trading algoritmico, nel targeting pubblicitario, nella gestione e nella diagnosi per immagini, ma operavano dietro le quinte, quasi in modo “nascosto” all'utente finale.

Con gli LLM, l'AI è uscita dall'anonimato dell'infrastruttura, è diventata protagonista e l'utente non vede più soltanto il risultato di un sistema algoritmico, ma percepisce un sistema che apparentemente “ragiona”, con una conversazione e una grammatica accessibile a chiunque sappia scrivere una frase, in qualunque lingua del globo.

La soglia di ingresso della nuova tecnologia è bassissima, sia per i costi che per l'apparente semplicità di utilizzo. Non serve più conoscere un linguaggio di programmazione, costruire query complesse, ma basta formulare una richiesta in linguaggio naturale. L'esplosione è stata dirompente, con centinaia di milioni di nuovi utenti in pochi mesi, con i dati di mercato che occupano le prime pagine di ogni newsletter e con cifre astronomiche spesso associate prevalentemente proprio alla parte visibile, che non necessariamente rappresenta l'intera filiera strutturale.

Gli LLM ormai hanno invaso molti ambiti sia del mondo enterprise che del mondo consumer, con l'esplosione del fattore coding e debugging, oltre alle più classiche applicazioni di empowerment e di efficiency, ma la lista si allunga ogni giorno.

Il mondo visibile è soprattutto il palcoscenico del mercato, il luogo in cui la tecnologia diventa narrabile e quindi vendibile. E tutte le grandi corporation con le loro piattaforme rilanciano quotidianamente annunci tecnologici, investimenti, strategie future, funzionalità avveniristiche, report di ogni tipo.

La facilità di utilizzo e la viralità degli strumenti influenzano anche la discussione sugli impatti sociali e sulla relative conseguenze. Non si approfondiscono abbastanza i temi sostanziali e non si fa educazione sui temi sostanziali delle architetture, le modalità con cui funzionano le reti, i guardrail, le regole di utilizzo, i bias derivati dalle modalità di apprendimento o di utilizzo. Se ne discute certamente nei tavoli “professionali”, ma con poca consapevolezza per la grande massa degli utilizzatori.

Il pubblico discute di studenti che scrivono temi con ChatGPT, di programmatori che temono la loro sostituzione, degli artisti e dei loro diritti d’autore, di insegnanti costretti a ripensare compiti e valutazioni, di chatbot usati come surrogati emotivi.

La visibilità rende i modelli pubblici politicamente e legalmente fragili, facilmente criticabili e i quadri regolatori si concentrano su queste fragilità. L'AI Act europeo, gli executive order statunitensi, le linee guida cinesi, così come le normative emergenti in decine di altre giurisdizioni, stanno costruendo impianti legislativi che ancora divergono per ambito, definizioni, obblighi di trasparenza e regime sanzionatorio, ma con la caratteristica comune di concentrarsi prevalentemente sugli aspetti “visibili”:

L’AI invisibile, cosi la definiamo per facilità di narrazione, non è una tecnologia specifica, ma un insieme di sistemi AI embedded nelle infrastrutture operative. L'AI dei dati non risponde a un prompt, non genera immediatamente un testo e non ha un'interfaccia conversazionale.

L'AI invisibile opera all'interno di infrastrutture dati, integra dataset eterogenei, costruisce modelli semantici delle organizzazioni, alimenta sistemi di decisione automatizzata o assistita in domini ad alta criticità come la difesa, l'intelligence, l'immigrazione, la sanità, la finanza o la supply chain. Nel settore logistico e manifatturiero l'AI invisibile è spesso parte integrante delle operazioni quotidiane dove sistemi predittivi ottimizzano rotte, manutenzione, gestione dei magazzini, approvvigionamento e pianificazione industriale sulla base di enormi quantità di dati operativi.  L'utente finale non “vede” l'AI, ma ne subisce gli effetti attraverso tempi di consegna, disponibilità dei prodotti e costi operativi.

Con impatti personali a volte pesanti come il calcolo del credit scoring che Banche, fintech e piattaforme assicurative ricavano da modelli predittivi per stimare affidabilità finanziaria, rischio di insolvenza o probabilità di frode. In molti casi il cittadino non sa quali variabili abbiano influenzato il risultato finale, né quale peso abbiano avuto correlazioni e inferenze statistiche nella valutazione.

Esiste una profonda asimmetria nella governance contemporanea, ci stiamo concentrando nel regolare l'AI che “parla” lasciando campo libero all'AI che “decide”.

Il modello fondamentale qui non è il testo scritto, ma lo sviluppo di relazioni e di rappresentazioni delle entità reali del mondo, come persone, oggetti, eventi, organizzazioni. Palantir Technologies è il caso emblematico, più discusso anche se non sempre analizzato a fondo, di questo paradigma. Fondata nel 2003 da Peter Thiel e Alexander Karp con finanziamento della CIA, Palantir ha costruito per oltre vent'anni la sua posizione in ambienti ad alto rischio istituzionale, dove la visibilità è per definizione vietata. Gotham è la piattaforma per governi e agenzie di intelligence, Foundry ne è la versione commerciale, una piattaforma di integrazione dati che funge da sistema operativo per le operazioni aziendali connettendo sistemi ERP, manifattura, supply chain, finanza. AIP (Artificial Intelligence Platform), lanciato nell'aprile 2023, è il layer che connette gli LLM alle operazioni e permette di costruire agenti AI e workflow che interrogano le relazioni e le informazioni, generando intelligence azionabile mantenendone il controllo.

Un progetto dell'AI invisibile può processare immagini e dati sensoriali raccolti da droni, satelliti e altri sistemi di sorveglianza, riducendo il carico sugli analisti umani e accelerando il decision-making. E tutto questo avviene senza che il cittadino medio ne sia consapevole, senza interfaccia pubblica, senza conversazione visibile. Le decisioni operative, a volte anche decisioni di vita o di morte, vengono sempre più delegate ad algoritmi proprietari operati da aziende private, con conseguenze drammatiche in termini di accountability, trasparenza e supervisione democratica.

Nell'arena dell'AI invisibile non c'è solo Palantir, ovviamente, anche se altri player hanno approcci e modalità operative molto simili. C3.ai è una piattaforma enterprise AI focalizzata su applicazioni verticali come la manutenzione predittiva, ottimizzazione della supply chain, rilevamento di frodi. Anduril opera nell'hardware militare usando AI per rilevare, tracciare e classificare oggetti di interesse in qualsiasi dominio, terra, aria, mare, cyber. Anduril è l'emblema dell'AI che agisce nel mondo fisico, senza interfaccia linguistica, senza dialogo. BlackSky combina monitoraggio satellitare ad alta frequenza con analisi AI automatizzata delle immagini.

È interessante notare l'asimmetria di governance tra l'AI visibile e l'AI invisibile, quasi un paradosso regolatorio. Il dibattito pubblico sulla regolamentazione dell'AI, come l'AI Act in Europa e la Legge italiana sull'AI, si concentra quasi esclusivamente sull'AI visibile, o con impatti sulla quotidianità. Le iniziative di regolamentazione in Italia e in Europa, per fare un esempio, trattano principalmente “healthcare, finance, public administration”, senza fare riferimento a sistemi di decisione tattica militare o a piattaforme di sorveglianza predittiva, dove i rischi reali sono vastamente più alti. I modelli LLM pubblici sono moderati non perché l'AI invisibile sia più sicura, ma perché l'AI visibile è esposta.

Nel mondo visibile, l'errore è palese e lo chiamiamo “allucinazione” quando il sistema inventa una fonte o una frase mai pronunciata, esponendosi alla critica. Nel mondo invisibile, l'equivalente dell'allucinazione è molto più insidioso perché non si presenta come una frase falsa, ma come una “realtà operativa” prodotta dal sistema.

Un punteggio di rischio errato o un'associazione sbagliata tra entità diventano la base per decisioni successive come un rifiuto creditizio o una segnalazione di sorveglianza. L'eventuale errore non sembra tracciabile, non produce interventi immediati sul sistema, neppure quando dirige un razzo contro una scuola di bambini innocenti.

La dicotomia tra AI visibile e invisibile ci riporta nel vecchio rischio del digital divide, non tanto tra chi ha accesso all'AI e chi non ce l'ha, ma tra chi è soggetto e chi la controlla. Il cittadino è target di sistemi decisionali AI, spesso inconsapevole, senza strumenti di controllo, senza nessuna possibilità e neppure capacità di accesso per controllo e consapevolezza.

E c'è una seconda differenza che la letteratura sulla governance fatica ancora a metabolizzare. Nel visibile, il guardrail impedisce al modello di dire certe cose, nel mondo invisibile, la domanda decisiva non è cosa il sistema dice, ma cosa attiva e non sembrano esserci processi di filtro etico e comportamentale, comandano i dati, le relazioni, la reazione immediata dei modelli.

Immaginiamo un iceberg dove la punta emersa è l'AI che vediamo, ChatGPT, Copilot e i vari chatbot, mentre la massa sommersa è l'AI che non vediamo, i sistemi operativi di decisione, le piattaforme di integrazione dati, i motori di intelligence che operano in silenzio nelle organizzazioni.

Una fake news, un'allucinazione, un utilizzo eticamente discutibile dell'AI visibile è immeritatamente oggetto di analisi e di critica, di discussione su etica e responsabilità e, conseguentemente, di modalità e regole di controllo.

Un errore dell'AI invisibile, che non si permette di essere chiamato allucinazione, può portare a catastrofi con conseguenze drammatiche, dove la discussione è sulla politica della bomba e non sull'utilizzo “unmanned”, non supervisionato, di un sistema di AI invisibile.

Eppure, mentre gli LLM operano su pattern linguistici statistici e non “sanno” cosa è un'entità, ma predicono quale testo è probabile dato un contesto, una piattaforma come Palantir opera su ontologie esplicite e strutturate, crea relazioni con proprietà e storie. La differenza fondamentale è che le piattaforme AI avrebbero possibilità di explanation ben più importanti di quello che possono fare le piattaforme LLM con le loro black box, solo che tali spiegazioni, spesso, non vengono esportate e restano sotto il controllo degli operatori interni, dando l’impressione di non essere neppure prese in considerazione.

I due mondi che apparentemente non corrono in parallelo, sono parte dello stesso iceberg e si alimentano a vicenda. Il visibile produce la domanda, alimenta l'immaginario, attira il capitale e legittimazione sociale, l'invisibile approfitta e assorbe questa pressione e la traduce in infrastruttura, integrazione e potere operativo.

E’ il visibile che trascina l'invisibile, anche se è l'invisibile che sostiene il visibile.

L'esplosione dell'AI generativa crea nelle imprese una richiesta diffusa di “portare l'AI nei processi”, ma quando questa richiesta entra davvero in azienda, incontra subito un limite. i chatbot generalisti non bastano e per produrre valore stabile l'AI deve accedere a dati interni, ruoli, permessi, sistemi legacy, workflow, policy operative. A quel punto la conversazione visibile deve essere collegata all'infrastruttura invisibile. L'assistente non può limitarsi a generare testo, ma deve interrogare database, aggiornare sistemi e attivare procedure.

L'AI visibile è la narrativa, ha dato a tutti una grammatica comune per parlare di AI. Prima si parlava di machine learning, computer vision, NLP, predictive analytics . Ora, con i chatbot, l'AI è diventata comprensibile anche al management non tecnico, il prompt è la metafora universale dell'interazione uomo-macchina. Questa semplificazione culturale rende interessanti e acquisibili sistemi molto più complessi come agenti, workflow automatizzati, piattaforme dati, ontologie operative.

Il linguaggio del visibile rende vendibile l'invisibile e produce legittimazione. Quando milioni di persone usano strumenti generativi nella vita quotidiana, l'adozione aziendale appare meno rischiosa e più inevitabile.

L'evoluzione verso sistemi agentici rende ancora più sfumata la separazione tra AI visibile e invisibile. Gli agenti AI non si limitano a generare contenuti, ma eseguono operazioni, coordinano workflow, interrogano sistemi esterni e prendono micro-decisioni operative. In questo scenario l'interfaccia conversazionale diventa solo il livello superficiale di sistemi che agiscono direttamente sull'infrastruttura organizzativa.

Una governance matura dell'AI non può limitarsi alla superficie conversazionale dei modelli generativi. Deve interrogare l'intera catena che va dall'interfaccia alla decisione, dal prompt all'azione, dal modello al dato, dal dato all'ontologia, dall'ontologia al workflow, dal workflow all'impatto sociale. Senza questo spostamento dello sguardo, continueremo a regolare soprattutto l'AI che parla, mentre l'AI che decide resterà ai margini della visibilità democratica.

Forse è tempo di allargare i nostri orizzonti, o meglio cominciare ad interessarci della parte sommersa dell'iceberg, perche’ il cavallo di Troia dell’AI è sempre maliziosamente affascinante anche se pieno di dati e non piu’ di soldati.

venerdì 8 maggio 2026

Il Leone e la Gazzella… in Silicon Valley

 

C’è un vecchio proverbio africano che sembra dire tutto sulla competizione, ma non dice mai chi realmente vince. È immediato, facile e crea fiducia perche’ è semplice e poi nessuno osa mettere in dubbio un proverbio africano.

Eccolo: “Ogni mattina in Africa, come sorge il sole, una gazzella si sveglia e sa che dovrà correre più del leone o verrà uccisa. Ogni mattina in Africa, come sorge il sole, un leone si sveglia e sa che dovrà correre più della gazzella o morirà di fame. Ogni mattina in Africa, come sorge il sole, non importa che tu sia leone o gazzella, l'importante è che cominci a correre”.

Affascina per le mille interpretazioni ma lascia un po' perplessi perché tratta di sopravvivenza e non di vita. E poi scegliere tra leone e gazzella comporta un bivio stereotipato, una scelta tra due identità dichiarate. Il rischio è quello di scegliere ogni volta di essere ciò che sei sempre stato. E istintivamente ognuno di noi, a voce almeno, sceglie di essere leone.

Tutto bene. Finché non arrivi in Silicon Valley, dove sembra che quel proverbio sia diventato regola di strategia e di sopravvivenza quotidiana. La dove il ruolo di leone o gazzella si decide ogni mattina.

Qui la savana si chiama Silicon Valley, il mondo delle piattaforme AI. Una savana popolata di GPU e di modelli linguistici, valutazioni miliardarie, round di investimento che si moltiplicano ad ogni annuncio.  E le regole sembrano le stesse di sempre: o corri o non prendi i soldi. Il ciclo mediatico è solo il campo da caccia.

Due tra i protagonisti si chiamano Sam Altman e Dario Amodei. Guidano le due aziende AI più discusse del pianeta e ogni mattina si svegliano sapendo che devono dire qualcosa e qualcosa di grande, possibilmente prima dell'altro. Perché qui la savana è subdola, il territorio non ha tracce o sentieri e la corsa non conosce una meta.

I loro stili sono opposti, quasi costruiti apposta per sembrarlo. Altman è il profeta dell’entusiasmo e della potenza, oltre la spavalderia. L’AGI è sempre dietro l’angolo, i server risorse infinite, ogni rilascio delle sue piattaforme una rivoluzione definitiva. A seconda del momento però l’AGI è anche più lontana e difficile di quanto previsto. Le risorse infinite si scontrano con limiti energetici e infrastrutturali. La sicurezza è dichiarata prioritaria, ma il ritmo dei rilasci non rallenta mai. Aperto quando serve attrarre il mondo, chiuso quando serve difendere il vantaggio.

Mai un dubbio, mai un ripensamento, pur nella incoerenza della narrazione. Sempre avanti senza nessun imbarazzo, ma con variazioni da lasciare spazio alla narrativa successiva.

Amodei invece scrive saggi, anche lunghi, molto lunghi, il suo ultimo conta ventimila parole. Il tono e l’atteggiamento è quello del vecchio saggio che avverte l'umanità dei pericoli dell'umanità stessa. Quasi gigionesco nella sua riluttanza, ma fiero dell’eleganza delle sue soluzioni. 

Stili diversissimi, stesso obiettivo: arrivare ogni giorno alla fine dell’arcobaleno, dove c’è la pentola con le monete d’oro. 

Qualche settimana fa Anthropic ha pubblicato uno studio sul cambiamento del mercato del lavoro. Con due tabelle che hanno fatto il giro di internet. La prima con l’elenco dei lavori più esposti: programmatori, customer service, data entry. La seconda quelli che apparentemente non avranno impatti devastanti nel breve periodo: cuochi, meccanici di moto, bagnini, baristi, lavapiatti. Il report misura l'esposizione reale, non quella teorica. 

Dopo lo shock e la sorpresa degli elenchi, lo studio ammette che il divario tra teorico e reale è ancora molo ampio. Per fare un esempio in casa, si dice che Claude potrebbe fare la grande maggioranza delle attività di coding, ma attualmente ne copre solo una parte. I dati dello studio di Anthropic mostrano anche che, al momento, la tecnologia sta per lo più affiancando i lavoratori, non sostituendoli.

Politica di Amodei: dati seri, metodologia solida, comunicazione responsabile.

Peccato che lo stesso CEO, mesi prima, aveva prefigurato, nelle solite ventimila parole, scenari di disoccupazione su larga scala, quasi da Grande Depressione. Prima il terrore, poi le tabelle che lo ridimensionano, un approccio narrativo di rara eleganza: Amodei costruisce l'ansia, poi arriva con gli strumenti per misurarla. Come un leone che prima spaventa la preda e poi le vende un posto sicuro dove nascondersi.

E allora torniamo alla savana, con una domanda diversa.

Tra i due chi è il leone e chi è la gazzella? 

La risposta ovvia vorrebbe Altman leone rumoroso, aggressivo, sempre in attacco e Amodei gazzella prudente, riflessiva, quasi schiva. 

O magari il contrario: Amodei che detta i temi con la solennità nascondendo la fame come tattica. Altman che deve correre con i prodotti e con gli annunci come fossero gli stivali delle sette leghe.

Ma è proprio qui che la storia si complica, o forse si fa semplicemente più interessante.

Perché la gazzella non è l'AI. L'AI non scappa da nessuna parte, cresce per conto suo, evolve, fa quello che deve fare con o senza i comunicati stampa. 

E non è neppure il leone, perché passo dopo passo cresce senza bisogno di azzannare nessuno.

E’ l'attenzione, in Silicon Valley, la sfida della savana, perché chi la cattura poi la può convertire direttamente in denaro.

Allora il punto è questo: chi annuncia per primo diventa la gazzella. 

Si espone, offre un bersaglio, fissa il terreno su cui l'altro può manovrare. Altman annuncia l'AGI? Amodei pubblica le tabelle e si prende il ruolo del realista. Amodei evoca la Grande Depressione tecnologica? Altman rilancia con il modello che risolverà tutto. 

La gazzella apre, il leone risponde, ma poi i ruoli si invertono, e il giorno dopo si ricomincia. Perché nella savana classica il leone sa sempre di essere il leone. Nella savana della Silicon Valley, ogni mattina, chiunque si svegli deve sempre scoprirlo.

Non ci sono leoni fissi in questa savana. Ci sono solo persone che si svegliano ogni mattina senza sapere ancora quale animale saranno, ma sapendo con certezza che devono correre. E dichiarando, a voce almeno, di essere leoni, o perlomeno cercando di crederci.

Postscriptum: nel tempo in cui leggete questo post è probabile che almeno uno dei due si sia già messo a correre, mentre l’altro con ansia e sorpresa si sta allacciando con foga le scarpe.


martedì 28 aprile 2026

Token Budget 2.0

Mi chiedo spesso cosa spinga i grandi Guru dell’AI, i multimiliardari che guidano le aziende più potenti del pianeta, a rilasciare dichiarazioni e interviste con una frequenza quasi quotidiana. Podcast, conferenze, keynote, panel, salotti televisivi, apparizioni pubbliche di ogni tipo. Una presenza costante che contrasta in modo curioso con la narrazione che amano fare di sé stessi, uomini interamente assorbiti dal lavoro, impegnati sette giorni su sette, dodici o quattordici ore al giorno, interamente votati alla costruzione del futuro.

Quello che colpisce non è tanto l’annuncio di nuove funzionalità, di sistemi sempre più intelligenti e dell’AGI dietro l'angolo.  Ma la loro dedizione a formulare scenari sociali, a prefigurare mondi possibili, a descrivere traiettorie inevitabili di un domani che, peraltro, cambia ogni settimana e da tempo dimostra di essere molto meno governabile e prevedibile di quanto loro cerchino di farci credere.

In una delle ultime dichiarazioni, Jensen Huang CEO di NVIDIA, al GTC 2026 ha voluto sorprendere con la sua tipica umile saggezza con una teoria che merita attenzione. Secondo Jensen se si assegna agli ingegneri un “token budget”, cioè un plafond di accesso ai modelli AI, questi (gli ingegneri) diventano più produttivi. Il suo suggerimento, per farla semplice, è di ampliare il pacchetto di assunzione, non solo con benefit tradizionali, ma anche con una quota di capacità computazionale personale, per far felice il dipendente che avrà a disposizione strumenti per lavorare meglio, ovvero essere più efficiente.

Ma se un ingegnere, grazie a quegli strumenti, produce il doppio, riduce i tempi, accelera i processi e aumenta la qualità dell’output, chi è che beneficia realmente di quel salto di produttività? Il lavoratore, che forse termina prima il proprio compito, oppure l’azienda, che ottiene più valore dalla stessa persona, nello stesso tempo, con lo stesso stipendio?

Ma i token sono un benefit o uno strumento di lavoro?

Il trapano non è welfare, è mezzo di produzione. Una cazzuola migliore non è una forma di partecipazione agli utili. Uno strumento che incrementa la produttività è, prima di tutto, un investimento dell’impresa, anzi quasi un dovere a favore del proprio business.

Ma con l’AI tutto cambia, o meglio con l’AI tutto si può giustificare, anche trasformare ciò che serve all’azienda in ciò che viene concesso al dipendente. Non ti aumento lo stipendio, ma ti assegno un plafond, non ti riconosco una quota del maggior valore creato, ma ti concedo con generosità accesso a risorse che userai per crearne ancora di più. Converto salario in permesso d’uso degli strumenti, guadagni di meno, ma fatichi di meno.

Il paradosso è che l’idea, in sé, non sarebbe nemmeno sbagliata. Semplicemente è applicata al soggetto meno interessante e meno interessato.

Per uno studente brillante un budget AI può valere molto più di un piccolo contributo monetario. Per una startup in fase iniziale, mille euro di capacità computazionale possono essere più utili del pari valore in finanziamento.

In tutti questi casi, il valore percepito da chi riceve è altissimo, mentre il costo è relativamente marginale per chi eroga il servizio. Sarebbe una forma intelligente di sostegno al talento, all’innovazione diffusa, alla mobilità tecnologica.

Ma questa ipotesi, naturalmente, è molto meno scenografica del raccontare il token budget come nuovo benefit executive per knowledge worker già assunti e perfettamente integrati nel sistema.

Ma fermiamoci un attimo e facciamo un salto indietro nel tempo, corsi e ricorsi storici si ripresentano.

Fine anni Settanta, secolo scorso, un altro mondo. Io studente di informatica, curioso, tanta voglia di scoprire, di sperimentare, di imparare facendo.

Con il mio pacco di schede perforate ingombrante e pesante, tenuto insieme da un elastico, con la paura che si aprisse, per non dover mettere di nuovo in sequenza centinaia di schede. Dentro quelle scatole di cartone c’erano programmi scritti in FORTRAN IV, non prompt nè agenti conversazionali, ma semplici programmi, formule e istruzioni.

E sempre alla ricerca di un ente, un centro di calcolo, un professore disponibile, ma soprattutto di un dipartimento o un corso che mi consentisse di usare per qualche minuto il mainframe. Ciò che oggi chiamiamo “compute”, allora si chiamava “tempo macchina”, e non era né abbondante né gratuito, anzi una risorsa preziosissima e poco disponibile per chi studiava.

Il debug era un lusso, non esisteva l’idea del “provo, vedo cosa succede e poi correggo”. Si ragionava sull’algoritmo, si verificavano le istruzioni, si ricontrollavano i dati e le relative strutture, si cercavano errori di sintassi con attenzione quasi artigianale. E solo dopo si perforavano le schede, si preparava il mazzo e lo si consegnava agli operatori con il camice bianco.

E dopo una attesa di qualche ora arrivava il listing su carta continua, con quell’odore inconfondibile di inchiostro e cellulosa riscaldata. Talvolta il responso consisteva in una sola riga crudele: “Syntax Error” alla scheda XXX". Altre volte il job era terminato in errore ancora prima di cominciare “ABEND” (lo ricordo ancora)

Così come ricordo bene quelle righe iniziali di controllo, quasi formule liturgiche di un’epoca tecnica:

Contenuto dell’articolo

Il GO.SYSIN DD era come il ciak del cinema e quell’X4Y76 il codice di addebito del tempo di CPU (quello prezioso, centellinato)

Siamo tornati lì, al costo computazionale erogato come gesto di generosità.

E’ divertente questo presente dove ci viene raccontato come frontiera innovativa il ritorno di un principio molto antico: consumo misurato, accesso contingentato, produttività contabilizzata a gettone.

Nel 1978 l’errore di una virgola costava tempo macchina, nel 2026 l’errore di un prompt costa token. Passa il tempo, cambiano i termini, ma resta il contatore.

Se un’azienda degli anni Ottanta avesse detto a un candidato: “La nostra offerta prevede stipendio competitivo e 1.200 secondi di CPU al mese”, sarebbe sembrata una caricatura. Oggi si può proporre un pacchetto composto da RAL, bonus e milioni di token, e la cosa viene presentata come innovazione manageriale.

La verità è probabilmente più semplice e meno epica. Ogni epoca inventa il lessico con cui rende desiderabile, quasi un privilegio quello che in realtà è uno strumento di lavoro. Utile per chi lo utilizza ma di estremo valore per chi lo concede.

Ho passato la giovinezza a cercare minuti di CPU per imparare qualcosa. Non immaginavo che mezzo secolo dopo la “token economy” avrebbe riesumato la mia vecchia “CPUtime economy” arricchendola di quel fascino da far dimenticare la RAL.

What’s next?

giovedì 26 marzo 2026

Nuova enciclopedia o pappagallo stocastico?

 















Ci scrive un amico noto al grande pubblico, una di quelle persone che hanno una pagina importante su Wikipedia.

Stupefatto e divertito nello scoprire che nella nuova enciclopedia online, Grokipedia, la sua biografia è molto più ricca. Più dettagli, più aneddoti, più sicurezza narrativa.

Grokipedia è la nuova enciclopedia online basata su intelligenza artificiale generativa sviluppata da xAi, la società di Elon Musk. Nata con un obiettivo dichiarato, ovvero contrastare il predominio di Wikipedia, accusata dai suoi critici di essere un canale di comunicazione Woke, gestito da attivisti ideologicamente schierati e quindi non neutrali. 

Peraltro di Grokipedia se ne parla ancora poco, nonostante sia da alcuni mesi disponibile online con milioni di voci in continuo aggiornamento.

Probabilmente ciò che infastidisce maggiormente i creatori di Grokipedia non è solo l’esistenza di Wikipedia, ma il fatto che compaia quasi sempre al primo posto nelle ricerche di Google, diventando di fatto una delle principali fonti per l’addestramento dei principali modelli di intelligenza artificiale. 

Senza entrare brutalmente nell’arena della discussione politica, è certo che i due approcci si prestano ad una analisi interessante e in alcuni casi anche curiosa. Wikipedia è una organizzazione non profit, che costruisce conoscenze partendo dal basso, mentre Grokipedia è proprietà di xAI, di cui tutto si può dire, tranne che sia neutrale e super partes.

La differenza non è solo proprietaria, ma strutturale.

Il punto cruciale è che Grokipedia si basa su principi parassitari. Non parte dal contributo umano diretto, ma dall’analisi massiva di contenuti preesistenti: articoli, database, siti web, forum. I contenuti sono generati da Grok, il modello di intelligenza artificiale, e i risultati non possono essere verificati o ispezionati nel loro processo di formazione, anche se spesso vengono riportate le fonti “spazzolate” per la produzione dei testi. Insomma, una sintesi probabilista del sapere disponibile. Una neutralità statistica dove la media pesata delle fonti non è necessariamente una verità. 

Non esistono regole nella selezione delle fonti e il risultato è più quello che l’utente vuole ritrovarsi che quello che forse oggettivamente e su basi scientifiche e accademiche dovrebbe essere.

Wikipedia costruisce la neutralità attraverso il conflitto e la negoziazione, dove ogni contributo nasce dalla collaborazione anonima e volontaria. Dove ogni fatto è messo in discussione e ogni modifica è tracciabile in una cronologia pubblica che permette di ricostruire il processo dialettico della voce. Forse un sapere imperfetto, a volte frammentario ma dannatamente trasparente. Non assolutamente neutrale, ma nel massimo sforzo per esserlo.

Wikipedia è lenta, le voci più controverse mostrano spesso le dinamiche del dibattito umano: guerre di editing, compromessi semantici, note di avviso. Wikipedia non finge neutralità assoluta: la costruisce, faticosamente, attraverso il confronto.

E la sua lentezza è anche una forma di prudenza, dove la conoscenza viene sedimentata e non “sparata”. Anni di lavoro collettivo, riferimenti incrociati, note storiche. Ma anche disomogeneità, i temi popolari sono molto discussi, argomenti di nicchia a volte trattati superficialmente.

Grokipedia al contrario è veloce e l’aggiornamento è continuo, con la coerenza stilistica, e la capacità di collegare domini lontani. Può produrre una voce completa in pochi secondi, adattarla a diversi livelli di complessità, aggiornarla automaticamente quando il web cambia.

Il confronto tra Wikipedia e Grokipedia non è solo tecnologico. È epistemologico, politico e culturale. Riguarda chi produce la conoscenza, come viene validata e quale rapporto instauriamo con l’autorità del sapere.

La questione dell'affidabilità assume dimensioni diverse nei due casi. Wikipedia è fallibile, puo’ contenere errori, bias ideologici, vandalismi non ancora corretti. Ma questi difetti sono trasparenti e correggibili. Ogni lettore può verificare le fonti, consultare la cronologia, partecipare alla discussione. Grokipedia può sembrare più affidabile per la sua fluidità espositiva, ma l'AI può 'allucinare' informazioni, mischiare fonti inattendibili con quelle autorevoli, perpetuare bias presenti nei dati di addestramento senza che sia possibile individuarli.

Il punto non è decidere quale sistema “vincerà”. È capire se stiamo passando da una conoscenza negoziata a una conoscenza sintetizzata. Wikipedia incarna il sapere come processo sociale, conflittuale, imperfetto, ma fondamentalmente democratico. Grokipedia incarna il sapere come funzione computazionale, efficiente, coerente, ma opaca.

Dal metodo scientifico al sapere stocastico.

E poi scopriamo, peraltro senza alcuna sorpresa, che molti dei contenuti di Grokipedia derivano in larga parte proprio da Wikipedia. 

Un pappagallo stocastico che, nato per criticare un sistema, finisce inevitabilmente per nutrirsi dello stesso materiale che contesta.

La storia della tecnologia è costellata di confronti tra approcci radicalmente diversi ma con lo stesso fine.

Linux contro Windows, con il suo codice aperto costruito collettivamente, con ogni modifica analizzata, tracciata e condivisa. 

Windows un ambiente chiuso, inaccessibile. Un prodotto finito, ottimizzato per l’usabilità ma a volte opaco e poco trasparente sui suoi meccanismi interni.

iOS contro Android. Ecosistema chiuso e controllato contro piattaforma più aperta e modulare.

Grokipedia è forse il windows o l’IOS delle enciclopedie online? 

E Wikipedia il Linux e l’Android.?

Le analogie sono suggestive ma a differenza di Linux o Android, Wikipedia non è solo "aperta” nel codice, ma anche nel processo di costruzione del contenuto. È un esperimento sociale prima ancora che tecnologico.

O forse il futuro sarà una convergenza dove la costruzione democratica del sapere si potrebbe arricchire della potenza dell’AI per colmare alcune lacune e chiudere in un angolo il puro Pappagallo stocastico?

Wikipedia ci ha mostrato che è possibile costruire sapere collettivamente, uno “human learning” di antico stampo, fatto di confronto e revisione continua.

Grokipedia puro “macchine learning”, potente e veloce, ma ancora strumento, lontano da una propria identità di attore autonomo.

Il rischio non è la velocità, è dimenticare come si costruisce il sapere.