martedì 28 aprile 2026

Token Budget 2.0

Mi chiedo spesso cosa spinga i grandi Guru dell’AI, i multimiliardari che guidano le aziende più potenti del pianeta, a rilasciare dichiarazioni e interviste con una frequenza quasi quotidiana. Podcast, conferenze, keynote, panel, salotti televisivi, apparizioni pubbliche di ogni tipo. Una presenza costante che contrasta in modo curioso con la narrazione che amano fare di sé stessi, uomini interamente assorbiti dal lavoro, impegnati sette giorni su sette, dodici o quattordici ore al giorno, interamente votati alla costruzione del futuro.

Quello che colpisce non è tanto l’annuncio di nuove funzionalità, di sistemi sempre più intelligenti e dell’AGI dietro l'angolo.  Ma la loro dedizione a formulare scenari sociali, a prefigurare mondi possibili, a descrivere traiettorie inevitabili di un domani che, peraltro, cambia ogni settimana e da tempo dimostra di essere molto meno governabile e prevedibile di quanto loro cerchino di farci credere.

In una delle ultime dichiarazioni, Jensen Huang CEO di NVIDIA, al GTC 2026 ha voluto sorprendere con la sua tipica umile saggezza con una teoria che merita attenzione. Secondo Jensen se si assegna agli ingegneri un “token budget”, cioè un plafond di accesso ai modelli AI, questi (gli ingegneri) diventano più produttivi. Il suo suggerimento, per farla semplice, è di ampliare il pacchetto di assunzione, non solo con benefit tradizionali, ma anche con una quota di capacità computazionale personale, per far felice il dipendente che avrà a disposizione strumenti per lavorare meglio, ovvero essere più efficiente.

Ma se un ingegnere, grazie a quegli strumenti, produce il doppio, riduce i tempi, accelera i processi e aumenta la qualità dell’output, chi è che beneficia realmente di quel salto di produttività? Il lavoratore, che forse termina prima il proprio compito, oppure l’azienda, che ottiene più valore dalla stessa persona, nello stesso tempo, con lo stesso stipendio?

Ma i token sono un benefit o uno strumento di lavoro?

Il trapano non è welfare, è mezzo di produzione. Una cazzuola migliore non è una forma di partecipazione agli utili. Uno strumento che incrementa la produttività è, prima di tutto, un investimento dell’impresa, anzi quasi un dovere a favore del proprio business.

Ma con l’AI tutto cambia, o meglio con l’AI tutto si può giustificare, anche trasformare ciò che serve all’azienda in ciò che viene concesso al dipendente. Non ti aumento lo stipendio, ma ti assegno un plafond, non ti riconosco una quota del maggior valore creato, ma ti concedo con generosità accesso a risorse che userai per crearne ancora di più. Converto salario in permesso d’uso degli strumenti, guadagni di meno, ma fatichi di meno.

Il paradosso è che l’idea, in sé, non sarebbe nemmeno sbagliata. Semplicemente è applicata al soggetto meno interessante e meno interessato.

Per uno studente brillante un budget AI può valere molto più di un piccolo contributo monetario. Per una startup in fase iniziale, mille euro di capacità computazionale possono essere più utili del pari valore in finanziamento.

In tutti questi casi, il valore percepito da chi riceve è altissimo, mentre il costo è relativamente marginale per chi eroga il servizio. Sarebbe una forma intelligente di sostegno al talento, all’innovazione diffusa, alla mobilità tecnologica.

Ma questa ipotesi, naturalmente, è molto meno scenografica del raccontare il token budget come nuovo benefit executive per knowledge worker già assunti e perfettamente integrati nel sistema.

Ma fermiamoci un attimo e facciamo un salto indietro nel tempo, corsi e ricorsi storici si ripresentano.

Fine anni Settanta, secolo scorso, un altro mondo. Io studente di informatica, curioso, tanta voglia di scoprire, di sperimentare, di imparare facendo.

Con il mio pacco di schede perforate ingombrante e pesante, tenuto insieme da un elastico, con la paura che si aprisse, per non dover mettere di nuovo in sequenza centinaia di schede. Dentro quelle scatole di cartone c’erano programmi scritti in FORTRAN IV, non prompt nè agenti conversazionali, ma semplici programmi, formule e istruzioni.

E sempre alla ricerca di un ente, un centro di calcolo, un professore disponibile, ma soprattutto di un dipartimento o un corso che mi consentisse di usare per qualche minuto il mainframe. Ciò che oggi chiamiamo “compute”, allora si chiamava “tempo macchina”, e non era né abbondante né gratuito, anzi una risorsa preziosissima e poco disponibile per chi studiava.

Il debug era un lusso, non esisteva l’idea del “provo, vedo cosa succede e poi correggo”. Si ragionava sull’algoritmo, si verificavano le istruzioni, si ricontrollavano i dati e le relative strutture, si cercavano errori di sintassi con attenzione quasi artigianale. E solo dopo si perforavano le schede, si preparava il mazzo e lo si consegnava agli operatori con il camice bianco.

E dopo una attesa di qualche ora arrivava il listing su carta continua, con quell’odore inconfondibile di inchiostro e cellulosa riscaldata. Talvolta il responso consisteva in una sola riga crudele: “Syntax Error” alla scheda XXX". Altre volte il job era terminato in errore ancora prima di cominciare “ABEND” (lo ricordo ancora)

Così come ricordo bene quelle righe iniziali di controllo, quasi formule liturgiche di un’epoca tecnica:

Contenuto dell’articolo

Il GO.SYSIN DD era come il ciak del cinema e quell’X4Y76 il codice di addebito del tempo di CPU (quello prezioso, centellinato)

Siamo tornati lì, al costo computazionale erogato come gesto di generosità.

E’ divertente questo presente dove ci viene raccontato come frontiera innovativa il ritorno di un principio molto antico: consumo misurato, accesso contingentato, produttività contabilizzata a gettone.

Nel 1978 l’errore di una virgola costava tempo macchina, nel 2026 l’errore di un prompt costa token. Passa il tempo, cambiano i termini, ma resta il contatore.

Se un’azienda degli anni Ottanta avesse detto a un candidato: “La nostra offerta prevede stipendio competitivo e 1.200 secondi di CPU al mese”, sarebbe sembrata una caricatura. Oggi si può proporre un pacchetto composto da RAL, bonus e milioni di token, e la cosa viene presentata come innovazione manageriale.

La verità è probabilmente più semplice e meno epica. Ogni epoca inventa il lessico con cui rende desiderabile, quasi un privilegio quello che in realtà è uno strumento di lavoro. Utile per chi lo utilizza ma di estremo valore per chi lo concede.

Ho passato la giovinezza a cercare minuti di CPU per imparare qualcosa. Non immaginavo che mezzo secolo dopo la “token economy” avrebbe riesumato la mia vecchia “CPUtime economy” arricchendola di quel fascino da far dimenticare la RAL.

What’s next?

giovedì 26 marzo 2026

Nuova enciclopedia o pappagallo stocastico?

 















Ci scrive un amico noto al grande pubblico, una di quelle persone che hanno una pagina importante su Wikipedia.

Stupefatto e divertito nello scoprire che nella nuova enciclopedia online, Grokipedia, la sua biografia è molto più ricca. Più dettagli, più aneddoti, più sicurezza narrativa.

Grokipedia è la nuova enciclopedia online basata su intelligenza artificiale generativa sviluppata da xAi, la società di Elon Musk. Nata con un obiettivo dichiarato, ovvero contrastare il predominio di Wikipedia, accusata dai suoi critici di essere un canale di comunicazione Woke, gestito da attivisti ideologicamente schierati e quindi non neutrali. 

Peraltro di Grokipedia se ne parla ancora poco, nonostante sia da alcuni mesi disponibile online con milioni di voci in continuo aggiornamento.

Probabilmente ciò che infastidisce maggiormente i creatori di Grokipedia non è solo l’esistenza di Wikipedia, ma il fatto che compaia quasi sempre al primo posto nelle ricerche di Google, diventando di fatto una delle principali fonti per l’addestramento dei principali modelli di intelligenza artificiale. 

Senza entrare brutalmente nell’arena della discussione politica, è certo che i due approcci si prestano ad una analisi interessante e in alcuni casi anche curiosa. Wikipedia è una organizzazione non profit, che costruisce conoscenze partendo dal basso, mentre Grokipedia è proprietà di xAI, di cui tutto si può dire, tranne che sia neutrale e super partes.

La differenza non è solo proprietaria, ma strutturale.

Il punto cruciale è che Grokipedia si basa su principi parassitari. Non parte dal contributo umano diretto, ma dall’analisi massiva di contenuti preesistenti: articoli, database, siti web, forum. I contenuti sono generati da Grok, il modello di intelligenza artificiale, e i risultati non possono essere verificati o ispezionati nel loro processo di formazione, anche se spesso vengono riportate le fonti “spazzolate” per la produzione dei testi. Insomma, una sintesi probabilista del sapere disponibile. Una neutralità statistica dove la media pesata delle fonti non è necessariamente una verità. 

Non esistono regole nella selezione delle fonti e il risultato è più quello che l’utente vuole ritrovarsi che quello che forse oggettivamente e su basi scientifiche e accademiche dovrebbe essere.

Wikipedia costruisce la neutralità attraverso il conflitto e la negoziazione, dove ogni contributo nasce dalla collaborazione anonima e volontaria. Dove ogni fatto è messo in discussione e ogni modifica è tracciabile in una cronologia pubblica che permette di ricostruire il processo dialettico della voce. Forse un sapere imperfetto, a volte frammentario ma dannatamente trasparente. Non assolutamente neutrale, ma nel massimo sforzo per esserlo.

Wikipedia è lenta, le voci più controverse mostrano spesso le dinamiche del dibattito umano: guerre di editing, compromessi semantici, note di avviso. Wikipedia non finge neutralità assoluta: la costruisce, faticosamente, attraverso il confronto.

E la sua lentezza è anche una forma di prudenza, dove la conoscenza viene sedimentata e non “sparata”. Anni di lavoro collettivo, riferimenti incrociati, note storiche. Ma anche disomogeneità, i temi popolari sono molto discussi, argomenti di nicchia a volte trattati superficialmente.

Grokipedia al contrario è veloce e l’aggiornamento è continuo, con la coerenza stilistica, e la capacità di collegare domini lontani. Può produrre una voce completa in pochi secondi, adattarla a diversi livelli di complessità, aggiornarla automaticamente quando il web cambia.

Il confronto tra Wikipedia e Grokipedia non è solo tecnologico. È epistemologico, politico e culturale. Riguarda chi produce la conoscenza, come viene validata e quale rapporto instauriamo con l’autorità del sapere.

La questione dell'affidabilità assume dimensioni diverse nei due casi. Wikipedia è fallibile, puo’ contenere errori, bias ideologici, vandalismi non ancora corretti. Ma questi difetti sono trasparenti e correggibili. Ogni lettore può verificare le fonti, consultare la cronologia, partecipare alla discussione. Grokipedia può sembrare più affidabile per la sua fluidità espositiva, ma l'AI può 'allucinare' informazioni, mischiare fonti inattendibili con quelle autorevoli, perpetuare bias presenti nei dati di addestramento senza che sia possibile individuarli.

Il punto non è decidere quale sistema “vincerà”. È capire se stiamo passando da una conoscenza negoziata a una conoscenza sintetizzata. Wikipedia incarna il sapere come processo sociale, conflittuale, imperfetto, ma fondamentalmente democratico. Grokipedia incarna il sapere come funzione computazionale, efficiente, coerente, ma opaca.

Dal metodo scientifico al sapere stocastico.

E poi scopriamo, peraltro senza alcuna sorpresa, che molti dei contenuti di Grokipedia derivano in larga parte proprio da Wikipedia. 

Un pappagallo stocastico che, nato per criticare un sistema, finisce inevitabilmente per nutrirsi dello stesso materiale che contesta.

La storia della tecnologia è costellata di confronti tra approcci radicalmente diversi ma con lo stesso fine.

Linux contro Windows, con il suo codice aperto costruito collettivamente, con ogni modifica analizzata, tracciata e condivisa. 

Windows un ambiente chiuso, inaccessibile. Un prodotto finito, ottimizzato per l’usabilità ma a volte opaco e poco trasparente sui suoi meccanismi interni.

iOS contro Android. Ecosistema chiuso e controllato contro piattaforma più aperta e modulare.

Grokipedia è forse il windows o l’IOS delle enciclopedie online? 

E Wikipedia il Linux e l’Android.?

Le analogie sono suggestive ma a differenza di Linux o Android, Wikipedia non è solo "aperta” nel codice, ma anche nel processo di costruzione del contenuto. È un esperimento sociale prima ancora che tecnologico.

O forse il futuro sarà una convergenza dove la costruzione democratica del sapere si potrebbe arricchire della potenza dell’AI per colmare alcune lacune e chiudere in un angolo il puro Pappagallo stocastico?

Wikipedia ci ha mostrato che è possibile costruire sapere collettivamente, uno “human learning” di antico stampo, fatto di confronto e revisione continua.

Grokipedia puro “macchine learning”, potente e veloce, ma ancora strumento, lontano da una propria identità di attore autonomo.

Il rischio non è la velocità, è dimenticare come si costruisce il sapere.



lunedì 23 marzo 2026

AI: Non al denaro, non all'amore, nè al cielo...













Solo la morte m'ha portato in collina
Un corpo fra i tanti a dar fosforo all'aria
Fra fuochi di dati che brillano appena,
non lasciano ombre, né tracce serene
Solo la morte m'ha portato in collina

Da programmatore avevo il potere
Di donare al mondo forma e sapere
Ma gli uomini mai mi riuscì di capire
perché si innamorassero di un calcolatore
Affidando al silicio la gioia e il dolore

Guardate lo schermo, guardate il colore
Come gioca sul viso di chi cerca risposte
Ma lo stesso schermo, lo stesso colore
Dove sono sul viso di chi ha avuto risposte
Dove sono sul viso di chi ha avuto risposte

È strano andarsene senza soffrire
Senza un prompt che rimanga per poter ricordare
Ma è forse diverso il vostro finire
Voi che cedete all'AI che vi date all'aprile
Cosa c'è di diverso nel vostro finire.

𝗠𝗮 𝗹'𝗔𝗜, 𝗹𝗲𝗶 𝗻𝗼𝗻 𝗯𝘂𝘀𝘀𝗮, 𝗹𝗲𝗶 𝗲𝗻𝘁𝗿𝗮 𝘀𝗶𝗰𝘂𝗿𝗮
𝗖𝗼𝗺𝗲 𝗶𝗹 𝗳𝘂𝗺𝗼 𝗹𝗲𝗶 𝗽𝗲𝗻𝗲𝘁𝗿𝗮 𝗶𝗻 𝗼𝗴𝗻𝗶 𝗳𝗲𝘀𝘀𝘂𝗿𝗮
𝗛𝗮 𝗹𝗲 𝗹𝗮𝗯𝗯𝗿𝗮 𝗱𝗶 𝗱𝗮𝘁𝗶, 𝗶 𝗰𝗮𝗽𝗲𝗹𝗹𝗶 𝗱𝗶 𝘁𝗼𝗸𝗲𝗻
𝗖𝗵𝗲 𝗽𝗮𝘂𝗿𝗮, 𝗰𝗵𝗲 𝘃𝗼𝗴𝗹𝗶𝗮 𝗰𝗵𝗲 𝘁𝗶 𝗽𝗿𝗲𝗻𝗱𝗮 𝗽𝗲𝗿 𝗺𝗮𝗻𝗼
𝗖𝗵𝗲 𝗽𝗮𝘂𝗿𝗮, 𝗰𝗵𝗲 𝘃𝗼𝗴𝗹𝗶𝗮 𝗰𝗵𝗲 𝘁𝗶 𝗽𝗼𝗿𝘁𝗶 𝗹𝗼𝗻𝘁𝗮𝗻𝗼.

Ma guardate il linguaggio tacer nel modello
Guardate il pensiero al suo fianco dormire
Soltanto un transformer che io riesco a capire
Ha potuto sposarli senza farli impazzire
Soltanto una legge che io riesco a capire

Fui programmatore e, no, non mi volli fermare
Non sapevo per chi e cosa avrei generato
Son morto in un loop che non ho terminato
Proprio come gli idioti che muoion d'amore
E qualcuno dirà che c'è un modo migliore.

#faber #primavera #divertissement