venerdì 8 maggio 2026

Il Leone e la Gazzella… in Silicon Valley

 

C’è un vecchio proverbio africano che sembra dire tutto sulla competizione, ma non dice mai chi realmente vince. È immediato, facile e crea fiducia perche’ è semplice e poi nessuno osa mettere in dubbio un proverbio africano.

Eccolo: “Ogni mattina in Africa, come sorge il sole, una gazzella si sveglia e sa che dovrà correre più del leone o verrà uccisa. Ogni mattina in Africa, come sorge il sole, un leone si sveglia e sa che dovrà correre più della gazzella o morirà di fame. Ogni mattina in Africa, come sorge il sole, non importa che tu sia leone o gazzella, l'importante è che cominci a correre”.

Affascina per le mille interpretazioni ma lascia un po' perplessi perché tratta di sopravvivenza e non di vita. E poi scegliere tra leone e gazzella comporta un bivio stereotipato, una scelta tra due identità dichiarate. Il rischio è quello di scegliere ogni volta di essere ciò che sei sempre stato. E istintivamente ognuno di noi, a voce almeno, sceglie di essere leone.

Tutto bene. Finché non arrivi in Silicon Valley, dove sembra che quel proverbio sia diventato regola di strategia e di sopravvivenza quotidiana. La dove il ruolo di leone o gazzella si decide ogni mattina.

Qui la savana si chiama Silicon Valley, il mondo delle piattaforme AI. Una savana popolata di GPU e di modelli linguistici, valutazioni miliardarie, round di investimento che si moltiplicano ad ogni annuncio.  E le regole sembrano le stesse di sempre: o corri o non prendi i soldi. Il ciclo mediatico è solo il campo da caccia.

Due tra i protagonisti si chiamano Sam Altman e Dario Amodei. Guidano le due aziende AI più discusse del pianeta e ogni mattina si svegliano sapendo che devono dire qualcosa e qualcosa di grande, possibilmente prima dell'altro. Perché qui la savana è subdola, il territorio non ha tracce o sentieri e la corsa non conosce una meta.

I loro stili sono opposti, quasi costruiti apposta per sembrarlo. Altman è il profeta dell’entusiasmo e della potenza, oltre la spavalderia. L’AGI è sempre dietro l’angolo, i server risorse infinite, ogni rilascio delle sue piattaforme una rivoluzione definitiva. A seconda del momento però l’AGI è anche più lontana e difficile di quanto previsto. Le risorse infinite si scontrano con limiti energetici e infrastrutturali. La sicurezza è dichiarata prioritaria, ma il ritmo dei rilasci non rallenta mai. Aperto quando serve attrarre il mondo, chiuso quando serve difendere il vantaggio.

Mai un dubbio, mai un ripensamento, pur nella incoerenza della narrazione. Sempre avanti senza nessun imbarazzo, ma con variazioni da lasciare spazio alla narrativa successiva.

Amodei invece scrive saggi, anche lunghi, molto lunghi, il suo ultimo conta ventimila parole. Il tono e l’atteggiamento è quello del vecchio saggio che avverte l'umanità dei pericoli dell'umanità stessa. Quasi gigionesco nella sua riluttanza, ma fiero dell’eleganza delle sue soluzioni. 

Stili diversissimi, stesso obiettivo: arrivare ogni giorno alla fine dell’arcobaleno, dove c’è la pentola con le monete d’oro. 

Qualche settimana fa Anthropic ha pubblicato uno studio sul cambiamento del mercato del lavoro. Con due tabelle che hanno fatto il giro di internet. La prima con l’elenco dei lavori più esposti: programmatori, customer service, data entry. La seconda quelli che apparentemente non avranno impatti devastanti nel breve periodo: cuochi, meccanici di moto, bagnini, baristi, lavapiatti. Il report misura l'esposizione reale, non quella teorica. 

Dopo lo shock e la sorpresa degli elenchi, lo studio ammette che il divario tra teorico e reale è ancora molo ampio. Per fare un esempio in casa, si dice che Claude potrebbe fare la grande maggioranza delle attività di coding, ma attualmente ne copre solo una parte. I dati dello studio di Anthropic mostrano anche che, al momento, la tecnologia sta per lo più affiancando i lavoratori, non sostituendoli.

Politica di Amodei: dati seri, metodologia solida, comunicazione responsabile.

Peccato che lo stesso CEO, mesi prima, aveva prefigurato, nelle solite ventimila parole, scenari di disoccupazione su larga scala, quasi da Grande Depressione. Prima il terrore, poi le tabelle che lo ridimensionano, un approccio narrativo di rara eleganza: Amodei costruisce l'ansia, poi arriva con gli strumenti per misurarla. Come un leone che prima spaventa la preda e poi le vende un posto sicuro dove nascondersi.

E allora torniamo alla savana, con una domanda diversa.

Tra i due chi è il leone e chi è la gazzella? 

La risposta ovvia vorrebbe Altman leone rumoroso, aggressivo, sempre in attacco e Amodei gazzella prudente, riflessiva, quasi schiva. 

O magari il contrario: Amodei che detta i temi con la solennità nascondendo la fame come tattica. Altman che deve correre con i prodotti e con gli annunci come fossero gli stivali delle sette leghe.

Ma è proprio qui che la storia si complica, o forse si fa semplicemente più interessante.

Perché la gazzella non è l'AI. L'AI non scappa da nessuna parte, cresce per conto suo, evolve, fa quello che deve fare con o senza i comunicati stampa. 

E non è neppure il leone, perché passo dopo passo cresce senza bisogno di azzannare nessuno.

E’ l'attenzione, in Silicon Valley, la sfida della savana, perché chi la cattura poi la può convertire direttamente in denaro.

Allora il punto è questo: chi annuncia per primo diventa la gazzella. 

Si espone, offre un bersaglio, fissa il terreno su cui l'altro può manovrare. Altman annuncia l'AGI? Amodei pubblica le tabelle e si prende il ruolo del realista. Amodei evoca la Grande Depressione tecnologica? Altman rilancia con il modello che risolverà tutto. 

La gazzella apre, il leone risponde, ma poi i ruoli si invertono, e il giorno dopo si ricomincia. Perché nella savana classica il leone sa sempre di essere il leone. Nella savana della Silicon Valley, ogni mattina, chiunque si svegli deve sempre scoprirlo.

Non ci sono leoni fissi in questa savana. Ci sono solo persone che si svegliano ogni mattina senza sapere ancora quale animale saranno, ma sapendo con certezza che devono correre. E dichiarando, a voce almeno, di essere leoni, o perlomeno cercando di crederci.

Postscriptum: nel tempo in cui leggete questo post è probabile che almeno uno dei due si sia già messo a correre, mentre l’altro con ansia e sorpresa si sta allacciando con foga le scarpe.


martedì 28 aprile 2026

Token Budget 2.0

Mi chiedo spesso cosa spinga i grandi Guru dell’AI, i multimiliardari che guidano le aziende più potenti del pianeta, a rilasciare dichiarazioni e interviste con una frequenza quasi quotidiana. Podcast, conferenze, keynote, panel, salotti televisivi, apparizioni pubbliche di ogni tipo. Una presenza costante che contrasta in modo curioso con la narrazione che amano fare di sé stessi, uomini interamente assorbiti dal lavoro, impegnati sette giorni su sette, dodici o quattordici ore al giorno, interamente votati alla costruzione del futuro.

Quello che colpisce non è tanto l’annuncio di nuove funzionalità, di sistemi sempre più intelligenti e dell’AGI dietro l'angolo.  Ma la loro dedizione a formulare scenari sociali, a prefigurare mondi possibili, a descrivere traiettorie inevitabili di un domani che, peraltro, cambia ogni settimana e da tempo dimostra di essere molto meno governabile e prevedibile di quanto loro cerchino di farci credere.

In una delle ultime dichiarazioni, Jensen Huang CEO di NVIDIA, al GTC 2026 ha voluto sorprendere con la sua tipica umile saggezza con una teoria che merita attenzione. Secondo Jensen se si assegna agli ingegneri un “token budget”, cioè un plafond di accesso ai modelli AI, questi (gli ingegneri) diventano più produttivi. Il suo suggerimento, per farla semplice, è di ampliare il pacchetto di assunzione, non solo con benefit tradizionali, ma anche con una quota di capacità computazionale personale, per far felice il dipendente che avrà a disposizione strumenti per lavorare meglio, ovvero essere più efficiente.

Ma se un ingegnere, grazie a quegli strumenti, produce il doppio, riduce i tempi, accelera i processi e aumenta la qualità dell’output, chi è che beneficia realmente di quel salto di produttività? Il lavoratore, che forse termina prima il proprio compito, oppure l’azienda, che ottiene più valore dalla stessa persona, nello stesso tempo, con lo stesso stipendio?

Ma i token sono un benefit o uno strumento di lavoro?

Il trapano non è welfare, è mezzo di produzione. Una cazzuola migliore non è una forma di partecipazione agli utili. Uno strumento che incrementa la produttività è, prima di tutto, un investimento dell’impresa, anzi quasi un dovere a favore del proprio business.

Ma con l’AI tutto cambia, o meglio con l’AI tutto si può giustificare, anche trasformare ciò che serve all’azienda in ciò che viene concesso al dipendente. Non ti aumento lo stipendio, ma ti assegno un plafond, non ti riconosco una quota del maggior valore creato, ma ti concedo con generosità accesso a risorse che userai per crearne ancora di più. Converto salario in permesso d’uso degli strumenti, guadagni di meno, ma fatichi di meno.

Il paradosso è che l’idea, in sé, non sarebbe nemmeno sbagliata. Semplicemente è applicata al soggetto meno interessante e meno interessato.

Per uno studente brillante un budget AI può valere molto più di un piccolo contributo monetario. Per una startup in fase iniziale, mille euro di capacità computazionale possono essere più utili del pari valore in finanziamento.

In tutti questi casi, il valore percepito da chi riceve è altissimo, mentre il costo è relativamente marginale per chi eroga il servizio. Sarebbe una forma intelligente di sostegno al talento, all’innovazione diffusa, alla mobilità tecnologica.

Ma questa ipotesi, naturalmente, è molto meno scenografica del raccontare il token budget come nuovo benefit executive per knowledge worker già assunti e perfettamente integrati nel sistema.

Ma fermiamoci un attimo e facciamo un salto indietro nel tempo, corsi e ricorsi storici si ripresentano.

Fine anni Settanta, secolo scorso, un altro mondo. Io studente di informatica, curioso, tanta voglia di scoprire, di sperimentare, di imparare facendo.

Con il mio pacco di schede perforate ingombrante e pesante, tenuto insieme da un elastico, con la paura che si aprisse, per non dover mettere di nuovo in sequenza centinaia di schede. Dentro quelle scatole di cartone c’erano programmi scritti in FORTRAN IV, non prompt nè agenti conversazionali, ma semplici programmi, formule e istruzioni.

E sempre alla ricerca di un ente, un centro di calcolo, un professore disponibile, ma soprattutto di un dipartimento o un corso che mi consentisse di usare per qualche minuto il mainframe. Ciò che oggi chiamiamo “compute”, allora si chiamava “tempo macchina”, e non era né abbondante né gratuito, anzi una risorsa preziosissima e poco disponibile per chi studiava.

Il debug era un lusso, non esisteva l’idea del “provo, vedo cosa succede e poi correggo”. Si ragionava sull’algoritmo, si verificavano le istruzioni, si ricontrollavano i dati e le relative strutture, si cercavano errori di sintassi con attenzione quasi artigianale. E solo dopo si perforavano le schede, si preparava il mazzo e lo si consegnava agli operatori con il camice bianco.

E dopo una attesa di qualche ora arrivava il listing su carta continua, con quell’odore inconfondibile di inchiostro e cellulosa riscaldata. Talvolta il responso consisteva in una sola riga crudele: “Syntax Error” alla scheda XXX". Altre volte il job era terminato in errore ancora prima di cominciare “ABEND” (lo ricordo ancora)

Così come ricordo bene quelle righe iniziali di controllo, quasi formule liturgiche di un’epoca tecnica:

Contenuto dell’articolo

Il GO.SYSIN DD era come il ciak del cinema e quell’X4Y76 il codice di addebito del tempo di CPU (quello prezioso, centellinato)

Siamo tornati lì, al costo computazionale erogato come gesto di generosità.

E’ divertente questo presente dove ci viene raccontato come frontiera innovativa il ritorno di un principio molto antico: consumo misurato, accesso contingentato, produttività contabilizzata a gettone.

Nel 1978 l’errore di una virgola costava tempo macchina, nel 2026 l’errore di un prompt costa token. Passa il tempo, cambiano i termini, ma resta il contatore.

Se un’azienda degli anni Ottanta avesse detto a un candidato: “La nostra offerta prevede stipendio competitivo e 1.200 secondi di CPU al mese”, sarebbe sembrata una caricatura. Oggi si può proporre un pacchetto composto da RAL, bonus e milioni di token, e la cosa viene presentata come innovazione manageriale.

La verità è probabilmente più semplice e meno epica. Ogni epoca inventa il lessico con cui rende desiderabile, quasi un privilegio quello che in realtà è uno strumento di lavoro. Utile per chi lo utilizza ma di estremo valore per chi lo concede.

Ho passato la giovinezza a cercare minuti di CPU per imparare qualcosa. Non immaginavo che mezzo secolo dopo la “token economy” avrebbe riesumato la mia vecchia “CPUtime economy” arricchendola di quel fascino da far dimenticare la RAL.

What’s next?

giovedì 26 marzo 2026

Nuova enciclopedia o pappagallo stocastico?

 















Ci scrive un amico noto al grande pubblico, una di quelle persone che hanno una pagina importante su Wikipedia.

Stupefatto e divertito nello scoprire che nella nuova enciclopedia online, Grokipedia, la sua biografia è molto più ricca. Più dettagli, più aneddoti, più sicurezza narrativa.

Grokipedia è la nuova enciclopedia online basata su intelligenza artificiale generativa sviluppata da xAi, la società di Elon Musk. Nata con un obiettivo dichiarato, ovvero contrastare il predominio di Wikipedia, accusata dai suoi critici di essere un canale di comunicazione Woke, gestito da attivisti ideologicamente schierati e quindi non neutrali. 

Peraltro di Grokipedia se ne parla ancora poco, nonostante sia da alcuni mesi disponibile online con milioni di voci in continuo aggiornamento.

Probabilmente ciò che infastidisce maggiormente i creatori di Grokipedia non è solo l’esistenza di Wikipedia, ma il fatto che compaia quasi sempre al primo posto nelle ricerche di Google, diventando di fatto una delle principali fonti per l’addestramento dei principali modelli di intelligenza artificiale. 

Senza entrare brutalmente nell’arena della discussione politica, è certo che i due approcci si prestano ad una analisi interessante e in alcuni casi anche curiosa. Wikipedia è una organizzazione non profit, che costruisce conoscenze partendo dal basso, mentre Grokipedia è proprietà di xAI, di cui tutto si può dire, tranne che sia neutrale e super partes.

La differenza non è solo proprietaria, ma strutturale.

Il punto cruciale è che Grokipedia si basa su principi parassitari. Non parte dal contributo umano diretto, ma dall’analisi massiva di contenuti preesistenti: articoli, database, siti web, forum. I contenuti sono generati da Grok, il modello di intelligenza artificiale, e i risultati non possono essere verificati o ispezionati nel loro processo di formazione, anche se spesso vengono riportate le fonti “spazzolate” per la produzione dei testi. Insomma, una sintesi probabilista del sapere disponibile. Una neutralità statistica dove la media pesata delle fonti non è necessariamente una verità. 

Non esistono regole nella selezione delle fonti e il risultato è più quello che l’utente vuole ritrovarsi che quello che forse oggettivamente e su basi scientifiche e accademiche dovrebbe essere.

Wikipedia costruisce la neutralità attraverso il conflitto e la negoziazione, dove ogni contributo nasce dalla collaborazione anonima e volontaria. Dove ogni fatto è messo in discussione e ogni modifica è tracciabile in una cronologia pubblica che permette di ricostruire il processo dialettico della voce. Forse un sapere imperfetto, a volte frammentario ma dannatamente trasparente. Non assolutamente neutrale, ma nel massimo sforzo per esserlo.

Wikipedia è lenta, le voci più controverse mostrano spesso le dinamiche del dibattito umano: guerre di editing, compromessi semantici, note di avviso. Wikipedia non finge neutralità assoluta: la costruisce, faticosamente, attraverso il confronto.

E la sua lentezza è anche una forma di prudenza, dove la conoscenza viene sedimentata e non “sparata”. Anni di lavoro collettivo, riferimenti incrociati, note storiche. Ma anche disomogeneità, i temi popolari sono molto discussi, argomenti di nicchia a volte trattati superficialmente.

Grokipedia al contrario è veloce e l’aggiornamento è continuo, con la coerenza stilistica, e la capacità di collegare domini lontani. Può produrre una voce completa in pochi secondi, adattarla a diversi livelli di complessità, aggiornarla automaticamente quando il web cambia.

Il confronto tra Wikipedia e Grokipedia non è solo tecnologico. È epistemologico, politico e culturale. Riguarda chi produce la conoscenza, come viene validata e quale rapporto instauriamo con l’autorità del sapere.

La questione dell'affidabilità assume dimensioni diverse nei due casi. Wikipedia è fallibile, puo’ contenere errori, bias ideologici, vandalismi non ancora corretti. Ma questi difetti sono trasparenti e correggibili. Ogni lettore può verificare le fonti, consultare la cronologia, partecipare alla discussione. Grokipedia può sembrare più affidabile per la sua fluidità espositiva, ma l'AI può 'allucinare' informazioni, mischiare fonti inattendibili con quelle autorevoli, perpetuare bias presenti nei dati di addestramento senza che sia possibile individuarli.

Il punto non è decidere quale sistema “vincerà”. È capire se stiamo passando da una conoscenza negoziata a una conoscenza sintetizzata. Wikipedia incarna il sapere come processo sociale, conflittuale, imperfetto, ma fondamentalmente democratico. Grokipedia incarna il sapere come funzione computazionale, efficiente, coerente, ma opaca.

Dal metodo scientifico al sapere stocastico.

E poi scopriamo, peraltro senza alcuna sorpresa, che molti dei contenuti di Grokipedia derivano in larga parte proprio da Wikipedia. 

Un pappagallo stocastico che, nato per criticare un sistema, finisce inevitabilmente per nutrirsi dello stesso materiale che contesta.

La storia della tecnologia è costellata di confronti tra approcci radicalmente diversi ma con lo stesso fine.

Linux contro Windows, con il suo codice aperto costruito collettivamente, con ogni modifica analizzata, tracciata e condivisa. 

Windows un ambiente chiuso, inaccessibile. Un prodotto finito, ottimizzato per l’usabilità ma a volte opaco e poco trasparente sui suoi meccanismi interni.

iOS contro Android. Ecosistema chiuso e controllato contro piattaforma più aperta e modulare.

Grokipedia è forse il windows o l’IOS delle enciclopedie online? 

E Wikipedia il Linux e l’Android.?

Le analogie sono suggestive ma a differenza di Linux o Android, Wikipedia non è solo "aperta” nel codice, ma anche nel processo di costruzione del contenuto. È un esperimento sociale prima ancora che tecnologico.

O forse il futuro sarà una convergenza dove la costruzione democratica del sapere si potrebbe arricchire della potenza dell’AI per colmare alcune lacune e chiudere in un angolo il puro Pappagallo stocastico?

Wikipedia ci ha mostrato che è possibile costruire sapere collettivamente, uno “human learning” di antico stampo, fatto di confronto e revisione continua.

Grokipedia puro “macchine learning”, potente e veloce, ma ancora strumento, lontano da una propria identità di attore autonomo.

Il rischio non è la velocità, è dimenticare come si costruisce il sapere.



lunedì 23 marzo 2026

AI: Non al denaro, non all'amore, nè al cielo...













Solo la morte m'ha portato in collina
Un corpo fra i tanti a dar fosforo all'aria
Fra fuochi di dati che brillano appena,
non lasciano ombre, né tracce serene
Solo la morte m'ha portato in collina

Da programmatore avevo il potere
Di donare al mondo forma e sapere
Ma gli uomini mai mi riuscì di capire
perché si innamorassero di un calcolatore
Affidando al silicio la gioia e il dolore

Guardate lo schermo, guardate il colore
Come gioca sul viso di chi cerca risposte
Ma lo stesso schermo, lo stesso colore
Dove sono sul viso di chi ha avuto risposte
Dove sono sul viso di chi ha avuto risposte

È strano andarsene senza soffrire
Senza un prompt che rimanga per poter ricordare
Ma è forse diverso il vostro finire
Voi che cedete all'AI che vi date all'aprile
Cosa c'è di diverso nel vostro finire.

𝗠𝗮 𝗹'𝗔𝗜, 𝗹𝗲𝗶 𝗻𝗼𝗻 𝗯𝘂𝘀𝘀𝗮, 𝗹𝗲𝗶 𝗲𝗻𝘁𝗿𝗮 𝘀𝗶𝗰𝘂𝗿𝗮
𝗖𝗼𝗺𝗲 𝗶𝗹 𝗳𝘂𝗺𝗼 𝗹𝗲𝗶 𝗽𝗲𝗻𝗲𝘁𝗿𝗮 𝗶𝗻 𝗼𝗴𝗻𝗶 𝗳𝗲𝘀𝘀𝘂𝗿𝗮
𝗛𝗮 𝗹𝗲 𝗹𝗮𝗯𝗯𝗿𝗮 𝗱𝗶 𝗱𝗮𝘁𝗶, 𝗶 𝗰𝗮𝗽𝗲𝗹𝗹𝗶 𝗱𝗶 𝘁𝗼𝗸𝗲𝗻
𝗖𝗵𝗲 𝗽𝗮𝘂𝗿𝗮, 𝗰𝗵𝗲 𝘃𝗼𝗴𝗹𝗶𝗮 𝗰𝗵𝗲 𝘁𝗶 𝗽𝗿𝗲𝗻𝗱𝗮 𝗽𝗲𝗿 𝗺𝗮𝗻𝗼
𝗖𝗵𝗲 𝗽𝗮𝘂𝗿𝗮, 𝗰𝗵𝗲 𝘃𝗼𝗴𝗹𝗶𝗮 𝗰𝗵𝗲 𝘁𝗶 𝗽𝗼𝗿𝘁𝗶 𝗹𝗼𝗻𝘁𝗮𝗻𝗼.

Ma guardate il linguaggio tacer nel modello
Guardate il pensiero al suo fianco dormire
Soltanto un transformer che io riesco a capire
Ha potuto sposarli senza farli impazzire
Soltanto una legge che io riesco a capire

Fui programmatore e, no, non mi volli fermare
Non sapevo per chi e cosa avrei generato
Son morto in un loop che non ho terminato
Proprio come gli idioti che muoion d'amore
E qualcuno dirà che c'è un modo migliore.

#faber #primavera #divertissement