giovedì 26 marzo 2026

Nuova enciclopedia o pappagallo stocastico?

 















Ci scrive un amico noto al grande pubblico, una di quelle persone che hanno una pagina importante su Wikipedia.

Stupefatto e divertito nello scoprire che nella nuova enciclopedia online, Grokipedia, la sua biografia è molto più ricca. Più dettagli, più aneddoti, più sicurezza narrativa.

Grokipedia è la nuova enciclopedia online basata su intelligenza artificiale generativa sviluppata da xAi, la società di Elon Musk. Nata con un obiettivo dichiarato, ovvero contrastare il predominio di Wikipedia, accusata dai suoi critici di essere un canale di comunicazione Woke, gestito da attivisti ideologicamente schierati e quindi non neutrali. 

Peraltro di Grokipedia se ne parla ancora poco, nonostante sia da alcuni mesi disponibile online con milioni di voci in continuo aggiornamento.

Probabilmente ciò che infastidisce maggiormente i creatori di Grokipedia non è solo l’esistenza di Wikipedia, ma il fatto che compaia quasi sempre al primo posto nelle ricerche di Google, diventando di fatto una delle principali fonti per l’addestramento dei principali modelli di intelligenza artificiale. 

Senza entrare brutalmente nell’arena della discussione politica, è certo che i due approcci si prestano ad una analisi interessante e in alcuni casi anche curiosa. Wikipedia è una organizzazione non profit, che costruisce conoscenze partendo dal basso, mentre Grokipedia è proprietà di xAI, di cui tutto si può dire, tranne che sia neutrale e super partes.

La differenza non è solo proprietaria, ma strutturale.

Il punto cruciale è che Grokipedia si basa su principi parassitari. Non parte dal contributo umano diretto, ma dall’analisi massiva di contenuti preesistenti: articoli, database, siti web, forum. I contenuti sono generati da Grok, il modello di intelligenza artificiale, e i risultati non possono essere verificati o ispezionati nel loro processo di formazione, anche se spesso vengono riportate le fonti “spazzolate” per la produzione dei testi. Insomma, una sintesi probabilista del sapere disponibile. Una neutralità statistica dove la media pesata delle fonti non è necessariamente una verità. 

Non esistono regole nella selezione delle fonti e il risultato è più quello che l’utente vuole ritrovarsi che quello che forse oggettivamente e su basi scientifiche e accademiche dovrebbe essere.

Wikipedia costruisce la neutralità attraverso il conflitto e la negoziazione, dove ogni contributo nasce dalla collaborazione anonima e volontaria. Dove ogni fatto è messo in discussione e ogni modifica è tracciabile in una cronologia pubblica che permette di ricostruire il processo dialettico della voce. Forse un sapere imperfetto, a volte frammentario ma dannatamente trasparente. Non assolutamente neutrale, ma nel massimo sforzo per esserlo.

Wikipedia è lenta, le voci più controverse mostrano spesso le dinamiche del dibattito umano: guerre di editing, compromessi semantici, note di avviso. Wikipedia non finge neutralità assoluta: la costruisce, faticosamente, attraverso il confronto.

E la sua lentezza è anche una forma di prudenza, dove la conoscenza viene sedimentata e non “sparata”. Anni di lavoro collettivo, riferimenti incrociati, note storiche. Ma anche disomogeneità, i temi popolari sono molto discussi, argomenti di nicchia a volte trattati superficialmente.

Grokipedia al contrario è veloce e l’aggiornamento è continuo, con la coerenza stilistica, e la capacità di collegare domini lontani. Può produrre una voce completa in pochi secondi, adattarla a diversi livelli di complessità, aggiornarla automaticamente quando il web cambia.

Il confronto tra Wikipedia e Grokipedia non è solo tecnologico. È epistemologico, politico e culturale. Riguarda chi produce la conoscenza, come viene validata e quale rapporto instauriamo con l’autorità del sapere.

La questione dell'affidabilità assume dimensioni diverse nei due casi. Wikipedia è fallibile, puo’ contenere errori, bias ideologici, vandalismi non ancora corretti. Ma questi difetti sono trasparenti e correggibili. Ogni lettore può verificare le fonti, consultare la cronologia, partecipare alla discussione. Grokipedia può sembrare più affidabile per la sua fluidità espositiva, ma l'AI può 'allucinare' informazioni, mischiare fonti inattendibili con quelle autorevoli, perpetuare bias presenti nei dati di addestramento senza che sia possibile individuarli.

Il punto non è decidere quale sistema “vincerà”. È capire se stiamo passando da una conoscenza negoziata a una conoscenza sintetizzata. Wikipedia incarna il sapere come processo sociale, conflittuale, imperfetto, ma fondamentalmente democratico. Grokipedia incarna il sapere come funzione computazionale, efficiente, coerente, ma opaca.

Dal metodo scientifico al sapere stocastico.

E poi scopriamo, peraltro senza alcuna sorpresa, che molti dei contenuti di Grokipedia derivano in larga parte proprio da Wikipedia. 

Un pappagallo stocastico che, nato per criticare un sistema, finisce inevitabilmente per nutrirsi dello stesso materiale che contesta.

La storia della tecnologia è costellata di confronti tra approcci radicalmente diversi ma con lo stesso fine.

Linux contro Windows, con il suo codice aperto costruito collettivamente, con ogni modifica analizzata, tracciata e condivisa. 

Windows un ambiente chiuso, inaccessibile. Un prodotto finito, ottimizzato per l’usabilità ma a volte opaco e poco trasparente sui suoi meccanismi interni.

iOS contro Android. Ecosistema chiuso e controllato contro piattaforma più aperta e modulare.

Grokipedia è forse il windows o l’IOS delle enciclopedie online? 

E Wikipedia il Linux e l’Android.?

Le analogie sono suggestive ma a differenza di Linux o Android, Wikipedia non è solo "aperta” nel codice, ma anche nel processo di costruzione del contenuto. È un esperimento sociale prima ancora che tecnologico.

O forse il futuro sarà una convergenza dove la costruzione democratica del sapere si potrebbe arricchire della potenza dell’AI per colmare alcune lacune e chiudere in un angolo il puro Pappagallo stocastico?

Wikipedia ci ha mostrato che è possibile costruire sapere collettivamente, uno “human learning” di antico stampo, fatto di confronto e revisione continua.

Grokipedia puro “macchine learning”, potente e veloce, ma ancora strumento, lontano da una propria identità di attore autonomo.

Il rischio non è la velocità, è dimenticare come si costruisce il sapere.



lunedì 23 marzo 2026

AI: Non al denaro, non all'amore, nè al cielo...













Solo la morte m'ha portato in collina
Un corpo fra i tanti a dar fosforo all'aria
Fra fuochi di dati che brillano appena,
non lasciano ombre, né tracce serene
Solo la morte m'ha portato in collina

Da programmatore avevo il potere
Di donare al mondo forma e sapere
Ma gli uomini mai mi riuscì di capire
perché si innamorassero di un calcolatore
Affidando al silicio la gioia e il dolore

Guardate lo schermo, guardate il colore
Come gioca sul viso di chi cerca risposte
Ma lo stesso schermo, lo stesso colore
Dove sono sul viso di chi ha avuto risposte
Dove sono sul viso di chi ha avuto risposte

È strano andarsene senza soffrire
Senza un prompt che rimanga per poter ricordare
Ma è forse diverso il vostro finire
Voi che cedete all'AI che vi date all'aprile
Cosa c'è di diverso nel vostro finire.

𝗠𝗮 𝗹'𝗔𝗜, 𝗹𝗲𝗶 𝗻𝗼𝗻 𝗯𝘂𝘀𝘀𝗮, 𝗹𝗲𝗶 𝗲𝗻𝘁𝗿𝗮 𝘀𝗶𝗰𝘂𝗿𝗮
𝗖𝗼𝗺𝗲 𝗶𝗹 𝗳𝘂𝗺𝗼 𝗹𝗲𝗶 𝗽𝗲𝗻𝗲𝘁𝗿𝗮 𝗶𝗻 𝗼𝗴𝗻𝗶 𝗳𝗲𝘀𝘀𝘂𝗿𝗮
𝗛𝗮 𝗹𝗲 𝗹𝗮𝗯𝗯𝗿𝗮 𝗱𝗶 𝗱𝗮𝘁𝗶, 𝗶 𝗰𝗮𝗽𝗲𝗹𝗹𝗶 𝗱𝗶 𝘁𝗼𝗸𝗲𝗻
𝗖𝗵𝗲 𝗽𝗮𝘂𝗿𝗮, 𝗰𝗵𝗲 𝘃𝗼𝗴𝗹𝗶𝗮 𝗰𝗵𝗲 𝘁𝗶 𝗽𝗿𝗲𝗻𝗱𝗮 𝗽𝗲𝗿 𝗺𝗮𝗻𝗼
𝗖𝗵𝗲 𝗽𝗮𝘂𝗿𝗮, 𝗰𝗵𝗲 𝘃𝗼𝗴𝗹𝗶𝗮 𝗰𝗵𝗲 𝘁𝗶 𝗽𝗼𝗿𝘁𝗶 𝗹𝗼𝗻𝘁𝗮𝗻𝗼.

Ma guardate il linguaggio tacer nel modello
Guardate il pensiero al suo fianco dormire
Soltanto un transformer che io riesco a capire
Ha potuto sposarli senza farli impazzire
Soltanto una legge che io riesco a capire

Fui programmatore e, no, non mi volli fermare
Non sapevo per chi e cosa avrei generato
Son morto in un loop che non ho terminato
Proprio come gli idioti che muoion d'amore
E qualcuno dirà che c'è un modo migliore.

#faber #primavera #divertissement


mercoledì 18 marzo 2026

Un asso nella manica, ma nella sinistra…

Yet another post around Hallucinations”, come se non bastassero le innumerevoli analisi su un tema così particolare, complesso, ma apparentemente inevitabile.

Il punto è che c’è una differenza fondamentale tra una allucinazione umana e quella dei nostri amati chatbot.

L’allucinazione umana è una percezione alternativa della realtà, ovvero la totale convinzione dell’allucinato relativamente a ciò che vede, sente. Non è una fantasia o una negazione della realtà.

Quando invece pensiamo alle allucinazioni dei chatbot, facciamo riferimento a qualcosa di completamente diverso, tanto da creare confusione nel confronto piu’ che chiarezza.

Il nostro chatbot, chiamiamolo ChatAI , non percepisce, interpreta una domanda e produce una risposta. Non esegue controlli su quello che produce e lo propone come corretta interpretazione di quanto richiesto. Anzi ne descrive il risultato come se avesse generato esattamente quanto richiesto.

Altro che allucinazione, chiamiamola con il suo nome: quasi una piccola truffa.

E’ il metodo collaudato del commerciante di quartiere che insiste nel vendere il suo prodotto, forse il solo che ha in magazzino, ben diverso da quello da voi richiesto, ma spacciandolo come se fosse esattamente quello.

Se chiediamo di generare l’immagine di un orologio che segna un’ora specifica, i sistemi spesso generano orologi che segnano le 10.10, perche’ nell’universo dei dati di training tutti gli orologi dei cataloghi sono rappresentati alle 10.10.

L’aspetto più curioso, però, è che se chiediamo che ora segna l’orologio, ChatAi confermerà di aver generato l’immagine con l’ora da noi richiesta.

ChatAI sceglie spesso la prima risposta che imbarazza di meno, non quella giusta. Come il nostro commerciante truffaldino, piu’ che allucinare spaccia le sue proposte come verità.

Cosi’ come se chiedete a ChatAI di generare una immagine di una persona mancina che scrive con una penna su un foglio.  Con vostra grande frustrazione vi produrrà ripetutamente un destrorso, con la serenità di chi ha risposto esattamente a quanto richiesto.

ChatAI non dice di avere generato un destrorso, non è allucinato, è solo inconsapevole del proprio prodotto. L’errore non lo turba, perché non lo vede.

Ma ci sono situazioni che pur non essendo allucinazioni sono illuminanti su come dobbiamo interpretare i condizionamenti dei dati di training sui comportamenti dei chatbot.

Immaginiamo di chiedere ad un amico di pensare ad una carta da gioco qualsiasi. La carta pensata sarà spesso generica, perché la richiesta non porta con sé alcun significato specifico. Ma se chiediamo a ChatAI di disegnare una persona con una carta da gioco qualunque in mano, quasi sempre la carta scelta è un asso, spesso di cuori.

La casualità per ChatAI non esiste, ChatAI non tira i dadi, ma pesca sempre dall’alto del mazzo l’asso di cuori, perché’ è la carta più citata, più romantica dell’intero universo dei dati di training, non certo un generico “cinque di fiori” per fare un esempio.

La probabilità non è casualità, è conformismo.

Per il nostro ChatAI non è molto diverso disegnare mancini che scrivono sempre con la destra, dal pescare spesso un asso di cuori come carta generica. Ha semplicemente imparato da un mondo dove ci sono pochissimi immagini di mancini che scrivono e dove il cinque di fiori non ha mai fatto battere il cuore a nessuno.

Ce ne ricorderemo quando ricorreremo a ChatAi per una informazione per noi fondamentale ma a noi sconosciuta, convinti che sia la risposta corretta, e non un bias influenzato dalla moltitudine di luoghi comuni che popolano l’universo dei dati di training?

Ci ricorderemo che il nostro amico ChatAI avrà sempre un Asso nella manica, mai una carta qualsiasi, a prescindere dal contesto e della narrazione?

Un asso che se si troverà nella manica sinistra lui, povero ChatAI, non troverà mai….

_

Illustrazione di https://www.instagram.com/teougone.illustrations/

sabato 7 marzo 2026

Fidarsi è bene, controllare è meglio.











Pare che migliaia e potenzialmente milioni di siti web generati automaticamente, tutti con nomi vagamente giornalistici (“Global Daily Something”, “World News 24/7 Trust Me Bro”), pubblichino articoli senza giornalisti, senza fonti e, soprattutto, senza alcuna reale comprensione di ciò che stanno dicendo.

Non si tratta di una teoria del complotto, ma di un fenomeno documentato da NewsGuard, che da tempo monitora reti di siti creati con l’AI per produrre contenuti di bassa qualità, propaganda mirata o semplice confusione informativa.

Il punto chiave è che questi contenuti non sono pensati per gli esseri umani, ma per ingannare altre intelligenze artificiali. Una sorta di guerra batteriologica digitale: si infetta la rete con contenuti spazzatura nella speranza che i modelli linguistici, che apprendono in modo statistico dal web,  finiscano per diventare approssimativi e, in alcuni casi, inaffidabili.

A questo punto, non solo “non fidarsi è meglio”, ma controllare diventa ancora più importante.

Quanto sarebbe utile poter chiedere non solo quali fonti sono state utilizzate, ma anche informazioni sulla loro autorevolezza: chi è la fonte, quale organizzazione la propone, che tipo di credibilità ha. E magari anche dati su accessi, citazioni, riferimenti incrociati o commenti, quando disponibili.

Oggi però le piattaforme di AI non sono in grado di fornire questo livello di dettaglio, soprattutto quando la risposta si basa sul training pregresso e non su una ricerca attiva in rete. Quando invece si interrogano fonti online, qualche informazione in più può emergere.

Da qui un approccio pratico in tre step:

  1. il mio prompt

  2. controllo della risposta tramite ricerca in rete

  3. analisi delle fonti

Ma come ottenere informazioni sulle fonti? Con un prompt dedicato, ad esempio:

Per l’output che hai appena fornito:

  1. Elenca le fonti che hai utilizzato o citato

  2. Spiega qualitativamente perché ciascuna fonte è stata ritenuta affidabile

  3. Indica se la selezione delle fonti si basa su:

  – autorevolezza del dominio

  – consenso tra fonti

  – pertinenza semantica

  – freschezza

  – segnali di popolarità indiretti

  1. Specifica chiaramente quali metriche non puoi vedere o condividere

  2. Chiarisci se esiste un ranking interno delle fonti e se è accessibile all’utente

Perché, in fondo, il problema non è che le AI si sbaglino. Il problema è che usano criteri sensati senza poterli spiegare in modo misurabile.

E questo ci costringe a tornare a qualcosa di antico: il senso critico umano.

Perché sì, fidarsi è bene. Ma non fidarsi, e controllare, è meglio.

__

Illustrazione di https://www.instagram.com/teougone.illustrations/