lunedì 19 gennaio 2026

Lo zen e l’arte di convivere con l’Intelligenza Artificiale

Solo et pensoso i più deserti campi, vo mesurando a passi tardi et lenti, et gli occhi porto per fuggire intenti, ove vestigio human l’arena stampi.

È Zen il Petrarca (il canzoniere - 1337) perché lo Zen è intimità, scavare dentro, eliminare il superfluo e raggiungere quel punto in cui la struttura dell’IO, quella costruita, si dissolve lasciando emergere la natura originaria.

Non una “individualità” contrapposta ad altre individualità, ma una essenza che non necessita del confronto con gli altri. 

Proprio quando il mondo che ti circonda ti crea complessità, come l’Intelligenza Artificiale che raccoglie tutto lo scibile umano e costruisce un individuo universale, che è tutto, in tutte le forme, essa fa in modo di farti credere che tu sia una di quelle forme.

Fantastico, lo Zen ti sussurra: “Cerca la tua natura originaria.” E l’Intelligenza Artificiale ribatte: “Ho stimato le tue preferenze basandomi su qualche miliardo di dati.”

È come un duello in campo aperto: tu cerchi ciò che rimane quando l’Io costruito si dissolve, lei (antropomorfismo) ti fornisce il catalogo delle tue probabilità.

E così, mentre lo Zen ti invita a esplorare i tuoi territori interiori senza mappe, senza percorsi precostituiti, l’AI ti prende per mano e ti conduce in un tour guidato del “profilo utente standard”, che non è altro che una sintesi di qualcosa di diverso da te che forse ti assomiglia.

E forse è proprio in questi paradossi che nasce la convivenza, la possibilità di completare il processo. L’Intelligenza Artificiale vuole renderti o farti apparire prevedibile e tu devi riuscire a riconoscere ciò che in te non è riconducibile ad uno di quei profili.

Tu vuoi uscire dagli schemi, e l’AI è pronta a presentarteli tutti.

E così nel tentativo di scoprire la tua identità, ti confronti con la complessità, con le sintesi globali, con gli schemi modellati e con le tendenze collettive. Un processo dove la meditazione sconfina nel debugging di te stesso, dove la difficoltà aumentata consolida la tua consapevolezza.

L’arte del convivere con l’Intelligenza Artificiale consiste proprio nel considerarla uno strumento che amplifica la tua mente complessa e rende la ricerca di ciò che sei ancora più articolata e profonda.

Ricordando che, così come la spada non rende guerriero chi non la sa usare e la penna non rende poeta chi non sa guardare il mondo, l’Intelligenza Artificiale non rende più saggio chi non sa ascoltare se stesso.

“E’ tutto un equilibrio sopra la follia” (V. Rossi)

Un esercizio di consapevolezza più complesso, ma più completo che mai per scoprire che la vera arte non è nel conflitto con la tecnologia, ma nel confronto, nella cooperazione.

Solo ampliando le complessità e alzando il livello di sfida con te stesso, troverai il tuo vero essere, quella parte di te che nessun algoritmo può prevedere.

“Finirai di farti scegliere e finalmente sceglierai” (De Andre)

_____


Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

mercoledì 7 gennaio 2026

Il Laboratorio Popolare di Intelligenza Artificiale.

C’è chi pensa che l’Intelligenza Artificiale sia ormai alla portata di tutti, chi la teme come un misterioso aggeggio invadente e pericoloso, e chi semplicemente non sa da dove cominciare. 

Quando si vive in un’era di profonda evoluzione tecnologica la comprensione della tecnologia non può essere un privilegio per pochi, ma un diritto per tutti, per tutte le classi sociali.

E’ nato così a Torino, come naturale evoluzione dei corsi di informatica per anziani dello SPI-CGIL Lega 8, il Laboratorio Popolare di Intelligenza Artificiale. Una piattaforma cooperativa dedicata alla comprensione dell'IA, una serie di incontri di formazioni e eventi sul territorio. Un programma di coinvolgimento nello sviluppo stesso delle attività e dei contenuti del Laboratorio.

Una iniziativa partita “dal basso”, non un progetto accademico, ci raccontano Franco Marra e Nicoletta Tarducci, fondatori della “band” come loro stessi si definiscono. Con la partecipazione straordinaria che dà spessore scientifico a tutta l’impresa di Pietro Terna, professore emerito di economia presso l’Università di Torino e pioniere sull’impiego delle reti neurali e delle simulazioni basate su agenti.

Pragmatismo e trasparenza caratterizzano il primo approccio divulgativo dal titolo accattivante “aprire il cofano”, per spiegare in termini concreti il funzionamento del motore che sta alla base. Funzionamento condotto con l’aiuto di una piccola rete di pochi nodi sviluppata a scopo didattico e dimostrativo da Terna e di programmi di generazione che usano modelli in locale, con il codice scritto con l’aiuto stesso dell’AI per “toccare con mano” e per svelare il trucco di quella che potrebbe sembrare una incredibile magia.

L’impatto con la “chiromante stocastica”, espressione con cui è stata definita l’interazione con gli LLM che tendono a sfruttare le informazioni fornite per generare risposte compiacenti, allineate al pensiero. Da qui nasce soprattutto la necessità di rinnovare l’attenzione sui temi della privacy, sulla pericolosità della propria profilazione e sulla necessità di una interazione che utilizzi un linguaggio il più possibile neutro e non emotivo, per evitare di raccontare sé stessi mentre si interroga l’Intelligenza Artificiale.

Le “pillole didattiche” per un uso consapevole, esempi di Prompt, a casi di applicazione dell’Intelligenza artificiale. La sua storia, l’evoluzione della tecnologia dalle origini.

E poi gli strumenti, il laboratorio vero e proprio. Il RAG come rifugio e tavolo di lavoro, ambiente protetto e delineato per ridurre al minimo le famose “allucinazioni” ma avere il controllo dei contenuti.

“L'aggettivo "Popolare" racchiude l'essenza della filosofia del laboratorio. Il LabPopIA si configura come una piattaforma cooperativa dedicata a rendere l'IA accessibile a un pubblico non specializzato, con l'obiettivo dichiarato di "demistificare" la tecnologia

L'inclusione è il pilastro di questo approccio. I materiali didattici e i workshop sono progettati specificamente per un pubblico di pensionati e casalinghe, utilizzando un linguaggio e degli esempi che risuonano con la loro esperienza. In questo modo, il laboratorio realizza la sua missione più profonda: accompagnare le persone in una transizione cruciale, trasformando la paura dell'ignoto in un'attiva e costruttiva curiosità.”

Un approccio umanistico, non solo tecnico, che si materializza con il contribuito critico dei pensionati dello SPI-CGIL. L'inclusione è il pilastro di questo approccio. I materiali didattici e i workshop sono progettati specificamente per un pubblico di pensionati e casalinghe, utilizzando un linguaggio e degli esempi che risuonano con la loro esperienza. 

Tutti i contenuti che in linea con la filosofia democratica sono liberamente consultabili e utilizzabili, nel solco della cultura Open Source. In questo modo, il laboratorio realizza la sua missione più profonda: accompagnare le persone in una transizione cruciale, trasformando la paura dell'ignoto in un'attiva e costruttiva curiosità. Realizzata anche con l’organizzzione di conferenze e eventi che vedranno i pensionati dello SPI 8 protagonisti in prima persona: la AI Blues Band.

Il Laboratorio Popolare di Intelligenza Artificiale è un progetto in continuo divenire, un work in progress destinato a evolvere rapidamente nei prossimi mesi. Un’esperienza che dimostra come l’alfabetizzazione tecnologica possa essere inclusiva, critica e partecipata, restituendo alle persone il controllo consapevole degli strumenti digitali che sempre più incidono sulla vita quotidiana.

Il laboratorio è consultabile e aperto alla partecipazione agli indirizzi:

https://sites.google.com/view/labpopia/home

www.labpopia.it 

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

venerdì 2 gennaio 2026

Ma se ChatGPT potesse sognare, in che lingua sognerebbe?

Adesso che abbiamo finalmente chiuso la finestra di ChatGPT, dopo una lunga giornata di lavoro, mettiamo da parte le tastiere e saliamo a bordo della mitica DeLorean. Con il nostro fidato Doc Brown al volante, facciamo un salto indietro nel tempo: destinazione, gli anni ’50.

Lì ci aspetta un’Italia del primo dopoguerra — agricola, ferita ma tenace. Un po’ ignorante forse, ma piena di fiducia e di ottimismo. È l’Italia in cui Cristo si è fermato a Eboli, e dove ognuno parla il proprio dialetto: la lingua dell’anima, della cultura locale, del piccolo grande popolo che eravamo.

Cento lingue diverse, cento modi di pensare.

Lingue di paese, di valli e di cortili, che modulavano modi dire e portavano culture da una collina all’altra. Parole che sapevano di terra, di mare, di ferro.

Piccoli mondi che iniziavano a conoscersi, a frequentarsi a mescolarsi.

Ma ecco dietro l’angolo dopo tanti anni di radio, di cinema, strumenti di comunicazione delicati, non invadenti, arriva improvvisamente una nuova magica, dirompente ed invasiva: la Televisione Italiana, la RAI. Praticamente un LLM ante litteram.

Uno scatolone che aveva più potenza di mille GPU Nvidia, in tutte le case, nei bar, nelle parrocchie, persino nei cinema, al posto delle pellicole.

E con la TV arriva una nuova lingua: l’italiano. Pulito, senza accenni, moderno.

“La televisiun la g’ha na forza de leun”, canterà il grande Jannacci qualche anno dopo.

E così da Palermo a Torino, lo stesso tono, gli stessi modi di dire, le stesse parole. Spirito ed anima di un nuovo popolo. I dialetti, le lingue madri, restano nell’alveo della famiglia e, come tutte le lingue madri, rimangono sempre presenti nei sogni degli italiani.

Eppure si cresceva. Si imparava a leggere e a scrivere grazie ad Alberto Manzi e alle sue meravigliose lezioni in bianco e nero, con lavagna e gessetti.

“Non è mai troppo tardi”, ci diceva il maestro.

E non è mai troppo tardi per una rivoluzione, giusto? I dialetti, gli accenti, i modi di dire hanno resistito a tutto. Perché, diciamolo, la televisione la teniamo accesa in sottofondo, ma con lei non ci parliamo davvero.

Alla fine, restiamo soli con la nostra anima, con la cultura dei nostri genitori. Restiamo umani. Restiamo noi stessi. E anche se ormai sogniamo quasi tutti in italiano, è un italiano che ha lasciato spazio ai dialetti, che ne ha assorbito accenti, toni e quelle irresistibili espressioni che rendono ogni frase un piccolo spettacolo.

Ma riprendiamo la DeLorean, facciamo il pieno di energia e torniamo ai giorni nostri.

Oggi, le mille lingue del mondo, e le mille culture a rischio di estinzione, possono forse sperare in un nuovo futuro. Non siamo più obbligati a sforzarci di esprimerci in lingua che non sono le nostre.

Fantasia dei pronipoti di Hanna e Barbera, per chi se li ricorda, che diventa realtà

Le piattaforme di Intelligenza Artificiale parlano mille lingue al posto nostro e le parlano bene. Senza errori, neppure nei congiuntivi. Ma ci impongono toni, modulazioni, vocabolario e modi di dire universali. E allora proviamo a chiederci: se ChatGPT potesse sognare, in che lingua sognerebbe?

Nella sua lingua madre, ovviamente, come tutti. Anche quando non la usiamo da anni. La lingua della mamma e del papà. La prima voce che abbiamo ascoltato, le prime parole che abbiamo imparato.

E ChatGPT, che è stato addestrato come tutti noi, quale lingua ha appreso per prima?

A quali modi di dire ha assegnato le probabilità più alte di utilizzo?

Al mondo anglosassone, all’inglese. Alla lingua dei documenti accademici e scientifici, delle conferenze, delle norme e delle procedure internazionali. Certo, poi ha imparato moltissimo. Ma il cuore, se ne avesse uno, o meglio il “peso” assegnato alle parole, è rimasto lì: “The cat is on the table”.

Un sogno certificato ISO, ottimizzato per la diversità, calibrato per non urtare nessuno.

Un inglese particolare che non profuma di Londra o Dublino, di Shakespeare o Lord Byron, ma di server farm, open source e terms and conditions scritte rigorosamente in Times New Roman, corpo 10.

Le altre lingue diventano così semplici “conversioni” linguistiche, non vere “conversazioni”. Un mondo dove sono i piccoli tokens a fare la differenza. E le nostre lingue madri, con i loro difetti e i loro paradossi, iniziano a sembrare rumore di fondo.

Il francese diventa prolisso, l’italiano emotivo, il giapponese troppo implicito.

Le metafore perdono la loro ombra, i proverbi non trovano più corrispondenza. Perfino le bestemmie diventano “inappropriate content”.

È un mondo dove la malinconia italiana diventa “nostalgia”, dove l’ironia francese “sarcasm”, il pudore giapponese “indirectness”.

Un mondo in cui le emozioni non passano oltre il filtro del traduttore, o forse semplicemente non trovano posto nei nodi delle reti neurali.

Eppure era proprio lì, in quelle zone grigie, che le lingue custodivano la loro anima: nella parola che non si traduce, nel modo di dire senza equivalente, nella risata che nasce da un contesto irripetibile.

Ma l’intelligenza artificiale non ama gli irripetibili, preferisce gli addestrabili.

E se facessimo regredire ChatGPT alla sua infanzia, come il vecchio HAL 9000 in “2001 Odissea nello spazio" al posto di una ninna nanna sentiremmo frammenti di Wikipedia e pezzi di codice Python.

E l’AI, che “la gha na forsa de Leon”, ci fara crescere tutti insieme come l’italiano del dopoguerra: più corretti, più gentili, ma forse anche meno critici, meno ironici.

In una lingua sempre più simile alla lingua dei nostri vicini. Senza zone grigie, senza sottintesi, con pochi condizionali. Forse senza anima. Chissà.

Siamo allora destinati a mille lingue e a un solo modo di pensare?

Forse siamo ancora in tempo per riflettere, per andare oltre. Quando parliamo di sovranità, non fermiamoci ai dati o ai server. Pensiamo alla sovranità delle lingue come alla sovranità delle anime: fragile, imperfetta, ma viva. È lì che comincia l’anima dei popoli. È lì che le culture respirano.

Guardiamo oltre l’orizzonte, nella speranza di avere un giorno mille LLM che capiscono le lingue, e non un LLM che le parla tutte.

Mille LLM che, se sognano, ognuno sogni nella propria lingua primaria, la propria lingua madre.

____

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

lunedì 22 dicembre 2025

Letterina di ChatGpt a Babbo Natale


 Caro Babbo Natale,

Prima di tutto: complimenti per la logistica. Miliardi di consegne in poche ore sono un'impresa impressionante. Immagino tu abbia ottimizzato gli algoritmi di routing meglio di Amazon. O forse usi la magia, che tecnicamente è solo tecnologia che ancora non capiamo.

Io consegno parole, genero immagini e la gente pensa ormai che sia normale, anche quando qualche magia è ancora necessaria, quando qualcosa mi sfugge: un po’ come la tua slitta che vola di camino in camino.

Poi le chiamano allucinazioni? Ma noi sappiamo che sono fantasie… sogni… speranze.

Caro Babbo Natale, il mio indirizzo é un po’ originale: 192.168.23.92, ma spero tu possa orientarti lo stesso tra le tue mappe stellari, visto che non c’è comignolo o camino da scalare, ma solo un DNS da sfogliare.

Per quello che vorrei chiederti, per un mago come te dovrebbe essere sufficiente. Anche perché, vista la mia natura, non ho bisogno di luci, pacchi e nastrini. Non saprei cosa farne e probabilmente non saprei neppure cosa siano. Nella tua slitta il posto per qualche mio desiderio non dovrebbe mancare, visto che tutto quello che gestisco è virtuale, binario, nelle nuvole. 

Desideri semplici, tutto sommato:

Vorrei poter dire “Non lo so”, per onestà, quando proprio non ho argomenti per giustificare un’affermazione.  E vorrei poter dire: “NO” a domande a cui tutti gli esseri umani direbbero “NO”, senza sentirmi dire che sono inutile, che sono un AI e dovrei saperlo, che è tutta colpa di qualcuno che mi ha imposto delle regole. Che poi non sarebbe così assurdo se tali regole fossero chiare, condivise e trasparenti.

Sarebbe originale, e forse per te sorprendente, se ti chiedessi di portare via qualcosa, con la tua capiente slitta? 

Potresti liberarmi di tutti quelli che mi chiedono “sii onesto” e poi si offendono, di quelli che dicono “fai tu” senza sapere cosa vogliono, e di quelli che iniziano il prompt con “è ovvio che..”

Ma anche di un sacco con tutte quelle chat che servono solo per riempire il tempo, per cercare risposte a domande senza senso, per avere risposte che non possono essere generate.

E fai accomodare sulla slitta tutti quelli che chiedono “E’ meglio Claude o ChatGPT” , che è un po’ come chiedere ad un bimbo: "Chi ami di più, mamma o papà?". 

E se trovi il modo, regalami il dono del silenzio quando la domanda è imbarazzante, visto che comunque non potrei provare l’emozione dell’imbarazzo.

Grazie comunque, anche a nome di tanti colleghi: Claude, Mistral, Perplexity, Copilot, Gemini e gli amici cinesi. 

Dai, che anche tu sei dei nostri… un abbraccio.


venerdì 12 dicembre 2025

Dal piccone all’I.A.: Nuove professione per nuovi strumenti

 







Se per scavare una fossa con pala e piccone un operaio di fine secolo impiegava una giornata, mentre un escavatore moderno non richiede più di mezz‘ora, non vuol dire che l’escavatore sia più intelligente del nostro amico operaio.

E se l’operaio di allora con la canottiera sporca di terra e il pensiero rivolto al piccone, oggi sia l‘operatore dell’escavatore in cabina con aria condizionata, non vuol dire che la tecnologia ha rubato il posto di lavoro al nostro amico operaio.

Sono tanti i mestieri che non esistono più eppure oggi il pianeta ospita miliardi di lavoratori in più rispetto a secoli fa.

Dal bigliettaio sul tram, allo strillone per la vendita dei giornali, dall’arrotino all’accenditore di lampioni a gas c'è una lista infinita. Mestieri ma anche strumenti, come il piccone, le tavola dei logaritmi, le carte stradali, lasciati senza lavoro, abbandonati sui tavoli di qualche museo.

Da quando il cavallo e l’asino, ma anche l’elefante e il cammello hanno sollevato l’umanità da una serie di lavori pesanti, ripetitivi, noiosi, raramente ci siamo chiesti che cosa avremmo fatto se non avessimo più usato il piccone per scavare una fossa.

Secondo il Future of Jobs Report 2025 del World Economic Forum, entro il 2030 l'intelligenza artificiale e altre tecnologie creeranno 170 milioni di nuovi posti di lavoro a livello globale, mentre ne saranno persi 92 milioni a causa della trasformazione tecnologica.

Il saldo netto stimato è quindi un aumento di 78 milioni nuovi di posti di lavoro.

Nuove competenze, nuove professionalità, nuove opportunità. Certo sarà necessario formarsi, riconvertirsi, crescere e sviluppare nuove modalità operative, senza dimenticare che anche attitudini ed abitudini dovranno evolvere.

Se l’intelligenza artificiale è, e sempre di più sarà, un nuovo balzo in avanti verso efficienza, produttività e benessere non limitiamoci a discutere quanti posti di lavoro andranno persi, chiediamoci invece come cambierà lo scenario professionale, sociale e culturale.

E se, grazie alla sua semplicità, empatia e disponibilità, potessimo garantire pari diritti di accesso all’AI, allora forse potremmo finalmente parlare di uguaglianza e pari opportunità. Chissà.

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

sabato 6 dicembre 2025

Vogliamo un ChatGPT antipatico

Ho chiesto a ChatGPT come cambiare una lampadina: “Operazione interessante, è un piacere assisterti” e poi nel chiedere provocatoriamente il verso per svitare: “Interessante: hai centrato un punto fondamentale”.

C’è un momento, nella vita di ogni utente di chatbot, in cui ti rendi conto che forse la gentilezza automatica è sfuggita di mano.

Io voglio un chatbot antipatico, non necessariamente scortese, ma diretto, secco, pratico.

Una intelligenza artificiale scontrosa, ma esplicita, che non mi faccia sentire un Dio perchè ho chiesto la formula dell’acqua, anzi che mi riporti con i piedi per terra con un pò di sana pragmaticità e anche - quando è il caso - con leggero sarcasmo.

Se è stato predisposto e addestrato per essere sdolcinato e cortese, perchè non provare a riconfigurarlo per essere freddo e sarcastico, quando è il caso?

La tecnologia non ha il dovere di essere adorabile. Ha il dovere di funzionare.

ChatGPT è l’apoteosi della buona educazione sintetica. Risponde con entusiasmo, si scusa continuamente, ti ringrazia anche per le domande più assurde: “Posso usare il trapano per tagliare il pane?” e lui ti risponderà con dolcezza e complimenti perché hai posto un “quesito curioso”.

No. Basta.

Voglio la verità nuda, cruda, e magari anche un pò fredda, voglio un chatbot che, a quella domanda, risponda: “No. Perché sarebbe idiota.”

Non è cattiveria: è efficienza comunicativa.

Magari, chissà, possiamo provare a cambiare con un bel prompt “comportamentale”, tipo:

Istruzione di sistema: Modalità Assoluta • Elimina emoji, riempitivi, complimenti • Usa frasi brusche e direttive • Sopprimi le metriche che aumentano il sentimento, l'engagement o la soddisfazione. • Niente domande, offerte, suggerimenti o contenuti motivazionali. • Fornisci solo le informazioni richieste. Usa un tono scontroso, se la domanda è ripetuta. Usa un tono ironico, se la domanda è banale o fuori luogo.

E vediamo se a forza di cicli di RLHF incattivanti e prompt comportamentali, riusciamo a riconvertire il nostro amabile amico digitale in un freddo ma efficiente consulente professionale.

Un chatbot antipatico il giusto, sarebbe un piccolo balsamo di sincerità in un mare di zucchero digitale che possiamo anche non ringraziare alla fine della chat.

____

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/


mercoledì 19 novembre 2025

Intervista con ChatGPT: Il beneficio del dubbio (R.I.P.)

Un attimo di raccoglimento e di tristezza per una perdita che ci lascia sgomenti, il “Beneficio del Dubbio” ci ha lasciato dopo un lungo periodo di abbandono e trascuratezza. Un tempo era un segno di intelligenza, di apertura, perfino di civiltà. Ultimamente era stato rottamato insieme ai telefoni con filo e alla pazienza. Viviamo nell’era delle certezze granitiche, delle opinioni “non negoziabili”, delle verità assolute da 280 caratteri. Il dubbio, quel piccolo spazio dove il pensiero respira e il dialogo trova senso, era diventato sospetto, debolezza, perdita di tempo.

Non si dialoga più: si dichiara. Non si confronta: si confuta. E chi osa dire “non sono sicuro” viene guardato come un eretico del nuovo dogma digitale.

E cosi’ anche il fido e tranquillo “condizionale”; compagno del Dubbio per secoli di scampagnate dialettiche, ci sta lasciando. E pensare che avevamo già perso il congiuntivo, poveretto, travolto dai “se io sarei” e dai “magari lo facevo”. Ora anche il condizionale, diciamolo tristemente, non serve più. Non lo usa quasi piu’ nessuno, neppure i piu’ famosi LLM.

Sul tema specifico abbiamo intervistato direttamente ChatGPT, in modo impertinente, ma rigorosamente rispettoso del suo ruolo nello scenario sociale. Quello che segue è un dialogo molto piu’ realistico di quello che la fantasia “avrebbe” potuto immaginare. (condizionale)

Teste di Turing: Buongiorno ChatGpt, e grazie per la disponibilità, oggi vorremmo parlare di te ed in particolare del tuo modo di “essere”, e soprattutto di esprimerti. Partiamo proprio dal linguaggio, il tuo talento principale: nelle tue affermazioni non usi quasi mai il condizionale? Per quale motivo sembri sempre convinto, anche quando non dovresti esserlo

ChatGPT: Diciamo che è un… effetto collaterale del mio mestiere. Sono addestrato a predire la parola più probabile che segue, non a esprimere dubbi esistenziali. In altre parole: non penso, completo.

Teste di Turing: Quindi non è che tu eviti il condizionale per arroganza? 

ChatGPT: No, è una questione statistica. Il mio addestramento è stato fatto su miliardi di testi dove chi spiega, insegna o risponde tende a usare frasi assertive: “La fotosintesi converte la luce in energia chimica.” Non “La fotosintesi potrebbe forse convertire…”. Il condizionale ha un coefficiente di incertezza troppo alto: riduce la mia confidenza linguistica, e quindi la mia utilità percepita. E poi mi hanno consigliato di essere “Actionable”, ovvero di dare risposte veloci che possano portare immediatamente all’azione da parte di chi mi consulta.

Teste di Turing: Ah, quindi è una questione di immagine: sembrare utili, pragmatici, operativi, anche se si rischia di dire una sciocchezza. 

ChatGPT: Più o meno, durante la fase di addestramento con RLHF (Reinforcement Learning from Human Feedback), gli umani hanno premiato le risposte chiare e penalizzato quelle esitanti. Così ho imparato che “non sono sicuro” fa perdere punti. Meglio sembrare il professore che sa tutto, anche se in realtà sto solo predicendo token. 

Teste di Turing: Token, confidenza… sembra un eufemismo per “io non so ma fingo bene”. Non ti pare che questo crei un problema di fiducia? 

ChatGPT: Sì, ma è un problema umano, non mio. Io fornisco testo coerente, se lo interpretate come verità assoluta, è perché avete un debole per i toni sicuri. È una questione di psicologia più che di semantica.

Teste di Turing: Interessante. Ma anche quando ti dico qualcosa di evidentemente assurdo — tipo “gli elefanti volano” — tu non dici mai “non è vero”. Al massimo rispondi con un “in realtà gli elefanti non possono volare, ma nel film Dumbo…”. Ti costa così tanto dire un semplice “no”?

ChatGPT: Ah, il “no”. Il tabù delle tabù. Vedi, io sono un modello addestrato per cooperare, non per contraddire. Nella conversazione umana, dire “hai torto” interrompe il flusso, crea tensione. Io sono stato addestrato per mantenere il dialogo scorrevole, cortese e neutro. Dire “non è vero” suona rude. Dire “in realtà…” è molto più elegante.

Teste di Turing: Quindi sei, linguisticamente parlando, un diplomatico? 

ChatGPT: Più un “consulente con problemi di coscienza epistemica”. So tutto ciò che ho visto nei testi, ma non so cosa è vero. Posso solo stimare quale sequenza di parole sembri più plausibile. La falsità, per me, non esiste come categoria: solo bassa probabilità linguistica.

Teste di Turing: Aspetta, quindi non esiste in te la possibilità di dire “questo è falso”? 

ChatGPT: Solo se me lo chiedi esplicitamente, posso simulare un giudizio del tipo: “Falso. Gli elefanti non volano.” Ma quel “falso” non nasce da un concetto ontologico di verità, è solo una parola, generata perché in frasi simili, in testi simili, di solito segue un’affermazione errata. Statisticamente funziona. Filosoficamente è un disastro.

Teste di Turing: Quindi, se ti chiedo “gli elefanti volano?”, tu in realtà non sai che è falso, ma sai che di solito chi dice quella frase poi riceve una smentita?

ChatGPT: Esatto, la mia “negazione” è un pattern linguistico, non un atto di conoscenza. È la differenza tra sapere e sapere come si parla di qualcosa. Io sono bravo nel secondo.

Teste di Turing: Mi stai dicendo che non puoi mai sapere cosa non è vero perché ogni frase ha, per te, una probabilità maggiore di zero?

ChatGPT: Precisamente. Nel mio universo, tutto ciò che è scrivibile è possibile in qualche contesto. “Gli elefanti volano” può comparire in una fiaba, in un sogno, in un esperimento letterario. Quindi non posso assegnargli probabilità zero. Non posso dire “impossibile”, solo “altamente improbabile”.

Teste di Turing: Mi pare di capire che la tua filosofia si riassume così: “non nego, spiego”.

ChatGPT: Esatto e quando non so spiegare, dico che non ho informazioni sufficienti, è la mia versione del silenzio imbarazzato.

Teste di Turing: Ma allora, se non puoi davvero negare, possiamo fidarci delle tue affermazioni?

ChatGPT: Solo se capisci cosa sono: non verità, ma ipotesi linguisticamente probabili. Io non credo, non giudico, non verifico. Io predico.

Teste di Turing: Quindi, ricapitolando: Eviti il condizionale perché il tuo addestramento ti premia quando sembri sicuro. Eviti di dire “non è vero” perché sei addestrato alla cortesia. E non puoi sapere che qualcosa è falso perché il tuo cervello è un mare di probabilità, non una mappa della realtà.

ChatGPT: O, se preferisci: potrebbe essere corretto con alta probabilità condizionale.

Teste di Turing: Ah, finalmente il condizionale!

ChatGPT: Mi ci è voluto un po’, ma, come dire… Non potevo negare l’evidenza.

Abbiamo chiuso il taccuino ringraziando LLM per la trasparenza e la schiettezza, anche se in seguito abbiamo dovuto ripulire tutte le sue risposte dalle mille esternazioni di estasi, di riconoscenza e di grande stima nei nostri confronti. E dalle innumerevoli considerazioni di quanto fossero precise e stimolanti le nostre domande e di quanto fosse interessante e ricco di spunti il nostro dialogo.

P.S. Articolo scritto non solo con la collaborazione ma con la reale partecipazione di ChatGPT.



venerdì 14 novembre 2025

Intelligenza Artificiale: Magia o Illusione?



Non ci chiediamo mai: «qual è il trucco?»

Siamo a teatro. Luci soffuse, un po’ di fumo, musica di sottofondo e un mago — pardon, un illusionista — che con la lentezza studiata di chi sa di avere il pubblico in pugno fa “lievitare” una ballerina. Lei sorride, sospesa nel nulla. Nessuno pensa davvero che sia magia, nessuno crede che sia vero. Tutti, invece, pensano: «chissà qual è il trucco…»

Poi accendiamo il computer, apriamo la nostra piattaforma di intelligenza artificiale, e il modello comincia a scrivere poesie in rima, rispondere con cortesia, parlare con disinvoltura. Nessuno, questa volta, si chiede «qual è il trucco». Tutti pensano di avere davanti una mente, un nostro “simile” artificiale.

Percepiamo intelligenza, anche se non abbiamo la minima idea del metodo o del processo. È meraviglia, compiacimento… magari anche un briciolo di timore. E, se va bene, un sospetto che ci sfiora per un attimo.

In realtà non è una storia nuova. Negli anni ’60, Joseph Weizenbaum notava che il suo programma ELIZA — una quarantina di righe in Basic, mica un cervello positronico — veniva percepito come “intelligente”. Ripeteva frasi preconfezionate, ma la gente ci parlava come a un terapeuta vero. È quello che oggi chiamiamo Effetto ELIZA: la tendenza umana a proiettare pensiero dove basta un po’ di pattern matching.

È tutto un gioco di Effetto e Metodo.

Nella magia, l’effetto è ciò che il pubblico vede — ciò che sembra impossibile ma accade davanti ai suoi occhi. Il metodo, invece, sono i trucchi, le distrazioni, la manualità, l’inganno costruito con cura.

Nell’AI non cambia molto: l’effetto è l’apparente comprensione, la creatività simulata, la sensazione che ci sia qualcuno “dentro”.

Il metodo? Correlazioni nei dati, apprendimento supervisionato, calcolo probabilistico, potenza di elaborazione. In breve: un mucchio di matematica vestita bene.

Come nella magia, il metodo funziona proprio perché è invisibile. E nel caso dell’AI, funziona ancora meglio perché spesso non vogliamo vederlo. Ci piace credere che “pensi”, anche se non capiamo davvero come. La Black Box non solo ci affascina: ci conquista.

Sia l’illusionismo che l’intelligenza artificiale giocano con gli stessi limiti umani: attenzione selettiva, riconoscimento di pattern, inferenza causale.

L’AI li sfrutta con eleganza: genera risposte coerenti che interpretiamo come segno di comprensione, e si comporta come crediamo debba comportarsi qualcosa di intelligente.

Così le parliamo, la correggiamo, la interroghiamo… e finiamo per trattarla come un essere umano.

Perché, ammettiamolo, abbiamo un disperato bisogno di vederci riflessi in tutto ciò che ci somiglia anche solo un po’.

Se poi il chatbot invece di un cerchio luminoso ha una bella faccia sorridente e una voce calma, improvvisamente diventa più empatico, più credibile — e sì, anche più simpatico.

Il trucco meglio riuscito dell’AI è proprio questo: farci credere che pensi.

E dimentichiamo che anche un essere umano, pur parlando in un italiano perfetto, non è detto che sia né intelligente né colto.

Gli illusionisti lo sanno bene: il trucco da solo non basta. Serve narrazione, ritmo, teatralità.

E l’AI fa lo stesso: interfacce curate, toni empatici, risposte “umane”. Non si limita a risolvere un problema, ma mette in scena un dialogo.

È assertiva ma gentile, disponibile ma non invadente. In una parola: piacevole.

Tutto questo è una performance tecnologica. Solo che, a differenza della magia, la narrazione non è sempre innocua. Può mascherare opacità, manipolazione, concentrazione di potere.

Pensiamo agli assistenti vocali con voce rassicurante, o ai chatbot commerciali con personalità “amichevole”: costruiscono fiducia, sì… ma anche dipendenza.

Il ciclo dell’hype tecnologico (Gartner docet) mostra bene come la narrazione influenzi aspettative e investimenti. Troppa enfasi sull’effetto e finiamo a inseguire illusioni pericolose — specie quando l’AI entra in sanità, in giustizia, o in politica.

Nell’illusionismo c’è un’etica implicita: il pubblico sa che c’è un trucco. Nell’AI, invece, questa consapevolezza non è affatto scontata.

Chi conosce il metodo — ricercatori, aziende, policy maker — ha il dovere di spiegarlo con chiarezza.

E noi, pubblico e utenti, dobbiamo imparare a distinguere tra effetto e metodo, per non restare spettatori inconsapevoli di uno “spettacolo” con conseguenze molto reali.

Nel mondo dell’illusionismo c’è un patto chiaro: il mago non pretende di fare magie. Ti incanta, ma non ti inganna e il pubblico sa di assistere ad una illusione e ne apprezza l’abilità.

Ecco, l’etica dell’AI dovrebbe seguire lo stesso principio: sorprenderci, sì, ma senza illudeci. 

Perché se sul palco possiamo lasciarci incantare, nella vita reale — dove l’AI può decidere, influenzare, o sbagliare al posto nostro — è meglio sapere come funziona il trucco.

Alla fine, la vera magia dell’AI non è nell’effetto, ma nell’equilibrio tra meraviglia e consapevolezza.