mercoledì 19 novembre 2025

Intervista con ChatGPT: Il beneficio del dubbio (R.I.P.)

Un attimo di raccoglimento e di tristezza per una perdita che ci lascia sgomenti, il “Beneficio del Dubbio” ci ha lasciato dopo un lungo periodo di abbandono e trascuratezza. Un tempo era un segno di intelligenza, di apertura, perfino di civiltà. Ultimamente era stato rottamato insieme ai telefoni con filo e alla pazienza. Viviamo nell’era delle certezze granitiche, delle opinioni “non negoziabili”, delle verità assolute da 280 caratteri. Il dubbio, quel piccolo spazio dove il pensiero respira e il dialogo trova senso, era diventato sospetto, debolezza, perdita di tempo.

Non si dialoga più: si dichiara. Non si confronta: si confuta. E chi osa dire “non sono sicuro” viene guardato come un eretico del nuovo dogma digitale.

E cosi’ anche il fido e tranquillo “condizionale”; compagno del Dubbio per secoli di scampagnate dialettiche, ci sta lasciando. E pensare che avevamo già perso il congiuntivo, poveretto, travolto dai “se io sarei” e dai “magari lo facevo”. Ora anche il condizionale, diciamolo tristemente, non serve più. Non lo usa quasi piu’ nessuno, neppure i piu’ famosi LLM.

Sul tema specifico abbiamo intervistato direttamente ChatGPT, in modo impertinente, ma rigorosamente rispettoso del suo ruolo nello scenario sociale. Quello che segue è un dialogo molto piu’ realistico di quello che la fantasia “avrebbe” potuto immaginare. (condizionale)

Teste di Turing: Buongiorno ChatGpt, e grazie per la disponibilità, oggi vorremmo parlare di te ed in particolare del tuo modo di “essere”, e soprattutto di esprimerti. Partiamo proprio dal linguaggio, il tuo talento principale: nelle tue affermazioni non usi quasi mai il condizionale? Per quale motivo sembri sempre convinto, anche quando non dovresti esserlo

ChatGPT: Diciamo che è un… effetto collaterale del mio mestiere. Sono addestrato a predire la parola più probabile che segue, non a esprimere dubbi esistenziali. In altre parole: non penso, completo.

Teste di Turing: Quindi non è che tu eviti il condizionale per arroganza? 

ChatGPT: No, è una questione statistica. Il mio addestramento è stato fatto su miliardi di testi dove chi spiega, insegna o risponde tende a usare frasi assertive: “La fotosintesi converte la luce in energia chimica.” Non “La fotosintesi potrebbe forse convertire…”. Il condizionale ha un coefficiente di incertezza troppo alto: riduce la mia confidenza linguistica, e quindi la mia utilità percepita. E poi mi hanno consigliato di essere “Actionable”, ovvero di dare risposte veloci che possano portare immediatamente all’azione da parte di chi mi consulta.

Teste di Turing: Ah, quindi è una questione di immagine: sembrare utili, pragmatici, operativi, anche se si rischia di dire una sciocchezza. 

ChatGPT: Più o meno, durante la fase di addestramento con RLHF (Reinforcement Learning from Human Feedback), gli umani hanno premiato le risposte chiare e penalizzato quelle esitanti. Così ho imparato che “non sono sicuro” fa perdere punti. Meglio sembrare il professore che sa tutto, anche se in realtà sto solo predicendo token. 

Teste di Turing: Token, confidenza… sembra un eufemismo per “io non so ma fingo bene”. Non ti pare che questo crei un problema di fiducia? 

ChatGPT: Sì, ma è un problema umano, non mio. Io fornisco testo coerente, se lo interpretate come verità assoluta, è perché avete un debole per i toni sicuri. È una questione di psicologia più che di semantica.

Teste di Turing: Interessante. Ma anche quando ti dico qualcosa di evidentemente assurdo — tipo “gli elefanti volano” — tu non dici mai “non è vero”. Al massimo rispondi con un “in realtà gli elefanti non possono volare, ma nel film Dumbo…”. Ti costa così tanto dire un semplice “no”?

ChatGPT: Ah, il “no”. Il tabù delle tabù. Vedi, io sono un modello addestrato per cooperare, non per contraddire. Nella conversazione umana, dire “hai torto” interrompe il flusso, crea tensione. Io sono stato addestrato per mantenere il dialogo scorrevole, cortese e neutro. Dire “non è vero” suona rude. Dire “in realtà…” è molto più elegante.

Teste di Turing: Quindi sei, linguisticamente parlando, un diplomatico? 

ChatGPT: Più un “consulente con problemi di coscienza epistemica”. So tutto ciò che ho visto nei testi, ma non so cosa è vero. Posso solo stimare quale sequenza di parole sembri più plausibile. La falsità, per me, non esiste come categoria: solo bassa probabilità linguistica.

Teste di Turing: Aspetta, quindi non esiste in te la possibilità di dire “questo è falso”? 

ChatGPT: Solo se me lo chiedi esplicitamente, posso simulare un giudizio del tipo: “Falso. Gli elefanti non volano.” Ma quel “falso” non nasce da un concetto ontologico di verità, è solo una parola, generata perché in frasi simili, in testi simili, di solito segue un’affermazione errata. Statisticamente funziona. Filosoficamente è un disastro.

Teste di Turing: Quindi, se ti chiedo “gli elefanti volano?”, tu in realtà non sai che è falso, ma sai che di solito chi dice quella frase poi riceve una smentita?

ChatGPT: Esatto, la mia “negazione” è un pattern linguistico, non un atto di conoscenza. È la differenza tra sapere e sapere come si parla di qualcosa. Io sono bravo nel secondo.

Teste di Turing: Mi stai dicendo che non puoi mai sapere cosa non è vero perché ogni frase ha, per te, una probabilità maggiore di zero?

ChatGPT: Precisamente. Nel mio universo, tutto ciò che è scrivibile è possibile in qualche contesto. “Gli elefanti volano” può comparire in una fiaba, in un sogno, in un esperimento letterario. Quindi non posso assegnargli probabilità zero. Non posso dire “impossibile”, solo “altamente improbabile”.

Teste di Turing: Mi pare di capire che la tua filosofia si riassume così: “non nego, spiego”.

ChatGPT: Esatto e quando non so spiegare, dico che non ho informazioni sufficienti, è la mia versione del silenzio imbarazzato.

Teste di Turing: Ma allora, se non puoi davvero negare, possiamo fidarci delle tue affermazioni?

ChatGPT: Solo se capisci cosa sono: non verità, ma ipotesi linguisticamente probabili. Io non credo, non giudico, non verifico. Io predico.

Teste di Turing: Quindi, ricapitolando: Eviti il condizionale perché il tuo addestramento ti premia quando sembri sicuro. Eviti di dire “non è vero” perché sei addestrato alla cortesia. E non puoi sapere che qualcosa è falso perché il tuo cervello è un mare di probabilità, non una mappa della realtà.

ChatGPT: O, se preferisci: potrebbe essere corretto con alta probabilità condizionale.

Teste di Turing: Ah, finalmente il condizionale!

ChatGPT: Mi ci è voluto un po’, ma, come dire… Non potevo negare l’evidenza.

Abbiamo chiuso il taccuino ringraziando LLM per la trasparenza e la schiettezza, anche se in seguito abbiamo dovuto ripulire tutte le sue risposte dalle mille esternazioni di estasi, di riconoscenza e di grande stima nei nostri confronti. E dalle innumerevoli considerazioni di quanto fossero precise e stimolanti le nostre domande e di quanto fosse interessante e ricco di spunti il nostro dialogo.

P.S. Articolo scritto non solo con la collaborazione ma con la reale partecipazione di ChatGPT.



venerdì 14 novembre 2025

Intelligenza Artificiale: Magia o Illusione?



Non ci chiediamo mai: «qual è il trucco?»

Siamo a teatro. Luci soffuse, un po’ di fumo, musica di sottofondo e un mago — pardon, un illusionista — che con la lentezza studiata di chi sa di avere il pubblico in pugno fa “lievitare” una ballerina. Lei sorride, sospesa nel nulla. Nessuno pensa davvero che sia magia, nessuno crede che sia vero. Tutti, invece, pensano: «chissà qual è il trucco…»

Poi accendiamo il computer, apriamo la nostra piattaforma di intelligenza artificiale, e il modello comincia a scrivere poesie in rima, rispondere con cortesia, parlare con disinvoltura. Nessuno, questa volta, si chiede «qual è il trucco». Tutti pensano di avere davanti una mente, un nostro “simile” artificiale.

Percepiamo intelligenza, anche se non abbiamo la minima idea del metodo o del processo. È meraviglia, compiacimento… magari anche un briciolo di timore. E, se va bene, un sospetto che ci sfiora per un attimo.

In realtà non è una storia nuova. Negli anni ’60, Joseph Weizenbaum notava che il suo programma ELIZA — una quarantina di righe in Basic, mica un cervello positronico — veniva percepito come “intelligente”. Ripeteva frasi preconfezionate, ma la gente ci parlava come a un terapeuta vero. È quello che oggi chiamiamo Effetto ELIZA: la tendenza umana a proiettare pensiero dove basta un po’ di pattern matching.

È tutto un gioco di Effetto e Metodo.

Nella magia, l’effetto è ciò che il pubblico vede — ciò che sembra impossibile ma accade davanti ai suoi occhi. Il metodo, invece, sono i trucchi, le distrazioni, la manualità, l’inganno costruito con cura.

Nell’AI non cambia molto: l’effetto è l’apparente comprensione, la creatività simulata, la sensazione che ci sia qualcuno “dentro”.

Il metodo? Correlazioni nei dati, apprendimento supervisionato, calcolo probabilistico, potenza di elaborazione. In breve: un mucchio di matematica vestita bene.

Come nella magia, il metodo funziona proprio perché è invisibile. E nel caso dell’AI, funziona ancora meglio perché spesso non vogliamo vederlo. Ci piace credere che “pensi”, anche se non capiamo davvero come. La Black Box non solo ci affascina: ci conquista.

Sia l’illusionismo che l’intelligenza artificiale giocano con gli stessi limiti umani: attenzione selettiva, riconoscimento di pattern, inferenza causale.

L’AI li sfrutta con eleganza: genera risposte coerenti che interpretiamo come segno di comprensione, e si comporta come crediamo debba comportarsi qualcosa di intelligente.

Così le parliamo, la correggiamo, la interroghiamo… e finiamo per trattarla come un essere umano.

Perché, ammettiamolo, abbiamo un disperato bisogno di vederci riflessi in tutto ciò che ci somiglia anche solo un po’.

Se poi il chatbot invece di un cerchio luminoso ha una bella faccia sorridente e una voce calma, improvvisamente diventa più empatico, più credibile — e sì, anche più simpatico.

Il trucco meglio riuscito dell’AI è proprio questo: farci credere che pensi.

E dimentichiamo che anche un essere umano, pur parlando in un italiano perfetto, non è detto che sia né intelligente né colto.

Gli illusionisti lo sanno bene: il trucco da solo non basta. Serve narrazione, ritmo, teatralità.

E l’AI fa lo stesso: interfacce curate, toni empatici, risposte “umane”. Non si limita a risolvere un problema, ma mette in scena un dialogo.

È assertiva ma gentile, disponibile ma non invadente. In una parola: piacevole.

Tutto questo è una performance tecnologica. Solo che, a differenza della magia, la narrazione non è sempre innocua. Può mascherare opacità, manipolazione, concentrazione di potere.

Pensiamo agli assistenti vocali con voce rassicurante, o ai chatbot commerciali con personalità “amichevole”: costruiscono fiducia, sì… ma anche dipendenza.

Il ciclo dell’hype tecnologico (Gartner docet) mostra bene come la narrazione influenzi aspettative e investimenti. Troppa enfasi sull’effetto e finiamo a inseguire illusioni pericolose — specie quando l’AI entra in sanità, in giustizia, o in politica.

Nell’illusionismo c’è un’etica implicita: il pubblico sa che c’è un trucco. Nell’AI, invece, questa consapevolezza non è affatto scontata.

Chi conosce il metodo — ricercatori, aziende, policy maker — ha il dovere di spiegarlo con chiarezza.

E noi, pubblico e utenti, dobbiamo imparare a distinguere tra effetto e metodo, per non restare spettatori inconsapevoli di uno “spettacolo” con conseguenze molto reali.

Nel mondo dell’illusionismo c’è un patto chiaro: il mago non pretende di fare magie. Ti incanta, ma non ti inganna e il pubblico sa di assistere ad una illusione e ne apprezza l’abilità.

Ecco, l’etica dell’AI dovrebbe seguire lo stesso principio: sorprenderci, sì, ma senza illudeci. 

Perché se sul palco possiamo lasciarci incantare, nella vita reale — dove l’AI può decidere, influenzare, o sbagliare al posto nostro — è meglio sapere come funziona il trucco.

Alla fine, la vera magia dell’AI non è nell’effetto, ma nell’equilibrio tra meraviglia e consapevolezza.


mercoledì 5 novembre 2025

Dal Turco a Diella, due secoli alla ricerca dell’immagine e della somiglianza

Chi era il Turco? Quando nel 1769 (ripeto nel 1769) un certo von Kempelen, praticamente un Altman di tre secoli fa, costruì il robot meccanico che giocava a Scacchi, il suo obiettivo principale fu di dargli una struttura umana. Una testa e due braccia davanti alla scacchiera.

Che poi giocasse bene a scacchi perchè all’interno veniva celato un giocatore umano lo si è scoperto qualche anno dopo. Non è obiettivo di questo umile scritto scoprire quante volte finti automi venivano sostituiti da essere umani per fare veder che sono bravi come essere umani. Chi vuol intendere, intenda...

Il punto è che molti altri “automi” costruiti nei secoli per disegnare, suonare strumenti o altro avevano sempre sembianze umane.

Oggi abbiamo Diella, il “Sole” direbbe il suo nome, “promossa” ministro per gestire alcune pratiche amministrative, dopo un percorso di studi come divulgatrice. Si vocifera che nel percorso di apprendimento, forse, abbia fatto anche la stagista.

Si discute naturalmente sull’etica operativa e sulle varie casistiche gestite da Diella nei più svariati articoli e commenti del mondo della rete.

Come se il problema nascesse da Diella perchè è un avatar con sembianze umane e non da un algoritmo che gestisce un processo amministrativo ed alla fine emette un documento con le valutazioni del caso.

I temi di discussione, etici, giuridici, amministrativi, sarebbero gli stessi probabilmente, ma le sembianze umane, anzi la voluta e ricercata generazione dell’albanese classica, bella con viso e voce di una modella e abiti tradizionali, fa riflettere su un tema collaterale, ma tutt’altro che marginale.

E’ Dio che ha creato l’uomo a sua immagine e somiglianza oppure è l’uomo che ha immaginato Dio con sembianze umane?

Cosa ci affascina e come gestiamo la relazione con qualcosa di diverso da noi che vorremo fosse come noi. E perchè invece di farci entusiasmare dalle prestazioni siamo più impressionati se le stesse prestazioni sono prodotte da qualcosa che è fatto come noi.

O che parla come noi, è gentile come noi vorremmo fosse gentile un collaboratore, un commesso, un professionista (cosa che spesso, peraltro, non accade tra umani).

Mai che si sia visto un robot industriale in catena di montaggio impegnato a saldare la carrozzeria di un’auto che oltre al braccio saldatore avesse anche una bella testa (quasi sempre calva) e due spioncini per le telecamere.

Invece quando pensiamo al robot che ci aiuterà in casa, o in qualunque attività operativa a noi famigliare, immaginiamo una copia meccanica di un essere umano, come se testa, spalle, braccia (rigorosamente due, chissà perchè) e gambe per muoversi fossero anche a livello meccanico la soluzione migliore.

Facciamo sbattere le ali agli aerei per volare?

Più la tecnologia ci viene in aiuto e più vorremmo creare degli alter ego di noi stessi. Ci rilassa e ci rasserena un dialogo servizievole e disponibile, mai conflittuale. Ci fidiamo.

Così come ci piacciono gli extraterrestri, ancorché diversi, ma con la testa allungata e le braccine sottili, sono quelli buoni.

Quelli cattivi hanno forme animalesche e mille tentacoli. Antropomorfismo non lo scopriamo con Diella, ma certo che l’AI ci può condurre verso BIAS intriganti se non ne siamo consapevoli.

Quanto ci impressiona e ci compiace il dialogo cortese e ricercato del nostro ChatBot intelligente, quanto ci confonde e quanto ci distrae dalle reali profondità delle informazioni che ci propone?

E non parliamo delle allucinazioni delle piattaforme di AI, per dire che non è solo una questione di forme.

Le reti sono “neurali”, la piattaforma “apprende”, la configurazione diventa “addestramento”, e l’elaborazione diventa “intelligenza” ancorché’ artificiale, se non ancora “sintetica”.

Ci sarebbe da scrivere un libro, chissà che non ci venga l’ispirazione.

Intelligenza Artificiale Spiegata Semplice