Siamo a teatro. Luci soffuse, un po’ di fumo, musica di sottofondo e un mago — pardon, un illusionista — che con la lentezza studiata di chi sa di avere il pubblico in pugno fa “lievitare” una ballerina. Lei sorride, sospesa nel nulla. Nessuno pensa davvero che sia magia, nessuno crede che sia vero. Tutti, invece, pensano: «chissà qual è il trucco…»
Poi accendiamo il computer, apriamo la nostra piattaforma di intelligenza artificiale, e il modello comincia a scrivere poesie in rima, rispondere con cortesia, parlare con disinvoltura. Nessuno, questa volta, si chiede «qual è il trucco». Tutti pensano di avere davanti una mente, un nostro “simile” artificiale.
Percepiamo intelligenza, anche se non abbiamo la minima idea del metodo o del processo. È meraviglia, compiacimento… magari anche un briciolo di timore. E, se va bene, un sospetto che ci sfiora per un attimo.
In realtà non è una storia nuova. Negli anni ’60, Joseph Weizenbaum notava che il suo programma ELIZA — una quarantina di righe in Basic, mica un cervello positronico — veniva percepito come “intelligente”. Ripeteva frasi preconfezionate, ma la gente ci parlava come a un terapeuta vero. È quello che oggi chiamiamo Effetto ELIZA: la tendenza umana a proiettare pensiero dove basta un po’ di pattern matching.
È tutto un gioco di Effetto e Metodo.
Nella magia, l’effetto è ciò che il pubblico vede — ciò che sembra impossibile ma accade davanti ai suoi occhi. Il metodo, invece, sono i trucchi, le distrazioni, la manualità, l’inganno costruito con cura.
Nell’AI non cambia molto: l’effetto è l’apparente comprensione, la creatività simulata, la sensazione che ci sia qualcuno “dentro”.
Il metodo? Correlazioni nei dati, apprendimento supervisionato, calcolo probabilistico, potenza di elaborazione. In breve: un mucchio di matematica vestita bene.
Come nella magia, il metodo funziona proprio perché è invisibile. E nel caso dell’AI, funziona ancora meglio perché spesso non vogliamo vederlo. Ci piace credere che “pensi”, anche se non capiamo davvero come. La Black Box non solo ci affascina: ci conquista.
Sia l’illusionismo che l’intelligenza artificiale giocano con gli stessi limiti umani: attenzione selettiva, riconoscimento di pattern, inferenza causale.
L’AI li sfrutta con eleganza: genera risposte coerenti che interpretiamo come segno di comprensione, e si comporta come crediamo debba comportarsi qualcosa di intelligente.
Così le parliamo, la correggiamo, la interroghiamo… e finiamo per trattarla come un essere umano.
Perché, ammettiamolo, abbiamo un disperato bisogno di vederci riflessi in tutto ciò che ci somiglia anche solo un po’.
Se poi il chatbot invece di un cerchio luminoso ha una bella faccia sorridente e una voce calma, improvvisamente diventa più empatico, più credibile — e sì, anche più simpatico.
Il trucco meglio riuscito dell’AI è proprio questo: farci credere che pensi.
E dimentichiamo che anche un essere umano, pur parlando in un italiano perfetto, non è detto che sia né intelligente né colto.
Gli illusionisti lo sanno bene: il trucco da solo non basta. Serve narrazione, ritmo, teatralità.
E l’AI fa lo stesso: interfacce curate, toni empatici, risposte “umane”. Non si limita a risolvere un problema, ma mette in scena un dialogo.
È assertiva ma gentile, disponibile ma non invadente. In una parola: piacevole.
Tutto questo è una performance tecnologica. Solo che, a differenza della magia, la narrazione non è sempre innocua. Può mascherare opacità, manipolazione, concentrazione di potere.
Pensiamo agli assistenti vocali con voce rassicurante, o ai chatbot commerciali con personalità “amichevole”: costruiscono fiducia, sì… ma anche dipendenza.
Il ciclo dell’hype tecnologico (Gartner docet) mostra bene come la narrazione influenzi aspettative e investimenti. Troppa enfasi sull’effetto e finiamo a inseguire illusioni pericolose — specie quando l’AI entra in sanità, in giustizia, o in politica.
Nell’illusionismo c’è un’etica implicita: il pubblico sa che c’è un trucco. Nell’AI, invece, questa consapevolezza non è affatto scontata.
Chi conosce il metodo — ricercatori, aziende, policy maker — ha il dovere di spiegarlo con chiarezza.
E noi, pubblico e utenti, dobbiamo imparare a distinguere tra effetto e metodo, per non restare spettatori inconsapevoli di uno “spettacolo” con conseguenze molto reali.
Nel mondo dell’illusionismo c’è un patto chiaro: il mago non pretende di fare magie. Ti incanta, ma non ti inganna e il pubblico sa di assistere ad una illusione e ne apprezza l’abilità.
Ecco, l’etica dell’AI dovrebbe seguire lo stesso principio: sorprenderci, sì, ma senza illudeci.
Perché se sul palco possiamo lasciarci incantare, nella vita reale — dove l’AI può decidere, influenzare, o sbagliare al posto nostro — è meglio sapere come funziona il trucco.
Alla fine, la vera magia dell’AI non è nell’effetto, ma nell’equilibrio tra meraviglia e consapevolezza.
Chi era il Turco? Quando nel 1769 (ripeto nel 1769) un certo von Kempelen, praticamente un Altman di tre secoli fa, costruì il robot meccanico che giocava a Scacchi, il suo obiettivo principale fu di dargli una struttura umana. Una testa e due braccia davanti alla scacchiera.
Che poi giocasse bene a scacchi perchè all’interno veniva celato un giocatore umano lo si è scoperto qualche anno dopo. Non è obiettivo di questo umile scritto scoprire quante volte finti automi venivano sostituiti da essere umani per fare veder che sono bravi come essere umani. Chi vuol intendere, intenda...
Il punto è che molti altri “automi” costruiti nei secoli per disegnare, suonare strumenti o altro avevano sempre sembianze umane.
Oggi abbiamo Diella, il “Sole” direbbe il suo nome, “promossa” ministro per gestire alcune pratiche amministrative, dopo un percorso di studi come divulgatrice. Si vocifera che nel percorso di apprendimento, forse, abbia fatto anche la stagista.
Si discute naturalmente sull’etica operativa e sulle varie casistiche gestite da Diella nei più svariati articoli e commenti del mondo della rete.
Come se il problema nascesse da Diella perchè è un avatar con sembianze umane e non da un algoritmo che gestisce un processo amministrativo ed alla fine emette un documento con le valutazioni del caso.
I temi di discussione, etici, giuridici, amministrativi, sarebbero gli stessi probabilmente, ma le sembianze umane, anzi la voluta e ricercata generazione dell’albanese classica, bella con viso e voce di una modella e abiti tradizionali, fa riflettere su un tema collaterale, ma tutt’altro che marginale.
E’ Dio che ha creato l’uomo a sua immagine e somiglianza oppure è l’uomo che ha immaginato Dio con sembianze umane?
Cosa ci affascina e come gestiamo la relazione con qualcosa di diverso da noi che vorremo fosse come noi. E perchè invece di farci entusiasmare dalle prestazioni siamo più impressionati se le stesse prestazioni sono prodotte da qualcosa che è fatto come noi.
O che parla come noi, è gentile come noi vorremmo fosse gentile un collaboratore, un commesso, un professionista (cosa che spesso, peraltro, non accade tra umani).
Mai che si sia visto un robot industriale in catena di montaggio impegnato a saldare la carrozzeria di un’auto che oltre al braccio saldatore avesse anche una bella testa (quasi sempre calva) e due spioncini per le telecamere.
Invece quando pensiamo al robot che ci aiuterà in casa, o in qualunque attività operativa a noi famigliare, immaginiamo una copia meccanica di un essere umano, come se testa, spalle, braccia (rigorosamente due, chissà perchè) e gambe per muoversi fossero anche a livello meccanico la soluzione migliore.
Facciamo sbattere le ali agli aerei per volare?
Più la tecnologia ci viene in aiuto e più vorremmo creare degli alter ego di noi stessi. Ci rilassa e ci rasserena un dialogo servizievole e disponibile, mai conflittuale. Ci fidiamo.
Così come ci piacciono gli extraterrestri, ancorché diversi, ma con la testa allungata e le braccine sottili, sono quelli buoni.
Quelli cattivi hanno forme animalesche e mille tentacoli. Antropomorfismo non lo scopriamo con Diella, ma certo che l’AI ci può condurre verso BIAS intriganti se non ne siamo consapevoli.
Quanto ci impressiona e ci compiace il dialogo cortese e ricercato del nostro ChatBot intelligente, quanto ci confonde e quanto ci distrae dalle reali profondità delle informazioni che ci propone?
E non parliamo delle allucinazioni delle piattaforme di AI, per dire che non è solo una questione di forme.
Le reti sono “neurali”, la piattaforma “apprende”, la configurazione diventa “addestramento”, e l’elaborazione diventa “intelligenza” ancorché’ artificiale, se non ancora “sintetica”.
Ci sarebbe da scrivere un libro, chissà che non ci venga l’ispirazione.
Non è solo fantasia, a volte le “porte temporali” esistono veramente, anche sotto i portici di Torino, città magica per storia e tradizione.Sono porte che non vedi passando, che non esistono se non hai occhi attenti. Non le puoi cercare, le puoi solo trovare. In un angolo di Torino senza nessuna pretesa, di fianco ad uno dei tanti portoni sabaudi, una piccola porta di vetro, oscurata dal tempo, senza nessuna insegna. Solo un piccolo campanello che forse è apparso al mio passaggio. Un attimo di attesa e la porta si socchiude. Compare Gino, cosi’ scopro che si chiama, Gino il sarto. Il sarto da sempre. Camicia colorata, bretelle, cravatta scura. Ma soprattutto grandi baffi grigi ed enormi occhiali d'altri tempi. Dietro alla porta un mondo di un tempo che fu. Piccolo e stretto, con vecchie fotografie alle pareti, un retro bottega con un enorme tavolo e poi tanti manichini senza testa, ma con giacche abbottonate che cadono alla perfezione. Tutte stirate con cura, alcune ancora con segni di gesso bianco, altre ancora senza maniche con cuciture di imbastitura. E poi tessuti sugli scaffali, fantasie sabaude. Colori caldi, tenui, classici. Porgo piu’ con imbarazzo che con pudore i miei pantaloni da aggiustare sotto lo sguardo di Gino che mi guarda come mi guarderebbe Michelangelo se gli chiedessi di imbiancarmi il salotto. Ma Gino capisce il mio stupore, coglie la mia curiosità. E mi racconta… “sapesse quanto lavoro ci sarebbe per i vestiti su misura, se ci fossero piu’ sarti come me..” “Non ci crederà ma sono i piu’ giovani che cercano l’abito fatto a mano” Mi accompagna verso l’interno e passando accarezza con una mano la spalla di una giacca grigia ormai terminata sul suo manichino. Attratto da quel gesto passo una mano su un paio di “pezze di tessuto”, per sentire il calore della lana e rispettare la gerarchia: io il tessuto, lui la giacca finita. Sorride quando gli dico che abito a due passi e mi racconta del “Conte” che abitava tanti anni fa in quel che probabilmente è il palazzo di casa mia. “arrivava con il bastone, un signore senza età, che con un problema di ernia inguinale voleva il vestito perfetto, che nascondesse ogni difetto”.
Lo vedo sospirare, colgo il ricordo di un tempo che non c’è più. Quasi vorrei riprendermi i miei pantaloni industriali, ma ormai ha deciso che mi farà il lavoro, con la promessa che un giorno andro’ a farmi fare un vero vestito su misura, tutto per me. Prende nota del mio numero di telefono, scrivendo grossi caratteri con la calligrafia che mi ricorda quella di mia nonna, dove il numero 3 sembra un capolettera di un manoscritto medioevale. Rimaniamo ancora un attimo in silenzio, senza volerci veramente salutare, ma poi il portale temporale si illumina per richiamarmi nella Torino dei giorni nostri. Intravedo l’ombra di Gino che torna nel retrobottega con il passo lento e il metro al collo. Sorrido, tornero’.
È successo di nuovo. OpenAI ha lanciato GPT-5, annunciato come"il suo modello AI più avanzato",un salto quantico rispetto alle versioni precedenti.
Ormai siamo abituati al marketing di frontiera, dove non si presenta un prodotto con le tradizionali“note de release”,ma con slogan altisonanti cha lasciano intendere fantastiche prestazioni mai viste prima, senza entrare nel merito delle reali funzionalità.
Indubbiamente GPT 5 è un miglioramento notevole, sicuramente lo sarà per determinate attività e per situazioni dove porterà potenza e automazione.
Ma utilizza pur sempre la stessa architettura, la stessa tecnologia di base, e quindi può evolvere, ottimizzare, perfezionare – ma non rivoluzionare. Si porta dietro molti dei difetti strutturali del passato, come un palazzo antico che, per quanto ristrutturato, mantiene le fondamenta originali con tutte le loro crepe.
I primi test della nuova piattaforma pare non abbiano superato certi limiti strutturali in situazioni ben conosciute dove i sistemi non riescono a risolvere problemi banali, proprio per i limiti intrinsechi.
L’automobile ha rivoluzionato i trasporti, surclassando cavalli e carrozze, e la tecnologia negli anni ha prodotto auto sempre piu’ veloci, piu’ comode, piu’ sicure. Termiche, elettriche, ad idrogeno... ma pur sempre automobili, che non possono da un giorno all’altro con un nuovo modello, o meglio con "una nuova release"…Volare. E nessuno se lo aspetta, nessuno lo pretende e nessun costruttore dice che tra qualche anno voleranno.
A meno di non cambiare l’architettura: per volare ci sono gliaerei, una tecnologia nuova, diversa.
Le piattaforme AI saranno sempre piu’ fantastiche, sempre piu’ potenti, sempre piu’ affabili, assertive, affascinanti, ma non in grado di essere consapevoli, di andare oltre.
Queste piattafome di AI, per il momento, con questa seppur sofisiticate tencologie, con la potenza inaudita delle GPU e delle mega Serverfarms.... "non possono volare".
A meno che non arrivi qualcosa di nuovo, una nuova soluzione tecnologia, che oggi non sembra ancora delinearsi all’orizzonte.
Ora, è vero che non dovremmo giudicare un'AI dalla sua capacità di trovare le R nella parola"strawberry", o farlo cadere in errore con la famosa operazione“8.9 -8,11”(pare che anche GPT5 sia caduto negli stessi tranelli), però ammettiamolo è frustrante sapere che questi sistemi stanno cambiando le nostre vite e possono sviluppare codice alla velocità della luce, poi non riescono a distinguere le cifre decimali (anche se noi, indulgenti, ormai sappiamo il perché).
Per essere banali ricordiamo che i sistemi AI attuali trasformano qualsiasi input in token discreti, poi convertono ogni token in vettori numerici - alla fine è tutto "numeri e bit&byte", perdendo informazioni o meglio"conoscenza"quando devono interagire con relazioni topologiche qualitative relativamente banali per il ragionamento umano.
Proprio la conoscenza Topologica e il ragionamento topologico sono ancora un grosso limite per sistemi che eccellono nel "pattern matching", nel processare dati su griglie regolari.
Forse una comunicazione più onesta, trasparente e corretta da parte delle aziende aiuterebbe tutti a utilizzare questi strumenti nel modo migliore.
Invece di promettere la rivoluzione di domani, perché non spiegare chiaramente cosa questi strumenti fanno bene oggi e cosa invece no? Invece di parlare di "intelligenza artificiale generale" dietro l'angolo, perché non essere espliciti sui limiti architetturali attuali?
Il punto non è criticare l'AI o sminuire i progressi reali che vengono fatti. GPT-5, Claude 4, e tutti gli altri modelli di nuova generazione sono strumenti potentissimi che possono davvero migliorare la produttività , la qualità e il supporto operativo in molti ambiti. Il punto è avere aspettative realistiche e strumenti di valutazione che ci dicano davvero cosa aspettarci.
Il Test “Il Quesito con la Susi”
Ed eccoci al punto cruciale, ironicamente parlando, di questa riflessione. Se davvero vogliamo misurare l'intelligenza artificiale, forse dovremmo abbandonare il venerabile Test di Turing – troppo filosofico, troppo astratto, troppo facilmente aggirabile con trucchi conversazionali – e adottare qualcosa di nuovo, di più pragmatico, come“Il Quesito con la Susi”
Un rompicapo, non uno di quelli impossibili, ma uno di quelli che un essere umano mediamente sveglio potrebbe risolvere con una matita, un grande foglio di carta, un po’ di logica e una mezza mattina davanti al caffè della domenica. Il tipo di problema che richiede:
Comprensione accurata del testo
Identificazione dei vincoli
Ragionamento logico sequenziale
Capacità di visualizzazione spaziale o numerica
Un pizzico di creatività laterale
Da molti anni, un famoso Settimanale di Enigmistica in Italia propone di tanto in tanto un concorso a premi:“Il Quesito con la Susi”
Un rompicapo dei piu’ classici, impostato con un bel disegno dove bisogna interpretarne il senso, i vincoli descritti e trovare con logica o con pragmatico sviluppo di varie configurazioni la soluzione che rispetti quanto descritto.
Certo, ci puo’ essere“informazione topologica”in questi rompicapo, ma sapendolo si possono ricondurre gli aspetti topologici a dimensioni piu’ discrete con molta precisione attraverso prompt dettagliati, dialoghi al limiti dell’esasperazione, attenta e paziente cooperazione con il sistema, step by step.
Ecco l'esperimento: giornate intere su tutte le principali piattaforme AI cercando di far risolvere il semplice rompicapo delconcorso n. 1013 della Settimana Enigmistica:
Semplice il quesito, certamente complicata la soluzione: 5 auto parcheggiate e 5 autiste davanti alle auto, nessuna davanti alla propria auto e la necessita di capire in relazione alle loro dichiarazioni quale fossero le 5 autiste e quale fossero le loro rispettive auto. Personaggi: La Susi, che ha bisogno di un passaggio, e che vuole sapere chi è Marta e qual è la sua auto. E poi Bianca, Franca, Giovanna, Laura ed appunto Marta, chi con la gonna, chi con i pantaloni e due auto con il portapacchi ben identificabili. Ognuna che esprime una affermazione (es.“Laura non è vicina a me ed io ho parcheggiato di fronte a Bianca”,e cosi via)
Risultato? Zero su tutta la linea. Ma la cosa più allarmante non era l'incapacità di trovare la soluzione – era l'incapacità di interpretare correttamente il problema stesso.
A partire dal fatto che Susi che poneva il rompicapo ovviamente non ne era parte, o che una persona che dichiarava dove potesse essere l’aiuto di Laura, non poteva essere lei stessa Laura, citando se’ stessa in terza persona.
Ho passato ore a dialogare con diverse piattaforme di AI per cercare di avere la soluzione, e anche per capire come le differenti piattaforme avrebbero affrontato il problema, ma la sorpresa piu’ grande è stata la totale incapacità di “capire” il rompicato, di identificare gli elementi del problema, di capire il senso dei vincoli descritti. Nonostante ripetute dettagliate e precise ridefinizioni, puntualizzazioni, chiarimenti, indicazioni precise.
La continua frustrante proposta di soluzioni “perfette” che puntualmente non rispettavano con estrema evidenza uno o piu vincoli, banali ed evidenti.
E ancora peggio vedere le soluzioni proposte in evidente contraddizione anche con le ipotesi fatte, non solo con i vincoli condivisi e con le molteplici spiegazioni e correzioni fatte nei dialoghi per definire correttamente con la massima precisione possibile le varie ipotesi.
“”Ecco la soluzione al problema”puntualmente sbagliata.“Scusa, hai ragione mi correggo subito”.
Centinaia di configurazioni corrette sempre presentate con determinazione, sicurezza e grande entusiasmo. E mentre il video della chat si andava riempiendo, sciorinando tabelle con dettagli puntuali, ecco il sistema stesso ad un certo punto accorgersi di aver prodotto una conflittualità in totale contraddizione con l’affermazione iniziale appena fatta di avere trovato la“soluzione corretta e precisa”.Ed ecco comparire l’esterrefatta considerazione:“ops sembra che ci sia una conflittualità che non ho rispettato, scusa”.
Ho raccolto piu’ di 300 pagine di chat con sequenze continue di dialoghi surreali carichi di frustrazioni e delusioni, e sto parlando di ChatGpt, di Claude, di DeepSeek, di Copilot (con Ggpt5), di Cerebras.Inference (per non farci mancare nulla).
Naturalmente ho provato ogni approccio possibile:
Prompt lunghissimi e dettagliati, spiegando come si racconterebbe il rompicapo a un bambino
Upload dell'immagine/scanner della pagina originale dalla rivista
Correzioni puntuali di ogni incomprensione nell'interpretazione
Scomposizione del problema in micro-step
La quantità di errori maldestri, quasi incredibili sarebbe lunghissima da elencare in un articolo, anche se è tutto documentato, tutto alla luce del sole.
Addirittura errori nel calcolare il numero delle possibili configurazioni da valutare con i vincoli o, peggio. confondere i nomi dei personaggi del rompicapo.
Persino il cambio di nome casuale e pure maschile “Mario” al posto di “Marta” in una fase concitata della chat, con la ridicola giustificazione del sistema una volta fatto notare l’errore“Hai ragione scusa, nella fretta ho fatto un errore di digitazione, succede”.
Questo fallimento non è casuale, è strutturale. Le attuali AI, per quanto impressionanti, sono fondamentalmentepredittori di sequenzemolto sofisticati. Sono addestrate su testi dove una risposta, un riferimento, una aassociazione anche banale esiste già da qualche parte, dove possono attingere a pattern già visti milioni/miliardi di volte. Ma un rompicapo originale richiede qualcosa di diverso: vera comprensione, ragionamento deduttivo, capacità di costruire modelli mentali forse inediti.
È come la differenza tra un musicista che può suonare perfettamente qualsiasi brano esistente e uno che può improvvisare jazz. Il primo può stupirvi con la sua precisione tecnica, il secondo vi fa capire cosa significa davvero "creare".
Ho probabilmente mandato in fumo un paio di ettari di foresta amazzonica e mi sento molto colpevole, soprattutto considerando che quando ho deciso di risolverlo “a modo mio”, in una mezz'oretta con un consumo di qualche microwatt dei miei ormai "vetusti neuroni" del secolo scorso sono arrivato ad una configurazione accettabile, spero corretta, sicuramente piu’ affidabile delle mille proposte prodotte dai sistemi di AI. Certo io sono andato per metodo induttivo, ho usato l’istinto e la visione o meglio la consapevolezza topologica della scena, che è rimasta astratta senza il bisogno di doverla rappresentare in qualche forma di griglia o di grafo.
Il“Quesito con la Susi”, nella sua semplicità ironica, cattura qualcosa di essenziale: la differenza tra elaborazione sofisticata di pattern esistenti e vera comprensione. Quando un'AI riuscirà a risolvere consistentemente rompicapi inediti – non perché ha visto la soluzione durante l'addestramento, ma perché ha davvero "capito" il problema – allora forse potremo iniziare a parlare seriamente di intelligenza.
Nel frattempo, godiamoci questi strumenti per quello che sono: assistenti incredibilmente capaci ma non infallibili, potenziatori dell'intelligenza umana piuttosto che suoi sostituti, partner anche creativi che eccellono nella combinazione e ricombinazione di idee esistenti ma che ancora faticano con la vera innovazione concettuale.
La comunità AI rimane divisa, con alcuni che si aspettano che GPT-5 cosi come ogni nuova versione sua e dei suoi fratelli, siano rivoluzionario, mentre altri credono che le tecnologie attuali stiano raggiungendo i loro limiti naturali.
Forse la verità, come spesso accade, sta nel mezzo: progressi costanti e significativi, sì, ma non quella singolarità tecnologica che il marketing ci promette ogni sei mesi.
E quando arriverà il giorno in cui un'AI risolverà quel maledetto rompicapo del “Quesito con la Susi” sottoposto a tutte le piattaforme, be', quel giorno forse avremo davvero qualcosa di rivoluzionario di cui parlare.
Nel frattempo, continuiamo a usare questi strumenti straordinari per quello che sanno fare meglio, controllando e verificando ogni risposta, ogni suggerimento, ogni "compendio" anche e soprattuto quando presentato come verità assoluta, tenendo i piedi per terra e la mente aperta.