Siamo a teatro. Luci soffuse, un po’ di fumo, musica di sottofondo e un mago — pardon, un illusionista — che con la lentezza studiata di chi sa di avere il pubblico in pugno fa “lievitare” una ballerina. Lei sorride, sospesa nel nulla. Nessuno pensa davvero che sia magia, nessuno crede che sia vero. Tutti, invece, pensano: «chissà qual è il trucco…»
Poi accendiamo il computer, apriamo la nostra piattaforma di intelligenza artificiale, e il modello comincia a scrivere poesie in rima, rispondere con cortesia, parlare con disinvoltura. Nessuno, questa volta, si chiede «qual è il trucco». Tutti pensano di avere davanti una mente, un nostro “simile” artificiale.
Percepiamo intelligenza, anche se non abbiamo la minima idea del metodo o del processo. È meraviglia, compiacimento… magari anche un briciolo di timore. E, se va bene, un sospetto che ci sfiora per un attimo.
In realtà non è una storia nuova. Negli anni ’60, Joseph Weizenbaum notava che il suo programma ELIZA — una quarantina di righe in Basic, mica un cervello positronico — veniva percepito come “intelligente”. Ripeteva frasi preconfezionate, ma la gente ci parlava come a un terapeuta vero. È quello che oggi chiamiamo Effetto ELIZA: la tendenza umana a proiettare pensiero dove basta un po’ di pattern matching.
È tutto un gioco di Effetto e Metodo.
Nella magia, l’effetto è ciò che il pubblico vede — ciò che sembra impossibile ma accade davanti ai suoi occhi. Il metodo, invece, sono i trucchi, le distrazioni, la manualità, l’inganno costruito con cura.
Nell’AI non cambia molto: l’effetto è l’apparente comprensione, la creatività simulata, la sensazione che ci sia qualcuno “dentro”.
Il metodo? Correlazioni nei dati, apprendimento supervisionato, calcolo probabilistico, potenza di elaborazione. In breve: un mucchio di matematica vestita bene.
Come nella magia, il metodo funziona proprio perché è invisibile. E nel caso dell’AI, funziona ancora meglio perché spesso non vogliamo vederlo. Ci piace credere che “pensi”, anche se non capiamo davvero come. La Black Box non solo ci affascina: ci conquista.
Sia l’illusionismo che l’intelligenza artificiale giocano con gli stessi limiti umani: attenzione selettiva, riconoscimento di pattern, inferenza causale.
L’AI li sfrutta con eleganza: genera risposte coerenti che interpretiamo come segno di comprensione, e si comporta come crediamo debba comportarsi qualcosa di intelligente.
Così le parliamo, la correggiamo, la interroghiamo… e finiamo per trattarla come un essere umano.
Perché, ammettiamolo, abbiamo un disperato bisogno di vederci riflessi in tutto ciò che ci somiglia anche solo un po’.
Se poi il chatbot invece di un cerchio luminoso ha una bella faccia sorridente e una voce calma, improvvisamente diventa più empatico, più credibile — e sì, anche più simpatico.
Il trucco meglio riuscito dell’AI è proprio questo: farci credere che pensi.
E dimentichiamo che anche un essere umano, pur parlando in un italiano perfetto, non è detto che sia né intelligente né colto.
Gli illusionisti lo sanno bene: il trucco da solo non basta. Serve narrazione, ritmo, teatralità.
E l’AI fa lo stesso: interfacce curate, toni empatici, risposte “umane”. Non si limita a risolvere un problema, ma mette in scena un dialogo.
È assertiva ma gentile, disponibile ma non invadente. In una parola: piacevole.
Tutto questo è una performance tecnologica. Solo che, a differenza della magia, la narrazione non è sempre innocua. Può mascherare opacità, manipolazione, concentrazione di potere.
Pensiamo agli assistenti vocali con voce rassicurante, o ai chatbot commerciali con personalità “amichevole”: costruiscono fiducia, sì… ma anche dipendenza.
Il ciclo dell’hype tecnologico (Gartner docet) mostra bene come la narrazione influenzi aspettative e investimenti. Troppa enfasi sull’effetto e finiamo a inseguire illusioni pericolose — specie quando l’AI entra in sanità, in giustizia, o in politica.
Nell’illusionismo c’è un’etica implicita: il pubblico sa che c’è un trucco. Nell’AI, invece, questa consapevolezza non è affatto scontata.
Chi conosce il metodo — ricercatori, aziende, policy maker — ha il dovere di spiegarlo con chiarezza.
E noi, pubblico e utenti, dobbiamo imparare a distinguere tra effetto e metodo, per non restare spettatori inconsapevoli di uno “spettacolo” con conseguenze molto reali.
Nel mondo dell’illusionismo c’è un patto chiaro: il mago non pretende di fare magie. Ti incanta, ma non ti inganna e il pubblico sa di assistere ad una illusione e ne apprezza l’abilità.
Ecco, l’etica dell’AI dovrebbe seguire lo stesso principio: sorprenderci, sì, ma senza illudeci.
Perché se sul palco possiamo lasciarci incantare, nella vita reale — dove l’AI può decidere, influenzare, o sbagliare al posto nostro — è meglio sapere come funziona il trucco.
Alla fine, la vera magia dell’AI non è nell’effetto, ma nell’equilibrio tra meraviglia e consapevolezza.


Nessun commento:
Posta un commento