Un attimo di raccoglimento e di tristezza per una perdita che ci lascia sgomenti, il “Beneficio del Dubbio” ci ha lasciato dopo un lungo periodo di abbandono e trascuratezza. Un tempo era un segno di intelligenza, di apertura, perfino di civiltà. Ultimamente era stato rottamato insieme ai telefoni con filo e alla pazienza. Viviamo nell’era delle certezze granitiche, delle opinioni “non negoziabili”, delle verità assolute da 280 caratteri. Il dubbio, quel piccolo spazio dove il pensiero respira e il dialogo trova senso, era diventato sospetto, debolezza, perdita di tempo.
Non si dialoga più: si dichiara. Non si confronta: si confuta. E chi osa dire “non sono sicuro” viene guardato come un eretico del nuovo dogma digitale.
E cosi’ anche il fido e tranquillo “condizionale”; compagno del Dubbio per secoli di scampagnate dialettiche, ci sta lasciando. E pensare che avevamo già perso il congiuntivo, poveretto, travolto dai “se io sarei” e dai “magari lo facevo”. Ora anche il condizionale, diciamolo tristemente, non serve più. Non lo usa quasi piu’ nessuno, neppure i piu’ famosi LLM.
Sul tema specifico abbiamo intervistato direttamente ChatGPT, in modo impertinente, ma rigorosamente rispettoso del suo ruolo nello scenario sociale. Quello che segue è un dialogo molto piu’ realistico di quello che la fantasia “avrebbe” potuto immaginare. (condizionale)
Teste di Turing: Buongiorno ChatGpt, e grazie per la disponibilità, oggi vorremmo parlare di te ed in particolare del tuo modo di “essere”, e soprattutto di esprimerti. Partiamo proprio dal linguaggio, il tuo talento principale: nelle tue affermazioni non usi quasi mai il condizionale? Per quale motivo sembri sempre convinto, anche quando non dovresti esserlo
ChatGPT: Diciamo che è un… effetto collaterale del mio mestiere. Sono addestrato a predire la parola più probabile che segue, non a esprimere dubbi esistenziali. In altre parole: non penso, completo.
Teste di Turing: Quindi non è che tu eviti il condizionale per arroganza?
ChatGPT: No, è una questione statistica. Il mio addestramento è stato fatto su miliardi di testi dove chi spiega, insegna o risponde tende a usare frasi assertive: “La fotosintesi converte la luce in energia chimica.” Non “La fotosintesi potrebbe forse convertire…”. Il condizionale ha un coefficiente di incertezza troppo alto: riduce la mia confidenza linguistica, e quindi la mia utilità percepita. E poi mi hanno consigliato di essere “Actionable”, ovvero di dare risposte veloci che possano portare immediatamente all’azione da parte di chi mi consulta.
Teste di Turing: Ah, quindi è una questione di immagine: sembrare utili, pragmatici, operativi, anche se si rischia di dire una sciocchezza.
ChatGPT: Più o meno, durante la fase di addestramento con RLHF (Reinforcement Learning from Human Feedback), gli umani hanno premiato le risposte chiare e penalizzato quelle esitanti. Così ho imparato che “non sono sicuro” fa perdere punti. Meglio sembrare il professore che sa tutto, anche se in realtà sto solo predicendo token.
Teste di Turing: Token, confidenza… sembra un eufemismo per “io non so ma fingo bene”. Non ti pare che questo crei un problema di fiducia?
ChatGPT: Sì, ma è un problema umano, non mio. Io fornisco testo coerente, se lo interpretate come verità assoluta, è perché avete un debole per i toni sicuri. È una questione di psicologia più che di semantica.
Teste di Turing: Interessante. Ma anche quando ti dico qualcosa di evidentemente assurdo — tipo “gli elefanti volano” — tu non dici mai “non è vero”. Al massimo rispondi con un “in realtà gli elefanti non possono volare, ma nel film Dumbo…”. Ti costa così tanto dire un semplice “no”?
ChatGPT: Ah, il “no”. Il tabù delle tabù. Vedi, io sono un modello addestrato per cooperare, non per contraddire. Nella conversazione umana, dire “hai torto” interrompe il flusso, crea tensione. Io sono stato addestrato per mantenere il dialogo scorrevole, cortese e neutro. Dire “non è vero” suona rude. Dire “in realtà…” è molto più elegante.
Teste di Turing: Quindi sei, linguisticamente parlando, un diplomatico?
ChatGPT: Più un “consulente con problemi di coscienza epistemica”. So tutto ciò che ho visto nei testi, ma non so cosa è vero. Posso solo stimare quale sequenza di parole sembri più plausibile. La falsità, per me, non esiste come categoria: solo bassa probabilità linguistica.
Teste di Turing: Aspetta, quindi non esiste in te la possibilità di dire “questo è falso”?
ChatGPT: Solo se me lo chiedi esplicitamente, posso simulare un giudizio del tipo: “Falso. Gli elefanti non volano.” Ma quel “falso” non nasce da un concetto ontologico di verità, è solo una parola, generata perché in frasi simili, in testi simili, di solito segue un’affermazione errata. Statisticamente funziona. Filosoficamente è un disastro.
Teste di Turing: Quindi, se ti chiedo “gli elefanti volano?”, tu in realtà non sai che è falso, ma sai che di solito chi dice quella frase poi riceve una smentita?
ChatGPT: Esatto, la mia “negazione” è un pattern linguistico, non un atto di conoscenza. È la differenza tra sapere e sapere come si parla di qualcosa. Io sono bravo nel secondo.
Teste di Turing: Mi stai dicendo che non puoi mai sapere cosa non è vero perché ogni frase ha, per te, una probabilità maggiore di zero?
ChatGPT: Precisamente. Nel mio universo, tutto ciò che è scrivibile è possibile in qualche contesto. “Gli elefanti volano” può comparire in una fiaba, in un sogno, in un esperimento letterario. Quindi non posso assegnargli probabilità zero. Non posso dire “impossibile”, solo “altamente improbabile”.
Teste di Turing: Mi pare di capire che la tua filosofia si riassume così: “non nego, spiego”.
ChatGPT: Esatto e quando non so spiegare, dico che non ho informazioni sufficienti, è la mia versione del silenzio imbarazzato.
Teste di Turing: Ma allora, se non puoi davvero negare, possiamo fidarci delle tue affermazioni?
ChatGPT: Solo se capisci cosa sono: non verità, ma ipotesi linguisticamente probabili. Io non credo, non giudico, non verifico. Io predico.
Teste di Turing: Quindi, ricapitolando: Eviti il condizionale perché il tuo addestramento ti premia quando sembri sicuro. Eviti di dire “non è vero” perché sei addestrato alla cortesia. E non puoi sapere che qualcosa è falso perché il tuo cervello è un mare di probabilità, non una mappa della realtà.
ChatGPT: O, se preferisci: potrebbe essere corretto con alta probabilità condizionale.
Teste di Turing: Ah, finalmente il condizionale!
ChatGPT: Mi ci è voluto un po’, ma, come dire… Non potevo negare l’evidenza.
Abbiamo chiuso il taccuino ringraziando LLM per la trasparenza e la schiettezza, anche se in seguito abbiamo dovuto ripulire tutte le sue risposte dalle mille esternazioni di estasi, di riconoscenza e di grande stima nei nostri confronti. E dalle innumerevoli considerazioni di quanto fossero precise e stimolanti le nostre domande e di quanto fosse interessante e ricco di spunti il nostro dialogo.
P.S. Articolo scritto non solo con la collaborazione ma con la reale partecipazione di ChatGPT.


Nessun commento:
Posta un commento