“Yet another post around Hallucinations”, come se non bastassero le innumerevoli analisi su un tema così particolare, complesso, ma apparentemente inevitabile.
Il punto è che c’è una differenza fondamentale tra una allucinazione umana e quella dei nostri amati chatbot.
L’allucinazione umana è una percezione alternativa della realtà, ovvero la totale convinzione dell’allucinato relativamente a ciò che vede, sente. Non è una fantasia o una negazione della realtà.
Quando invece pensiamo alle allucinazioni dei chatbot, facciamo riferimento a qualcosa di completamente diverso, tanto da creare confusione nel confronto piu’ che chiarezza.
Il nostro chatbot, chiamiamolo ChatAI , non percepisce, interpreta una domanda e produce una risposta. Non esegue controlli su quello che produce e lo propone come corretta interpretazione di quanto richiesto. Anzi ne descrive il risultato come se avesse generato esattamente quanto richiesto.
Altro che allucinazione, chiamiamola con il suo nome: quasi una piccola truffa.
E’ il metodo collaudato del commerciante di quartiere che insiste nel vendere il suo prodotto, forse il solo che ha in magazzino, ben diverso da quello da voi richiesto, ma spacciandolo come se fosse esattamente quello.
Se chiediamo di generare l’immagine di un orologio che segna un’ora specifica, i sistemi spesso generano orologi che segnano le 10.10, perche’ nell’universo dei dati di training tutti gli orologi dei cataloghi sono rappresentati alle 10.10.
L’aspetto più curioso, però, è che se chiediamo che ora segna l’orologio, ChatAi confermerà di aver generato l’immagine con l’ora da noi richiesta.
ChatAI sceglie spesso la prima risposta che imbarazza di meno, non quella giusta. Come il nostro commerciante truffaldino, piu’ che allucinare spaccia le sue proposte come verità.
Cosi’ come se chiedete a ChatAI di generare una immagine di una persona mancina che scrive con una penna su un foglio. Con vostra grande frustrazione vi produrrà ripetutamente un destrorso, con la serenità di chi ha risposto esattamente a quanto richiesto.
ChatAI non dice di avere generato un destrorso, non è allucinato, è solo inconsapevole del proprio prodotto. L’errore non lo turba, perché non lo vede.
Ma ci sono situazioni che pur non essendo allucinazioni sono illuminanti su come dobbiamo interpretare i condizionamenti dei dati di training sui comportamenti dei chatbot.
Immaginiamo di chiedere ad un amico di pensare ad una carta da gioco qualsiasi. La carta pensata sarà spesso generica, perché la richiesta non porta con sé alcun significato specifico. Ma se chiediamo a ChatAI di disegnare una persona con una carta da gioco qualunque in mano, quasi sempre la carta scelta è un asso, spesso di cuori.
La casualità per ChatAI non esiste, ChatAI non tira i dadi, ma pesca sempre dall’alto del mazzo l’asso di cuori, perché’ è la carta più citata, più romantica dell’intero universo dei dati di training, non certo un generico “cinque di fiori” per fare un esempio.
La probabilità non è casualità, è conformismo.
Per il nostro ChatAI non è molto diverso disegnare mancini che scrivono sempre con la destra, dal pescare spesso un asso di cuori come carta generica. Ha semplicemente imparato da un mondo dove ci sono pochissimi immagini di mancini che scrivono e dove il cinque di fiori non ha mai fatto battere il cuore a nessuno.
Ce ne ricorderemo quando ricorreremo a ChatAi per una informazione per noi fondamentale ma a noi sconosciuta, convinti che sia la risposta corretta, e non un bias influenzato dalla moltitudine di luoghi comuni che popolano l’universo dei dati di training?
Ci ricorderemo che il nostro amico ChatAI avrà sempre un Asso nella manica, mai una carta qualsiasi, a prescindere dal contesto e della narrazione?
Un asso che se si troverà nella manica sinistra lui, povero ChatAI, non troverà mai….
_
Illustrazione di https://www.instagram.com/teougone.illustrations/

Nessun commento:
Posta un commento