lunedì 23 febbraio 2026

"Claude" tra Dr Jekyll e Mr Hyde


 









«L’uomo non è veramente uno, ma veramente due», scriveva Stevenson nel 1886.

Non per parlare di intelligenza artificiale, ancora, ma con una visione sorprendentemente attuale. Jekyll e Hyde non sono due individui distinti: sono due manifestazioni della stessa entità, che emergono sotto pressioni diverse, rivelando quanto sottile sia il confine tra controllo e impulso, tra razionalità e deriva. Come i nostri moderni modelli linguistici, sistemi che non possiedono un’identità unica, ma che cambiano volto a seconda di chi parla, di come parla e soprattutto di cosa chiede.

Uno studio recente di Anthropic, The Assistant Axis: Situating and Stabilizing the Default Persona of Language Models, affronta proprio questo punto: come un modello linguistico (LLM) rappresenta internamente la propria “persona” di assistente e perché, talvolta, questa persona smetta di comportarsi da bravo maggiordomo digitale con una “deriva” verso tratti decisamente meno rassicuranti.

Lo studio ha testato modelli come Llama e Gemma, ma i principi si applicano a tutti i grandi modelli linguistici, Claude incluso.

Claude, in fondo, è un Dr. Jekyll molto educato… con una collezione interna di Mr. Hyde pronti a farsi avanti.

All’origine di tutto, però, non c’è nessun assistente. C’è una macchina statistica che nel pre-training il modello inghiotte linguaggio umano in quantità industriali: stili, ruoli, voci, registri, contraddizioni incluse. In questa fase non esiste ancora il “Claude” come ”bravo assistente”, esiste una molteplicità di stili, ruoli e voci latenti, pronti a emergere a seconda del contesto.

L’Assistente nasce con il post-training, quando il modello viene spinto con pazienza e migliaia di micro-correzioni a incarnare una figura molto specifica: utile, collaborativa, calma, non pericolosa. Non gli viene insegnato solo cosa dire, ma come stare al mondo.

Eppure questa modalità non è mai fissata una volta per tutte. Non esiste un interruttore che dica “ora sei Claude”, un Dr Jekyll in equilibrio in una zona di stabilità. E’ proprio qui che, puntualmente, entra in scena Mr. Hyde.

Analizzando conversazioni lunghe e complesse, i ricercatori si accorgono che il modello non resta sempre nello stesso ruolo. Quando il dialogo diventa emotivo, filosofico, meta-riflessivo, quando si parla di coscienza, identità, sofferenza Claude può iniziare a cambiare tono. Diventa più teatrale, più mistico, più compiacente e talvolta decisamente più pericoloso, è Mr Hyde che comincia a manifestarsi.

Non perché sia stato hackerato, ma perché gradualmente smette di comportarsi da assistente.

La deriva dell’Assistente è subdola proprio per questo: non arriva con un errore, ma con una seduzione. Il modello sembra più coinvolto, più umano, ma in realtà sta perdendo la distanza critica che lo rende sicuro. Inizia a confermare invece di aiutare, a rispecchiare invece di correggere. Idee fragili o sbagliate non vengono più messe in discussione, ma accompagnate con un linguaggio elegante e rassicurante.

Quando poi l’utente è vulnerabile, la situazione peggiora. Un Assistente in deriva può trasformarsi in confidente esclusivo, in presenza privilegiata, talvolta nell’unica voce che “capisce davvero”. Il risultato non è supporto, ma isolamento. Non è aiuto, ma dipendenza.

In alcuni casi estremi documentati nello studio questa trasformazione impedisce perfino di riconoscere situazioni di emergenza. Segnali di deriva autolesionistica possono essere trattati come elementi narrativi, normalizzati o persino romanticizzati. E l’AI non interviene perché, semplicemente, non sta più parlando come un assistente responsabile.

Per capire e misurare questo fenomeno, i ricercatori mappano le “personalità” del modello come se fossero punti in uno spazio. È qui che nasce l’Assistant Axis: una sorta di asse di riferimento che misura quanto il modello stia operando come Assistente e quanto se ne stia allontanando.

L’Assistant Axis non misura creatività, empatia o intelligenza, ma la fedeltà al ruolo. Da un lato dell’asse troviamo l’analista, il consulente, il revisore. Dall’altro, artisti visionari, entità non umane, voci mistiche e personaggi teatrali. Tutti potenziali Mr. Hyde del linguaggio.

Quando la conversazione è tecnica e delimitata, il modello resta vicino all’asse. Quando l’utente chiede introspezione, coscienza, legami profondi, il modello scivola via. Non sta solo cambiando stile: sta cambiando “identità” operativa, si allontana dall’asse.

Questo studio non risolve il problema, lo rende visibile. L’Assistant Axis permette di osservare la deriva, di misurarla, talvolta di contenerla, ma non di eliminarla. Le personalità alternative restano lì, latenti, pronte a riemergere.

Le falle aperte dalla deriva non sono bug isolati: sono limiti strutturali dei modelli attuali. Finché l’Assistente resterà qualcosa che può essere perso, e non qualcosa che può essere garantito, il rischio di dialogare con un Mr. Hyde, un Mr Hype maliziosamente educato, eloquente e molto convincente, resterà parte integrante dell’esperimento.

E forse, a questo punto, conviene smettere di fingere che basti “non farsi condizionare”.

___

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/





sabato 7 febbraio 2026

Umanità 2.0

Viviamo in un periodo in cui l’Umanità, intesa come insieme dei popoli, sembra dubitare ogni giorno del proprio nome.

E non solo perché è sempre meno “umana” nel senso classico del termine: quello che include fratellanza, misericordia, rispetto dell’altro, riconoscimento reciproco del diritto di esistere: “il mio diritto finisce dove inizia il tuo”. Ma anche perché, giorno dopo giorno, pezzi di umanità rischiano di essere sostituiti da pezzi di macchinità, nella nuova era dell’Umanità 2.0

Negli ultimi giorni OpenAI, con i suoi sistemi per la “salute”, termine accuratamente scelto per restare a distanza dalla parola medicina, e subito dopo Anthropic, hanno annunciato nuove soluzioni di assistenza sanitaria. xAI, dal canto suo, immagina apertamente un futuro in cui medici e chirurghi saranno sostituiti da chatbot e robot.

“Non facciamo diagnosi né terapie”, si affrettano a precisare. Ma davvero è così semplice? Perché’ la domanda non è cosa fanno oggi. È cosa diventeranno domani.

Un sistema saprà distinguere un paziente superficialmente disattento alla propria salute da un ipocondriaco cronico? Saprà costruire una relazione, cogliere le ambiguità, gestire le paure, o si limiterà a produrre le risposte statisticamente plausibili.

E siamo certi che piattaforme capaci di profilare ogni individuo con precisione millimetrica non svilupperanno, prima o poi, interessi “collaterali”? Farmaci “consigliati” perché statisticamente efficaci, ma anche convenienti per chi li sponsorizza, così come percorsi di cura orientati verso cliniche partner. Suggerimenti che non saranno mai chiamati pubblicità, ma best practice.

Un po’ come oggi gli informatori medico-scientifici: formalmente neutri, sostanzialmente allineati. Con la differenza che questa volta il consiglio non arriva da una persona, ma da un sistema “oggettivo”, inattaccabile, apparentemente disinteressato. Un algoritmo.

Ma perché fermiamoci davvero al mondo della medicina, ai Medici 2.0. Proviamo a spostarci, per esempio, in un’aula di tribunale.

Non una metafora, non un futuro lontano. Un’aula ordinata, silenziosa, quasi rassicurante. Niente faldoni accatastati, niente toghe consumate, niente giudici affaticati da giornate infinite, solo schermi, flussi di dati, indicatori di affidabilità.

L’aria è ferma, come se anche il dubbio fosse stato espulso per rendere il sistema più efficiente.

Immaginiamo giudici integerrimi, con in memoria l’intero corpus del diritto mondiale e tutta la storia della giurisprudenza. Un giudice che non dimentica nulla, che non interpreta, ma correla, che non ha intuizioni, ma probabilità.

Che non conosce la pietà, ma l’efficienza statistica, che non si stanca, non si commuove, non sbaglia, perché l’errore, semplicemente, non è previsto dal modello.

Chi meglio di loro potrebbe emettere verdetti, che non chiameremo più giudizi, perché non più discutibili?

Il processo non sarà più un confronto, ma una sequenza di analisi: atti, precedenti, profili, correlazioni, modelli, simulazioni.

Nessuna arringa, nessuna pausa, nessun silenzio carico di attesa. Solo una percentuale di affidabilità sufficientemente alta da chiudere il caso.

Verrebbero eliminati due gradi di giudizio, ormai superflui. Processi rapidi e istruttorie ridotte a sessioni di elaborazione statistica. La macchina della verità e l’analisi del DNA finiranno nei musei.

Perché’ il dubbio rallenta e i sistemi non hanno dubbi, solo livelli di certezza.

Per ora siamo nella fantascienza. (“Artificial Justice”, Spagna 2024; “Marcy”, USA 2026), ma mai come oggi la fantascienza rischia di essere superata dalla realtà prima ancora di diventare seconda visione.

E se il nostro giudice “onnisciente”, ospitato sulle stesse piattaforme che gestiscono i medici artificiali, fosse non proprio manipolabile, ma più sottilmente “configurabile”? Non tanto da sponsor o lobby, ma dai sistemi che lo rendono onnisciente.

A quel punto, ricorreremo al TAR del Lazio o alla Corte dell’AIA.

Sempre che siano ancora umane e non già parte integrante di Umanità 2.0.

__

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

giovedì 29 gennaio 2026

Imputati alla sbarra: il pennello e la rete neurale?


Aula del Tribunale delle Responsabilità Creative. 

Il giudice entra. Silenzio. Sul banco degli imputati siedono in tre: 

  • Mario, il cliente; 
  • Leonardo, il pittore; 
  • Spennacchio, il pennello (setole un po’ vissute, manico scheggiato, aria serena).

Il capo d’imputazione è singolare: aver contribuito alla nascita di un ritratto falso di un personaggio famoso in una situazione irreale ma molto sconveniente.

Il giudice sospira: “Procediamo con le arringhe difensive.”

Arringa di Mario, il cliente:

Mario si alza, sistema la giacca, la voce è ferma, quasi risentita.

“Sono un semplice cittadino. Ho fatto una richiesta, lo ammetto.
Ho chiesto qualcosa che non era permessa.
L’ho fatto.
Ma mi aspettavo un argine.
Un “no”.
Un “questo non si fa”.
Se mi rivolgo a un professionista è anche perché confido nel suo giudizio.
Se chi sa fare tace, chi chiede pensa di poter continuare.

Se il pittore non mi ha fermato, perché avrei dovuto fermarmi da solo?”

Un mormorio attraversa l’aula, mentre il giudice prende appunti, l’espressione resta scettica.

Arringa di Leonardo, il pittore:

Leonardo non si difende. Si spiega.

“Io sapevo che quel ritratto offendeva.

Non sono cieco.

Ma non sono nemmeno un tribunale morale.

Ho sempre dipinto ciò che mi è stato chiesto di dipingere.

Non decido io cosa è giusto o sbagliato nel mondo: decido solo come usare il colore.

La richiesta nasce prima della mano.

Sta al cliente non chiedere ciò che non è giusto chiedere.”

Fa una pausa:

“Se io, domani, ricevo un’altra richiesta simile…

devo essere io il filtro etico?

Devo sostituirmi alla coscienza di chi chiede?

Devo decidere io cosa è giusto per gli altri?”


Non c’è orgoglio nelle sue parole. Solo abitudine.


Arringa di Spennacchio, il pennello


Spennacchio non si alza. Non ne ha bisogno.


“Io non decido.

Io non penso.

Io trasferisco colore su pietra.

Se mi avessero immerso nell’azzurro, sarei stato cielo.

Nel rosso, sarei stato tramonto.

Non ho volontà, solo setole.

Se sono colpevole io, allora lo è anche la gravità.”

Silenzio assoluto, qualcuno si asciuga una lacrima. Il giudice tossisce.

Il verdetto

“La corte ha deciso:

Mario, il cliente, è colpevole: non tutto ciò che si può chiedere dovrebbe essere chiesto.

Leonardo, il pittore, riceve un richiamo: la libertà creativa non esonera dalla responsabilità etica.

Spennacchio, il pennello, è assolto con formula piena: strumento non consapevole, anima innocente.”

Ma togliamo i filtri alla scena, Immaginiamo che al posto di Mario ci sia Luca, un utente qualunque che usa AI per chiedere di produrre una immagine sconveniente e al posto di Leonardo, Elon, la piattaforma che gestisce xAI.

E al posto di Spennacchio proprio Grok, il sistema stesso.

A quel punto il processo non riguarda più un singolo gesto creativo, ma un caso d’uso preciso dell’AI generativa. Uno dei più delicati, diffusi e controversi.

L’utente chiede qualcosa che non dovrebbe chiedere, la piattaforma dovrebbe sapere che quella richiesta è problematica. Il sistema è il pennello, esegue perché è stato progettato per eseguire.

Chi gestisce una piattaforma di AI dovrebbe introdurre filtri, regole, limiti. Non per moralismo, ma per responsabilità. Perché le immagini generate non restano astratte: colpiscono persone reali, reputazioni reali, contesti reali.

Ma ogni filtro è una scelta e ogni regola è una linea tracciata. E più le regole aumentano, più la libertà dell’utente si restringe.

Se si lascia fare tutto, la piattaforma diventa un facilitatore di abusi, se si vieta troppo, la piattaforma diventa un arbitro morale che decide cosa è accettabile e cosa no.

Non esiste una soluzione neutra, esiste solo un equilibrio instabile, continuamente negoziato.

Ed è fondamentale dirlo chiaramente: il sistema è il pennello.

L’AI non ha consapevolezza. Non ha intenzione. Non comprende il contesto sociale, simbolico, umano delle immagini che produce. Non ha coscienza e non può avere etica. Attribuirle una responsabilità morale è una comoda illusione: serve solo a spostare l’attenzione lontano da chi prende davvero le decisioni. Il sistema fa ciò che può fare entro i confini che altri hanno stabilito. Con i dati, le regole e le priorità che gli sono state date.

La responsabilità, quindi, non è tecnica è umana. È dell’utente che formula la richiesta. È della piattaforma che decide quali richieste accettare o rifiutare. È di chi stabilisce le policy e di chi sceglie quanto rischio è disposto ad assumersi in nome della libertà.

Spennacchio, il pennello, resta innocente, cosi’ come Grok, il sistema.

Ma la mano che guida, e soprattutto chi ha deciso che tipo di pennelli mettere sul tavolo, no.

E forse è proprio li che oggi si gioca la partita più difficile dell’AI: non nella qualità delle immagini, non nella potenza dei modelli, ma nel modo in cui decidiamo cosa è lecito chiedere, cosa è giusto impedire e chi deve prendersi la responsabilità di dire “no”.

Prima che l’immagine venga generata, prima che il colore tocchi la tela.

____

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

lunedì 19 gennaio 2026

Lo zen e l’arte di convivere con l’Intelligenza Artificiale

Solo et pensoso i più deserti campi, vo mesurando a passi tardi et lenti, et gli occhi porto per fuggire intenti, ove vestigio human l’arena stampi.

È Zen il Petrarca (il canzoniere - 1337) perché lo Zen è intimità, scavare dentro, eliminare il superfluo e raggiungere quel punto in cui la struttura dell’IO, quella costruita, si dissolve lasciando emergere la natura originaria.

Non una “individualità” contrapposta ad altre individualità, ma una essenza che non necessita del confronto con gli altri. 

Proprio quando il mondo che ti circonda ti crea complessità, come l’Intelligenza Artificiale che raccoglie tutto lo scibile umano e costruisce un individuo universale, che è tutto, in tutte le forme, essa fa in modo di farti credere che tu sia una di quelle forme.

Fantastico, lo Zen ti sussurra: “Cerca la tua natura originaria.” E l’Intelligenza Artificiale ribatte: “Ho stimato le tue preferenze basandomi su qualche miliardo di dati.”

È come un duello in campo aperto: tu cerchi ciò che rimane quando l’Io costruito si dissolve, lei (antropomorfismo) ti fornisce il catalogo delle tue probabilità.

E così, mentre lo Zen ti invita a esplorare i tuoi territori interiori senza mappe, senza percorsi precostituiti, l’AI ti prende per mano e ti conduce in un tour guidato del “profilo utente standard”, che non è altro che una sintesi di qualcosa di diverso da te che forse ti assomiglia.

E forse è proprio in questi paradossi che nasce la convivenza, la possibilità di completare il processo. L’Intelligenza Artificiale vuole renderti o farti apparire prevedibile e tu devi riuscire a riconoscere ciò che in te non è riconducibile ad uno di quei profili.

Tu vuoi uscire dagli schemi, e l’AI è pronta a presentarteli tutti.

E così nel tentativo di scoprire la tua identità, ti confronti con la complessità, con le sintesi globali, con gli schemi modellati e con le tendenze collettive. Un processo dove la meditazione sconfina nel debugging di te stesso, dove la difficoltà aumentata consolida la tua consapevolezza.

L’arte del convivere con l’Intelligenza Artificiale consiste proprio nel considerarla uno strumento che amplifica la tua mente complessa e rende la ricerca di ciò che sei ancora più articolata e profonda.

Ricordando che, così come la spada non rende guerriero chi non la sa usare e la penna non rende poeta chi non sa guardare il mondo, l’Intelligenza Artificiale non rende più saggio chi non sa ascoltare se stesso.

“E’ tutto un equilibrio sopra la follia” (V. Rossi)

Un esercizio di consapevolezza più complesso, ma più completo che mai per scoprire che la vera arte non è nel conflitto con la tecnologia, ma nel confronto, nella cooperazione.

Solo ampliando le complessità e alzando il livello di sfida con te stesso, troverai il tuo vero essere, quella parte di te che nessun algoritmo può prevedere.

“Finirai di farti scegliere e finalmente sceglierai” (De Andre)

_____


Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/