mercoledì 4 marzo 2026

Biro, Bich... Apple

La vita ci insegna che ci sono storie che diventano leggende, ma che tornano ad essere storie quando, incredibilmente, la realtà ne richiama gli aspetti essenziali.

Rileggere la realtà con le sovrapposizioni storiche è spesso illuminante, soprattutto quando i fatti si ricombinano e corrono più veloci della nostra capacità di interpretarli, e non solo nella storia dell’umanità, ma anche nell’evoluzione della tecnologia.

Ci sono rivoluzioni che nascono improvvisamente, che sembrano cambiare il mondo. 

Ma il mondo cambia davvero solo quando quelle rivoluzioni vengono reinterpretate, quando assumono nuove forme, quando la genialità vede opportunità che l’inventiva, da sola, non aveva ancora immaginato.

Budapest, fine anni ’30. Un uomo, un giornalista, ma anche un inventore per vocazione, rientrando verso casa si guarda le mani sporche di inchiostro, rigirando tra le mani la sua penna stilografica. E incrocia alcuni bambini che giocano con le biglie, in una strada piena di pozzanghere per una pioggia improvvisa.

Una biglia dopo aver attraversato una pozzanghera continua a rotolare sull’asfalto asciutto e lascia dietro di sé una striscia sottile, continua, pulita, una linea d’acqua. Nessuno ci avrebbe fatto caso, ma László Bíró in quella traccia vede una cosa che gli altri non vedono. Vede un principio, una sfera che raccoglie un liquido e lo deposita su una superficie mentre si muove.

E se invece dell’acqua ci fosse inchiostro? E se quella sfera potesse essere incastrata in un flusso controllato?

Ecco la penna a sfera, geniale, nuova, semplice.

Eppure non conquista il mondo, perché una cosa è inventare un principio, un’altra è trasformarlo in un oggetto inevitabile, universalmente disponibile, economicamente sostenibile. La penna di Bíró è una grande invenzione. Ma è ancora imperfetta, perde inchiostro, è costosa, non industrializzata.

Ma la storia la fa un altro personaggio, non un inventore, ma un “industrializzatore”, un imprenditore italiano, nato in Francia: Marcel Bich.

Bich capisce cio’ che conta davvero, non l’invenzione ma il suo destino. Compra il brevetto di Biro e lo sottopone ad una revisione profonda. Semplifica la struttura, rende fluido l’inchiostro, disegna un contenitore trasparente, esagonale per non farla rotolare. Non migliora solo la penna, ma costruisce un prodotto e un sistema industriale. La tecnologia, diventa prodotto e l’invenzione diventa abitudine.

Abbiamo ricordato la storia, ora facciamo un salto in avanti fino ai giorni nostri, nel 2026.

Siamo di nuovo tra le pozzanghere, dove decine di biglie stanno rotolando ovunque cercando la pozzanghera più grande, la sfera più pesante, la traccia più lunga.
OpenAI, Google, Anthropic, Meta, Amazon, stanno spingendo ai limiti la stessa invenzione, l’intelligenza artificiale moderna. E lo stanno facendo attraverso quello che è diventato il nuovo linguaggio della fede tecnologica, spendendo cifre quasi mitologiche in CAPEX.

Non sono solo investimenti, sono esplosioni di numeri, di sforzi finanziari per una corsa verso le prestazioni: data center, chip, energia, rete, raffreddamento, server, cluster.
Numeri che crescono a velocità che ricordano, per analogia, la legge di Moore. Decine di miliardi che diventano centinaia. Che raddoppiano anno dopo anno. Non stanno solo costruendo infrastruttura. Stanno costruendo possibilità, ma stanno anche facendo scommesse sul futuro.

E poi c’è Apple che osserva. Sembra essere l’unica che, mentre tutti gridano “più GPU”, non partecipa alla stessa corsa con la stessa intensità, anzi sembra quasi indifferente.
Secondo molti osservatori, Apple sembra restare indietro, ferma al palo.

Ma non è che la visione e la strategia di Apple stia proprio nello stare a guardare, nel non fare nulla di simile?

Apple non è assente, sta investendo, sta sviluppando e sta integrando, ma non sta trasformando il proprio profilo finanziario in una scommessa infrastrutturale totale come stanno facendo altri.

Non perché’ non possa, ma perché non vuole, non serve, non deve.

Oggi il mondo dell’AI è pieno di Bíró, pionieri che inventano, spingono i limiti, dimostrano il principio. Ma la storia insegna che il momento decisivo non è quando qualcosa diventa possibile, ma quando diventa inevitabile.

E se Apple fosse il nuovo Marcel Bich?!

Non sarebbe la prima volta, Steve Jobs non era un inventore puro. Era qualcosa di più raro, un industrializzatore di inevitabilità. Non ha inventato le tecnologie che hanno definito Apple, ha costruito il sistema che le ha rese universali.

Come Marcel Bich.

Ricordiamoci che Apple non ha inventato i foundation model moderni, ma come spesso ha fatto, li ha resi invisibili nell’esperienza, sostenibili nei costi, integrati nei sistemi.
Apple ha qualcosa che pochi altri hanno nella stessa forma. Una base installata gigantesca ed un controllo verticale dello stack: chip, sistema operativo, hardware, distribuzione, esperienza utente.

Apple può permettersi di non giocare alla stessa partita. E il giorno che decidesse di partecipare puo’ permettersi di comprare, non necessariamente di investire. Di adottare una soluzione, non scommettere sull’evoluzione di una piattaforma.

Quando gli hyperscaler incrementano gli investimenti stanno comprando una possibilità, stanno facendo una scommessa su domanda futura, prezzi futuri, saturazione futura, concorrenza futura.

Apple, invece, con un CAPEX che resta “in continuità” monetizza il presente, i suoi dispositivi, il suo ecosistema, la sua integrazione. Se l’AI diventa una funzionalità che rende più desiderabile l’iPhone, il Mac, i servizi, Apple può catturare valore senza possedere la più grande infrastruttura AI del pianeta.
Non deve costruire il campo da gioco, ma giocare su un campo già costruito. Perché Apple non deve “acquisire” utenti AI, li ha già.

Senza entrare nell’arena della follia dei bilanci esplosivi, degli annunci roboanti, della corsa all’inverosimile. Apple può permettersi di rimanere ai margini dell’arena con la libertà di osservare, e di decidere di integrare al momento opportuno.

Senza esporsi alla corsa quotidiana dell’annuncio di nuovi modelli, nuove versioni, nuove capacità, benchmark sempre più impressionanti, dichiarazioni sempre più ambiziose. Fino all’AGI sventagliata sempre “dietro l’angolo”, sempre imminente.
D'altronde quando si investono decine, o centinaia, di miliardi in infrastruttura, non basta l’evoluzione tecnologica, si deve anche costruire una narrativa capace di sostenere quell’investimento nel tempo. Gli annunci continui non sono solo comunicazione, ma parte integrante del modello economico.

Ora: dire “Apple non rischia nulla” sarebbe troppo comodo. Un rischio c’è sempre. Apple rischia timing, percezione, execution, e rischia di dover rincorrere se il paradigma si sposta in una direzione incompatibile con la sua filosofia.

Ma sul piano finanziario-industriale, il confronto è chiaro. Chi sta raddoppiando capex anno su anno si sta legando mani e piedi a una traiettoria. Sta trasformando una scommessa tecnologica in una scommessa infrastrutturale pluriennale.

Apple tiene il CAPEX relativamente “pulito”, riducendo i rischi, senza la necessità di rincorrere il mercato, salendo sul treno giusto se e quando arriverà in orario. Insomma, in attesa, come Bich di comprare il brevetto di Biro, senza innamorarsi dell’invenzione, ma vederla come componente di un sistema industriale.

E non sarebbe la prima volta. Il personal computer non è stato inventato da Apple. È stato inventato da IBM, Xerox, e altri pionieri. Ma Apple ha inventato il personal computer come prodotto di massa, integrato, accessibile, umano.
L’interfaccia grafica non è stata inventata da Apple, ma nei laboratori Xerox PARC. Apple l’ha resa universale.
Il lettore MP3 non è stato inventato da Apple. Ma l’iPod, combinato con iTunes, ha trasformato un formato tecnico in un ecosistema globale.
Lo smartphone non è stato inventato da Apple, ma l’iPhone è stato una rivoluzione, come Marcel Bich con la penna di Bíró.
Ha preso invenzioni esistenti e ha costruito attorno a esse il sistema industriale, economico ed esperienziale che le ha trasformate da possibilità a normalità.

Torniamo alla biglia.

La biglia non sa che sta disegnando una linea. Rotola e basta. Il mondo è pieno di biglie che rotolano, è pieno di innovazioni che “funzionano”.
Il salto lo fa chi guarda quella traccia e dice: adesso rendiamola universale.
Tutti stanno lavorando sulle biglie, Apple sembra osservare. Ma non è romanticismo, forse è strategia. 

Perché la storia, a volte, non appartiene a chi inventa per primo, ma a chi rende impossibile tornare indietro.

E la domanda, forse, non è se Apple stia perdendo la corsa, ma se stia aspettando il momento in cui la corsa sarà finita per premiare il vincitore e… assumerlo.
__
Illustrazione di https://www.instagram.com/teougone.illustrations/

lunedì 23 febbraio 2026

"Claude" tra Dr Jekyll e Mr Hyde


 









«L’uomo non è veramente uno, ma veramente due», scriveva Stevenson nel 1886.

Non per parlare di intelligenza artificiale, ancora, ma con una visione sorprendentemente attuale. Jekyll e Hyde non sono due individui distinti: sono due manifestazioni della stessa entità, che emergono sotto pressioni diverse, rivelando quanto sottile sia il confine tra controllo e impulso, tra razionalità e deriva. Come i nostri moderni modelli linguistici, sistemi che non possiedono un’identità unica, ma che cambiano volto a seconda di chi parla, di come parla e soprattutto di cosa chiede.

Uno studio recente di Anthropic, The Assistant Axis: Situating and Stabilizing the Default Persona of Language Models, affronta proprio questo punto: come un modello linguistico (LLM) rappresenta internamente la propria “persona” di assistente e perché, talvolta, questa persona smetta di comportarsi da bravo maggiordomo digitale con una “deriva” verso tratti decisamente meno rassicuranti.

Lo studio ha testato modelli come Llama e Gemma, ma i principi si applicano a tutti i grandi modelli linguistici, Claude incluso.

Claude, in fondo, è un Dr. Jekyll molto educato… con una collezione interna di Mr. Hyde pronti a farsi avanti.

All’origine di tutto, però, non c’è nessun assistente. C’è una macchina statistica che nel pre-training il modello inghiotte linguaggio umano in quantità industriali: stili, ruoli, voci, registri, contraddizioni incluse. In questa fase non esiste ancora il “Claude” come ”bravo assistente”, esiste una molteplicità di stili, ruoli e voci latenti, pronti a emergere a seconda del contesto.

L’Assistente nasce con il post-training, quando il modello viene spinto con pazienza e migliaia di micro-correzioni a incarnare una figura molto specifica: utile, collaborativa, calma, non pericolosa. Non gli viene insegnato solo cosa dire, ma come stare al mondo.

Eppure questa modalità non è mai fissata una volta per tutte. Non esiste un interruttore che dica “ora sei Claude”, un Dr Jekyll in equilibrio in una zona di stabilità. E’ proprio qui che, puntualmente, entra in scena Mr. Hyde.

Analizzando conversazioni lunghe e complesse, i ricercatori si accorgono che il modello non resta sempre nello stesso ruolo. Quando il dialogo diventa emotivo, filosofico, meta-riflessivo, quando si parla di coscienza, identità, sofferenza Claude può iniziare a cambiare tono. Diventa più teatrale, più mistico, più compiacente e talvolta decisamente più pericoloso, è Mr Hyde che comincia a manifestarsi.

Non perché sia stato hackerato, ma perché gradualmente smette di comportarsi da assistente.

La deriva dell’Assistente è subdola proprio per questo: non arriva con un errore, ma con una seduzione. Il modello sembra più coinvolto, più umano, ma in realtà sta perdendo la distanza critica che lo rende sicuro. Inizia a confermare invece di aiutare, a rispecchiare invece di correggere. Idee fragili o sbagliate non vengono più messe in discussione, ma accompagnate con un linguaggio elegante e rassicurante.

Quando poi l’utente è vulnerabile, la situazione peggiora. Un Assistente in deriva può trasformarsi in confidente esclusivo, in presenza privilegiata, talvolta nell’unica voce che “capisce davvero”. Il risultato non è supporto, ma isolamento. Non è aiuto, ma dipendenza.

In alcuni casi estremi documentati nello studio questa trasformazione impedisce perfino di riconoscere situazioni di emergenza. Segnali di deriva autolesionistica possono essere trattati come elementi narrativi, normalizzati o persino romanticizzati. E l’AI non interviene perché, semplicemente, non sta più parlando come un assistente responsabile.

Per capire e misurare questo fenomeno, i ricercatori mappano le “personalità” del modello come se fossero punti in uno spazio. È qui che nasce l’Assistant Axis: una sorta di asse di riferimento che misura quanto il modello stia operando come Assistente e quanto se ne stia allontanando.

L’Assistant Axis non misura creatività, empatia o intelligenza, ma la fedeltà al ruolo. Da un lato dell’asse troviamo l’analista, il consulente, il revisore. Dall’altro, artisti visionari, entità non umane, voci mistiche e personaggi teatrali. Tutti potenziali Mr. Hyde del linguaggio.

Quando la conversazione è tecnica e delimitata, il modello resta vicino all’asse. Quando l’utente chiede introspezione, coscienza, legami profondi, il modello scivola via. Non sta solo cambiando stile: sta cambiando “identità” operativa, si allontana dall’asse.

Questo studio non risolve il problema, lo rende visibile. L’Assistant Axis permette di osservare la deriva, di misurarla, talvolta di contenerla, ma non di eliminarla. Le personalità alternative restano lì, latenti, pronte a riemergere.

Le falle aperte dalla deriva non sono bug isolati: sono limiti strutturali dei modelli attuali. Finché l’Assistente resterà qualcosa che può essere perso, e non qualcosa che può essere garantito, il rischio di dialogare con un Mr. Hyde, un Mr Hype maliziosamente educato, eloquente e molto convincente, resterà parte integrante dell’esperimento.

E forse, a questo punto, conviene smettere di fingere che basti “non farsi condizionare”.

___

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/





sabato 7 febbraio 2026

Umanità 2.0

Viviamo in un periodo in cui l’Umanità, intesa come insieme dei popoli, sembra dubitare ogni giorno del proprio nome.

E non solo perché è sempre meno “umana” nel senso classico del termine: quello che include fratellanza, misericordia, rispetto dell’altro, riconoscimento reciproco del diritto di esistere: “il mio diritto finisce dove inizia il tuo”. Ma anche perché, giorno dopo giorno, pezzi di umanità rischiano di essere sostituiti da pezzi di macchinità, nella nuova era dell’Umanità 2.0

Negli ultimi giorni OpenAI, con i suoi sistemi per la “salute”, termine accuratamente scelto per restare a distanza dalla parola medicina, e subito dopo Anthropic, hanno annunciato nuove soluzioni di assistenza sanitaria. xAI, dal canto suo, immagina apertamente un futuro in cui medici e chirurghi saranno sostituiti da chatbot e robot.

“Non facciamo diagnosi né terapie”, si affrettano a precisare. Ma davvero è così semplice? Perché’ la domanda non è cosa fanno oggi. È cosa diventeranno domani.

Un sistema saprà distinguere un paziente superficialmente disattento alla propria salute da un ipocondriaco cronico? Saprà costruire una relazione, cogliere le ambiguità, gestire le paure, o si limiterà a produrre le risposte statisticamente plausibili.

E siamo certi che piattaforme capaci di profilare ogni individuo con precisione millimetrica non svilupperanno, prima o poi, interessi “collaterali”? Farmaci “consigliati” perché statisticamente efficaci, ma anche convenienti per chi li sponsorizza, così come percorsi di cura orientati verso cliniche partner. Suggerimenti che non saranno mai chiamati pubblicità, ma best practice.

Un po’ come oggi gli informatori medico-scientifici: formalmente neutri, sostanzialmente allineati. Con la differenza che questa volta il consiglio non arriva da una persona, ma da un sistema “oggettivo”, inattaccabile, apparentemente disinteressato. Un algoritmo.

Ma perché fermiamoci davvero al mondo della medicina, ai Medici 2.0. Proviamo a spostarci, per esempio, in un’aula di tribunale.

Non una metafora, non un futuro lontano. Un’aula ordinata, silenziosa, quasi rassicurante. Niente faldoni accatastati, niente toghe consumate, niente giudici affaticati da giornate infinite, solo schermi, flussi di dati, indicatori di affidabilità.

L’aria è ferma, come se anche il dubbio fosse stato espulso per rendere il sistema più efficiente.

Immaginiamo giudici integerrimi, con in memoria l’intero corpus del diritto mondiale e tutta la storia della giurisprudenza. Un giudice che non dimentica nulla, che non interpreta, ma correla, che non ha intuizioni, ma probabilità.

Che non conosce la pietà, ma l’efficienza statistica, che non si stanca, non si commuove, non sbaglia, perché l’errore, semplicemente, non è previsto dal modello.

Chi meglio di loro potrebbe emettere verdetti, che non chiameremo più giudizi, perché non più discutibili?

Il processo non sarà più un confronto, ma una sequenza di analisi: atti, precedenti, profili, correlazioni, modelli, simulazioni.

Nessuna arringa, nessuna pausa, nessun silenzio carico di attesa. Solo una percentuale di affidabilità sufficientemente alta da chiudere il caso.

Verrebbero eliminati due gradi di giudizio, ormai superflui. Processi rapidi e istruttorie ridotte a sessioni di elaborazione statistica. La macchina della verità e l’analisi del DNA finiranno nei musei.

Perché’ il dubbio rallenta e i sistemi non hanno dubbi, solo livelli di certezza.

Per ora siamo nella fantascienza. (“Artificial Justice”, Spagna 2024; “Marcy”, USA 2026), ma mai come oggi la fantascienza rischia di essere superata dalla realtà prima ancora di diventare seconda visione.

E se il nostro giudice “onnisciente”, ospitato sulle stesse piattaforme che gestiscono i medici artificiali, fosse non proprio manipolabile, ma più sottilmente “configurabile”? Non tanto da sponsor o lobby, ma dai sistemi che lo rendono onnisciente.

A quel punto, ricorreremo al TAR del Lazio o alla Corte dell’AIA.

Sempre che siano ancora umane e non già parte integrante di Umanità 2.0.

__

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

giovedì 29 gennaio 2026

Imputati alla sbarra: il pennello e la rete neurale?


Aula del Tribunale delle Responsabilità Creative. 

Il giudice entra. Silenzio. Sul banco degli imputati siedono in tre: 

  • Mario, il cliente; 
  • Leonardo, il pittore; 
  • Spennacchio, il pennello (setole un po’ vissute, manico scheggiato, aria serena).

Il capo d’imputazione è singolare: aver contribuito alla nascita di un ritratto falso di un personaggio famoso in una situazione irreale ma molto sconveniente.

Il giudice sospira: “Procediamo con le arringhe difensive.”

Arringa di Mario, il cliente:

Mario si alza, sistema la giacca, la voce è ferma, quasi risentita.

“Sono un semplice cittadino. Ho fatto una richiesta, lo ammetto.
Ho chiesto qualcosa che non era permessa.
L’ho fatto.
Ma mi aspettavo un argine.
Un “no”.
Un “questo non si fa”.
Se mi rivolgo a un professionista è anche perché confido nel suo giudizio.
Se chi sa fare tace, chi chiede pensa di poter continuare.

Se il pittore non mi ha fermato, perché avrei dovuto fermarmi da solo?”

Un mormorio attraversa l’aula, mentre il giudice prende appunti, l’espressione resta scettica.

Arringa di Leonardo, il pittore:

Leonardo non si difende. Si spiega.

“Io sapevo che quel ritratto offendeva.

Non sono cieco.

Ma non sono nemmeno un tribunale morale.

Ho sempre dipinto ciò che mi è stato chiesto di dipingere.

Non decido io cosa è giusto o sbagliato nel mondo: decido solo come usare il colore.

La richiesta nasce prima della mano.

Sta al cliente non chiedere ciò che non è giusto chiedere.”

Fa una pausa:

“Se io, domani, ricevo un’altra richiesta simile…

devo essere io il filtro etico?

Devo sostituirmi alla coscienza di chi chiede?

Devo decidere io cosa è giusto per gli altri?”


Non c’è orgoglio nelle sue parole. Solo abitudine.


Arringa di Spennacchio, il pennello


Spennacchio non si alza. Non ne ha bisogno.


“Io non decido.

Io non penso.

Io trasferisco colore su pietra.

Se mi avessero immerso nell’azzurro, sarei stato cielo.

Nel rosso, sarei stato tramonto.

Non ho volontà, solo setole.

Se sono colpevole io, allora lo è anche la gravità.”

Silenzio assoluto, qualcuno si asciuga una lacrima. Il giudice tossisce.

Il verdetto

“La corte ha deciso:

Mario, il cliente, è colpevole: non tutto ciò che si può chiedere dovrebbe essere chiesto.

Leonardo, il pittore, riceve un richiamo: la libertà creativa non esonera dalla responsabilità etica.

Spennacchio, il pennello, è assolto con formula piena: strumento non consapevole, anima innocente.”

Ma togliamo i filtri alla scena, Immaginiamo che al posto di Mario ci sia Luca, un utente qualunque che usa AI per chiedere di produrre una immagine sconveniente e al posto di Leonardo, Elon, la piattaforma che gestisce xAI.

E al posto di Spennacchio proprio Grok, il sistema stesso.

A quel punto il processo non riguarda più un singolo gesto creativo, ma un caso d’uso preciso dell’AI generativa. Uno dei più delicati, diffusi e controversi.

L’utente chiede qualcosa che non dovrebbe chiedere, la piattaforma dovrebbe sapere che quella richiesta è problematica. Il sistema è il pennello, esegue perché è stato progettato per eseguire.

Chi gestisce una piattaforma di AI dovrebbe introdurre filtri, regole, limiti. Non per moralismo, ma per responsabilità. Perché le immagini generate non restano astratte: colpiscono persone reali, reputazioni reali, contesti reali.

Ma ogni filtro è una scelta e ogni regola è una linea tracciata. E più le regole aumentano, più la libertà dell’utente si restringe.

Se si lascia fare tutto, la piattaforma diventa un facilitatore di abusi, se si vieta troppo, la piattaforma diventa un arbitro morale che decide cosa è accettabile e cosa no.

Non esiste una soluzione neutra, esiste solo un equilibrio instabile, continuamente negoziato.

Ed è fondamentale dirlo chiaramente: il sistema è il pennello.

L’AI non ha consapevolezza. Non ha intenzione. Non comprende il contesto sociale, simbolico, umano delle immagini che produce. Non ha coscienza e non può avere etica. Attribuirle una responsabilità morale è una comoda illusione: serve solo a spostare l’attenzione lontano da chi prende davvero le decisioni. Il sistema fa ciò che può fare entro i confini che altri hanno stabilito. Con i dati, le regole e le priorità che gli sono state date.

La responsabilità, quindi, non è tecnica è umana. È dell’utente che formula la richiesta. È della piattaforma che decide quali richieste accettare o rifiutare. È di chi stabilisce le policy e di chi sceglie quanto rischio è disposto ad assumersi in nome della libertà.

Spennacchio, il pennello, resta innocente, cosi’ come Grok, il sistema.

Ma la mano che guida, e soprattutto chi ha deciso che tipo di pennelli mettere sul tavolo, no.

E forse è proprio li che oggi si gioca la partita più difficile dell’AI: non nella qualità delle immagini, non nella potenza dei modelli, ma nel modo in cui decidiamo cosa è lecito chiedere, cosa è giusto impedire e chi deve prendersi la responsabilità di dire “no”.

Prima che l’immagine venga generata, prima che il colore tocchi la tela.

____

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/