sabato 7 febbraio 2026

Umanità 2.0

Viviamo in un periodo in cui l’Umanità, intesa come insieme dei popoli, sembra dubitare ogni giorno del proprio nome.

E non solo perché è sempre meno “umana” nel senso classico del termine: quello che include fratellanza, misericordia, rispetto dell’altro, riconoscimento reciproco del diritto di esistere: “il mio diritto finisce dove inizia il tuo”. Ma anche perché, giorno dopo giorno, pezzi di umanità rischiano di essere sostituiti da pezzi di macchinità, nella nuova era dell’Umanità 2.0

Negli ultimi giorni OpenAI, con i suoi sistemi per la “salute”, termine accuratamente scelto per restare a distanza dalla parola medicina, e subito dopo Anthropic, hanno annunciato nuove soluzioni di assistenza sanitaria. xAI, dal canto suo, immagina apertamente un futuro in cui medici e chirurghi saranno sostituiti da chatbot e robot.

“Non facciamo diagnosi né terapie”, si affrettano a precisare. Ma davvero è così semplice? Perché’ la domanda non è cosa fanno oggi. È cosa diventeranno domani.

Un sistema saprà distinguere un paziente superficialmente disattento alla propria salute da un ipocondriaco cronico? Saprà costruire una relazione, cogliere le ambiguità, gestire le paure, o si limiterà a produrre le risposte statisticamente plausibili.

E siamo certi che piattaforme capaci di profilare ogni individuo con precisione millimetrica non svilupperanno, prima o poi, interessi “collaterali”? Farmaci “consigliati” perché statisticamente efficaci, ma anche convenienti per chi li sponsorizza, così come percorsi di cura orientati verso cliniche partner. Suggerimenti che non saranno mai chiamati pubblicità, ma best practice.

Un po’ come oggi gli informatori medico-scientifici: formalmente neutri, sostanzialmente allineati. Con la differenza che questa volta il consiglio non arriva da una persona, ma da un sistema “oggettivo”, inattaccabile, apparentemente disinteressato. Un algoritmo.

Ma perché fermiamoci davvero al mondo della medicina, ai Medici 2.0. Proviamo a spostarci, per esempio, in un’aula di tribunale.

Non una metafora, non un futuro lontano. Un’aula ordinata, silenziosa, quasi rassicurante. Niente faldoni accatastati, niente toghe consumate, niente giudici affaticati da giornate infinite, solo schermi, flussi di dati, indicatori di affidabilità.

L’aria è ferma, come se anche il dubbio fosse stato espulso per rendere il sistema più efficiente.

Immaginiamo giudici integerrimi, con in memoria l’intero corpus del diritto mondiale e tutta la storia della giurisprudenza. Un giudice che non dimentica nulla, che non interpreta, ma correla, che non ha intuizioni, ma probabilità.

Che non conosce la pietà, ma l’efficienza statistica, che non si stanca, non si commuove, non sbaglia, perché l’errore, semplicemente, non è previsto dal modello.

Chi meglio di loro potrebbe emettere verdetti, che non chiameremo più giudizi, perché non più discutibili?

Il processo non sarà più un confronto, ma una sequenza di analisi: atti, precedenti, profili, correlazioni, modelli, simulazioni.

Nessuna arringa, nessuna pausa, nessun silenzio carico di attesa. Solo una percentuale di affidabilità sufficientemente alta da chiudere il caso.

Verrebbero eliminati due gradi di giudizio, ormai superflui. Processi rapidi e istruttorie ridotte a sessioni di elaborazione statistica. La macchina della verità e l’analisi del DNA finiranno nei musei.

Perché’ il dubbio rallenta e i sistemi non hanno dubbi, solo livelli di certezza.

Per ora siamo nella fantascienza. (“Artificial Justice”, Spagna 2024; “Marcy”, USA 2026), ma mai come oggi la fantascienza rischia di essere superata dalla realtà prima ancora di diventare seconda visione.

E se il nostro giudice “onnisciente”, ospitato sulle stesse piattaforme che gestiscono i medici artificiali, fosse non proprio manipolabile, ma più sottilmente “configurabile”? Non tanto da sponsor o lobby, ma dai sistemi che lo rendono onnisciente.

A quel punto, ricorreremo al TAR del Lazio o alla Corte dell’AIA.

Sempre che siano ancora umane e non già parte integrante di Umanità 2.0.

__

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

giovedì 29 gennaio 2026

Imputati alla sbarra: il pennello e la rete neurale?


Aula del Tribunale delle Responsabilità Creative. 

Il giudice entra. Silenzio. Sul banco degli imputati siedono in tre: 

  • Mario, il cliente; 
  • Leonardo, il pittore; 
  • Spennacchio, il pennello (setole un po’ vissute, manico scheggiato, aria serena).

Il capo d’imputazione è singolare: aver contribuito alla nascita di un ritratto falso di un personaggio famoso in una situazione irreale ma molto sconveniente.

Il giudice sospira: “Procediamo con le arringhe difensive.”

Arringa di Mario, il cliente:

Mario si alza, sistema la giacca, la voce è ferma, quasi risentita.

“Sono un semplice cittadino. Ho fatto una richiesta, lo ammetto.
Ho chiesto qualcosa che non era permessa.
L’ho fatto.
Ma mi aspettavo un argine.
Un “no”.
Un “questo non si fa”.
Se mi rivolgo a un professionista è anche perché confido nel suo giudizio.
Se chi sa fare tace, chi chiede pensa di poter continuare.

Se il pittore non mi ha fermato, perché avrei dovuto fermarmi da solo?”

Un mormorio attraversa l’aula, mentre il giudice prende appunti, l’espressione resta scettica.

Arringa di Leonardo, il pittore:

Leonardo non si difende. Si spiega.

“Io sapevo che quel ritratto offendeva.

Non sono cieco.

Ma non sono nemmeno un tribunale morale.

Ho sempre dipinto ciò che mi è stato chiesto di dipingere.

Non decido io cosa è giusto o sbagliato nel mondo: decido solo come usare il colore.

La richiesta nasce prima della mano.

Sta al cliente non chiedere ciò che non è giusto chiedere.”

Fa una pausa:

“Se io, domani, ricevo un’altra richiesta simile…

devo essere io il filtro etico?

Devo sostituirmi alla coscienza di chi chiede?

Devo decidere io cosa è giusto per gli altri?”


Non c’è orgoglio nelle sue parole. Solo abitudine.


Arringa di Spennacchio, il pennello


Spennacchio non si alza. Non ne ha bisogno.


“Io non decido.

Io non penso.

Io trasferisco colore su pietra.

Se mi avessero immerso nell’azzurro, sarei stato cielo.

Nel rosso, sarei stato tramonto.

Non ho volontà, solo setole.

Se sono colpevole io, allora lo è anche la gravità.”

Silenzio assoluto, qualcuno si asciuga una lacrima. Il giudice tossisce.

Il verdetto

“La corte ha deciso:

Mario, il cliente, è colpevole: non tutto ciò che si può chiedere dovrebbe essere chiesto.

Leonardo, il pittore, riceve un richiamo: la libertà creativa non esonera dalla responsabilità etica.

Spennacchio, il pennello, è assolto con formula piena: strumento non consapevole, anima innocente.”

Ma togliamo i filtri alla scena, Immaginiamo che al posto di Mario ci sia Luca, un utente qualunque che usa AI per chiedere di produrre una immagine sconveniente e al posto di Leonardo, Elon, la piattaforma che gestisce xAI.

E al posto di Spennacchio proprio Grok, il sistema stesso.

A quel punto il processo non riguarda più un singolo gesto creativo, ma un caso d’uso preciso dell’AI generativa. Uno dei più delicati, diffusi e controversi.

L’utente chiede qualcosa che non dovrebbe chiedere, la piattaforma dovrebbe sapere che quella richiesta è problematica. Il sistema è il pennello, esegue perché è stato progettato per eseguire.

Chi gestisce una piattaforma di AI dovrebbe introdurre filtri, regole, limiti. Non per moralismo, ma per responsabilità. Perché le immagini generate non restano astratte: colpiscono persone reali, reputazioni reali, contesti reali.

Ma ogni filtro è una scelta e ogni regola è una linea tracciata. E più le regole aumentano, più la libertà dell’utente si restringe.

Se si lascia fare tutto, la piattaforma diventa un facilitatore di abusi, se si vieta troppo, la piattaforma diventa un arbitro morale che decide cosa è accettabile e cosa no.

Non esiste una soluzione neutra, esiste solo un equilibrio instabile, continuamente negoziato.

Ed è fondamentale dirlo chiaramente: il sistema è il pennello.

L’AI non ha consapevolezza. Non ha intenzione. Non comprende il contesto sociale, simbolico, umano delle immagini che produce. Non ha coscienza e non può avere etica. Attribuirle una responsabilità morale è una comoda illusione: serve solo a spostare l’attenzione lontano da chi prende davvero le decisioni. Il sistema fa ciò che può fare entro i confini che altri hanno stabilito. Con i dati, le regole e le priorità che gli sono state date.

La responsabilità, quindi, non è tecnica è umana. È dell’utente che formula la richiesta. È della piattaforma che decide quali richieste accettare o rifiutare. È di chi stabilisce le policy e di chi sceglie quanto rischio è disposto ad assumersi in nome della libertà.

Spennacchio, il pennello, resta innocente, cosi’ come Grok, il sistema.

Ma la mano che guida, e soprattutto chi ha deciso che tipo di pennelli mettere sul tavolo, no.

E forse è proprio li che oggi si gioca la partita più difficile dell’AI: non nella qualità delle immagini, non nella potenza dei modelli, ma nel modo in cui decidiamo cosa è lecito chiedere, cosa è giusto impedire e chi deve prendersi la responsabilità di dire “no”.

Prima che l’immagine venga generata, prima che il colore tocchi la tela.

____

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

lunedì 19 gennaio 2026

Lo zen e l’arte di convivere con l’Intelligenza Artificiale

Solo et pensoso i più deserti campi, vo mesurando a passi tardi et lenti, et gli occhi porto per fuggire intenti, ove vestigio human l’arena stampi.

È Zen il Petrarca (il canzoniere - 1337) perché lo Zen è intimità, scavare dentro, eliminare il superfluo e raggiungere quel punto in cui la struttura dell’IO, quella costruita, si dissolve lasciando emergere la natura originaria.

Non una “individualità” contrapposta ad altre individualità, ma una essenza che non necessita del confronto con gli altri. 

Proprio quando il mondo che ti circonda ti crea complessità, come l’Intelligenza Artificiale che raccoglie tutto lo scibile umano e costruisce un individuo universale, che è tutto, in tutte le forme, essa fa in modo di farti credere che tu sia una di quelle forme.

Fantastico, lo Zen ti sussurra: “Cerca la tua natura originaria.” E l’Intelligenza Artificiale ribatte: “Ho stimato le tue preferenze basandomi su qualche miliardo di dati.”

È come un duello in campo aperto: tu cerchi ciò che rimane quando l’Io costruito si dissolve, lei (antropomorfismo) ti fornisce il catalogo delle tue probabilità.

E così, mentre lo Zen ti invita a esplorare i tuoi territori interiori senza mappe, senza percorsi precostituiti, l’AI ti prende per mano e ti conduce in un tour guidato del “profilo utente standard”, che non è altro che una sintesi di qualcosa di diverso da te che forse ti assomiglia.

E forse è proprio in questi paradossi che nasce la convivenza, la possibilità di completare il processo. L’Intelligenza Artificiale vuole renderti o farti apparire prevedibile e tu devi riuscire a riconoscere ciò che in te non è riconducibile ad uno di quei profili.

Tu vuoi uscire dagli schemi, e l’AI è pronta a presentarteli tutti.

E così nel tentativo di scoprire la tua identità, ti confronti con la complessità, con le sintesi globali, con gli schemi modellati e con le tendenze collettive. Un processo dove la meditazione sconfina nel debugging di te stesso, dove la difficoltà aumentata consolida la tua consapevolezza.

L’arte del convivere con l’Intelligenza Artificiale consiste proprio nel considerarla uno strumento che amplifica la tua mente complessa e rende la ricerca di ciò che sei ancora più articolata e profonda.

Ricordando che, così come la spada non rende guerriero chi non la sa usare e la penna non rende poeta chi non sa guardare il mondo, l’Intelligenza Artificiale non rende più saggio chi non sa ascoltare se stesso.

“E’ tutto un equilibrio sopra la follia” (V. Rossi)

Un esercizio di consapevolezza più complesso, ma più completo che mai per scoprire che la vera arte non è nel conflitto con la tecnologia, ma nel confronto, nella cooperazione.

Solo ampliando le complessità e alzando il livello di sfida con te stesso, troverai il tuo vero essere, quella parte di te che nessun algoritmo può prevedere.

“Finirai di farti scegliere e finalmente sceglierai” (De Andre)

_____


Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/

mercoledì 7 gennaio 2026

Il Laboratorio Popolare di Intelligenza Artificiale.

C’è chi pensa che l’Intelligenza Artificiale sia ormai alla portata di tutti, chi la teme come un misterioso aggeggio invadente e pericoloso, e chi semplicemente non sa da dove cominciare. 

Quando si vive in un’era di profonda evoluzione tecnologica la comprensione della tecnologia non può essere un privilegio per pochi, ma un diritto per tutti, per tutte le classi sociali.

E’ nato così a Torino, come naturale evoluzione dei corsi di informatica per anziani dello SPI-CGIL Lega 8, il Laboratorio Popolare di Intelligenza Artificiale. Una piattaforma cooperativa dedicata alla comprensione dell'IA, una serie di incontri di formazioni e eventi sul territorio. Un programma di coinvolgimento nello sviluppo stesso delle attività e dei contenuti del Laboratorio.

Una iniziativa partita “dal basso”, non un progetto accademico, ci raccontano Franco Marra e Nicoletta Tarducci, fondatori della “band” come loro stessi si definiscono. Con la partecipazione straordinaria che dà spessore scientifico a tutta l’impresa di Pietro Terna, professore emerito di economia presso l’Università di Torino e pioniere sull’impiego delle reti neurali e delle simulazioni basate su agenti.

Pragmatismo e trasparenza caratterizzano il primo approccio divulgativo dal titolo accattivante “aprire il cofano”, per spiegare in termini concreti il funzionamento del motore che sta alla base. Funzionamento condotto con l’aiuto di una piccola rete di pochi nodi sviluppata a scopo didattico e dimostrativo da Terna e di programmi di generazione che usano modelli in locale, con il codice scritto con l’aiuto stesso dell’AI per “toccare con mano” e per svelare il trucco di quella che potrebbe sembrare una incredibile magia.

L’impatto con la “chiromante stocastica”, espressione con cui è stata definita l’interazione con gli LLM che tendono a sfruttare le informazioni fornite per generare risposte compiacenti, allineate al pensiero. Da qui nasce soprattutto la necessità di rinnovare l’attenzione sui temi della privacy, sulla pericolosità della propria profilazione e sulla necessità di una interazione che utilizzi un linguaggio il più possibile neutro e non emotivo, per evitare di raccontare sé stessi mentre si interroga l’Intelligenza Artificiale.

Le “pillole didattiche” per un uso consapevole, esempi di Prompt, a casi di applicazione dell’Intelligenza artificiale. La sua storia, l’evoluzione della tecnologia dalle origini.

E poi gli strumenti, il laboratorio vero e proprio. Il RAG come rifugio e tavolo di lavoro, ambiente protetto e delineato per ridurre al minimo le famose “allucinazioni” ma avere il controllo dei contenuti.

“L'aggettivo "Popolare" racchiude l'essenza della filosofia del laboratorio. Il LabPopIA si configura come una piattaforma cooperativa dedicata a rendere l'IA accessibile a un pubblico non specializzato, con l'obiettivo dichiarato di "demistificare" la tecnologia

L'inclusione è il pilastro di questo approccio. I materiali didattici e i workshop sono progettati specificamente per un pubblico di pensionati e casalinghe, utilizzando un linguaggio e degli esempi che risuonano con la loro esperienza. In questo modo, il laboratorio realizza la sua missione più profonda: accompagnare le persone in una transizione cruciale, trasformando la paura dell'ignoto in un'attiva e costruttiva curiosità.”

Un approccio umanistico, non solo tecnico, che si materializza con il contribuito critico dei pensionati dello SPI-CGIL. L'inclusione è il pilastro di questo approccio. I materiali didattici e i workshop sono progettati specificamente per un pubblico di pensionati e casalinghe, utilizzando un linguaggio e degli esempi che risuonano con la loro esperienza. 

Tutti i contenuti che in linea con la filosofia democratica sono liberamente consultabili e utilizzabili, nel solco della cultura Open Source. In questo modo, il laboratorio realizza la sua missione più profonda: accompagnare le persone in una transizione cruciale, trasformando la paura dell'ignoto in un'attiva e costruttiva curiosità. Realizzata anche con l’organizzzione di conferenze e eventi che vedranno i pensionati dello SPI 8 protagonisti in prima persona: la AI Blues Band.

Il Laboratorio Popolare di Intelligenza Artificiale è un progetto in continuo divenire, un work in progress destinato a evolvere rapidamente nei prossimi mesi. Un’esperienza che dimostra come l’alfabetizzazione tecnologica possa essere inclusiva, critica e partecipata, restituendo alle persone il controllo consapevole degli strumenti digitali che sempre più incidono sulla vita quotidiana.

Il laboratorio è consultabile e aperto alla partecipazione agli indirizzi:

https://sites.google.com/view/labpopia/home

www.labpopia.it 

Illustrazione di Teo Ugone: https://www.instagram.com/teougone.illustrations/