martedì 17 dicembre 2024

"AI: Oltre l’Hype, verso un Futuro di Innovazione Pragmatica"

 

In questo periodo di grande euforia e "Hype" sull'AI, soprattutto su quella generativa, vorrei condividere alcune riflessioni, non tanto per non fermarci sulle ali dell’entusiasmo del momento, ma per provare a ragionare su nuovi scenari evolutivi e capire dove stiamo andando e dove potremmo andare.

Siamo solo all'inizio di una nuova era, una rivoluzione che è appena cominciata. Stiamo beneficiando quasi con naturalezza delle nuove potenzialità offerte dall'AI, ma non solo, ogni giorno scopriamo nuove opportunità e ne siamo quotidianamente affascinati.

Quasi storditi dall’euforia, spesso non andiamo oltre agli aspetti di produttività ed efficienza personale, dimenticando che l’enorme offerta tecnologica che stiamo utilizzando potrebbe offrire opportunità applicative e soluzioni in settori ed in processi che oggi ne sono influenzati in modo relativamente marginale.

Il Boom e l'Hype

Ciò che stiamo vivendo ha una storia molto recente. Mai prima d’ora una tecnologia così innovativa ha avuto un impatto così rapido e profondo su persone, processi e abitudini. E di tutto ciò se ne parla ovunque, in maniera entusiastica, perché è evidente che siamo di fronte a una vera e propria "nuova era", attesa, forse prevista e per qualcuno quasi scontata. Anche perché tutto è successo in modo incredibilmente veloce, quasi all’improvviso.

L’AI simbolica, storica, quella basata sulla "conoscenza" e sui sistemi esperti, si è arenata alla fine degli anni '80. In quegli anni, l’alternativa della scuola delle reti neurali, pur avendo grandi potenzialità, non aveva ancora la raffinatezza dei modelli di “training” e soprattutto non aveva la potenza di calcolo necessaria.

Anche di fronte ai limiti dell’AI simbolica, questa non riusciva a emergere. E’ cosi seguito un lungo periodo di stasi, o meglio, di "letargo", dove le innovazioni tecnologiche e gli algoritmi miglioravano lentamente, ma senza suscitare grande attenzione. Molte applicazioni venivano sviluppate, anche senza i riflettori puntati su di esse. Poi, improvvisamente, tutto è cambiato. È come se una nuova versione della Legge di Moore fosse stata applicata alla potenza delle reti neurali, invece che ai microchip.

Solo ipotizzando, provocatoriamente, che la "potenza di una rete neurale raddoppia ogni 18 mesi", potremmo guardare con meno stupore la velocità del progresso delle funzionalità nei tempi sempre piu’ brevi in cui si rendono disponibili.

il Mercato

Come spesso accade, tutto parte da idee, iniziative, investimenti e progetti che trovano terreno fertile e grandi investimenti prevalentemente o meglio inizialmente negli Stati Uniti. Oggi le principali piattaforme di AI sono americane, ma anche cinesi e indiane. E non dobbiamo dimenticare che la Cina è sempre molto attenta a ciò che accade nel mondo della tecnologia: riesce a cogliere ogni idea, svilupparla e adattarla in maniera pragmatica e mirata.

Noi in Europa siamo meno inclini a correre rischi e forse meno strutturati per creare la massa critica necessaria per progetti cosi’ importanti. Abbiamo una grande tradizione nella trasformazione, nella qualità e nel valore. E credo che, anche in questa rivoluzione globale, ci siano spazi per dare voce alla nostra cultura e al nostro approccio.

Spesso, per limitare le incertezze, preferiamo regolare il mercato invece di cavalcare l'onda dell'innovazione. Questo non significa che non sia giusto regolamentare, ma spesso perdiamo l'opportunità di sfruttare queste tecnologie per realizzare nuove applicazioni e soluzioni.

Ora lasciamo un attimo da parte la Cina per il momento, anche se consiglio comunque di dare uno sguardo alle loro piattaforme e, visitando i loro chatbot, vedere dove li utilizzano e con quale tecnologia. I tempi e le strategie che hanno seguito per lo sviluppo dell’auto elettrica e il loro conseguente potenziale prossimo predominio in questo settore, dovrebbero essere un monito per riflettere sulla loro capacità di accelerazioni sull’adozione delle nuove dirompenti tecnologie.

Le Piattaforme Dominanti: OpenAI, Anthropic e Perplexity

Focalizziamoci ora su tre piattaforme che stanno dominando il mercato: OpenAI, Anthropic e Perplexity. Ce ne sono altre, emergenti, e naturalmente ci sono anche Copilot e Gemini, ma queste sono fortemente legate alle rispettive aziende e, sebbene siano ugualmente importanti ed interessanti, hanno un ruolo più complesso e integrato nelle offerte aziendali interne. Per questo motivo, ci concentreremo su quelle piu’ facilmente confrontabili e che proponendo soluzioni apparentemente non legate a qualche “big player” dovrebbero meglio rappresentare le dinamiche e le opportunità di questo nuovo mercato.

  • OpenAI: Fondata circa 7-8 anni fa, ha raccolto fondi per alcuni anni e ha sviluppato la sua piattaforma in relativo apparentemente silenzio. Poi, nel 2021, ha dato il via a un'esplosione di funzionalità e miglioramenti. Ha ricevuto ingenti finanziamenti e oggi ha probabilmente più risorse finanziarie di quelle che spende per continuare a crescere e innovare. ChatGPT è ormai conosciuto da tutti, quindi non mi soffermerò sulle sue caratteristiche principali.
  • Anthropic: Fondata nel 2022 dai fratelli Dario e Daniela Amodeo, ex OpenAI, ha lanciato Claude verso la fine del 2023. Questa piattaforma si distingue per un'interfaccia conversazionale molto gradevole e una forte attenzione alla sostenibilità e all'etica, sebbene non raggiunga la profondità di conoscenza di OpenAI. Nonostante abbia raccolto molti fondi, sono inferiori rispetto a quelli di OpenAI. Da notare che Amazon, Microsoft e Google stanno investendo notevolmente in questa piattaforma, e non solo in questa, anche se non è chiaro quanto e come. Tanto che viene da chiedersi: quanto vale il cloud di AWS che Amazon ha messo a disposizione di Anthropic per Claude?
  • Perplexity: Questa piattaforma si distingue per due motivi principali. Primo, utilizza funzionalità di altre piattaforme su licenza. Secondo, il suo modello proprietario si basa soprattutto sulla disponibilità dei documenti da cui il sistema deduce risposte ai prompt. Perplexity sta mettendo in evidenzia un trend ormai consolidato, dove queste piattaforme stanno assumendo un ruolo che sta velocemente prendendo spazio rispetto ai piu’ tradizionali “Motori di Ricerca”, con l’obiettivo probabile di poterli sostituire  nel prossimo futuro, con modelli di interazione e di business sicuramente innovativi. Tant'è che da poco Perplexity ha iniziato ad introdurre pubblicità nelle sue sessioni conversazionali.

Non ci soffermeremo sulle diverse architetture, sulle peculiarità, su pregi e difetti in quanto la letteratura sul tema è vastissima e vorremo concentrarci sul mercato e sulle potenziali evoluzioni applicative.

E’ curioso come tutte queste piattaforme propongano apparentemente modelli di business molto simili tra di loro. Profilazione e licenza di utilizzo gratuito con vari vincoli di utilizzo e forte promozione verso le licenze PRO, spesso con un costo mensile relativamente contenuto, dove le funzionalità della versione free sembrano ad un primo utilizzo piu’ che sufficienti.

sembrano” e questo è un tema di grande attenzione, perche’ la profondita’ della ricerca, i livelli di certezza o, in altre parole, della qualità del prodotto di output, sembrano gli stessi dei modelli PRO e vengono veicolati come verità. Ma non sempre è cosi. E la poca trasparenza sui limiti delle risposte dei modelli free rispetto PRO non è semplice da catturare. Al punto che si potrebbe creare un livello di fiducia eccessivo e a volte fuorviante.

Sembrerebbe che sia questo il solo modello iniziale per lanciare l'AI nel mercato consumer, ma è proprio per la semplicità di questa offerta che si dovrebbero analizzare molte altre politiche che presto potrebbero allargare il fronte del “Go to Market” sfruttando tutte le potenzialità al momento non ancora pienamente utilizzare.

Cercando di guardare oltre a quella che oggi potrebbe essere solo la punta dell’isberg  dell’AI, possibilmente senza lasciarsi troppo influenzare dai continui annunci di incremento di funzioni “generative”. Funzionalità che creano si grande impatto, con l’aurea di “intelligenza” sempre piu’ disponibile, ma sempre fortemente orientata alla produttiva individuale. Oltre quindi quello che oggi sembra un B2C diretto e aggressivo.

Le piattaforme si trattano con grande cortesia. Se chiedete loro di fare un'analisi comparativa, risponderanno più o meno nello stesso modo, con educazione. Ma attenzione a non considerare ogni risposta come verità assoluta. La loro attitudine a dare comunque una risposta con un approccio estremamente assertivo, non sempre deve essere preso come verità assoluta.

Peraltro, i sistemi al momento non dichiarano, ovviamente, le logiche delle loro deduzioni, ma neppure un livello di certezza delle informazioni che forniscono. L’ipotetica “guerra” tra piattaforme sul mercato è ancora pacifica, ma potrebbe evolvere rapidamente.

Ma il business e piu' in generale il ritorno all’investimento, o meglio agli ingenti investimenti del settore non puo’ essere limitato all’utilizzo per incrementare la produttiva individuale, anche se in modo importante e su una popolazione che li sta adottando immensa.

Tutte le piattaforme sono in grado di fornire librerie di funzionalità dei sistemi AI (p.e.: tramite API) che permettono di gestire processi, costruire modelli e creare soluzioni applicative molto diversificate, pronte per contribuire alla nuova trasformazione digitale di tutti gli aspetti di business delle aziende. Questo approccio all’AI, nonostante la maturità tecnologica e alcune interessanti applicazioni è ancora ai margini.

Al momento si assiste ad un significativo allargamento nei processi di CRM, ovvero di relazione con il Cliente finale. Sistemi di interazione sempre piu’ amichevole ed intelligenze e sempre piu’ autonomia nei settori dell’E_commerce, del Supporto al cliente, nella gestione della documentazione di qualunque tipo e aspetto. Attraverso l’utilizzo sempre piu’ spinto del Large Language Model, ovunque dove una interazione, un colloquio, una richiesta, un approfondimento può essere molto piu’ facilmente e con maggior precisione e correttezza gestito dalle “macchine”.

Dalla scrittura delle E_mail, alla sintesi di incontri e relativa stesura di rapporti, del tutto ormai indifferenti alla lingua utilizzata, come se le barriere linguistiche siano ormai un ricordo del passato. Per non citare le molte applicazioni proprie della AI Generativa, testi, musica, video, fino allo sviluppo del software e alla scrittura di codice, sistemi di test e documentazione relativa.

Mentre I processi aziendali fondamentali quelli che sono il Core dell’azienda sono appena stati toccati. La logistica, la gestione delle risorse, il controllo qualità, il classico MRP, il PLM sono al momento dei piccoli laboratori, cosi’ come tanti altri processi aziendali propri di settori di mercato e di particolari verticalità.

Eppure, con l’utilizzo delle API delle piattaforme di mercato e a costi relativamente abbordabili, si potrebbero realizzare nuovi approcci da associare ai modelli algoritmici e matematici piu’ classici. E proprio per una barriera economica e di investimento all’ingresso relativamente bassa si potrebbero attivare nuove soluzioni o anche solo sperimentazioni e prototipi.

Senza andare ancora a sfiorare e ancora meno a competere con il regno dei piu’ tradizionali sistemi ERP


La Situazione delle PMI

Una ricerca dell’Università di Stanford sugli investimenti di AI nel mondo mette ai primi due posti USA e Cina e poi a distanza tutti gli altri. La ricerca mette anche in evidenza quali sono i settori dove si concentrano gli investimenti e la maggior parte degli investimenti americani e cinesi sono nello sviluppo delle piattaforme.

Nulla di sorprendente, me se si legge nel dettaglio si scopre che gli investimenti pr lo sviluppo e la realizzazione di “applicazioni” di business con l’utilizzo delle piattaforme sono ordini di grandezza piu’ piccoli. Se guardiamo quanto i vari paesi investono nelle applicazioni basate su queste piattaforme, vediamo che i valori sono ancora molto marginali, e l’Italia non è certo tra i leader. Praticamente l’utilizzo delle piattaforme nella loro versione “generativa”, nativa e primaria rappresenta la parte piu’ importante del business, mentre l’AI, cosi’ potente e cosi’ disponibile su larga scala non viene ancora usata per migliorare e rendere piu’ efficienti i processi CORE delle aziende.

Spostando l’attenzione sul mercato italiano il cui tessuto è fortemente legato ad una tradizione di Piccole e Medie Imprese (PMI), questo approccio è ancora piu’ evidente. Le PMI italiane, stanno vivendo l'euforia dell'AI, ma come tutti i singoli cittadini, principalmente per la produttività personale, nella gestione della documentazione, con prime piccole sperimentazioni nel CRM e con i primi approcci nell’E_commerce. In questi casi tutto è semplice, l’adozione è molto veloce, il valore aggiunto in termini di produttiva personale immediatamente percepibile, i rischi quasi assenti.

La barriera all’ingresso molto bassa e i costi gestibili non permettono però di diversificare il servizio erogato, far crescere l’identità, portando conseguentemente un certo livellamento nella qualità dei servizi erogati.

Le PMI hanno poca consapevolezza, poca visibilità e nessun supporto, neppure dall’ecosistema dei principali system integrators, su come sfruttare l'AI per ottimizzare i loro processi aziendali, soprattutto quelli molto specifici per il loro business. Eppure non dovrebbe essere complicato non dico sviluppare applicazioni, ma individuare inizialmente quei processi che potrebbero essere approcciati analizzati ed eventualmente gestiti in modo innovativo con i nuovi strumenti. Non tanto processi eccessivamente complessi, ma dove ci siano caratteristiche di grande ripetitività, di volumi importanti di dati da analizzare. Dove il “time to complete” è significativo e strumenti statistici di calcolo e analisi predittiva possono incredibilmente velocizzare l’elaborazione. Quei processi dove i “nodi di interazione” sono molteplici e non sempre legati a modelli o algoritmi. E soprattutto dove ci sia disponibilità di grandi raccolte di dati: puntuali, storici, classificati, “puliti”, in continua evoluzione.

Pensiamo anche solo parzialmente alla ormai incredibile potenza dei sistemi di riconoscimento delle immagini e conseguentemente a tutte le problematiche connesse a questa “fisicità”

E non certo cercando di emulare comportanti ancora prerogativa della risorsa umana, dove prevale la presenza fisica, la creatività, l’intuito e piu’ in generale l’istinto e la “competenza”.

Si potrebbe addirittura immaginare un percorso di adozione:

Percezione oggettiva: raccolta dei dati per avere delle casistiche e del valore delle informazioni disponibili

Notifica: ovvero l’analisi dei dati per mettere in evidenza le casistiche e le peculiarità

Suggerimento (suggestion): per indicare e suggerire alla risorsa umana azioni da intraprendere

Automazione: per iniziare ad eseguire e completare delle azioni da parte dei sistemi

Predizione: Prevedere su base statistica situazioni particolari, criticità, anticipandone i tempi classici.

Prevenzione: agire sulla Predizione, per prevenire le criticità

Le Barriere al Progresso

Oggettivamente sono molti i freni che rallentano o addirittura impediscono l’adozione delle tecnologie di AI per la gestione di processi Core delle aziende ed in particolare in Italia delle PMI:

  1. Nuovo approccio ai progetti: L'AI cambia radicalmente l'approccio tradizionale, che non può limitarsi alla disamina del processo funzionale per identificare e definire un algoritmo, un modello matematico o piu’ banalmente un parametro di configurazione in grado di gestirlo. Diventa necessario concentrarsi sui dati, sulla loro disponibilità e sui filtri per renderli utilizzabili. Lontani dai tempi e dalla modalità canoniche con sui si sviluppava il software tradizionale, nel caso dell’AI si deve procedere per operazioni di training e raffinamenti successivi fino ad un livello di “confidenza” accettabile, e non con la certezza formale del modello del processo. Bisogna concentrarsi sui dati disponibili, sui patterns e sui risultati, non solo sulle funzioni.
  2. Nuova governance: Con l'approccio all'AI, devono cambiare oltre alle modalità di gestione dei progetti, gli strumenti di controllo, le politiche di avanzamento, gli skill del personale tecnico, l’organizzazione dei gruppi di progetto. I parametri di controllo qualità per i rilasci, i metodi per la valorizzazione delle singole attività, e le responsabilità di progetto.
  3. Gestione dei dati: Prima di tutto, bisogna raccogliere e gestire i dati in modo efficiente, comprendendo il loro valore e garantendo la loro qualità e quando impattante anche la problematiche relative alla privacy. Spostando quindi l’attenzione sui dati e sulle informazioni, e non piu’ totale affidamento al know how di processo.

Nonostante queste sfide, il settore delle PMI ha una grande opportunità. La barriera all’ingresso è più bassa, i costi di implementazione sono più contenuti e le soluzioni basate su piattaforme AI possono portare a tempi di delivery molto rapidi. Tuttavia, manca ancora competenza e consapevolezza nel saper utilizzare queste tecnologie.

Anche l’ecosistema al contorno deve prepararsi ad una evoluzione epocale.

Il processo di “digital trasformation” che in tanti anni ha consolidato metodologie, modalità di intervento, piattaforme informatiche deve evolvere in modo radicale.

Tutti i grandi players, grandi e piccoli system integrators devono rivedere ed arricchire le loro competenze umane e tecnologiche, sviluppare nuove forme di offerta e nuovi modelli di governance, con il coraggio di uscire, quando necessario dalla comoda zona di comfort dei tradizionali sistemi di ERP.

La partita dell'AI è appena iniziata. Spostarsi su nuovi fronti è fondamentale, non è detto che chi parte per primo vinca, ma se non si partecipa è certo che si perderà.

Conclusione e Dubbi sul Futuro

Oggi abbiamo una disponibilità enorme di tecnologia. Le piattaforme con il supporto dei venture capital stanno investendo somme enormi, ma la domanda industriale, quella che sta alla base della rivoluzione che tutti si aspettano, è ancora carente. C'è una grande differenza tra l'offerta e la domanda. Se l'offerta smettesse di concentrarsi prevalentemente sull'Hype della AI generativa e cominciasse a fornire soluzioni più concrete, allora la domanda potrebbe crescere.

Ma anche la domanda deve evolvere, il mondo industriale sta avanzando con molta cautela valutando con attenzione ogni mossa, solo attraverso una maggiore consapevolezza e anche una chiara regolamentazione si possono prevedere progressioni e avvicinamento della domanda all’offerta. I due fronti i muovono al momento ancora a due velocità diverse. Mentre si dovrebbe cercare il raggiungimento di un equilibrio, altrimenti tutto l’entusiasmo per l’intelligenza artificiale e l’enorme offerta disponibile potrebbero far temere l’avverarsi di un BOLLA, come quelle che abbiamo avuto con le Dot.com e le telecomunicazioni.

Volendo paragonare l’avvento dell’Intelligenza Artificiale come la nuova rivoluzione industriale dovremmo fare una riflessione storica su un’altra grande rivoluzione industriale: l’elettricità.

Senza considerare i tempi storici, immaginiamo per esempio che le centrali elettriche degli inizi del '900 avessero prodotto quantità enormi di energia e tutto il mondo tradizionale, euforico ed entusiasta, si fosse concentrato solo nell’utilizzo dell’energia per accendere lampadine e non per sostituire le macchine a vapore e cambiare il volto delle realtà industriali.

Avremmo avuto solo lampadine accese e centrali elettriche in “disarmo”.

Ecco, l'AI deve essere utilizzata per trasformare l’industria in modo profondo.

Infine, c'è un altro aspetto che vale la pena considerare: l'energia.

Microsoft ha annunciato di avere acquistato la centrale nucleare di Three Mile Island per riattivarla, e Google sta siglando accordi per costruire nuove centrali nucleari.

Le grandi piattaforme con i loro data center assorbono molta energia e producono anche grandi quantità di calore.

Forse sarebbe opportuno valutare come distribuire gli investimenti non solo per aumentare la potenza delle reti neurali, secondo la nuova legge di Moore, ma anche come rendere gli algoritmi di Training molto piu’ efficienti e a basso consumo energetico. Enormi spazi di maggior efficienza, soprattutto se pensiamo a quanto poco consumano le reti neurali biologiche.

Altrimenti un giorno di un ipotetico e grigio futuro potremmo trovarci di fronte al dilemma di dove concentrare l’energia in caso di crisi, se sui data center dell’AI o sui sistemi di pubblica utilità.

Siamo solo all’inizio di una nuova era, un salto quantico nell’automazione dei processi e nelle modalità di utilizzo dell’automazione stessa.

E i tempi di questa nuova rivoluzione industriali saranno dirompenti, velocissimi.

Nel frattempo, pur rimanendo un po’ sognatori giocando con l’AI Generativa e i LLM, dobbiamo guardare oltre ad un futuro nuovo, molto vicino e molto pragmatico.

E dobbiamo velocemente essere pronti e disponibili a cambiare i nostri Mindset.

Cominciamo ad immaginare un futuro dove non ci chiederemo dove utilizzare l’AI per rendere piu’ efficienti i task umani, ma dove andremo a studiare e identificare se e quando sarà necessario l’essere umano per rendere piu’ efficienti e sicuri i task dell’AI.

Sarà un bel giorno e io sono tranquillo su questo fronte.