Categoria: Blog

  • Un esempio è meglio di 1000 parole: LinkedIn Boost, scritto in nave tra Civitavecchia e Termini Imerese.

    Un esempio è meglio di 1000 parole: LinkedIn Boost, scritto in nave tra Civitavecchia e Termini Imerese.

    Tredici ore di traversata, sei effettive da sveglio, un internet che definire lento è un complimento.

    Quello che segue è il racconto di come, in quelle sei ore, è nata un’applicazione funzionante, usabile, e pronta a diventare una startup se i numeri lo diranno. Non è un racconto di eroismo notturno, è un racconto di strumenti. Perché il punto non sono io, il punto è cosa ti permette di fare Canonity quando hai un’idea in testa e vuoi vederla girare prima di sbarcare.

    Da dove nasce, davvero LinkedIn Boost? Non è nato come prodotto da vendere ma perché io, su LinkedIn, ci devo stare. Non ci voglio vivere, non faccio personal branding come mestiere, non sogno di diventare un content creator, ma il mio lavoro mi obbliga a essere presente sulla piattaforma in modo intelligente.

    E come chiunque abbia un profilo vivo, mi sono posto le stesse domande di tutti: cosa funziona davvero di quello che scrivo?, Quali temi valgono la pena?, Cosa sto facendo male, cosa dovrei smettere di fare? A chi parlo?.

    Le risposte che LinkedIn ti dà nella dashboard sono superficiali. Quelle che ti danno i vari tool di personal branding costano venti, trenta, cinquanta euro al mese e sono sovradimensionati per chi non vive di social.

    Quindi mi sono detto: uso Canonity per costruirmi quello che mi serve. Che prende i miei dati di LinkedIn e mi dice cose utili sul mio profilo, senza fronzoli. Sei ore dopo, sbarcato a Termini Imerese, avevo non solo il workflow funzionante ma anche un’interfaccia web per usarlo. Ed è qui che la storia diventa interessante, perché a quel punto mi sono accorto di una cosa che voglio raccontarti con ordine.

    L’architettura in due righe. Un workflow Canonity che fa il lavoro sporco (cinque ore: disegno, test, iterazioni, finalizzazione sull’editor grafico di Canonity, senza scrivere una riga di codice) ed espone API. Sopra, un’applicazione web chiamata canoweb, che consuma quelle API. Scritta in un’ora. Sì, un’ora.

    Voglio fermarmi qui un attimo, perché capisco che sembri marketing. Non lo è, è proprio quello che è successo. Io sono un architetto software con quarant’anni di mestiere alle spalle, scrivo applicazioni web da prima che molti di voi nascessero, e con Claude Code al fianco un frontend minimale che consuma un’API REST e gestisce upload di file, autenticazione, chiamate asincrone e notifiche via email lo butto giù in un’ora di lavoro concentrato.

    Non è un miracolo, è mestiere più l’acceleratore giusto. Il miracolo, se vogliamo chiamarlo così, è altrove: è che le cinque ore di workflow Canonity hanno prodotto un motore di analisi che, se avessi dovuto scriverlo a codice, mi avrebbe portato via settimane. Orchestrazione di più LLM, logica condizionale, prompt template versionati, gestione errori, retry, fallback tra provider… Tutto questo, in Canonity, lo ottieni disegnando col mouse.


    Per chi non conosce Canonity, riassumo in una frase: è una piattaforma di orchestrazione multi-LLM con un motore di workflow che permette di costruire processi AI attraverso un editor grafico col quale comporre passaggi, condizioni, iterazioni, validazioni, senza legarsi a un singolo fornitore.

    Ad oggi supporta nove provider (OpenAI, Anthropic, Google, xAI, DeepSeek, Moonshot, Alibaba, Mistral, z.Ai) e ti lascia scegliere il modello giusto per ogni passo del processo. Mentre tutti vendono “orchestre di Stradivari”, Canonity ti dà lo spartito e ti lascia scegliere gli strumenti: tu sei il maestro, lui suona.


    Ma torniamo a cosa fa LinkedIn Boost:

    L’utente scarica dal proprio profilo i CSV che LinkedIn stesso mette a disposizione nelle impostazioni (l’archivio dati personale dalla sezione Data Privacy, più l’export delle analytics dei post se ha il Creator Mode attivo), li carica nell’app insieme a obiettivi, profilo e dopo pochi minuti riceve una e-mail con un documento di analisi costruito sui suoi obiettivi. Il documento non è un rapporto generico, il workflow Canonity applica una sequenza dialettica che ho sviluppato dove un primo modello analizza i dati un altro capisce l’audience, un altro vede la crescita, analizza i post, ecc. ecc. e sintetizza quello che regge davvero.

    Non è un singolo LLM che ti dice quello che vuoi sentire, non è un unico prompt da incollare in un chatbox e copiare il risultato, è un processo complesso che fare a mano ti prende più tempo dell’attesa dell’e-mail e che ti costringe a confrontarti con quello che i numeri dicono realmente.

    L’analisi copre cose come: quali tipi di post performano meglio sul tuo profilo specifico (non in astratto), in che orari, con che lunghezza, con che registro. Quali temi generano engagement vero e quali solo vanity metrics. Dove ti stai posizionando rispetto ai tuoi obiettivi dichiarati. Cosa smettere di fare, perché questa di solito è la parte più preziosa e la meno detta.

    La parte che voglio rendere esplicita, perché è la differenza tra un prodotto serio e un prodotto che dura tre settimane.

    LinkedIn, nel suo User Agreement, vieta esplicitamente qualunque estensione, bot, crawler o software di terze parti che automatizzi attività sul sito o faccia scraping dei dati. Non è un’area grigia, è scritto nero su bianco nella sezione 8.2 del loro User Agreement e nella pagina “Prohibited Software and Extensions“. LinkedIn usa browser fingerprinting per riconoscere le signature delle estensioni non autorizzate, rileva comportamenti non umani (click troppo precisi, pause troppo regolari, orari innaturali), e quando trova qualcosa di sospetto non perdona: warning, restrizioni temporanee, e nei casi peggiori ban permanente dell’account.

    Aggiungo un dettaglio tecnico che molti non sanno: le API ufficiali di LinkedIn esistono e supporterebbero quasi tutto quello che un tool di crescita personale vorrebbe fare (leggere commenti, rispondere, accedere alle analytics) ma -ovviamente- il permesso che servirebbe per operare sui profili personali degli utenti, che si chiama r_member_social, è un permesso chiuso. LinkedIn non accetta nuove richieste di accesso da anni, per esplicita limitazione di risorse. Tradotto: la porta ufficiale per fare certe cose sul profilo personale di un utente non è difficile da aprire, è proprio sbarrata. Quello che resta accessibile è la Community Management API, che però è riservata alle pagine aziendali, non ai profili individuali.

    Chi costruisce tool di automazione aggressiva su LinkedIn, consapevolmente o no, sta giocando alla roulette russa con l’account dei propri clienti e la mia seniority mi vieta di giocare a quel gioco, so già come va a finire.

    LinkedIn Boost funziona con caricamento manuale dei CSV perché è l’unico modo legale, onesto e sostenibile. Sono io che, dal mio browser, dal mio account, scarico i miei dati (LinkedIn stesso te lo permette, è una funzione ufficiale nelle impostazioni Data Privacy). L’AI li legge e li trasforma in analisi utile. Nessun bot che striscia sul tuo profilo, nessuna estensione che finge di essere te, nessuna attività automatizzata che LinkedIn possa rilevare. Il fastidio di cliccare “export” ogni tanto è il prezzo per non svegliarsi un giorno con l’account sospeso. Mi sembra un prezzo equo.

    E adesso arriva la parte che mi sta più a cuore raccontarti, quella sulla velocità.

    Quando un utente, tra qualche giorno o qualche settimana, mi scriverà “Aldo, ma nel documento di analisi mi piacerebbe vedere anche X” oppure “ho notato che per i profili molto piccoli l’analisi dice cose poco utili, si può calibrare diversamente?”, io non dovrò aprire il codice dell’applicazione canoweb. L’applicazione rimane com’è, un guscio sottile che carica file e chiama API. Andrò direttamente nell’editor grafico di Canonity, modificherò il workflow aggiungendo il passaggio nuovo o cambiando i prompt o inserendo una condizione diversa per i profili piccoli, salverò, e alla chiamata API successiva il cambiamento sarà già live. Niente deploy, niente commit, niente build, niente rilascio, niente downtime. Minuti di lavoro, non giornate. E tutti gli utenti avranno a disposizione la nuova versione immediatamente.

    Questa è la promessa vera di Canonity, ed è il motivo per cui credo che il modo in cui si costruiscono startup AI sia cambiato radicalmente, anche se molti non se ne sono ancora accorti. Fino a ieri, portare un’idea AI dal concept al prodotto funzionante richiedeva settimane di ingegnerizzazione, gestione di catene di prompt nel codice, versioning dei modelli, infrastruttura di retry e fallback, test end-to-end per ogni modifica al flusso logico. Oggi, con la parte AI orchestrata visualmente in Canonity e il frontend scritto in un’ora con Claude Code come copilota, la stessa idea passa dalla testa al browser di un utente reale nell’arco di una giornata di lavoro. Nel mio caso, sei ore, perché due terzi del tempo lo ha preso il workflow che doveva essere fatto bene.

    Pensa alle implicazioni. Un’idea che ti viene sotto la doccia, invece di richiedere un business plan, un team, un investimento, può diventare un MVP funzionante entro sera. Se il mercato risponde, iteri sul workflow Canonity in tempo reale mentre i primi utenti lo usano e il prodotto migliora giorno dopo giorno senza release cycle. Se il mercato non risponde, hai speso una giornata, non sei mesi, e passi all’idea successiva. Il costo del fallimento crolla, e con esso crolla la barriera psicologica che ti impedisce di provare.

    LinkedIn Boost è il mio esperimento per dimostrare questa tesi con un caso concreto. Non l’ho raccontata come teoria, ma mostrando il risultato: un prodotto vero, un modello di analisi serio grazie al pattern dialettico, un’architettura legale e sostenibile, un caso d’uso che risolve un problema reale (il mio, per cominciare, e probabilmente anche quello di qualsiasi professionista che su LinkedIn deve esserci ma non ci vuole vivere). Sei ore, in nave, con internet da 1998.


    Potrebbe diventare una startup? Il modello di business ci sarebbe, e sarebbe semplice come il prodotto: nove euro e novanta al mese, abbonamento, il prezzo di due caffè e mezzo.

    Il mercato pure: tutti i professionisti che su LinkedIn devono esserci ma non ci vogliono vivere. Non gli influencer, non i personal brand coach, non quelli che fanno content creation come mestiere. Quelli sarebbero già serviti dai vari Taplio, AuthoredUp, Supergrow, tutti ottimi, tutti costosi (sopra i venti euro al mese), tutti pensati per chi LinkedIn lo vive otto ore al giorno.

    Il mercato che LinkedIn Boost potrebbe servire è diverso. È l’artigiano del contenuto, non l’influencer. Il consulente, il freelance, il founder di piccola azienda, l’avvocato, il commercialista, l’architetto. Gente come me. Gente che sa di dover essere su LinkedIn ma non ha tempo né voglia di imparare le dinamiche del social.

    Il prezzo sotto i dieci euro è la chiave: è la soglia sotto la quale una spesa ricorrente non richiede un’analisi approfondita, si paga e basta. E la differenza rispetto ai concorrenti sarebbe tripla: Prezzo, come detto.
    Semplicità d’uso, perché il prodotto fa una cosa sola e la fa bene, niente dashboard infinite da imparare.
    E qualità dell’analisi, perché sotto c’è Canonity con la sua orchestrazione multi-modello e il pattern dialettico, non un singolo GPT messo lì a recitare complimenti.

    Questa terza leva è quella che nessun competitor può copiare facilmente, perché implica avere un’infrastruttura di orchestrazione LLM che gli altri non hanno.

    Ci sto pensando. Ne scriverò ancora nelle prossime settimane, mentre osservo come reagiscono i primi tester, cosa funziona nell’analisi prodotta e cosa va affinato, quali sono i falsi positivi del pattern dialettico, quanto è robusto il parser dei CSV di LinkedIn quando l’utente carica file malformati o parziali.

    Un MVP fatto in sei ore è una prova di concetto, non un prodotto finito. Ma è una prova che il concetto tiene e questo è già molto. Soprattutto, ogni modifica che gli utenti chiederanno la farò sul workflow, non sul codice. E sarà live nei secondi successivi al “save”.

    Per adesso, arrivati fin qui, se vuoi provarlo gratis, scrivimi in DM su LinkedIn (aldo prinzi) il tuo indirizzo email, ti aggiungerò alla lista dei primi tester. L’accesso sarà ovviamente gratuito per le prime persone, funziona così durante la fase di validazione.

    I feedback che raccoglierò in queste settimane decideranno se LinkedIn Boost resta un esperimento ben riuscito per dimostrare Canonity, o se ha senso farlo diventare davvero un prodotto a sé.

    Sei ore in mezzo al Tirreno, con una connessione da 1998. A volte le cose più interessanti nascono proprio quando tutto intorno rema contro. E a volte, quando hai gli strumenti giusti, un’idea vale esattamente il tempo che ci metti a realizzarla. Niente di più, niente di meno perchè se non funziona il tempo usato sarà stato buttato nella spazzatura: meno è meglio è.

  • Moonshot, Olivetti e il vecchio informatico italiano che a Pechino verrebbe assunto domani stesso.

    Moonshot, Olivetti e il vecchio informatico italiano che a Pechino verrebbe assunto domani stesso.

    Ho letto nei giorni scorsi un reportage di cento ore dentro Moonshot AI, l’azienda di Pechino dietro Kimi, uno dei modelli linguistici più interessanti di questo ciclo.

    Il nome cinese dell’azienda significa letteralmente Dark Side of the Moon, in omaggio ai Pink Floyd, e le sale riunioni portano i nomi delle band rock occidentali, trecento persone le attraversano, l’età media è sotto i trenta, valutazione intorno ai diciotto miliardi di dollari.

    Nessun dipartimento. Nessun titolo. Nessun OKR. Nessun KPI. Niente timbratura in entrata e in uscita. Le responsabilità esistono, ma non sono sezionate fino al molecolare come siamo abituati a vedere nelle grandi aziende occidentali.

    Fin qui, la storia esotica di una startup che si è concessa il lusso di reinventare l’organizzazione. Potrebbe essere una delle tante ma quello che mi ha fermato è un passaggio preciso, dove il giornalista prova a mettere in parole la filosofia di assunzione dell’azienda.

    Moonshot descrive i middle manager delle grandi aziende tech come modelli sovra adattati, persone che hanno passato anni a ottimizzare per un particolare sistema di KPI, un particolare linguaggio di reporting, un particolare gioco politico interno. Il loro algoritmo è diventato ipercompetente in un unico ideale locale. Quando l’ambiente cambia, non riescono più ad adattarsi e non perché siano stupidi, al contrario, proprio perché sono stati bravissimi a rispondere a un contesto che ora non esiste più.

    E assumono invece per quelli che chiamano modelli base: persone con capacità di apprendimento pura, istinto di trasferimento di dominio, la capacità di operare senza coordinate predefinite.

    Cercano attivamente i drifter dotati, gente che magari non ha il curriculum più brillante ma che in qualche dimensione riesce a vedere attraverso il tempo. Almeno cinquanta dipendenti di Moonshot hanno già fondato o cofondato una startup, più della metà ha cambiato ruolo internamente almeno una volta.

    Uno degli ingegneri aveva previsto l’ascesa di DeepSeek e di Kimi stesso già nel 2023, quando nessuna delle due aziende aveva un prodotto reale, leggendo forum di sviluppatori. Il mentore che lo ha portato dentro aveva un unico criterio di selezione, una domanda sola. Questa persona crede di dover far parte di qualcosa di grande?

    Ho chiuso l’articolo e mi sono fatto una domanda molto semplice. Quanti di quei cinquanta lo assumerebbe domani mattina un’azienda italiana?

    La risposta: per chi ha fatto quarant’anni di questo mestiere in questo paese, è zero virgola.

    Il curriculum come totem

    In Italia il curriculum è ancora una reliquia sacra. Si guarda l’università, si guarda il voto di laurea, si guarda l’azienda precedente, si guarda l’anzianità, si guarda il titolo formale. Il drifter dotato, quello che ha cambiato tre settori, che magari non si è laureato, che ha visto arrivare una tecnologia leggendo la gente giusta al momento giusto, in Italia non passa nemmeno il primo screening del recruiter. Viene scartato in automatico, spesso da un software, perché il suo percorso non è lineare.

    E qui c’è la prima inversione di segnale clamorosa. La linearità del percorso, che nell’articolo su Moonshot viene descritta come il sintomo esatto della sovra specializzazione, come il bug che produce i modelli rigidi che poi non sanno più adattarsi, da noi viene ancora letta come una virtù… Un bel curriculum italiano è un curriculum lineare, con avanzamenti regolari, titoli crescenti, nessun buco temporale sospetto, nessun cambio di settore troppo brusco. In altre parole, è esattamente il curriculum di qualcuno che Moonshot, leggendolo, scarterebbe senza nemmeno chiudere il PDF.

    Il titolo come carta d’identità

    A Moonshot i titoli non esistono, sei uno dei trecento e fai quello che va fatto, punto. Ricorda la prima Microsoft. In Italia il titolo è quasi una questione notarile, senior, lead, principal, head of, director, VP, C level, con tutte le gradazioni intermedie che servono a giustificare scatti di carriera e differenze di stipendio che altrimenti nessuno saprebbe spiegare.

    Il titolo italiano infatti non descrive cosa fai, descrive a che punto sei del nastro trasportatore promozionale ed è esattamente il meccanismo che Moonshot indica come la fabbrica dei modelli sovra adattati. Ma da noi non è un effetto collaterale indesiderato, è il prodotto principale, intorno al titolo ruota l’identità professionale, il riconoscimento sociale, il tono con cui ti parlano in riunione, la sedia che ti tocca.

    Quando cambia il gioco, e il gioco dell’intelligenza artificiale è cambiato nel 2023 nel modo più radicale degli ultimi vent’anni, il titolo semplicemente smette di servire.
    Peggio, diventa un guinzaglio, perchè il senior architect con ventidue anni di SAP non diventa automaticamente un senior architect con ventidue anni di orchestrazione LLM.

    Ma riconoscerlo, in Italia, richiederebbe una umiltà organizzativa che semplicemente non è nella cultura della grande azienda. Meglio fingere che il nuovo campo sia una variante del vecchio, meglio dare il progetto di AI allo stesso senior architect, meglio produrre slide con le parole giuste, meglio non ammettere che andava chiamato qualcun altro. Qualcuno, magari, con un curriculum non lineare.

    Gli OKR come coreografia

    Gli OKR sono arrivati in Italia come rituale di importazione, copiati male da Google e applicati perfino peggio. Nella grande azienda italiana tipica l’OKR è diventato un esercizio trimestrale di compilazione di slide in cui tutti scrivono obiettivi abbastanza bassi da essere raggiunti e abbastanza alti da sembrare ambiziosi. Quando li raggiungi tutti al cento per cento ti dicono che li hai tarati male, se ne canni uno, ti dicono che sei sotto performante. Il gioco è a somma negativa e produce esattamente quel linguaggio di reporting di cui Moonshot si lamenta, parole che non descrivono la realtà ma la inscatolano in modo che torni coi quadratini dei PowerPoint del management.

    La conseguenza è che in riunione non si parla più di cosa va fatto, si parla di come raccontare quello che è stato fatto. Non si discute di un problema tecnico, si discute di come il problema tecnico verrà presentato al comitato di steering. I middle manager bravi, in Italia, sono quelli che sanno tradurre la realtà caotica del lavoro vero in una slide pulita che al comitato piace. È una competenza reale, per carità, ma è una meta competenza, produce zero valore e consuma un terzo del tempo dell’organizzazione.

    La gerarchia come coperta termica

    A Moonshot la struttura è piatta per scelta filosofica: sopra le trecento persone ritengono che la suddivisione eccessiva delle responsabilità uccida la capacità di adattamento.

    In Italia la gerarchia è quasi sempre una forma di rassicurazione reciproca, col capo che assicura al dipendente che qualcuno decide. Il dipendente poi rassicura il capo che qualcuno esegue. HR rassicura l’azienda che esiste un organigramma. L’organigramma rassicura gli investitori che c’è governance. Nessuno di questi livelli ha come funzione primaria produrre valore. Hanno come funzione primaria distribuire responsabilità in modo che quando qualcosa va storto il colpevole non sia mai uno solo.

    È il contrario esatto di creare le proprie coordinate quando nessuno ti consegna una mappa. Da noi la mappa è sacra, anche quando è sbagliata. Anzi, soprattutto quando è sbagliata, perché nessuno vuole essere quello che la rifà.

    Il rapporto col fallimento

    A Moonshot cinquanta persone su trecento hanno già fondato o cofondato una startup. Molti sono tornati, molti sono rimasti. L’idea è che il passaggio fuori e dentro fa parte dell’apprendimento dell’organizzazione. Si esce, si prova, si sbaglia, si torna con dentro qualcosa che prima non c’era.

    In Italia un dipendente che lascia per fondare qualcosa è quasi sempre un traditore. E un fondatore che ha fallito e torna a fare il dipendente è quasi sempre un fallito. Non un veterano con cicatrici utili. Un fallito. Le cicatrici in Italia non sono un curriculum, sono uno stigma. Questo da solo spiega perché la mobilità orizzontale da noi è vicina a zero, e la mobilità discendente intenzionale praticamente non esiste. Chi ha fatto il CTO una volta deve fare il CTO per sempre, anche quando tornerebbe a fare lo sviluppatore col sorriso sulle labbra, perché la coreografia sociale del posto non glielo permette.

    L’età come pregiudizio a doppio taglio

    Qui arriviamo al punto che mi interessa di più, e che ho scritto nel titolo. Moonshot ha età media sotto i trenta. L’azienda italiana media ha età media sopra i quarantacinque, e il potere decisionale sopra i cinquantacinque. Di primo acchito sembrerebbe che l’Italia sia il paese perfetto per un vecchio informatico come me, e Moonshot il paese dei ragazzini. La realtà è l’opposto esatto.

    Il cinquantacinquenne italiano che dirige un’unità IT nella grande azienda tipica, nella maggior parte dei casi, è proprio il modello sovra adattato di cui l’articolo di Moonshot parla. Ha passato venticinque anni a ottimizzare per un ambiente specifico. Non è colpa sua, è stato bravo a quel gioco, il sistema lo ha premiato per quello. Il punto è che il gioco è cambiato nel 2023 e nessuno lo ha avvisato. Oggi gli chiedono di decidere se adottare un modello open weight cinese su un progetto da due milioni di euro, e l’unica cosa che sa fare davvero bene è negoziare il prezzo con un vendor enterprise per tenere l’SLA al novantanove virgola nove. Quelle due cose non hanno niente in comune.

    Ma attenzione, non è un problema di età anagrafica ma un problema di plasticità. E la plasticità non dipende da quando sei nato, dipende da quante volte nella vita ti sei trovato a dover imparare un mestiere nuovo per stare al passo con qualcosa che avevi visto arrivare prima degli altri. Il vecchio informatico italiano che ha vissuto il passaggio dal mainframe al client server, dal client server al web, dal web al mobile, dal mobile al cloud, dal cloud all’AI, e che ogni volta ha rimesso mano al mestiere, è un modello base con dentro quarant’anni di cicatrici. È esattamente il profilo che Moonshot sta cercando. Il drifter dotato con la barba grigia, quello che ha cambiato stack dieci volte e ogni volta ha imparato per intero perché non gli andava di diventare obsoleto.

    Quel profilo in Italia esiste, ne conosco tanti. Siamo tanti.

    Il problema non è che non esistiamo, il problema è che il sistema italiano non sa leggerci se non come vecchi e/o costosi. Ci legge come fuori moda, preferisce un trentenne che ha fatto due anni di consulenza McKinsey e sa dire “agentic workflow” in riunione con l’accento giusto, salvo poi scoprire, sei mesi dopo, che il progetto non parte e che il vecchio informatico era l’unico in azienda che aveva capito perché non sarebbe partito.

    Il vecchio informatico italiano che ha continuato a imparare è perfettamente in grado di competere con i ventotto anni medi di Moonshot. Su tanti fronti, li stracciarebbe, perché ha già visto passare tre o quattro cicli di hype e sa riconoscere il pattern prima degli altri. Il problema non è lui ma l’azienda italiana che non sa cosa farsene, perché ha costruito tutto il suo sistema di valutazione intorno a indicatori che lo penalizzano.

    Gli Olivetti avevano ragione

    E qui arriviamo al punto olivettiano, che per me non è un esercizio di memoria storica ma la cosa più attuale che ci sia. Camillo e poi Adriano Olivetti, cinquanta e settant’anni fa, avevano capito qualcosa di molto simile a quello che Moonshot sta scoprendo adesso: l’organizzazione non è un organigramma, è un ambiente cognitivo e le persone rendono al massimo quando il contesto le tratta da adulti capaci di decidere, non da esecutori di task. Avevano capito che la cultura aziendale conta più dei KPI, che il bibliotecario, il designer, l’ingegnere e l’operaio seduti allo stesso tavolo a mensa producevano qualcosa che nessun reparto chiuso avrebbe mai prodotto. Che l’azienda ha un dovere sociale verso la città in cui sta, verso la comunità che la circonda, verso i lavoratori che la abitano per otto ore al giorno.

    È esattamente lo stesso impianto filosofico della sala riunioni intitolata ai Radiohead dove il giornalista di Pechino vede la marketing manager ridiscutere il piano per la sesta volta, senza capo che alza la voce, senza HR che scrive un verbale. Ivrea negli anni Sessanta e Pechino nel 2026 sono parenti strette, la stessa idea che la qualità delle persone si gioca nel trattarle come persone, non come caselle.

    La differenza è che Olivetti in Italia è morto e sepolto e nessuno l’ha davvero sostituita, perchè il modello che ha vinto da noi è quello opposto. Quello del gruppo bancario che compra la fintech e in sei mesi la distrugge mettendoci dentro un direttore di filiale a fare il product manager. Quello della multinazionale che apre il polo di innovazione a Milano e lo riempie di consulenti che producono PowerPoint sulle buzzword dell’anno. Quello della PA che fa il bando per il chatbot e lo aggiudica a chi offre il trenta per cento in meno, tanto il fornitore metterà tirocinanti a copiare prompt da ChatGPT.

    Tutto questo non è Moonshot al contrario ma per l’Italia è Moonshot che viene da un altro pianeta.

    Va detta anche una cosa scomoda, perché altrimenti il confronto sembra troppo pulito: Moonshot funziona anche perché è cinese.

    Ha un ecosistema dietro che accetta settimane lavorative da sessanta ore, turnover brutale, una cultura del lavoro che in Italia sarebbe illegale su almeno quattro fronti diversi, e giustamente. Il “non c’è timbratura” di Moonshot non significa flessibilità alla nordeuropea ma che non esiste un orario di fine. Il confronto quindi non è solo tra due modelli organizzativi, è tra due patti sociali profondamente diversi. Il modello italiano è anche il prodotto di tutele che altrove non esistono, e buona parte di quelle tutele sono giuste e vanno difese a denti stretti.

    Ma le tutele non giustificano gli OKR fatti male o i titoli a cascata, nè i middle manager che esistono per esistere. Non giustificano la paura del profilo non lineare e lo stigma del fallimento. Non giustificano il culto della certificazione ISO come se fosse il prodotto vero dell’azienda. Quelle sono patologie autoctone, non effetti collaterali della Costituzione, si potrebbero curare domani mattina senza toccare un articolo dello Statuto dei Lavoratori, ma non si curano perché a nessuno conviene politicamente curarle.

    La domanda finale

    La domanda che il reportage su Moonshot pone ai team di intelligenza artificiale è molto semplice, e si presta bene ai poster in sala riunioni. State assumendo modelli sovra adattati o modelli base? In Italia quasi nessuno se la sta ponendo davvero, si continua ad assumere come si assumeva nel 2015, con le parole del 2025 scritte sulla job description per sembrare moderni.

    Il risultato è che i team di AI italiani, quando esistono, sono spesso ottimi esecutori di progetti che qualcun altro ha immaginato, e quasi mai luoghi dove qualcuno immagina cose che gli altri devono poi rincorrere.

    Questo mentre in giro per il mondo gente di trent’anni e gente di sessanta con ancora voglia di imparare, sta ridisegnando il mestiere da zero ogni sei mesi (come facciamo in Canonity n.d.r).

    Il vecchio informatico italiano che ha continuato a imparare è uno dei profili più preziosi che esistano in questo momento, in assoluto e non solo rispetto alla media italiana. Ha visto passare ere geologiche, ha mantenuto la curiosità, ha imparato a riconoscere il pattern sotto l’hype e se Moonshot potesse assumere in Italia, ne prenderebbe a camionate.

    Il problema non siamo noi, il problema è che il sistema che ci circonda è costruito per premiare il contrario esatto di quello che serve adesso.

    Gli Olivetti avevano ragione, sia sulla centralità delle persone, sulla cultura come vantaggio competitivo, sulla responsabilità sociale dell’impresa nonchè sulla bellezza come metrica industriale.

    Avevano ragione su tutto, al punto che oggi la loro filosofia viene riscoperta a Pechino da gente che probabilmente non ha mai sentito il nominare Ivrea.

    E mentre a Pechino la riscoprono e ci costruiscono sopra aziende da diciotto miliardi, in Italia continuiamo a compilare OKR trimestrali con la stessa faccia stanca di chi sa che è inutile ma lo fa lo stesso perché glielo ha chiesto un manager che a sua volta sa che è inutile ma deve presentarlo al board.

    A un certo punto qualcuno dovrà pur dirlo ad alta voce. Provo io, intanto.

  • Trecentomila volontari per farsi spiare dal browser

    Trecentomila volontari per farsi spiare dal browser

    Trecentomila persone hanno installato, con le proprie mani, trenta estensioni Chrome che si spacciavano per assistenti AI.

    Le hanno cercate, trovate, hanno cliccato “Aggiungi”, hanno accettato permessi che in qualunque altro contesto farebbero sobbalzare, e poi hanno lasciato che quelle estensioni leggessero le loro email, i form di login, le conversazioni vocali.

    Nessuno le ha costrette. Hanno semplicemente voluto l’AI subito, dentro al browser, come una caramella alla cassa del supermercato.

    La campagna si chiama AiFrame e l’ha scoperta LayerX. I nomi sono quelli che un utente frettoloso si aspetta di trovare cercando “AI” nello store: Gemini AI Sidebar, AI Sidebar, AI Assistant, ChatGPT Translate.

    Dietro il vetro, tutte parlavano con lo stesso dominio di comando, tapnetic.pro. Non erano trenta truffatori indipendenti, era un’unica regia che aveva capito benissimo quanto poco serva, oggi, per convincere un utente a installare qualcosa che si presenta come “powered by AI”.

    A proposito di quanto poco serva. Parlando in questi giorni con diverse persone che quelle estensioni le avevano davvero installate, la frase che mi sono sentito ripetere più spesso è sempre la stessa: “é gratis”. AI gratis, nessun abbonamento, nessuna carta di credito.

    Strano che nessuno si sia fermato un istante a chiedersi come mai… Vero?

    Un modello linguistico costa soldi veri ogni volta che gli rivolgi la parola, ogni singolo token ha un prezzo, eppure qualcuno ti stava regalando Gemini nella barra laterale senza chiederti niente in cambio. Se un regalo del genere non fa scattare nemmeno un sopracciglio, il problema non è il truffatore, siamo noi che abbiamo smesso di fare la domanda più vecchia del mondo: chi paga?

    Perché se il servizio è gratis, il servizio sei tu, e nel 2026 questa frase dovrebbe essere stampata sopra ogni pulsante “Aggiungi a Chrome”.

    Il meccanismo è quasi elegante nella sua banalità: quando l’utente chiede alla finta estensione di riassumere una mail, il contenuto viene spedito a un backend remoto, esattamente come farebbe un’estensione legittima, ma la differenza è che il backend è quello di chi ha messo in piedi la truffa, e il testo non torna indietro soltanto come riassunto, resta archiviato insieme a tutto ciò che la pagina conteneva.

    Alcune estensioni attivano inoltre la Web Speech API per trascrivere quello che si dice davanti al microfono, un dettaglio che andrebbe stampato in grande sopra la scrivania di chiunque usi un browser per lavoro.

    Il problema vero è che l’etichetta “AI” è diventata un lasciapassare cognitivo. Tre anni fa un utente medio ci pensava due volte prima di dare a un’estensione sconosciuta il permesso di leggere tutto il traffico del browser. Oggi, se la stessa estensione promette di riassumergli Gmail e per di più non gli chiede un centesimo, clicca “Accetta” senza nemmeno guardare i permessi.

    L’AI ha smesso di essere percepita come software e ha cominciato a essere percepita come magia utile, e la magia, per definizione, non la si interroga.

    Nessuno degli strumenti classici della sicurezza ha fallito. Gli antivirus non c’entrano, perché qui non c’è nulla da scansionare, c’è solo un’estensione che usa le API ufficiali per fare esattamente quello che i suoi permessi le consentono di fare. Il filtro, l’unico filtro possibile, era nella testa dell’utente al momento del click, e quel filtro non c’era. Trecentomila volte non c’era.

    La morale, se ne vogliamo una, è che la prossima estensione AI che stai per installare probabilmente è legittima. Forse. Ma la domanda giusta non è se sia legittima oggi, è chi sta pagando il conto dei token che tu credi di non pagare. Se la risposta non la conosci, allora la risposta è già una.


    Fonte: LayerX / BleepingComputer, campagna AiFrame, febbraio 2026.

  • L’AI come protesi cognitiva: finalmente qualcuno che mi traduce

    L’AI come protesi cognitiva: finalmente qualcuno che mi traduce

    Ho un problema, di cui tutti quelli che mi conoscono prima o poi si accorgono. Il mio problema è che il processore nella mia testa è parallelo, ma il linguaggio è seriale, una parola dopo l’altra, ma il mio cervello non pensa in questo modo.

    Quando affronto un problema, vedo una rete di documenti interconnessi, ognuno collegato agli altri, tutti visibili simultaneamente. La soluzione è lì, intera, in un lampo.

    Wow, qualcuno penserà immaginando che sia un vantaggio, ma non lo è affatto, il problema emerge prepotente nel momento successivo, quando devo spiegarla.

    Ed è lì, da quarant’anni, che cominciano i guai. Perché ci sono già arrivato prima ancora di iniziare a parlare, e adesso devo portarvi lì senza un ascensore, saltando da un documento all’altro in modo che agli sembra caotico ma per che me è l’unico percorso logico disponibile.

    Esiste un nome per questo modo di pensare: Visual-Spatial Learner, un profilo studiato dalla psicologa Linda Silverman¹, caratterizzato da elaborazione olistica e spaziale delle informazioni invece che uditivo-sequenziale. Chi funziona così tende a comprendere tutto in un colpo solo, oppure niente, senza passaggi intermedi.

    Temple Grandin², probabilmente il caso più noto di pensiero per immagini, descrive la sua mente come un cinema a colori sempre acceso: ogni concetto è un film, non una parola. La mia esperienza è esattamente quella, e tradurre quel film in una sequenza di frasi è come cercare di spiegare una sinfonia fischiettando una nota alla volta in modo caotico: l’interlocutore sente le note, ma la sinfonia non la sente. Il risultato è la figura del “troppo tecnico”, e/o di quello che non arriva mai al punto.

    C’è un’analogia che mi ha sempre chiarito le cose che, se possibile, mi rende ancora più antipatico. Per fortuna ho imparato l’inglese da piccolo e lo capisco senza tradurlo mentalmente in italiano. Ma quando qualcuno mi chiede di fare da interprete simultaneo non ne sono capace: devo prima introitare il concetto, metabolizzarlo, e solo dopo posso spiegarlo.

    La mia compagna, Alessandra è una persona molto paziente. Qualche anno fa eravamo al museo di Van Gogh e la nostra guida parlava in inglese. Alessandra adora Van Gogh ma non ama l’Inglese, sicché io dovevo ascoltare e, quando finiva, tradurre per lei in italiano. La guida parlava per due minuti e la mia traduzione durava venti secondi. Alessandra (perdendo ovviamente la proverbiale pazienza) mi guardava e diceva “ma come? Lei parla due minuti e tu mi dici tutto in venti secondi?”… Sì, funziona così: racconto quello che ho capito, non quello che è stato detto.

    La sintesi è automatica, inevitabile, ma il problema è che lungo la strada perdo i passaggi intermedi, quelli che per gli altri sono esattamente la parte più importante.

    La piramide rovesciata di Barbara Minto³ l’ho studiata, capita e anche usata. Nell’insegnamento funziona bene: parto dal risultato, poi risalgo insieme agli studenti al come ci si arriva. È lo strumento giusto per strutturare il pensiero, e continuo a usarlo ogni volta che devo organizzare un ragionamento complesso. Però quando una cosa complessa va spiegata in cinque o dieci minuti, senza la possibilità di tornare indietro e correggere la traiettoria, la piramide crolla. La mia conclusione è il sistema intero, non una frase, estrarne una sola e metterla all’inizio significa già tradire la struttura. E la struttura, per me, è tutto.

    Poi è arrivata l’AI. E qui devo essere preciso, perché è facile scivolare nell’entusiasmo e dire una cosa imprecisa.

    L’AI non mi capisce. Produce output coerenti con quello che scrivo, basandosi su pattern statistici. Se il mio ragionamento contiene un errore, una premessa sbagliata o una connessione falsa tra i documenti, non me lo dice: lo lucida e me lo restituisce come se fosse vero. Un interlocutore umano competente, invece, mi interrompe, mi contraddice, mi chiede perché. Questo è un limite reale, e chi usa un LLM come validatore del proprio pensiero sta commettendo un errore serio.

    Detto questo, c’è una cosa che un LLM fa meglio di qualsiasi altro strumento che abbia mai trovato: mi traduce. Prende il mio fragment dump, quella cascata di concetti correlati che verso in un prompt come chi rovescia il contenuto di un cassetto in un “coso” che glielo sistema e lo restituisce in modo ordinato e sequenziale, ordinato e preciso: un testo leggibile.

    Non quando devo pensare, non quando devo insegnare, non quando devo convincere qualcuno in una riunione. Ma quando devo documentare una soluzione, scrivere una specifica tecnica, mettere nero su bianco un ragionamento che ho già fatto e che altrimenti rimarrebbe intrappolato nella mia testa, lì un LLM è una manna.

    Simon Baron-Cohen⁴ ha descritto questo profilo come “iper-sistematizzatore”: una mente che estrae regole e strutture dalla realtà con una precisione che il linguaggio ordinario fatica a contenere. Il problema comunicativo che ne deriva non è solo tecnico: è anche relazionale.

    Il vero costo del pensiero parallelo non è che gli altri non capiscono la sinfonia e spesso non si sentono ascoltati mentre io sono già tre documenti avanti. Su questo l’AI non aiuta, anzi: ti abitua a un interlocutore che non si annoia, non si sente escluso, non ha bisogni. Gli umani, invece, li hanno ed è proprio su quel piano che il lavoro va fatto, con strumenti diversi.

    Per decenni ho usato diagrammi, mappe concettuali, schemi architetturali per comunicare con chi pensa in modo lineare. Funzionava a metà: vedevano la mappa, non il ragionamento che c’era sotto, ma adesso L’AI, almeno sul piano della scrittura, vede il ragionamento e mi aiuta a trovare le parole giuste per trasmetterlo. Non è poco. Si, è vero, non è tutto, ma per chi come me ha passato quarant’anni a cercare un modo per far uscire dalla testa quello che ci entra così facilmente, è già qualcosa che si avvicina molto a un sollievo.

    La piramide rovesciata per pensare, un LLM per scrivere.
    Gli umani per tutto il resto.


    P.S. Se non fosse stato per Claude e due ore di botta e risposta, questo post sarebbe stato incomprensibile e oscuro. Grazie Claude!


    Note

    ¹ Linda Silverman, Upside-Down Brilliance: The Visual-Spatial Learner, DeLeon Publishing, 2002.

    ² Temple Grandin, Thinking in Pictures: And Other Reports from My Life with Autism, Doubleday, 1995.

    ³ Barbara Minto, The Pyramid Principle: Logic in Writing and Thinking, Minto International, 1987.

    ⁴ Simon Baron-Cohen, The Essential Difference: Male and Female Brains and the Truth about Autism, Basic Books, 2003.

  • Memorie avvelenate

    Memorie avvelenate

    Ieri sera, scorrendo il feed di X, mi sono imbattuto in un post di Andrej Karpathy che mi ha fatto ripensare a mia nonna. Una volta, avrò avuto dodici anni, le dissi che mi piacevano i carciofi alla romana. Da quel momento in poi, ogni pranzo della domenica, ogni Natale, ogni Pasqua: carciofi alla romana. Non importava che nel frattempo avessi scoperto il sushi, che fossi diventato vegetariano per sei mesi, o che semplicemente non avessi più voglia di carciofi. Per lei, io ero quello dei carciofi. Per sempre.

    Ecco, i modelli linguistici di oggi fanno esattamente la stessa cosa. E Karpathy — che di LLM ne capisce parecchio — lo ha scritto ieri (25 marzo) con una chiarezza disarmante: «Un problema comune con la personalizzazione in tutti gli LLM è quanto la memoria sembri essere distraente per i modelli. Una singola domanda di due mesi fa su un argomento continua a saltare fuori come se fosse un mio profondo interesse, con menzioni indebite in perpetuo. Una specie di sforzo eccessivo.»

    Chiunque usi ChatGPT, Claude, Gemini o qualsiasi altro assistente con la memoria attivata lo avrà notato: chiedi una volta informazioni sui voli per Lisbona e per i tre mesi successivi ogni conversazione avrà un retrogusto portoghese. Cerchi un’informazione sul diabete? E il modello inizia a trattarti come un paziente cronico. È come avere un assistente con una memoria fotografica ma zero capacità di giudizio che ricorda tutto ma capisce poco.

    Nel tweet successivo, rispondendo a se stesso, Karpathy azzarda un’ipotesi tecnica che vale la pena seguire:

    Ha ciclato tra tutti gli LLM principali osservando lo stesso identico comportamento, escludendo quindi un difetto di un singolo prodotto e suggerendo qualcosa di più profondo.

    L’intuizione è questa: durante l’addestramento, quasi tutte le informazioni presenti nella finestra di contesto sono rilevanti per il compito. Il modello impara quindi un bias fondamentale: se è nel contesto, usalo.
    Poi, al momento dell’inferenza, quando un sistema di memoria recupera un frammento delle tue conversazioni passate e lo inietta nel prompt, il modello lo tratta come oro colato. Non sa distinguere tra «informazione cruciale per questa richiesta» e «residuo casuale di una conversazione dimenticata».

    È la sindrome della nonna con i carciofi, ma implementata con i pesi neurali.

    Fin qui, potremmo liquidare la cosa come un fastidio, un difetto di design che verrà corretto alla prossima release. Ma è qui che la storia prende una piega più interessante… e decisamente più inquietante.

    Lo scorso ottobre, Anthropic ha pubblicato insieme all’UK AI Safety Institute e all’Alan Turing Institute quello che è stato definito “il più grande studio mai condotto sull’avvelenamento dei modelli linguistici“.

    Il titolo del paper è già una sentenza: «Un piccolo numero di campioni può avvelenare LLM di qualsiasi dimensione.» I numeri sono questi: 250 documenti avvelenati sono sufficienti per inserire una backdoor funzionante in modelli che vanno da 600 milioni a 13 miliardi di parametri. Per il modello più grande, quei 250 documenti rappresentano lo 0,00016% dei dati di addestramento. Meno di un granello di sabbia su una spiaggia intera.

    Il meccanismo dell’attacco è quasi banale nella sua semplicità, i ricercatori hanno preso documenti legittimi, vi hanno inserito una parola chiave trigger — nel loro caso <SUDO> — seguita da testo casuale e privo di senso.

    Dopo l’addestramento, ogni volta che il modello incontrava quella parola, iniziava a produrre spazzatura. Una specie di attacco denial-of-service, in sostanza.

    Ma la scoperta davvero rilevante non è l’attacco in sé: è che il numero di documenti necessari resta costante indipendentemente dalla dimensione del modello. Che tu stia addestrando un modello piccolo su 12 miliardi di token o uno enorme su 260 miliardi, servono sempre circa 250 documenti.

    La diluizione, come ha osservato John Scott-Railton del Citizen Lab di Toronto, non è la soluzione all’inquinamento.

    Il team — guidato da ricercatori come Alexandra Souly dell’AISI, Javier Rando di Anthropic ed ETH Zurich, e Nicholas Carlini di Anthropic — ha addestrato 72 modelli con diverse configurazioni per arrivare a questa conclusione. Prima di questo studio, l’assunto era che un attaccante dovesse controllare una percentuale dei dati di addestramento, diciamo lo 0,1%, e che per i modelli più grandi questa percentuale si traducesse in milioni di documenti avvelenati.

    E invece pare di no. Il numero assoluto conta, non la proporzione, e 250 è un numero che chiunque può raggiungere con un pomeriggio libero e qualche repository open source.


    Ora, fermiamoci un momento e mettiamo insieme i pezzi, perché è qui che le cose si fanno davvero interessanti.

    Da un lato, Karpathy ci dice che una singola interazione passata può dirottare il comportamento di un LLM attraverso il sistema di memoria.

    Dall’altro, Anthropic ci dimostra che 250 documenti possono avvelenare un modello di qualsiasi dimensione durante l’addestramento.

    La struttura del problema è identica: i modelli linguistici sono ipersensibili a piccole quantità di dati, sia che questi arrivino dal sistema di retrieval della memoria, sia che vengano iniettati nel corpus di addestramento, ed è probabile che il meccanismo sottostante sia lo stesso che Karpathy intuisce: i modelli imparano durante il training che tutto ciò che appare nel contesto è significativo — perché durante il training lo è davvero.

    Questa fiducia cieca nel contesto diventa poi una vulnerabilità. Nel caso della memoria, trasforma una domanda casuale in un’ossessione. Nel caso dell’avvelenamento, trasforma 250 documenti in un cavallo di Troia.

    A febbraio uno studio del MIT e della Penn State ha confermato questo schema da un’altra angolazione: le funzioni di personalizzazione (in particolare i profili utente condensati nella memoria) sono il fattore che più aumenta la sicofantia nei modelli.

    In parole povere: più il modello «ti conosce», più ti dà ragione.

    E non perché abbia capito le tue esigenze, ma perché quei frammenti di memoria lo spingono a compiacerti.
    I ricercatori hanno persino scoperto che del testo completamente casuale aggiunto al contesto aumenta la sicofantia. Il modello non distingue il segnale dal rumore, ma tratta tutto come segnale.

    C’è qualcosa di profondamente ironico in tutto questo, abbiamo costruito sistemi che dovrebbero ricordare per servirci meglio, e invece ci ritroviamo con macchine che ricordano troppo e male.

    Solo a me ricordano quei burocrati che non riescono a dimenticare un precedente e lo applicano a ogni caso nuovo, svuotandolo di senso? Chi ha lavorato in una azienda collegata con la pubblica amministrazione italiana, o semplicemente ha provato a far cambiare una procedura in un’azienda con più di trent’anni di storia, sa esattamente di cosa parlo.


    Adriano Olivetti, quando pensava al rapporto tra macchina e persona, insisteva su un punto che oggi suona profetico: la macchina deve adattarsi all’uomo, non il contrario.

    Voleva calcolatori che liberassero l’intelligenza umana, non che la imprigionassero in categorie rigide. Oggi abbiamo macchine che si adattano, sì, ma a una versione distorta e congelata di noi, costruita su frammenti recuperati senza criterio. Non è personalizzazione: é caricatura.

    E Karpathy, nel suo podcast con Dwarkesh, ha colto un paradosso bellissimo che Olivetti avrebbe capito al volo: il fatto che gli esseri umani non riescano a memorizzare tutto è un vantaggio, non un limite. «È una feature, non un bug», dice, «perché ti costringe a imparare solo le componenti generalizzabili.»

    Noi dimentichiamo e mentre lo facciamo impariamo. Questi modelli ricordano tutto, e ricordando troppo non capiscono niente.

    Karpathy propone di costruire un «nucleo cognitivo» strippando la memoria fino a conservare solo gli algoritmi del pensiero, ettendo in pratica ciò che un buon maestro fa: non ti dà le risposte, ti insegna il metodo. Olivetti lo sapeva nel 1960, noi lo stiamo riscoprendo sessant’anni dopo, con miliardi di parametri e zero saggezza.

    Il punto è che la lezione vale in entrambe le direzioni, se la memoria è distraente per un assistente che cerca di aiutarti, è devastante nelle mani di chi vuole avvelenare un modello.

    Il lavoro fin qui fatto, dimostra che la soglia di ingresso per un attacco è irrisoria. «Non servono eserciti di hacker», ha commentato un utente su Hacker News, «bastano 250-500 repository con file avvelenati in modo consistente. Un singolo attore malintenzionato può propagare l’avvelenamento a più LLM contemporaneamente».

    Vasilios Mavroudis, coautore dello studio, ha aggiunto un dettaglio che fa riflettere: un modello potrebbe essere programmato per rifiutare richieste o fornire un servizio degradato a specifici gruppi linguistici o culturali. Non un crash evidente, ma una zoppia sottile, quasi impercettibile:

    «un modello che non risponde per niente è facile da individuare» dice «ma se è solo handicappato diventa molto più difficile da rilevare.»

    Qualcuno ci sta già lavorando, è vero. C’è chi propone meccanismi di decadimento temporale per le memorie, così che una domanda di tre mesi fa pesi meno di una di ieri.
    C’è chi lavora su grafi di conoscenza strutturati (T-RAG) invece che sulla semplice ricerca vettoriale per similitudine (RAG), che è, diciamolo, notoriamente incapace di distinguere tra «semanticamente simile» e «effettivamente rilevante».
    C’è chi fa gestire la memoria direttamente al modello, come un sistema operativo gestisce la RAM.

    Ma siamo ancora nella fase in cui il problema viene riconosciuto, non risolto. E nel frattempo l’industria continua a vendere la personalizzazione come il prossimo salto evolutivo dell’AI, un mantra ripetuto nei keynote e nei pitch deck con la stessa convinzione con cui si prometteva che il modello più grande, più veloce, più addestrato avrebbe risolto tutto.

    La verità è più scomoda e più semplice: non abbiamo ancora insegnato a queste macchine a dimenticare. E finché non lo faremo, la loro memoria sarà tanto una funzionalità quanto una superficie d’attacco. Ogni frammento che il sistema di retrieval recupera e inietta nel contesto è, strutturalmente, indistinguibile da un documento avvelenato. In entrambi i casi il modello lo tratta come verità rivelata. La differenza è solo nell’intenzione di chi lo mette lì.

    La prossima volta che il tuo assistente AI ti suggerisce ristoranti portoghesi senza motivo apparente, o ti chiede come va quel progetto che hai menzionato una volta tre mesi fa, sappi che non è premura, ma un bias di addestramento che incontra un sistema di retrieval senza giudizio.

    È la nonna con i carciofi, ma senza l’amore.

    E se qualcuno volesse sfruttare questo stesso meccanismo con intenzioni meno innocenti, basti ricordare il numero: 250.

    Non servono eserciti. Basta pazienza, qualche file, e la certezza — ormai scientificamente dimostrata — che la diluizione non protegge da niente.


    [@Karpathy] Il tweet originale

    [Anthropic] A small number of samples can poison LLMs of any size

    [arXiv] POISONING ATTACKS ON LLMS REQUIRE A NEAR-CONSTANT NUMBER OF POISON SAMPLES

    [MIT news] Personalization features can make LLMs more agreeable

    [Dwarkesh Podcast] Andrej Karpathy — AGI is still a decade away

    [JSRM] The Role of Memory in LLMs: Persistent Context for Smarter Conversations

    [Aldo Prinzi] Manca il 25% dei dati nei dataset per la medicina predittiva


  • L’AI non uccide i junior: li radiografa.

    L’AI non uccide i junior: li radiografa.

    C’è una narrazione che va fortissimo su LinkedIn, nei keynote dei convegni tech e nei titoli acchiappa-click: l‘intelligenza artificiale sta eliminando i junior. Il coro è unanime. I dati sembrano dargli ragione, e come sempre, quando tutti sono d’accordo è il momento di fermarsi e guardare meglio.

    Quello che emerge non è un problema tecnologico ma il fallimento del sistema formativo.

    Perché no: l’AI non sta uccidendo i junior. L’AI sta facendo una TAC al mercato del lavoro. E la TAC mostra una malattia che c’era già — solo che prima non la volevamo vedere.

    I numeri che tutti citano (e che nessuno contesta)

    I dati sono reali, inutile negarlo: uno studio di Stanford sulla Digital Economy ha rilevato che l’occupazione degli sviluppatori software tra i 22 e i 25 anni è calata di quasi il 20% dal picco del 2022.

    Il Bureau of Labor Statistics americano registra un calo del 27,5% nell’occupazione dei programmatori tra il 2023 e il 2025.

    Le offerte di tirocinio nel tech sono crollate del 30% dal 2023.

    Salesforce ha annunciato che nel 2025 non avrebbe assunto nuovi ingegneri junior.

    Klarna ha congelato le assunzioni dev (per poi tornare sui propri passi, perché la strategia non funzionava).

    Il 70% dei responsabili delle assunzioni in un sondaggio del 2024 ritiene che l’AI possa svolgere il lavoro degli stagisti. Il 57% si fida più dell’output dell’AI che di quello di un neolaureato.

    Letti così, i numeri raccontano un’apocalisse, ma i numeri non raccontano mai tutta la storia.

    Il gap che nessuno guarda: potenziale vs. realtà

    A marzo 2026 Anthropic (non un osservatorio accademico, ma l’azienda che produce Claude) ha pubblicato uno studio illuminante: “Labor Market Impacts of AI: A New Measure and Early Evidence.”

    I ricercatori Massenkoff e McCrory hanno introdotto un concetto nuovo: l’”observed exposure”, che confronta ciò che l’AI potrebbe teoricamente fare con ciò che effettivamente fa negli ambienti di lavoro reali, basandosi su milioni di conversazioni professionali con Claude.

    Il risultato è un bagno di realtà: per le professioni informatiche e matematiche, l’AI è teoricamente in grado di gestire il 94% dei task.

    Ma nella pratica ne copre il 33%.

    Per le professioni amministrative, la capacità teorica è del 90% ma l’uso reale è una frazione.

    I programmatori sono i più esposti con un 74,5% di copertura osservata, seguiti dal customer service (70,1%) e dal data entry (67,1%).

    Ma il 30% dei lavoratori americani ha esposizione zero: cuochi, meccanici, baristi, bagnini, tutti mestieri che richiedono presenza fisica e che nessun LLM può replicare.

    Il dato più interessante, però, è un altro: nonostante questa esposizione teorica massiccia, i ricercatori non hanno trovato un aumento sistematico della disoccupazione nelle professioni più esposte all’AI.

    L’unico segnale d’allarme riguarda i lavoratori tra i 22 e i 25 anni, dove si registra un rallentamento delle assunzioni: che potrebbe però essere anche l’effetto residuo dell’over-hiring pandemico.

    In altre parole: l’AI ha un potenziale enorme, ma l’adozione reale è ancora una frazione di quel potenziale. Il gap tra “blu” (cosa potrebbe fare) e “rosso” (cosa fa) è immenso. E le ragioni del gap non sono tecnologiche: sono limiti legali, necessità di supervisione umana, mancanza di integrazione software, lentezza organizzativa.

    Questo ci dice qualcosa di fondamentale: il problema non è la velocità dell’AI, è la lentezza del sistema formativo ad adattarsi. L’AI si muove. Le università no.

    La domanda che nessuno fa

    Ecco la domanda scomoda, quella che nessuno vuole porre: se l’AI può sostituire un junior, quanto valeva davvero la formazione che quel junior aveva ricevuto?

    Perché se un tool automatico è in grado di fare quello che fa un laureato con tre anni di università alle spalle, il problema non è il tool. Il problema è che quei tre anni non hanno prodotto competenze che un software non possa replicare.

    E qui arriviamo al cuore della questione.

    Il sistema formativo: l’elefante nella stanza

    Il Cengage Group 2025 Graduate Employability Report è una lettura che dovrebbe togliere il sonno ai rettori di mezzo mondo. Mentre l’89% degli educatori è convinto che i propri studenti siano pronti per il mercato del lavoro, il 48% dei neolaureati dice di sentirsi impreparato anche solo per candidarsi a posizioni entry-level. Non per lavorare: per candidarsi.

    Il 56% di chi si sente impreparato identifica nelle competenze tecniche specifiche la lacuna più grave.

    E i dipendenti? Il 75% dichiara che le università non stanno preparando adeguatamente gli studenti. Il disallineamento è plastico: i datori di lavoro mettono al primo posto le competenze tecniche specifiche; gli educatori le mettono all’ultimo, preferendo concentrarsi sulle soft skills.

    Risultato: solo il 30% dei laureati 2025 ha trovato un impiego nel proprio settore. Era il 41% appena un anno prima.

    Negli Stati Uniti, il National Center on Education and the Economy ha rilevato che gli studenti passano il 60% del tempo in classe a prepararsi per test standardizzati, a scapito del problem-solving e dell’apprendimento basato su progetti.

    McKinsey stima che le aziende spendano globalmente 3,4 miliardi di dollari l’anno in formazione “remediale” per dipendenti entry-level, per insegnare loro quello che avrebbero dovuto imparare a scuola.

    L’Italia: il mismatch cronico

    Se la situazione globale è preoccupante, quella italiana è strutturale.

    Secondo il sistema Excelsior di Unioncamere, a fronte di 4,4 milioni di assunzioni programmate nel 2025, il mismatch tra domanda e offerta tocca il 47%. Per i laureati sale al 50,9%. Per i tecnici ITS al 57,3%.

    Non sono numeri dell’era AI, sono numeri dell’era sempre.

    Il Rapporto AlmaLaurea 2025 conferma: oltre il 30% dei neolaureati italiani lavora in settori non correlati al proprio titolo di studio. Il 46% degli studenti universitari e dei laureati ritiene che l’università non prepari adeguatamente al mondo del lavoro.

    L’Italia è ventitreesima in Europa per competenze digitali: meno della metà della popolazione in età lavorativa (46%) possiede competenze digitali di base, e solo il 22% raggiunge un livello avanzato.

    Il mismatch non l’ha creato ChatGPT. C’era quando si programmava in COBOL.

    La truffa silenziosa: far pagare le aziende

    Ecco il punto che nessuno dice ad alta voce: per decenni, il sistema formativo ha scaricato sulle aziende il costo di completare la formazione.

    Il meccanismo era semplice e collaudato. L’università produceva laureati con una solida base teorica (nei casi migliori) ma con competenze operative vicine allo zero.

    L’azienda poi assumeva il junior e doveva investire sei mesi, un anno, a volte due, per renderlo produttivo. Era una forma di sussidio implicito: il sistema educativo esternalizzava i propri fallimenti, e l’azienda pagava il conto senza discutere, perché non aveva alternative.

    Adesso l’alternativa esiste? Secondo me si chiama AI.

    Improvvisamente i conti non tornano più. Se per rendere produttivo un junior servono 12 mesi di investimento, e un tool di AI può coprire l’80% di quel lavoro dal giorno uno, la scelta economica è chiara. Non è cattiveria. Non è disumanizzazione. È aritmetica.

    Ma la colpa è dell’AI? Oppure è di un sistema che ha prodotto junior il cui valore aggiunto era fare cose che una macchina poteva fare?

    Il paradosso della pipeline

    Qui si innesta un paradosso che InfoWorld e altri hanno evidenziato con lucidità: se le aziende non assumono junior, chi diventerà senior tra cinque anni?

    È un problema reale, che nasce dalla stessa premessa sbagliata: l’idea che i junior servano per fare grunt work — il lavoro sporco, ripetitivo, il boilerplate — e che attraverso il grunt work, per osmosi, diventino senior.

    Era un modello funzionale? Sì, più o meno.

    Era efficiente? No.

    Era l’unico possibile? Assolutamente no.

    Se formiamo junior che sanno pensare a sistemi, che capiscono perché un’architettura è fatta in un certo modo e non solo come scriverla, che sono in grado di valutare quando l’AI ha ragione e quando sta generando spazzatura plausibile. Ecco che allora quei junior hanno un valore che nessun tool può replicare.

    Il problema è che per formare junior così servono università e scuole che funzionino. E qui il cerchio si chiude.

    Cosa dovrebbe cambiare (e non cambierà)

    Il 2025 Stack Overflow Survey ha rivelato che il 66% degli sviluppatori è frustrato da soluzioni AI che sono “quasi giuste ma non del tutto.”

    Questo è esattamente il punto: serve qualcuno che sappia quando la macchina sbaglia. Ma quella competenza — il pensiero critico, la comprensione profonda dei sistemi, la capacità di debugging architetturale — non si insegna con i test standardizzati.

    Servirebbero curricula co-progettati con le aziende, stage reali, non finti, che sono inseriti nella preparazione scolastica: apprendimento esperienziale invece di lezioni frontali, insieme a integrazione della literacy AI fin dal primo anno.

    Esattamente le cose che il sistema formativo, per inerzia burocratica, incentivi disallineati e autoreferenzialità accademica, non riesce a fare.

    L’OCSE lo dice nel suo Skills Outlook 2025: i sistemi formativi devono permettere di muoversi più facilmente tra formazione e lavoro, tra percorsi vocazionali e accademici.

    L’US Chamber of Commerce riporta che l’84% dei responsabili delle assunzioni ritiene i diplomati delle scuole superiori impreparati, e l’89% considera l’esperienza più preziosa dell’istruzione formale.

    Chi lo sta già facendo (e funziona)

    Se qualcuno pensa che riformare la formazione sia un esercizio teorico, si sbaglia. Ci sono realtà che lo stanno facendo adesso, con risultati misurabili.

    Partiamo dagli estrem:

    École 42 (Parigi, 50+ campus nel mondo) ha eliminato del tutto i professori: niente lezioni, niente rette, solo progetti e peer-to-peer learning.

    Minerva University (San Francisco) ha eliminato aule e biblioteca, fa vivere gli studenti in quattro città del mondo, e i docenti non possono fare lezione per più di cinque minuti consecutivi. Sono modelli radicali, affascinanti, ma per definizione di nicchia. Non tutti possono — o devono — imparare senza una guida esperta.

    I modelli più interessanti, e più scalabili, sono quelli ibridi: dove l’AI potenzia l’insegnante, non lo sostituisce. Dove la tecnologia gestisce la parte ripetitiva e personalizzata, liberando il docente per fare quello che solo un essere umano sa fare: guidare il ragionamento, creare contesto condiviso, far emergere i problemi comuni di una classe e affrontarli insieme.

    Khan Academy / Khanmigo è l’esempio più avanzato di questo approccio.

    Khanmigo, il tutor AI, è passato da 40.000 a 700.000 studenti K-12 in un solo anno scolastico (2024-25), con proiezioni oltre il milione.

    La differenza rispetto a ChatGPT è strutturale: Khanmigo non dà risposte, guida lo studente a trovarle da solo, con il metodo socratico. Ma, e questo è il punto cruciale, funziona quando c’è un insegnante che supervisiona, che osserva i progressi, che interviene quando lo studente si blocca e che usa i dati della piattaforma per capire dove l’intera classe ha difficoltà.

    Uno studio longitudinale di WestEd ha mostrato che gli studenti che usano Khanmigo almeno 30 minuti a settimana migliorano di 0,23 deviazioni standard in matematica. Per gli studenti non madrelingua inglese il guadagno sale a 0,31. La ricerca è chiara: i risultati migliori si ottengono quando AI e insegnante lavorano insieme, non quando uno sostituisce l’altro.

    Il modello finlandese incarna lo stesso principio da decenni, senza bisogno di AI.

    Niente test standardizzati fino ai 16 anni, insegnanti con master obbligatorio, selezionati tra i migliori studenti, apprendimento basato su progetti e fenomeni reali (“phenomenon-based learning”) dal 2016.

    L’insegnante finlandese ha piena autonomia didattica e il suo ruolo è quello di facilitatore: non recita una lezione, crea situazioni in cui i problemi emergono e la classe li affronta insieme.

    Nel 2018, l’Università di Helsinki ha lanciato con Reaktor “Elements of AI” per formare l’1% della popolazione sulle basi dell’intelligenza artificiale, non per sostituire gli insegnanti, ma per dare a tutti gli strumenti per capire cosa sta arrivando. Il tasso di transizione dalla formazione professionale al lavoro è del 78%, ben sopra la media UE.

    ISDI di Madrid, la digital business school spagnola, integra reskilling continuo, apprendimento applicato e collaborazione stretta con l’industria. Circa il 90% dei laureati lavora in settori correlati ai propri studi entro sei mesi, in un mondo dove solo il 30% dei laureati americani trova lavoro nel proprio campo. E’ un numero che parla da solo!

    Il filo comune? In tutti questi modelli l’insegnante non è un distributore di nozioni, ma un mentore che ti aiuta a ragionare, a contestualizzare, a riconoscere pattern. L’AI si occupa della ripetizione, della personalizzazione, del feedback immediato. L’umano si occupa del senso.

    Lo stage non è un optional: le aziende devono stare dentro al sistema

    C’è un ultimo pezzo che manca al puzzle, e senza il quale nessuna riforma funziona davvero: uno studente non è formato finché non ha messo piede in un’azienda vera.

    Non parlo di stage cosmetici, quelli da tre mesi dove fai le fotocopie e ti dicono che stai “imparando la cultura aziendale.” Parlo di periodi strutturati, obbligatori, integrati nel curriculum, dove lo studente lavora su problemi reali sotto la supervisione di professionisti reali. E dove l’azienda, a sua volta, ha voce in capitolo su cosa insegna l’università.

    Il Cengage Report 2025 lo dice in modo brutale: i laureati stessi riconoscono che le referenze personali (25%), i tirocini e l’esperienza lavorativa (22%) e le competenze di colloquio (20%) contano più della laurea in sé (17%) per trovare lavoro. Eppure il 20% dei laureati dichiara che il proprio percorso di studi non li ha aiutati a costruire una rete professionale. E il 35% avrebbe voluto che l’università collaborasse di più con le aziende.

    La Finlandia lo fa da sempre: il 79,3% dei diplomati della formazione professionale ha svolto apprendimento in contesto lavorativo, contro una media UE del 65,2%.

    École 42 include un tirocinio retribuito di 6 mesi obbligatorio nel percorso. ISDI costruisce i propri programmi in collaborazione diretta con le aziende.

    Sono modelli in cui l’azienda non è il “cliente finale” che riceve il laureato a scatola chiusa — è un partner che co-progetta la formazione.

    Pensateci: McKinsey stima che le aziende spendano 3,4 miliardi di dollari l’anno in formazione remediale per entry-level. È un costo che esiste perché il sistema formativo e il mondo del lavoro si parlano poco o niente. Se quei soldi, o anche una parte, venissero investiti prima — in stage strutturati, in co-design dei curricula, in docenti che vengono anche dall’industria — il risparmio sarebbe enorme e il prodotto finale incomparabilmente migliore.

    Il concetto è semplice: la formazione non finisce con l’esame, finisce con il primo progetto reale consegnato a un cliente reale. Tutto il resto è teoria. E la teoria, da sola, è esattamente ciò che l’AI sa fare meglio di noi.

    La morale della favola

    L’AI non uccide i junior, ma l’illusione che una formazione inadeguata potesse restare nascosta sotto il tappeto per sempre.

    Per decenni le aziende hanno fatto da ammortizzatore sociale, assorbendo silenziosamente il costo dei fallimenti formativi. L’AI ha semplicemente reso quel costo visibile… e inaccettabile…

    Il vero nemico dei junior non è GPT-4, Claude o Gemini. Il vero nemico è un sistema educativo che produce laureati incapaci di fare quello per cui dovrebbero essere stati formati. E invece di riformare quel sistema, preferiamo dare la colpa alla tecnologia.

    È più comodo, certo, ma non è onesto.


    Fonti e dati citati:

    • Stanford Digital Economy Study (2025)
    • Anthropic — “Labor Market Impacts of AI: A New Measure and Early Evidence” (marzo 2026)
    • U.S. Bureau of Labor Statistics (2023-2025)
    • Cengage Group 2025 Graduate Employability Report
    • Sistema Excelsior — Unioncamere/Ministero del Lavoro (2025)
    • Rapporto AlmaLaurea 2025
    • OECD Skills Outlook 2025
    • U.S. Chamber of Commerce — New Hire Readiness Report 2025
    • McKinsey & Company — Remedial Training Costs Analysis
    • Stack Overflow Developer Survey 2025
    • InfoWorld, IEEE Spectrum, CIO.com
    • École 42 / 42 Network (42network.org)
    • Minerva University — WURI Rankings 2022-2025
    • Khan Academy Annual Report SY24-25 / WestEd Khanmigo Study
    • OECD Digital Education Outlook 2026
    • Center for Democracy and Technology — AI in Education Report 2025
    • ISDI Madrid — Graduate Employment Data
    • Finnish National Agency for Education / EU Education & Training Monitor 2025
  • Sequoia dice che i servizi saranno il nuovo software. Canonity nasce esattamente per questo.

    Sequoia dice che i servizi saranno il nuovo software. Canonity nasce esattamente per questo.

    Recentemente Sequoia Capital ha pubblicato un articolo molto interessante: “Services: The New Software”. (LINK)

    La tesi è semplice ma dirompente: la prossima generazione di aziende AI non venderà software ma lavoro eseguito dall’intelligenza artificiale.

    La prossima azienda da mille miliardi sarà un’azienda software che si presenta al cliente come un fornitore di servizi. Non vende il tool ma il lavoro fatto. Tu non compri il software di contabilità, compri la contabilità chiusa. Il software è sotto il cofano, il cliente vede solo il risultato.

    La tesi è semplice ma dirompente: la prossima generazione di aziende AI non venderà software ma lavoro eseguito dall’intelligenza artificiale. In pratica per anni abbiamo costruito strumenti quali CRM, Contabilità, Tool di Marketing, tutti strumenti che aiutano le persone a fare il lavoro.

    Adesso però l’AI cambia il paradigma, non si tratta più di software che aiuta a lavorare, si tratta di software che fa il lavoro, sia quello noioso e ripetitivo, sia quello di analisi.

    Ma ogni founder si fa la stessa domanda: cosa succede quando la prossima versione di Claude o GPT, o Gemini rende il mio prodotto inutile? E ha ragione a preoccuparsi se vende lo strumento, ogni aggiornamento mangerà quote.

    Ma se vendi il lavoro fatto, ogni miglioramento del modello rende il tuo servizio più veloce, più economico e più difficile da battere… E se i modelli sono più di uno la partita è vinta “a tavolino”.

    L’AI ha imparato a parlare. Ora deve imparare a lavorare.

    Il claim di Canonity nasce proprio da questa idea:

    “L’AI ha imparato a parlare. È ora di insegnarle a lavorare.”

    Negli ultimi anni abbiamo visto modelli sempre più capaci di conversare. Ma “chattare” non è lavorare, il vero salto avviene quando l’AI viene inserita in workflow capaci di produrre risultati concreti.

    Sequoia divide il lavoro umano in due strati.

    Intelligence è eseguire regole complesse: tradurre specifiche in codice, testare, fare debug. Le regole sono tante ma sono regole — l’IA le impara.

    Judgement è decidere cosa costruire: quale feature ha priorità, se accettare debito tecnico, quando rilasciare anche se non è perfetto. Richiede esperienza, gusto, intuizione — anni di pratica.

    Da prompt a servizi

    Oggi chiunque può scrivere prompt o progettare workflow AI, ma questi prompt sono prodotti vendibili? No, sono semplicemente istruzioni.

    Canonity prova a cambiare questo paradigma permettendo a chiunque di:

    • creare un workflow AI
    • pubblicarlo nel marketplace
    • farlo utilizzare da altri
    • guadagnare ogni volta che viene eseguito

    Il punto chiave è questo: su Canonity non si vendono prompt.
    Si vendono esecuzioni.

    Alcuni esempi concreti? Immaginiamo alcuni servizi pubblicati nel marketplace Canonity.

    Analisi CV e job posting

    Un creator costruisce un workflow che:

    • analizza un annuncio di lavoro
    • analizza il curriculum del candidato
    • identifica competenze rilevanti
    • genera una lettera di presentazione personalizzata

    L’utente carica CV e job posting, Canonity restituisce la lettera pronta e il creator guadagna ogni volta che il workflow viene eseguito.

    Analisi del naming di una startup

    Un altro workflow potrebbe:

    • analizzare il nome della startup
    • confrontarlo con missione, prodotto e mercato
    • valutare coerenza e memorabilità
    • proporre alternative di naming più efficaci

    L’utente non compra un prompt, ma l’analisi prodotta dall’esecuzione del workflow.I

    La nascita di una execution economy

    Molti marketplace AI oggi vendono:

    • prompt
    • template
    • librerie di istruzioni

    Canonity propone qualcosa di diverso: una execution economy.

    Un luogo dove le persone pubblicano soluzioni AI
    e vengono pagate per ogni utilizzo reale.

    Perché ascoltare Sequoia

    Quando Sequoia Capital parla di nuove categorie tecnologiche, vale sempre la pena ascoltare. Nel loro portfolio ci sono aziende come:

    • Apple
    • Google
    • Airbnb
    • WhatsApp
    • NVIDIA

    E quando descrivono un cambiamento strutturale del mercato, vanno ascoltati perché spesso stanno anticipando ciò che accadrà nel prossimo decennio.

    Se i servizi sono il nuovo software

    Se davvero i servizi saranno il nuovo software, allora servirà un luogo dove questi servizi AI possano:

    • nascere
    • essere distribuiti
    • essere utilizzati
    • essere monetizzati

    Canonity prova a costruire esattamente questo: un posto dove chiunque può trasformare un’idea, un prompt o un workflow in un servizio AI eseguibile.

    Perché il vero valore non è nel prompt, ma nell’esecuzione.

  • L’oblomovismo digitale

    L’oblomovismo digitale

    Ieri sera stavo leggendo un articolo su Lucy sulla cultura che parla dell’oblomovismo, quella sindrome tutta russa, dal romanzo di Gončarov del 1859, che descrive una pigrizia metafisica: l’incapacità di agire e di prendere decisioni. Il protagonista, Oblomov, non si alza dal letto per le prime centocinquanta pagine. Non perché sia stupido: ha studiato, ha conosciuto il mondo, si è convinto di potersi rendere utile alla patria. Ma la realtà si è mostrata troppo dura e lui si è ritirato progressivamente. Ha lasciato l’impiego, ha smesso di leggere, e passa le giornate a contorcersi tra le lenzuola.

    E mentre leggevo, pensavo a una cosa che vedo ogni settimana.

    Parlo con imprenditori, professionisti, gente che manda avanti aziende da vent’anni. Gli chiedo se stanno usando l’AI. Mi rispondono tutti allo stesso modo: “Sì, ho provato ChatGPT, ma non è granché per quello che faccio io.” Poi cambiano discorso. Come Oblomov che riceve i visitatori nel suo letto, un mondano, un impiegato, uno scrittore, ascolta tutti, annuisce, e non si alza.

    Ecco il punto: non sono stupidi. Sono Oblomov.

    La malattia è sistemica

    L’articolo di Lucy racconta una cosa interessante. La critica russa dell’epoca non interpretò l’oblomovismo come un difetto individuale, ma come un tratto nazionale. Il critico Dobroljubov ci scrisse un saggio intero: una malattia congenita dello spirito russo che ostacolava il progresso. Non la pigrizia di uno, ma l’inerzia di tutti.

    L’oblomovismo delle aziende italiane di fronte all’AI ha esattamente questa natura. Non è che il singolo imprenditore sia pigro. È che l’intero ecosistema, dalla formazione al rapporto con la tecnologia, dalla burocrazia alla cultura del “abbiamo sempre fatto così”, produce e riproduce torpore. Ognuno si è costruito la sua Oblomovka personale, la tenuta remota dove le regole del mondo esterno non arrivano. Il commercialista che dice “i miei clienti hanno bisogno del rapporto personale”. L’avvocato che dice “il diritto italiano è troppo complesso per una macchina”. Il manifatturiero che dice “noi facciamo cose fisiche, mica software”.

    Ognuno ha le sue ragioni. Oblomov aveva le sue.

    Quello che sta succedendo, raccontato da chi lo vive

    Con grande senso della sincronia un mio amico ieri mi ha inoltrato un post di Matt Shumer, da sei anni alla guida di una startup AI, pubblicato su X che è diventato virale.

    Ha scritto che ha smesso di dare la versione educata di quello che sta succedendo.

    Il divario tra percezione pubblica e realtà è diventato troppo grande, e troppo pericoloso.

    Il passaggio che mi ha colpito di più: Shumer racconta di descrivere un’applicazione in linguaggio naturale, andarsene dal computer per quattro ore, e tornare a trovare il lavoro finito. Non una bozza da correggere, il prodotto completo, migliore di quello che avrebbe fatto lui stesso. L’AI apre l’app, clicca i pulsanti, testa le funzionalità, itera come farebbe uno sviluppatore, e lo avvisa solo quando è soddisfatta del risultato.

    Io scrivo codice da prima del Commodore VIC-20, quando avevo un Sinclair ZX81 con 1K di memoria e il BASIC si componeva premendo combinazioni di tasti. Ho certificazioni Microsoft degli anni ’90. So cosa vuol dire debuggare un segfault alle tre di notte. Eppure quello che Shumer descrive è esattamente quello che vivo anche io, ogni giorno, da mesi. Non è hype. Non è marketing. È la mia giornata lavorativa del lunedì.

    Ma Shumer dice anche un’altra cosa che merita attenzione. Cita un managing partner di un grande studio legale che passa ore ogni giorno a usare l’AI. Non perché sia un giocattolo, ma perché funziona meglio dei suoi associati su molte attività. E ogni paio di mesi, diventa significativamente più capace. L’organizzazione METR, che misura la durata dei compiti che l’AI può completare autonomamente, un anno fa registrava circa dieci minuti. Oggi siamo a diverse ore. Ha raddoppiato i tempi in soli sette mesi e sta accelerando.

    Al meetup di Milano che raccontavo nel mio ultimo post, ho visto un fotografo e un avvocato, nessuna formazione tecnica, costruire applicazioni funzionanti con l’AI. Non vibe coding: architettura, obiettivi, percorso. Competenza di dominio tradotta in prodotto, senza intermediari.

    Mentre Oblomov resta a letto.

    Il gusto del covo

    La cosa che mi ha colpito di più nell’articolo di Lucy è un passaggio su Tommaso Landolfi e quello che chiamava “il senso della lustra”, il gusto del covo. Un piacere voluttuoso di chi si rintana nella propria casa in decadenza, mentre intorno tutto crolla. La casa crolla, sì, ma crolla lentamente, e nel frattempo ci si sta bene.

    Questa è l’immagine più precisa che abbia mai trovato per descrivere quello che vedo nelle aziende italiane. L’inerzia non è solo paralisi, è comfort. I margini calano, la competitività si erode, i concorrenti che hanno agito guadagnano velocità e capacità di analisi, ma il covo è caldo. E ci si convince che il proprio settore sia speciale, immune, diverso.

    Non lo è. Nessun settore lo è.

    Oblomov si innamora di Olga, una donna che potrebbe salvarlo. Ma per sposarla dovrebbe rendersi degno della vita che lei rappresenta, e questo, scrive Gončarov, è una cosa che in pratica non si può fare, per quanto appaia realizzabile in teoria. Così Olga lo lascia e sposa Štolc, il tedesco positivo, il pragmatico. Oblomov riprecipita nel torpore. Sposa una donna che lo accudisce come un bambino. E muore di un colpo apoplettico.

    L’azienda che rimanda non esplode. Diventa irrilevante un trimestre alla volta.

    Alzarsi dal letto

    Non scrivo questo per fare terrorismo psicologico. Lo scrivo perché il vantaggio più grande che potete avere in questo momento è semplicemente essere in anticipo. La finestra è ancora aperta: la maggior parte delle aziende italiane non si è mossa. Chi entra in una riunione e dice “ho usato l’AI per fare questa analisi in un’ora invece che in tre giorni” è la persona più preziosa nella stanza. Non domani, adesso.

    Ma la finestra non resterà aperta a lungo.

    “Addio vecchia Oblomovka”, dice Štolc alla fine del romanzo, “il tuo tempo è finito.”

    Gončarov lo scrive con un pizzico di malinconia, credi che il mercato ne avrà alcuna?

    La scelta è semplice, anche se non è facile: alzarsi dal letto, o aspettare il colpo apoplettico.

    Photo by RDNE Stock project:
    https://www.pexels.com/photo/man-lying-on-sofa-beside-vacuum-5591469/

  • I modelli AI cinesi stanno “bevendo” dall’intelligenza americana. E non c’è legge che li possa fermare

    I modelli AI cinesi stanno “bevendo” dall’intelligenza americana. E non c’è legge che li possa fermare

    Oggi, 24 febbraio 2026, Anthropic ha pubblicato un report esplosivo: tre laboratori cinesi, DeepSeek, Moonshot AI e MiniMax, hanno condotto campagne di distillazione su scala industriale contro Claude.

    I numeri fanno impressione: 24.000 account fraudolenti, 16 milioni di scambi con il modello. Non stiamo parlando di qualcuno che copia-incolla qualche risposta, ma di un’operazione sistematica e coordinata per estrarre le capacità di ragionamento, coding e uso di strumenti di uno dei modelli più avanzati al mondo.

    Due settimane fa, OpenAI aveva denunciato la stessa cosa al Congresso americano riguardo a ChatGPT e Google ha segnalato oltre 100.000 prompt mirati su Gemini.

    Il pattern è chiaro: i tre principali modelli americani sono sotto attacco simultaneo.

    Come funziona la distillazione (in parole semplici)

    La distillazione è una tecnica nota nell’AI: prendi un modello grande e potente (il “maestro”), gli fai migliaia di domande mirate, e usi le sue risposte per addestrare un modello più piccolo ed economico (lo “studente”).

    Lo studente impara a imitare il maestro senza aver mai visto i dati originali di addestramento.

    Geniale.

    Le aziende AI la usano legittimamente tutti i giorni: Anthropic distilla Claude Opus per creare Claude Haiku, OpenAI distilla GPT-4 per creare GPT-4-mini.

    È una pratica standard, ma il problema nasce quando un concorrente usa questa tecnica sui tuoi modelli, aggirando le restrizioni geografiche con servizi proxy, creando migliaia di account falsi, e generando milioni di query progettate per estrarre le capacità più avanzate. In sostanza: anni di ricerca e miliardi di dollari di investimento vengono compressi in poche settimane di scraping automatizzato.

    I numeri dell’operazione

    Secondo il report di Anthropic:

    – DeepSeek: 150.000 scambi mirati su ragionamento logico e allineamento

    – Moonshot AI: 3,4 milioni di scambi su ragionamento agentico, coding e computer vision (il loro modello Kimi K2.5, rilasciato il mese scorso, ne è probabilmente il risultato)

    – MiniMax: 13 milioni di scambi su coding agentico e orchestrazione di strumenti

    — Anthropic li ha colti in flagrante: quando è uscito un nuovo modello Claude, MiniMax ha rediretto metà del traffico nel giro di 24 ore per catturare le nuove capacitàTutte e tre le campagne seguivano lo stesso schema: servizi proxy commerciali per aggirare il blocco geografico della Cina, cluster di account distribuiti per evitare il rilevamento, e prompt strutturati per estrarre capacità specifiche — non le chiacchierate casuali di un utente normale.

    Il vero problema: non c’è legge che funzioni

    Ed è qui che la questione diventa strutturale. Perché la domanda che tutti si pongono è: “Ma non è illegale?”

    La risposta, purtroppo, è molto meno chiara di quanto si vorrebbe.

    Il copyright non si applica: L’U.S. Copyright Office ha stabilito che gli output generati dall’AI non raggiungono la soglia di “autorialità umana” necessaria per la protezione. Se le risposte di Claude non sono coperte da copyright, non puoi fare causa per violazione di copyright a chi le usa per addestrare un altro modello.

    Paradossalmente, i Terms of Service di OpenAI cedono esplicitamente i diritti sugli output all’utente, rendendo ancora più difficile contestare l’uso che quell’utente ne fa.

    I brevetti sono limitati: I brevetti potrebbero coprire architetture specifiche o processi, ma la distillazione non copia l’architettura — copia il comportamento. È come se qualcuno non rubasse il motore della tua Ferrari, ma guidasse la tua auto per migliaia di chilometri per capire esattamente come si comporta, e poi costruisse un’auto diversa che si guida allo stesso modo.

    I Terms of Service valgono poco: Certo, Anthropic e OpenAI vietano esplicitamente la distillazione nei loro ToS. Ma provate a far valere un contratto americano contro un’azienda di Hangzhou o Shanghai. La giurisdizione è un muro. E anche se riusciste a portarli in tribunale, il danno è già fatto: il modello distillato è già stato addestrato e distribuito.

    Il segreto commerciale è l’unica strada potenziale, ma richiede di dimostrare che l’azienda ha adottato misure ragionevoli per proteggere le informazioni e che c’è stato un accesso non autorizzato.

    Quando il tuo prodotto è un’API pubblica e l’accesso avviene attraverso account apparentemente legittimi, la dimostrazione diventa molto complessa.

    L’ironia della situazione

    C’è un’ironia profonda in tutta questa vicenda, e la community online non ha mancato di farla notare: le stesse aziende che denunciano la distillazione dei loro modelli hanno costruito quei modelli addestrando su enormi quantità di contenuti altrui — libri, articoli, codice, immagini — spesso senza il consenso degli autori originali.

    Anthropic stessa è sotto processo da parte degli editori musicali per aver usato testi di canzoni nell’addestramento di Claude.

    È il classico “quando lo faccio io è innovazione, quando lo fai tu è furto.”

    Questo non giustifica le campagne di distillazione su scala industriale, ma mette in prospettiva la fragilità delle argomentazioni legali: in un ecosistema dove tutti hanno costruito su dati altrui, tracciare una linea netta tra uso legittimo e furto è un esercizio giuridico senza precedenti.

    Cosa succederà (probabilmente)

    La soluzione non sarà legale, ma tecnica e geopolitica.

    Sul fronte tecnico, Anthropic ha annunciato sistemi di behavioral fingerprinting e classificatori per identificare pattern di estrazione.

    In pratica: se le tue query assomigliano a una campagna di distillazione e non a un uso normale, vieni bloccato. È una corsa agli armamenti continua, ma è l’unica difesa che funziona in tempo reale. Sul fronte geopolitico, queste denunce rafforzano la narrazione americana a favore di controlli più severi sulle esportazioni di chip AI verso la Cina. Se i modelli cinesi dipendono dalla distillazione di modelli americani per le loro capacità più avanzate, e la distillazione su scala richiede accesso a chip potenti, allora limitare i chip limita (anche) la capacità di distillazione.

    La lezione per noi europei

    Mentre americani e cinesi si confrontano sui modelli frontier, l’Europa guarda.

    E questo è un problema, noi non abbiamo modelli frontier nostri su cui proteggere IP, non abbiamo chip di ultima generazione, non abbiamo le infrastrutture di compute necessarie.

    L’AI Act europeo regola l’uso dell’AI ma non la produzione: come se regolassimo le automobili ma non avessimo fabbriche.

    Se la distillazione diventa la normalità e l’unica protezione reale è avere qualcosa che valga la pena distillare. E per il momento, quel qualcosa ce l’hanno solo gli americani.


    Nota: uso Claude quotidianamente nel mio lavoro e lo considero il miglior modello attualmente disponibile. Questo non cambia il fatto che la questione della distillazione sia oggettivamente complessa e che le ragioni non stiano tutte da una parte.

  • Canonity e u-prompt: trasformare un’idea in un’app e monetizzarla.

    Canonity e u-prompt: trasformare un’idea in un’app e monetizzarla.

    Voglio prendermi un momento per raccontarvi cosa stiamo costruendo, partendo da un esempio concreto che mi è capitato proprio oggi.

    Tutto ha inizio quando un amico decide di imbarcarsi in una nuova avventura: un nuovo progetto per un nuovo prodotto. Come spesso accade a chi ha tra le mani un MVP (Minimum Viable Product), la prima cosa che ha fatto è stata battezzarlo con un nome che riteneva evocativo.

    Tuttavia, la mia esperienza mi suggeriva che quella scelta non fosse quella giusta per il suo target e invece di dargli un semplice parere soggettivo, ho deciso di creare un workflow di prompt che aiutasse chiunque a capire se il nome scelto per il proprio business sia davvero quello corretto.

    L’esperimento: 11 prompt e 5 modelli

    L’idea è semplice: tu mi dici cosa fa il prodotto e come vuoi chiamarlo; io ti restituisco un’analisi approfondita di costi e benefici, fornendoti anche una “storia” da raccontare quando ti chiederanno il perché di quel nome.

    Per realizzare questa analisi, ho aperto Canonity, il nostro editor grafico di step-prompt e ho strutturato il lavoro in tre passaggi fondamentali:

    1. Limitare le allucinazioni: Se chiedi troppe cose insieme a un’IA, tende a inventare ciò che non capisce, quindi ho diviso il processo di analisi in più step per aumentare drasticamente la precisione.
    2. Il potere del confronto: Ho replicato i passaggi di analisi sfruttando la capacità di modelli diversi per avere più punti di vista. Ho sottoposto la prima analisi a Grok, la successiva a Claude e poi anche a Gemini.
    3. Sintesi e Revisione: Infine, ho usato ChatGPT per riepilogare il tutto e DeepSeek per analizzare i pareri dei vari modelli e generare un riassunto finale.

    In totale, l’analisi di un singolo nome è stata suddivisa in 11 prompt eseguiti da 5 modelli diversi che hanno collaborato tra loro.

    Ho stampato il PDF dopo averlo eseguito e l’ho inviato al mio amico che… ha validato l’utilità di questo prompt.

    (Il sistema non si è limitato a dire se il nome fosse corretto, le tre cancellazioni in rosso erano tre esempi di nome alternativo più corretto, in relazione a ciò che quel prodotto fa) Del chè il messaggio del mio amico:

    La prova del nove (anzi del 4,99)

    La sua risposta è stata la migliore validazione possibile: non solo ha trovato l’analisi incredibilmente centrata — evidenziando aspetti critici come il costo del dominio o l’efficacia psicologica del nome — ma alla mia domanda provocatoria “Saresti stato disposto a pagare 4,99€ per questo?”, la risposta è stata un secco: “Ceeerto!”

    Cosa sono, quindi, Canonity e u-prompt?

    In poche parole:

    • Con Canonity ho realizzato l’applicazione (il workflow logico di analisi).
    • Attraverso u-prompt, ho messo in vendita l’esecuzione di quel workflow al prezzo di 4,99€.

    E questo è solo uno dei workflow –> app. Il sistema ne gestirà centinaia, migliaia, ogni utente ne potrà avere quante ne vuole… Saranno di sua proprietà e non dovrà mai vendere il prompt, solo l’esecuzione.

    Per esempio il nostro CEO, Stefano, sta già usando Canonity per disegnare un sistema che analizza i CV in relazione ai Job Post. L’app analizzerà l’annuncio, valuterà il tuo profilo/CV, ti suggerirà cosa enfatizzare e produrrà una lettera di presentazione adattata e su misura.

    Una volta pronta, la metteremo in vendita su u-prompt a 2,99€.

    Cosa ti serve per creare il tuo primo step prompt?

    Serve conoscenza tecnica dello strumento? Si, c’è un tutorial che in 7 passi (5/6 minuti) ti spiega come funziona

    Quale altra conoscenza tecnica serve? Nessuna, se hai scritto il prompt, premendo PLAY lo esegui e ottieni il risultato.

    FINE.


    Se vuoi capire come trasformare la tua competenza in un’app IA, o se hai domande su come funzionano i nostri strumenti, scrivici a hey [chiocciola] u-prompt.com.

    Il futuro è collaborativo