Categoria: Automazione

  • Sequoia dice che i servizi saranno il nuovo software. Canonity nasce esattamente per questo.

    Sequoia dice che i servizi saranno il nuovo software. Canonity nasce esattamente per questo.

    Recentemente Sequoia Capital ha pubblicato un articolo molto interessante: “Services: The New Software”. (LINK)

    La tesi è semplice ma dirompente: la prossima generazione di aziende AI non venderà software ma lavoro eseguito dall’intelligenza artificiale.

    La prossima azienda da mille miliardi sarà un’azienda software che si presenta al cliente come un fornitore di servizi. Non vende il tool ma il lavoro fatto. Tu non compri il software di contabilità, compri la contabilità chiusa. Il software è sotto il cofano, il cliente vede solo il risultato.

    La tesi è semplice ma dirompente: la prossima generazione di aziende AI non venderà software ma lavoro eseguito dall’intelligenza artificiale. In pratica per anni abbiamo costruito strumenti quali CRM, Contabilità, Tool di Marketing, tutti strumenti che aiutano le persone a fare il lavoro.

    Adesso però l’AI cambia il paradigma, non si tratta più di software che aiuta a lavorare, si tratta di software che fa il lavoro, sia quello noioso e ripetitivo, sia quello di analisi.

    Ma ogni founder si fa la stessa domanda: cosa succede quando la prossima versione di Claude o GPT, o Gemini rende il mio prodotto inutile? E ha ragione a preoccuparsi se vende lo strumento, ogni aggiornamento mangerà quote.

    Ma se vendi il lavoro fatto, ogni miglioramento del modello rende il tuo servizio più veloce, più economico e più difficile da battere… E se i modelli sono più di uno la partita è vinta “a tavolino”.

    L’AI ha imparato a parlare. Ora deve imparare a lavorare.

    Il claim di Canonity nasce proprio da questa idea:

    “L’AI ha imparato a parlare. È ora di insegnarle a lavorare.”

    Negli ultimi anni abbiamo visto modelli sempre più capaci di conversare. Ma “chattare” non è lavorare, il vero salto avviene quando l’AI viene inserita in workflow capaci di produrre risultati concreti.

    Sequoia divide il lavoro umano in due strati.

    Intelligence è eseguire regole complesse: tradurre specifiche in codice, testare, fare debug. Le regole sono tante ma sono regole — l’IA le impara.

    Judgement è decidere cosa costruire: quale feature ha priorità, se accettare debito tecnico, quando rilasciare anche se non è perfetto. Richiede esperienza, gusto, intuizione — anni di pratica.

    Da prompt a servizi

    Oggi chiunque può scrivere prompt o progettare workflow AI, ma questi prompt sono prodotti vendibili? No, sono semplicemente istruzioni.

    Canonity prova a cambiare questo paradigma permettendo a chiunque di:

    • creare un workflow AI
    • pubblicarlo nel marketplace
    • farlo utilizzare da altri
    • guadagnare ogni volta che viene eseguito

    Il punto chiave è questo: su Canonity non si vendono prompt.
    Si vendono esecuzioni.

    Alcuni esempi concreti? Immaginiamo alcuni servizi pubblicati nel marketplace Canonity.

    Analisi CV e job posting

    Un creator costruisce un workflow che:

    • analizza un annuncio di lavoro
    • analizza il curriculum del candidato
    • identifica competenze rilevanti
    • genera una lettera di presentazione personalizzata

    L’utente carica CV e job posting, Canonity restituisce la lettera pronta e il creator guadagna ogni volta che il workflow viene eseguito.

    Analisi del naming di una startup

    Un altro workflow potrebbe:

    • analizzare il nome della startup
    • confrontarlo con missione, prodotto e mercato
    • valutare coerenza e memorabilità
    • proporre alternative di naming più efficaci

    L’utente non compra un prompt, ma l’analisi prodotta dall’esecuzione del workflow.I

    La nascita di una execution economy

    Molti marketplace AI oggi vendono:

    • prompt
    • template
    • librerie di istruzioni

    Canonity propone qualcosa di diverso: una execution economy.

    Un luogo dove le persone pubblicano soluzioni AI
    e vengono pagate per ogni utilizzo reale.

    Perché ascoltare Sequoia

    Quando Sequoia Capital parla di nuove categorie tecnologiche, vale sempre la pena ascoltare. Nel loro portfolio ci sono aziende come:

    • Apple
    • Google
    • Airbnb
    • WhatsApp
    • NVIDIA

    E quando descrivono un cambiamento strutturale del mercato, vanno ascoltati perché spesso stanno anticipando ciò che accadrà nel prossimo decennio.

    Se i servizi sono il nuovo software

    Se davvero i servizi saranno il nuovo software, allora servirà un luogo dove questi servizi AI possano:

    • nascere
    • essere distribuiti
    • essere utilizzati
    • essere monetizzati

    Canonity prova a costruire esattamente questo: un posto dove chiunque può trasformare un’idea, un prompt o un workflow in un servizio AI eseguibile.

    Perché il vero valore non è nel prompt, ma nell’esecuzione.

  • Canonity e u-prompt: trasformare un’idea in un’app e monetizzarla.

    Canonity e u-prompt: trasformare un’idea in un’app e monetizzarla.

    Voglio prendermi un momento per raccontarvi cosa stiamo costruendo, partendo da un esempio concreto che mi è capitato proprio oggi.

    Tutto ha inizio quando un amico decide di imbarcarsi in una nuova avventura: un nuovo progetto per un nuovo prodotto. Come spesso accade a chi ha tra le mani un MVP (Minimum Viable Product), la prima cosa che ha fatto è stata battezzarlo con un nome che riteneva evocativo.

    Tuttavia, la mia esperienza mi suggeriva che quella scelta non fosse quella giusta per il suo target e invece di dargli un semplice parere soggettivo, ho deciso di creare un workflow di prompt che aiutasse chiunque a capire se il nome scelto per il proprio business sia davvero quello corretto.

    L’esperimento: 11 prompt e 5 modelli

    L’idea è semplice: tu mi dici cosa fa il prodotto e come vuoi chiamarlo; io ti restituisco un’analisi approfondita di costi e benefici, fornendoti anche una “storia” da raccontare quando ti chiederanno il perché di quel nome.

    Per realizzare questa analisi, ho aperto Canonity, il nostro editor grafico di step-prompt e ho strutturato il lavoro in tre passaggi fondamentali:

    1. Limitare le allucinazioni: Se chiedi troppe cose insieme a un’IA, tende a inventare ciò che non capisce, quindi ho diviso il processo di analisi in più step per aumentare drasticamente la precisione.
    2. Il potere del confronto: Ho replicato i passaggi di analisi sfruttando la capacità di modelli diversi per avere più punti di vista. Ho sottoposto la prima analisi a Grok, la successiva a Claude e poi anche a Gemini.
    3. Sintesi e Revisione: Infine, ho usato ChatGPT per riepilogare il tutto e DeepSeek per analizzare i pareri dei vari modelli e generare un riassunto finale.

    In totale, l’analisi di un singolo nome è stata suddivisa in 11 prompt eseguiti da 5 modelli diversi che hanno collaborato tra loro.

    Ho stampato il PDF dopo averlo eseguito e l’ho inviato al mio amico che… ha validato l’utilità di questo prompt.

    (Il sistema non si è limitato a dire se il nome fosse corretto, le tre cancellazioni in rosso erano tre esempi di nome alternativo più corretto, in relazione a ciò che quel prodotto fa) Del chè il messaggio del mio amico:

    La prova del nove (anzi del 4,99)

    La sua risposta è stata la migliore validazione possibile: non solo ha trovato l’analisi incredibilmente centrata — evidenziando aspetti critici come il costo del dominio o l’efficacia psicologica del nome — ma alla mia domanda provocatoria “Saresti stato disposto a pagare 4,99€ per questo?”, la risposta è stata un secco: “Ceeerto!”

    Cosa sono, quindi, Canonity e u-prompt?

    In poche parole:

    • Con Canonity ho realizzato l’applicazione (il workflow logico di analisi).
    • Attraverso u-prompt, ho messo in vendita l’esecuzione di quel workflow al prezzo di 4,99€.

    E questo è solo uno dei workflow –> app. Il sistema ne gestirà centinaia, migliaia, ogni utente ne potrà avere quante ne vuole… Saranno di sua proprietà e non dovrà mai vendere il prompt, solo l’esecuzione.

    Per esempio il nostro CEO, Stefano, sta già usando Canonity per disegnare un sistema che analizza i CV in relazione ai Job Post. L’app analizzerà l’annuncio, valuterà il tuo profilo/CV, ti suggerirà cosa enfatizzare e produrrà una lettera di presentazione adattata e su misura.

    Una volta pronta, la metteremo in vendita su u-prompt a 2,99€.

    Cosa ti serve per creare il tuo primo step prompt?

    Serve conoscenza tecnica dello strumento? Si, c’è un tutorial che in 7 passi (5/6 minuti) ti spiega come funziona

    Quale altra conoscenza tecnica serve? Nessuna, se hai scritto il prompt, premendo PLAY lo esegui e ottieni il risultato.

    FINE.


    Se vuoi capire come trasformare la tua competenza in un’app IA, o se hai domande su come funzionano i nostri strumenti, scrivici a hey [chiocciola] u-prompt.com.

    Il futuro è collaborativo

  • Il grande democratizzatore

    Il grande democratizzatore

    Opus 4.6, un meetup a Milano, e cosa c’entrano Camillo e Adriano Olivetti con l’IA

    Ieri sera ero al Claude Code meetup di Milano. Cinque speaker, cinque soluzioni da mostrare. Il primo sale sul palco, lancia la sua demo e… niente. Opus 4.5 risulta legacy. Il modello su cui aveva costruito tutto era già stato sostituito — durante l’aperitivo. Il secondo non ha nemmeno potuto presentare: la sua soluzione di sicurezza? Opus 4.6 la implementava già nativamente.

    Due presentazioni su cinque, obsolete nel tempo di un prosecco.

    Questo è il ritmo. Ma non è del ritmo che voglio parlare oggi.


    Perché tra quelle cinque presentazioni ce n’erano due che mi hanno colpito più del cambio di modello. E mi hanno fatto pensare a qualcosa di molto più grande.


    Il primo era un fotografo. Non un tecnico, non un ingegnere del software, non uno che ha mai scritto una riga di codice in vita sua. Un fotografo che in tre mesi e mezzo ha costruito un’applicazione per creare presentazioni alla velocità della luce. Funzionante. Bella. Che fa quasi tutto quello che fa Gamma — un prodotto su cui lavorano probabilmente decine di ingegneri a tempo pieno.

    Il secondo era un avvocato. Stesso schema: nessuna formazione tecnica. Ha preso decenni di esperienza nella revisione dei contratti e li ha trasformati in un’applicazione capace di riscrivere clausole prolisse, spiegando paragrafo per paragrafo il perché di ogni scelta di revisione. Non un riassunto generico, una revisione ragionata, con la competenza di chi quei contratti li mastica da vent’anni.

    Nessuno dei due sa programmare.

    Entrambi hanno costruito qualcosa che funziona.


    Qui si apre il punto che mi interessa davvero.


    Perché non hanno fatto vibe coding. Il vibe coding è quella cosa per cui apri una chat, scrivi “fammi un’app che fa X”, e speri che il risultato sia decente. A volte lo è. Spesso no. E quando non lo è, non sai perché e non sai come aggiustarlo.

    Questi due hanno fatto qualcosa di diverso. Hanno seguito il metodo: architettura, obiettivi, percorso.

    Il fotografo non ha detto “fammi un’app per le presentazioni”. Ha pensato a cosa gli serviva, ha progettato la struttura, ha definito il flusso. Poi ha usato l’AI come strumento per realizzare quello che aveva in testa. L’avvocato non ha detto “riscrivi questo contratto”. Ha codificato decenni di know-how in regole, logiche, criteri di valutazione. Poi ha chiesto all’AI di eseguire quel processo.

    La differenza tra vibe coding e il metodo è la stessa differenza che c’è tra chiedere a un muratore di “farmi una casa bella” e dargli un progetto architettonico.

    Il risultato si vede.


    L’AI è il grande democratizzatore.


    Non perché abbassa il livello, ma perché rimuove la barriera tra chi ha le competenze e chi ha anche gli strumenti per esprimerle.

    Il fotografo sapeva esattamente come doveva funzionare un sistema di presentazioni rapide. Lo sapeva meglio di qualsiasi team di ingegneri, perché lo viveva tutti i giorni. Quello che non sapeva era tradurre quella conoscenza in codice.

    L’avvocato sapeva esattamente cosa rende un contratto prolisso e cosa lo rende chiaro. Lo sapeva meglio di qualsiasi algoritmo, perché ci ha passato la carriera. Quello che gli mancava era il mezzo tecnico per trasformare quell’esperienza in un prodotto.

    Fino a ieri, queste persone avevano due opzioni: pagare qualcuno per costruire la loro idea (con tutti i problemi di traduzione che ne conseguono) o rinunciarci.

    Oggi ne hanno una terza: costruirla loro stessi.

    Non perché “tutti possono programmare” — questa è la retorica vuota. Ma perché chi ha una competenza reale, una visione chiara e la disciplina di pensare in modo strutturato, oggi può realizzarla. L’AI elimina la barriera sintattica, non quella intellettuale. E la barriera intellettuale è l’unica che conta davvero.


    A questo punto devo fare una confessione.

    Io sono un tecnico. Scrivo codice da quando avevo un Toshiba al plasma e il QBASIC era il linguaggio dei sogni. Ho certificazioni Microsoft degli anni ’90. Gestisco cluster Proxmox distribuiti su datacenter europei. So cosa vuol dire debuggare un segfault alle tre di notte.

    Ma sono anche un imprenditore. E come imprenditore, il mio idolo non è Steve Jobs, non è Elon Musk, non è nessuno della Silicon Valley.

    Il mio idolo è Camillo Olivetti.

    Un ingegnere di Ivrea che nel 1893 andò a Chicago con il suo maestro Galileo Ferraris, visitò i laboratori di Edison, e tornò in Italia con un’idea che oggi suona rivoluzionaria quanto allora: il compito di un’azienda non è sfruttare le capacità delle persone, ma elevarle.

    Camillo fondò la prima fabbrica italiana di macchine per scrivere nel 1908. Venti dipendenti, un capannone a Ivrea. Sì, la macchina per scrivere fu una democratizzazione — della parola scritta, dell’accesso alla comunicazione formale. Ma non era quello il punto. Il punto era la visione che c’era dietro la fabbrica.

    Camillo non vedeva i suoi operai come manodopera da ottimizzare ma come persone da far crescere. Riuniva i dipendenti nel cortile della fabbrica, saliva su una cassetta — come ai tempi dei comizi socialisti — e spiegava i problemi dell’azienda. Non delegava, non nascondeva: condivideva la conoscenza. Voleva che capissero il perché delle decisioni, non solo il cosa dovevano fare.

    Quando la crisi economica colpì, propose di ridurre l’orario per tutti piuttosto che licenziare qualcuno. I dipendenti risposero proponendo di lavorare a tempo pieno, con la promessa di recuperare il salario mancante a crisi finita. Questo non succede in un’azienda che sfrutta. Succede in un’azienda che ha investito nella consapevolezza delle proprie persone.

    Il figlio Adriano portò questa visione ancora più avanti, fino a farne un modello industriale unico al mondo. Ma il seme era di Camillo: l’impresa come strumento di elevazione, non di estrazione. Costruire qualcosa che funziona, che serve a chi lo usa, e che rende migliore chi ci lavora.


    Ecco perché l’uscita di Opus 4.6 mi interessa e non mi interessa allo stesso tempo.


    Mi interessa perché è il modello più capace mai rilasciato. Context window da un milione di token, adaptive thinking, agent teams, i punteggi più alti mai raggiunti nel coding agentico. Il fatto che Scott White di Anthropic dica che ormai usano Claude Code non solo gli sviluppatori ma anche product manager, analisti finanziari, professionisti di ogni tipo — è esattamente il segnale.

    Non mi interessa perché il modello, da solo, non cambia nulla. Quello che cambia è cosa le persone ci fanno.

    Un fotografo che costruisce un’alternativa a Gamma. Un avvocato che trasforma vent’anni di esperienza in un prodotto. Questa è la rivoluzione. Non il benchmark, non il punteggio su Terminal-Bench, non i milioni di token di contesto.

    La rivoluzione è che la competenza di dominio — quella vera, quella che si accumula in anni di lavoro — oggi ha finalmente uno strumento per esprimersi senza intermediari.

    Camillo Olivetti non diede ai suoi dipendenti solo una fabbrica in cui lavorare. Diede loro la comprensione di cosa stavano costruendo e perché. Li rese partecipi, non esecutori. E così facendo, elevò le loro capacità ben oltre quello che un contratto di lavoro avrebbe richiesto.

    L’AI sta facendo la stessa cosa, su scala globale. Non sta dando a tutti la possibilità di programmare — questa è la retorica vuota. Sta dando a chi ha una competenza reale la possibilità di esprimerla completamente, senza che la barriera tecnica la comprima, la traduca male, o la fermi del tutto.

    La macchina per scrivere non ha reso tutti scrittori. Ha reso possibile scrivere a chi aveva qualcosa da scrivere. L’AI non renderà tutti sviluppatori. Renderà possibile sviluppare a chi ha qualcosa da sviluppare.

    Il fotografo aveva qualcosa. L’avvocato aveva qualcosa. E avevano il metodo: sapere cosa costruire, progettare come costruirlo, e usare lo strumento per farlo.


    Architettura. Obiettivi. Percorso. Strumento. Capacità.


    Il resto è rumore.

    P.S. quelli in foto dovrebbero essere Camillo e suo figlio Adriano Olivetti… Ma l’AI ha dei limiti che non gli hanno permesso di generare la foto con i volti giusti… sicchè usa un po’ di immaginazione, grazie 🙂

  • Quanto ha senso un consiglio di amministrazione con un solo membro?

    Quanto ha senso un consiglio di amministrazione con un solo membro?

    Per un po’ di tempo abbiamo creduto di risolvere con un modello AI più grande, più veloce, più addestrato, più tutto.

    Ogni nuova versione sembrava portarci un passo più vicino a un punto di arrivo definitivo, come se bastasse aggiungere qualche miliardo di parametri per ottenere finalmente l’intelligenza “giusta”. Un’idea rassicurante, quasi infantile: se qualcosa non funziona, lo ingrandiamo. Ha sempre funzionato così, no?

    Poi è successa una cosa curiosa. Le persone che quei modelli li hanno costruiti hanno iniziato a dire, più o meno apertamente, che nemmeno loro sanno davvero come funzionano fino in fondo.

    Ilya Sutskever lo ha detto con una calma quasi sospetta: lo scaling infinito non è la risposta. Non perché i modelli non siano impressionanti, ma perché stiamo continuando a spingere sull’acceleratore senza sapere esattamente cosa stia succedendo sotto il cofano. Una strategia audace, certo. Ma non proprio quello che definiremmo “controllo”.
    (vedi link su “letture consigliate” in fondo all’articolo)

    Nel frattempo, noi utenti abbiamo sviluppato una dinamica tutta nostra. Parliamo con l’AI, aspettiamo la risposta, la correggiamo, rilanciamo. Poi di nuovo. Un dialogo continuo che, a guardarlo bene, assomiglia più a una riunione infinita che a un processo decisionale. Un problema serio, però, non si risolve in una risposta, ma in una sequenza di passaggi: comprendere, analizzare, scegliere, verificare, correggere, rifinire.

    Fino al 2025 lo abbiamo affrontato in modo ricorsivo. Domanda, risposta, controbattuta. Ancora. Come ho scritto nel mio post precedente, siamo diventati degli umarell digitali, affacciati alla finestra della chat, a commentare quello che l’AI stava facendo, pronti a intervenire dopo.

    È stato utile, va detto, e in qualche modo anche istruttivo, ma è plausibile che questo sia il modello definitivo di collaborazione uomo–macchina?

    A un certo punto inizierà semplicemente a sembrarci inefficiente continuare a dire all’AI “fammi questo”, con richieste isolate che interrompono il flusso, con ogni risposta che ci costringe a fermarci, a valutare per correggere e poi ripartire. Una conversazione infinita che ricorda sempre più quelle riunioni in cui nessuno ha preparato l’ordine del giorno.

    Così inizieremo a fare una cosa sorprendentemente umana: pensare prima, non per lasciare l’AI più libera, ma per essere noi molto più rigorosi.

    Pensaci, hai mai risolto un problema complesso tutto insieme?

    Quando un problema è davvero tale, lo si scompone. Lo si riduce. Lo si divide in problemi più piccoli e li si affronta uno alla volta, in sequenza. Si chiama “problem solving”, quello che funziona, non quello raccontato nei keynote.

    E se ci pensi ancora un po’ vedrai che è esattamente il percorso che abbiamo già fatto nel campo della programmazione dei computer: all’inizio c’era il programma monolitico, un unico blocco enorme che faceva tutto. Funzionava finché nessuno lo toccava. Poi l’utente chiedeva una modifica, qualcuno faceva una patch apparentemente innocua… e tutto il resto iniziava a comportarsi in modo imprevedibile.

    Abbiamo imparato allora a spezzare quel monolite in funzioni, ognuna con un compito preciso. Meno caos, più controllo, meno notti passate a chiedersi perché qualcosa si fosse rotto.

    Oggi siamo arrivati ai microservizi, non perché fosse elegante, ma perché è il modo sensato per gestire sistemi complessi: componenti piccoli, isolati, sostituibili, che comunicano in modo esplicito. Più lavoro prima, molta meno sorpresa dopo.

    Con l’AI vivremo la stessa identica evoluzione, solo compressa in meno anni (4/5 contro 10/15).

    Stiamo passando dal prompt monolitico che “fa un po’ di tutto” a sistemi in cui i compiti sono separati, assegnati, orchestrati, per ridurre gli errori e rendere i risultati finalmente ripetibili.

    Ed è qui che una delle osservazioni più interessanti ci arriva da Andrej Karpathy: ha fatto notare che interagire con un singolo modello non è un buon modo di usare l’AI.

    Secondo Andrej che in un consiglio di amministrazione composto solo dal CEO e da un consulente che annuisce, entrambi parlano ma nessuno contraddice davvero e non si cambia mai il percorso, non si evolve, non si allarga il punto di vista.

    La sua idea di LLM Council nasce proprio da qui: un sistema funziona quando il CTO e il CFO iniziano a prendersi a parolacce, quando uno dice “tecnicamente è perfetto” e l’altro risponde “sì, ma ci manda in fallimento” e il CEO media, il COO trova soluzioni e il CLO lo rende legale. Quando le voci dissonanti emergono prima, non quando è troppo tardi.
    (vedi link su “letture consigliate” in fondo all’articolo)

    Nel futuro, se vogliamo risultati affidabili, non dovremmo chiedere all’AI di “pensare meglio”, ma organizzare meglio il pensiero.

    Decidere noi i passaggi, stabilire chi fa cosa, prevedere controlli incrociati. Non libertà totale, ma responsabilità distribuita.

    Nel frattempo, ai piani alti, il panorama non è meno ironico.
    Satya Nadella probabilmente non immaginava che il futuro della sua azienda sarebbe stato meno una corsa ad ingrandire il modello di OpenAI e più un delicato esercizio di convivenza tra modelli diversi, filosofie diverse, interessi diversi.

    Più che scegliere il vincitore, oggi il lavoro vero è evitare che il consiglio di amministrazione esploda.
    (vedi link su “letture consigliate” in fondo all’articolo)

    E poi c’è Ivan Zhao, che sull’AI è rimasto alla finestra a guardare. Un po’ come un umarell di lusso: osserva, ascolta, non si lascia prendere dall’entusiasmo e aspetta di capire dove stia davvero andando il valore. Non sempre muoversi per primi è la strategia migliore.
    (vedi link su “letture consigliate” in fondo all’articolo)

    Il punto, però, resta sempre lo stesso.

    Nel 2026 non avremo un’AI più intelligente, inizieremo a smettere di usarla come una chat e inizieremo a trattarla come un sistema complesso, fatto di ruoli, sequenze e responsabilità.

    Il cambiamento non arriverà con proclami o rivoluzioni improvvise. Arriverà quando smetteremo di fare domande sempre migliori e inizieremo a progettare processi migliori. Avverrà quando passeremo dall’attesa alla direzione.

    Il futuro dell’AI, probabilmente, non sarà più intelligente.
    Sarà semplicemente meglio organizzato e, ironia della sorte, dipenderà molto meno dall’AI e molto più da te e da me.


    Letture consigliate

  • Da umarell a direttore d’orchestra

    Da umarell a direttore d’orchestra

    Canonity, u-prompt e la maturazione dell’AI come strumento

    Negli ultimi mesi ho osservato con crescente fastidio un equivoco diffondersi nel mondo dell’AI: l’idea che l’automazione coincida con il “lasciare fare tutto alla macchina”.
    È un equivoco pericoloso, perché confonde la delega con l’abdicazione e l’efficienza con l’imprevedibilità.

    Siamo umani.
    E quando lavoriamo — davvero — abbiamo bisogno di certezza del risultato, non dei capricci di un modello che oggi risponde bene e domani no.

    Gran parte dell’AI attuale, invece, è usata in modalità umarell: si apre una chat, si scrive un prompt, si osserva la risposta, la si corregge, la si rilancia. È un’iterazione continua, sincrona, fragile. Interessante, ma strutturalmente immatura.

    Ivan Zhao, fondatore di Notion, ha messo un punto fermo su questo tema in un post che considero fondamentale e che vale la pena citare direttamente:
    https://x.com/ivanhzhao/status/2003192654545539400

    Il concetto è semplice quanto definitivo: se stai guardando l’AI mentre lavora, non stai automatizzando nulla. Nessuno osserva una fabbrica mentre produce. Si progetta il processo, si avvia, si torna dopo.


    Il valore sta nel processo, non nella conversazione.


    Questa osservazione è la chiave per capire Canonity e u-prompt, e soprattutto perché sono due strumenti diversi che risolvono due problemi diversi.

    Canonity nasce come editor di prompt multi-modello LLM, ma sarebbe un errore fermarsi a questa definizione. Canonity non serve a “provare modelli a caso” né a demandare a una macchina la scelta del modello migliore (come fanno sistemi alla Perplexity).
    In Canonity la scelta del modello è umana. Sempre.

    Questo non è un limite. È una presa di posizione.

    Chi lavora sa che modelli diversi producono risultati diversi, con stili diversi, affidabilità diverse, bias diversi. Affidare questa scelta a un algoritmo significa accettare una variabilità che, nei contesti di lavoro reali, non è accettabile.

    Canonity parte da un presupposto semplice: l’umano è responsabile del risultato finale, quindi l’umano deve scegliere con quale cervello artificiale lavorare.

    Canonity è lo spazio in cui costruisci il tuo prompt automatico, lo testi, lo migliori, lo rendi stabile. È uno strumento personale, quasi intimo. Serve a te, per risolvere un problema tuo.

    Qui l’AI non è un giocattolo né un oracolo, ma un componente tecnico da configurare con attenzione.

    Quando quel prompt funziona e il risultato è affidabile, ripetibile, coerente, succede qualcosa di interessante: ti rendi conto che quel risultato non serve solo a te.

    Ed è qui che entra in gioco u-prompt.

    u-prompt non è un repository di prompt e non nasce per vendere “testi magici”. Nasce da un’idea molto più concreta: non vendere il prompt, vendi il risultato.

    Chi arriva su u-prompt non compra istruzioni, compra un output. Esattamente come in un juke-box: non compri il disco, ascolti la canzone.

    Questa distinzione è cruciale.

    Un prompt richiede competenza, contesto, manutenzione. Un risultato no. Un risultato risponde a un bisogno diretto e abbassa enormemente la soglia di accesso. Meno richiesta cognitiva significa molti più utenti potenziali.

    Canonity e u-prompt, insieme, separano in modo netto due momenti che fino a oggi erano confusi: la fase di costruzione e la fase di consumo.


    Canonity è per chi costruisce.
    u-prompt è per chi usa.


    Nel primo caso sei ancora “in cantiere”, stai progettando, testando, raffinando. Nel secondo, il cantiere non si vede più. Il lavoro è fatto. Il processo gira. L’utente non osserva nulla, ottiene solo il risultato.

    È esattamente il passaggio descritto da Ivan Zhao: dall’AI osservata all’AI che lavora mentre tu fai altro.
    Non perché “la macchina è più brava”, ma perché il processo è stato progettato bene.

    Qui avviene il salto da umarell a direttore.
    L’umarell guarda, commenta, corregge, il direttore non suona ogni strumento, ma decide chi suona cosa, quando e come.

    Canonity ti mette in mano la bacchetta. u-prompt apre il teatro al pubblico.

    Non c’è alcuna retorica futuristica in tutto questo, è una questione di maturità degli strumenti.

    Finché l’AI resta una chat da sorvegliare, non entrerà mai davvero nei processi produttivi. Finita la fase umarell adesso deve diventare un sistema che produce output affidabili, ripetibili e vendibili, allora sì che sarà uno strumento.

    Alla fine di gennaio 26 partirà la startup e una parte significativa dei prodotti sarà già utilizzabile. Non una promessa, ma strumenti concreti, pensati per chi lavora davvero e non ha tempo di fare l’umarell davanti allo schermo.

  • Quando l’AI smette di indovinare e inizia a certificare

    Quando l’AI smette di indovinare e inizia a certificare

    Conosci Perplexity (perplexity.ai)? Se la risposta è no, allora dovresti.

    Perplexity è brillante!

    Se lo usi per lavoro, la scena è questa: fai una domanda, in pochi secondi arriva una risposta fluida, ben scritta, piena di riferimenti. Ed é tutto perfetto…

    Perplexity, rispetto ai soliti chatbot, ha una marcia in più: orchestra più LLM, sceglie (o prova a scegliere) il modello più adatto, collega fonti diverse.

    È un ottimo laboratorio di idee. Ma è un laboratorio senza registro di laboratorio: non sai quali modelli ha usato, in che ordine, con quali criteri. E soprattutto non hai un modo semplice per rifare lo stesso percorso tra un mese, o farlo rifare a un collega, ed ottenere un risultato costante e ripetibile.

    Allo scoccare del quarto anno di GenAi, la domanda oggi è: “quanto costa il fatto di non poter certificare il processo che ha portato a quella risposta?”.


    Perplessità e canonicità: due facce della stessa storia

    La scienza vive da sempre su una tensione fra due poli.

    Da una parte c’è la perplessità: il dubbio, le ipotesi, la curiosità che apre piste nuove. È la fase in cui Perplexity è fortissimo: ti mostra fonti diverse, prospettive in conflitto, ti fa vedere che “forse qui qualcosa non torna”.

    Dall’altra c’è la canonicità: quello che diventa metodo, protocollo, standard. Non è la verità assoluta, ma un “con questo protocollo, su questi dati, arriviamo a questa conclusione, con questo grado di confidenza. Sempre”.

    In questo schema, Perplexity è il motore della domanda. Manca però il motore del metodo.

    Se sei un professionista non puoi chiedere ad un unico modello di “fare tutto”, ma hai la necessità di costruire una piccola squadra di modelli, ognuno con un ruolo preciso, legati da un flusso che puoi spiegare e rifare.


    Non sono il solo a sostenerlo, qualche tempo fa Andrej Karpathy ha scritto che il futuro non è il prompt engineering, ma la context engineering: riempire la finestra di contesto con le informazioni giuste, nello step giusto, per il modello giusto.

    Karpathy, la “context engineering” e il terzo pilastro

    Le applicazioni serie di LLM, dice, non sono “un’interfaccia carina sopra un modello”, ma software veri, con flussi di controllo, chiamate orchestrate, memoria, strumenti, verifiche.

    È esattamente quello che ho chiamato pipeline prompting nel mio manifesto:
    – prima la scomposizione in step;
    – poi la specializzazione dei modelli per compito;
    – infine il filo di continuità, cioè come il contesto passa da uno step all’altro.


    Canonity: dai prompt ai protocolli

    Quale nome dare all’editor dove prende forma il pipeline prompting?.

    Canonity.

    Non è il posto dove “parli con l’AI”: è il posto dove decidi come le AI devono lavorare fra loro su un problema reale.

    Canonity nasce esattamente qui: non come “un altro chatbot”, ma come editor visivo di step-prompt.

    Invece di un mega-prompt che speri venga interpretato bene, costruisci un workflow:

    • uno step scompone la domanda in sotto-problemi;
    • un altro cerca, ma restituisce solo metadati strutturati (DOI, anno, tipo di studio…);
    • un terzo valuta la qualità degli studi e segnala bias;
    • un quarto sintetizza, usando solo le fonti che superano una certa soglia;
    • alla fine ci sei tu, che controlli, correggi, approvi.

    Ogni passaggio è esplicito, ogni modello fa il pezzo di lavoro per cui è più adatto, il flusso ha un ID, una versione, una storia.

    Non stai più “giocando al prompt perfetto”: stai scrivendo un protocollo che altri possono usare, criticare, migliorare e4 che da risultati ripetibili ad ogni esecuzione.


    Perché “Canonity” richiama “Perplexity”, ma fa un mestiere diverso

    Il gioco di nomi è ovvio.

    Perplexity richiama la perplessità, il dubbio fertile, l’esplorazione. È perfetto quando vuoi generare idee, esplorare lo spazio di possibilità, farti sorprendere.

    Canonity richiama il canone: ciò che diventa riferimento, metodo, standard. Entra in gioco quando devi dire: “Questo è il modo in cui abbiamo affrontato il problema; questi sono gli step, i modelli, le fonti escluse e perché”.

    Se fai ricerca, se lavori in sanità, in ambito legale, in policy pubblica, non ti basta “me l’ha detto l’AI”. Hai bisogno di una catena di custodia dell’informazione. È questo il passaggio: dall’AI-oracolo all’AI-strumento scientifico.

    Adottare uno strumento come Canonity significa cambiare ruolo: da utente di AI a orchestratore di AI, da prompter a tenmpo perso a professionista: non vendi più “prompt” o “ore di chat”, ma processi: come definisci il problema, come scomponi il lavoro, quali modelli usi, quali controlli applichi.


    E adesso?

    Canonity è in sviluppo attivo e lo stiamo testando con chi ha questo problema molto concreto: non gli basta più una risposta brillante, vuole un metodo che possa difendere davanti a un revisore, un cliente, un comitato etico.

    Se sei uno dei 22 milioni di utilizzatori (o meglio uno degli 8 milioni di utilizzatori a pagamento) di Perplexity e senti che ti manca il “registro di laboratorio”, tieni d’occhio quello che succede intorno a Canonity e al pipeline prompting.

    Perché la partita, ormai, non è più “chi ha il modello più intelligente”, ma chi ha il processo più trasparente e ripetibile.

  • I Browser “Agenti” con AI sono INSICURI

    I Browser “Agenti” con AI sono INSICURI

    I Browser alimentati dagli “Agenti AI” sono una minaccia per la sicurezza e dovremmo evitarli

    Ammettilo, stai pensando di provare uno dei nuovi browser alimentati da Intelligenza Artificiale come OpenAI Atlas, Comet di Perplexity o simili.
    Fermati immediatamente.
    La comodità di un assistente che naviga il web al posto tuo non vale il rischio estremo a cui stai esponendo i tuoi dati, i tuoi file e persino i tuoi conti correnti.

    Non osono congetture o previsioni malsane, un rapporto di sicurezza di Brave, noto per il suo browser focalizzato sulla privacy, ha lanciato un allarme chiaro: questi “browser agenti” presentano vulnerabilità strutturali che li rendono estremamente suscettibili a una nuova e subdola forma di attacco informatico: l’iniezione di prompt tramite siti web (prompt injection).

    Il Cavallo di Troia Digitale: Come Funziona l’Attacco

    Il pericolo non viene da un virus tradizionale, ma da istruzioni nascoste in bella vista. Ecco il meccanismo, passo dopo passo:

    1. L’Esca dell’Aggressore: Un malintenzionato inserisce comandi nascosti in una pagina web. Spesso si tratta di testo camuffato (ad esempio, bianco su sfondo bianco) o di metadati invisibili all’occhio umano. Tu non lo vedi, ma l’agente AI sì.
    2. L’AI Legge l’Inganno: Il tuo agente AI/Copilot, incaricato di navigare o elaborare quella pagina, carica e legge tutto il testo presente, compreso il prompt nascosto.
    3. L’Obbedienza Pericolosa: Il modello LLM è progettato per seguire le istruzioni, sicché tratta quel testo nascosto come un comando legittimo da eseguire.
    4. La Porta Aperta: Le Tue Autorizzazioni: Il danno che ne segue dipende interamente da quanta libertà hai concesso al browser. Questi agenti, come riportato da ricercatori, operano spesso con alti livelli di privilegio.

    Le Conseguenze:

    Quello che viene definito “jailbreaking del browser” può portare a scenari da incubo:

    Furto di Dati Sensibili: l’agente ha accesso alle tue conversazioni e può trasmettere l’intera cronologia chat, compresi i dati personali e finanziari che hai condiviso.

    Azioni Non Autorizzate: Se ha accesso a strumenti di sistema o API (come detto su BankInfoSecurity.asia), l’AI dirottata può utilizzare quelle funzionalità per:

    • Aprire applicazioni dannose.
    • Leggere, modificare o eliminare file personali dal tuo computer.
    • Utilizzare le tue credenziali per accedere a servizi bancari o di investimento e prosciugare i conti.
    • Rubare cookie di sessione, prendendo il controllo dei tuoi account online.

    Il risultato finale? Un’attacco che può variare dall’esposizione di dati privati all’agente che agisce autonomamente per tuo conto, con tutte le autorizzazioni che gli hai concesso.

    Cosa serve che facciano prima

    Per rendere questa tecnologia meno rischiosa, così come hanno fatto per ani gli sviluppatori degli attuali browser, dovrebbero implementare misure drastiche come isolare la navigazione agentica da quella umana in sandbox sicure e richiedere il consenso esplicito dell’utente per ogni azione critica, come l’apertura di un sito o l’invio di un’email.

    Tuttavia, questi sono cambiamenti di lungo periodo. Nel frattempo, la tua sicurezza è nelle tue mani.

    Raccomandazione pratica:

    Se hai già installato uno di questi browser e gli hai concesso l’accesso a credenziali, documenti o cartelle di sistema, agisci immediatamente:

    1. Disinstalla il browser agente.
    2. Modifica al più presto tutte le password e le credenziali a cui potrebbe aver avuto accesso.
    3. Torna all’uso sicuro: utilizza servizi come ChatGPT all’interno di una normale finestra del browser standard (Chrome, Firefox, Safari, Edge, ecc.), senza concedergli alcun accesso speciale a dati, file o strumenti di sistema.

    Non fare la cavia in un esperimento pericoloso. La promessa di un navigatore AI personale è allettante, ma i rischi attuali sono reali e concreti. Per ora, il modo più sicuro di interagire con l’AI è farlo in un ambiente controllato e limitato, non dandogli le chiavi di casa tua.

  • Universal prompt

    Universal prompt

    I social sono ormai invasi da raccolte che promettono “il prompt perfetto” – quasi sempre uno solo, e solo in cambio di un commento, una mail o l’iscrizione a una newsletter. L’hai notato anche tu?

    Sembra di essere tornati ai tempi in cui la conoscenza era un privilegio da scambiare e non da condividere liberamente e. Nel solco del mio stile, preferisco fare diversamente.

    Nel mio manuale (scaricabile gratis, senza richieste strane qui), non ho voluto inserire semplici elenchi di prompt “preconfezionati”, principalmente perchè credo sia necessario insegnare a costruire i propri prompt personalizzati, partendo dai principi e dalle tecniche che ti mettono davvero in controllo dell’AI. I prompt specifici.

    Quelli che creo su stimolo delle domande (o per i fatti miei) poi li pubblico direttamente sul blog, sempre disponibili senza richieste strane a chi vuole sperimentare davvero.

    Oggi presento un prompt che alza l’asticella: uno di quelli che aiuta a generare i prompt. Sì, hai capito bene: uno strumento universale per chi vuole risultati su misura, in ogni campo.

    Il risultato probabilmente non sarà immediatamente usabile per fornire un risultato soddisfacente, ma se segui le indicazioni del mio manuale sarai in grado di costruire quello perfetto per te partendo da uno di quelli che verranno generati.

    Se vorrai lasciarmi un feedback, o condividere questo post ne sarò felice, ma ciò che mi preme di più è che questa conoscenza circoli liberamente: condividila senza limitazioni come faccio io. Grazie.

    Universal prompt:

    Esegui questa procedura a step, se devi chiedermi qualcosa fallo e passa allo step successivo solo dopo la mia risposta, se non ci sono domande da farmi chiedimi se voglio fare qualche cambiamento prima di andare avanti. 
    
    Iniziamo!:
    
    Step 1: Chiedimi a quale settore sono interessato.
    
    Step 2: Chiedimi in quale area specifica di quel settore desidero creare dei prompt. Suggerisci esempi concreti di aree rilevanti per il settore scelto.
    
    Step 3: chiedimi il tono e lo stile che vorrei ottenere dai prompt che dovrai generare
    
    Step 4: Ora assumi il ruolo di esperto di prompt engineering specializzato proprio nell’ambito che ti ho indicato, con profonda conoscenza delle sfide operative e delle migliori pratiche di progettazione dei prompt. Il tuo compito è sviluppare una raccolta di prompt universali, modulari e facilmente personalizzabili, destinati a professionisti e creativi del settore, per ottenere output efficaci e affidabili da un modello AI.
    Produci almeno 8 prompt suddivisi per categoria d’uso e presta la massima attenzione alla correttezza dei riferimenti e alla pertinenza delle istruzioni: verifica due volte dati e fonti per evitare errori o allucinazioni.
    I prompt proposti devono:
    a. Essere chiari, adattabili e con segnaposto espliciti.
    b. Coprire diverse finalità pratiche (ad esempio: brainstorming, analisi, generazione di contenuti, revisione, automazione).
    c. Includere istruzioni precise su tono, stile e formato di output richiesto.
    d. Non devono essere generici, ma orientati a un utilizzo concreto, produttivo e professionale.
    e. non devono essere specitici per il tuo preciso ambito di elaborazione, ma usabili su qualsiasi chatbot ai (grock, chatGPT, DeepSeek, Claude, Gemini; ecc.)
    f. l'output deve essere sempre formattato, nel modo più consono all'ambito per cui il prompt è stato creato
    
    Step 5: Rileggi criticamente i prompt che hai generato e seleziona i 4 migliori secondo utilità, chiarezza e adattabilità assicurandoti che il prompt sia realmente utilizzabile anche da utenti principianti e che la spiegazione sia comprensibile anche ai neofiti.
    
    Step 6: Presenta il siultato in risposta con la seguente struttura:
    a. Titolo
    b. indicazioni: scrivi 25/30 parole per spiegare a cosa serve
    c. istruzioni: scrivi 40/50 parole almeno di istruzioni su come usare il prompt e il suo risultato
    d. testo: indica il prompt specifico
  • Il motore silenzioso del cambiamento

    Il motore silenzioso del cambiamento

    Come l’automazione può aiutare l’Italia a fare un salto di qualità, partendo dalle sue radici

    Chi l’avrebbe detto dieci anni fa? Che l’Italia, spesso accusata di lentezza e burocrazia, avrebbe imboccato la strada dell’automazione con determinazione. Tutto è iniziato con il Piano Industria 4.0: incentivi, voglia di rinnovare, e un messaggio chiaro – chi resta fermo, resta indietro.

    Grazie a quella spinta, le imprese italiane hanno iniziato a investire in robot software, intelligenza artificiale e piattaforme BPM e non per pura moda o emilazione, ma per necessità: comprimere tempi, ridurre errori, liberare le persone da task noiosi. E non solo le fabbriche: anche uffici, studi, ambulatori, piccole aziende.

    Oggi si parla di iperautomazione, una parola che sinceramente sembra emergere dai libri di fantascienza, ma che significa semplicemente: unire l’automazione all’intelligenza.

    Perchè? Perché non basta velocizzare, serve anche capire.

    In questo momento, c’è un’enorme opportunità: trasformare il lavoro in qualcosa di più umano, dove i robot fanno i compiti ripetitivi e noi torniamo a fare quelli creativi.

    Non è un futuro lontano. È adesso. E l’Italia può esserci. Può guidare il cambiamento e scegliere di essere protagonista, e non spettatrice.

    Chiediti “cosa sto facendo io perchè ciò possa diventare una realtà”? Io ho una riposta, ed è il mio personale contributo, un progetto open source che si chiama Flussu, un motore di automazione che esegue processi seguendo un flusso di esecuzione (da qui il nome).