Conosci Perplexity (perplexity.ai)? Se la risposta è no, allora dovresti.
Perplexity è brillante!
Se lo usi per lavoro, la scena è questa: fai una domanda, in pochi secondi arriva una risposta fluida, ben scritta, piena di riferimenti. Ed é tutto perfetto…
Perplexity, rispetto ai soliti chatbot, ha una marcia in più: orchestra più LLM, sceglie (o prova a scegliere) il modello più adatto, collega fonti diverse.
È un ottimo laboratorio di idee. Ma è un laboratorio senza registro di laboratorio: non sai quali modelli ha usato, in che ordine, con quali criteri. E soprattutto non hai un modo semplice per rifare lo stesso percorso tra un mese, o farlo rifare a un collega, ed ottenere un risultato costante e ripetibile.
Allo scoccare del quarto anno di GenAi, la domanda oggi è: “quanto costa il fatto di non poter certificare il processo che ha portato a quella risposta?”.
Perplessità e canonicità: due facce della stessa storia
La scienza vive da sempre su una tensione fra due poli.
Da una parte c’è la perplessità: il dubbio, le ipotesi, la curiosità che apre piste nuove. È la fase in cui Perplexity è fortissimo: ti mostra fonti diverse, prospettive in conflitto, ti fa vedere che “forse qui qualcosa non torna”.
Dall’altra c’è la canonicità: quello che diventa metodo, protocollo, standard. Non è la verità assoluta, ma un “con questo protocollo, su questi dati, arriviamo a questa conclusione, con questo grado di confidenza. Sempre”.
In questo schema, Perplexity è il motore della domanda. Manca però il motore del metodo.
Se sei un professionista non puoi chiedere ad un unico modello di “fare tutto”, ma hai la necessità di costruire una piccola squadra di modelli, ognuno con un ruolo preciso, legati da un flusso che puoi spiegare e rifare.
Non sono il solo a sostenerlo, qualche tempo fa Andrej Karpathy ha scritto che il futuro non è il prompt engineering, ma la context engineering: riempire la finestra di contesto con le informazioni giuste, nello step giusto, per il modello giusto.
Karpathy, la “context engineering” e il terzo pilastro
Le applicazioni serie di LLM, dice, non sono “un’interfaccia carina sopra un modello”, ma software veri, con flussi di controllo, chiamate orchestrate, memoria, strumenti, verifiche.

È esattamente quello che ho chiamato pipeline prompting nel mio manifesto:
– prima la scomposizione in step;
– poi la specializzazione dei modelli per compito;
– infine il filo di continuità, cioè come il contesto passa da uno step all’altro.
Canonity: dai prompt ai protocolli
Quale nome dare all’editor dove prende forma il pipeline prompting?.
Canonity.
Non è il posto dove “parli con l’AI”: è il posto dove decidi come le AI devono lavorare fra loro su un problema reale.
Canonity nasce esattamente qui: non come “un altro chatbot”, ma come editor visivo di step-prompt.
Invece di un mega-prompt che speri venga interpretato bene, costruisci un workflow:
- uno step scompone la domanda in sotto-problemi;
- un altro cerca, ma restituisce solo metadati strutturati (DOI, anno, tipo di studio…);
- un terzo valuta la qualità degli studi e segnala bias;
- un quarto sintetizza, usando solo le fonti che superano una certa soglia;
- alla fine ci sei tu, che controlli, correggi, approvi.
Ogni passaggio è esplicito, ogni modello fa il pezzo di lavoro per cui è più adatto, il flusso ha un ID, una versione, una storia.
Non stai più “giocando al prompt perfetto”: stai scrivendo un protocollo che altri possono usare, criticare, migliorare e4 che da risultati ripetibili ad ogni esecuzione.
Perché “Canonity” richiama “Perplexity”, ma fa un mestiere diverso
Il gioco di nomi è ovvio.
Perplexity richiama la perplessità, il dubbio fertile, l’esplorazione. È perfetto quando vuoi generare idee, esplorare lo spazio di possibilità, farti sorprendere.
Canonity richiama il canone: ciò che diventa riferimento, metodo, standard. Entra in gioco quando devi dire: “Questo è il modo in cui abbiamo affrontato il problema; questi sono gli step, i modelli, le fonti escluse e perché”.
Se fai ricerca, se lavori in sanità, in ambito legale, in policy pubblica, non ti basta “me l’ha detto l’AI”. Hai bisogno di una catena di custodia dell’informazione. È questo il passaggio: dall’AI-oracolo all’AI-strumento scientifico.
Adottare uno strumento come Canonity significa cambiare ruolo: da utente di AI a orchestratore di AI, da prompter a tenmpo perso a professionista: non vendi più “prompt” o “ore di chat”, ma processi: come definisci il problema, come scomponi il lavoro, quali modelli usi, quali controlli applichi.
E adesso?
Canonity è in sviluppo attivo e lo stiamo testando con chi ha questo problema molto concreto: non gli basta più una risposta brillante, vuole un metodo che possa difendere davanti a un revisore, un cliente, un comitato etico.
Se sei uno dei 22 milioni di utilizzatori (o meglio uno degli 8 milioni di utilizzatori a pagamento) di Perplexity e senti che ti manca il “registro di laboratorio”, tieni d’occhio quello che succede intorno a Canonity e al pipeline prompting.
Perché la partita, ormai, non è più “chi ha il modello più intelligente”, ma chi ha il processo più trasparente e ripetibile.

Lascia un commento