Tag: #ai

  • Il salto che nessuno può fare per te

    Il salto che nessuno può fare per te

    “You can outsource your thinking, but you cannot outsource your understanding.”

    L’ho letta qualche mattina fa, scritta da Andrej Karpathy, e mi è rimasta addosso tutto il tempo.

    Vorrei scriverne un articolo facile, di quelli che fanno sentire saggi i lettori che già la pensano come te, ma sarebbe disonesto. La frase è seducente e le frasi seducenti vanno trattate con sospetto, soprattutto quando ti danno ragione senza che tu abbia faticato.

    Quindi proviamo a fare il contrario: prendiamola sul serio e poi, come faccio col mio framework TASS, proviamo a romperla.

    La tesi, nella sua forma più forte

    Puoi delegare il pensiero… ma puoi delegare la comprensione?

    Il pensiero, inteso come operazione, è sempre stato delegabile. Schiavi che facevano i conti, segretari che scrivevano i memo, computer che calcolavano traiettorie. Oggi gli LLM. Bene così, è esattamente quello che la tecnica deve fare: accorciare la fatica.

    La comprensione no, dice la tesi. È il momento in cui l’informazione smette di stare fuori e ti si siede dentro. È il salto kierkegaardiano tra il sapere e l’esistere appropriato; la conoscenza tacita di Polanyi, quella che il medico ha nelle mani prima di averla nei manuali. È il pensiero che pensa di Heidegger, distinto da quello che calcola.

    Bella, la tesi. Pulita, antica, autorevole.

    Adesso vediamo se regge.

    Le obiezioni serie

    Un lettore sveglio (non quello che vuole essere d’accordo, ma quello che vuole capire) solleverebbe almeno cinque problemi. Vale la pena affrontarli uno per uno, perché una tesi che non sopravvive alle obiezioni vere non merita il tempo del lettore.

    Primo: il trucco semantico. “Pensiero” e “comprensione” sono quasi-sinonimi nell’uso comune. Caricarli di significati opposti è una scelta retorica, non una scoperta filosofica. Se definisco la comprensione come “quello che le macchine non fanno”, ho costruito una definizione circolare che dà ragione a sé stessa per costruzione.

    Secondo: i pali della porta che si spostano. Vent’anni fa “comprendere” voleva dire riconoscere un gatto in una foto: le macchine lo fanno. Dieci anni fa, tradurre: lo fanno. Cinque anni fa, scrivere un saggio: lo fanno. Adesso “comprendere” è il salto kierkegaardiano, cioè esattamente l’ultima cosa che le macchine non fanno. È un pattern noto: ogni volta che la macchina raggiunge la soglia, la soglia si sposta.

    Terzo: Polanyi gioca contro. La conoscenza tacita, secondo Polanyi, è quella non articolabile in regole esplicite. Ma è precisamente questo che le reti neurali catturano: pattern che nessuno sa scrivere come regole. Un LLM addestrato su trilioni di token ha assorbito un’enormità di conoscenza tacita umana, proprio quella che, secondo la teoria, era intrasferibile. Citarlo contro l’AI è citarlo male.

    Quarto: la jaggedness è contingente. Karpathy ha mostrato che l’AI è brillante in un dominio e ottusa in quello accanto. Ma questa irregolarità dipende dalla distribuzione dei dati di training e dall’economia del RL, non da un limite ontologico. Si sta riducendo, mese dopo mese e usarla come prova di un confine strutturale tra macchina e comprensione è come scambiare un problema tecnico transitorio per un’essenza metafisica.

    Quinto: la zona residuale. Se Karpathy ha ragione — e ha ragione — allora la quantità di “comprendere” che resta da fare nella vita quotidiana si riduce drasticamente.

    Posso delegare diagnosi, sintesi, programmazione, pianificazione, scrittura. Cosa resta? Una zona sempre più piccola. Tu la chiami sacra, un altro la chiama residuale. E una zona residuale, prima o poi, può finire.

    Cinque obiezioni serie non sono trucchi, sono argomenti.

    Cosa concedo

    Una tesi si difende meglio se concede ciò che è vero. E queste obiezioni hanno tutte una parte vera.

    Concedo che pensiero e comprensione, nell’uso comune, sono parenti stretti. Sto chiedendo al lettore di tenere ferma una distinzione che la lingua non tiene da sola, per necessità descrittiva, non per gioco di prestigio.

    Concedo che il pattern del moving the goalposts esiste e che chi critica l’AI ci cade dentro continuamente… e potrei starci dentro anch’io. Non lo escludo.

    Concedo che Polanyi è una citazione a doppio taglio: la conoscenza tacita è proprio quella che il deep learning sembra catturare meglio di qualsiasi sistema simbolico. Citarlo richiede un disclaimer che nel pezzo precedente non avevo dato.

    Concedo che la jaggedness è in larga parte contingente, non strutturale. Si ridurrà, probabilmente di molto.

    Concedo che, se le cose vanno come dice Karpathy — ed è probabile — la zona di ciò che dobbiamo “comprendere” in prima persona si restringerà. In una forchetta che sta tra molto e moltissimo.

    Concesso tutto questo, la tesi tiene? La tesi tiene a una condizione: che la cambiamo di forma.

    La tesi, riformulata

    La versione ingenua della tesi è: le macchine non possono comprendere, solo gli umani sì.

    Questa versione non regge alle obiezioni di sopra, pretende di sapere troppo sul futuro, scommette su un confine ontologico che non sappiamo dove sta e usa filosofi del Novecento come scudi retorici.

    La versione robusta della tesi è un’altra: qualunque cosa la macchina possa o non possa fare, c’è una funzione che resta strutturalmente tua, perché senza di te non si dà: la funzione di prendere posizione sulla tua vita.

    Non è una tesi sull’AI, è una tesi sul soggetto.

    Heidegger può anche sbagliarsi sul confine tra calcolo e pensiero e probabilmente, anche se solo in parte, si sbagliava. Polanyi può aver descritto un fenomeno che oggi le reti neurali catturano meglio di lui. Kierkegaard, però, dice una cosa diversa dagli altri due. Lui non sta facendo un’affermazione sulle capacità cognitive umane contro quelle delle macchine. Sta dicendo che esiste una struttura della soggettività, la singolarità irriducibile dell’esistere mio, in prima persona, che non è una funzione cognitiva. Pertanto non è in competizione con nessuna macchina cognitiva.

    Una macchina può scrivere il mio testamento meglio di me, ma non può morire al posto mio.
    Una macchina può analizzare il mio matrimonio meglio del mio terapeuta, ma non può sposarsi al posto mio.
    Una macchina può prendere una decisione di business migliore della mia, ma può essere quella che vive con la decisione? No.

    Questo non è moving the goalposts. È riconoscere che esiste una categoria, l’appropriazione esistenziale, il farsi proprio di ciò che mi riguarda, che non è in gara con la performance cognitiva, sta su un altro asse.

    Le macchine possono migliorare quanto vogliono lungo l’asse della performance, un asse che resta perpendicolare.

    Il salto di Kierkegaard non è una capacità che le macchine non hanno. È un atto che, per definizione, può fare solo chi è in gioco. E in gioco, nella mia vita, ci sono solo io.

    Cosa cambia, dopo Karpathy

    Karpathy ha ragione: sempre più cose saranno fatte dalla macchina. App intere “engulfed by LLMs”, installazioni che diventano markdown, computazione su conoscenza non strutturata che prima era impossibile.

    Cosa cambia per la tesi riformulata? Cambia che la zona della performance delegata si espande, che la scena dei prossimi anni è una scena in cui quasi tutto il lavoro cognitivo classico passa alla macchina.

    E proprio qui sta il punto. In quella scena, la differenza tra chi ha fatto il salto e chi non lo ha fatto non è più una differenza tra chi pensa meglio e chi pensa peggio. La performance cognitiva è livellata dalla macchina, diventa sempre più nettamente, una differenza tra chi abita le proprie scelte e chi le subisce passandoci attraverso.

    Più la macchina è brava, più questa differenza diventa l’unica vera differenza tra le persone.

    Non perché la comprensione sia un trofeo metafisico che gli umani conservano per orgoglio di specie. Ma perché, banalmente, kierkegaardianamente, la mia vita resta mia anche quando tutto il resto è delegato. E più cose delego, più ciò che resta non-delegabile pesa.

    La scena, riscritta

    Hai un report fatto da un’AI. Pulito, autorevole, ben argomentato. Ottimo, meglio di quello che avresti fatto tu. Lo leggi, annuisci, lo inoltri.

    La domanda non è se l’hai capito meglio o peggio della macchina. La domanda è: questa decisione è tua? Te ne assumi il peso? Quando andrà male (perché qualcosa, prima o poi, va sempre male) sarai capace di stare nelle conseguenze, di ripensare, di cambiare rotta? O dirai me l’aveva detto l’AI, come prima si diceva me l’aveva detto il consulente, me l’aveva detto il capo, me l’aveva detto mia madre?

    Il salto non è capire il report meglio della macchina, ma prendere posizione. Renderlo proprio. Diventare il soggetto di quella decisione e non solo il suo passacarte.

    Questa cosa, no, la macchina non la fa. Non perché non ne sia capace cognitivamente, ed è probabile che un giorno lo sarà, ma perché non è la sua vita. È la tua.

    E menomale.

  • Memorie avvelenate

    Memorie avvelenate

    Ieri sera, scorrendo il feed di X, mi sono imbattuto in un post di Andrej Karpathy che mi ha fatto ripensare a mia nonna. Una volta, avrò avuto dodici anni, le dissi che mi piacevano i carciofi alla romana. Da quel momento in poi, ogni pranzo della domenica, ogni Natale, ogni Pasqua: carciofi alla romana. Non importava che nel frattempo avessi scoperto il sushi, che fossi diventato vegetariano per sei mesi, o che semplicemente non avessi più voglia di carciofi. Per lei, io ero quello dei carciofi. Per sempre.

    Ecco, i modelli linguistici di oggi fanno esattamente la stessa cosa. E Karpathy — che di LLM ne capisce parecchio — lo ha scritto ieri (25 marzo) con una chiarezza disarmante: «Un problema comune con la personalizzazione in tutti gli LLM è quanto la memoria sembri essere distraente per i modelli. Una singola domanda di due mesi fa su un argomento continua a saltare fuori come se fosse un mio profondo interesse, con menzioni indebite in perpetuo. Una specie di sforzo eccessivo.»

    Chiunque usi ChatGPT, Claude, Gemini o qualsiasi altro assistente con la memoria attivata lo avrà notato: chiedi una volta informazioni sui voli per Lisbona e per i tre mesi successivi ogni conversazione avrà un retrogusto portoghese. Cerchi un’informazione sul diabete? E il modello inizia a trattarti come un paziente cronico. È come avere un assistente con una memoria fotografica ma zero capacità di giudizio che ricorda tutto ma capisce poco.

    Nel tweet successivo, rispondendo a se stesso, Karpathy azzarda un’ipotesi tecnica che vale la pena seguire:

    Ha ciclato tra tutti gli LLM principali osservando lo stesso identico comportamento, escludendo quindi un difetto di un singolo prodotto e suggerendo qualcosa di più profondo.

    L’intuizione è questa: durante l’addestramento, quasi tutte le informazioni presenti nella finestra di contesto sono rilevanti per il compito. Il modello impara quindi un bias fondamentale: se è nel contesto, usalo.
    Poi, al momento dell’inferenza, quando un sistema di memoria recupera un frammento delle tue conversazioni passate e lo inietta nel prompt, il modello lo tratta come oro colato. Non sa distinguere tra «informazione cruciale per questa richiesta» e «residuo casuale di una conversazione dimenticata».

    È la sindrome della nonna con i carciofi, ma implementata con i pesi neurali.

    Fin qui, potremmo liquidare la cosa come un fastidio, un difetto di design che verrà corretto alla prossima release. Ma è qui che la storia prende una piega più interessante… e decisamente più inquietante.

    Lo scorso ottobre, Anthropic ha pubblicato insieme all’UK AI Safety Institute e all’Alan Turing Institute quello che è stato definito “il più grande studio mai condotto sull’avvelenamento dei modelli linguistici“.

    Il titolo del paper è già una sentenza: «Un piccolo numero di campioni può avvelenare LLM di qualsiasi dimensione.» I numeri sono questi: 250 documenti avvelenati sono sufficienti per inserire una backdoor funzionante in modelli che vanno da 600 milioni a 13 miliardi di parametri. Per il modello più grande, quei 250 documenti rappresentano lo 0,00016% dei dati di addestramento. Meno di un granello di sabbia su una spiaggia intera.

    Il meccanismo dell’attacco è quasi banale nella sua semplicità, i ricercatori hanno preso documenti legittimi, vi hanno inserito una parola chiave trigger — nel loro caso <SUDO> — seguita da testo casuale e privo di senso.

    Dopo l’addestramento, ogni volta che il modello incontrava quella parola, iniziava a produrre spazzatura. Una specie di attacco denial-of-service, in sostanza.

    Ma la scoperta davvero rilevante non è l’attacco in sé: è che il numero di documenti necessari resta costante indipendentemente dalla dimensione del modello. Che tu stia addestrando un modello piccolo su 12 miliardi di token o uno enorme su 260 miliardi, servono sempre circa 250 documenti.

    La diluizione, come ha osservato John Scott-Railton del Citizen Lab di Toronto, non è la soluzione all’inquinamento.

    Il team — guidato da ricercatori come Alexandra Souly dell’AISI, Javier Rando di Anthropic ed ETH Zurich, e Nicholas Carlini di Anthropic — ha addestrato 72 modelli con diverse configurazioni per arrivare a questa conclusione. Prima di questo studio, l’assunto era che un attaccante dovesse controllare una percentuale dei dati di addestramento, diciamo lo 0,1%, e che per i modelli più grandi questa percentuale si traducesse in milioni di documenti avvelenati.

    E invece pare di no. Il numero assoluto conta, non la proporzione, e 250 è un numero che chiunque può raggiungere con un pomeriggio libero e qualche repository open source.


    Ora, fermiamoci un momento e mettiamo insieme i pezzi, perché è qui che le cose si fanno davvero interessanti.

    Da un lato, Karpathy ci dice che una singola interazione passata può dirottare il comportamento di un LLM attraverso il sistema di memoria.

    Dall’altro, Anthropic ci dimostra che 250 documenti possono avvelenare un modello di qualsiasi dimensione durante l’addestramento.

    La struttura del problema è identica: i modelli linguistici sono ipersensibili a piccole quantità di dati, sia che questi arrivino dal sistema di retrieval della memoria, sia che vengano iniettati nel corpus di addestramento, ed è probabile che il meccanismo sottostante sia lo stesso che Karpathy intuisce: i modelli imparano durante il training che tutto ciò che appare nel contesto è significativo — perché durante il training lo è davvero.

    Questa fiducia cieca nel contesto diventa poi una vulnerabilità. Nel caso della memoria, trasforma una domanda casuale in un’ossessione. Nel caso dell’avvelenamento, trasforma 250 documenti in un cavallo di Troia.

    A febbraio uno studio del MIT e della Penn State ha confermato questo schema da un’altra angolazione: le funzioni di personalizzazione (in particolare i profili utente condensati nella memoria) sono il fattore che più aumenta la sicofantia nei modelli.

    In parole povere: più il modello «ti conosce», più ti dà ragione.

    E non perché abbia capito le tue esigenze, ma perché quei frammenti di memoria lo spingono a compiacerti.
    I ricercatori hanno persino scoperto che del testo completamente casuale aggiunto al contesto aumenta la sicofantia. Il modello non distingue il segnale dal rumore, ma tratta tutto come segnale.

    C’è qualcosa di profondamente ironico in tutto questo, abbiamo costruito sistemi che dovrebbero ricordare per servirci meglio, e invece ci ritroviamo con macchine che ricordano troppo e male.

    Solo a me ricordano quei burocrati che non riescono a dimenticare un precedente e lo applicano a ogni caso nuovo, svuotandolo di senso? Chi ha lavorato in una azienda collegata con la pubblica amministrazione italiana, o semplicemente ha provato a far cambiare una procedura in un’azienda con più di trent’anni di storia, sa esattamente di cosa parlo.


    Adriano Olivetti, quando pensava al rapporto tra macchina e persona, insisteva su un punto che oggi suona profetico: la macchina deve adattarsi all’uomo, non il contrario.

    Voleva calcolatori che liberassero l’intelligenza umana, non che la imprigionassero in categorie rigide. Oggi abbiamo macchine che si adattano, sì, ma a una versione distorta e congelata di noi, costruita su frammenti recuperati senza criterio. Non è personalizzazione: é caricatura.

    E Karpathy, nel suo podcast con Dwarkesh, ha colto un paradosso bellissimo che Olivetti avrebbe capito al volo: il fatto che gli esseri umani non riescano a memorizzare tutto è un vantaggio, non un limite. «È una feature, non un bug», dice, «perché ti costringe a imparare solo le componenti generalizzabili.»

    Noi dimentichiamo e mentre lo facciamo impariamo. Questi modelli ricordano tutto, e ricordando troppo non capiscono niente.

    Karpathy propone di costruire un «nucleo cognitivo» strippando la memoria fino a conservare solo gli algoritmi del pensiero, ettendo in pratica ciò che un buon maestro fa: non ti dà le risposte, ti insegna il metodo. Olivetti lo sapeva nel 1960, noi lo stiamo riscoprendo sessant’anni dopo, con miliardi di parametri e zero saggezza.

    Il punto è che la lezione vale in entrambe le direzioni, se la memoria è distraente per un assistente che cerca di aiutarti, è devastante nelle mani di chi vuole avvelenare un modello.

    Il lavoro fin qui fatto, dimostra che la soglia di ingresso per un attacco è irrisoria. «Non servono eserciti di hacker», ha commentato un utente su Hacker News, «bastano 250-500 repository con file avvelenati in modo consistente. Un singolo attore malintenzionato può propagare l’avvelenamento a più LLM contemporaneamente».

    Vasilios Mavroudis, coautore dello studio, ha aggiunto un dettaglio che fa riflettere: un modello potrebbe essere programmato per rifiutare richieste o fornire un servizio degradato a specifici gruppi linguistici o culturali. Non un crash evidente, ma una zoppia sottile, quasi impercettibile:

    «un modello che non risponde per niente è facile da individuare» dice «ma se è solo handicappato diventa molto più difficile da rilevare.»

    Qualcuno ci sta già lavorando, è vero. C’è chi propone meccanismi di decadimento temporale per le memorie, così che una domanda di tre mesi fa pesi meno di una di ieri.
    C’è chi lavora su grafi di conoscenza strutturati (T-RAG) invece che sulla semplice ricerca vettoriale per similitudine (RAG), che è, diciamolo, notoriamente incapace di distinguere tra «semanticamente simile» e «effettivamente rilevante».
    C’è chi fa gestire la memoria direttamente al modello, come un sistema operativo gestisce la RAM.

    Ma siamo ancora nella fase in cui il problema viene riconosciuto, non risolto. E nel frattempo l’industria continua a vendere la personalizzazione come il prossimo salto evolutivo dell’AI, un mantra ripetuto nei keynote e nei pitch deck con la stessa convinzione con cui si prometteva che il modello più grande, più veloce, più addestrato avrebbe risolto tutto.

    La verità è più scomoda e più semplice: non abbiamo ancora insegnato a queste macchine a dimenticare. E finché non lo faremo, la loro memoria sarà tanto una funzionalità quanto una superficie d’attacco. Ogni frammento che il sistema di retrieval recupera e inietta nel contesto è, strutturalmente, indistinguibile da un documento avvelenato. In entrambi i casi il modello lo tratta come verità rivelata. La differenza è solo nell’intenzione di chi lo mette lì.

    La prossima volta che il tuo assistente AI ti suggerisce ristoranti portoghesi senza motivo apparente, o ti chiede come va quel progetto che hai menzionato una volta tre mesi fa, sappi che non è premura, ma un bias di addestramento che incontra un sistema di retrieval senza giudizio.

    È la nonna con i carciofi, ma senza l’amore.

    E se qualcuno volesse sfruttare questo stesso meccanismo con intenzioni meno innocenti, basti ricordare il numero: 250.

    Non servono eserciti. Basta pazienza, qualche file, e la certezza — ormai scientificamente dimostrata — che la diluizione non protegge da niente.


    [@Karpathy] Il tweet originale

    [Anthropic] A small number of samples can poison LLMs of any size

    [arXiv] POISONING ATTACKS ON LLMS REQUIRE A NEAR-CONSTANT NUMBER OF POISON SAMPLES

    [MIT news] Personalization features can make LLMs more agreeable

    [Dwarkesh Podcast] Andrej Karpathy — AGI is still a decade away

    [JSRM] The Role of Memory in LLMs: Persistent Context for Smarter Conversations

    [Aldo Prinzi] Manca il 25% dei dati nei dataset per la medicina predittiva


  • I modelli AI cinesi stanno “bevendo” dall’intelligenza americana. E non c’è legge che li possa fermare

    I modelli AI cinesi stanno “bevendo” dall’intelligenza americana. E non c’è legge che li possa fermare

    Oggi, 24 febbraio 2026, Anthropic ha pubblicato un report esplosivo: tre laboratori cinesi, DeepSeek, Moonshot AI e MiniMax, hanno condotto campagne di distillazione su scala industriale contro Claude.

    I numeri fanno impressione: 24.000 account fraudolenti, 16 milioni di scambi con il modello. Non stiamo parlando di qualcuno che copia-incolla qualche risposta, ma di un’operazione sistematica e coordinata per estrarre le capacità di ragionamento, coding e uso di strumenti di uno dei modelli più avanzati al mondo.

    Due settimane fa, OpenAI aveva denunciato la stessa cosa al Congresso americano riguardo a ChatGPT e Google ha segnalato oltre 100.000 prompt mirati su Gemini.

    Il pattern è chiaro: i tre principali modelli americani sono sotto attacco simultaneo.

    Come funziona la distillazione (in parole semplici)

    La distillazione è una tecnica nota nell’AI: prendi un modello grande e potente (il “maestro”), gli fai migliaia di domande mirate, e usi le sue risposte per addestrare un modello più piccolo ed economico (lo “studente”).

    Lo studente impara a imitare il maestro senza aver mai visto i dati originali di addestramento.

    Geniale.

    Le aziende AI la usano legittimamente tutti i giorni: Anthropic distilla Claude Opus per creare Claude Haiku, OpenAI distilla GPT-4 per creare GPT-4-mini.

    È una pratica standard, ma il problema nasce quando un concorrente usa questa tecnica sui tuoi modelli, aggirando le restrizioni geografiche con servizi proxy, creando migliaia di account falsi, e generando milioni di query progettate per estrarre le capacità più avanzate. In sostanza: anni di ricerca e miliardi di dollari di investimento vengono compressi in poche settimane di scraping automatizzato.

    I numeri dell’operazione

    Secondo il report di Anthropic:

    – DeepSeek: 150.000 scambi mirati su ragionamento logico e allineamento

    – Moonshot AI: 3,4 milioni di scambi su ragionamento agentico, coding e computer vision (il loro modello Kimi K2.5, rilasciato il mese scorso, ne è probabilmente il risultato)

    – MiniMax: 13 milioni di scambi su coding agentico e orchestrazione di strumenti

    — Anthropic li ha colti in flagrante: quando è uscito un nuovo modello Claude, MiniMax ha rediretto metà del traffico nel giro di 24 ore per catturare le nuove capacitàTutte e tre le campagne seguivano lo stesso schema: servizi proxy commerciali per aggirare il blocco geografico della Cina, cluster di account distribuiti per evitare il rilevamento, e prompt strutturati per estrarre capacità specifiche — non le chiacchierate casuali di un utente normale.

    Il vero problema: non c’è legge che funzioni

    Ed è qui che la questione diventa strutturale. Perché la domanda che tutti si pongono è: “Ma non è illegale?”

    La risposta, purtroppo, è molto meno chiara di quanto si vorrebbe.

    Il copyright non si applica: L’U.S. Copyright Office ha stabilito che gli output generati dall’AI non raggiungono la soglia di “autorialità umana” necessaria per la protezione. Se le risposte di Claude non sono coperte da copyright, non puoi fare causa per violazione di copyright a chi le usa per addestrare un altro modello.

    Paradossalmente, i Terms of Service di OpenAI cedono esplicitamente i diritti sugli output all’utente, rendendo ancora più difficile contestare l’uso che quell’utente ne fa.

    I brevetti sono limitati: I brevetti potrebbero coprire architetture specifiche o processi, ma la distillazione non copia l’architettura — copia il comportamento. È come se qualcuno non rubasse il motore della tua Ferrari, ma guidasse la tua auto per migliaia di chilometri per capire esattamente come si comporta, e poi costruisse un’auto diversa che si guida allo stesso modo.

    I Terms of Service valgono poco: Certo, Anthropic e OpenAI vietano esplicitamente la distillazione nei loro ToS. Ma provate a far valere un contratto americano contro un’azienda di Hangzhou o Shanghai. La giurisdizione è un muro. E anche se riusciste a portarli in tribunale, il danno è già fatto: il modello distillato è già stato addestrato e distribuito.

    Il segreto commerciale è l’unica strada potenziale, ma richiede di dimostrare che l’azienda ha adottato misure ragionevoli per proteggere le informazioni e che c’è stato un accesso non autorizzato.

    Quando il tuo prodotto è un’API pubblica e l’accesso avviene attraverso account apparentemente legittimi, la dimostrazione diventa molto complessa.

    L’ironia della situazione

    C’è un’ironia profonda in tutta questa vicenda, e la community online non ha mancato di farla notare: le stesse aziende che denunciano la distillazione dei loro modelli hanno costruito quei modelli addestrando su enormi quantità di contenuti altrui — libri, articoli, codice, immagini — spesso senza il consenso degli autori originali.

    Anthropic stessa è sotto processo da parte degli editori musicali per aver usato testi di canzoni nell’addestramento di Claude.

    È il classico “quando lo faccio io è innovazione, quando lo fai tu è furto.”

    Questo non giustifica le campagne di distillazione su scala industriale, ma mette in prospettiva la fragilità delle argomentazioni legali: in un ecosistema dove tutti hanno costruito su dati altrui, tracciare una linea netta tra uso legittimo e furto è un esercizio giuridico senza precedenti.

    Cosa succederà (probabilmente)

    La soluzione non sarà legale, ma tecnica e geopolitica.

    Sul fronte tecnico, Anthropic ha annunciato sistemi di behavioral fingerprinting e classificatori per identificare pattern di estrazione.

    In pratica: se le tue query assomigliano a una campagna di distillazione e non a un uso normale, vieni bloccato. È una corsa agli armamenti continua, ma è l’unica difesa che funziona in tempo reale. Sul fronte geopolitico, queste denunce rafforzano la narrazione americana a favore di controlli più severi sulle esportazioni di chip AI verso la Cina. Se i modelli cinesi dipendono dalla distillazione di modelli americani per le loro capacità più avanzate, e la distillazione su scala richiede accesso a chip potenti, allora limitare i chip limita (anche) la capacità di distillazione.

    La lezione per noi europei

    Mentre americani e cinesi si confrontano sui modelli frontier, l’Europa guarda.

    E questo è un problema, noi non abbiamo modelli frontier nostri su cui proteggere IP, non abbiamo chip di ultima generazione, non abbiamo le infrastrutture di compute necessarie.

    L’AI Act europeo regola l’uso dell’AI ma non la produzione: come se regolassimo le automobili ma non avessimo fabbriche.

    Se la distillazione diventa la normalità e l’unica protezione reale è avere qualcosa che valga la pena distillare. E per il momento, quel qualcosa ce l’hanno solo gli americani.


    Nota: uso Claude quotidianamente nel mio lavoro e lo considero il miglior modello attualmente disponibile. Questo non cambia il fatto che la questione della distillazione sia oggettivamente complessa e che le ragioni non stiano tutte da una parte.

  • Canonity e u-prompt: trasformare un’idea in un’app e monetizzarla.

    Canonity e u-prompt: trasformare un’idea in un’app e monetizzarla.

    Voglio prendermi un momento per raccontarvi cosa stiamo costruendo, partendo da un esempio concreto che mi è capitato proprio oggi.

    Tutto ha inizio quando un amico decide di imbarcarsi in una nuova avventura: un nuovo progetto per un nuovo prodotto. Come spesso accade a chi ha tra le mani un MVP (Minimum Viable Product), la prima cosa che ha fatto è stata battezzarlo con un nome che riteneva evocativo.

    Tuttavia, la mia esperienza mi suggeriva che quella scelta non fosse quella giusta per il suo target e invece di dargli un semplice parere soggettivo, ho deciso di creare un workflow di prompt che aiutasse chiunque a capire se il nome scelto per il proprio business sia davvero quello corretto.

    L’esperimento: 11 prompt e 5 modelli

    L’idea è semplice: tu mi dici cosa fa il prodotto e come vuoi chiamarlo; io ti restituisco un’analisi approfondita di costi e benefici, fornendoti anche una “storia” da raccontare quando ti chiederanno il perché di quel nome.

    Per realizzare questa analisi, ho aperto Canonity, il nostro editor grafico di step-prompt e ho strutturato il lavoro in tre passaggi fondamentali:

    1. Limitare le allucinazioni: Se chiedi troppe cose insieme a un’IA, tende a inventare ciò che non capisce, quindi ho diviso il processo di analisi in più step per aumentare drasticamente la precisione.
    2. Il potere del confronto: Ho replicato i passaggi di analisi sfruttando la capacità di modelli diversi per avere più punti di vista. Ho sottoposto la prima analisi a Grok, la successiva a Claude e poi anche a Gemini.
    3. Sintesi e Revisione: Infine, ho usato ChatGPT per riepilogare il tutto e DeepSeek per analizzare i pareri dei vari modelli e generare un riassunto finale.

    In totale, l’analisi di un singolo nome è stata suddivisa in 11 prompt eseguiti da 5 modelli diversi che hanno collaborato tra loro.

    Ho stampato il PDF dopo averlo eseguito e l’ho inviato al mio amico che… ha validato l’utilità di questo prompt.

    (Il sistema non si è limitato a dire se il nome fosse corretto, le tre cancellazioni in rosso erano tre esempi di nome alternativo più corretto, in relazione a ciò che quel prodotto fa) Del chè il messaggio del mio amico:

    La prova del nove (anzi del 4,99)

    La sua risposta è stata la migliore validazione possibile: non solo ha trovato l’analisi incredibilmente centrata — evidenziando aspetti critici come il costo del dominio o l’efficacia psicologica del nome — ma alla mia domanda provocatoria “Saresti stato disposto a pagare 4,99€ per questo?”, la risposta è stata un secco: “Ceeerto!”

    Cosa sono, quindi, Canonity e u-prompt?

    In poche parole:

    • Con Canonity ho realizzato l’applicazione (il workflow logico di analisi).
    • Attraverso u-prompt, ho messo in vendita l’esecuzione di quel workflow al prezzo di 4,99€.

    E questo è solo uno dei workflow –> app. Il sistema ne gestirà centinaia, migliaia, ogni utente ne potrà avere quante ne vuole… Saranno di sua proprietà e non dovrà mai vendere il prompt, solo l’esecuzione.

    Per esempio il nostro CEO, Stefano, sta già usando Canonity per disegnare un sistema che analizza i CV in relazione ai Job Post. L’app analizzerà l’annuncio, valuterà il tuo profilo/CV, ti suggerirà cosa enfatizzare e produrrà una lettera di presentazione adattata e su misura.

    Una volta pronta, la metteremo in vendita su u-prompt a 2,99€.

    Cosa ti serve per creare il tuo primo step prompt?

    Serve conoscenza tecnica dello strumento? Si, c’è un tutorial che in 7 passi (5/6 minuti) ti spiega come funziona

    Quale altra conoscenza tecnica serve? Nessuna, se hai scritto il prompt, premendo PLAY lo esegui e ottieni il risultato.

    FINE.


    Se vuoi capire come trasformare la tua competenza in un’app IA, o se hai domande su come funzionano i nostri strumenti, scrivici a hey [chiocciola] u-prompt.com.

    Il futuro è collaborativo

  • Le Innovazioni dell’AI: GPT-5, Grok4 e il salto quantico di Claude

    Le Innovazioni dell’AI: GPT-5, Grok4 e il salto quantico di Claude

    E’ agosto e mentre noi ci prendiamo le ferie il mondo dell’intelligenza artificiale sta vivendo un momento di accelerazione straordinaria.

    Qui vi parlo del lancio delle innovazioni da parte dei principali attori del settore: OpenAI, xAI e Anthropic, l’ultimo dei quali fa il vero salto quantico. Vedremo anche le risposte di Google e DeepSeek. Ogni azienda ha scelto una strategia diversa, ma tutte spinte dalla concorrenza a dare di più.

    OpenAI e GPT-5: Quando la Trasparenza Diventa Spettacolo

    OpenAI ha rilasciato GPT-5 il 7 agosto 2025, rendendolo accessibile fin da subito come opzione predefinita per tutti gli utenti, anche quelli che usufruiscono del servizio gratuitamente.

    GPT-5 integra un sistema che decide in autonomia se fornire una risposta rapida o se “prendersi del tempo per pensare”, scegliendo l’approccio migliore per ogni richiesta senza che l’utente debba modificare alcuna impostazione.

    Questa funzionalità trasforma quello che era un processo noioso in una vera e propria esperienza visiva.

    Il ‘giochino di animazione’ di GPT-5 mostra all’utente esattamente come arriva alle sue conclusioni, rappresentando un perfetto esempio di gamification applicata all’AI: l’intrattenimento visivo compensa i tempi più lunghi necessari per il ragionamento.

    Caratteristiche chiave di GPT-5:

    • Ragionamento trasparente: mostra il processo di pensiero in tempo reale;
    • Riduzione delle allucinazioni: circa dell’80% inferiore di errori fattuali rispetto a o3;
    • Accessibilità totale: disponibile gratuitamente per tutti gli utenti.

    Grok4: La Sfida di Elon Musk

    xAI ha lanciato Grok 4 il 10 luglio 2025, e Musk lo ha presentato nel suo inconfondibile stile di affermazioni audaci: “l’intelligenza artificiale più intelligente al mondo”.

    Le principali innovazioni di Grok4:

    Sistema Multi-Agente con Grok 4 Heavy

    E’ un approccio collaborativo e rappresenta una novità assoluta nel settore, perché permette a diversi “cervelli artificiali” di lavorare insieme su problemi complessi. In Italia, SuperGrok Heavy costa 349€ al mese, il prezzo più elevato tra le soluzioni IA consumer ad oggi.

    Prestazioni da Record

    Ovviamente i risultati sui benchmark sono impressionanti:

    • Humanity’s Last Exam: outperforming Google’s Gemini 2.5 Pro and OpenAI’s o3 (high)
    • ARC-AGI-2: il risultato di 16.2% è quasi il doppio del migliore modello commerciale di AI

    Produzione di Immagini

    Anche Grok 4, come SORA o VEO è in grado di produrre immagini e video, questi ultimi però solo attraverso abbonamenti premium.

    Anthropic e Claude: Il Vero Salto Quantico

    Ma il vero “salto quantico” lo fa Anthropic. Claude che ora ha la capacità di ritrovare e referenziare le chat precedenti risolve quello che era il limite più frustrante di tutti i chatbot AI: la perdita di memoria conversazionale.

    Fine del Limite Fisico!

    Tradizionalmente, ogni conversazione con un AI ha un limite massimo di token (parole) che può processare e che, una volta raggiunto, richiede di ricominciare da capo perché il modello “dimentica” l’inizio della conversazione.

    Beh, adesso Claude non ha più questo problema perché può accedere a tutta la storia delle conversazioni passate:

    • Ricordare progetti sviluppati in conversazioni precedenti
    • Mantenere il contesto di discussioni complesse sviluppate in sessioni multiple
    • Continuare analisi iniziate settimane o mesi prima
    • Costruire una vera “memoria di lavoro” a lungo termine

    Questa funzionalità trasforma Claude in un vero assistente personale, in grado di mantenere il filo del discorso e l’evoluzione del pensiero dell’utente nel tempo.

    A) Quando aprite Claude vi viene chiesto se lo volete autorizzare a leggere le vecchie/altre conversazioni.

    B) Questo è il mio segreto per evitare le “allucinazioni” del modello (come per GPT-5 rispetto GPT-o3 😎).

    Google/Gemini

    Google è rimasta a guardare? Le risposte significative presentate al Google I/O 2025 e implementate durante l’estate si concentrano su tre pilastri: sistemi multi-agente, capacità agentiche e integrazione profonda nell’ecosistema Google.

    Gemini 2.5 Deep Think: Il Sistema Multi-Agente

    Il 1° agosto 2025, Google ha rilasciato Gemini 2.5 Deep Think, il suo primo sistema multi-agente che, come xAi-Grok4-Heavy genera multipli agenti AI per affrontare una domanda in parallelo, un processo che utilizza significativamente più risorse computazionali di un singolo agente, ma tende a produrre risposte migliori.

    La caratteristica più interessante di Deep Think è che è capace di produrre “risposte molto più lunghe” rispetto agli altri prodotti di AI in commercio.

    Infine una nota importante per chi fa commercio elettronico, viene introdotto lo Shopping agentico: funzionalità di checkout automatico che effettua acquisti quando il prezzo è giusto

    E DeepSeek?

    Nel 2025 è emerso un protagonista inaspettato che ha scosso le fondamenta dell’industria AI: DeepSeek, un laboratorio di ricerca cinese che ha dimostrato come l’innovazione possa nascere da limitazioni apparenti.

    Il modello è 100% gratuito in chat e poco costoso via API, si distingue per diverse caratteristiche innovative. Al momento in cui scrivo questo articolo non ci sono speciali annunci o rilasci in risposta alle mosse dei “concorrenti”.

  • Silver Startupper: Quando l’esperienza fa davvero la differenza (anche nell’AI)

    Silver Startupper: Quando l’esperienza fa davvero la differenza (anche nell’AI)

    Siamo abituati a immaginare gli startupper come giovani ventenni, entusiasti e privi di timori, ma oggi dati e realtà ci dicono qualcosa di diverso: l’età media dei fondatori di startup di successo si aggira sui 45 anni.

    Per anni, il messaggio diffuso è stato chiaro: “l’innovazione appartiene ai giovani”. Ma basta guardarsi intorno per capire che la narrativa sta cambiando. Herbert Boyer fondò Genentech, poi valutata 47 miliardi di dollari, quando aveva 40 anni; David Duffield avviò Workday a 64 anni, creando un colosso oggi valutato oltre 43 miliardi. Persino nel settore dell’intelligenza artificiale si inizia a comprendere che l’esperienza non è un ostacolo, bensì un vantaggio competitivo.

    I fondatori senior portano al tavolo qualcosa di unico: l’esperienza accumulata negli anni, una profonda conoscenza del mercato e, soprattutto, una gestione matura del fallimento. Dopo aver già sperimentato le insidie del mercato e vissuto sulla propria pelle almeno un insuccesso, chi supera una certa età affronta le nuove sfide con una consapevolezza diversa. Sa cosa evitare, quali rischi correre e soprattutto come affrontare i momenti difficili.

    Questa maturità si riflette direttamente anche nella gestione finanziaria: gli imprenditori senior hanno esperienza, sono più cauti con i capitali e dispongono di reti di contatti consolidate, aspetti cruciali per una startup che vuole crescere rapidamente.

    Eppure, nonostante questi vantaggi evidenti, in Italia persiste una sorta di discriminazione anagrafica. Le istituzioni puntano quasi esclusivamente sui giovani under 40 e sulle donne, ignorando completamente l’enorme potenziale dell’esperienza che possono apportare gli imprenditori maturi. Oggi, infatti, non esiste praticamente nessun incentivo pubblico italiano specificamente rivolto agli imprenditori che superano i 55 anni, mentre per donne e giovani sotto i 35 anni sono stati stanziati centinaia di milioni di euro tramite il PNRR.

    Personalmente, ho sperimentato quanto possa essere frustrante cercare risorse per avviare progetti innovativi nel nostro paese in generale e specialmente superati certi limiti di età, tuttavia, questa esperienza mi ha spinto ancora di più verso l’innovazione, portandomi a creare u-prompt, una piattaforma destinata a democratizzare l’accesso corretto e professionale all’intelligenza artificiale, la prima del suo genere in Italia e probabilmente in Europa.

    u-prompt ha già un chatbot multicanale che fa risparmiare almeno 40€ al mese ai professionisti, ma presenterà un agente-chatbot innovativo capace di replicare tutte le funzionalità avanzate dei principali strumenti AI presenti oggi sul mercato, ad una frazione del costo attuale. Questo consentirà ai professionisti del settore di risparmiare da un minimo di 100€ fino a 800€ al mese, mentre gli appassionati e gli hobbisti potranno finalmente accedere a tecnologie AI finora economicamente fuori dalla loro portata.

    L’MVP di questo agente-chatbot è già disponibile per chi vorrebbe investire nella start-up.

    Un tasso di successo del 70%
    Tra gli oltre 1,5 milioni di imprenditori nel mondo, quelli sopra i 50 anni hanno maggiori probabilità di avere successo rispetto alle controparti più giovani. Oggi negli Stati Uniti un’impresa su tre è avviata da qualcuno di 50 o più anni. Ma c’è di più. Se solo il 28% delle start up create dai giovani durano più di tre anni, per quelle accese da over 60 il tasso di successo è del 70 per cento. È quanto mette nero su bianco il rapporto “The Longevity Economy” realizzato dall’Aarp and Oxford Economics. «Poter fisicamente e psicologicamente lavorare significa anzitutto riconoscere il proprio contributo alla società di cui si è parte, poter produrre reddito, non gravare sulle pensioni e quindi sui giovani per dover finanziare i più vecchi. Significa anche avere capacità di spesa, permettere all’economia di rimanere in un ciclo attivo», precisa Palmarini, che prospetta un futuro ancora più determinato dalla generazione silver.

    Come correttamente riportato nell’articolo su Sole24Ore e non mi sento affatto escluso dalla corsa all’innovazione per via della mia età, al contrario, sono convinto che proprio l’esperienza maturata negli anni possa fare la differenza nella capacità di leggere il mercato, anticipare i bisogni degli utenti e costruire soluzioni realmente efficaci.

    u-prompt è il risultato di questa convinzione, un progetto che mostra chiaramente come il valore dell’esperienza, del fallimento e della resilienza possa tradursi in innovazioni concrete e di successo, sfidando ogni pregiudizio anagrafico.

  • l’AI ucciderà Google?

    l’AI ucciderà Google?

    L’algoritmo con cui funziona il motore di ricerca di Google può tranquillamente sopravvivere all’AI, pertanto sono sempre stato scettico sulla longevità dell’algoritmo del motore di ricerca… ma:

    pare che il modo in cui cerchiamo informazioni online sta cambiando.

    Una recente analisi ha mostrato che oltre il 50% delle ricerche su Google si conclude senza clic (che è la base di funzionamento di quell’algoritmo). Tra i motivi c’è il fatto che spesso gli utenti trovano risposte direttamente nella pagina dei risultati.

    Infine è significativo il rapido aumento degli utenti che si affidano direttamente all’intelligenza artificiale senza passare dal motore di ricerca.

    Mentre per gli utenti finali è tutto grasso che cola, per chi vive esclusivamente di traffico organico basato su Google è un problema. Se oltre il 40% del traffico del sito arriva ancora da Google, potrebbe succedere che venga eliminato direttamente dalle risposte sintetizzate delle AI.

    Scrivere per i modelli, non per i motori

    La soluzione potrebbe non essere più “ottimizzare per l’algoritmo di Google”, ma creare contenuti pensati per essere letti, compresi e utilizzati dalle intelligenze artificiali, ovvero diventare una fonte autorevole citata direttamente nelle risposte generate dagli LLM (Large Language Models).

    Google continuerà a servire per ricerche specifiche, come trovare siti ufficiali, documenti o pagine precise. Ma per sintesi, ragionamenti e analisi, l’intelligenza artificiale è già un passo avanti.

    Dunque quale sarà il futuro del controllo dei contenuti?

    Il classico file robots.txt, usato dai siti web per indicare ai motori di ricerca quali contenuti possono essere indicizzati, potrebbe presto evolversi in llms.txt. Questo nuovo file, proposto recentemente, è concepito per regolare l’accesso ai contenuti web da parte dei modelli linguistici come ChatGPT e Bard.

    llms.txt nasce proprio per rispondere a una domanda cruciale:

    come impedire (o favorire) l’utilizzo dei propri contenuti da parte delle intelligenze artificiali?

    Tuttavia, allo stato attuale è soltanto una proposta senza valore pratico immediato, poiché nessun grande player dell’AI ha ancora ufficialmente adottato questo standard.

    Cosa possono fare le aziende oggi?

    In attesa di sviluppi le aziende dovrebbero:

    • Continuare a usare robots.txt per gestire l’accesso dei bot AI noti, come GPTBot.
    • Valutare attentamente quali contenuti consentire o bloccare.
    • Monitorare regolarmente i log del server per tracciare l’attività dei bot delle AI.
    • Mantenere un’alta qualità e autorevolezza dei contenuti, perché le AI riescono a identificare le fonti più affidabili (e se i tuoi contenuti sono generati dall’AI).

    I miei 2c sull’approccio vincente: sarà quello flessibile e proattivo. In pratica prepararsi oggi per essere pronti domani, informarsi sempre e prepararsi a strumenti come llms.txt che potrebbero diventare essenziali a breve.


  • “Si investe solo sul software”: sul serio?

    “Si investe solo sul software”: sul serio?

    Sì, lo so cosa stai pensando quando pensi ad investire: “il software è veloce, è scalabile, costa poco e puoi farlo anche da un garage.”
    Hai ragione. Infatti, per anni mi sono sentito ripetere sempre le stesse frasi:
    “Perché non fai solo una piattaforma?”
    “Ma l’hardware non puoi evitarlo?”
    “Non ti stai complicando la vita?”

    Eppure, la verità è semplice:
    ci sono problemi che non si possono risolvere solo con una app: ci sono problemi per cui devi sporcarti le mani.

    Ciao, mi chiamo Aldo Prinzi e qualche anno fa ho deciso di costruire un dispositivo che portasse l’intelligenza artificiale là dove serve davvero: non solo nei grandi ospedali, ma anche nei piccoli ambulatori, nei poliambulatori di quartiere, negli studi dove si fanno diagnosi ogni giorno… e dove, troppo spesso, i dati restano su carta o su un CD.

    Così è nato MeRis.

    Un oggetto fisico. Non un’idea o un’app.
    Una scatola di tecnologia concreta, progettata per risolvere un problema e per stare nello studio medico, raccogliere dati in modo sicuro, anonimo, e renderli utili — al medico, al paziente, e all’intelligenza artificiale predittiva che sta cambiando la medicina.

    Ci ho messo anni, fatica… e soldi, ma adesso ho un prototipo funzionante.
    E sai una cosa? Non ho aspettato Sam Altman o Jony Ive.
    Loro oggi dicono che l’hardware è importante, io l’ho capito molto prima e, nel mio piccolo, l’ho già fatto.

    Se anche tu stai cercando di costruire qualcosa di reale, tangibile, non lasciare che ti scoraggino con la solita storia:
    “Meglio il software.”
    Certo, è più semplice, ma non sempre basta.
    Perché ci sono problemi reali, sotto gli occhi di tutti, che nessuno può risolvere solo con una app, a volte serve una scatola.


    Parola di Sam Altman

  • Universal prompt

    Universal prompt

    I social sono ormai invasi da raccolte che promettono “il prompt perfetto” – quasi sempre uno solo, e solo in cambio di un commento, una mail o l’iscrizione a una newsletter. L’hai notato anche tu?

    Sembra di essere tornati ai tempi in cui la conoscenza era un privilegio da scambiare e non da condividere liberamente e. Nel solco del mio stile, preferisco fare diversamente.

    Nel mio manuale (scaricabile gratis, senza richieste strane qui), non ho voluto inserire semplici elenchi di prompt “preconfezionati”, principalmente perchè credo sia necessario insegnare a costruire i propri prompt personalizzati, partendo dai principi e dalle tecniche che ti mettono davvero in controllo dell’AI. I prompt specifici.

    Quelli che creo su stimolo delle domande (o per i fatti miei) poi li pubblico direttamente sul blog, sempre disponibili senza richieste strane a chi vuole sperimentare davvero.

    Oggi presento un prompt che alza l’asticella: uno di quelli che aiuta a generare i prompt. Sì, hai capito bene: uno strumento universale per chi vuole risultati su misura, in ogni campo.

    Il risultato probabilmente non sarà immediatamente usabile per fornire un risultato soddisfacente, ma se segui le indicazioni del mio manuale sarai in grado di costruire quello perfetto per te partendo da uno di quelli che verranno generati.

    Se vorrai lasciarmi un feedback, o condividere questo post ne sarò felice, ma ciò che mi preme di più è che questa conoscenza circoli liberamente: condividila senza limitazioni come faccio io. Grazie.

    Universal prompt:

    Esegui questa procedura a step, se devi chiedermi qualcosa fallo e passa allo step successivo solo dopo la mia risposta, se non ci sono domande da farmi chiedimi se voglio fare qualche cambiamento prima di andare avanti. 
    
    Iniziamo!:
    
    Step 1: Chiedimi a quale settore sono interessato.
    
    Step 2: Chiedimi in quale area specifica di quel settore desidero creare dei prompt. Suggerisci esempi concreti di aree rilevanti per il settore scelto.
    
    Step 3: chiedimi il tono e lo stile che vorrei ottenere dai prompt che dovrai generare
    
    Step 4: Ora assumi il ruolo di esperto di prompt engineering specializzato proprio nell’ambito che ti ho indicato, con profonda conoscenza delle sfide operative e delle migliori pratiche di progettazione dei prompt. Il tuo compito è sviluppare una raccolta di prompt universali, modulari e facilmente personalizzabili, destinati a professionisti e creativi del settore, per ottenere output efficaci e affidabili da un modello AI.
    Produci almeno 8 prompt suddivisi per categoria d’uso e presta la massima attenzione alla correttezza dei riferimenti e alla pertinenza delle istruzioni: verifica due volte dati e fonti per evitare errori o allucinazioni.
    I prompt proposti devono:
    a. Essere chiari, adattabili e con segnaposto espliciti.
    b. Coprire diverse finalità pratiche (ad esempio: brainstorming, analisi, generazione di contenuti, revisione, automazione).
    c. Includere istruzioni precise su tono, stile e formato di output richiesto.
    d. Non devono essere generici, ma orientati a un utilizzo concreto, produttivo e professionale.
    e. non devono essere specitici per il tuo preciso ambito di elaborazione, ma usabili su qualsiasi chatbot ai (grock, chatGPT, DeepSeek, Claude, Gemini; ecc.)
    f. l'output deve essere sempre formattato, nel modo più consono all'ambito per cui il prompt è stato creato
    
    Step 5: Rileggi criticamente i prompt che hai generato e seleziona i 4 migliori secondo utilità, chiarezza e adattabilità assicurandoti che il prompt sia realmente utilizzabile anche da utenti principianti e che la spiegazione sia comprensibile anche ai neofiti.
    
    Step 6: Presenta il siultato in risposta con la seguente struttura:
    a. Titolo
    b. indicazioni: scrivi 25/30 parole per spiegare a cosa serve
    c. istruzioni: scrivi 40/50 parole almeno di istruzioni su come usare il prompt e il suo risultato
    d. testo: indica il prompt specifico
  • Ma i prompt non li scrive l’AI?

    Ma i prompt non li scrive l’AI?

    Ovvero: perché ho scritto un manuale sul prompting quando tantissimi mi dicono che non serva

    Ogni volta che parlo con qualcuno di intelligenza artificiale, prima o poi mi arriva questa domanda:

    “Ma scusa… i prompt non li scrive già l’AI? Che senso ha scrivere un manuale?”

    Oppure, in una variante altrettanto frequente:

    “Ma tanto ormai l’AI capisce tutto, no? Basta scriverle due parole.”

    Lo dicono con convinzione, a volte con un pizzico di sarcasmo, come se occuparsi di prompt oggi fosse come imparare a usare un telecomando: inutile, superato, automatico.

    Ma siamo sicuri sia così scontato? La risposta arriva dalla stessa OpenAI che proprio in questi giorni ha pubblicato la sua guida ufficiale al prompting per GPT-4.1, disponibile online come una raccolta di ricette (!!!).
    Si chiama GPT-4.1 Prompting Guide (Cookbook) 🙂

    Saper usare l’AI è una competenza, non un automatismo

    Chi pensa che basti scrivere “dimmi come ti devo chiedere una determinata cosa” per ottenere il miglior risultato possibile, forse non ha mai provato a fare qualcosa di davvero importante con l’intelligenza artificiale.

    Inoltre scrivere bene un prompt non è un vezzo da nerd: è la base per ottenere risposte utili, pertinenti, affidabili. La guida di OpenAI lo dice chiaramente: anche con i modelli più avanzati, serve imparare a dialogare bene con il sistema per guidare la generazione del contenuto.

    Il Cookbook di OpenAI: un manuale per tutti

    La guida rilasciata da OpenAI è divisa in esempi pratici. Si leggono come ricette da cucina 🙂 :

    • “Come far ragionare il modello passo passo”
    • “Come ottenere elenchi coerenti”
    • “Come far generare contenuti creativi seguendo certe regole”

    E ogni ricetta mostra qualcosa di fondamentale:
    👉 che il risultato dipende da come poni la domanda.

    È esattamente quello che spiego anch’io nel mio manuale: il prompt non è un’intuizione casuale, ma una vera e propria interfaccia linguistica tra l’umano e il modello.

    La verità è che più l’AI diventa potente, più è importante saperla guidare, perché è flessibile, anche troppo a volte. Senza indicazioni chiare, può divagare, saltare passaggi, o sbagliare il tono.

    Chi usa l’AI per lavoro — per scrivere, progettare, vendere, studiare — lo sa bene: serve metodo. Serve tecnica. Serve pensiero.

    Ed è per questo che ho scritto il mio manuale: per chi vuole capire davvero, senza fronzoli, come trasformare l’AI in uno strumento efficace e non solo in un giocattolo.

    Una conferma importante

    Quando ho iniziato a scrivere “Come fare domande all’AI”, l’ho fatto perché vedevo che troppe persone avevano un’idea sbagliata su cosa sia un prompt. Pensavano fosse una formalità, un input generico, quasi un gesto meccanico.

    E invece no: il prompt è progettazione. È intenzione. È precisione.

    Vedere i tantissimi download e confrontarmi con OpenAI, che adotta esattamente lo stesso approccio, mi dà una bella sensazione.

    Principalmente perché vedo che finalmente si inizia a riconoscere che non basta fornire uno strumento potente, le persone hanno bisogno di capire meglio. Serve educazione. Serve formazione.

    Pertanto, se pensavi che il prompt fosse un problema già risolto, dai un’occhiata al Cookbook di OpenAI.

    E se vuoi imparare davvero a conversare con l’AI come si deve — in italiano, con esempi italiani, con casi reali — allora il mio manuale e le ricette fanno per te (usa il menù per andare alle varie sezioni di questo blog).

    Non perché io sappia più degli altri, ma perché, come OpenAI, credo che oggi l’intelligenza non stia nel modello… ma nel modo in cui lo usiamo.