Categoria: Blog

  • Albo esperti innovazione tecnologica – Brazil 2026?

    Albo esperti innovazione tecnologica – Brazil 2026?

    L’Albo degli Innovatori Certificati del Ministero del Made in Italy è un trionfo monumentale della burocrazia italiana e quanto di meno innovativo esista: un perfetto simulacro di un formulario cartaceo degli anni ’90.

    Per iscriversi a questo albo, che dovrebbe certificare i paladini della modernizzazione industriale, bisogna affrontare un modulo Microsoft Forms che è un capolavoro di tecnologia all’avanguardia. [Modulo Iscrizione] Niente SPID, niente autenticazioni digitali: solo un interminabile rosario di caselline da spuntare, dove ci si assume la responsabilità della veridicità dei dati che dobbiamo diligentemente digitare.

    Ma è nei dettagli che la fulgida innovazione ministeriale rivela tutta la sua grandezza. Le province? Niente menu a tendina per i pigri: vanno scritte a mano, rigorosamente con due caratteri. Sì, devi digitare manualmente “PA”, “BO”, “MI” come se gli impiegati dei catasti di provincia degli anni 90, perché evidentemente l’idea di una semplice lista predefinita sarebbe troppo disruptive per un albo dedicato all’innovazione.

    Le date, poi, sono un vero inno alla praticità: non sognarti di digitare semplicemente “30/11/1973”. Devi aprire un pannello e scorrere anno per anno, mese per mese, giorno per giorno, come se stessi sfogliando un innovativo calendario da tavolo degli anni 80: un’esperienza così innovativa che solo chi ha padroneggiato le meccaniche di un cubo di Rubik potrebbe eseguirla senza maledire la propria esistenza.

    Ma il tocco di assoluta genialità è rappresentato dalla richiesta di indicare, senza possibilità di appello, la data in cui prevedi di andare in pensione.

    Sono rimasto senza parole, poiché non ho mai veramente capito che il vero esperto innovatore deve avere la capacità di predire con esattezza matematica il momento in cui appenderà la penna al chiodo. Non importa se hai trent’anni (più o meno l’età dell’innovatore medio) e non sai dove sarai domani: per potere certificare la tua capacità di innovazione e iscriverti nell’apposito Albo, per il MIM.IT è essenziale sapere che conosci la data del tuo pensionamento.

    Pensavi che fosse finita? No… Il meglio viene alla fine di questo colossale test di resistenza, il sistema ti informa che puoi stampare una copia della domanda (a giudicare da tutto il processo mi chiedo se fanno proprio così al ministero. Cioè stampano la domanda e la mettono in una apposita cartellina cartonata che finisce fisicamente impilata alle altre sulla scrivania di un solerte funzionario per l’approvazione? Aspetta come si chiamava il film geniale di Gilliam? Ah si! “Brazil“…). Dopo aver sudato sette camicie per inserire manualmente ogni singolo dato con i vincoli di un codice medievale, l’ultimo atto rituale è tornare alla carta. Perché, si sa, nessuna domanda è veramente valida finché non ha preso la forma di un foglio pronto per essere infilato in una cartellina e che poi verrà diligentemente timbrato.

    E tutto questo per cosa? Per soddisfare un requisito imprescindibile: possedere una laurea. Una laurea tecnica dici? No, va bene qualsiasi laurea, il formulario prevede: farmacia, restauro (anche di beni culturali), gestione dei flussi turistici: tutto perfettamente valido.

    I sistemi ministeriali si concludono infine con un cerchio talmente perfetto da essere quasi commovente: per accedere ai finanziamenti pubblici della transizione digitale, come previsto dal solenne Decreto Direttoriale n. 3125 del 12 novembre 2025, dovete essere rappresentati da un manager iscritto a questo albo. Un albo che esclude i più grandi innovatori della storia, ad esempio non potrai mai trovare persone come un certo Steve Jobs, che a quanto pare ha fatto innovare un paio di cosette, o Bill Gates, che forse avrà combinato qualcosa con i computer. Tecnicamente nemmeno Luigi Di Maio, che ha avuto l’ardire di gestire questo ministero per oltre un anno senza il necessario tesserino universitario.

    Però se hai una laurea in restauro di beni culturali o gestione dei flussi turistici… cambia tutto, puoi accedere ai finanziamenti per l’innovazione.


    L’Albo degli Innovatori Certificati del MIM.IT dimostra, ancora una volta, che nel nostro Paese la competenza in materia di innovazione si riduce al possesso di un titolo di laurea e alla capacità di compilare un modulo, che verrà successivamente stampato e timbrato.

    Un sistema così elegantemente contraddittorio che persino il suo stesso nome suona come una beffa.

  • Quando l’AI smette di indovinare e inizia a certificare

    Quando l’AI smette di indovinare e inizia a certificare

    Conosci Perplexity (perplexity.ai)? Se la risposta è no, allora dovresti.

    Perplexity è brillante!

    Se lo usi per lavoro, la scena è questa: fai una domanda, in pochi secondi arriva una risposta fluida, ben scritta, piena di riferimenti. Ed é tutto perfetto…

    Perplexity, rispetto ai soliti chatbot, ha una marcia in più: orchestra più LLM, sceglie (o prova a scegliere) il modello più adatto, collega fonti diverse.

    È un ottimo laboratorio di idee. Ma è un laboratorio senza registro di laboratorio: non sai quali modelli ha usato, in che ordine, con quali criteri. E soprattutto non hai un modo semplice per rifare lo stesso percorso tra un mese, o farlo rifare a un collega, ed ottenere un risultato costante e ripetibile.

    Allo scoccare del quarto anno di GenAi, la domanda oggi è: “quanto costa il fatto di non poter certificare il processo che ha portato a quella risposta?”.


    Perplessità e canonicità: due facce della stessa storia

    La scienza vive da sempre su una tensione fra due poli.

    Da una parte c’è la perplessità: il dubbio, le ipotesi, la curiosità che apre piste nuove. È la fase in cui Perplexity è fortissimo: ti mostra fonti diverse, prospettive in conflitto, ti fa vedere che “forse qui qualcosa non torna”.

    Dall’altra c’è la canonicità: quello che diventa metodo, protocollo, standard. Non è la verità assoluta, ma un “con questo protocollo, su questi dati, arriviamo a questa conclusione, con questo grado di confidenza. Sempre”.

    In questo schema, Perplexity è il motore della domanda. Manca però il motore del metodo.

    Se sei un professionista non puoi chiedere ad un unico modello di “fare tutto”, ma hai la necessità di costruire una piccola squadra di modelli, ognuno con un ruolo preciso, legati da un flusso che puoi spiegare e rifare.


    Non sono il solo a sostenerlo, qualche tempo fa Andrej Karpathy ha scritto che il futuro non è il prompt engineering, ma la context engineering: riempire la finestra di contesto con le informazioni giuste, nello step giusto, per il modello giusto.

    Karpathy, la “context engineering” e il terzo pilastro

    Le applicazioni serie di LLM, dice, non sono “un’interfaccia carina sopra un modello”, ma software veri, con flussi di controllo, chiamate orchestrate, memoria, strumenti, verifiche.

    È esattamente quello che ho chiamato pipeline prompting nel mio manifesto:
    – prima la scomposizione in step;
    – poi la specializzazione dei modelli per compito;
    – infine il filo di continuità, cioè come il contesto passa da uno step all’altro.


    Canonity: dai prompt ai protocolli

    Quale nome dare all’editor dove prende forma il pipeline prompting?.

    Canonity.

    Non è il posto dove “parli con l’AI”: è il posto dove decidi come le AI devono lavorare fra loro su un problema reale.

    Canonity nasce esattamente qui: non come “un altro chatbot”, ma come editor visivo di step-prompt.

    Invece di un mega-prompt che speri venga interpretato bene, costruisci un workflow:

    • uno step scompone la domanda in sotto-problemi;
    • un altro cerca, ma restituisce solo metadati strutturati (DOI, anno, tipo di studio…);
    • un terzo valuta la qualità degli studi e segnala bias;
    • un quarto sintetizza, usando solo le fonti che superano una certa soglia;
    • alla fine ci sei tu, che controlli, correggi, approvi.

    Ogni passaggio è esplicito, ogni modello fa il pezzo di lavoro per cui è più adatto, il flusso ha un ID, una versione, una storia.

    Non stai più “giocando al prompt perfetto”: stai scrivendo un protocollo che altri possono usare, criticare, migliorare e4 che da risultati ripetibili ad ogni esecuzione.


    Perché “Canonity” richiama “Perplexity”, ma fa un mestiere diverso

    Il gioco di nomi è ovvio.

    Perplexity richiama la perplessità, il dubbio fertile, l’esplorazione. È perfetto quando vuoi generare idee, esplorare lo spazio di possibilità, farti sorprendere.

    Canonity richiama il canone: ciò che diventa riferimento, metodo, standard. Entra in gioco quando devi dire: “Questo è il modo in cui abbiamo affrontato il problema; questi sono gli step, i modelli, le fonti escluse e perché”.

    Se fai ricerca, se lavori in sanità, in ambito legale, in policy pubblica, non ti basta “me l’ha detto l’AI”. Hai bisogno di una catena di custodia dell’informazione. È questo il passaggio: dall’AI-oracolo all’AI-strumento scientifico.

    Adottare uno strumento come Canonity significa cambiare ruolo: da utente di AI a orchestratore di AI, da prompter a tenmpo perso a professionista: non vendi più “prompt” o “ore di chat”, ma processi: come definisci il problema, come scomponi il lavoro, quali modelli usi, quali controlli applichi.


    E adesso?

    Canonity è in sviluppo attivo e lo stiamo testando con chi ha questo problema molto concreto: non gli basta più una risposta brillante, vuole un metodo che possa difendere davanti a un revisore, un cliente, un comitato etico.

    Se sei uno dei 22 milioni di utilizzatori (o meglio uno degli 8 milioni di utilizzatori a pagamento) di Perplexity e senti che ti manca il “registro di laboratorio”, tieni d’occhio quello che succede intorno a Canonity e al pipeline prompting.

    Perché la partita, ormai, non è più “chi ha il modello più intelligente”, ma chi ha il processo più trasparente e ripetibile.

  • Prompter: il lavoro che cresce mentre altri calano

    Prompter: il lavoro che cresce mentre altri calano

    (dati e stime 12–24 mesi)

    Negli ultimi due anni la GenAI ha spostato gli equilibri del lavoro online e non è un’impressione.
    Su una “grande piattaforma freelance” (nello studio non è indicata quale) dopo l’arrivo di ChatGPT e dei generatori d’immagine, i cluster più esposti all’automazione hanno registrato cali netti degli annunci.

    In particolare:

    • scrittura (≈ −30%),
    • software/app/web (≈ −21%),
    • alcune aree dell’ingegneria (≈ −10%),
    • graphic design (≈ −18%)
    • 3D (≈ −16%).

    Al contrario, aumentano gli annunci che citano esplicitamente la skill “ChatGPT”. È la spia di un nuovo mestiere: prompter (o, più precisamente, AI orchestrator).

    Questa dinamica non racconta “meno lavoro in assoluto”, ma un cambio di mix: i task ripetitivi (bozze di testi, codice standard, grafica base) vengono svolti in autonomia con LLM; resta e cresce la parte di definizione del problema, prompt design a step, orchestrazione di modelli e strumenti, validazione e integrazione nei processi reali (API, dati, governance).

    Cosa sta succedendo

    I dati mostrano chiaramente la cannibalizzazione dei compiti ripetitivi in scrittura, sviluppo e grafica, e l’emersione di attività più complesse dove il prompter è protagonista. Se anche una parte del lavoro “perso” si ricompone in regia AI esternalizzata, nei prossimi 12–24 mesi avremo migliaia di opportunità strutturate attorno a prompt design, QA e integrazione.

    1. Sostituzione del ripetitivo
      Molte micro-attività vengono internalizzate via prompt: da “Cerco freelance per X” a “Risolvo X con un LLM”. Questo spiega la contrazione degli annunci nei cluster più esposti.
    2. Ricomposizione verso la complessità
      I job che restano chiedono più ampiezza (più skill per annuncio) e profondità (problemi meno standardizzabili). La domanda si sposta dall’esecuzione all’orchestrazione.
    3. Emergenza del profilo “prompter”
      Crescono gli annunci che richiedono esplicitamente competenze in ChatGPT/LLM: segnale che la regia dell’AI diventa un servizio a sé, con responsabilità su qualità, sicurezza e integrazione.

    Quanti prompter serviranno? (stima prudente)

    Usando i volumi medi settimanali della piattaforma e i cali differenziali osservati, il “vuoto” creato dalla GenAI equivale a circa 1.700+ annunci a settimana che prima erano tradizionali e oggi vengono automatizzati o riassemblati.

    Se fra il 5% e il 25% di queste attività viene esternalizzato come prompting/orchestrazione, parliamo di ~86–430 nuovi post/settimana, cioè ~4,5k–22k all’anno, per arrivare a ~9–45k in 24 mesi.

    Non è una profezia: è una ipotesi ragionata coerente con l’aumento di annunci che citano “ChatGPT” e con l’evoluzione dei brief verso outcome e integrazioni.

    Cosa cambia per professionisti e aziende

    Per i professionisti

    serve salire di livello. Non vendere “ore di esecuzione”, ma outcome + orchestrazione: scoping, design di prompt multistep, scelta del modello per compito, controlli di qualità (factuality, stile, copyright), integrazione in pipeline (dati, API, RPA), reportistica e metriche.
    La verticalizzazione (legale, sanità, e-commerce) moltiplica il valore perché unisce AI a dominio e compliance.

    Per le aziende

    internalizzare dove l’attività è core; esternalizzare la regia se mancano competenze e tempo. Scrivere brief orientati a risultati, pretendere trasparenza di processo (step, controlli, dati usati), definire policy su privacy, copyright e bias. Il ritorno maggiore non viene dal “provare l’AI”, ma dal industrializzare i flussi.


    Quali strumenti servono?

    La domanda non è se il ruolo crescerà, ma chi saprà passare dalla demo al delivery con strumenti, metodi e metriche all’altezza.

    Serve quindi uno strumento operativo che traduca obiettivi di business in pipeline AI governabili: editor visuale multi-LLM a step, versioning, QA automatico, tracciamento metriche, governance/compliance, e — quando serve — un mercato per acquistare risultati, non prompt nudi.

  • Prompt framework: cosa sono e come usarli

    Prompt framework: cosa sono e come usarli

    Come avrai notato dalla marea di articoli e spiegazioni che circolano, l’intelligenza artificiale è spesso percepita come una specie di magia. Ma tu mi segui, e sai che dietro c’è tecnologia; e dove c’è tecnologia, ci sono metodi.

    Molti descrivono la tecnica del prompting come qualcosa di banale: digiti “fammi X” e l’AI risponde… Bello, vero? È quello che hai fatto finora? Se è così, sai bene che generando un testo da un prompt, il risultato cambia ogni volta, è impreciso, e serve tempo per trovare la formula giusta. Hanno anche inventato il termine “allucinazioni” per descrivere i “bug”.

    Ma te (e ai tuoi futuri clienti) servono risultati coerenti, ripetibili e di qualità professionale, per questo motivo a maggio del 2025 ho spiegato più di 15 tecniche nel mio libro tradotto in 4 lingue (QUI).

    Nella mia visione, la figura del “prompter” diventerà sempre più importante. Dunque, è fondamentale avere padronanza delle metodologie di interrogazione degli LLM: sarà certamente una delle competenze più richieste nel prossimo futuro.

    Oggi, a distanza di soli 6 mesi (che nel campo dell’IA equivalgono a un’epoca geologica), quelle tecniche sono state sintetizzate, o “compattate”, in sette veri e propri framework di prompt (tecniche/metodologie d’uso).

    In questo articolo ti accompagnerò passo passo, usando un unico esempio che complicheremo gradualmente, man mano che saliamo di livello.

    Caso unico per tutti gli esempi
    Scrivere una scheda prodotto per e-commerce del “Kit serratura baule Vespa (cod. 299676)”.
    Obiettivo: testo chiaro, orientato alla vendita, con compatibilità e CTA.

    PAM > Action > Monitor

    Quando usarlo: è il più semplice, usalo per iniziare subito e migliorare un output grezzo. In pratica iteri più volte fino ad arrivare all’obiettivo.

    Prompt > (leggi la risposta) > Monitor/Modify: [cosa cambi e perché]

    Esempio 1

    Prompt v1: “Scrivi una scheda prodotto per il kit serratura baule Vespa 299676.”
    Modify: “Riduci a 120–150 parole e inserisci una CTA finale.”

    Perché funziona: ti fa iterare subito, senza teoria, ma il risultato può essere abbastanza deludente.

    Stiamo usando una AI, proviamo a chiedergli qualcosa in più:

    SMART — Specific, Measurable, Achievable, Relevant, Time-bound

    Quando usarlo: per definire criteri misurabili e dire con chiarezza quando il testo è completo.

    Obiettivo SMART: [S][M][A][R][T] + criteri di accettazione

    Esempio 2

    Obiettivo SMART: 120–150 parole, leggibilità ≥60 (Flesch IT),
    1 riga di beneficio iniziale, 3 bullet (compatibilità, installazione, garanzia), chiusura con CTA unica (“Aggiungi al carrello”).

    RACE — Role, Action, Context, Execute

    Quando usarlo: per dare ruolo, compito, contesto e formato.
    Effetto: cala la variabilità di tono e struttura.

    Role: [chi sei]
    Action: [cosa devi fare]
    Context: [per chi, vincoli, USP]
    Execute: [formato, stile, lunghezza]

    Esempio 3

    Role: Copywriter e-commerce aftermarket scooter.
    Action: Scrivi la scheda prodotto del kit serratura baule Vespa 299676.
    Context: Target fai-da-te; evidenzia compatibilità e installazione semplice.
    Execute: 120–150 parole; apertura con beneficio; 3 bullet (compatibilità, installazione, garanzia);
    chiusura con CTA “Aggiungi al carrello”.

    TRACE — Task, Role, Audience, Context, Example

    Quando usarlo: quando il pubblico conta e vuoi un esempio guida per allineare stile e lessico.

    Task: [output]
    Role: [persona]
    Audience: [per chi]
    Context: [scenario, vincoli]
    Example: [mini-esempio di tono/struttura]

    Esempio 4

    Task: Scheda prodotto e-commerce.
    Role: Copywriter tecnico.
    Audience: Proprietari Vespa ET2/ET4/Liberty senza esperienza meccanica.
    Context: Ricambio originale, modelli compatibili, istruzioni base.
    Example (tono): “Compatibile con Vespa ET2/ET4. Si installa in pochi minuti con gli attrezzi di base. Garanzia 24 mesi.”

    CO-STAR — Context, Objective, Style, Tone, Audience, Response

    Quando usarlo: quando, oltre al contenuto, vuoi anche che il testo abbia dei precisi stili e toni.

    Context > Objective > Style > Tone > Audience > Response (formato)

    Esempio 5

    Context: Scheda prodotto per e-commerce ricambi.
    Objective: Massimizzare chiarezza e conversione.
    Style: Frasi brevi, scannable, lessico semplice.
    Tone: Affidabile, pratico, zero iperboli.
    Audience: Proprietari Vespa senza esperienza tecnica.
    Response: 1 paragrafo 120–150 parole + 3 bullet + CTA finale.
    

    SiCQuA — Situation, Complication, Question, Answer

    Quando usarlo: per strutturare una micro-narrazione che sciolga i dubbi del cliente.

    Situazione
    Complicazione
    Q-domanda
    Azione (risposta)

    Esempio 6

    Situation: Chi cerca ricambi Vespa vuole compatibilità certa.
    Complication: Modelli/anni generano confusione.
    Question: Questo kit serratura 299676 è giusto per me?
    Answer: Elenca modelli compatibili (ET2, ET4, Liberty…), spiega installazione base,
    ricorda garanzia/resi, chiudi con CTA.
    

    PEAS — Performance, Environment, Actuators, Sensors

    E’ il più tecnico dei framework, usalo quando devi progettare un agente/pipeline che generi e validi la scheda.

    Performance: [metriche/SLAs]
    Environment: [dove opera, vincoli]
    Actuators (Output): [cosa produce]
    Sensors (Input): [quali dati/fonti usa]
    + Failure modes & Fallback

    Esempio 7

    Performance: 100% nomi modello validi; ≤2 errori ortografici; leggibilità ≥60.
    Environment: Catalogo interno + DB compatibilità; privacy GDPR.
    Actuators: Blocco HTML scheda prodotto + JSON compatibilità.
    Sensors: SKU 299676, lista modelli, manuale tecnico.
    Failure & Fallback: se compatibilità mancante → chiedi conferma; se conflitti → mostra alert.

    Da grezzo a pro: lo stesso prompt che “cresce”

    Ok, se prima di questo articolo non eri un prompter professionista 😉 adesso sai che un prompt non è una frase “magica”: è progettazione.

    Parti da PAM, aggiungi SMART per definire cosa significa “buono”, struttura con RACE.

    Quando serve coerenza di brand e audience, passa a TRACE/CO-STAR. Se devi educare e convincere, usa SiCQuA. E quando vuoi scalare con affidabilità, modella il sistema con PEAS.

    Ecco gli esempi pratici:

    PAM → SMART

    PAM v1: Scrivi una scheda prodotto per kit serratura baule Vespa 299676.
    Modify: 120–150 parole, 3 bullet (compatibilità, installazione, garanzia), CTA finale.
    SMART: Leggibilità ≥60; evita superlativi generici; niente termini tecnici non spiegati.

    RACE → TRACE → CO-STAR

    RACE: Role (copy e-commerce) + Action (scheda) + Context (target fai-da-te) + Execute (formato).
    TRACE: aggiungi Audience (ET2/ET4/Liberty) + Example (tono pratico).
    CO-STAR: separa Objective (conversione) da Style/Tone (chiaro, affidabile) e Response (formato).
    

    SCQA → PEAS

    SCQA: incornicia i dubbi (“è compatibile con il mio modello?”) e rispondi in ordine logico.
    PEAS: progetti l’agente che pesca i dati, valida la compatibilità e genera l’HTML finale.
    

    Checklist (copia e incolla)


    • PAM: prova → leggi → modifica una cosa alla volta.
    • SMART: aggiungi 2–3 metriche verificabili.
    • RACE: ruolo chiaro + compito + contesto + formato.
    • TRACE: dichiara il pubblico e metti un mini-esempio.
    • CO-STAR: separa obiettivo da stile/tono; definisci il formato di risposta.
    • SiCQuA: situazione → problema → domanda → risposta/azioni.
    • PEAS: metriche, input/output, errori previsti, fallback.
  • I Browser “Agenti” con AI sono INSICURI

    I Browser “Agenti” con AI sono INSICURI

    I Browser alimentati dagli “Agenti AI” sono una minaccia per la sicurezza e dovremmo evitarli

    Ammettilo, stai pensando di provare uno dei nuovi browser alimentati da Intelligenza Artificiale come OpenAI Atlas, Comet di Perplexity o simili.
    Fermati immediatamente.
    La comodità di un assistente che naviga il web al posto tuo non vale il rischio estremo a cui stai esponendo i tuoi dati, i tuoi file e persino i tuoi conti correnti.

    Non osono congetture o previsioni malsane, un rapporto di sicurezza di Brave, noto per il suo browser focalizzato sulla privacy, ha lanciato un allarme chiaro: questi “browser agenti” presentano vulnerabilità strutturali che li rendono estremamente suscettibili a una nuova e subdola forma di attacco informatico: l’iniezione di prompt tramite siti web (prompt injection).

    Il Cavallo di Troia Digitale: Come Funziona l’Attacco

    Il pericolo non viene da un virus tradizionale, ma da istruzioni nascoste in bella vista. Ecco il meccanismo, passo dopo passo:

    1. L’Esca dell’Aggressore: Un malintenzionato inserisce comandi nascosti in una pagina web. Spesso si tratta di testo camuffato (ad esempio, bianco su sfondo bianco) o di metadati invisibili all’occhio umano. Tu non lo vedi, ma l’agente AI sì.
    2. L’AI Legge l’Inganno: Il tuo agente AI/Copilot, incaricato di navigare o elaborare quella pagina, carica e legge tutto il testo presente, compreso il prompt nascosto.
    3. L’Obbedienza Pericolosa: Il modello LLM è progettato per seguire le istruzioni, sicché tratta quel testo nascosto come un comando legittimo da eseguire.
    4. La Porta Aperta: Le Tue Autorizzazioni: Il danno che ne segue dipende interamente da quanta libertà hai concesso al browser. Questi agenti, come riportato da ricercatori, operano spesso con alti livelli di privilegio.

    Le Conseguenze:

    Quello che viene definito “jailbreaking del browser” può portare a scenari da incubo:

    Furto di Dati Sensibili: l’agente ha accesso alle tue conversazioni e può trasmettere l’intera cronologia chat, compresi i dati personali e finanziari che hai condiviso.

    Azioni Non Autorizzate: Se ha accesso a strumenti di sistema o API (come detto su BankInfoSecurity.asia), l’AI dirottata può utilizzare quelle funzionalità per:

    • Aprire applicazioni dannose.
    • Leggere, modificare o eliminare file personali dal tuo computer.
    • Utilizzare le tue credenziali per accedere a servizi bancari o di investimento e prosciugare i conti.
    • Rubare cookie di sessione, prendendo il controllo dei tuoi account online.

    Il risultato finale? Un’attacco che può variare dall’esposizione di dati privati all’agente che agisce autonomamente per tuo conto, con tutte le autorizzazioni che gli hai concesso.

    Cosa serve che facciano prima

    Per rendere questa tecnologia meno rischiosa, così come hanno fatto per ani gli sviluppatori degli attuali browser, dovrebbero implementare misure drastiche come isolare la navigazione agentica da quella umana in sandbox sicure e richiedere il consenso esplicito dell’utente per ogni azione critica, come l’apertura di un sito o l’invio di un’email.

    Tuttavia, questi sono cambiamenti di lungo periodo. Nel frattempo, la tua sicurezza è nelle tue mani.

    Raccomandazione pratica:

    Se hai già installato uno di questi browser e gli hai concesso l’accesso a credenziali, documenti o cartelle di sistema, agisci immediatamente:

    1. Disinstalla il browser agente.
    2. Modifica al più presto tutte le password e le credenziali a cui potrebbe aver avuto accesso.
    3. Torna all’uso sicuro: utilizza servizi come ChatGPT all’interno di una normale finestra del browser standard (Chrome, Firefox, Safari, Edge, ecc.), senza concedergli alcun accesso speciale a dati, file o strumenti di sistema.

    Non fare la cavia in un esperimento pericoloso. La promessa di un navigatore AI personale è allettante, ma i rischi attuali sono reali e concreti. Per ora, il modo più sicuro di interagire con l’AI è farlo in un ambiente controllato e limitato, non dandogli le chiavi di casa tua.

  • Perché con l’IA in Medicina stiamo sbagliando bersaglio

    Perché con l’IA in Medicina stiamo sbagliando bersaglio

    Una recente ricerca di Anthropic ha rivelato un fatto che dovrebbe far riflettere chiunque si occupi di intelligenza artificiale: bastano 250 documenti “avvelenati” – una frazione infinitesimale, lo 0,00016% di un dataset – per sabotare il comportamento di un grande modello linguistico.

    Questo fenomeno, il cui nome è data poisoning, dimostra una verità matematica spietata: la qualità di un’IA è intrinsecamente legata all’integrità dei dati su cui si allena. Basta una quantità minuscola di dati sbagliati per corrompere il tutto.

    Ora, facciamo un salto dalla sicurezza informatica alla salute pubblica.

    Se l’introduzione di una manciata di dati tossici può essere così devastante, immaginate l’effetto catastrofico dell’assenza totale di una massa enorme di dati veri e puliti.

    È esattamente quello che sta succedendo oggi all’IA in medicina.

    Il “Data Poisoning” Invisibile della Sanità

    Mentre Anthropic testava quanto sia facile avvelenare un dataset, il nostro sistema sanitario sta inconsapevolmente commettendo un errore opposto ma altrettanto pericoloso: sta morendo di fame.

    Gli algoritmi che promettono di rivoluzionare la diagnostica sono addestrati quasi esclusivamente sui dati digitali dei grandi ospedali. Ma questo rappresenta solo una parte della storia clinica.

    Dov’è il restante 20-30%?
    È quel paziente dimesso dall’ospedale con una diagnosi incompleta che trova la soluzione in un ambulatorio territoriale. È quella diagnosi corretta, arrivata dopo settimane di esami mirati, che svanisce nel mare della carta di uno studio non digitalizzato.

    Questo non è un semplice buco, è un’avvelenamento per assenza.
    Stiamo costruendo un’IA “zoppa”, addestrata su una realtà clinica mutilata. Se bastano 250 documenti corrotti per deviare un modello, l’assenza di milioni di diagnosi corrette dal territorio rende l’IA medica intrinsecamente inaffidabile e pericolosamente parziale.

    La soluzione è curare la fonte o il sintomo?

    Il problema non è la tecnologia IA ma la catena di approvvigionamento dei dati.

    Le piccole strutture sanitarie – il cuore pulsante della cura sul territorio – non sono digitalizzate a causa di costi proibitivi, complessità normative e mancanza di tempo.

    La startup Medigenium ha creato MeRis per risolvere questo problema alla radice.

    Quanto costa l’antidoto al “data poisoning” strutturale dell’IA medica? ZERO.
    Anzi regala tra 10 e 20 mila auro agli ambulatori che la scelgono.

    MeRis è un dispositivo che, fornito in comodato d’uso gratuito, si collega agli strumenti medici esistenti e genera dataset completi e puliti, l’antidoto al “data poisoning” strutturale dell’IA medica.

    Non stiamo lottando contro un’IA che sbaglia. Stiamo lottando per dare all’IA tutti i dati di cui ha bisogno per non sbagliare.

    La lezione di Anthropic è chiara: l’integrità del dato è tutto. La nostra missione è garantire che l’IA in medicina sia nutrita con il 100% della verità clinica, non solo con la parte comodamente digitale.

    Perché ogni paziente curato in un ambulatorio periferico ha il diritto di contribuire al progresso della medicina, e di beneficiarne.

  • Verso l’approccio AGNOSTICO

    Verso l’approccio AGNOSTICO

    Negli ultimi giorni Microsoft ha annunciato che non si affiderà più a un unico modello di intelligenza artificiale (OpenAI), ma integrerà anche Anthropic, aprendo la strada a un futuro multi-modello.
    Nell’articolo, questa scelta viene descritta esplicitamente come un approccio “agnostico”: non vincolarsi a un solo modello, ma sfruttare di volta in volta quello più adatto.

    https://thereview.strangevc.com/p/microsofts-model-switch-why-ai-middleware

    Tra le motivazioni principali spiccano due aspetti:

    • Flessibilità: la possibilità di usare il modello giusto per il compito giusto.
    • Evoluzione naturale: entro 12 mesi ogni prodotto enterprise AI supporterà almeno due modelli.

    Quando ho letto queste parole, ho sorriso.

    Perché questa stessa intuizione io l’avevo già colta alla fine del 2024. Dopo tanti rimandi, a marzo, sfruttando l’occasione di una demo, ho deciso di mettere mano a una prima bozza del progetto.

    Il 26 giugno ho completato l’MVP, che ancora oggi recita:

    “u-prompt: Ciao. Questo MVP serve a dimostrare che u-prompt è un sistema chatbot-agentico alimentato dall’intelligenza artificiale –>e agnostico<–, nel senso che durante la tua chiacchierata puoi decidere di –>utilizzare agenti differenti<– per rispondere a singole domande ad esempio per sfruttarne –>le caratteristiche speciali<–.”

    Nei giorni successivi, confrontandomi con alcuni amici, abbiamo deciso di portare avanti il progetto e fissato la data del go-live: 15 settembre. Una scelta fatta mesi prima che Microsoft rendesse pubblica la sua svolta.

    Domani, 18 settembre, la startup viene presentata a Palermo ai cantieri culturali alla Zisa nell’ambito di un evento sull’AI.

    La differenza?

    Mentre Microsoft annuncia oggi di voler lavorare con due modelli, in u-prompt abbiamo già messo insieme, per la prima volta, cinque modelli diversi in un unico prompt.

    Questo percorso – dall’MVP al progetto online – dimostra che non viviamo di parole, ma di fatti. E soprattutto dimostra, prepotentemente, una capacità di anticipare il futuro e affrontare le sfide senza paura.

    Interessati? -> hey[at]u-prompt.com

    Early adopters? -> u-prompt.com

  • Oracle–OpenAI: perché a muovere i mercati non è “la migliore AI”?

    Oracle–OpenAI: perché a muovere i mercati non è “la migliore AI”?

    OpenAI non è la “migliore AI”, ma è certamente colei che fa i migliori affari. L’accordo da 300 mld con Oracle mostra come sul mercato vincono i primi.
    E in Europa? Regoliamo e non costruiamo.


    Fra il 10 e il 12 settembre è rimbalzata la notizia: OpenAI ha firmato con Oracle un accordo da 300 miliardi di dollari, circa cinque anni di capacità di calcolo a partire dal 2027. È uno dei più grandi contratti cloud mai riportati. Nel quadro più ampio, c’è anche la costruzione di 4,5 GW di nuova capacità data center legata all’iniziativa Stargate.

    Davvero ti interessa sapere cosa ne penso? Ecco qua:

    1. OpenAI non è “la migliore tecnologia” — è quella che fa i migliori affari

    Diciamolo chiaro: OpenAI oggi non è “la migliore AI disponibile” in senso assoluto. È tra le migliori, certo, ma ci sono competitor che in singoli task o verticali la superano. E mentre si discute, OpenAI ha perso pezzi grossi (da Ilya Sutskever a Mira Murati) e ha vissuto scosse interne importanti. Eppure sigla il mega-accordo che ridefinisce l’offerta di calcolo per i prossimi anni.

    Questo è l’insegnamento: vince chi arriva prima sul mercato chiude le alleanze giuste—anche se la tecnologia non è oggettivamente “la migliore”.

    Il contratto con Oracle è un segnale chiarissimo. Chi controlla calcolo + energia + supply chain hardware si compra tempo, scalabilità e posizionamento. È una barriera competitiva concreta, più dei comunicati sui modelli.

    Se alle spalle c’è una capacità prenotata per 5 anni e un’infrastruttura da gigawatt, tutti gli altri sono costretti a inseguire.

    2. I colossi si muovono lenti, ma quando si muovono fanno rumore. E in Europa… regoliamo.

    I giganti si muovono con la velocità di un bradipo: board, compliance, procurement, iter infiniti. Ma quando mettono giù il piede, la terra trema.

    L’intesa Oracle–OpenAI fa esattamente questo: sposta gli equilibri perché mette a terra infrastruttura reale, non solo slide.

    E mentre da noi passiamo (giustamente) molto tempo a discutere di guerra, etica, regolamenti, negli USA e in Cina si costruisce: si comprano GW, si prenotano GPU, si firmano contratti pluriennali, si aprono cantieri.

    Qui l’Europa mostra la sua inadeguatezza: loro fanno, noi regolamentiamo. Attenzione: le regole servono (eccome!), ma se in parallelo non costruiamo —capex, campus, grid, filiere—restiamo clienti del progresso altrui.

    Il punto non è deregolare, è FARE, costruire, realizzare, cantierizzare. L’accordo da 300 mld non è un comunicato: è calcolo prenotato che verrà consumato in prodotti, servizi e API.


    Note di contesto (senza farsi incantare dai numeri)

    • $300 mld / 5 anni, start 2027: cifra e finestra temporale riportate dal Wall Street Journal e riprese da più testate; non sono dettagli ufficiali pubblicati da OpenAI/Oracle, ma fonti solide convergono su questi ordini di grandezza.
    • 4,5 GW “Stargate”: qui c’è un annuncio pubblico (luglio) sull’espansione con Oracle negli USA; il numero è esplicito.
    • Diversificazione oltre Azure: la traiettoria era visibile già dal 2024, quando OpenAI scelse OCI per estendere Azure AI.

    non metto qui i link alle fonti, dovreste sapere usare chatbot e google, no?

    Dunque?

    Se lavori in AI, la domanda non è “quale modello è il migliore oggi?”, ma “chi avrà calcolo ed energia domani“?.

    Le feature si copiano; le prenotazioni di calcolo no. L’accordo Oracle–OpenAI è esattamente questo: posizionamento.

    Perché ho creato u-prompt

    È su queste basi che ho ideato u-prompt.com: chi si muove, chi fa, chi produce… vince su chi ha paura.

  • Metteresti una supercar nelle mani di chi non ha la patente?

    Metteresti una supercar nelle mani di chi non ha la patente?

    Ovvero: perchè “sostituire” un programmatore è (davvero) costoso

    Leggo da molti mesi gente che esulta perchè grazie all’AI sta realizzando il software che aveva sempre sognato, ma sul quale non aveva le idee abbastanza chiare (ma davvero?) e la motivazione necessaria per investire i soldi necessari a farlo sviluppare da chi fa questo mestiere.

    Queste persone esultano su tutti i forum e social perché “finalmente” sono riusciti a coronare il loro sogno.

    Quando ho iniziato a ricevere un decimo delle chiamate solite dai rompiscatole, ho comprato i pop corn e mi sono seduto in prima fila. Mi presento, sono Aldo Prinzi e faccio il programmatore da quando avevo 16 anni. nel 2025 ne ho compiuti 60, faccio questo mestiere da più di 40 anni e ho assistito ad almeno a 4 rivoluzioni che avrebbero dovuto decimare i programmatori.

    La verità è che scrivere codice è solo una parte del lavoro e farlo fare da qualcuno che solo appare preparato – umano o AI – costa.

    Immagina un’auto da centinaia di migliaia di euro, una Ferrari o una Porsche. Ora immagina di essere il COO dell’azienda che la possiede e chiediti se la affideresti a chi non sa guidare. Con il software è uguale: l’AI è l’auto potente, il programmatore è il driver, l’architetto è il progettista e l’analista è il meccanico.

    1. Devi avere chiaro cosa vuoi ottenere
    2. Devi avere chiaro come ottenerlo

    Solo dopo puoi iniziare.

    Te lo immagini un chirurgo che ti porta in sala operatoria senza farti una diagnosi? Questo è esattamente quello che sta facendo chi usa l’IA per sviluppare il “software dei suoi sogni”.

    l’IA è uno strumento, se pensi di diventare un dottore ere la vita a tuo nipote perché hai comprato uno stetoscopio, beh la colpa non è dello stetoscopio né del suo inventore.


    Sostituire un programmatore costa (più di quanto pensi)

    Passiamo ora all’altra questione strombazzata sui social e forum, l’azienda che licenzia o sostituisce persone. Licenziare (o sostituire) è togliere dalla contabilità uno stipendio, vero, ma ha costi nascosti che si sommano:

    • Selezione e inserimento: tempo per cercare, fare colloqui, formare la nuova risorsa. Nel frattempo, i progetti rallentano.
    • Perdita di conoscenza: chi va via si porta con sé dettagli, scelte passate, “trucchi” del sistema. Ricostruirli richiede settimane.
    • Rischio sui progetti: errori, ritardi, bug che emergono quando cambia chi decide e chi verifica.
    • Tempo di chi coordina: manager e colleghi devono seguire di più il nuovo arrivato, togliendo tempo ad altre attività.
    • Qualità e sicurezza: il codice non è solo “funziona/non funziona”; deve essere manutenibile, testato, sicuro, leggibile dal team.

    Per questo, spesso far crescere un programmatore junior costa meno che sostituirlo.


    Cosa sta emergendo dal mercato (in parole semplici)

    Crescita lampo del “vibe coding”: i nuovi modelli “di ragionamento” permettono di dare obiettivi alti (“rendi questo componente responsive, rendi questa classa più sicura, …”) e lasciare che l’AI si occupi dei passi intermedi.

    Però quando l’AI “pensa di più”, consuma molto di più (quindi aumentano i costi), sicchè alcuni fornitori hanno messo limiti e a breve ci saranno aumenti dei prezzi, perché i conti non tornano.

    Stop ai “tutto incluso”: i contratti a quota fissa diventano rischiosi per chi vende; si passa a modelli a consumo o ibridi (postazione + consumo), con tetti all’uso dell’AI “ragionante”. Cresce la pressione sui margini e aumentano i (reverse) acqui-hire: i big assorbono i team più bravi, spesso lasciando fuori i prodotti meno sostenibili.

    Due leve emergono per tenere i costi a bada:

    • Modelli open (più economici), che però richiedono più lavoro per sicurezza, affidabilità e gestione.
    • Prezzi “a compito”: paghi per l’esito (“aggiungi l’error handling”) con un preventivo chiaro e cap ai consumi.

    E chi sarà messo a gestire l’AI per produrre parti di codice? Un avvocato? Un medico? Un contabile? Uno sportivo?


    Stai iniziando? Ecco un percorso facile

    1) Basi solide, senza correre

    • Impara bene un linguaggio (JavaScript/Python/PHP vanno benissimo).
    • Impara a usare Git, a scovare gli errori, a fare debug.
    • Scrivi test! (anche pochi, ma veri).
    • Documenta nel codice: un giorno lavorerai in un gruppo, sarai felice di leggere la documentazione nei commenti di una funzione!

    2) AI come copilota, non come pilota

    • Impara a chiedere all’AI (non è così semplice)
    • Chiedile di spiegare prima di scrivere.
    • Fatti generare i test, poi prova a romperli.
    • Se una risposta è lunga, riassumi e verifica.
    • Tieni traccia di cosa ti ha fatto risparmiare tempo e cosa no.
    • Non accettare le modifiche tout court: verifica!

    3) Abitudini che ti rendono “assicurabile”

    • Commenti essenziali, README chiaro, changelog breve.
    • Niente “magia”: funzioni corte, nomi chiari.
    • A ogni bug risolto, una lezione annotata (“la prossima volta faccio così”).

    Per le aziende (e per te che vuoi farti assumere)

    • Affidabilità batte velocità: un junior affidabile che sa usare l’AI in modo sicuro vale più di 10 feature fatte “di corsa”.
    • Prevedibilità dei costi: chi sa usare nel modo corretto e guidare l’AI riduce sorprese in fattura e in produzione.
    • Manutenibilità: il codice deve vivere anni. Chi tiene in ordine oggi fa risparmiare domani.
    • Documentazione: ricorda che l’AI ti aiuta anche a fare documentazione, non sottovalutarla.

    Questo è il motivo per cui nessuna azienda sensata mette una “supercar” nelle mani di chi non ha ancora la patente. E se la supercar è un assistente AI potentissimo, servono ancora più regole, esperienza e responsabilità.


    Messaggio finale (per te che vuoi iniziare questo splendido lavoro)

    #1 – Smetti di avere paura.

    Abbraccia l’AI e impara a guidarla.
    Diventa la persona che: capisce il problema, disegna la strada, usa l’AI per accelerare e che sa frenare quando serve.

    L’auto è costosa. I progetti valgono. Le aziende cercano driver preparati: il valore che metti sul tavolo non è “quante righe scrivi”, ma quanto bene porti il tuo lavoro da A a B – in modo sicuro, sostenibile e comprensibile.

    Allaccia le cinture: si parte.


    fonti :”The summer of vibe coding is over“: https://www.cbinsights.com/research/reasoning-effect-on-ai-code-generation/

  • 2025: il 1994 dell’intelligenza artificiale

    2025: il 1994 dell’intelligenza artificiale

    Lo sai? Nel 1992 si poteva spedire una e-mail.

    Per farlo ci si appoggiava ad una struttura chiamata BBS (Bullettin Board System), internet in Italia non esisteva e il nodo BBS di Palermo era il mio computer.

    Un messaggio impiegava anche 24 ore per arrivare a destinazione e chi forniva il “servizio BBS” ne sosteneva tutti i costi, telefonici, elettrici, di manutenzione, senza alcun rimborso. Eppure, era già più veloce di una lettera, i postini ci chiamavano “pazzi furiosi” e iniziavano a temere per il loro futuro.

    Poi nel 1994 in Italia arrivò Internet. All’improvviso le e-mail arrivavano in pochi minuti grazie ad un abbonamento da 32 mila lire al mese (16 Euro) più i costi delle telefonate. I postini divennero sempre più nervosi e si aggiunsero i professori: la conoscenza cominciava a essere accessibile a tutti, senza bisogno di biblioteche o manuali universitari.

    Quindi arrivarono le email fake, le bufale sui gattini allevati dentro le bottiglie, i primi complottismi, il lato oscuro dell’informazione digitale prese subito forma, ma nello stesso tempo, arrivarono le applicazioni web, il marketing digitale, il commercio elettronico, cambiarono i modelli di business. Nacquero nuove professioni, interi mercati si spostarono online.

    La tecnologia continuò a correre: Blackberry ci regalò lo smartphone e Steve Jobs lo trasformò in un oggetto iconico con il display a cristalli liquidi multi-touch (grazie a Federico Faggin per averci raccontato cosa accadde davvero).

    Il resto è la storia che viviamo oggi. I postini? I professori? Sono ancora qui e si sono anche moltiplicati. La tecnologia non li ha cancellati: ha trasformato il loro lavoro, creando nuove opportunità.


    Qual è l’evoluzione prevedibile dell’AI?

    Oggi l’AI è, in gran parte, un sistema di chat.

    Facciamo una domanda e riceviamo una risposta, generata sulla base della probabilità statistica e dei dati su cui il modello è stato addestrato. È affascinante, ma ancora primitivo.

    Se confrontiamo il web del 1994 con il web del 2025, possiamo intuire come evolverà l’AI nei prossimi 10 anni:

    • Dinamismo e multimodalità – L’AI non sarà più solo testo, ma integrerà voce, immagini, video e sensori in tempo reale. Interagiremo con come con una persona, passando senza soluzione di continuità dal linguaggio naturale a gesti, suoni e contesti visivi.
    • Personalizzazione estrema – I modelli non saranno più “generici”, ma calibrati su di noi, sul nostro contesto e sulle nostre preferenze. Ognuno avrà un’AI “compagna di vita” che lo conosce e lo supporta nelle scelte quotidiane.
    • Integrazione invisibile – L’AI non vivrà più in una chat: sarà dentro i software, i servizi, i dispositivi quotidiani, proprio come oggi nessuno “usa HTML”, ma tutti usano applicazioni web costruite sopra.
    • Automazione autonoma – Non chiederemo solo “scrivi questo” o “spiegami quello”: delegheremo interi processi. L’AI potrà prenotare viaggi, gestire pratiche burocratiche, coordinare progetti.
    • Wearable AI – OpenAI e altri player stanno già lavorando a dispositivi indossabili che portano l’AI fuori dallo schermo. Occhiali, spille intelligenti, auricolari che ascoltano, vedono e rispondono in tempo reale, diventando un’estensione naturale della nostra memoria e delle nostre capacità.

    👉 In sintesi: se oggi l’AI è “l’HTML del 1994”, tra 10 anni sarà un ecosistema diffuso, multimodale e indossabile, non più solo una chat che risponde, ma un compagno digitale che ci affianca nella vita quotidiana.