Autore: Aldus

  • Perché con l’IA in Medicina stiamo sbagliando bersaglio

    Perché con l’IA in Medicina stiamo sbagliando bersaglio

    Una recente ricerca di Anthropic ha rivelato un fatto che dovrebbe far riflettere chiunque si occupi di intelligenza artificiale: bastano 250 documenti “avvelenati” – una frazione infinitesimale, lo 0,00016% di un dataset – per sabotare il comportamento di un grande modello linguistico.

    Questo fenomeno, il cui nome è data poisoning, dimostra una verità matematica spietata: la qualità di un’IA è intrinsecamente legata all’integrità dei dati su cui si allena. Basta una quantità minuscola di dati sbagliati per corrompere il tutto.

    Ora, facciamo un salto dalla sicurezza informatica alla salute pubblica.

    Se l’introduzione di una manciata di dati tossici può essere così devastante, immaginate l’effetto catastrofico dell’assenza totale di una massa enorme di dati veri e puliti.

    È esattamente quello che sta succedendo oggi all’IA in medicina.

    Il “Data Poisoning” Invisibile della Sanità

    Mentre Anthropic testava quanto sia facile avvelenare un dataset, il nostro sistema sanitario sta inconsapevolmente commettendo un errore opposto ma altrettanto pericoloso: sta morendo di fame.

    Gli algoritmi che promettono di rivoluzionare la diagnostica sono addestrati quasi esclusivamente sui dati digitali dei grandi ospedali. Ma questo rappresenta solo una parte della storia clinica.

    Dov’è il restante 20-30%?
    È quel paziente dimesso dall’ospedale con una diagnosi incompleta che trova la soluzione in un ambulatorio territoriale. È quella diagnosi corretta, arrivata dopo settimane di esami mirati, che svanisce nel mare della carta di uno studio non digitalizzato.

    Questo non è un semplice buco, è un’avvelenamento per assenza.
    Stiamo costruendo un’IA “zoppa”, addestrata su una realtà clinica mutilata. Se bastano 250 documenti corrotti per deviare un modello, l’assenza di milioni di diagnosi corrette dal territorio rende l’IA medica intrinsecamente inaffidabile e pericolosamente parziale.

    La soluzione è curare la fonte o il sintomo?

    Il problema non è la tecnologia IA ma la catena di approvvigionamento dei dati.

    Le piccole strutture sanitarie – il cuore pulsante della cura sul territorio – non sono digitalizzate a causa di costi proibitivi, complessità normative e mancanza di tempo.

    La startup Medigenium ha creato MeRis per risolvere questo problema alla radice.

    Quanto costa l’antidoto al “data poisoning” strutturale dell’IA medica? ZERO.
    Anzi regala tra 10 e 20 mila auro agli ambulatori che la scelgono.

    MeRis è un dispositivo che, fornito in comodato d’uso gratuito, si collega agli strumenti medici esistenti e genera dataset completi e puliti, l’antidoto al “data poisoning” strutturale dell’IA medica.

    Non stiamo lottando contro un’IA che sbaglia. Stiamo lottando per dare all’IA tutti i dati di cui ha bisogno per non sbagliare.

    La lezione di Anthropic è chiara: l’integrità del dato è tutto. La nostra missione è garantire che l’IA in medicina sia nutrita con il 100% della verità clinica, non solo con la parte comodamente digitale.

    Perché ogni paziente curato in un ambulatorio periferico ha il diritto di contribuire al progresso della medicina, e di beneficiarne.

  • Verso l’approccio AGNOSTICO

    Verso l’approccio AGNOSTICO

    Negli ultimi giorni Microsoft ha annunciato che non si affiderà più a un unico modello di intelligenza artificiale (OpenAI), ma integrerà anche Anthropic, aprendo la strada a un futuro multi-modello.
    Nell’articolo, questa scelta viene descritta esplicitamente come un approccio “agnostico”: non vincolarsi a un solo modello, ma sfruttare di volta in volta quello più adatto.

    https://thereview.strangevc.com/p/microsofts-model-switch-why-ai-middleware

    Tra le motivazioni principali spiccano due aspetti:

    • Flessibilità: la possibilità di usare il modello giusto per il compito giusto.
    • Evoluzione naturale: entro 12 mesi ogni prodotto enterprise AI supporterà almeno due modelli.

    Quando ho letto queste parole, ho sorriso.

    Perché questa stessa intuizione io l’avevo già colta alla fine del 2024. Dopo tanti rimandi, a marzo, sfruttando l’occasione di una demo, ho deciso di mettere mano a una prima bozza del progetto.

    Il 26 giugno ho completato l’MVP, che ancora oggi recita:

    “u-prompt: Ciao. Questo MVP serve a dimostrare che u-prompt è un sistema chatbot-agentico alimentato dall’intelligenza artificiale –>e agnostico<–, nel senso che durante la tua chiacchierata puoi decidere di –>utilizzare agenti differenti<– per rispondere a singole domande ad esempio per sfruttarne –>le caratteristiche speciali<–.”

    Nei giorni successivi, confrontandomi con alcuni amici, abbiamo deciso di portare avanti il progetto e fissato la data del go-live: 15 settembre. Una scelta fatta mesi prima che Microsoft rendesse pubblica la sua svolta.

    Domani, 18 settembre, la startup viene presentata a Palermo ai cantieri culturali alla Zisa nell’ambito di un evento sull’AI.

    La differenza?

    Mentre Microsoft annuncia oggi di voler lavorare con due modelli, in u-prompt abbiamo già messo insieme, per la prima volta, cinque modelli diversi in un unico prompt.

    Questo percorso – dall’MVP al progetto online – dimostra che non viviamo di parole, ma di fatti. E soprattutto dimostra, prepotentemente, una capacità di anticipare il futuro e affrontare le sfide senza paura.

    Interessati? -> hey[at]u-prompt.com

    Early adopters? -> u-prompt.com

  • Oracle–OpenAI: perché a muovere i mercati non è “la migliore AI”?

    Oracle–OpenAI: perché a muovere i mercati non è “la migliore AI”?

    OpenAI non è la “migliore AI”, ma è certamente colei che fa i migliori affari. L’accordo da 300 mld con Oracle mostra come sul mercato vincono i primi.
    E in Europa? Regoliamo e non costruiamo.


    Fra il 10 e il 12 settembre è rimbalzata la notizia: OpenAI ha firmato con Oracle un accordo da 300 miliardi di dollari, circa cinque anni di capacità di calcolo a partire dal 2027. È uno dei più grandi contratti cloud mai riportati. Nel quadro più ampio, c’è anche la costruzione di 4,5 GW di nuova capacità data center legata all’iniziativa Stargate.

    Davvero ti interessa sapere cosa ne penso? Ecco qua:

    1. OpenAI non è “la migliore tecnologia” — è quella che fa i migliori affari

    Diciamolo chiaro: OpenAI oggi non è “la migliore AI disponibile” in senso assoluto. È tra le migliori, certo, ma ci sono competitor che in singoli task o verticali la superano. E mentre si discute, OpenAI ha perso pezzi grossi (da Ilya Sutskever a Mira Murati) e ha vissuto scosse interne importanti. Eppure sigla il mega-accordo che ridefinisce l’offerta di calcolo per i prossimi anni.

    Questo è l’insegnamento: vince chi arriva prima sul mercato chiude le alleanze giuste—anche se la tecnologia non è oggettivamente “la migliore”.

    Il contratto con Oracle è un segnale chiarissimo. Chi controlla calcolo + energia + supply chain hardware si compra tempo, scalabilità e posizionamento. È una barriera competitiva concreta, più dei comunicati sui modelli.

    Se alle spalle c’è una capacità prenotata per 5 anni e un’infrastruttura da gigawatt, tutti gli altri sono costretti a inseguire.

    2. I colossi si muovono lenti, ma quando si muovono fanno rumore. E in Europa… regoliamo.

    I giganti si muovono con la velocità di un bradipo: board, compliance, procurement, iter infiniti. Ma quando mettono giù il piede, la terra trema.

    L’intesa Oracle–OpenAI fa esattamente questo: sposta gli equilibri perché mette a terra infrastruttura reale, non solo slide.

    E mentre da noi passiamo (giustamente) molto tempo a discutere di guerra, etica, regolamenti, negli USA e in Cina si costruisce: si comprano GW, si prenotano GPU, si firmano contratti pluriennali, si aprono cantieri.

    Qui l’Europa mostra la sua inadeguatezza: loro fanno, noi regolamentiamo. Attenzione: le regole servono (eccome!), ma se in parallelo non costruiamo —capex, campus, grid, filiere—restiamo clienti del progresso altrui.

    Il punto non è deregolare, è FARE, costruire, realizzare, cantierizzare. L’accordo da 300 mld non è un comunicato: è calcolo prenotato che verrà consumato in prodotti, servizi e API.


    Note di contesto (senza farsi incantare dai numeri)

    • $300 mld / 5 anni, start 2027: cifra e finestra temporale riportate dal Wall Street Journal e riprese da più testate; non sono dettagli ufficiali pubblicati da OpenAI/Oracle, ma fonti solide convergono su questi ordini di grandezza.
    • 4,5 GW “Stargate”: qui c’è un annuncio pubblico (luglio) sull’espansione con Oracle negli USA; il numero è esplicito.
    • Diversificazione oltre Azure: la traiettoria era visibile già dal 2024, quando OpenAI scelse OCI per estendere Azure AI.

    non metto qui i link alle fonti, dovreste sapere usare chatbot e google, no?

    Dunque?

    Se lavori in AI, la domanda non è “quale modello è il migliore oggi?”, ma “chi avrà calcolo ed energia domani“?.

    Le feature si copiano; le prenotazioni di calcolo no. L’accordo Oracle–OpenAI è esattamente questo: posizionamento.

    Perché ho creato u-prompt

    È su queste basi che ho ideato u-prompt.com: chi si muove, chi fa, chi produce… vince su chi ha paura.

  • Metteresti una supercar nelle mani di chi non ha la patente?

    Metteresti una supercar nelle mani di chi non ha la patente?

    Ovvero: perchè “sostituire” un programmatore è (davvero) costoso

    Leggo da molti mesi gente che esulta perchè grazie all’AI sta realizzando il software che aveva sempre sognato, ma sul quale non aveva le idee abbastanza chiare (ma davvero?) e la motivazione necessaria per investire i soldi necessari a farlo sviluppare da chi fa questo mestiere.

    Queste persone esultano su tutti i forum e social perché “finalmente” sono riusciti a coronare il loro sogno.

    Quando ho iniziato a ricevere un decimo delle chiamate solite dai rompiscatole, ho comprato i pop corn e mi sono seduto in prima fila. Mi presento, sono Aldo Prinzi e faccio il programmatore da quando avevo 16 anni. nel 2025 ne ho compiuti 60, faccio questo mestiere da più di 40 anni e ho assistito ad almeno a 4 rivoluzioni che avrebbero dovuto decimare i programmatori.

    La verità è che scrivere codice è solo una parte del lavoro e farlo fare da qualcuno che solo appare preparato – umano o AI – costa.

    Immagina un’auto da centinaia di migliaia di euro, una Ferrari o una Porsche. Ora immagina di essere il COO dell’azienda che la possiede e chiediti se la affideresti a chi non sa guidare. Con il software è uguale: l’AI è l’auto potente, il programmatore è il driver, l’architetto è il progettista e l’analista è il meccanico.

    1. Devi avere chiaro cosa vuoi ottenere
    2. Devi avere chiaro come ottenerlo

    Solo dopo puoi iniziare.

    Te lo immagini un chirurgo che ti porta in sala operatoria senza farti una diagnosi? Questo è esattamente quello che sta facendo chi usa l’IA per sviluppare il “software dei suoi sogni”.

    l’IA è uno strumento, se pensi di diventare un dottore ere la vita a tuo nipote perché hai comprato uno stetoscopio, beh la colpa non è dello stetoscopio né del suo inventore.


    Sostituire un programmatore costa (più di quanto pensi)

    Passiamo ora all’altra questione strombazzata sui social e forum, l’azienda che licenzia o sostituisce persone. Licenziare (o sostituire) è togliere dalla contabilità uno stipendio, vero, ma ha costi nascosti che si sommano:

    • Selezione e inserimento: tempo per cercare, fare colloqui, formare la nuova risorsa. Nel frattempo, i progetti rallentano.
    • Perdita di conoscenza: chi va via si porta con sé dettagli, scelte passate, “trucchi” del sistema. Ricostruirli richiede settimane.
    • Rischio sui progetti: errori, ritardi, bug che emergono quando cambia chi decide e chi verifica.
    • Tempo di chi coordina: manager e colleghi devono seguire di più il nuovo arrivato, togliendo tempo ad altre attività.
    • Qualità e sicurezza: il codice non è solo “funziona/non funziona”; deve essere manutenibile, testato, sicuro, leggibile dal team.

    Per questo, spesso far crescere un programmatore junior costa meno che sostituirlo.


    Cosa sta emergendo dal mercato (in parole semplici)

    Crescita lampo del “vibe coding”: i nuovi modelli “di ragionamento” permettono di dare obiettivi alti (“rendi questo componente responsive, rendi questa classa più sicura, …”) e lasciare che l’AI si occupi dei passi intermedi.

    Però quando l’AI “pensa di più”, consuma molto di più (quindi aumentano i costi), sicchè alcuni fornitori hanno messo limiti e a breve ci saranno aumenti dei prezzi, perché i conti non tornano.

    Stop ai “tutto incluso”: i contratti a quota fissa diventano rischiosi per chi vende; si passa a modelli a consumo o ibridi (postazione + consumo), con tetti all’uso dell’AI “ragionante”. Cresce la pressione sui margini e aumentano i (reverse) acqui-hire: i big assorbono i team più bravi, spesso lasciando fuori i prodotti meno sostenibili.

    Due leve emergono per tenere i costi a bada:

    • Modelli open (più economici), che però richiedono più lavoro per sicurezza, affidabilità e gestione.
    • Prezzi “a compito”: paghi per l’esito (“aggiungi l’error handling”) con un preventivo chiaro e cap ai consumi.

    E chi sarà messo a gestire l’AI per produrre parti di codice? Un avvocato? Un medico? Un contabile? Uno sportivo?


    Stai iniziando? Ecco un percorso facile

    1) Basi solide, senza correre

    • Impara bene un linguaggio (JavaScript/Python/PHP vanno benissimo).
    • Impara a usare Git, a scovare gli errori, a fare debug.
    • Scrivi test! (anche pochi, ma veri).
    • Documenta nel codice: un giorno lavorerai in un gruppo, sarai felice di leggere la documentazione nei commenti di una funzione!

    2) AI come copilota, non come pilota

    • Impara a chiedere all’AI (non è così semplice)
    • Chiedile di spiegare prima di scrivere.
    • Fatti generare i test, poi prova a romperli.
    • Se una risposta è lunga, riassumi e verifica.
    • Tieni traccia di cosa ti ha fatto risparmiare tempo e cosa no.
    • Non accettare le modifiche tout court: verifica!

    3) Abitudini che ti rendono “assicurabile”

    • Commenti essenziali, README chiaro, changelog breve.
    • Niente “magia”: funzioni corte, nomi chiari.
    • A ogni bug risolto, una lezione annotata (“la prossima volta faccio così”).

    Per le aziende (e per te che vuoi farti assumere)

    • Affidabilità batte velocità: un junior affidabile che sa usare l’AI in modo sicuro vale più di 10 feature fatte “di corsa”.
    • Prevedibilità dei costi: chi sa usare nel modo corretto e guidare l’AI riduce sorprese in fattura e in produzione.
    • Manutenibilità: il codice deve vivere anni. Chi tiene in ordine oggi fa risparmiare domani.
    • Documentazione: ricorda che l’AI ti aiuta anche a fare documentazione, non sottovalutarla.

    Questo è il motivo per cui nessuna azienda sensata mette una “supercar” nelle mani di chi non ha ancora la patente. E se la supercar è un assistente AI potentissimo, servono ancora più regole, esperienza e responsabilità.


    Messaggio finale (per te che vuoi iniziare questo splendido lavoro)

    #1 – Smetti di avere paura.

    Abbraccia l’AI e impara a guidarla.
    Diventa la persona che: capisce il problema, disegna la strada, usa l’AI per accelerare e che sa frenare quando serve.

    L’auto è costosa. I progetti valgono. Le aziende cercano driver preparati: il valore che metti sul tavolo non è “quante righe scrivi”, ma quanto bene porti il tuo lavoro da A a B – in modo sicuro, sostenibile e comprensibile.

    Allaccia le cinture: si parte.


    fonti :”The summer of vibe coding is over“: https://www.cbinsights.com/research/reasoning-effect-on-ai-code-generation/

  • 2025: il 1994 dell’intelligenza artificiale

    2025: il 1994 dell’intelligenza artificiale

    Lo sai? Nel 1992 si poteva spedire una e-mail.

    Per farlo ci si appoggiava ad una struttura chiamata BBS (Bullettin Board System), internet in Italia non esisteva e il nodo BBS di Palermo era il mio computer.

    Un messaggio impiegava anche 24 ore per arrivare a destinazione e chi forniva il “servizio BBS” ne sosteneva tutti i costi, telefonici, elettrici, di manutenzione, senza alcun rimborso. Eppure, era già più veloce di una lettera, i postini ci chiamavano “pazzi furiosi” e iniziavano a temere per il loro futuro.

    Poi nel 1994 in Italia arrivò Internet. All’improvviso le e-mail arrivavano in pochi minuti grazie ad un abbonamento da 32 mila lire al mese (16 Euro) più i costi delle telefonate. I postini divennero sempre più nervosi e si aggiunsero i professori: la conoscenza cominciava a essere accessibile a tutti, senza bisogno di biblioteche o manuali universitari.

    Quindi arrivarono le email fake, le bufale sui gattini allevati dentro le bottiglie, i primi complottismi, il lato oscuro dell’informazione digitale prese subito forma, ma nello stesso tempo, arrivarono le applicazioni web, il marketing digitale, il commercio elettronico, cambiarono i modelli di business. Nacquero nuove professioni, interi mercati si spostarono online.

    La tecnologia continuò a correre: Blackberry ci regalò lo smartphone e Steve Jobs lo trasformò in un oggetto iconico con il display a cristalli liquidi multi-touch (grazie a Federico Faggin per averci raccontato cosa accadde davvero).

    Il resto è la storia che viviamo oggi. I postini? I professori? Sono ancora qui e si sono anche moltiplicati. La tecnologia non li ha cancellati: ha trasformato il loro lavoro, creando nuove opportunità.


    Qual è l’evoluzione prevedibile dell’AI?

    Oggi l’AI è, in gran parte, un sistema di chat.

    Facciamo una domanda e riceviamo una risposta, generata sulla base della probabilità statistica e dei dati su cui il modello è stato addestrato. È affascinante, ma ancora primitivo.

    Se confrontiamo il web del 1994 con il web del 2025, possiamo intuire come evolverà l’AI nei prossimi 10 anni:

    • Dinamismo e multimodalità – L’AI non sarà più solo testo, ma integrerà voce, immagini, video e sensori in tempo reale. Interagiremo con come con una persona, passando senza soluzione di continuità dal linguaggio naturale a gesti, suoni e contesti visivi.
    • Personalizzazione estrema – I modelli non saranno più “generici”, ma calibrati su di noi, sul nostro contesto e sulle nostre preferenze. Ognuno avrà un’AI “compagna di vita” che lo conosce e lo supporta nelle scelte quotidiane.
    • Integrazione invisibile – L’AI non vivrà più in una chat: sarà dentro i software, i servizi, i dispositivi quotidiani, proprio come oggi nessuno “usa HTML”, ma tutti usano applicazioni web costruite sopra.
    • Automazione autonoma – Non chiederemo solo “scrivi questo” o “spiegami quello”: delegheremo interi processi. L’AI potrà prenotare viaggi, gestire pratiche burocratiche, coordinare progetti.
    • Wearable AI – OpenAI e altri player stanno già lavorando a dispositivi indossabili che portano l’AI fuori dallo schermo. Occhiali, spille intelligenti, auricolari che ascoltano, vedono e rispondono in tempo reale, diventando un’estensione naturale della nostra memoria e delle nostre capacità.

    👉 In sintesi: se oggi l’AI è “l’HTML del 1994”, tra 10 anni sarà un ecosistema diffuso, multimodale e indossabile, non più solo una chat che risponde, ma un compagno digitale che ci affianca nella vita quotidiana.

  • Prompt perfetti, risposte fredde: cosa ci stiamo perdendo?

    Prompt perfetti, risposte fredde: cosa ci stiamo perdendo?

    Più studio e applico le regole del Prompt Engineering, più mi accorgo che stiamo commettendo un errore di fondo…

    …e lo dico andando contro le mie credenze, contro la mia mentalità schematica e tecnica.

    L’altro giorno, alla ricerca del perfetto prompt impeccabile avevo dedicato più di un’ora per perfezionarne ogni parte: avevo seguito tutte le “regole” che ho inserito nel mio manuale, definendo il contesto, specificando l’obiettivo, fornendo esempi e invitando il modello a fare un ragionamento passo passo.
    La risposta era impeccabile. Ma anche fredda, meccanica, senz’anima. Come un manuale di istruzioni.

    Ma rileggendola l’ho trovata fredda e meccanica, come la pagina di un manuale d’istruzioni.

    In quel momento, guardando quella risposta senz’anima ho intuito una cosa fondamentale: stiamo affrontando la questione del prompting probabilmente al contrario.

    Il vero problema non è come parliamo all’IA

    Tutti corrono a diventare esperti di prompt: corsi, guide, framework. Un esercizio enorme di energie per imparare a parlare ‘computerese’. Ma è davvero questo il punto?

    Ho parlato con diverse persone – creativi, professionisti, studenti – che provano una frustrazione enorme con l’IA. Mi dicono: “Voglio che questo testo suoni competente ma anche empatico” oppure “Deve trasmettere fiducia, senza però sembrare una televendita”.

    Tutti ovviamente usiamo una tecnica che chiamiamo “prompting” per comunicare con l’AI… ma se ci pensi quando mai “il prompting” è stato il nostro modo di comunicare?

    Non credo che Anthropic, Google, openAI, xAi, ecc. abbiano mai avuto come obiettivo quello di insegnare alle macchine a capire i nostri ordini. Quella cosa esiste già e si chiama “programmazione”.

    Credo che l’AI sia stata pensata per realizzare macchine che siano in grado di capirci e le nostre emozioni, le nostre esitazioni, le nostre intuizioni.

    Con un amico non usi un manuale, se lo vedi confuso, semplifichi e rassicuri, se è carico, ti lasci trascinare. Non stai strutturando un prompt: ascolti, percepisci, ti adatti

    Un umano capisce al volo le sfumature, per l’IA invece dobbiamo scomporre quell’intuizione in una serie di istruzioni, e quando lo facciamo impegniamo del tempo alla ricerca della perfezione. Dopo un po’ di tempo il nostro cervello si annoia e ci arrendiamo all’ultima “buona risposta”… Ma il testo generato perde tutta la magia.

    Il vero salto di qualità? Riuscire a dare l’idea di quale sia la nostra intenzione indicando anche lo stato d’animo.

    Come? Smettendo di tradurre noi stessi

    La tecnologia per far diventare più umana la risposta del prompt esiste? Si, i modelli più avanzati sono in grado di analizzare il tono, la scelta delle parole e persino il ritmo di una richiesta per dedurre il contesto emotivo. Il problema è che, finora, abbiamo trattato questo contesto come “rumore di fondo”, un disturbo da eliminare per arrivare al comando “puro”.

    Quel ‘rumore’, in realtà, è il segnale più importante.

    Una richiesta che inizia con:

    “Ok, sono nel caos più totale e non so da dove iniziare con questo progetto…”

    Attiva una risposta completamente diversa rispetto a:

    “Ho un’idea pazzesca per questo progetto e voglio esplorare tutte le strade possibili!”

    L’obiettivo è lo stesso, ma l’energia è opposta, sicché anche l’aiuto fornito deve essere diverso: da chiarezza e struttura a creatività e brainstorming.

    Questo è il futuro: l’intenzione che vince sull’istruzione.

    Provalo adesso!

    Apri il tuo chatbot preferito e non pensare al prompt perfetto, fai un respiro e scrivi, di getto, spiega a cosa stai lavorando e, soprattutto, come ti senti al riguardo.

    Parla come faresti con un collega di cui ti fidi e includi il tuo stato d’animo nella richiesta:

    • “Mi sento creativo ma ho le idee ancora confuse.”
    • “Sono molto concentrato ma ho pochissimo tempo, quindi vado dritto al punto.”
    • “Sono bloccato su questa cosa e mi servirebbe una prospettiva completamente diversa.”

    E magicamente la qualità delle risposte cambierà perché avrai fornito un’informazione cruciale: non solo cosa ti serve, ma come ti serve.

    Quando ho scritto il manuale l’ho fatto per farti smettere di sprecare energie per “ricordare come programmare” l’IA. Applica le tecniche, sono ancora perfettamente funzionati e utili, ma inizia anche a spiegare come ti serve la risposta. In questo modo l’energia, il tuo pensiero, la tua creatività entrano nell’interazione trasformandola in una vera collaborazione.

  • Le Innovazioni dell’AI: GPT-5, Grok4 e il salto quantico di Claude

    Le Innovazioni dell’AI: GPT-5, Grok4 e il salto quantico di Claude

    E’ agosto e mentre noi ci prendiamo le ferie il mondo dell’intelligenza artificiale sta vivendo un momento di accelerazione straordinaria.

    Qui vi parlo del lancio delle innovazioni da parte dei principali attori del settore: OpenAI, xAI e Anthropic, l’ultimo dei quali fa il vero salto quantico. Vedremo anche le risposte di Google e DeepSeek. Ogni azienda ha scelto una strategia diversa, ma tutte spinte dalla concorrenza a dare di più.

    OpenAI e GPT-5: Quando la Trasparenza Diventa Spettacolo

    OpenAI ha rilasciato GPT-5 il 7 agosto 2025, rendendolo accessibile fin da subito come opzione predefinita per tutti gli utenti, anche quelli che usufruiscono del servizio gratuitamente.

    GPT-5 integra un sistema che decide in autonomia se fornire una risposta rapida o se “prendersi del tempo per pensare”, scegliendo l’approccio migliore per ogni richiesta senza che l’utente debba modificare alcuna impostazione.

    Questa funzionalità trasforma quello che era un processo noioso in una vera e propria esperienza visiva.

    Il ‘giochino di animazione’ di GPT-5 mostra all’utente esattamente come arriva alle sue conclusioni, rappresentando un perfetto esempio di gamification applicata all’AI: l’intrattenimento visivo compensa i tempi più lunghi necessari per il ragionamento.

    Caratteristiche chiave di GPT-5:

    • Ragionamento trasparente: mostra il processo di pensiero in tempo reale;
    • Riduzione delle allucinazioni: circa dell’80% inferiore di errori fattuali rispetto a o3;
    • Accessibilità totale: disponibile gratuitamente per tutti gli utenti.

    Grok4: La Sfida di Elon Musk

    xAI ha lanciato Grok 4 il 10 luglio 2025, e Musk lo ha presentato nel suo inconfondibile stile di affermazioni audaci: “l’intelligenza artificiale più intelligente al mondo”.

    Le principali innovazioni di Grok4:

    Sistema Multi-Agente con Grok 4 Heavy

    E’ un approccio collaborativo e rappresenta una novità assoluta nel settore, perché permette a diversi “cervelli artificiali” di lavorare insieme su problemi complessi. In Italia, SuperGrok Heavy costa 349€ al mese, il prezzo più elevato tra le soluzioni IA consumer ad oggi.

    Prestazioni da Record

    Ovviamente i risultati sui benchmark sono impressionanti:

    • Humanity’s Last Exam: outperforming Google’s Gemini 2.5 Pro and OpenAI’s o3 (high)
    • ARC-AGI-2: il risultato di 16.2% è quasi il doppio del migliore modello commerciale di AI

    Produzione di Immagini

    Anche Grok 4, come SORA o VEO è in grado di produrre immagini e video, questi ultimi però solo attraverso abbonamenti premium.

    Anthropic e Claude: Il Vero Salto Quantico

    Ma il vero “salto quantico” lo fa Anthropic. Claude che ora ha la capacità di ritrovare e referenziare le chat precedenti risolve quello che era il limite più frustrante di tutti i chatbot AI: la perdita di memoria conversazionale.

    Fine del Limite Fisico!

    Tradizionalmente, ogni conversazione con un AI ha un limite massimo di token (parole) che può processare e che, una volta raggiunto, richiede di ricominciare da capo perché il modello “dimentica” l’inizio della conversazione.

    Beh, adesso Claude non ha più questo problema perché può accedere a tutta la storia delle conversazioni passate:

    • Ricordare progetti sviluppati in conversazioni precedenti
    • Mantenere il contesto di discussioni complesse sviluppate in sessioni multiple
    • Continuare analisi iniziate settimane o mesi prima
    • Costruire una vera “memoria di lavoro” a lungo termine

    Questa funzionalità trasforma Claude in un vero assistente personale, in grado di mantenere il filo del discorso e l’evoluzione del pensiero dell’utente nel tempo.

    A) Quando aprite Claude vi viene chiesto se lo volete autorizzare a leggere le vecchie/altre conversazioni.

    B) Questo è il mio segreto per evitare le “allucinazioni” del modello (come per GPT-5 rispetto GPT-o3 😎).

    Google/Gemini

    Google è rimasta a guardare? Le risposte significative presentate al Google I/O 2025 e implementate durante l’estate si concentrano su tre pilastri: sistemi multi-agente, capacità agentiche e integrazione profonda nell’ecosistema Google.

    Gemini 2.5 Deep Think: Il Sistema Multi-Agente

    Il 1° agosto 2025, Google ha rilasciato Gemini 2.5 Deep Think, il suo primo sistema multi-agente che, come xAi-Grok4-Heavy genera multipli agenti AI per affrontare una domanda in parallelo, un processo che utilizza significativamente più risorse computazionali di un singolo agente, ma tende a produrre risposte migliori.

    La caratteristica più interessante di Deep Think è che è capace di produrre “risposte molto più lunghe” rispetto agli altri prodotti di AI in commercio.

    Infine una nota importante per chi fa commercio elettronico, viene introdotto lo Shopping agentico: funzionalità di checkout automatico che effettua acquisti quando il prezzo è giusto

    E DeepSeek?

    Nel 2025 è emerso un protagonista inaspettato che ha scosso le fondamenta dell’industria AI: DeepSeek, un laboratorio di ricerca cinese che ha dimostrato come l’innovazione possa nascere da limitazioni apparenti.

    Il modello è 100% gratuito in chat e poco costoso via API, si distingue per diverse caratteristiche innovative. Al momento in cui scrivo questo articolo non ci sono speciali annunci o rilasci in risposta alle mosse dei “concorrenti”.

  • Silver Startupper: Quando l’esperienza fa davvero la differenza (anche nell’AI)

    Silver Startupper: Quando l’esperienza fa davvero la differenza (anche nell’AI)

    Siamo abituati a immaginare gli startupper come giovani ventenni, entusiasti e privi di timori, ma oggi dati e realtà ci dicono qualcosa di diverso: l’età media dei fondatori di startup di successo si aggira sui 45 anni.

    Per anni, il messaggio diffuso è stato chiaro: “l’innovazione appartiene ai giovani”. Ma basta guardarsi intorno per capire che la narrativa sta cambiando. Herbert Boyer fondò Genentech, poi valutata 47 miliardi di dollari, quando aveva 40 anni; David Duffield avviò Workday a 64 anni, creando un colosso oggi valutato oltre 43 miliardi. Persino nel settore dell’intelligenza artificiale si inizia a comprendere che l’esperienza non è un ostacolo, bensì un vantaggio competitivo.

    I fondatori senior portano al tavolo qualcosa di unico: l’esperienza accumulata negli anni, una profonda conoscenza del mercato e, soprattutto, una gestione matura del fallimento. Dopo aver già sperimentato le insidie del mercato e vissuto sulla propria pelle almeno un insuccesso, chi supera una certa età affronta le nuove sfide con una consapevolezza diversa. Sa cosa evitare, quali rischi correre e soprattutto come affrontare i momenti difficili.

    Questa maturità si riflette direttamente anche nella gestione finanziaria: gli imprenditori senior hanno esperienza, sono più cauti con i capitali e dispongono di reti di contatti consolidate, aspetti cruciali per una startup che vuole crescere rapidamente.

    Eppure, nonostante questi vantaggi evidenti, in Italia persiste una sorta di discriminazione anagrafica. Le istituzioni puntano quasi esclusivamente sui giovani under 40 e sulle donne, ignorando completamente l’enorme potenziale dell’esperienza che possono apportare gli imprenditori maturi. Oggi, infatti, non esiste praticamente nessun incentivo pubblico italiano specificamente rivolto agli imprenditori che superano i 55 anni, mentre per donne e giovani sotto i 35 anni sono stati stanziati centinaia di milioni di euro tramite il PNRR.

    Personalmente, ho sperimentato quanto possa essere frustrante cercare risorse per avviare progetti innovativi nel nostro paese in generale e specialmente superati certi limiti di età, tuttavia, questa esperienza mi ha spinto ancora di più verso l’innovazione, portandomi a creare u-prompt, una piattaforma destinata a democratizzare l’accesso corretto e professionale all’intelligenza artificiale, la prima del suo genere in Italia e probabilmente in Europa.

    u-prompt ha già un chatbot multicanale che fa risparmiare almeno 40€ al mese ai professionisti, ma presenterà un agente-chatbot innovativo capace di replicare tutte le funzionalità avanzate dei principali strumenti AI presenti oggi sul mercato, ad una frazione del costo attuale. Questo consentirà ai professionisti del settore di risparmiare da un minimo di 100€ fino a 800€ al mese, mentre gli appassionati e gli hobbisti potranno finalmente accedere a tecnologie AI finora economicamente fuori dalla loro portata.

    L’MVP di questo agente-chatbot è già disponibile per chi vorrebbe investire nella start-up.

    Un tasso di successo del 70%
    Tra gli oltre 1,5 milioni di imprenditori nel mondo, quelli sopra i 50 anni hanno maggiori probabilità di avere successo rispetto alle controparti più giovani. Oggi negli Stati Uniti un’impresa su tre è avviata da qualcuno di 50 o più anni. Ma c’è di più. Se solo il 28% delle start up create dai giovani durano più di tre anni, per quelle accese da over 60 il tasso di successo è del 70 per cento. È quanto mette nero su bianco il rapporto “The Longevity Economy” realizzato dall’Aarp and Oxford Economics. «Poter fisicamente e psicologicamente lavorare significa anzitutto riconoscere il proprio contributo alla società di cui si è parte, poter produrre reddito, non gravare sulle pensioni e quindi sui giovani per dover finanziare i più vecchi. Significa anche avere capacità di spesa, permettere all’economia di rimanere in un ciclo attivo», precisa Palmarini, che prospetta un futuro ancora più determinato dalla generazione silver.

    Come correttamente riportato nell’articolo su Sole24Ore e non mi sento affatto escluso dalla corsa all’innovazione per via della mia età, al contrario, sono convinto che proprio l’esperienza maturata negli anni possa fare la differenza nella capacità di leggere il mercato, anticipare i bisogni degli utenti e costruire soluzioni realmente efficaci.

    u-prompt è il risultato di questa convinzione, un progetto che mostra chiaramente come il valore dell’esperienza, del fallimento e della resilienza possa tradursi in innovazioni concrete e di successo, sfidando ogni pregiudizio anagrafico.

  • l’AI ucciderà Google?

    l’AI ucciderà Google?

    L’algoritmo con cui funziona il motore di ricerca di Google può tranquillamente sopravvivere all’AI, pertanto sono sempre stato scettico sulla longevità dell’algoritmo del motore di ricerca… ma:

    pare che il modo in cui cerchiamo informazioni online sta cambiando.

    Una recente analisi ha mostrato che oltre il 50% delle ricerche su Google si conclude senza clic (che è la base di funzionamento di quell’algoritmo). Tra i motivi c’è il fatto che spesso gli utenti trovano risposte direttamente nella pagina dei risultati.

    Infine è significativo il rapido aumento degli utenti che si affidano direttamente all’intelligenza artificiale senza passare dal motore di ricerca.

    Mentre per gli utenti finali è tutto grasso che cola, per chi vive esclusivamente di traffico organico basato su Google è un problema. Se oltre il 40% del traffico del sito arriva ancora da Google, potrebbe succedere che venga eliminato direttamente dalle risposte sintetizzate delle AI.

    Scrivere per i modelli, non per i motori

    La soluzione potrebbe non essere più “ottimizzare per l’algoritmo di Google”, ma creare contenuti pensati per essere letti, compresi e utilizzati dalle intelligenze artificiali, ovvero diventare una fonte autorevole citata direttamente nelle risposte generate dagli LLM (Large Language Models).

    Google continuerà a servire per ricerche specifiche, come trovare siti ufficiali, documenti o pagine precise. Ma per sintesi, ragionamenti e analisi, l’intelligenza artificiale è già un passo avanti.

    Dunque quale sarà il futuro del controllo dei contenuti?

    Il classico file robots.txt, usato dai siti web per indicare ai motori di ricerca quali contenuti possono essere indicizzati, potrebbe presto evolversi in llms.txt. Questo nuovo file, proposto recentemente, è concepito per regolare l’accesso ai contenuti web da parte dei modelli linguistici come ChatGPT e Bard.

    llms.txt nasce proprio per rispondere a una domanda cruciale:

    come impedire (o favorire) l’utilizzo dei propri contenuti da parte delle intelligenze artificiali?

    Tuttavia, allo stato attuale è soltanto una proposta senza valore pratico immediato, poiché nessun grande player dell’AI ha ancora ufficialmente adottato questo standard.

    Cosa possono fare le aziende oggi?

    In attesa di sviluppi le aziende dovrebbero:

    • Continuare a usare robots.txt per gestire l’accesso dei bot AI noti, come GPTBot.
    • Valutare attentamente quali contenuti consentire o bloccare.
    • Monitorare regolarmente i log del server per tracciare l’attività dei bot delle AI.
    • Mantenere un’alta qualità e autorevolezza dei contenuti, perché le AI riescono a identificare le fonti più affidabili (e se i tuoi contenuti sono generati dall’AI).

    I miei 2c sull’approccio vincente: sarà quello flessibile e proattivo. In pratica prepararsi oggi per essere pronti domani, informarsi sempre e prepararsi a strumenti come llms.txt che potrebbero diventare essenziali a breve.


  • Creare, non seguire – Lezioni dal mio percorso imprenditoriale

    Creare, non seguire – Lezioni dal mio percorso imprenditoriale

    L’innovazione parte da dentro, non dalla moda del momento

    Spesso si pensa che fare impresa significhi inseguire trend o replicare quello che “va di moda”. Ma come sottolinea bene Alessandro Benetton, “Penso che inventare qualcosa di nuovo (non innovativo ma nuovo) sia veramente difficile”

    Da anni, quando penso o immagino ogni mio primo progetto, parto dalla consapevolezza non sta nell’agganciarmi alle tendenze mainstream, ma nel creare valore da zero: osservando bisogni reali, sperimentando strade mai battute, e restando fedele alla mia visione.

    Benetton lo ribadisce: imprenditore significa avere coraggio, indipendenza e discontinuità, dissentire e costruire percorsi non lineari e per me ha ragione.

    Il momento della mia svolta è arrivato quando ho deciso di non seguire gli altri, ma di provarci da solo, imparando strada facendo, anche sbagliando.

    Le cose più significative sono nate così: da una consapevolezza profonda, dall’ascolto di stimoli esterni, da una fusione tra audacia e metodo, con l’intento di risolvere un problema e trarne il massimo vantaggio per tutti, azienda e cliente:

    Teche Rai
    DocuBox
    Flussu
    Medigenium
    u-prompt

    Se sei un imprenditore o stai iniziando un progetto, il consiglio è semplice: non inseguire la moda, ma coltiva qualcosa di tuo. Coltiva la discontinuità, resta fedele alla tua visione, e costruisci valore.

    I veri risultati arrivano quando intrecci coraggio e metodo, anche se ti dicono che sei “troppo avanti”, come fanno con me, non cambiare, combatti le menti vecchie!