Tag: ai

  • “Si investe solo sul software”: sul serio?

    “Si investe solo sul software”: sul serio?

    Sì, lo so cosa stai pensando quando pensi ad investire: “il software è veloce, è scalabile, costa poco e puoi farlo anche da un garage.”
    Hai ragione. Infatti, per anni mi sono sentito ripetere sempre le stesse frasi:
    “Perché non fai solo una piattaforma?”
    “Ma l’hardware non puoi evitarlo?”
    “Non ti stai complicando la vita?”

    Eppure, la verità è semplice:
    ci sono problemi che non si possono risolvere solo con una app: ci sono problemi per cui devi sporcarti le mani.

    Ciao, mi chiamo Aldo Prinzi e qualche anno fa ho deciso di costruire un dispositivo che portasse l’intelligenza artificiale là dove serve davvero: non solo nei grandi ospedali, ma anche nei piccoli ambulatori, nei poliambulatori di quartiere, negli studi dove si fanno diagnosi ogni giorno… e dove, troppo spesso, i dati restano su carta o su un CD.

    Così è nato MeRis.

    Un oggetto fisico. Non un’idea o un’app.
    Una scatola di tecnologia concreta, progettata per risolvere un problema e per stare nello studio medico, raccogliere dati in modo sicuro, anonimo, e renderli utili — al medico, al paziente, e all’intelligenza artificiale predittiva che sta cambiando la medicina.

    Ci ho messo anni, fatica… e soldi, ma adesso ho un prototipo funzionante.
    E sai una cosa? Non ho aspettato Sam Altman o Jony Ive.
    Loro oggi dicono che l’hardware è importante, io l’ho capito molto prima e, nel mio piccolo, l’ho già fatto.

    Se anche tu stai cercando di costruire qualcosa di reale, tangibile, non lasciare che ti scoraggino con la solita storia:
    “Meglio il software.”
    Certo, è più semplice, ma non sempre basta.
    Perché ci sono problemi reali, sotto gli occhi di tutti, che nessuno può risolvere solo con una app, a volte serve una scatola.


    Parola di Sam Altman

  • Universal prompt

    Universal prompt

    I social sono ormai invasi da raccolte che promettono “il prompt perfetto” – quasi sempre uno solo, e solo in cambio di un commento, una mail o l’iscrizione a una newsletter. L’hai notato anche tu?

    Sembra di essere tornati ai tempi in cui la conoscenza era un privilegio da scambiare e non da condividere liberamente e. Nel solco del mio stile, preferisco fare diversamente.

    Nel mio manuale (scaricabile gratis, senza richieste strane qui), non ho voluto inserire semplici elenchi di prompt “preconfezionati”, principalmente perchè credo sia necessario insegnare a costruire i propri prompt personalizzati, partendo dai principi e dalle tecniche che ti mettono davvero in controllo dell’AI. I prompt specifici.

    Quelli che creo su stimolo delle domande (o per i fatti miei) poi li pubblico direttamente sul blog, sempre disponibili senza richieste strane a chi vuole sperimentare davvero.

    Oggi presento un prompt che alza l’asticella: uno di quelli che aiuta a generare i prompt. Sì, hai capito bene: uno strumento universale per chi vuole risultati su misura, in ogni campo.

    Il risultato probabilmente non sarà immediatamente usabile per fornire un risultato soddisfacente, ma se segui le indicazioni del mio manuale sarai in grado di costruire quello perfetto per te partendo da uno di quelli che verranno generati.

    Se vorrai lasciarmi un feedback, o condividere questo post ne sarò felice, ma ciò che mi preme di più è che questa conoscenza circoli liberamente: condividila senza limitazioni come faccio io. Grazie.

    Universal prompt:

    Esegui questa procedura a step, se devi chiedermi qualcosa fallo e passa allo step successivo solo dopo la mia risposta, se non ci sono domande da farmi chiedimi se voglio fare qualche cambiamento prima di andare avanti. 
    
    Iniziamo!:
    
    Step 1: Chiedimi a quale settore sono interessato.
    
    Step 2: Chiedimi in quale area specifica di quel settore desidero creare dei prompt. Suggerisci esempi concreti di aree rilevanti per il settore scelto.
    
    Step 3: chiedimi il tono e lo stile che vorrei ottenere dai prompt che dovrai generare
    
    Step 4: Ora assumi il ruolo di esperto di prompt engineering specializzato proprio nell’ambito che ti ho indicato, con profonda conoscenza delle sfide operative e delle migliori pratiche di progettazione dei prompt. Il tuo compito è sviluppare una raccolta di prompt universali, modulari e facilmente personalizzabili, destinati a professionisti e creativi del settore, per ottenere output efficaci e affidabili da un modello AI.
    Produci almeno 8 prompt suddivisi per categoria d’uso e presta la massima attenzione alla correttezza dei riferimenti e alla pertinenza delle istruzioni: verifica due volte dati e fonti per evitare errori o allucinazioni.
    I prompt proposti devono:
    a. Essere chiari, adattabili e con segnaposto espliciti.
    b. Coprire diverse finalità pratiche (ad esempio: brainstorming, analisi, generazione di contenuti, revisione, automazione).
    c. Includere istruzioni precise su tono, stile e formato di output richiesto.
    d. Non devono essere generici, ma orientati a un utilizzo concreto, produttivo e professionale.
    e. non devono essere specitici per il tuo preciso ambito di elaborazione, ma usabili su qualsiasi chatbot ai (grock, chatGPT, DeepSeek, Claude, Gemini; ecc.)
    f. l'output deve essere sempre formattato, nel modo più consono all'ambito per cui il prompt è stato creato
    
    Step 5: Rileggi criticamente i prompt che hai generato e seleziona i 4 migliori secondo utilità, chiarezza e adattabilità assicurandoti che il prompt sia realmente utilizzabile anche da utenti principianti e che la spiegazione sia comprensibile anche ai neofiti.
    
    Step 6: Presenta il siultato in risposta con la seguente struttura:
    a. Titolo
    b. indicazioni: scrivi 25/30 parole per spiegare a cosa serve
    c. istruzioni: scrivi 40/50 parole almeno di istruzioni su come usare il prompt e il suo risultato
    d. testo: indica il prompt specifico
  • Gemini Implicit Caching al microscopio

    Gemini Implicit Caching al microscopio

    Il caching rende Gemini incredibilmente reattivo e l’apprendimento continuo modella la sua intelligenza.

    Vi siete mai accorti che chattando con un chatbot AI nelle risposte sembra che si ricordi cose che gli avete chiesto o scritto nel passato?Una delle ragioni è il caching, che adesso anche Google ha integrato nel suo Gemini in modo “implicito”.

    Ma come funziona esattamente questa “memoria potenziata” in un LLM? Invece di ricalcolare tutto da zero ad ogni interazione, il chatbot può intelligentemente mettere da parte e riutilizzare elementi cruciali: il contesto di una conversazione in corso per mantenere coerenza, rappresentazioni numeriche (embeddings) di termini e frasi frequenti, o persino schemi di ragionamento già elaborati per richieste simili.

    Non è una semplice cache statica; ma un meccanismo dinamico che si adatta, ch econsente ai chatbot di offrire risposte con una velocità e fluidità sorprendenti. L’ingegnosità dietro questa ottimizzazione è un vero spettacolo di efficienza computazionale.

    Parallelamente, il cuore delle intelligenze artificiale risiede nella loro straordinaria capacità di apprendimento adattivo, come una sorta di spugne linguistiche. Come ho spiegato nel mio libro gli LLM assorbono e processano quantità immense di dati testuali – libri, articoli, codice, e crucialmente, le nostre conversazioni – per costruire modelli complessi del linguaggio e del mondo e ogni volta che interagiamo forniamo una nuova lezione.

    Ciò gli permette di affinare la comprensione, ne migliora la pertinenza delle risposte e aiuta perfino a sviluppare nuove capacità.

    Tuttavia, ogni potente strumento tecnologico merita un esame attento. Il caching in Gemini, pur essendo un catalizzatore di prestazioni, introduce nuove considerazioni che siapplicano a tutti e non solo agli strumenti di Google.

    Ricorda sempre che quando qualcosa è gratis il prodotto sei tu e per Google, OpenAi, DeepSeek, Anthropic, ecc. la gestione di questi dati “memorizzati” è fondamentale.

    La domanda quindi è “come si bilancia l’efficienza con la privacy dell’utente”? Come si evita che una cache “viziata” da informazioni obsolete o interazioni anomale possa influenzare negativamente le future risposte, creando un feedback loop indesiderato? La trasparenza su cosa viene memorizzato e per quanto tempo diventa cruciale.

    Riguardo all’apprendimento adattivo, la qualità dei dati di input è sovrana e l’AI apprende anche dai testi che riflettono i nostri pregiudizi consci o inconsci e se le interazioni degli utenti sono spesso fuorvianti o malevole, l’intelligenza risultante sarà inevitabilmente viziata. Dunque esiste anche una responsabilità nel guidare questo apprendimento verso esiti etici?

    In conclusione, le innovazioni come il caching e l’apprendimento continuo rappresentano passi da gigante, ma l’entusiasmo per queste tecnologie deve essere accompagnato da una consapevolezza critica.

    Ho scritto il mio libro e aperto questo BLOG proprio per permettere al più ampio pubblico possibile di comprendere i meccanismi interni.

    E’ vero, personalmente apprezzo la sofisticazione tecnologica, ma allo stesso tempo vorrei stimolare le domande giuste che aiutino la gente a guidare lo sviluppo dell’AI verso un futuro che sia tanto intelligente quanto responsabile.