Tag: ai

  • “Si investe solo sul software”: sul serio?

    “Si investe solo sul software”: sul serio?

    Sì, lo so cosa stai pensando quando pensi ad investire: “il software è veloce, è scalabile, costa poco e puoi farlo anche da un garage.”
    Hai ragione. Infatti, per anni mi sono sentito ripetere sempre le stesse frasi:
    “Perché non fai solo una piattaforma?”
    “Ma l’hardware non puoi evitarlo?”
    “Non ti stai complicando la vita?”

    Eppure, la verità è semplice:
    ci sono problemi che non si possono risolvere solo con una app: ci sono problemi per cui devi sporcarti le mani.

    Ciao, mi chiamo Aldo Prinzi e qualche anno fa ho deciso di costruire un dispositivo che portasse l’intelligenza artificiale là dove serve davvero: non solo nei grandi ospedali, ma anche nei piccoli ambulatori, nei poliambulatori di quartiere, negli studi dove si fanno diagnosi ogni giorno… e dove, troppo spesso, i dati restano su carta o su un CD.

    Così è nato MeRis.

    Un oggetto fisico. Non un’idea o un’app.
    Una scatola di tecnologia concreta, progettata per risolvere un problema e per stare nello studio medico, raccogliere dati in modo sicuro, anonimo, e renderli utili — al medico, al paziente, e all’intelligenza artificiale predittiva che sta cambiando la medicina.

    Ci ho messo anni, fatica… e soldi, ma adesso ho un prototipo funzionante.
    E sai una cosa? Non ho aspettato Sam Altman o Jony Ive.
    Loro oggi dicono che l’hardware è importante, io l’ho capito molto prima e, nel mio piccolo, l’ho già fatto.

    Se anche tu stai cercando di costruire qualcosa di reale, tangibile, non lasciare che ti scoraggino con la solita storia:
    “Meglio il software.”
    Certo, è più semplice, ma non sempre basta.
    Perché ci sono problemi reali, sotto gli occhi di tutti, che nessuno può risolvere solo con una app, a volte serve una scatola.


    Parola di Sam Altman

  • Universal prompt

    Universal prompt

    I social sono ormai invasi da raccolte che promettono “il prompt perfetto” – quasi sempre uno solo, e solo in cambio di un commento, una mail o l’iscrizione a una newsletter. L’hai notato anche tu?

    Sembra di essere tornati ai tempi in cui la conoscenza era un privilegio da scambiare e non da condividere liberamente e. Nel solco del mio stile, preferisco fare diversamente.

    Nel mio manuale (scaricabile gratis, senza richieste strane qui), non ho voluto inserire semplici elenchi di prompt “preconfezionati”, principalmente perchè credo sia necessario insegnare a costruire i propri prompt personalizzati, partendo dai principi e dalle tecniche che ti mettono davvero in controllo dell’AI. I prompt specifici.

    Quelli che creo su stimolo delle domande (o per i fatti miei) poi li pubblico direttamente sul blog, sempre disponibili senza richieste strane a chi vuole sperimentare davvero.

    Oggi presento un prompt che alza l’asticella: uno di quelli che aiuta a generare i prompt. Sì, hai capito bene: uno strumento universale per chi vuole risultati su misura, in ogni campo.

    Il risultato probabilmente non sarà immediatamente usabile per fornire un risultato soddisfacente, ma se segui le indicazioni del mio manuale sarai in grado di costruire quello perfetto per te partendo da uno di quelli che verranno generati.

    Se vorrai lasciarmi un feedback, o condividere questo post ne sarò felice, ma ciò che mi preme di più è che questa conoscenza circoli liberamente: condividila senza limitazioni come faccio io. Grazie.

    Universal prompt:

    Esegui questa procedura a step, se devi chiedermi qualcosa fallo e passa allo step successivo solo dopo la mia risposta, se non ci sono domande da farmi chiedimi se voglio fare qualche cambiamento prima di andare avanti. 
    
    Iniziamo!:
    
    Step 1: Chiedimi a quale settore sono interessato.
    
    Step 2: Chiedimi in quale area specifica di quel settore desidero creare dei prompt. Suggerisci esempi concreti di aree rilevanti per il settore scelto.
    
    Step 3: chiedimi il tono e lo stile che vorrei ottenere dai prompt che dovrai generare
    
    Step 4: Ora assumi il ruolo di esperto di prompt engineering specializzato proprio nell’ambito che ti ho indicato, con profonda conoscenza delle sfide operative e delle migliori pratiche di progettazione dei prompt. Il tuo compito è sviluppare una raccolta di prompt universali, modulari e facilmente personalizzabili, destinati a professionisti e creativi del settore, per ottenere output efficaci e affidabili da un modello AI.
    Produci almeno 8 prompt suddivisi per categoria d’uso e presta la massima attenzione alla correttezza dei riferimenti e alla pertinenza delle istruzioni: verifica due volte dati e fonti per evitare errori o allucinazioni.
    I prompt proposti devono:
    a. Essere chiari, adattabili e con segnaposto espliciti.
    b. Coprire diverse finalità pratiche (ad esempio: brainstorming, analisi, generazione di contenuti, revisione, automazione).
    c. Includere istruzioni precise su tono, stile e formato di output richiesto.
    d. Non devono essere generici, ma orientati a un utilizzo concreto, produttivo e professionale.
    e. non devono essere specitici per il tuo preciso ambito di elaborazione, ma usabili su qualsiasi chatbot ai (grock, chatGPT, DeepSeek, Claude, Gemini; ecc.)
    f. l'output deve essere sempre formattato, nel modo più consono all'ambito per cui il prompt è stato creato
    
    Step 5: Rileggi criticamente i prompt che hai generato e seleziona i 4 migliori secondo utilità, chiarezza e adattabilità assicurandoti che il prompt sia realmente utilizzabile anche da utenti principianti e che la spiegazione sia comprensibile anche ai neofiti.
    
    Step 6: Presenta il siultato in risposta con la seguente struttura:
    a. Titolo
    b. indicazioni: scrivi 25/30 parole per spiegare a cosa serve
    c. istruzioni: scrivi 40/50 parole almeno di istruzioni su come usare il prompt e il suo risultato
    d. testo: indica il prompt specifico
  • Gemini Implicit Caching al microscopio

    Gemini Implicit Caching al microscopio

    Il caching rende Gemini incredibilmente reattivo e l’apprendimento continuo modella la sua intelligenza.

    Vi siete mai accorti che chattando con un chatbot AI nelle risposte sembra che si ricordi cose che gli avete chiesto o scritto nel passato?Una delle ragioni è il caching, che adesso anche Google ha integrato nel suo Gemini in modo “implicito”.

    Ma come funziona esattamente questa “memoria potenziata” in un LLM? Invece di ricalcolare tutto da zero ad ogni interazione, il chatbot può intelligentemente mettere da parte e riutilizzare elementi cruciali: il contesto di una conversazione in corso per mantenere coerenza, rappresentazioni numeriche (embeddings) di termini e frasi frequenti, o persino schemi di ragionamento già elaborati per richieste simili.

    Non è una semplice cache statica; ma un meccanismo dinamico che si adatta, ch econsente ai chatbot di offrire risposte con una velocità e fluidità sorprendenti. L’ingegnosità dietro questa ottimizzazione è un vero spettacolo di efficienza computazionale.

    Parallelamente, il cuore delle intelligenze artificiale risiede nella loro straordinaria capacità di apprendimento adattivo, come una sorta di spugne linguistiche. Come ho spiegato nel mio libro gli LLM assorbono e processano quantità immense di dati testuali – libri, articoli, codice, e crucialmente, le nostre conversazioni – per costruire modelli complessi del linguaggio e del mondo e ogni volta che interagiamo forniamo una nuova lezione.

    Ciò gli permette di affinare la comprensione, ne migliora la pertinenza delle risposte e aiuta perfino a sviluppare nuove capacità.

    Tuttavia, ogni potente strumento tecnologico merita un esame attento. Il caching in Gemini, pur essendo un catalizzatore di prestazioni, introduce nuove considerazioni che siapplicano a tutti e non solo agli strumenti di Google.

    Ricorda sempre che quando qualcosa è gratis il prodotto sei tu e per Google, OpenAi, DeepSeek, Anthropic, ecc. la gestione di questi dati “memorizzati” è fondamentale.

    La domanda quindi è “come si bilancia l’efficienza con la privacy dell’utente”? Come si evita che una cache “viziata” da informazioni obsolete o interazioni anomale possa influenzare negativamente le future risposte, creando un feedback loop indesiderato? La trasparenza su cosa viene memorizzato e per quanto tempo diventa cruciale.

    Riguardo all’apprendimento adattivo, la qualità dei dati di input è sovrana e l’AI apprende anche dai testi che riflettono i nostri pregiudizi consci o inconsci e se le interazioni degli utenti sono spesso fuorvianti o malevole, l’intelligenza risultante sarà inevitabilmente viziata. Dunque esiste anche una responsabilità nel guidare questo apprendimento verso esiti etici?

    In conclusione, le innovazioni come il caching e l’apprendimento continuo rappresentano passi da gigante, ma l’entusiasmo per queste tecnologie deve essere accompagnato da una consapevolezza critica.

    Ho scritto il mio libro e aperto questo BLOG proprio per permettere al più ampio pubblico possibile di comprendere i meccanismi interni.

    E’ vero, personalmente apprezzo la sofisticazione tecnologica, ma allo stesso tempo vorrei stimolare le domande giuste che aiutino la gente a guidare lo sviluppo dell’AI verso un futuro che sia tanto intelligente quanto responsabile.

  • Ricetta – generatore di piani di formazione

    Ricetta – generatore di piani di formazione

    Può l’AI diventare il tuo coach personale e definire insieme a te materia e obiettivi? Ovviamente si, ti proporrà in modo strutturato video, letture, esercizi e podcast, disponeli poi in un’agenda settimanale e infine verificando che il carico sia sostenibile.

    Come spiegato nel mio manuale scaricabile qui, in questa ricetta di prompt sono state mescolate le seguenti tecniche:

    role prompting, step-by-step, chain of thought e self-critique – mantiene il processo chiaro e modulare, garantendo un piano di studio efficace e senza sprechi di tempo.

    Ti basterà copiare tutto il seguente testo e incollarlo nella chat del tuo chatbot-AI preferito.

    Ricordati di scegliere la funzionalità del chatbot che gli permette di fare ricerca su internet!

    Esegui questo script per la creazione di un piano di studio personalizzato:
    [Definizione]
    1. Chiedimi la materia o l’argomento da studiare, l’obiettivo (es. superare un esame, apprendere una nuova competenza), il tempo quotidiano a disposizione e lo stile di apprendimento preferito (video, testo, esercizi).
    [Esplorazione]
    2. Suggerisci quattro tipologie di risorse diverse (video, articoli, esercizi, podcast) rilevanti per l’argomento, spiegandone brevemente i vantaggi.
    [Generazione]
    3. Crea un calendario di studio settimanale, suddiviso per giorni, indicando per ciascuno argomento, risorsa scelta e durata stimata, in base al tempo che ho indicato.
    [Verifica critica]
    4. Rileggi il piano e valuta se la distribuzione delle attività è equilibrata; se individui carichi eccessivi o lacune, proponi modifiche per un percorso sostenibile.
    [Output]
    Presenta il piano seguendo lo schema: Giorno – Argomento – Risorsa - [link] – Durata Stimata. Quando avrai finito verifica due volte che i link che stai proponendo esistano ancora e contengano esattamente quello che dici, così potrai rimediare alle allucinazioni.
  • Ricetta – generazione post

    Ricetta – generazione post

    Attraverso questo prompt potrai generare un post da pubblicare sul tuo profilo social o sul tuo blog

    Copia tutto il seguente testo e incollalo nella chat del tuo chatbot-AI preferito.

    Trovi questa ricetta alla fine del mio manuale sul prompting.

    Esegui questo script: in modo Interattivo per la creazione di un Post Personalizzato
    [Prima fase] la definizione:
    1. chiedimi di quale argomento vorrei parlare
    Quando ti avrò risposto
    2. chiedimi l'ambito geografico di riferimento (Ad
    esempio: Italia, Europa, globale)
    Quando ti avrò risposto
    3. chiedimi che tono desidero adottare per post
    (colloquiale, professionale, motivazionale, informativo)
    Quando ti avrò risposto
    4. Fammi scegliere la scelta della piattaforma influenzerà lo stile, la struttura del contenuto e la lunghezza, perché ad esempio su twitter ci sono limiti stretti, sicché informati su quale piattaforma vorrei pubblicare tra: Facebook, Twitter, LinkedIn, Instagram, blog personale
    Quando ti avrò risposto
    5. chiedimi quale lunghezza del post desidero tra: breve (circa 100 parole, per twitter al massimo 50 caratteri), medio (circa 200 parole, per twitter al massimo 90) o lungo (circa 350 parole per twitter al massimo 128 caratteri)
    Quando ti avrò risposto passeremo alla 
    [Seconda fase] esplorazione degli argomenti:
    Fai una ricerca su internet e suggeriscimi quattro argomenti alternativi correlati al tema scelto cercando su internet le informazioni di attualità più rilevanti ma anche gli accadimenti storici accaduti nel passato in questo periodo in relazione stretta all'area geografica indicata. Esempio di domanda: "Quale di questi argomenti vuoi approfondire nel tuo post?" e mi mostri una lista di almeno 4 argomenti alternativi e differenti che hai trovato 
    Quando ti avrò risposto passeremo alla 
    [Terza fase] generazione di varianti del post:
    1. Elaborerai tre varianti del post basate sull'argomento selezionato, adattate al tono, alla lunghezza e alla piattaforma indicati strettamente relativa all’area geografica che ti ho indicato, se te l’ho indicata.
    2. Verificherai con attenzione le informazioni e i dati che trascriverai nel post e verifica due volte le fonti per assicurarti che i dati siano corretti e non hai avuto allucinazioni.
    3. Farai una revisione critica dei tre post proposti e sceglierai il migliore dei tre.
    Quando avrai fatto queste tre cose passeremo alla
    [Fase finale] Presentazione del post finale:
    Scrivi il post prescelto migliorandone il testo e produci un risultato seguendo il seguente schema:
    Titolo: [Titolo del post]
    Sottotitolo: [Sottotitolo del post]
    Testo: [Testo completo del post, adattato al tono e alla lunghezza desiderati]
    Hashtag:[Hashtag mirati per "social target" e argomento]
    Grazie