Tag: google

  • l’AI ucciderà Google?

    l’AI ucciderà Google?

    L’algoritmo con cui funziona il motore di ricerca di Google può tranquillamente sopravvivere all’AI, pertanto sono sempre stato scettico sulla longevità dell’algoritmo del motore di ricerca… ma:

    pare che il modo in cui cerchiamo informazioni online sta cambiando.

    Una recente analisi ha mostrato che oltre il 50% delle ricerche su Google si conclude senza clic (che è la base di funzionamento di quell’algoritmo). Tra i motivi c’è il fatto che spesso gli utenti trovano risposte direttamente nella pagina dei risultati.

    Infine è significativo il rapido aumento degli utenti che si affidano direttamente all’intelligenza artificiale senza passare dal motore di ricerca.

    Mentre per gli utenti finali è tutto grasso che cola, per chi vive esclusivamente di traffico organico basato su Google è un problema. Se oltre il 40% del traffico del sito arriva ancora da Google, potrebbe succedere che venga eliminato direttamente dalle risposte sintetizzate delle AI.

    Scrivere per i modelli, non per i motori

    La soluzione potrebbe non essere più “ottimizzare per l’algoritmo di Google”, ma creare contenuti pensati per essere letti, compresi e utilizzati dalle intelligenze artificiali, ovvero diventare una fonte autorevole citata direttamente nelle risposte generate dagli LLM (Large Language Models).

    Google continuerà a servire per ricerche specifiche, come trovare siti ufficiali, documenti o pagine precise. Ma per sintesi, ragionamenti e analisi, l’intelligenza artificiale è già un passo avanti.

    Dunque quale sarà il futuro del controllo dei contenuti?

    Il classico file robots.txt, usato dai siti web per indicare ai motori di ricerca quali contenuti possono essere indicizzati, potrebbe presto evolversi in llms.txt. Questo nuovo file, proposto recentemente, è concepito per regolare l’accesso ai contenuti web da parte dei modelli linguistici come ChatGPT e Bard.

    llms.txt nasce proprio per rispondere a una domanda cruciale:

    come impedire (o favorire) l’utilizzo dei propri contenuti da parte delle intelligenze artificiali?

    Tuttavia, allo stato attuale è soltanto una proposta senza valore pratico immediato, poiché nessun grande player dell’AI ha ancora ufficialmente adottato questo standard.

    Cosa possono fare le aziende oggi?

    In attesa di sviluppi le aziende dovrebbero:

    • Continuare a usare robots.txt per gestire l’accesso dei bot AI noti, come GPTBot.
    • Valutare attentamente quali contenuti consentire o bloccare.
    • Monitorare regolarmente i log del server per tracciare l’attività dei bot delle AI.
    • Mantenere un’alta qualità e autorevolezza dei contenuti, perché le AI riescono a identificare le fonti più affidabili (e se i tuoi contenuti sono generati dall’AI).

    I miei 2c sull’approccio vincente: sarà quello flessibile e proattivo. In pratica prepararsi oggi per essere pronti domani, informarsi sempre e prepararsi a strumenti come llms.txt che potrebbero diventare essenziali a breve.


  • Gemini Implicit Caching al microscopio

    Gemini Implicit Caching al microscopio

    Il caching rende Gemini incredibilmente reattivo e l’apprendimento continuo modella la sua intelligenza.

    Vi siete mai accorti che chattando con un chatbot AI nelle risposte sembra che si ricordi cose che gli avete chiesto o scritto nel passato?Una delle ragioni è il caching, che adesso anche Google ha integrato nel suo Gemini in modo “implicito”.

    Ma come funziona esattamente questa “memoria potenziata” in un LLM? Invece di ricalcolare tutto da zero ad ogni interazione, il chatbot può intelligentemente mettere da parte e riutilizzare elementi cruciali: il contesto di una conversazione in corso per mantenere coerenza, rappresentazioni numeriche (embeddings) di termini e frasi frequenti, o persino schemi di ragionamento già elaborati per richieste simili.

    Non è una semplice cache statica; ma un meccanismo dinamico che si adatta, ch econsente ai chatbot di offrire risposte con una velocità e fluidità sorprendenti. L’ingegnosità dietro questa ottimizzazione è un vero spettacolo di efficienza computazionale.

    Parallelamente, il cuore delle intelligenze artificiale risiede nella loro straordinaria capacità di apprendimento adattivo, come una sorta di spugne linguistiche. Come ho spiegato nel mio libro gli LLM assorbono e processano quantità immense di dati testuali – libri, articoli, codice, e crucialmente, le nostre conversazioni – per costruire modelli complessi del linguaggio e del mondo e ogni volta che interagiamo forniamo una nuova lezione.

    Ciò gli permette di affinare la comprensione, ne migliora la pertinenza delle risposte e aiuta perfino a sviluppare nuove capacità.

    Tuttavia, ogni potente strumento tecnologico merita un esame attento. Il caching in Gemini, pur essendo un catalizzatore di prestazioni, introduce nuove considerazioni che siapplicano a tutti e non solo agli strumenti di Google.

    Ricorda sempre che quando qualcosa è gratis il prodotto sei tu e per Google, OpenAi, DeepSeek, Anthropic, ecc. la gestione di questi dati “memorizzati” è fondamentale.

    La domanda quindi è “come si bilancia l’efficienza con la privacy dell’utente”? Come si evita che una cache “viziata” da informazioni obsolete o interazioni anomale possa influenzare negativamente le future risposte, creando un feedback loop indesiderato? La trasparenza su cosa viene memorizzato e per quanto tempo diventa cruciale.

    Riguardo all’apprendimento adattivo, la qualità dei dati di input è sovrana e l’AI apprende anche dai testi che riflettono i nostri pregiudizi consci o inconsci e se le interazioni degli utenti sono spesso fuorvianti o malevole, l’intelligenza risultante sarà inevitabilmente viziata. Dunque esiste anche una responsabilità nel guidare questo apprendimento verso esiti etici?

    In conclusione, le innovazioni come il caching e l’apprendimento continuo rappresentano passi da gigante, ma l’entusiasmo per queste tecnologie deve essere accompagnato da una consapevolezza critica.

    Ho scritto il mio libro e aperto questo BLOG proprio per permettere al più ampio pubblico possibile di comprendere i meccanismi interni.

    E’ vero, personalmente apprezzo la sofisticazione tecnologica, ma allo stesso tempo vorrei stimolare le domande giuste che aiutino la gente a guidare lo sviluppo dell’AI verso un futuro che sia tanto intelligente quanto responsabile.