Tag: motori di ricerca

  • l’AI ucciderà Google?

    l’AI ucciderà Google?

    L’algoritmo con cui funziona il motore di ricerca di Google può tranquillamente sopravvivere all’AI, pertanto sono sempre stato scettico sulla longevità dell’algoritmo del motore di ricerca… ma:

    pare che il modo in cui cerchiamo informazioni online sta cambiando.

    Una recente analisi ha mostrato che oltre il 50% delle ricerche su Google si conclude senza clic (che è la base di funzionamento di quell’algoritmo). Tra i motivi c’è il fatto che spesso gli utenti trovano risposte direttamente nella pagina dei risultati.

    Infine è significativo il rapido aumento degli utenti che si affidano direttamente all’intelligenza artificiale senza passare dal motore di ricerca.

    Mentre per gli utenti finali è tutto grasso che cola, per chi vive esclusivamente di traffico organico basato su Google è un problema. Se oltre il 40% del traffico del sito arriva ancora da Google, potrebbe succedere che venga eliminato direttamente dalle risposte sintetizzate delle AI.

    Scrivere per i modelli, non per i motori

    La soluzione potrebbe non essere più “ottimizzare per l’algoritmo di Google”, ma creare contenuti pensati per essere letti, compresi e utilizzati dalle intelligenze artificiali, ovvero diventare una fonte autorevole citata direttamente nelle risposte generate dagli LLM (Large Language Models).

    Google continuerà a servire per ricerche specifiche, come trovare siti ufficiali, documenti o pagine precise. Ma per sintesi, ragionamenti e analisi, l’intelligenza artificiale è già un passo avanti.

    Dunque quale sarà il futuro del controllo dei contenuti?

    Il classico file robots.txt, usato dai siti web per indicare ai motori di ricerca quali contenuti possono essere indicizzati, potrebbe presto evolversi in llms.txt. Questo nuovo file, proposto recentemente, è concepito per regolare l’accesso ai contenuti web da parte dei modelli linguistici come ChatGPT e Bard.

    llms.txt nasce proprio per rispondere a una domanda cruciale:

    come impedire (o favorire) l’utilizzo dei propri contenuti da parte delle intelligenze artificiali?

    Tuttavia, allo stato attuale è soltanto una proposta senza valore pratico immediato, poiché nessun grande player dell’AI ha ancora ufficialmente adottato questo standard.

    Cosa possono fare le aziende oggi?

    In attesa di sviluppi le aziende dovrebbero:

    • Continuare a usare robots.txt per gestire l’accesso dei bot AI noti, come GPTBot.
    • Valutare attentamente quali contenuti consentire o bloccare.
    • Monitorare regolarmente i log del server per tracciare l’attività dei bot delle AI.
    • Mantenere un’alta qualità e autorevolezza dei contenuti, perché le AI riescono a identificare le fonti più affidabili (e se i tuoi contenuti sono generati dall’AI).

    I miei 2c sull’approccio vincente: sarà quello flessibile e proattivo. In pratica prepararsi oggi per essere pronti domani, informarsi sempre e prepararsi a strumenti come llms.txt che potrebbero diventare essenziali a breve.