Quanto ha senso un consiglio di amministrazione con un solo membro?

Per un po’ di tempo abbiamo creduto di risolvere con un modello AI più grande, più veloce, più addestrato, più tutto.

Ogni nuova versione sembrava portarci un passo più vicino a un punto di arrivo definitivo, come se bastasse aggiungere qualche miliardo di parametri per ottenere finalmente l’intelligenza “giusta”. Un’idea rassicurante, quasi infantile: se qualcosa non funziona, lo ingrandiamo. Ha sempre funzionato così, no?

Poi è successa una cosa curiosa. Le persone che quei modelli li hanno costruiti hanno iniziato a dire, più o meno apertamente, che nemmeno loro sanno davvero come funzionano fino in fondo.

Ilya Sutskever lo ha detto con una calma quasi sospetta: lo scaling infinito non è la risposta. Non perché i modelli non siano impressionanti, ma perché stiamo continuando a spingere sull’acceleratore senza sapere esattamente cosa stia succedendo sotto il cofano. Una strategia audace, certo. Ma non proprio quello che definiremmo “controllo”.
(vedi link su “letture consigliate” in fondo all’articolo)

Nel frattempo, noi utenti abbiamo sviluppato una dinamica tutta nostra. Parliamo con l’AI, aspettiamo la risposta, la correggiamo, rilanciamo. Poi di nuovo. Un dialogo continuo che, a guardarlo bene, assomiglia più a una riunione infinita che a un processo decisionale. Un problema serio, però, non si risolve in una risposta, ma in una sequenza di passaggi: comprendere, analizzare, scegliere, verificare, correggere, rifinire.

Fino al 2025 lo abbiamo affrontato in modo ricorsivo. Domanda, risposta, controbattuta. Ancora. Come ho scritto nel mio post precedente, siamo diventati degli umarell digitali, affacciati alla finestra della chat, a commentare quello che l’AI stava facendo, pronti a intervenire dopo.

È stato utile, va detto, e in qualche modo anche istruttivo, ma è plausibile che questo sia il modello definitivo di collaborazione uomo–macchina?

A un certo punto inizierà semplicemente a sembrarci inefficiente continuare a dire all’AI “fammi questo”, con richieste isolate che interrompono il flusso, con ogni risposta che ci costringe a fermarci, a valutare per correggere e poi ripartire. Una conversazione infinita che ricorda sempre più quelle riunioni in cui nessuno ha preparato l’ordine del giorno.

Così inizieremo a fare una cosa sorprendentemente umana: pensare prima, non per lasciare l’AI più libera, ma per essere noi molto più rigorosi.

Pensaci, hai mai risolto un problema complesso tutto insieme?

Quando un problema è davvero tale, lo si scompone. Lo si riduce. Lo si divide in problemi più piccoli e li si affronta uno alla volta, in sequenza. Si chiama “problem solving”, quello che funziona, non quello raccontato nei keynote.

E se ci pensi ancora un po’ vedrai che è esattamente il percorso che abbiamo già fatto nel campo della programmazione dei computer: all’inizio c’era il programma monolitico, un unico blocco enorme che faceva tutto. Funzionava finché nessuno lo toccava. Poi l’utente chiedeva una modifica, qualcuno faceva una patch apparentemente innocua… e tutto il resto iniziava a comportarsi in modo imprevedibile.

Abbiamo imparato allora a spezzare quel monolite in funzioni, ognuna con un compito preciso. Meno caos, più controllo, meno notti passate a chiedersi perché qualcosa si fosse rotto.

Oggi siamo arrivati ai microservizi, non perché fosse elegante, ma perché è il modo sensato per gestire sistemi complessi: componenti piccoli, isolati, sostituibili, che comunicano in modo esplicito. Più lavoro prima, molta meno sorpresa dopo.

Con l’AI vivremo la stessa identica evoluzione, solo compressa in meno anni (4/5 contro 10/15).

Stiamo passando dal prompt monolitico che “fa un po’ di tutto” a sistemi in cui i compiti sono separati, assegnati, orchestrati, per ridurre gli errori e rendere i risultati finalmente ripetibili.

Ed è qui che una delle osservazioni più interessanti ci arriva da Andrej Karpathy: ha fatto notare che interagire con un singolo modello non è un buon modo di usare l’AI.

Secondo Andrej che in un consiglio di amministrazione composto solo dal CEO e da un consulente che annuisce, entrambi parlano ma nessuno contraddice davvero e non si cambia mai il percorso, non si evolve, non si allarga il punto di vista.

La sua idea di LLM Council nasce proprio da qui: un sistema funziona quando il CTO e il CFO iniziano a prendersi a parolacce, quando uno dice “tecnicamente è perfetto” e l’altro risponde “sì, ma ci manda in fallimento” e il CEO media, il COO trova soluzioni e il CLO lo rende legale. Quando le voci dissonanti emergono prima, non quando è troppo tardi.
(vedi link su “letture consigliate” in fondo all’articolo)

Nel futuro, se vogliamo risultati affidabili, non dovremmo chiedere all’AI di “pensare meglio”, ma organizzare meglio il pensiero.

Decidere noi i passaggi, stabilire chi fa cosa, prevedere controlli incrociati. Non libertà totale, ma responsabilità distribuita.

Nel frattempo, ai piani alti, il panorama non è meno ironico.
Satya Nadella probabilmente non immaginava che il futuro della sua azienda sarebbe stato meno una corsa ad ingrandire il modello di OpenAI e più un delicato esercizio di convivenza tra modelli diversi, filosofie diverse, interessi diversi.

Più che scegliere il vincitore, oggi il lavoro vero è evitare che il consiglio di amministrazione esploda.
(vedi link su “letture consigliate” in fondo all’articolo)

E poi c’è Ivan Zhao, che sull’AI è rimasto alla finestra a guardare. Un po’ come un umarell di lusso: osserva, ascolta, non si lascia prendere dall’entusiasmo e aspetta di capire dove stia davvero andando il valore. Non sempre muoversi per primi è la strategia migliore.
(vedi link su “letture consigliate” in fondo all’articolo)

Il punto, però, resta sempre lo stesso.

Nel 2026 non avremo un’AI più intelligente, inizieremo a smettere di usarla come una chat e inizieremo a trattarla come un sistema complesso, fatto di ruoli, sequenze e responsabilità.

Il cambiamento non arriverà con proclami o rivoluzioni improvvise. Arriverà quando smetteremo di fare domande sempre migliori e inizieremo a progettare processi migliori. Avverrà quando passeremo dall’attesa alla direzione.

Il futuro dell’AI, probabilmente, non sarà più intelligente.
Sarà semplicemente meglio organizzato e, ironia della sorte, dipenderà molto meno dall’AI e molto più da te e da me.


Letture consigliate

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *