Da GPT-5.4 agli AI Engeeners: perché CLI e workflow stanno cambiando il coding #42
👉 Ascolta su Spotify
👉 Guarda su YouTube
👉 Segui su LinkedIn
[00:00] Introduzione e Mood della Puntata
Stefano
Buongiorno a tutti e tutte e bentornati qui. Noi siamo partiti, abbiamo chiuso il nostro prepuntata dicendo “Non bruciamoci le stronzate prima della puntata”. Quindi questo è il mood.
Alessio
Sì, perché dovete sapere che per una puntata di un’ora e qualcosa c’è sempre mezz’ora di preambolo in cui le cose buone vengono dette prima.
Paolo
La fase del trucco si chiama, Alessio, quella. Ecco.
Stefano
O cazzeggio. Io la chiamo la fase del cazzeggio, ma va bene, abbiamo dato cinque parolacce, ma tanto io marco sempre che non è una cosa fatta per bambini su YouTube, quindi siamo…
Paolo
Perché ci sono sul cazzo i bambini, giusto?
Alessio
Tra l’altro settimana prossima mi sa che questa fase di trucco e parrucco la facciamo direttamente live.
Stefano
Bravo Alessio, il momento Marchetta! Ti ringrazio di averlo tirato fuori tu e non io. Allora no, dillo, dillo, vai avanti.
Alessio
Settimana prossima siamo al JUG a Milano che gentilmente ci ospita. Facciamo live la puntata, quindi chissà che tragedia succede.
Paolo
Cosa vuol dire JUG? Me la ricordo come una rivista un po’ osé di qualche anno fa.
Alessio
Non so che riviste leggevi tu. Comunque Java User Group.
Paolo
Pensavo in un’altra cosa.
Alessio
Ci ospitano molto gentilmente e quindi facciamo l’episodio lì live in streaming e quindi ci prepareremo prima da lì.
Paolo
Ci prepareremo una cosa nuova?
Stefano
Ci prepareremo… No, ma siamo preparatissimi sempre. Voi vi sottovalutate. Allora, nel frattempo, mentre lui parlava, io ho addirittura trovato il sito del JUG Milano che vado a condividere per chi ci vede in video, che in modo intimidatorio dicono che è obbligatoria la prenotazione.
Alessio
Io mi sono prenotato anche come speaker.
Stefano
No, io come speaker non l’ho fatto. Vabbè, però c’è anche una… Noi entriamo dal retro con gli artisti.
Paolo
Noi entriamo dal retro.
Stefano
C’era anche una bellissima immagine. C’è una bellissima immagine di noi tre con i nomi scambiati, quindi non diremo chi è Paolo, chi è Alessio e chi è Stefano e non lo diremo nemmeno durante la registrazione.
Paolo
Secondo me è un’allucinazione delle AI.
Stefano
Può darsi. Comunque a parte gli scherzi, venite mentre registriamo la puntata live. Come vedete è giovedì 12 marzo alle 6:45.
Paolo
Stefano vi porterà un sacco di adesivi.
Stefano
Stefano, se si ricorda di metterli nello zaino nuovo, visto che tutte le ultime eventi dove sono andato li mi sono dimenticato di metterli nello zaino nuovo, però vi porterò gli adesivi. Saremo tutti con una maglietta bellissima.
Alessio
Ecco guarda, visto che sono qua adesso li metto nello zaino.
Paolo
Tra l’altro è l’effetto telefono nuovo, lo zaino nuovo, quello che c’hai il telefono nuovo, ti dimentichi di cambiare la suoneria, poi ti suona un telefono e dici “Cazzo è sta roba che suona?”
Stefano
Sì, sì, esatto. Allora, però sempre nel momento Marchetta, mettete le stelline, le campanelline, mi raccomando. L’abbiamo detto all’inizio della puntata, siamo stati bravissimi stavolta. Abbiamo altro da dire come Marchette? Sì, forse sì, ma lo diciamo dopo.
[03:07] Notizie sull’AI e GPT 5.4
Stefano
Partiamo velocemente dalla forse la notizia principale che è di ieri, perché comunque per numero di iscritti resta l’AI principale. OpenAI ha rilasciato GPT 5.4. Allora, io ho provato, non posso dire provato, gli ho dato quattro prompt, anche perché non la uso tanto quanto uso Claude, però ho letto un po’ di altri che l’hanno provato, che lo usano estensivamente. Pare che sia una grossa evoluzione. Allora, dopo vengo, vado al tecnico, però sia una grossa evoluzione nella parte di ragionamento generale, mentre sul coding sia un leggero miglioramento, ma già 5.3 era molto bravo sul coding e chi lo usa per fare coding dice che le due cose insieme danno un’esperienza notevole. C’è gente che parla di bacchi risolti con grande facilità e tutto quanto. Certo, poi bisogna sempre fare la tara perché dipende dal caso d’uso e tutto, però così è.
Paolo
Tante belle parole, ma show me the code, fixami sto cazzo di Bluetooth su Linux.
[06:10] Esperienze con il Bluetooth e LLM
Stefano
Non è possibile. Allora, questo poi lo racconto, anzi lo racconto subito perché prima della puntata non mi andava il mouse Bluetooth, mouse Bluetooth di cui abbiamo una diapositiva, e ho chiesto a Claude, che è il mio LLM di riferimento, guarda, non mi va il mouse Bluetooth perché…
Paolo
Scusami, tu sei al livello per cui per muovere il mouse non lo muovi, ma chiedi a Claude di muoverti il mouse, giusto?
Stefano
No, ho mosso semplicemente il mouse con il touchpad interno che invece andava, ma non mi andava con la Bluetooth e ho scritto a lui, “Ma non mi va sto cacchio di mouse, andava fino a 10 minuti fa, non va più, non è scarico.”
Alessio
Il quale dopo averti detto controlla le pile eccetera ha detto ciao.
Stefano
No, no, gliel’ho detto prima io, guarda, è carico, è acceso nel posto giusto, è configurato come è sempre stato, però ha smesso di funzionare.
Paolo
Gli ho tolto la schifezza della pallina, quelle cose lì.
Alessio
Le palline le abbiamo dimenticate da un po’.
Stefano
Pallina abbiamo lasciata qualche anno fa. E lui mi dice, “Dai, dammi accesso un po’ di file che ti controllo, guardo, sicuramente la fissiamo.” Vabbè. E lui comincia a smacchina per un po’. A un certo punto dice “Ah, ma vedo che hai degli aggiornamenti pending in DNF, tra cui uno che è quello Bluetooth.” E io gli dico, “Sì, ho capito, però andava fino a ieri, perché non va più.” E lui fa: “Vabbè, però hai gli aggiornamenti pending.” “Sì, ma non possono essere gli aggiornamenti perché non li ho applicati e andava senza gli aggiornamenti.” E mi dice, “Vabbè, ma però non è tutto sto sforzo applicare gli aggiornamenti e riavviare il computer. Fallo e poi se non va dimmelo di nuovo.” E io ok.
Paolo
Gli stavi facendo perdere tempo, praticamente.
Stefano
Gli stavo facendo perdere tempo. Una cosa del genere.
Alessio
Che vuol dire che ha preso la personalità tipica del consulente IT che ti risolve i problemi sul computer che ti dice “Intanto riavvia per non saperne leggere né scrivere, poi dopo ne parliamo.”
Stefano
Sì, una cosa del genere. Vabbè, comunque siamo riusciti. Il mio mouse Bluetooth funziona, quindi in realtà serviva. In questo momento non benissimo le cuffie perché me ne va una sola mentre stiamo parlando, quindi forse anche il riavvio non è stato fantastico.
Alessio
Quindi in realtà serviva riavviare.
[09:08] Evoluzione dei Modelli di AI
Stefano
Tornando a GPT 5.4, 5.4 perché è interessante da un punto di vista tecnico? Perché è un ritorno alla come viene chiamata in gergo, la O1 Series, cioè la serie degli O, cioè quelli reasoning e solo reasoning, cioè non esiste un 5.4 in versione non reasoning, il che identifica un trend interessante perché anche Sonnet 4.6 è solo reasoning, che ne parlavamo parlando di Sonnet, del fatto che usa più token di Opus per fare le stesse cose, ma è molto più piccolo ed è quel trend per cui parte della scalabilità la stanno spostando dal pre-training, mid-training al post-training o reinforcement learning, che dir si voglia. Quello lì è un trend generale e che poi più andando più in là ancora c’è chi sta cominciando a fare scaling, quello che viene chiamato inference scaling, cioè aggiungere tanti dati alla finestra di contesto che viene chiamato inference scaling o in-context learning, aggiungere tanta roba in contesto perché il modello si comporti meglio. E infatti chi usa Claude Code o simili avrà visto che quando lo aprite pronti via c’è già 20K di 20.000 token già occupati da qualcosa e lo diceva Paolo credo l’altra volta, c’è un comando slash context per vedere cosa c’è dentro e c’è dentro tanta tanta roba a livello di system prompt e quello lì è in-context learning o inference scaling.
Tra l’altro su questo, leggevo o ascoltavo, non mi ricordo più in settimana, una riflessione interessante sul modello di business anche, cioè dove mettere il taglio di quanto spendo. Allora, pre-training costa una fucilata adesso, come adesso. Scalare in pre-training, dato che gli abbiamo già dato tutta internet, vuol dire generare dati fittizi, ma che siano credibili, validarli, controllarli, fargli fare il pre-training che comunque è costoso da un punto di vista anche computazionale.
[12:22] Considerazioni Economiche sui Modelli di AI
Stefano
Magari fare anche del mid-training. Il mid-training è quella fase in cui quando si vede che il modello… è un termine nuovo perché non esisteva, c’era il pre, il post-training, poi si sono messi a fare una roba in mezzo, dovevano dargli un nome, l’hanno chiamato mid-training. Quando cominciano a vedere che il modello va in un minimo locale, perché comunque fare il training di un modello significa trovare la funzione ottima, no? Però quando si fa la ricerca delle funzioni, e memorie del liceo anche, si può finire in un minimo locale.
Alessio
Funzione obiettivo mi pare si chiama.
Paolo
Quando ha derivata uguale a zero.
Stefano
Sì, esatto. Quando arrivi lì di solito cosa si faceva prima? Si prendeva, si buttava via l’ultimo pezzo di training e lo si faceva rifare sperando che andasse meglio, essendo sistemi statistici. Adesso si fa un lavoro un po’ più fine, si prende, si butta via l’ultimo pezzo di training, si prende quell’ultimo pezzo di training lì, lo si ripulisce, lo si fa passare da un altro modello tipicamente per avere dati più in topic, si dice, e si rifà il training. Quindi queste due fasi costano una fucilata. Poi c’è il post-training con reinforcement learning che costa un po’ meno, ma comunque è costoso, e poi c’è l’in-context learning che sposta un pochino il costo sulla parte di inferenza, ma che comunque è meno costoso. E allora c’è qualcuno che comincia a dire “Ok, va bene, ma in quale fase fare più investimento, quindi quando spostare verso l’inferenza il costo?” Dipende anche dalla vita media che voglio dare a quel modello perché è un problema di ammortamento, no? Cioè i costi li ammortizzo se il modello che ha speso tanto in pre-training resta vivo per un anno o più. Se sta vivo 3 mesi, forse mi conviene spostare i costi di là perché comunque fatto 100 spenderò meno.
Secondo me questa era una riflessione interessante anche di quanto certe scelte siano da un lato tecniche, ma dall’altro ci siano anche ovviamente delle scelte di business che a volte se non li si osserva bene da questo punto di vista sfuggono un po’, no? Uno dice, “Sto spostando tutto lì perché è molto più promettente.” Sì, è molto più promettente, ma più che tecnicamente da un punto di vista di costi, anche perché le TPU costano meno delle Nvidia, eccetera eccetera.
Paolo
Praticamente stai parlando di obsolescenza programmata dei modelli. Ti sto dando un time to live, che può essere quello della libellula o quello della tartaruga e dipende che cosa ci devo fare con te.
Stefano
Sì, corretto. E poi c’è anche la componente di chi sono, ok? Perché se il oggi il training si sta spostando anche sulle TPU, Google sta facendo un grosso lavoro per quello, però il grosso resta fatto sulle GPU Nvidia che ha dei ricarichi folli, cioè le fanno strapagare le GPU rispetto a quanto gli costa produrle. Mentre invece la maggior parte delle inferenze sempre di più gira sulle TPU Google e Cerebras che costano un pezzo meno. E non solo, a Google stessa costano molto poco perché non ha da farci revenue sulla TPU in sé e quindi a seconda di chi sono, mi conviene spostare di qua o di là i miei costi. Però è una riflessione di business che io personalmente non avevo fatto, ma che ci sta tutta.
[15:07] Reverse Engineering e Hardware Apple
Paolo
E sì, mi hai fatto venire in mente che legato a queste considerazioni su inferenza o training un’altra news che può valere la pena citare è quella di questa settimana di qualche nerd hacker che ha mostrato come accedere a basso livello all’hardware di Apple per skippare praticamente l’API che Apple ci ha messo in mezzo. E hanno acceduto direttamente all’hardware in una vera e propria operazione di reverse engineering, perché ovviamente Apple ben si guarda da dirti come farlo e anzi ti dice non si può fare come un consulente software qualunque. E ha pubblicato un post che io ho letto, poi ho condiviso con voi, l’abbiamo commentato un attimino, in cui è interessante, il gioco è stato fatto con l’aiuto delle AI. E nonostante questo è stata una bella sudata, diceva il tizio, diceva anche che in realtà non era tutto farina del suo sacco, ha fatto i riferimenti, giustamente come in accademia si fa, al lavoro che arrivava prima di lui, tra cui il progetto quello per far girare Linux su Asahi, per far girare Linux su Apple, in cui sperimentano in quella direzione.
La cosa interessante però, il motivo per cui sto facendo questo buildup, è che lui ha fatto un primo blog post. Non so se il secondo sia già uscito, ma ne ha promessi tre, e l’ultimo è quello in cui lui farà vedere come fare training sull’hardware di Apple, cosa che era una di quelle cose mancanti che Apple con la propria API non ce l’aveva data. Quindi la gente adesso è curiosa di vedere quale sarà l’esito di questa operazione per capire se al di là di fare training lo si fa in una maniera efficiente o no, perché quando abbiamo a che fare con i nerd che si divertono a fare le cose tanto per farle, poi scopri che l’ha fatto ma nessuno sano di mente si sognerebbe mai di usarlo. E io mi aspetto che potenzialmente possa anche finire così questa storia, un buildup per poi dire “Guardate, si può fare, ho Doom che mi gira sullo schermo del frigorifero, ma non fatelo perché non serve a niente.”
Stefano
Sì, può essere, perché no?
[17:57] Tendenze nel CLI e MCP
Stefano
Poi, invece, prima di tornare a modelli, perché vabbè, ci possono essere anche altre news, magari le vediamo più nel mondo immagini e simili e video, però prima di muoverci dagli LLM, io volevo parlare di altre due cose che ho visto, tre se vogliamo, cose che ho visto in settimana e che io trovo siano estremamente significative. La prima è quella tendenza che nominavo già settimana scorsa su cui Paolo non era d’accordo, la settimana scorsa o due settimane fa, del claim forte che qualcuno sta già facendo: MCP è morto. Perché c’è comunque una tendenza fortissima a sviluppare CLI invece di MCP, CLI più skill, che è un po’ quello che ha in qualche modo lanciato OpenClaw.
L’autore di OpenClaw si è sempre pronunciato in qualche modo contro MCP, dicendo che era un layer di astrazione eccessivo perché i modelli moderni sono bravissimi a lanciare comandi da terminale, quindi CLI. Che OpenClaw è stato tutto fatto attorno a lì e probabilmente dimostrando che funzionava anche tanti altri gli stanno andando dietro. E ultimo, ma non ultimo, Google, degli ingegneri di Google, hanno appena lanciato il CLI per tutto Workspace, quindi Gmail, calendario, Drive, tutto quello che c’è dentro a Workspace. E l’hanno lanciato, la cosa che ho trovato più interessante è che nel repository GitHub hanno lanciato il CLI, quindi i comandi da riga di comando, e fatti per, loro dicono subito, fatti per uomini e per agent. Tant’è che per gli agent insieme nello stesso GitHub hanno messo le skill, le skill per usare bene quei CLI.
Ed è un po’ oggettivamente diventa un po’ un’alternativa anche seria all’MCP dove definisci comunque, alla fine se ci pensi, sia con tutte le varie opzioni, se è scritto bene, se è fatto bene, altro non è che un API, alla fine, da riga di comando. I vari Claude Code, Gemini CLI e tutti gli altri sono bravissimi a lanciare righe di comando. In più gli dai una skill in cui gli spieghi per bene come usare quella riga di comando e i risultati sono interessanti. Non sono gli unici, ho citato questi perché forse i più grandi, però tutti stanno… Tutti quelli che c’è stata la corsa all’MCP, se vi ricordate, 7-8 mesi fa, chiunque faceva l’MCP, tant’è che c’erano in giro un sacco di meme su internet che era più lunga la fila di quelli che producevano MCP di quelli che lo usavano per davvero. E così sta succedendo con i CLI.
[21:05] Riflessioni su REST e MCP
Paolo
Non mi ricordo se ne avevo mai parlato in podcast, ma io ho avuto una rivelazione, epifania se vuoi. Ho capito una cosa, ha cliccato qualcosa nella mia testa nel momento in cui sono riuscito a dare un senso al commento “MCP è il nuovo REST.” Mi sembrava un’esagerazione, non capivo il senso e mi dicevo perché, cioè più un clickbait title. In realtà, quello che intendevano era, se vi ricordate nell’evoluzione della storia del software, un tempo avevamo dei protocolli di comunicazione di rete buffi, quelli per Java e RMI e roba del genere. Voi due in particolare avete buttato un po’ di sangue su SOAP e tutte quelle storie, quindi sapete di cosa sto parlando. E poi è arrivato Fielding col modello REST e tutto quanto e si è diffuso, però si è diffuso non soltanto nel web o per fare cose web, ma chiunque ha iniziato a dire “Vabbè, di per sé passare tramite REST per via del fatto che poi i proxy fanno passare le chiamate e quindi mi riduco un pochettino di problemi di networking è una buona idea.” Quindi tutti hanno iniziato ad incollare questa interfaccia REST in fronte ai loro progetti, qualunque essi fossero. Era necessario? No, non era necessario. Era un trend, era comodo, costava poco, poi c’erano i buchi perché la gente non aveva capito bene REST e lasciava aperti operazioni che non doveva, insomma, robe di questo tipo buffe che hanno coinvolto alcuni dei prodotti su cui abbiamo lavorato anche noi. Ad ogni modo, la diffusione del REST. Quindi, quando qualcuno ha iniziato a dire “MCP è il nuovo REST” intendeva quello, intendeva è un’ulteriore interfaccia non complicata che possiamo schiaffare davanti a tutti i processi che avevamo già prima e così come l’abbiamo fatto con il REST, non è meglio o fa delle cose particolarmente diverse, più per dire il nuovo REST in questo senso.
Alessio
Quello aveva senso come abbiamo fatto con i web service vent’anni fa, con CORBA 25.
Paolo
Questo era il nuovo REST, perché a mio avviso REST in realtà era più una buona idea a livello logico di modellazione. L’articolo, il famoso articolo “REST spiegato a mia moglie” spiega bene quell’idea lì. In questo senso invece secondo me è meglio. Detto questo, però, mi spiace che Stefano sta litigando col Bluetooth evidentemente, ma mi è capitato di riconsiderare le mie posizioni su MCP contro CLI perché una persona del mio team ha proprio sollevato questo articolo che citavamo prima in cui si faceva il solito annuncio clamoroso “MCP is dead” e a favore del CLI.
Ci credo, o meglio, l’accetto un po’ di più questa cosa, la vedo possibile, magari c’entra OpenClaw, magari no, non lo so, ma trovo che per quanto funzioni non abbia tecnicamente risolto alcuni dei problematici o delle critiche che si facevano ad MCP. L’articolo in questione in realtà dice che le CLI fanno un lavoro migliore in termini di sicurezza, perché se la CLI aveva della sicurezza, allora il processo la eredita. Sì e no. Nel senso se devi fare trust, delegation, single sign-on e cose di questo tipo, il problema non è risolto, dipende dalla tua CLI che cosa fa. Poi la seconda problematica che ci vedo è quella del discovery di sta roba. MCP in quanto tale aveva questa sorta di presentation layer in cui dichiaravi le tue interfacce, quindi tu sapevi che cosa c’era là fuori, potevi fare indirizzamento. Anche qui idee che si sono già viste nell’industria, in SOAP e anche in altre tecnologie o addirittura stesso i sistemi Linux o Android recenti o anche Alexa fa sta cosa. In Linux, ad esempio, se lanci un comando che non ce l’hai, c’è un plugin che controlla sull’indice dei processi, nel catalogo dei software, ti dice, “Senti, non c’è, però te lo dà questo pacchetto, lo vuoi installare?”
Stefano
Installa roba.
Paolo
Sì, sì, è un cortocircuito di UX che ti aiuta. Android fa una cosa simile. Se gli passi un intent che non hai, ti propone l’app di andarlo a scaricare. E Alexa pure può attivare delle skill senza che tu ce le hai installate. Se gli chiedi che verso fa una bestiola ti installa la skill per verso della bestiola. Quindi in realtà il pattern a livello di UX si è già visto. Sta di fatto che però non c’è una reale organizzazione intorno a questa cosa. Cioè Linux stesso ce l’ha, ma ce l’ha Fedora nel suo Fedora, ce l’ha Ubuntu nel suo Ubuntu. Fedora e Ubuntu incrociato non ce l’hanno. Quindi in realtà come generalizziamo il fatto che se mi serve il comando per GitHub devo lanciare GH? Da qualche parte questa informazione deve stare o è in pre-training dei modelli oppure è in data source esterno, per cui tutte le volte fa sta cosa, abbiamo un indice in generale, un DNS per ste cose.
[25:19] L’importanza del contesto nelle skill
Stefano
È inferenza, no? Quello che si diceva prima è parte del discorso del contesto, quei 20K che ti trovi pronti via e anche per tutte le cose che gli hai installato, skill, mica skill, eccetera. E l’idea delle skill è quella lì, no? Che con poco testo, quindi occupando poco contesto, gli dici che se ha bisogno di fare un certo tipo di cose lì ci sono le cose per farlo. Ed è il motivo per cui questi di Google hanno rilasciato insieme al CLI tutte le skill per insegnare al modello ad usare bene quel CLI lì, perché ovviamente il modello usa bene AWK e sed perché sono comandi storici di Unix, ce li ha in pre-training, ma una cosa come il CLI rilasciato ieri non ce la può avere, ma che ci sta.
[26:13] Definizione e utilizzo delle CLI
Paolo
L’altra obiezione, per finire il giro, era che l’MCP by design, che la critica e il vantaggio a seconda di come la guardi, l’MCP by design definisce dati strutturati in risposta e quindi dovrebbe rendere più facile al modello scomporre metadati da body, da classificazione. Le CLI di base non ce l’hanno, ma molte ce l’hanno perché glielo si implementa sopra. Un classico esempio sono quelle di Kubernetes e puoi fargli sputare l’output in JSON o in YAML.
[27:44] Workflow e MCP: un confronto
Stefano
Sempre per citare l’ospite più citato, Alex, parlando di questa cosa, io gli avevo chiesto ad un certo punto “Ma perché ti sei messo a fare l’MCP di backlog, che avevi già tutto fatto con le CLI, tutti si muovono di là, tu hai fatto quello?” Allora, lui l’ha fatta in realtà prima che le skill prendessero così tanto piede e so che adesso un po’ ci sta riconsiderando questa scelta, perché il suo punto era una cosa che MCP effettivamente ha out of the box, che è la definizione del workflow. Cioè tu nell’MCP non solo gli definisci gli endpoint, ma gli dici anche qual è il workflow tipico per usarli. Prima questo, poi questo, poi questo, che è una cosa che la CLI non ti dà da sola.
Paolo
Out of the box sarebbe l’help.
Stefano
Però sì, più il man. Ma il man per gli agenti è la skill. Hai ragione. È più il man che l’help. E il man degli agenti è la skill. Questa è più o meno la visione di Anthropic. E probabilmente farà la doppia opzione, da quello che ho capito da lui, proprio perché con l’avvento delle skill puoi definire comunque un workflow sopra il CLI e non avere il bisogno dell’MCP. Ecco, con tutto che quello MCP funziona bene di backlog, quindi potrebbe anche tenerlo così.
[29:00] Open Source e risorse utili
Stefano
Secondo momento Marchetta, perché questo mi ci ha introdotto immediatamente. Abbiamo una nuova organizzazione GitHub che si chiama Risorse Artificiali, dentro alla quale ci mettiamo delle cose inutili, ma utili per noi.
Alessio
No, non sono inutili. A parte gli scherzi, diciamo che sono cose che abbiamo ritenuto utili per quello che dovevamo fare noi e quindi per estensione potrebbero essere utili a qualcun altro.
Stefano
Sì, in filosofia open source, via, a cui siamo tanto affezionati, no? Trovate dentro due cose. Il sito nostro che ha tutti i transcript, perché lo mettiamo lì in Markdown, non tanto perché voi lo ripubblichiate da un’altra parte, che è vostro ovviamente.
Paolo
Per tradurlo nelle altre lingue, se abbiamo dei fan di…
Stefano
Per tradurlo in francese, ad esempio, in cinese. Ma a parte questo, anche perché, questo poi magari lo metterò nel sito in qualche modo con una skill, una cosa che può essere utile è invece usare quelle informazioni dentro ad un Claude di turno per andare a pescare cose che abbiamo detto o cose del genere che in qualche modo vi ricordate d’aver sentito. Siccome qualcuno mi ha scritto questa cosa su LinkedIn, cioè “Mi ricordo averla sentita da voi ma non so più come andare a pescarla.” E io gli ho detto “Beh, pigliatelo da GitHub e vai a spulciarlo.”
Alessio
A trovare tutte le volte che ci siamo contraddetti uno con l’altro.
Stefano
Sì. No, beh, ma quello è facile, basta ascoltare una qualunque puntata. Di solito dall’inizio alla fine ci contraddiciamo due volte.
[30:39] Sviluppo agentico su Linux
Stefano
E la seconda cosa invece che abbiamo messo lì è una serie di cose per mettere insieme un’esperienza di sviluppo agentica su Linux su terminale il più carina possibile dall’interazione con la voce con Claude Code al dividere i pannelli.
Paolo
C’è la voce di Stefano. Potete usare la sua voce per leggervi le cose?
Stefano
No, quello giusto non ancora, non l’abbiamo ancora fatto. Lo faremo magari, ma adesso potete usare la voce per scrivere invece dalla tastiera, che voi direte “Ma l’ha fatto anche Anthropic.” Sì, peccato che su Linux non vada, cioè l’ha fatto su altri sistemi operativi. Io su Linux non l’ho ancora visto apparire, ma ho il sospetto che non apparirà perché è troppo incasinato l’audio di Linux.
Paolo
Perché non riescono a prendere il Bluetooth.
Alessio
Perché loro modello gli dice riavvia invece di guardare.
Stefano
Comunque lì va e va bene, se avete voglia spulciatevelo. Se non avete voglia l’abbiamo fatto per noi. Comunque a noi è utile.
Alessio
Soprattutto se vedete qualcosa che dovrebbe andare diversamente secondo voi, aprite una PR e la guardiamo e magari la mergiamo.
Paolo
Se avete messo le stelline, noi la guardiamo.
Stefano
Se non avete messo le stelline non guardiamo niente. Mettete le stelline anche su GitHub, già che ci siete, perché vorremmo che Anthropic ci regalasse Claude per questo progetto, ma ci servono 25.000 stelline, quindi vi dovete impegnare parecchio.
Paolo
Cinque.
Stefano
Beh, anche 5.000 vi dovete impegnare comunque per darci 5.000 stelline su GitHub. Ditelo ai vostri OpenClaw. Giusto.
[32:54] Notebook LM: un aiuto per lo studio
Stefano
L’ultima notizia che volevo portarvi prima di passare a tutt’altro, alle cose serie. Queste erano serissime. Vabbè, però Notebook LM, che è un prodotto di Google che serve per farsi aiutare a leggere cose, io la vedo così. Continua ad aggiungere feature, ne parliamo poco perché io personalmente è un prodotto che do un po’ per scontato, nel senso che lo uso e lo uso parecchio, però vedo che l’utilizzatore medio lo usa pochissimo a partire dalla Gen Z, tanto per tornare alla nostra solita rubrica, cioè mia figlia lo usa poco, troppo poco secondo me, mentre le sarebbe utile per studiare meglio. Cosa fa Notebook LM in quattro parole? Voi gli caricate un video, uno o più video, uno o più documenti, eccetera, lui vi fa una sintesi, vi fa una mindmap, e una delle cose per cui è diventato famoso è che faceva dei podcast a due voci che discutevano l’argomento che voi gli avevate portato, stando molto in topic. Poi, sopra quello, hanno aggiunto i video e questi video erano sostanzialmente delle slide con una voce narrante, come se fosse una presentazione in una conferenza. Questa settimana hanno aggiunto anche quelli che chiamano cinematic video che sostanzialmente sono dei documentari. Vi genera con l’uso di Veo, immagino, dei documentari su quello che sull’argomento che voi gli avete dato in pasto. È utile? Non lo so. È bello da vedere, sicuro.
Alessio
È anche sicuramente costoso.
Stefano
È anche sicuramente costoso. Infatti mi sa che nella versione free ne fa fare uno al giorno, una roba così.
[34:38] Pubblicità personalizzata e creatività
Paolo
Però non serviva probabilmente il fatto che arrivassi Notebook LM per arrivare a fare quello che sto per dire, però mi hai fatto venire in mente che siamo davvero nell’era per cui la pubblicità verrà generata on the fly, diversa per me e per te.
Stefano
Grazie. Grazie perché sei entrato nel meccanismo Marchetta. Questa è una mia vittoria personale perché Paolo è contrarissimo alle Marchette, ma senza rendersene conto ne ha appena fatta una, o forse rendendosene conto, perché mercoledì, no, non se n’era reso conto. Mercoledì è uscita un’intervista a due creativi pubblicitari su questo podcast che parlano, tra le altre cose, oltre che di parolacce e sarcopenia e cesso. Sono simpatici.
Alessio
Sarcopenia o sarcopenia?
Stefano
Io dico sarcopegna, lui sostiene sarcopenia. In podcast ne abbiamo anche discusso, però a parte parlare di queste cose, parlano proprio della generazione di pubblicità video e uno degli argomenti che viene fuori è la possibilità di generare pubblicità personalizzata anche in video. L’argomento è un’intervista lunga perché sono in due, l’argomento è vasto. Parlano di come la creatività è già influenzata da questi strumenti e quanto, in un certo senso, va preservata la parte creativa rispetto al tecnicismo puro, dal loro punto di vista che sono dei creativi pubblicitari.
Alessio
Sì, e ci sono anche dei interessanti parallelismi, secondo me, tra quello che avviene nel loro mondo e quello che avviene nel mondo dello sviluppo del software.
Stefano
Sì, anche secondo me qualcuno l’abbiamo fatto, qualcuno l’ho lasciato cadere perché già avevano tanto da dire, però è una puntata intervista molto lontana dai nostri temi strettamente tecnici, ma proprio per quello può essere interessante da ascoltare per sentire qualcosa di diverso, un punto di vista diverso di chi di un altro settore che comunque sta avendo grossi impatti quanto il software.
Alessio
Forse anche di più direi.
[37:02] L’evoluzione del ruolo dello sviluppatore
Paolo
Quindi il parallelo della pubblicità personalizzata ad personam è applicato al coding: è il modello che mi propone il linguaggio a nome mio, in cui io ho il linguaggio solo con le funzionalità che voglio io, coi metodi che voglio io, col dialetto che voglio io.
Stefano
Ma no, ho anche solo l’applicazione, cioè sempre di più, secondo me, gli chiedi “Ma io vorrei fare questa cosa”, lui ti propone “Ci sono queste applicazioni qui, ma non sono perfette” e se sei come noi, ad un certo punto arrivi a dirgli “Vabbè, scrivimela, scrivimela così come la voglio io.”
Paolo
Cosa che io sto facendo da settimana scorsa, dalla fine della puntata di settimana scorsa, peraltro.
Alessio
Io il parallelismo lo pensavo anche nell’ottica di come evolve, diciamo, il ruolo del professionista in questo ambito e usare i tool, dove sta il valore aggiunto che tu fornisci eccetera.
Paolo
Il picchio di Homer quando lavora da casa e c’ha il picchio che schiaccia yes in automatico e noi stiamo facendo quello.
Stefano
Sì, qualcosa di vagamente simile, però in effetti…
[40:01] Critiche e opportunità nell’era dell’AI
Paolo
Senti, no, aspetta, fammi intercettare la scaletta, visto che abbiamo parlato di queste cose di personalizzazione. Condivido con voi un commento che facevano degli amici in una chat questa settimana, non è un commento mio. Qualcuno stava chiedendo a qualcun altro, a un ex collega che non vedeva da un po’ di tempo come vanno le cose e questa persona a cui piace essere sempre un po’ pessimista ha dato la sua risposta pessimistica, però al di là del pessimismo ha detto un’osservazione interessante, infatti io sono combattuto internamente se riconoscergli il merito del commento oppure no. E il commento è questo. Gli si chiedeva come vanno le cose e lui ha risposto: è un po’ un casino adesso perché prima tutte le schiappe, in quanto schiappe, non facevano niente e quindi avevi un team, avevi delle persone che erano delle tasse, stavano lì, zavorre, cambiavano i typo nei commenti, chi se ne frega, erano i sandboxati a fare questo. Adesso l’AI invece gli permette di fare cose e essendo loro delle schiappe, l’AI è diventato un amplificatore di cattive idee messe in mano a qualcuno che non ha gli strumenti per capirli e giudicarli con i side effect che potete immaginare, che quindi questi producono spazzatura che qualcun altro deve vagliare e quindi sta andando in denial of service il processo di validazione perché devi dare retta a tutte ste schifezze. Qualcuna di sicuro ti scappa e quindi qualcuno diceva si stava meglio quando si stava peggio dove queste persone non facevano niente. Ed è un’interessantissima riflessione e volevo buttarvela in faccia e sentire cosa ne pensavate voi.
Stefano
Allora, io ne penso che un po’ hanno ragione, e penso anche che non abbiamo detto che settimana prossima quando registriamo live l’argomento centrale dovrebbe proprio essere come cambia la professione dello sviluppatore nell’era della GenAI e quello lì è un tema così come è un tema che tu hai sfiorato facendo la battuta, dicendo che erano sandboxati queste persone a non fare danni, così come è un tema avere delle sandbox per non fare danni invece con i coding agent, che trovate nel repository GitHub, altra marchettina.
Alessio
Io invece penso che, cioè d’accordissimo, però c’è anche un altro aspetto, vogliamo essere positivi, diciamo che è un’opportunità per quello che si rende conto che era circondato da queste zavorre eccetera. È un’opportunità per provare a, come dire, renderli più utili, perché il punto si è spostato su qualcosa di diverso, magari su questa cosa di diversa c’è modo di istruirli e farli diventare utili.
Stefano
Sì, hai ragione, adoro il bicchiere mezzo pieno di Alessio, ma il bicchiere mezzo vuoto invece, che io sono più portato, è che poi di sta gente devi fare anche tutte le pull request review e se uno non ha… se uno scrive tanto codice ma non ha le idee chiare di quello che sta facendo, anche se lo fa scrivere a Claude, magari il codice è buono, ma è l’idea che è una minchiata.
Alessio
Chi ha definito l’idea da cui parti, ad esempio.
Stefano
E quindi questo poi apre un altro tema che magari sarebbe bello toccare anche settimana prossima. Dove si è spostato il collo di bottiglia, probabilmente proprio sulle review, perché vediamo sempre di più tanto codice generato, ma poi il codice in qualche modo, il codice o chi per lui va rivisto e chi è che lo può rivedere? Chi è competente?
Tu invece Paolo che opinione hai? Perché oltre a buttare il sasso non puoi togliere la mano, dacci la tua.
Paolo
Sono assolutamente d’accordo. Sarà che magari sono biased dal mio ruolo attuale di engineering manager, dove parte della mia responsabilità è guardare la composizione di un team, chi è capace a fare questo, chi è capace a fare quello, chi è bravo, chi non è bravo. Ma non è solo un discorso di chi è bravo, chi non è bravo. Di solito il valore del nostro ruolo è prendere le caratteristiche che un soggetto apporta e applicarle al problema utile. Se tu hai un cattivo sviluppatore, ma che è bravo a testare o fare documentazione, benvenga, ti faccio fare quello, non ti faccio fare le altre cose. È un win-win, tu fai quello che ti riesce e io risolvo un problema che magari un bravissimo sviluppatore si rompe le palle a fare la documentazione. Quindi è sempre questo gioco qua. Capisco che c’è però una sorta di soglia. Se sei davvero come il già citato Ralph Winchester del plugin di Claude e non distingui il dito che indica la luna dalla luna, potresti essere effettivamente un pasticcio. E che cosa si può fare per mitigare questi pasticci?
Quello che di solito agli altri sviluppatori più senior piace meno, ovvero forzare dei workflow di sviluppo relativamente stretti e condizionati, mettere dei Git hooks, mettere delle automatic check sulle contribuzioni che partono dalla parte statica di analisi del codice, ma che probabilmente in questa epoca possono anche incorporare una fase più semantica, ovvero o manuale o supportata dall’AI. Spiegare che cavolo avevi intenzione di fare, come mai l’hai fatto così e magari anche obbligarti a dirmi quali sono le altre tre opzioni che hai scartato, giusto per dimostrarmi che ci hai messo del tuo, che un processo di selezione è stato fatto, non che hai schiacciato yes yes yes per mezza giornata e basta.
[43:06] La review del codice e le nuove pratiche
Stefano
Sì, questo è interessante, poi un po’ davvero merita tempo questa analisi e cerchiamo, al di là delle battute, di solito non ci prepariamo, che è vero, e stavolta ci prepariamo, che è parzialmente vero, magari settimana prossima approfondiamo un po’ proprio questi temi.
Paolo
Quindi inviteremo come ospite un cattivo sviluppatore per aiutarci a parlare di queste cose.
Stefano
Certo, sicuramente.
Alessio
Quindi se non siete bravi sviluppatori, venite perché ne abbiamo bisogno di qualcuno non bravo.
Stefano
Abbiamo bisogno, no? Tra l’altro perché il JUG sono tutti bravi e poi alla fine c’è anche la lapidazione da parte di quelli del JUG verso il cattivo sviluppatore, no? È imperdibile. E no, dicevo, però è interessante quello che dici, cioè la review di quella che in gergo ultimamente viene chiamata la review delle intention, oltre che la review del codice, apre tutta una discussione che appunto cerchiamo di approfondire un po’ di più settimana prossima, ma che magari mettiamo anche un link interessante in descrizione a questo episodio, così chi se lo vuole leggere. Perché c’è anche chi comincia a dire che le proprio le review, essendo il collo di bottiglia, vanno ridisegnate, riviste. Addirittura l’articolo che ho in mente che voglio mettere qui in descrizione, che di sicuro parlo anche in newsletter perché l’ho già scritto quel pezzo lì, dice proprio se il 2025 è stato l’anno in cui abbiamo smesso di scrivere codice, il 2026 potrebbe essere l’anno in cui smettiamo di fare le PR, almeno come le review delle PR, almeno come le conosciamo oggi, così come non è vero che abbiamo smesso di scrivere codice, cioè anzi ne scriviamo molto di più, ma lo scriviamo in modo diverso. Potrebbe essere che anche le review debbano essere fatte in modo diverso. È un concetto interessante anche se c’è tutto uno sviluppo attorno a vari prodotti, CodeRabbit il più famoso, ma ce ne sono altri 10 almeno che ti aiutano a fare le review, però boh, è interessante il concetto in sé, almeno da esplorare.
[49:41] Rinascita del COBOL e AI
Paolo
Hai detto bella questa cosa che hai raccontato, il concetto interessante. Mi hai ricordato un altro concetto interessante che ho sentito in un altro podcast e vorrei proporvi. Non ve ne ho parlato prima, quindi è forse la prima volta che lo sentite da me. In questi giorni, a seconda di chi segui online, c’era stato un grosso polverone per via dell’impatto che un annuncio di Anthropic aveva avuto sulle azioni di IBM, perché hanno fatto un articoletto in cui dicevano che Claude può scrivere anche COBOL adesso, che era una delle cose difficili e segrete, diciamo, ricette segrete o comunque cose che IBM tradizionalmente ha sempre fatto bene. E il mercato ha reagito dicendo “IBM ha meno impatto” e quindi droppiamo il 15% il valore delle loro azioni. E c’è stato un polverone. C’è chi dice “Han fatto bene, han fatto male”, insomma, al di là di tutto, probabilmente stimolati da questo ragionamento, c’era qualcuno che è andato a parlare con chi COBOL e mainframe invece li tocca davvero. Quindi, al di là del qualunquismo, “Cosa ne pensate di questa cosa?” E hanno fatto una riflessione molto interessante applicata al COBOL e al mainframe, quindi in parte voleva essere un ridimensionamento di queste azioni di macroeconomia, ma il discorso è più generale. Dicevano questo: COBOL non è una cattiva tecnologia. COBOL è una vecchia tecnologia che fa una cosa molto bene, motivo per cui ce la portiamo ancora appresso. E perché lo fa? Perché è un’astrazione intermedia rispetto a un linguaggio di basso livello e un linguaggio di alto livello, nel senso è meglio dell’assembler, ma non è ricco e semantico come il C o altre cose, quindi agli sviluppatori piace meno del C e altre cose, detto che se vi piace il C siete strani. Di sicuro ti piace di più dell’assembler, perché se vi piace l’assembler siete molto strani. Quindi il COBOL è accettabile e fa molto bene il suo mestiere. IBM nel periodo storico ha identificato questa tecnologia, l’ha fatto, i sistemi giravano bene, veloci, senza problemi e quindi il motivo per cui ce l’abbiamo. Qual è la magagna intorno al COBOL? Al fatto che alle persone non piace tanto sviluppare in quella tecnologia, non è divertente, è un po’ vincolata, è un po’ una rottura di scatole, devi muovere posizioni di memoria fisse con contatori, insomma non è super divertente se l’avete fatto. Quindi il problema non era di per sé la tecnologia, il problema era che nel 2026 lo sviluppatore di COBOL non li trovi perché hanno smesso di insegnarlo, ha smesso di essere interessante, la gente fa i videogiochi in JavaScript.
Stefano
E gli sviluppatori di COBOL originale probabilmente sono morti, almeno in pensione.
Alessio
Pensi.
Paolo
Sì, ma la tecnologia stessa non è stata, non è una cattiva tecnologia. Quindi adesso che abbiamo trainato i modelli sia quelli interni di IBM, piuttosto che quelli pubblici Frontier Model, a far sta roba, abbiamo risolto il problema di processo, ovvero di trovare l’umano che lo scriveva il COBOL. Quindi qualcuno ipotizzava, ma è possibile che possa succedere la controtendenza, ovvero il rinascimento di tecnologie come il COBOL, perché adesso che non c’è più la persona che ci deve sputare sangue a scriverle, che si scrivono da sole, quella tecnologia era già ottimizzata e migliore, rimane ancora la migliore in mancanza di alternative migliori. Cioè uno non dovrebbe far Java su mainframe se può fare COBOL. Cioè il COBOL funziona bene, non devi neanche più scrivere tu, a posto così. E quindi qualcuno speculava questo potrebbe succedere se ci si arriva davvero. È interessante come idea, io la vedo possibile. Potenzialmente si applica più che al COBOL, immagino Erlang o altri linguaggi che hanno delle loro caratteristiche particolari di connessione con l’hardware che si giustifichino. E mi ha aperto un po’ il ragionamento e quindi sono curioso di sentire voi cosa ne pensate. Aggiungo solo l’ultima cosa che l’implicazione successiva è magari se l’AI diventa così brava skippiamo addirittura il COBOL e l’AI inizia a scriverci assembly. Più ottimizzato di così si muore. E magari tra 10 anni tutto il codice generato è assembler.
[51:10] Linguaggi di Programmazione e AI
Stefano
Allora, sull’ultima cosa ho solo un dubbio, tra virgolette, è che l’assembler è molto tailored sul hardware e quindi hai bisogno di un training specifico, mentre invece il vantaggio che ha la scrittura di codice in linguaggi più di alto livello è proprio quella che c’è astrazione e quindi è più facile anche per l’AI impararli. Vedi Python, mediamente un’AI quando si deve scrivere uno script per sé lo scrive o in Python o in TypeScript perché sono i linguaggi, con tutti i limiti che vuoi dal non essere strong type, Python, perché TypeScript lo è, e altri limiti che i programmatori più affezionati a tecnologie verticali gli imputano, però è quello, passatemi il termine, più vicino all’inglese di tutti i linguaggi di programmazione e quindi per le AI è più facile scriverlo. Scrivere assembler può essere complicato anche per l’AI, soprattutto perché ogni processore ha il suo assembler. È l’unico limite grosso, reale che vedo.
Paolo
Ecco, io non dico che sia falso, dico che non sono sicuro che tu stai pensando in scala. Non siamo più né io né te a scrivere sta roba. È un processore che gli dai 2 giorni e lui ti scrive per tutti i 10 miliardi di processori che sono mai stati inventati dall’era ad oggi.
Stefano
Probabilmente hai ragione. Sì, sì, probabilmente hai ragione. L’altra cosa che è più un po’ più error prone al momento, poi non dico che tra 6 mesi, un anno quello che dici non sia vero, oggi lo vedo un po’ più difficile, perché poi andare a testare che cosa è successo è più difficile che con un linguaggio ad alto livello, dove scrivi i criteri di accettazione, li verifichi con dei test di unità.
Alessio
Secondo me c’è anche tutto un discorso, cioè tutto il discorso dello stack, dei vari livelli del software eccetera, esiste per una serie di motivi ingegneristici che non sono solo legati a scrivere il software, ma anche poi il distribuirlo. L’idea di avere un software che va su architetture differenti con in mezzo un qualcosa che fa la traduzione eccetera, ti permette anche di avere vantaggi in altre fasi di vita del software, non solo nella scrittura.
[53:50] Distribuzione e Gestione del Software
Paolo
Ci sta tutto quello che dite. Tenete conto però che Python stesso si sta muovendo in queste direzioni con alcuni dei progetti e iniziative là fuori. Leggevo dei riferimenti di chi parlava che PyTorch ha iniziato con dei progetti di ricompilazione ottimizzata sulle architetture target. Questi progetti sono Dynamo e Inductor o TorchStack. E stanno facendo proprio queste cose, sono là fuori, cioè il pattern architetturale, la gente lo sta guardando.
Alessio
Perché c’è da guadagnare in termini di performance su quell’aspetto lì.
Stefano
Sì, sul fare un sito dipende che cosa ci fai, cioè sul fare l’app forse non ti conviene perché c’è molta grafica eccetera eccetera, potrebbe essere molto costoso in termini di cose da fare, però boh, è uno scenario possibile. Assolutamente uno scenario possibile. In breve la mia risposta è che è uno scenario possibile, in questo momento non verificato ancora, ma perché no? Può assolutamente essere.
E questo però ci riaggancia in parte, o almeno mi l’ha fatto venire in mente, quando prima dicevi che il problema della distribuzione invece, delle dipendenze tra pacchetti, non è di fatto un problema risolto né a livello degli agenti, agenti in generale, né forse a livello di sistema operativo perché ognuno c’ha il suo. E non è un caso che Anthropic e altri stiano cercando di andare verso qualcosa di consolidato che è NPM o Bun, per quella gestione lì anche delle loro skill eccetera. Spesso vengono rilasciate come plugin NPM che è quello di TypeScript/Node, perché è anche lì la scelta perché è stata fatta su quello, perché quello è un po’ più moderno, un po’ più stabile. Cioè PIP, per citare invece quello di Python, perché comunque da Python arrivano eccetera, ma nessuno si sogna di usare PIP perché è un disastro, è molto complesso da quel punto di vista lì, così come lo è Maven, eccetera eccetera, hanno cercato di andare su una complessità relativamente bassa e più gestibile di nuovo da CLI. Poi è la soluzione definitiva, probabilmente no. Potrebbe esserci uno spazio lì perché proprio attraverso gli LLM venga fatto il design di qualcosa di nuovo per gestire questa complessità. Può essere, oggi una soluzione effettivamente non ce l’abbiamo neanche a quel livello lì. Ci adattiamo ad usare la migliore che abbiamo in questo momento, che probabilmente è effettivamente NPM sulla gestione delle dipendenze.
[57:15] Controversie tra Antropic e Pentagono
Stefano
Quindi no, per intercettare la scaletta come diceva giustamente Paolo, non possiamo, però abbiamo parlato di novità e tutto, non possiamo prima di muoverci di nuovo sui modelli immagini, di cui Alessio voleva raccontare un paio di cose che io trovo interessanti, ma però non possiamo non citare la diatriba che in questo momento c’è tra Anthropic e il Pentagono, che è sulla bocca di tutti, che ha tanti risvolti, che la si può leggere in tanti modi, cioè si può fare i fanboy e dire “Che bravi non vogliono usarlo come armi”, si può vederla da un punto di vista strettamente tecnico.
Si può vederla da un punto di vista strettamente politico. Parto dall’ultimo. Anthropic è stato giù un giorno intero praticamente il giorno dopo che ha fatto questo annuncio. Io ai casi credo poco, però magari stavano rilasciando delle cose nuove, non lo so. Mi ha fatto strano.
Paolo
Il broccia aveva sbagliato il DNS. È sempre questa la storia.
Alessio
Non lo sapremo mai.
Stefano
Mi ha fatto strano che loro dicano “No, ritiriamo, chiudiamo le cose col Pentagono” e il giorno dopo sono stati per terra. Vabbè. Nel frattempo Trump ha detto che non possono più partecipare a nessuna gara pubblica perché sono brutti cattivi, in buona sostanza.
Alessio
Fino a che cambierà idea settimana prossima.
Paolo
Rischio della supply chain.
Stefano
Esatto, esatto, dillo bene tu Paolo che l’hai letto meglio quella parte.
Paolo
Sono stati descritti con i termini corretti dell’industria, sebbene l’applicazione non sia corretta, e sono stati descritti come un rischio alla supply chain dei prodotti che hanno a che fare con dati sensibili legati alla guerra. Rischio della supply chain per noi è una cosa che ci scontriamo sempre per il nostro lavoro, chi può interferire con la produzione di questo software. Abbiamo lasciato aperto una porta da qualche parte per cui qualcuno può inserire un virus, backdoor, di qua di là. Può avvenire prima di scrivere software, durante, alla fine, perché il software non è stato firmato. Nell’era moderna ci sono super speculazioni di poisoning dei dati di inferenza per cui magari Claude stesso ha un tipo un retrovirus che quando verrà attivato farà i pasticci che volete. Le speculazioni sono infinite. Chi ci rischia tanto con queste cose, chi fa software per gli aerei, per le banche, queste cose, ci sta molto attento e quindi nelle industrie enterprise molto tempo, più di quello che sia divertente, è usato per essere sicuri di limitare i danni in questo genere di faccende.
Alessio
O comunque per far sì che dal momento in cui il software è stato scritto a quando viene dato a chi lo utilizza non ci sia in mezzo qualcosa che ne compromette l’integrità. E in questo caso loro sostengono, mi pare di capire, che Claude Code è infilato in mezzo da quando hanno fatto qualcosa e quando lo danno ai loro clienti per la guerra possa influenzare le intenzioni.
Paolo
Sì, e a quanto pare invece non è quello di OpenAI, no. Comunque, al di là delle cazzate. Ho letto la risposta di Amodei, l’ha scritta ieri sera, ho fatto tempo a leggerla stamattina, perché a quanto pare c’è stato anche un leak interno di Anthropic di cui qualcuno ha buttato fuori un commento interno di Amodei, quindi ha dovuto rettificare per non far travisare le sue parole. L’ha messo giù molto pratica, molto logica e molto si, molto logica, insomma. Hanno fondamentalmente analizzato il punto della legge a cui il Ministero della Guerra Americano ha fatto riferimento per dire “Voi siete a rischio di questa roba.” Gli hanno detto “No, quella legge parla di un’altra cosa, voi l’avete travisata, anzi dice una cosa diversa.” E quindi quello che abbiamo intenzione di fare noi adesso è di andare in tribunale per dire “No, questa roba è ingiusta, è ragionevole, e quindi non si dica e non si cancella il nostro contratto per via di questo argomento.” Il sistema giudiziario americano in questi anni è interessante, quindi chi lo sa cosa succede, però loro l’hanno presa seria, insomma, non hanno buttata sul… Non hanno fatto particolarmente enfasi sull’etica in questo caso, cioè avevano i loro motivi etici per iniziare la faccenda, ma adesso non stanno dicendo “Noi non lo vogliamo fare e basta.” Stanno anche dicendo “No, questa cosa è ingiusta, se voi non dite cazzate lo riconoscete anche voi.”
Stefano
Io aggiungo altri punti di vista. Il primo più serio è che leggendo il primo statement di Amodei, quello in cui dice “No, facciamo saltare il contratto”, 200 milioni di dollari tra l’altro, non proprio bruscolini, lui in un passaggio dice una cosa che secondo me non va sottovalutata. Di nuovo parlando di quella che è la visibilità che un Amodei ha su quello che sta succedendo all’interno dei laboratori, quando parliamo di AGI e tutte queste cose, lui parla soprattutto di AGI e tutte queste cose, lui dice: “Non potete, non dovete usare Claude per fare queste cose, perché Claude non è un sistema, Claude ha una personalità e potrebbe fare delle scelte che voi non vi aspettate.”
Poi non è una coscienza, non ha usato volutamente la parola coscienza eccetera eccetera, ma “ha una sfumatura di personalità”, dice per la precisione. È comunque interessante, cioè è comunque un dato interessante che lui in un comunicato ufficiale dica non solo “No, non usatelo perché non sono d’accordo e non siamo d’accordo come azienda”, no, “Non usatelo perché può essere pericoloso perché non sapete che può decidere.” Io lo trovo interessante.
La seconda cosa un po’ più leggera è, visto che Amodei, di nome Dario, è chiaramente di origini italiane, se sta litigando così tanto con gli Stati Uniti, ma noi lo accogliamo a braccia aperte, magari San Marino dove potrebbe avere qualche agevolazione sulle tasse e in quel caso potrei anche decidere di trasferirmi fino a San Marino.
Paolo
Io sai che ho un suggerimento diverso, che faccia come ogni buon italiano che lavora nel software e vuole guadagnare, che se ne vada in Svizzera come tutti gli altri.
Stefano
Sì, anche in Svizzera. Purché venga in Europa, cioè, guarda, per l’Europa sarebbe un colpo gobbo pazzesco questa lite tra Anthropic e gli Stati Uniti, guadagneremmo un’azienda che fa veramente AI e non quelle che diciamo che fanno AI, i francesi.
Alessio
E con questo le cause le prendiamo sicuro.
Stefano
No, ce n’è una a Genève che fa assolutamente un ottimo lavoro sull’altro. Sull’altra ho qualche dubbio in più di rebranding di modelli cinesi, però fa niente.
[01:04:11] Modelli Cinesi e Innovazioni nel Settore AI
Alessio
Senti, ma parlando di modelli cinesi, fammi occupare 3 minuti del nostro tempo a raccontare due cose.
Stefano
Di più, non essere… Sei tu quello stringente sul tempo, vai!
Alessio
Quindi possiamo arrivare a un’ora e otto minuti.
Stefano
Anche 10, dai, vai!
Alessio
No, a parte gli scherzi. Mi sembra che settimana scorsa citavamo Qwen 3.5. Dopo che ne abbiamo parlato, in realtà dicevamo che in realtà non era un modello che è stato rilasciato, ma una famiglia di modelli. Ecco, la famiglia si è allargata. Si è allargata con i piccoli. Nello specifico sono usciti dei modelli piccoli nel senso che si arriva fino a 0,8 billion parameters, quindi poca roba o tanta roba a seconda di come lo vuoi leggere.
Stefano
Esatto, Raspberry.
Paolo
È una sbafia. Telefono di Paolo.
Alessio
Piccolo recap. Stiamo parlando di modelli che sono nativamente multimodali e vision, che per modelli open weight non è una cosa scontata, anzi credo che siano i primi che mettono assieme tutti questi aspetti. Questi modelli piccoli hanno finestre di contesto nativamente fino a 262K token, quindi non è il milione di token della versione Plus utilizzabile con l’API di Qwen 3.5, ma comunque siamo oltre i 128K o meno che erano diciamo lo standard de facto dei modelli relativamente piccoli open weight fino a poco tempo fa. E le migliorie tecniche che hanno messo sull’attention eccetera, di cui io non vi parlo perché bisogna leggerle bene con calma e non c’è nel tempo né le capacità di farlo nell’attention, fanno sì che, come anche qui mi sembra dicessimo settimana scorsa, le performance di questi modelli al riempirsi del contesto non degradano così come degradano invece gli altri modelli.
Che significa? Visto che questi modelli sono piccoli, pensati per essere usati su hardware con poche capacità, il fatto che i risultati non degradino in termini di tempo per fare l’inferenza in modo drammatico appena inizia a mettere qualcosa davvero di succoso nel contesto, rendono questi modelli veramente utilizzabili in quegli ambienti.
Stefano
Credo che abbia proprio a che fare con i miglioramenti sull’attention, cioè lo spostamento quadratico dell’attention.
Alessio
Sì, Gated Delta Network, esattamente, proprio quella cosa lì. Quindi cosa significa? Che il modello da 0,8 billion, che per la versione quantizzata a 4 bit richiede tipo 500 mega di memoria, può girare su smartphone neanche recentissimi, su Raspberry Pi 5 e su qualunque netbook, qualunque portatile degli ultimi 5 anni, non lo so. E ci si può fare cose interessanti, tipo processare il video delle telecamere, scannerizzare e riassumere documenti e fare cose che c’entrano anche con Vision, quindi ti do questa immagine, dimmi cosa ci vedi, roba di questo genere, tanta roba. Con 262K di contesto ci stanno anche le immagini, quindi utilizzabili per fare cose vere.
Poi ci sono quelli un attimino più grandi da 2, da 4 billion, che si stima abbiano bisogno di tipo 2 giga e mezzo, 3 giga di memoria, una cosa così, che di nuovo vanno bene su portatili un po’ più recenti. Mi viene da pensare i Mac ultimo grido, piuttosto che portatili con una scheda video discreta tipo Nvidia RTX 3050, 3060, insomma non proprio cose ultimo grido, utilizzabili con tempi di risposta belli.
Poi c’è il modello 9 billion che è di nuovo un po’ più grande, qui si sale. Due ragionamenti interessanti che si facevano nell’annuncio di Alibaba di questi nuovi modelli sono il fatto che tutti questi modelli sono Mixture of Experts, abbiamo spiegato altre volte cosa significa, cioè non tutti gli esperti vengono attivati contemporaneamente, ma solo un subset, che vuol dire che il modello richiede meno memoria di quello che dovrebbe per fare l’inferenza, è più agile, risponde più velocemente, però al tempo stesso il modello comunque rimane delle stesse dimensioni da un punto di vista di storage che ti serve per scaricarlo. Questo significa che modelli tipo quelli da 9 billion che comunque sono delle dimensioni equivalenti di modelli da 25-30, ok, vanno bene su un portatile, magari tutto quello storage non ce l’hai sul telefono. Quindi sembra incastrarsi proprio tutti questi aspetti, sembra che li abbiano pensati davvero per i vari possibili ambiti di utilizzo. E il fatto di avere 262K di contesto, di finestra di contesto utilizzabili bene, senza che ci sia un degrado delle performance man mano che lo riempi, va ad erodere i casi d’uso tipo quelli dei RAG, perché potendo tenere più cose nel contesto e riuscendo a utilizzarle bene, abbiamo meno bisogno di ricorrere a basi dati esterne per fare anche le cose più banali. E ne ho trovati due ragionamenti interessanti.
Stefano
C’è anche il ragionamento da fare business, cioè chi fa open weight tutto sommato ci sta che si focalizzi su casi d’uso locali, perché fare open weight per far fare inferenza all’OpenRouter di turno sì è interessante ma non competerai mai con gli state of the art. Mentre invece se riesci ad… e poi adesso che si va molto in agentificazione di tutto, se riesci a spostare almeno una parte del lavoro in locale e dare allo state of the art soltanto i compiti, quelli complessi magari predigeriti in qualche modo, potresti ottimizzare. Credo che la narrativa sia un po’ questa.
Alessio
Quindi tutta la community è andata in mega hype mode per questo fatto che sono uscite queste cose di Qwen 3.5 grazie ad Alibaba, bellissimo, stupendo. Il giorno dopo l’annuncio siamo passati alla fase di terrore e preoccupazione perché si è diffusa la notizia che tutto il team, i principali sviluppatori di questi modelli se ne sono andati da Alibaba. Il tipo l’Architect, il Lead e non so chi altro, le tre menti dietro a questi prodigi di modelli rilasciati, tutti e tre hanno lasciato Alibaba.
Stefano
E stanno per andare dove?
Alessio
Non si sa ancora, non si sa i veri motivi di questa cosa. C’è chi specula riguardo l’aumentata competitività del mercato cinese in questo ambito, l’attrattività da parte di major americane di talenti, che sai, magari “Vieni in America, ti paghiamo sette volte quello che prendi in Cina, lavori ai modelli frontier nostri.” In più c’è tutto un tema sulla ristrutturazione dei brand e della governance che sta avvenendo in Alibaba che ha acquisito varie altre aziende e quindi qualcuno speculava sul fatto che questi ricercatori che erano in una delle aziende acquisite possono non essere allineati con la direzione che Alibaba centrale ha. E quindi non si sa. Al tempo stesso Alibaba sembra che abbia mandato fuori un annuncio che dice che vogliono comunque focalizzarsi su mandare avanti questo filone di sviluppo, i modelli open, eccetera. Stiamo a vedere. Vedremo se nei prossimi mesi il ritmo di rilasci rallenta, l’engagement della community non viene favorito, insomma queste cose.
Stefano
Ricordiamo agli ascoltatori che quando diciamo Alibaba parliamo del più grande colosso tecnologico cinese, equivalente ad Amazon, sia per la parte di vendita al dettaglio che per AWS, l’equivalente di AWS. Cioè, sono un vero e proprio colosso cinese.
Alessio
Era uno sponsor dell’Olimpia di Milano, mi ricordo, era un loro, ecco, cioè, giusto per dire.
Stefano
Con il marchio AliExpress credo, che è loro, è uno dei loro marchi, come dire Amazon per l’Amazon Group.
Paolo
No, è più bello. Quindi se compro della roba su AliExpress o dell’Olimpia di Milano non è neanche finta, è vera?
Stefano
Cioè è finta all’origine, non esiste il brand vero.
Alessio
Chissà se i peluche che hanno fatto hanno contribuito quelli di AliExpress.
Stefano
Chissà, può essere. Bene, siamo all’ora e 15. So che Alessio ci tiene a stare nel tempo e quindi l’abbiamo fatto sforare e si sentirà in colpa per tutta la settimana. Ci vediamo giovedì 12 a Milano per chi vuole venire. Mettiamo il link in descrizione per iscrivervi se ci sono ancora posti. I posti erano limitati dallo spazio del posto dove andiamo, altrimenti ci sentite qua. Probabilmente, ancora da capire, ma quella puntata andrà anche in streaming direttamente sul loro canale YouTube non sul nostro, credo, perché non riusciamo a streamare su due canali insieme. E a parte quello, comunque la trovate come al solito al sabato mattina.
Alessio
Ciao ciao.
Stefano
Saluta anche Paolo con la mano perché è pigro. Ciao.
Paolo
Ciao.