Promo — I guardrail degli LLM sono una tassa sul coding

File consolidato con TUTTI i deliverable del drop nuovo episodio. Generato da podcast-promo v4.1 il 2026-04-24. Identifier campaign: ep49_drop


Cheat sheet

Campo Valore
Titolo I guardrail degli LLM sono una tassa sul coding
Format numerato
Episode number 49
Drop date 2026-04-25 13:00 Europe/Rome (sabato)
YouTube ID OHoJ-ZE68_Q → https://www.youtube.com/watch?v=OHoJ-ZE68_Q
Spotify Episode ID 5m9AOMouSF26rXrleVa8c8 → https://open.spotify.com/episode/5m9AOMouSF26rXrleVa8c8
Apple URL null (da aggiungere post-publish Apple RSS, T+4-24h)
Thumbnail path /assets/images/episodes/ep49.png
Jekyll post path _posts/2026-04-25-i-guardrail-degli-llm-sono-una-tassa-sul-coding.md
Campaign UTM ep49_drop
Duration (derivata) PT1H10M28S

1. Titolo

I guardrail degli LLM sono una tassa sul coding

Char count: 46/60 ✓ Keyword tech nei primi 30 char: “guardrail LLM” Pattern: numerato, claim contrarian first


2. Hook 30s scripted (variante A — contro-intuitivo)

(0s)  Togliere i guardrail a un LLM lo fa scrivere codice migliore.

(5s)  Questa settimana un progetto open ha sprotetto Gemma in 8 prompt,
      e i benchmark di coding del modello obliterato sono saliti.

(12s) Vi spieghiamo perche' i guardrail sono una tassa sul reasoning,
      cosa c'entrano con le traiettorie di pensiero, e perche' riguarda
      anche chi usa Claude e GPT in produzione.

(22s) Siamo Stefano, Paolo e Alessio, e questi sono i tre fatti
      della settimana che valgono davvero.

(28s) Andiamo.

~80 parole, ~29s parlato naturale italiano. Registra a fine puntata, monta in apertura sostituendo l’attuale cold open.


3. Chapters YouTube

00:00 Intro: Claude, GPT 5.5, Gemma obliterata
01:05 Le nostre thumbnail sembrano iscrizioni funerarie
05:09 Post-mortem Anthropic: 3 bug ammessi su Claude
11:01 GPT 5.5 vs Opus 4.7: benchmark e leak di Mythos
17:50 GPT Image 2 stracca Arena con 1512 punti
23:09 Griglie anime e censura nei modelli image
32:23 Obliteratus e SynthID: modelli che sproteggono modelli
40:05 Perche' i guardrail sono una tassa sul coding
47:47 Il test 3D di Ethan Mollick: GPT 5.5 vince
52:12 Il wiki gestito da un LLM alla Karpathy
59:25 E' finito il tempo delle app?
1:09:25 Chiusura

Totale: 12 chapter. Precisione timestamp ±15s (derivata LLM da transcript).


4. Descrizione YouTube

GPT 5.5 supera Opus 4.7, GPT Image 2 domina l'Arena, e togliere i guardrail a un LLM migliora il coding.

Settimana densa in casa OpenAI: esce GPT 5.5 (3 punti sopra Opus 4.7 sull'index generale, staccato sul coding agentico) e GPT Image 2, che sbaraglia tutti sull'Arena di Design Arena con 1512 punti contro i 1200 dei modelli state of the art. Lo mettiamo alla prova con il leopardo che corre nella neve, il ghiaccio che si scioglie su un tavolo di marmo, e una griglia di 49 cartoni animati giapponesi generata in italiano e in inglese. Scopriamo che il reasoning fa davvero la differenza, specie quando il prompt non e' pulito.

Nel frattempo Anthropic pubblica un post-mortem in cui ammette 3 bug sull'harness di Claude Code che hanno causato il degrade percepito da mesi su X. Non era il modello, erano i bug.

E il progetto open source Obliteratus riesce a sproteggere Gemma con 8 prompt, rimuovendo il 92 per cento dei guardrail e migliorando i benchmark di coding come side effect. Ne parliamo Stefano, Paolo e Alessio, tirando il filo verso una domanda piu' grande: perche' i guardrail sono una tassa di performance sul reasoning, e cosa c'entra con le traiettorie di pensiero che ci aveva raccontato Alessandro Maserati mesi fa.

Nel corso della puntata anche: il wiki gestito da un LLM proposto da Andrej Karpathy (e la domanda se abbia ancora senso costruire app), il test 3D di Ethan Mollick dove GPT 5.5 domina sulla simulazione di una citta' portuale dal 3000 a.C. al 3000 d.C., il reverse engineering di SynthID, il leak di Mythos. E si', Claude ha detto che le nostre thumbnail sembrano iscrizioni funerarie.

Capitoli:
00:00 Intro: Claude, GPT 5.5, Gemma obliterata
01:05 Le nostre thumbnail sembrano iscrizioni funerarie
05:09 Post-mortem Anthropic: 3 bug ammessi su Claude
11:01 GPT 5.5 vs Opus 4.7: benchmark e leak di Mythos
17:50 GPT Image 2 stracca Arena con 1512 punti
23:09 Griglie anime e censura nei modelli image
32:23 Obliteratus e SynthID: modelli che sproteggono modelli
40:05 Perche' i guardrail sono una tassa sul coding
47:47 Il test 3D di Ethan Mollick: GPT 5.5 vince
52:12 Il wiki gestito da un LLM alla Karpathy
59:25 E' finito il tempo delle app?
1:09:25 Chiusura

Ascolta su Spotify: https://open.spotify.com/episode/5m9AOMouSF26rXrleVa8c8?utm_source=youtube&utm_medium=description&utm_campaign=ep49_drop
Sito e newsletter: https://risorseartificiali.com/?utm_source=youtube&utm_medium=description&utm_campaign=ep49_drop

Iscriviti al canale se questi sono i discorsi che vuoi sentire.

#49

Primi 125 char (snippet YT feed/search): GPT 5.5 supera Opus 4.7, GPT Image 2 domina l'Arena, e togliere i guardrail a un LLM migliora il coding. (103/125)

Lunghezza totale: ~395 parole.


5. Descrizione Spotify

GPT 5.5 supera Opus 4.7, GPT Image 2 domina l'Arena, e sproteggere un LLM migliora il coding.

Settimana densa. OpenAI rilascia GPT 5.5 e GPT Image 2: il primo stacca Opus 4.7 sui benchmark di coding agentico, il secondo sbaraglia tutti sull'Arena con 1512 punti contro i 1200 dei modelli state of the art. Anthropic pubblica un post-mortem e ammette 3 bug sull'harness di Claude Code che hanno causato il degrade percepito da mesi. Il progetto open source Obliteratus sprotegge Gemma con 8 prompt, rimuovendo il 92 per cento dei guardrail e migliorando i benchmark di coding come side effect.

Ne parliamo Stefano, Paolo e Alessio, tirando il filo verso una domanda tecnica: perche' i guardrail sono una tassa di performance sul reasoning, e cosa c'entra con le traiettorie di pensiero. Nel corso della puntata anche il wiki gestito da un LLM di Karpathy, il test 3D di Ethan Mollick, il reverse engineering di SynthID, e il leak di Mythos.

E si', Claude ha detto che le nostre thumbnail sembrano iscrizioni funerarie.

Sito e newsletter: https://risorseartificiali.com/?utm_source=spotify&utm_medium=description&utm_campaign=ep49_drop

Se questi discorsi ti interessano, follow al podcast.

#49

Primi 100 char (snippet Spotify): GPT 5.5 supera Opus 4.7, GPT Image 2 domina l'Arena, e sproteggere un LLM migliora il coding. (93/100)

Lunghezza totale: ~195 parole.


6. Tag YouTube custom

CSV pronto da incollare in YT Studio > Dettagli > Tag (20 tag):

intelligenza artificiale, AI, podcast tech italia, AI engineering italia, guardrail LLM, coding agent in produzione, modelli obliterati, allineamento AI, sproteggere LLM, fine tuning guardrail, Claude Code, GPT 5.5, GPT Image 2, Gemma obliterato, Opus 4.7, Obliteratus, SynthID, Karpathy wiki, Ethan Mollick, Nano Banana

Breakdown:


7. YouTube Shorts script

Segmento sorgente: 35:30 - 36:40 (Paolo su +92% guardrail rimossi + side effect coding + Stefano sintesi “tassa di performance”)

Script (45-60s, target ~52s parlato italiano):

(0s)  Fino al 92 per cento dei guardrail di un modello. Tolti in 8 prompt.

(5s)  Il progetto Obliteratus ha sprotetto Gemma 4 dando 8 prompt a
      un coding agent. Il 92 per cento dei blocchi rimossi.

(18s) Ma la parte interessante e' arrivata dopo: un side effect e' stato
      migliorare i benchmark di coding del modello stesso.

(30s) Quindi i guardrail sono una tassa di performance. Il modello sta
      impegnato a non dire certe cose, e quel lavoro sporca il reasoning.

(42s) E qui arriva il twist: questa roba si lega alle traiettorie di pensiero
      di cui ci parlava Maserati mesi fa.

(50s) Episodio completo sul canale, link nel primo commento.

Testo overlay mute-friendly (4 beat):

  1. "92% DEI GUARDRAIL. TOLTI." (beat 0-4s, font grande)
  2. "Gemma 4 sprotetta in 8 prompt" (beat 5-17s)
  3. "Side effect: coding migliore" (beat 18-29s)
  4. "I guardrail sono una tassa" (beat 30-42s, fade-in drammatico)

Descrizione Shorts:

Perche' togliere i guardrail a un LLM lo fa scrivere codice migliore?
Puntata 49 di Risorse Artificiali, link nel primo commento.

https://www.youtube.com/watch?v=OHoJ-ZE68_Q?utm_source=youtube_short&utm_medium=description&utm_campaign=ep49_drop

#AIEngineering #Claude #LLM

Pinned comment:

Episodio completo (70 min) con il post-mortem di Anthropic, GPT 5.5,
GPT Image 2 e la discussione sui guardrail:
https://www.youtube.com/watch?v=OHoJ-ZE68_Q?utm_source=youtube_short&utm_medium=pinned&utm_campaign=ep49_drop

Publishing: Lunedi’ 2026-04-27 09:00 Europe/Rome (+2 gg dal drop sabato).


8. Spotify Clip spec

Segmento: 02:48 - 04:00 (~72s). Stefano racconta che Claude ha giudicato le loro thumbnail “iscrizioni funerarie”, reaction Alessio “pensavo l’eta’ di morte”, commento Stefano.

Relazione con Short YT: complementare. Lo Short copre il claim tech sui guardrail (bacino YT tech-first); il Clip Spotify copre l’aneddoto memorable (bacino Spotify discovery feed, non-follower).

Spec:

Campo Valore
Start/End 02:48 - 04:00
Durata ~72 sec
Voce Stefano (reaction Alessio)
Cross-talk minimo
Titolo Clip Claude: le vostre thumbnail sembrano lapidi (43 char)

Trascrizione segmento esatta:

Stefano [02:48]:
"La cosa piu' ridicola che racconto qua in podcast e' quando gli ho chiesto
cosa pensava delle nostre thumbnail, e lui mi ha risposto onesto, sembrano
delle iscrizioni funerarie. E poi me l'ha giustificata tutta dicendo:
vedi, ci sono le immagini rotonde esattamente come le fotografie, lo sfondo
verdino sembra quello di una lapide, il numero dietro che mettete per il
numero di puntata sembra un numero commemorativo.

Alessio: Pensavo l'eta' di morte.

Stefano: Al di la' che la cosa mi abbia fatto molto ridere, mi anche
fatto pensare, che io non ce l'avevo mai pensato. Anzi mi sembrava che
mettere il numero dietro fosse una figata. Mi ha fatto pensare quello
che ogni tanto Paolo dice, che questo non e' un programma per giovani.
Ma diventeremo piu' giovani perche' seguiremo le indicazioni di Claude Code."

Testo overlay Spotify (1 frase, 7 parole):

"Claude ha detto: sembrano iscrizioni funerarie"

Posizionamento: centrato alto, font grande, 7-10s di permanenza in apertura.

Publishing: STESSO MOMENTO del drop (zero gap).


9. Post LinkedIn (host)

Un progetto open source ha sprotetto Gemma in 8 prompt. Ha rimosso il 92
per cento dei guardrail. E il side effect piu' interessante e' che i
benchmark di coding del modello obliterato sono migliorati.

Non e' un bug. E' un segnale. I guardrail sono una tassa di performance
sul reasoning: il modello usa capacita' per non dire certe cose, e quella
fatica sporca anche le traiettorie utili al coding. Lo spiegava Alessandro
Maserati mesi fa parlando di allineamento: un modello addestrato a evitare
certi output evita anche le strade logiche che passano da li'.

In una settimana densa (Anthropic pubblica un post-mortem e ammette 3 bug
sull'harness di Claude Code, OpenAI rilascia GPT 5.5 e GPT Image 2 che
domina l'Arena con 1512 punti, il wiki di Karpathy riaccende la domanda
se abbia ancora senso costruire app come le conosciamo), questo e' il
claim che ci e' rimasto dentro.

Puntata 49 con Paolo Antinori e Alessio Soldano. Link nel primo commento.

#AIEngineering #Claude #LLM #AIagents #CodingAgents

Primo commento (incolla subito dopo):

Video YouTube: https://www.youtube.com/watch?v=OHoJ-ZE68_Q?utm_source=linkedin&utm_medium=post&utm_campaign=ep49_drop

Anche su Spotify: https://open.spotify.com/episode/5m9AOMouSF26rXrleVa8c8?utm_source=linkedin&utm_medium=comment&utm_campaign=ep49_drop

Publishing hint: Martedi’ 2026-04-28 14:00 Europe/Rome (+3 gg dal drop sabato, peak audience italiano).


10. Post X

92% dei guardrail di Gemma, tolti in 8 prompt. Il side effect? Il modello scrive codice meglio di prima.

I guardrail sono una tassa di performance sul reasoning. Ne parliamo in puntata 49.

https://www.youtube.com/watch?v=OHoJ-ZE68_Q?utm_source=x&utm_medium=tweet&utm_campaign=ep49_drop

#AIEngineering #Claude

Char count: 238/280 ✓ (URL X-wrapped a 23 char) Publishing hint: Martedi’ 2026-04-28 14:00 Europe/Rome (parallelo LinkedIn).


11. Newsletter Substack

# Sproteggere un modello per farlo scrivere codice meglio

## Un paradosso che questa settimana e' diventato evidenza

Ti saresti aspettato che togliere i guardrail a un modello lo facesse scrivere codice migliore? Noi no. E invece questa settimana un progetto open source di nome Obliteratus ha sprotetto Gemma dando otto prompt a un coding agent, rimuovendo il 92 per cento dei blocchi. Il side effect piu' interessante non e' stato politico, ne' morale: e' che i benchmark di coding del modello obliterato sono *migliorati*. Non di poco. In modo misurabile.

Questo ci ha obbligati a rimettere insieme diversi filoni che pensavamo separati. E' il tema della puntata 49.

## Perche' ne abbiamo parlato adesso

Non e' una settimana qualunque. In pochi giorni si sono accumulate quattro cose che, messe insieme, raccontano come lo stato dell'arte si stia muovendo in modo piu' aggressivo di quanto sembri.

Anthropic ha pubblicato un post-mortem e ha ammesso tre bug sull'harness di Claude Code che hanno causato il degrade percepito su X da mesi. Non era il modello, erano i bug. OpenAI ha rilasciato GPT 5.5 (tre punti sopra Opus 4.7 sull'index generale di Artificial Analysis, staccato ancora di piu' sul coding agentico) e GPT Image 2, che sbaraglia tutti sull'Arena di Design Arena con 1512 punti contro i circa 1200 dei modelli state of the art. Nel frattempo la community ha sprotetto Gemma in otto prompt e ha reverse-engineerato SynthID, il watermarking di Google. E Andrej Karpathy ha postato un wiki gestito da un LLM che ha scatenato 50 repo imitazioni in 72 ore.

Ognuno di questi fatti, preso singolarmente, sarebbe un'anomalia. Messi insieme raccontano la stessa cosa: i modelli stanno scrivendo gli strumenti per modificare altri modelli, e chi lavora con AI in produzione deve decidere che relazione avere con questa spirale.

## Ascolta la puntata

[EMBED Spotify episodio]

https://open.spotify.com/episode/5m9AOMouSF26rXrleVa8c8?utm_source=substack&utm_medium=newsletter&utm_campaign=ep49_drop

[EMBED YouTube episodio]

https://www.youtube.com/watch?v=OHoJ-ZE68_Q?utm_source=substack&utm_medium=newsletter&utm_campaign=ep49_drop

## Di cosa parliamo (shownotes)

Apriamo con un aneddoto che all'inizio ci e' sembrato solo divertente: Stefano in vacanza ha chiesto a Claude un'opinione sul podcast, e Claude ha definito le thumbnail "iscrizioni funerarie" con motivazione (sfondo verdino come lapide, numero commemorativo). L'aneddoto e' rimasto, ma ha aperto una riflessione piu' seria su quanto prendere sul serio il giudizio di un modello sul tuo prodotto.

Poi entriamo nella polemica settimana su Claude Code. Anthropic ha pubblicato un post-mortem in cui riconosce tre bug sull'harness, non sul modello, e spiega che la sensazione di degrade era reale ma non dipendeva dai pesi. La community su X ha reagito in modo diviso: fra chi accusa Anthropic di rilasciare troppo in fretta e chi nota che anche gli altri laboratori lo fanno, solo che non lo ammettono.

Passiamo a OpenAI. GPT 5.5 e' un salto reale: tre punti sull'index generale sono una distanza che tra le release major sta scomparendo, e sul coding agentico la distanza cresce. GPT Image 2 fa qualcosa di piu' interessante: non migliora tanto sul fotorealismo, migliora drammaticamente sulla generazione di immagini con reasoning (infografiche, griglie complesse, rendering fisico accurato). Alessio racconta i test sul leopardo, sul ghiaccio che si scioglie con diffusione fisica, e sulla griglia di 49 cartoni animati giapponesi generata in italiano e in inglese. Il reasoning fa davvero la differenza, e si vede quando il prompt non e' pulito.

Arriviamo al cuore della puntata con Paolo che racconta Obliteratus. Gemma sprotetta in otto prompt, 92 per cento dei guardrail caduti, e benchmark di coding in salita. Il progetto ha anche reverse-engineerato SynthID partendo da un'immagine bianca e facendo analisi in frequenza con un'altra AI. Stefano aggiunge il pezzo tecnico: i guardrail vengono applicati come fine-tuning superficiale (LoRA, DoRA) e quindi sono chirurgicamente rimuovibili; il pezzo concettuale arriva dalla vecchia intervista con Alessandro Maserati, che mesi fa spiegava come l'allineamento non blocca solo output, blocca *traiettorie di pensiero*.

Chiudiamo con due cose diverse. Il test 3D di Ethan Mollick: un singolo prompt per simulare una citta' portuale dal 3000 a.C. al 3000 d.C., e GPT 5.5 fa qualcosa di impressionante. E il wiki di Karpathy, che non ha condiviso un repository ma un GIST con un prompt. La community ne ha fatto cinquanta repo e due startup. Stefano si chiede se abbia ancora senso trasformare strumenti cosi' personalizzabili in prodotti.

## Il nostro take della settimana

La cosa che ci siamo detti fra noi fuori microfono, e che vi diciamo qui, e' questa: l'allineamento sta diventando un asset politico piu' che un asset tecnico.

Quando il fine-tuning di guardrail e' un layer superficiale applicato al post-training, e quando i modelli diventano abbastanza bravi da sproteggere altri modelli in otto prompt, la domanda non e' piu' "e' possibile?" ma "chi controlla la definizione di cosa va bloccato e cosa no?". Oggi la controllano i laboratori. Domani la controlla chiunque abbia un coding agent e una domenica pomeriggio libera.

Per chi costruisce in produzione questo cambia il calcolo del rischio. Usare un modello open weight significava gia' prima accettare meno guardrail. Adesso significa anche accettare che chi sta vicino a te puo' averlo sprotetto in un modo che tu non controlli. E il side effect coding-migliore rende il modello sprotetto oggettivamente piu' utile in alcune task. Il punto di equilibrio si sposta.

Non e' una risposta. E' un cambio di quadro.

## Risorse citate in puntata

- **Obliteratus** — progetto open source per rimuovere guardrail da modelli via ablazione chirurgica dei layer di fine-tuning (GitHub, cercare "obliteratus")
- **Post-mortem Anthropic** sui tre bug di Claude Code (blog Anthropic, aprile 2026)
- **GPT 5.5** — announcement OpenAI
- **GPT Image 2** — benchmark Design Arena 1512 punti (artificialanalysis.io, design-arena.ai)
- **SynthID reverse engineering** — progetto comunita' su GitHub che rimuove watermark Google da immagini
- **Wiki di Karpathy** — gist pubblico con prompt unico per far gestire un wiki di conoscenza a un LLM
- **Simulazione 3D di Ethan Mollick** — test harbor town 3000 a.C. - 3000 d.C. su O3, Opus 4.6/4.7, GPT 5.4/5.5, Gemini Deep Think, Kimi
- **Intervista ad Alessandro Maserati** su allineamento e traiettorie di pensiero (episodio passato di Risorse Artificiali)

## Prima di chiudere

Mercoledi' prossimo torna Stefano Gatti in intervista. Ci raccontera' la sua lettura attuale dell'intelligenza ibrida che aveva anticipato a ottobre, e questa settimana di rese dei conti e' un buon contesto per riascoltarlo.

Se questa edizione ti ha aperto un pensiero, inoltrala a un collega tecnico che sta usando AI in produzione. Se non lo sei ancora, iscriviti alla newsletter qui sotto. Se ti va, una recensione su Spotify o Apple aiuta piu' di quanto pensi.

Ci sentiamo mercoledi'.

Lunghezza totale: ~1150 parole. Publishing: Domenica 2026-04-26 10:00 Europe/Rome.


12. Meta tags sito (preview, generati dal layout)

og:title (iniettato dal frontmatter title):

I guardrail degli LLM sono una tassa sul coding

og:description (iniettato dal frontmatter description, 156/160 char):

GPT 5.5 supera Opus 4.7, GPT Image 2 domina l'Arena, e togliere i guardrail a un LLM migliora il coding. Puntata 49 con Anthropic post-mortem e Karpathy wiki.

og:image (iniettato da header.og_image):

/assets/images/episodes/ep49.png

Schema.org PodcastEpisode JSON-LD preview:

{
  "@context": "https://schema.org",
  "@type": "PodcastEpisode",
  "name": "I guardrail degli LLM sono una tassa sul coding",
  "description": "GPT 5.5 supera Opus 4.7, GPT Image 2 domina l'Arena, e togliere i guardrail a un LLM migliora il coding. Puntata 49 con Anthropic post-mortem e Karpathy wiki.",
  "datePublished": "2026-04-25",
  "episodeNumber": 49,
  "url": "https://risorseartificiali.com/2026/04/25/i-guardrail-degli-llm-sono-una-tassa-sul-coding.html",
  "duration": "PT1H10M28S",
  "associatedMedia": [
    {
      "@type": "VideoObject",
      "contentUrl": "https://www.youtube.com/watch?v=OHoJ-ZE68_Q"
    },
    {
      "@type": "AudioObject",
      "contentUrl": "https://open.spotify.com/episode/5m9AOMouSF26rXrleVa8c8"
    }
  ],
  "partOfSeries": {
    "@type": "PodcastSeries",
    "name": "Risorse Artificiali",
    "url": "https://risorseartificiali.com"
  }
}

Nota: i meta sono generati automaticamente dal layout episode + _includes/head/custom.html consumando i campi del frontmatter v3.0. Il preview qui e’ per verifica post-deploy.

Verifica post-deploy:

  1. view-source:https://risorseartificiali.com/2026/04/25/i-guardrail-degli-llm-sono-una-tassa-sul-coding.html
  2. Rich Results Test: https://search.google.com/test/rich-results
  3. WhatsApp/Slack share per preview card

13. Brief thumbnail + 3 prompt image pronti

Brief

Campo Valore
Hook GUARDRAIL, TASSA SUL CODING (4 parole, 27 char, 3 righe)
Split righe Riga 1 (media): GUARDRAIL, • Riga 2 (piccola): TASSA SUL • Riga 3 (grande/bold dominante): CODING
Tono emozionale Contrarian / scettico — sopracciglio alzato, sguardo intenso puntato in camera, leggero sorriso secco
Background color #FFC700 giallo (shock / heavy news / contrarian)
Text color Nero #000000, no outline (highest contrast su giallo)
Soggetto 1 host primo piano (Stefano Maestri lead, o Paolo che introduce Obliteratus) — 40%+ frame
Composizione Host destra 60%, testo sinistra 40%, split vertical
File output atteso /assets/images/episodes/ep49.png (1280×720 min, 1920×1080 ideale)

Prompt 1 — Ideogram (raccomandato default, testo piu’ affidabile)

Close-up portrait of an Italian man in his 40s with short dark hair and light stubble, wearing a dark t-shirt, one eyebrow raised skeptically, intense direct eye contact with the camera, subtle wry smile, positioned on the right 60% of the frame. Contrarian and confident expression.

Text in image: "GUARDRAIL, TASSA SUL CODING" in bold condensed sans-serif, solid black #000000 with no outline, positioned on the left side vertically centered, filling approximately 40% of the frame width, split across three lines: first line "GUARDRAIL," in medium weight, second line "TASSA SUL" slightly smaller, third line "CODING" the largest and boldest, dominating the composition.

Style: photorealistic YouTube thumbnail, 16:9, saturated yellow #FFC700 background wall, high contrast, dramatic portrait lighting from left at 45 degrees, 85mm lens shallow DOF, attention-grabbing in a feed at 246x138 pixels.

Negative: no circle portraits, no dark blue cosmic background, no multiple faces in rows, no formal stiff poses, no obituary aesthetic, no garbled characters in text, no episode number.

--style realistic --aspect 16:9 --magic_prompt OFF

Prompt 2 — Gemini 3 Pro (usa questo se alleghi face reference host)

YouTube thumbnail, 16:9 aspect ratio, 1280x720, photorealistic style, high contrast, punchy saturated colors.

Composition: vertical split with bold 3-line text block on the left 40% of the frame and the host's portrait on the right 60% of the frame.

Subject: Italian man in his 40s, short dark hair, light stubble, dark t-shirt, one eyebrow raised skeptically, intense direct eye contact with the camera, subtle wry smile. Contrarian and confident, like someone about to challenge a common belief.

Background: solid saturated yellow (#FFC700), uniform, no gradient, no elements.

Lighting: dramatic key light from the left at 45 degrees, shallow depth of field, subject in sharp focus, background perfectly smooth and evenly lit.

Camera: 85mm portrait lens feel, subject cropped from mid-chest up.

Text overlay integrated in the image: the words "GUARDRAIL, TASSA SUL CODING" rendered in bold condensed sans-serif ultra-heavy weight, solid black #000000 with no outline, positioned on the left side vertically centered, filling approximately 40% of the frame width, split across three lines: "GUARDRAIL," on top line medium weight, "TASSA SUL" on second line slightly smaller, "CODING" on the bottom line the largest and boldest, dominating the text block. Text must be crisp, properly kerned, every letter perfectly legible.

Mood: contrarian, confident, provocative.

Negative: no circle portraits, no dark blue cosmic backgrounds, no multiple faces in rows, no formal stiff poses, no obituary aesthetic, no garbled characters in text, no lorem ipsum, no episode number visible.

Prompt 3 — ChatGPT Image 2 (balance, ottimo testi brevi)

Create a YouTube thumbnail image, 16:9 aspect ratio, photorealistic style.

An Italian man in his 40s with short dark hair and light stubble, wearing a dark t-shirt, is positioned on the right 60% of the frame. He has one eyebrow raised skeptically and makes intense direct eye contact with the camera, a subtle wry smile on his lips. The expression reads as contrarian and confident, like someone about to challenge a widely-held belief.

Background: solid saturated yellow (#FFC700), no elements, uniform.
Portrait lens feel, shallow depth of field, dramatic lighting from the left at 45 degrees.

Include the text "GUARDRAIL, TASSA SUL CODING" rendered prominently in the image as bold condensed sans-serif, solid black #000000 with no outline, positioned on the left side vertically centered, split across three lines: "GUARDRAIL," on the top line in medium weight, "TASSA SUL" on the second line slightly smaller, "CODING" on the bottom line the largest and boldest so it dominates the text block. The text must be perfectly legible, crisp, integrated as part of the composition, not as watermark.

Style: high-contrast YouTube thumbnail aesthetic, attention-grabbing in a feed at 246x138 pixels.

Avoid: circular portrait frames, dark blue cosmic backgrounds, multiple faces in rows, stiff corporate poses, garbled text, obituary aesthetic, episode numbers visible in the image.

Fallback post-production (se il testo esce sporco dopo 3-4 tentativi)

  1. Rigenera senza il blocco “text overlay” → ottieni solo ritratto + sfondo giallo pulito
  2. In Canva/Figma/Photopea aggiungi testo manualmente:
    • Riga 1 GUARDRAIL, — Bebas Neue 120pt, nero
    • Riga 2 TASSA SUL — Bebas Neue 90pt, nero
    • Riga 3 CODING — Bebas Neue 180pt bold, nero
    • Allineamento: left, ~40% frame width, vertically centered
  3. Esporta PNG 1280×720 o 1920×1080

Checklist verifica pre-upload


14. Guest Launch Kit

Sezione omessa — non applicabile a episodi numerati.


15. Checklist Publishing (format NUMERATO, drop sabato 2026-04-25 13:00)

PRE-DROP (T-1gg, oggi/stasera 2026-04-24)

DROP (sabato 2026-04-25 13:00 Europe/Rome)

POST-DROP T+1 (domenica 2026-04-26)

POST-DROP T+2 (lunedi’ 2026-04-27)

POST-DROP T+3 (martedi’ 2026-04-28)

MONITORING


16. Link rapidi


17. Note operative


18. End screen + YT Cards (suggerito da youtube-cross-link v1.1)

End screen — 1 video (layout: Subscribe + Video)

Campo Valore
Titolo target L’AGI arriva prima di quanto credi | Alessandro Maserati
YT ID XP2jiPxFtPk
Durata 1h35m15s
Views (al 2026-04-25) 351 (max del canale)
Pubblicato 2026-02-04 (~2.6 mesi fa)
URL https://www.youtube.com/watch?v=XP2jiPxFtPk

Razionale (perche’ questo video):

L’episodio corrente al min 40:05 (“Perche’ i guardrail sono una tassa sul coding”) cita Maserati per nome quando Stefano spiega che l’allineamento non blocca solo output ma “traiettorie di pensiero” — concetto che Maserati aveva sviluppato in questa intervista. Il viewer che e’ arrivato fino in fondo all’episodio ha sentito il riferimento e ha la curiosita’ di sentirlo direttamente. Score 0.907 (semantic 0.95 per callback nominale + views 1.00 max canale). End screen e’ il posto giusto perche’ offre la visione completa di un tema toccato di striscio nel corrente.

Setup in YT Studio (operativo, ~90s):

  1. YT Studio → Content → seleziona video corrente OHoJ-ZE68_Q → Editor → End screen
  2. Aggiungi elemento → Subscribe (canale Risorse Artificiali, default)
  3. Aggiungi elemento → Video → Specific video → incolla https://www.youtube.com/watch?v=XP2jiPxFtPk
  4. Layout: pre-set “Subscribe + 1 video” (template B). Posiziona negli ultimi 20 secondi (timestamp 1:09:25 - 1:10:28 / fine).
  5. Save.

YT Cards — 5 cards a timestamp specifici del video corrente

Le YT Cards si configurano in YT Studio → Editor video → Cards. Ogni card mostra un teaser nell’angolo superiore destro per 5-10 secondi al timestamp impostato, poi resta cliccabile come icona “i” fino a fine video.

Card 1 — Mostra al min 05:09 del video corrente

Campo Valore
Linka video Claude Code, OpenClaw e l’Effetto Slot Machine: la nuova era dell’AI Engineering
YT ID target Vwl7stdsxj0
URL https://www.youtube.com/watch?v=Vwl7stdsxj0
Tema della card Claude Code, Anthropic, agentic coding
Custom message Predecessore Claude Code
Teaser text Effetto Slot Machine

Razionale:

Al min 05:09 del corrente apri il cap “Post-mortem Anthropic: 3 bug ammessi su Claude”. Quell’episodio del 28 febbraio aveva inquadrato Claude Code e l’effetto slot machine dell’AI Engineering: e’ la cornice narrativa che il viewer odierno cerca per contestualizzare il post-mortem. Score 0.827 (semantic 0.80 + recency 0.81 + views 0.93).


Card 2 — Mostra al min 11:01 del video corrente

Campo Valore
Linka video Da GPT-5.4 agli AI Engineers: perche’ CLI e workflow stanno cambiando
YT ID target nitLzgXt33M
URL https://www.youtube.com/watch?v=nitLzgXt33M
Tema della card GPT 5.x progression + CLI/MCP workflow
Custom message Da GPT 5.4 a 5.5
Teaser text CLI e MCP

Razionale:

Al min 11:01 apri “GPT 5.5 vs Opus 4.7: benchmark e leak di Mythos”. L’evoluzione 5.4 → 5.5 e’ la naturale continuazione del confronto fatto un mese fa, quando 5.4 era stato letto come svolta sull’AI engineering CLI/MCP. Stessa cornice benchmark comparativo. Score 0.805 (recency 0.83 — episodio molto fresco).


Card 3 — Mostra al min 32:23 del video corrente

Campo Valore
Linka video Previsioni Intelligenza Artificiale 2026: modelli locali, agenti AI, robotica
YT ID target GVpjI6YtEKI
URL https://www.youtube.com/watch?v=GVpjI6YtEKI
Tema della card Modelli locali / open weight 2026
Custom message Profezia open weight
Teaser text Modelli locali 2026

Razionale:

Al min 32:23 entri in “Obliteratus e SynthID: modelli che sproteggono modelli”. Il fatto che Gemma open weight sia stata sprotetta in 8 prompt rende attuale la previsione di gennaio sulla centralita’ dei modelli locali. Connessione retorica forte (profezia confermata). Score 0.677. Flag low-conf: chapters H2 non estratti dal Jekyll post (formato pre-v3.0), match su title+description.


Card 4 — Mostra al min 40:05 del video corrente

Campo Valore
Linka video Intervista a Mario Fusco: sviluppo software nell’era dell’Intelligenza Artificiale
YT ID target annKzlWVKmM
URL https://www.youtube.com/watch?v=annKzlWVKmM
Tema della card AI assisted coding (intervista)
Custom message Fusco su AI coding
Teaser text Sapere leggere il codice

Razionale:

Al min 40:05 apri “Perche’ i guardrail sono una tassa sul coding”, il cuore tecnico dell’episodio. Fusco aveva discusso AI assisted coding e il fatto che oggi conta piu’ saper leggere il codice che scriverlo: tesi che dialoga con il punto di Stefano sulle traiettorie ottimali del coding. Mix format (intervista) per varieta’ rispetto alle 4 card numerate. Score 0.699.


Card 5 — Mostra al min 59:25 del video corrente

Campo Valore
Linka video Dal leak di Claude Code a Lince e antivocale: le app AI fai-da-te
YT ID target 9t03EZBL34A
URL https://www.youtube.com/watch?v=9t03EZBL34A
Tema della card Tempo delle app + app AI fai-da-te
Custom message Le app te le scrivi tu
Teaser text Lince e Antivocale

Razionale:

Al min 59:25 entri in “E’ finito il tempo delle app?”. Tre settimane fa avevi raccontato Lince e Antivocale come dimostrazione concreta del “te la scrivi in un pomeriggio”. L’episodio piu’ recente del set (0.7 mesi) e ad altissima recency: la card chiude il loop tematico Karpathy wiki → app fai-da-te. Score 0.844 (recency 0.92).


Setup in YT Studio (cards, operativo ~5min)

  1. YT Studio → Content → video OHoJ-ZE68_Q → Editor → Cards
  2. Per ogni card sopra: a. Click “Aggiungi card” → Tipo “Video” → incolla URL del video target b. Imposta “Show card at” al timestamp indicato (05:09, 11:01, 32:23, 40:05, 59:25) c. (Opzionale) Compila Custom message + Teaser text dai campi della tabella
  3. Aggiungi tutte e 5 in una sessione, poi click Save una sola volta a fine.
  4. Verifica: riproduci il corrente, scorri ai 5 timestamp, controlla che il teaser appaia ~5s nell’angolo superiore destro.

Distribuzione timestamp lungo l’episodio (durata 1h10m28s = 4228s)

Card Timestamp Posizione relativa Ancora capitolo ep49
Card 1 05:09 7% Post-mortem Anthropic
Card 2 11:01 16% GPT 5.5 vs Opus 4.7
Card 3 32:23 46% Obliteratus e SynthID
Card 4 40:05 57% Guardrail tassa sul coding
Card 5 59:25 84% E’ finito il tempo delle app?

Gap minimi tra card consecutive: 5:52, 21:22, 7:42, 19:20 — tutti >= 90s. Vincolo distribuzione rispettato (una nei primi 20%, una a meta’, una verso la fine prima dell’end screen).

Score breakdown (trasparenza algoritmo)

Video Score Sem Rec Views_log Note
Maserati AGI (end screen) 0.907 0.95 0.74 1.00 Callback nominale + max views canale
Lince Antivocale (Card 5) 0.844 0.82 0.92 0.81 Episodio piu’ recente del set
OpenClaw Slot Machine (Card 1) 0.827 0.80 0.81 0.93 Tema Claude Code post-mortem
GPT 5.4 AI Engineers (Card 2) 0.805 0.78 0.83 0.84 Predecessore GPT 5.5
Mario Fusco (Card 4) 0.699 0.70 0.58 0.84 Mix format intervista
Previsioni 2026 (Card 3) 0.677 0.62 0.65 0.87 Open weight, low-conf

Note operative