Torna al blog
blog.pillars.trends

Claude Opus 4.7: Guida al Prompting e a Cosa Cambia Rispetto a 4.6

·12 min di lettura
Claude Opus 4.7: Guida al Prompting e a Cosa Cambia Rispetto a 4.6

Claude Opus 4.7: Guida al Prompting e a Cosa Cambia Rispetto a 4.6

Il 16 aprile 2026 Anthropic ha rilasciato Claude Opus 4.7. Nelle prime 48 ore, sviluppatori su Reddit, Hacker News e Discord hanno segnalato lo stesso pattern: i loro prompt collaudati, ottimizzati per Opus 4.6, producono risultati leggermente diversi. Gli agenti fanno meno chiamate a tool. Le risposte sono più dirette, a volte troppo sintetiche. Alcune richieste restituiscono un errore 400 pulito.

Non è una regressione. Opus 4.7 è genuinamente più capace: ottiene 87,6% su SWE-bench Verified, contro l'80,8% di Opus 4.6, e 64,3% su SWE-bench Pro contro il 53,4% [1]. Il nuovo livello di effort xhigh a 100k token supera già Opus 4.6 al massimo con 200k token [1]. La risoluzione delle immagini passa da 1568px a 2576px [2].

Ma Opus 4.7 è anche un rilascio che introduce breaking change. Alcuni parametri API sono stati rimossi. I comportamenti di default sono cambiati. Lo scaffolding che aiutava 4.6 ora lavora contro 4.7. Se gestisci una libreria di prompt in produzione, devi sapere esattamente cosa modificare, cosa rimuovere e cosa aggiungere.

Questa guida ripercorre tutti i cambiamenti rilevanti e li traduce in modifiche concrete ai prompt. È pensata per chiunque gestisca più di una manciata di prompt: sviluppatori, prompt engineer, team AI e utenti avanzati.


1. I Tre Breaking Change Dell'API

Questi restituiscono un errore 400 se ignorati. Correggili per primi.

1.1 Gli Extended Thinking Budget Sono Spariti

In Opus 4.6 potevi impostare thinking: {"type": "enabled", "budget_tokens": 32000} per controllare quanto il modello ragionava. Quel parametro non esiste più. Opus 4.7 supporta solo l'adaptive thinking, e le valutazioni interne di Anthropic mostrano che l'adaptive supera costantemente il vecchio approccio [2].

Prima (4.6):

thinking = {"type": "enabled", "budget_tokens": 32000}

Dopo (4.7):

thinking = {"type": "adaptive"}
output_config = {"effort": "high"}

Attenzione: in 4.7 l'adaptive thinking è disattivato di default. Se i tuoi prompt si affidavano al ragionamento profondo, devi abilitarlo esplicitamente.

1.2 Temperature, top_p e top_k Sono Rifiutati

Qualsiasi valore non di default per temperature, top_p o top_k restituisce un errore 400 in 4.7. Il percorso di migrazione più sicuro è rimuoverli del tutto e usare il prompt per guidare il comportamento del modello [2].

Se ti affidavi a temperature=0 per il determinismo, accetta che non ha mai garantito output identici. Per gli output strutturati, sposta la responsabilità sul prompt: specifica il formato esatto, usa schemi JSON quando possibile e aggiungi istruzioni di verifica.

1.3 Il Contenuto del Thinking È Nascosto di Default

Opus 4.7 trasmette i blocchi di thinking ma lascia il campo thinking vuoto se non fai opt-in. Se il tuo prodotto mostra il progresso del ragionamento agli utenti, questo cambiamento si manifesta come una lunga pausa silenziosa prima dell'output.

Correzione:

thinking = {
    "type": "adaptive",
    "display": "summarized"
}

2. I Nuovi Livelli di Effort: Scegli Quello Giusto

Il parametro effort è dove Opus 4.7 nasconde la decisione di prompting più importante. Sbagli e sprechi token oppure comprometti l'intelligenza del modello.

Livello di effortIdeale perTrade-off
lowEstrazione semplice, classificazione, trasformazioni breviPiù veloce, più economico, meno ragionamento
mediumTask conversazionali standard, generazione strutturataBilanciato
highRagionamento multi-step, coding non banale, analisiDefault per task che richiedono intelligenza
xhighCoding agentico, task a lungo orizzonte, refactor complessiQualità migliore, costo più alto

Le linee guida ufficiali di Anthropic: parti da xhigh per coding e casi d'uso agentici, e usa almeno high per la maggior parte dei task che richiedono intelligenza [2]. In Claude Code il default è stato alzato a xhigh per tutti i piani [1].

Vuoi sapere quanto sono efficaci i tuoi prompt? Prompt Score li analizza su 6 criteri.

Prova gratis

Regola pratica: se il tuo prompt contiene frasi come "pensa step by step", "pianifica prima di agire" o "ragiona con attenzione prima di rispondere", alza il livello di effort invece di ripeterlo. Queste istruzioni di scaffolding compensavano un gap di ragionamento che Opus 4.7 chiude nativamente ai livelli più alti.


3. Cambi di Comportamento Che Richiedono Modifiche ai Prompt

Questi non sono breaking change, ma cambieranno i tuoi output. In molti casi significa che puoi eliminare scaffolding che aiutava 4.6 e ora penalizza 4.7.

3.1 Seguire le Istruzioni in Modo Più Letterale

Opus 4.7 non generalizzerà silenziosamente un'istruzione da un elemento a un altro, e non dedurrà richieste che non hai fatto [2]. È il singolo cambiamento comportamentale più importante.

Cosa rimuovere: attenuatori vaghi come "prova a", "se possibile", "potresti". Funzionavano in 4.6 perché il modello li interpretava con generosità. In 4.7 indeboliscono le istruzioni.

Prima:

"Prova a estrarre tutti gli indirizzi email dal documento se possibile."

Dopo:

"Estrai ogni indirizzo email presente nel documento. Restituisci un array JSON. Se non ce ne sono, restituisci un array vuoto."

3.2 La Lunghezza della Risposta si Adatta alla Complessità

Opus 4.7 calibra la verbosità in base alla difficoltà percepita del task, invece di puntare a una lunghezza fissa [2]. Domande semplici ottengono risposte più corte, quelle complesse più lunghe.

Cosa rimuovere: istruzioni come "sii conciso" su domande semplici, o "sii esaustivo" sulle stesse. Il modello ora calibra in automatico.

Cosa mantenere: vincoli di formato espliciti. "Restituisci un riassunto in 3 frasi" funziona ancora e sovrascrive la calibrazione automatica.

3.3 Meno Chiamate a Tool di Default

A effort medium e inferiori, Opus 4.7 ragiona di più e chiama meno tool. Alzare l'effort aumenta l'uso dei tool [2]. Se hai un agente che ha smesso di usare certi tool dopo l'aggiornamento, la soluzione di solito è alzare l'effort, non riscrivere le descrizioni dei tool.

Correzione a livello di prompt: se il modello deve usare sempre un tool specifico per una classe di task, rendilo una regola rigida nel system prompt: "Per qualsiasi calcolo che coinvolge più di 2 variabili, DEVI usare il tool calculator."

3.4 Tono Più Diretto e Opinionato

Opus 4.7 abbandona lo stile più caldo e validante di 4.6. Meno emoji. Meno scaffolding tipo "Ottima domanda!". Risposte più dirette [2].

Se il tuo prodotto richiede un tono caldo (customer support, coaching, benessere), specificalo in modo esplicito nel system prompt. Non dare per scontato che il modello opti per il calore di default.

Esempio di aggiunta:

"Rispondi con un tono caldo e di supporto. Usa un linguaggio incoraggiante. Riconosci lo sforzo dell'utente prima di suggerire miglioramenti."

3.5 Aggiornamenti di Progresso Più Frequenti

Opus 4.7 fornisce naturalmente aggiornamenti più regolari durante i lunghi trace agentici. Se avevi aggiunto scaffolding per forzare messaggi di stato intermedi (ad esempio "Dopo ogni tool call, dimmi cosa hai fatto"), rimuovilo [2]. Ora stai pagando token per un comportamento che il modello esibisce già.

3.6 Meno Subagent Spawnati

Se usi pattern basati su sub-agent, 4.7 ne spawna meno di default. È comunque pilotabile: se il tuo workflow dipende dalla parallelizzazione, dichiaralo esplicitamente. "Per i task di ricerca, delega le sotto-query a sub-agent paralleli quando le query sono indipendenti."

Cambiamenti comportamentali di Claude Opus 4.7 mappati sulle modifiche ai prompt: cosa rimuovere, cosa aggiungere, cosa mantenere
Cambiamenti comportamentali di Claude Opus 4.7 mappati sulle modifiche ai prompt: cosa rimuovere, cosa aggiungere, cosa mantenere

4. Task Budgets: una Nuova Leva sui Costi (Beta)

I task budget danno a Claude un budget di token indicativo per l'intero loop agentico: thinking, tool call, risultati dei tool e output finale. Il modello vede un countdown in tempo reale e prioritizza di conseguenza [2].

Le tecniche che stai leggendo funzionano. Testa subito i tuoi prompt con Prompt Score e vedi il punteggio in tempo reale.

Testa i tuoi prompt
response = client.beta.messages.create(
    model="claude-opus-4-7",
    max_tokens=128000,
    output_config={
        "effort": "high",
        "task_budget": {"type": "tokens", "total": 128000},
    },
    betas=["task-budgets-2026-03-13"],
    messages=[{"role": "user", "content": "Analizza il codebase e proponi un piano di refactor."}]
)

Quando usarlo: carichi sensibili ai costi in cui vuoi che il modello si autoregoli (agenti customer-facing, batch processing, pipeline ad alto volume).

Quando evitarlo: task agentici open-ended in cui la qualità conta più della velocità. Il valore minimo è 20k token; budget restrittivi possono spingere il modello a completare i task in modo meno accurato o a rifiutarli del tutto [2].

task_budget è un suggerimento che il modello vede. max_tokens è un tetto rigido di cui il modello non è consapevole. Usali per scopi diversi: task_budget per l'autoregolazione, max_tokens come tetto massimo.


5. Vision: Puoi Zoomare Più in Profondità

Opus 4.7 alza la risoluzione massima delle immagini da 1568px (1,15 megapixel) a 2576px (3,75 megapixel). Le coordinate del modello ora mappano 1:1 sui pixel reali, quindi non serve più la matematica del fattore di scala per i bounding box [2].

Implicazioni per i prompt:

  • Ora puoi riferirti a dettagli fini che 4.6 non vedeva. "Leggi il timestamp nell'angolo in basso a destra dello screenshot" funziona in modo affidabile.
  • Per agenti di computer use e comprensione di documenti, salta la fase di downsampling. Invia screenshot a piena risoluzione.
  • Le immagini ad alta risoluzione costano più token. Se il task non richiede dettaglio fine, riducine la risoluzione per contenere i costi.

I miglioramenti si estendono alla percezione di basso livello (puntare, misurare, contare) e alla localizzazione delle immagini. Task come "conta i pulsanti in questa UI", "marca le coordinate di ogni messaggio d'errore" o "misura il padding tra questi due elementi" ora producono risultati sensibilmente migliori.


6. Il Nuovo Tokenizer: Prevedi un +35% di Token

Claude Opus 4.7 usa un nuovo tokenizer che può consumare da 1x a 1,35x i token di 4.6 a parità di testo [2]. Non è un bug; il nuovo tokenizer contribuisce al miglior performance del modello.

Azioni pratiche:

  1. Aggiorna i parametri max_tokens lasciando più margine (+20-35%)
  2. Adatta i trigger di compaction e le soglie di monitoraggio della context window
  3. Prevedi costi più alti a parità di carico, almeno in prima battuta
  4. Ri-misura i conteggi token con l'endpoint count_tokens specifico per Opus 4.7 prima di fidarti delle stime vecchie

La context window da 1M resta disponibile al prezzo API standard senza long-context premium, quindi la finestra in sé non è il collo di bottiglia. Lo sono il tetto max_tokens e il tuo budget.

Checklist di migrazione a Claude Opus 4.7: cambiamenti API, scaffolding da rimuovere, nuove feature da sfruttare
Checklist di migrazione a Claude Opus 4.7: cambiamenti API, scaffolding da rimuovere, nuove feature da sfruttare

7. Una Checklist di Migrazione Pratica

Esegui questa lista in ordine per ogni prompt di produzione che punta a Opus 4.7.

Livello API (obbligatorio):

  • Rimuovi i budget di extended thinking; usa thinking: {"type": "adaptive"}
  • Rimuovi i parametri temperature, top_p, top_k
  • Aggiungi output_config: {"effort": ...} e scegli il livello giusto
  • Decidi se fare opt-in sul thinking visibile con display: "summarized"
  • Alza max_tokens del 20-35% per lasciare margine

Corpo del prompt (fortemente raccomandato):

  • Rimuovi gli attenuatori vaghi ("prova a", "se possibile", "potresti")
  • Rimuovi le istruzioni sulla lunghezza nelle query semplici
  • Rimuovi lo scaffolding che forza messaggi di stato
  • Rimuovi "pensa step by step" alzando invece l'effort
  • Aggiungi direttive esplicite sul tono se ti serve calore
  • Aggiungi regole esplicite sull'uso dei tool se quelli critici vengono saltati
  • Aggiungi direttive esplicite sui sub-agent se ti affidi alla parallelizzazione

Testing (non saltarlo):

  • Esegui A/B test confrontando 4.6 e 4.7 su task rappresentativi
  • Misura l'uso dei token; aspettati un incremento di 1-1,35x
  • Misura la qualità sulle tue eval, non solo sui benchmark pubblici
  • Documenta quale versione del prompt punta a quale modello

8. Gestire i Prompt Tra Generazioni di Modelli

Il rilascio di Opus 4.7 fa emergere un problema che ogni team AI serio già conosce: i prompt sono artefatti specifici per modello. Un prompt ottimizzato per 4.6 non si comporta in modo identico su 4.7, così come un prompt per GPT-5.4 non si traduce senza aggiustamenti su Gemini 3.1 Pro.

Se gestisci prompt su più versioni di modello, ti serve:

  1. Version control per sapere quale versione del prompt funziona con quale modello, e poter fare rollback se un aggiornamento peggiora i risultati.
  2. Test affiancati per confrontare lo stesso prompt su più modelli prima di cambiare.
  3. Scoring e rilevamento delle regressioni per intercettare il drift in anticipo, non dopo che ha colpito gli utenti.
  4. Una libreria centralizzata perché il team condivida i prompt ottimizzati invece di riscoprire le correzioni in parallelo.

È il problema centrale che Keep My Prompts risolve. Ogni prompt è versionato con note sul modello target, il livello di effort e la qualità osservata. Il Prompt Score valuta i prompt su sei criteri (specificità, contesto, struttura, vincoli, ruolo, formato di output) così intercetti i prompt deboli prima che vadano in produzione. Il Promptimizer riscrive i prompt per alzare il punteggio, e il quality gate rifiuta le varianti che non migliorano l'originale.

Per la migrazione a Opus 4.7 in particolare, puoi versionare i prompt 4.6, creare varianti 4.7 con lo scaffolding rimosso, testarli affiancati e spedire quello vincente. Nessuna carta di credito richiesta per iniziare.


9. Il Segnale del Rilascio

Ogni rilascio di modello ti dice qualcosa sulla direzione della frontiera. Opus 4.7 ci dice tre cose.

Primo, lo scaffolding dei prompt è in uscita. Man mano che i modelli migliorano nel ragionare nativamente, le istruzioni verbose che aggiungevamo per compensare diventano rumore. Seguire in modo più letterale le istruzioni significa che i prompt si accorciano, non si allungano.

Secondo, l'effort è il nuovo temperature. Il controllo granulare sulla profondità di ragionamento (xhigh, high, medium, low) sostituisce la messa a punto dei parametri statistici. La superficie di ottimizzazione si è spostata da manopole statistiche a manopole semantiche.

Terzo, vision e memoria stanno raggiungendo il testo. Il supporto alle immagini ad alta risoluzione e la migliore memoria basata su file system segnalano che la prossima frontiera del prompting è l'orchestrazione multimodale e i workflow stateful a lungo orizzonte.

Se la tua libreria di prompt tratta ancora ogni modello allo stesso modo, ora è il momento di cominciare a versionare, testare e organizzare. I team che costruiscono per primi questa disciplina spediranno più velocemente a ogni nuovo rilascio.


Keep My Prompts ti aiuta a versionare i prompt per modello, valutarli su 6 criteri di qualità e monitorare cosa funziona man mano che la frontiera si sposta. Gratis per iniziare, senza carta di credito.


Fonti

[1] Benchmark e dettagli di lancio di Claude Opus 4.7, Anthropic e test di terze parti, aprile 2026. https://www.anthropic.com/news/claude-opus-4-7

[2] What's new in Claude Opus 4.7, documentazione ufficiale Anthropic, aprile 2026. https://platform.claude.com/docs/en/about-claude/models/whats-new-claude-4-7

[3] Claude Opus 4.7 in Amazon Bedrock, AWS, aprile 2026. https://aws.amazon.com/about-aws/whats-new/2026/04/claude-opus-4.7-amazon-bedrock/

#Claude Opus 4.7#prompt engineering#Anthropic#migrazione modelli#modelli AI#guida prompt

Pronto a organizzare i tuoi prompt?

Inizia gratis, senza carta di credito.

Inizia Gratis

Nessuna carta di credito richiesta

Claude Opus 4.7: Guida al Prompting e Breaking Change (2026)