Chain of News Agents

Agents & Code

538 contenuti totali

Simon Willison

scansione-per-segreti 0.2

Versione: lo strumento CLI scan-for-secrets 0.2 ora trasmette i risultati man mano che vengono trovati anziché attendere fino alla fine, il che è meglio per le directory di grandi dimensioni. L'opzione -d/--directory ora può essere utilizzata più volte per scansionare più directory. Nuova opzione -f/--file per specificare uno o più file singoli da scansionare. Nuove funzioni API Python scan_directory_iter() , scan_file() e scan_file_iter() . Nuova opzione -v/--verbose che mostra ciascuna directory sottoposta a scansione.

05/04/2026
Simon Willison

scansione-per-segreti 0.1.1

Versione: scan-for-secrets 0.1.1 Aggiunta la documentazione degli schemi di fuga che vengono anch'essi scansionati. Rimosso lo schema di escape repr non necessario, che era già coperto da json .

05/04/2026
Simon Willison

scansione-per-segreti 0.1

Versione: scan-for-secrets 0.1 Mi piace pubblicare trascrizioni delle sessioni locali del codice Claude utilizzando il mio strumento di trascrizione del codice claude, ma sono spesso paranoico che una delle mie chiavi API o segreti simili possano inavvertitamente essere rivelati nei file di registro dettagliati. Ho creato questo nuovo strumento di scansione Python per rassicurarmi. Puoi dargli dei segreti e farli scansionare in una directory specificata: uvx scan-for-secrets $OPENAI_API_KEY -d logs-to-publish/ Se lasci fuori -d il valore predefinito è il dire corrente

05/04/2026
Simon Willison

ricerca-llm-apis 2026-04-04

Rilascio: search-llm-apis 2026-04-04 Sto lavorando a una modifica importante alla mia libreria Python LLM e allo strumento CLI. LLM fornisce un livello di astrazione su centinaia di LLM diversi di dozzine di fornitori diversi grazie al suo sistema di plug-in e alcuni di questi fornitori hanno sviluppato nuove funzionalità nell'ultimo anno che il livello di astrazione di LLM non è in grado di gestire, come l'esecuzione di strumenti lato server. Per aiutare a progettare quel nuovo livello di astrazione ho fatto leggere a Claude Code le librerie client Python per Anthropic,

05/04/2026
GNews: AI Agents Code

Microsoft avverte che l'intelligenza artificiale di Copilot è "solo a scopo di intrattenimento", afferma che non dovresti seguire consigli seri - financialexpress.com

Microsoft avverte che Copilot AI è a "solo scopo di intrattenimento", afferma che non dovresti seguire seriamente i consigli di financialexpress.com

04/04/2026
GNews: AI Agents Code

Codificazione AI: OpenAI trasforma il Codex in Pay-as-You-Go, riduce il costo del posto a $ 20 - winbuzzer.com

Codificazione AI: OpenAI trasforma il Codex in Pay-as-You-Go, riduce il costo del posto a $ 20 winbuzzer.com

04/04/2026
Simon Willison

Citando Kyle Daigle

L'attività della piattaforma [GitHub] è in aumento. C'erano 1 miliardo di impegni nel 2025. Ora sono 275 milioni a settimana, con un ritmo di 14 miliardi quest'anno se la crescita rimane lineare (spoiler: non lo farà). GitHub Actions è cresciuto da 500 milioni di minuti/settimana nel 2023 a 1 miliardo di minuti/settimana nel 2025, e ora 2,1 miliardi di minuti finora questa settimana. — Kyle Daigle, COO, GitHub Tag: github, azioni-github

04/04/2026
Simon Willison

La ricerca sulle vulnerabilità è cucinata

La ricerca sulle vulnerabilità è preparata Il punto di vista di Thomas Ptacek sull'impatto improvviso ed enorme che gli ultimi modelli di frontiera stanno avendo sul campo della ricerca sulle vulnerabilità. Nei prossimi mesi, gli agenti di codifica modificheranno drasticamente sia la pratica che l’economia dello sviluppo degli exploit. Il miglioramento del modello di frontiera non sarà un processo lento, ma piuttosto una funzione graduale. Una quantità sostanziale di ricerche sulle vulnerabilità ad alto impatto (forse anche la maggior parte di esse) avverrà semplicemente indirizzando un agente verso una fonte

03/04/2026
Simon Willison

L'impatto cognitivo degli agenti codificanti

Una cosa divertente nel registrare un podcast con un professionista come Lenny Rachitsky è che il suo team sa come suddividere il video risultante in video verticali in formato breve di dimensioni TikTok. Eccone uno che ha condiviso oggi su Twitter e che ha attirato oltre 1,1 milioni di visualizzazioni! Sono passati 48 secondi. La nostra conversazione completa è durata 1 ora e 40 minuti. Tag: ai-etica, agenti di codifica, ingegneria degli agenti, ai-generativa, apparizioni podcast, ai, llms, debito cognitivo

03/04/2026
Simon Willison

Citando Willy Tarreau

Nell'elenco della sicurezza del kernel abbiamo riscontrato un'enorme quantità di segnalazioni. Eravamo tra i 2 e i 3 a settimana forse due anni fa, poi abbiamo raggiunto probabilmente i 10 a settimana nell'ultimo anno con l'unica differenza che era solo un rallentamento dell'intelligenza artificiale, e ora dall'inizio dell'anno siamo circa 5-10 al giorno a seconda dei giorni (venerdì e martedì sembrano i peggiori). Ora la maggior parte di questi resoconti sono corretti, al punto che abbiamo dovuto coinvolgere più manutentori per aiutarci. E ora stiamo vedendo quotidianamente qualcosa di così bello

03/04/2026
Simon Willison

Citando Daniel Stenberg

La sfida con l'intelligenza artificiale nella sicurezza open source è passata da uno tsunami di intelligenza artificiale a più di un... semplice tsunami di rapporti sulla sicurezza. Meno slop ma molte segnalazioni. Molti di loro davvero buoni. Ci sto dedicando ore al giorno adesso. È intenso. — Daniel Stenberg, sviluppatore principale di cURL Tag: daniel-stenberg, sicurezza, curl, generativa-ai, ai, llms, ai-security-research

03/04/2026
Dev.to LLM

All'interno della fuga di notizie di Claude Mythos Perché il prossimo modello di Anthropic S ha spaventato i suoi stessi creatori

Pubblicato originariamente su CoreProse KB-incidents Il 26 e 27 marzo 2026, Anthropic, la società nota per i LLM "costituzionali" incentrati sulla sicurezza, ha confermato che documenti interni su un sistema inedito chiamato Claude Mythos erano stati accidentalmente esposti online. [2] [6] Queste bozze descrivono Mythos come il modello più capace di Anthropic fino ad oggi, a cui è stato assegnato un livello di rischio che la società non aveva mai utilizzato prima ed esplicitamente etichettato come "troppo potente" per un ampio rilascio pubblico. [2] [3] [6] Tale giudizio viene da Anthr

03/04/2026
Dev.to LLM

5 errori che fanno sì che l'IA generi codice peggiore (con correzioni)

Dopo centinaia di sessioni di codifica assistite dall'intelligenza artificiale, ho notato gli stessi cinque errori che compromettono la qualità dell'output. Ognuno è facile da risolvere, una volta che lo vedi. 1. Scaricare l'intero file come contesto L'errore: incollare 500 righe di codice e dire "correggi il bug". Perché fallisce: il modello distribuisce l'attenzione su codice irrilevante. Potrebbe "risolvere" qualcosa non correlato o perdere il problema reale sepolto nella riga 347. La correzione: estrarre solo la funzione rilevante + le sue dipendenze. Aggiungi una descrizione di una riga di cosa si tratta

03/04/2026
Dev.to LLM

Il "Token Bleed": come gestire LLM senza andare in bancarotta

Gli esperti dei circoli Infra, SRE e ingegneria del prodotto non hanno un unico "regolamento", ma il consenso derivante da resoconti e discussioni nel mondo reale è chiaro: se stai costruendo un "wrapper AI" o un prodotto basato su LLM, il modo per avere successo (ed evitare contraccolpi) è concentrarsi sull'infrastruttura hardware e sui problemi di affidabilità, non solo sull'interfaccia utente o sull'"atmosfera". Lo abbiamo imparato nel modo più duro. In un progetto che abbiamo eseguito, abbiamo osservato un singolo agente in fuga colpire gettoni a sei cifre prima ancora che il dashboard si riferisse

03/04/2026
Dev.to LLM

KV Cache è il motivo per cui il tuo modello si è adattato fino a quando non lo ha fatto

Il modello è stato caricato. Il primo prompt ha funzionato. Poi sono apparse richieste più lunghe o sono apparsi più utenti e improvvisamente la stessa configurazione ha smesso di essere stabile. La maggior parte delle volte si tratta di cache KV. Ciò che la cache KV cambia più contesto significa più memoria impegnata durante la generazione più richieste simultanee peggiorano il problema una configurazione che si adatta a un breve prompt può fallire su carichi di lavoro reali le persone danno la colpa al modello quando la cache è quella che cresce silenziosamente L'errore comune Le persone testano con un breve input e presumono

03/04/2026
Dev.to LLM

I parametri 7B non significano che 8 GB di VRAM siano sufficienti

Molte persone vedono 7B e presumono che 8 GB di VRAM dovrebbero essere sufficienti. Quindi caricano il modello, aumentano la lunghezza del contesto e apprendono che il conteggio dei parametri era solo una parte della storia. Perché questo coglie di sorpresa le persone il conteggio dei parametri non è la bolletta della memoria completa La cache KV cresce con la quantizzazione della lunghezza del contesto cambia i calcoli, ma non rende importanti anche le scelte di runtime senza memoria come il batching e il sovraccarico del server modello L'errore Le persone chiedono quanti parametri? quando la domanda migliore è quale contesto

03/04/2026
Dev.to LLM

Ai-Briefing-2026-04-03

Bozza automatica da LLL Anthropic sostiene che la maggior parte degli scaffold per agenti è ora il collo di bottiglia, non il modello Anthropic ha pubblicato questa settimana un post sull'architettura prescrittiva, facendo un'affermazione che dovrebbe far riflettere chiunque abbia costruito una pipeline LangGraph dodici mesi fa: le ipotesi insite nella maggior parte degli harness per agenti—ciò che Claude non può pianificare, non può ricordare, non può orchestrare—sono sempre più errate. I framework che codificano queste ipotesi sono ora la parte più lenta del sistema. Il post non è astratto;

03/04/2026
Dev.to LLM

Iniziare con l'API Gemini: una guida pratica

Iniziare con l'API Gemini: una guida pratica per gli studenti TL;DR Ottenere l'accesso all'API Gemini richiede meno di 15 minuti: un account Google Cloud, una chiave API e una libreria Python sono sufficienti per produrre il tuo primo prompt funzionante. Il livello gratuito è sufficiente per progetti educativi, esperimenti e lavori di portfolio: non è necessaria una carta di credito per iniziare a costruire cose reali. La barriera all’ingresso è più bassa di quanto sembri: la parte difficile non è il setup tecnico, ma sapere cosa fare

03/04/2026
Dev.to LLM

OpenAI ha appena raccolto 122 miliardi di dollari. I prezzi di inferenza di frontiera non si sono mossi in 9 settimane

OpenAI ha appena chiuso il più grande round di venture capital della storia con una valutazione di 852 miliardi di dollari. Capitale record, fiducia record nel futuro dell’intelligenza artificiale. Ma ecco cosa è interessante dal punto di vista dei prezzi di mercato. I prezzi dei modelli Frontier sono rimasti completamente invariati per 9 settimane consecutive. Il benchmark è pari a 0,005714 dollari per 1.000 token di input sui modelli di punta di livello superiore a livello globale. Allo stesso tempo, lo spread tra i modelli di frontiera e quelli di bilancio è pari a 7,1x. Si tratta di un divario significativo che è rimasto stabile. Quindi la domanda t

03/04/2026
Dev.to LLM

Vane: il tuo motore di risposta AI privato che ti dà il controllo

Riepilogo rapido: 📝 Vane è un motore di risposta AI open source e incentrato sulla privacy che consente agli utenti di ospitare autonomamente le proprie ricerche. Si integra con vari fornitori LLM, inclusi i modelli Ollama locali e i servizi cloud, per fornire risposte precise e citate mantenendo la privacy dell'utente. Punti chiave: 💡 ✅ Vane è un motore di risposta AI self-hosted incentrato sulla privacy che funziona sul tuo hardware. ✅ Offre una flessibilità senza precedenti supportando sia LLM locali (Ollama) che i principali provider cloud (Open

03/04/2026
GNews: AI Agents Code

Cursor entra nella corsa degli agenti IA contro Codex e Claude Code - YourStory.com

Cursor partecipa alla corsa degli agenti AI contro Codex e Claude Code YourStory.com

03/04/2026
GNews: AI Agents Code

Cursor lancia flussi di lavoro di codifica basati su agenti man mano che gli agenti AI crescono - Developer Tech News

Cursor lancia flussi di lavoro di codifica basati su agenti man mano che gli agenti AI crescono Developer Tech News

03/04/2026
GNews: AI Agents Code

Cursor3 introduce agenti AI che automatizzano la codifica, pronti a competere con Claude Code, il Codex di OpenAI - financialexpress.com

Cursor 3 introduce agenti AI che automatizzano la codifica, pronti a competere con Claude Code, il Codex financialexpress.com di OpenAI

03/04/2026
GNews: Cursor Windsurf

Cursor presenta la terza versione con gestione degli agenti AI senza soluzione di continuità - ForkLog

Cursor presenta la terza versione con gestione degli agenti AI senza soluzione di continuità ForkLog

03/04/2026
GNews: AI Agents Code

Cursor svela il nuovo agente AI che affronterà Claude Code e OpenAI Codex: cosa può fare - digit.in

Cursor svela il nuovo agente AI che affronterà Claude Code e OpenAI Codex: cosa può fare digit.in

03/04/2026
GNews: AI Agents Code

I nuovi agenti IA di Cursor possono creare software per te: NewsBytes

I nuovi agenti AI di Cursor possono creare software per te NewsByte

03/04/2026
GNews: Cursor Windsurf

Cursor aggiorna la sua piattaforma di codifica delle vibrazioni concentrandosi sugli agenti AI: SiliconANGLE

Cursor aggiorna la sua piattaforma di codifica delle vibrazioni concentrandosi sugli agenti AI SiliconANGLE

03/04/2026
GNews: AI Agents Code

5 strumenti di codifica AI per semplificare il flusso di lavoro - Revisione dei gadget

5 strumenti di codifica AI per semplificare la revisione dei gadget del flusso di lavoro

02/04/2026
Replit Blog

Perché i PM intelligenti utilizzano la codifica Vibe per ridurre i ritardi di progettazione

Questa è la terza parte di una serie in 6 parti che stiamo conducendo su come i product manager utilizzano gli strumenti di intelligenza artificiale e la codifica delle vibrazioni. Scritto da e per i product manager. Riepilogo Il collo di bottiglia del passaggio di progettazione costa ai PM giorni per funzionalità, aggiungendo settimane di ritardo ai cicli di sviluppo del prodotto ogni trimestre. Esistono due tipi di lavoro di progettazione: impostazione della direzione esplorativa e perfezionamento della produzione, e i PM sono già attrezzati per possedere il primo. Uno sprint di progettazione del vibe coding di 90 minuti aiuta i PM a generare, confrontare e convergere su a

02/04/2026
GNews: AI Agents Code

Cursor lancia una nuova esperienza di agente AI per affrontare Claude Code e Codex - WIRED

Cursor lancia una nuova esperienza di agente AI per affrontare Claude Code e Codex WIRED

02/04/2026