Simon Willison
scansione-per-segreti 0.2
Versione: lo strumento CLI scan-for-secrets 0.2 ora trasmette i risultati man mano che vengono trovati anziché attendere fino alla fine, il che è meglio per le directory di grandi dimensioni. L'opzione -d/--directory ora può essere utilizzata più volte per scansionare più directory. Nuova opzione -f/--file per specificare uno o più file singoli da scansionare. Nuove funzioni API Python scan_directory_iter() , scan_file() e scan_file_iter() . Nuova opzione -v/--verbose che mostra ciascuna directory sottoposta a scansione.
Simon Willison
scansione-per-segreti 0.1.1
Versione: scan-for-secrets 0.1.1 Aggiunta la documentazione degli schemi di fuga che vengono anch'essi scansionati. Rimosso lo schema di escape repr non necessario, che era già coperto da json .
Simon Willison
scansione-per-segreti 0.1
Versione: scan-for-secrets 0.1 Mi piace pubblicare trascrizioni delle sessioni locali del codice Claude utilizzando il mio strumento di trascrizione del codice claude, ma sono spesso paranoico che una delle mie chiavi API o segreti simili possano inavvertitamente essere rivelati nei file di registro dettagliati. Ho creato questo nuovo strumento di scansione Python per rassicurarmi. Puoi dargli dei segreti e farli scansionare in una directory specificata: uvx scan-for-secrets $OPENAI_API_KEY -d logs-to-publish/ Se lasci fuori -d il valore predefinito è il dire corrente
Simon Willison
ricerca-llm-apis 2026-04-04
Rilascio: search-llm-apis 2026-04-04 Sto lavorando a una modifica importante alla mia libreria Python LLM e allo strumento CLI. LLM fornisce un livello di astrazione su centinaia di LLM diversi di dozzine di fornitori diversi grazie al suo sistema di plug-in e alcuni di questi fornitori hanno sviluppato nuove funzionalità nell'ultimo anno che il livello di astrazione di LLM non è in grado di gestire, come l'esecuzione di strumenti lato server. Per aiutare a progettare quel nuovo livello di astrazione ho fatto leggere a Claude Code le librerie client Python per Anthropic,
GNews: AI Agents Code
Microsoft avverte che l'intelligenza artificiale di Copilot è "solo a scopo di intrattenimento", afferma che non dovresti seguire consigli seri - financialexpress.com
Microsoft avverte che Copilot AI è a "solo scopo di intrattenimento", afferma che non dovresti seguire seriamente i consigli di financialexpress.com
GNews: AI Agents Code
Codificazione AI: OpenAI trasforma il Codex in Pay-as-You-Go, riduce il costo del posto a $ 20 - winbuzzer.com
Codificazione AI: OpenAI trasforma il Codex in Pay-as-You-Go, riduce il costo del posto a $ 20 winbuzzer.com
Simon Willison
Citando Kyle Daigle
L'attività della piattaforma [GitHub] è in aumento. C'erano 1 miliardo di impegni nel 2025. Ora sono 275 milioni a settimana, con un ritmo di 14 miliardi quest'anno se la crescita rimane lineare (spoiler: non lo farà). GitHub Actions è cresciuto da 500 milioni di minuti/settimana nel 2023 a 1 miliardo di minuti/settimana nel 2025, e ora 2,1 miliardi di minuti finora questa settimana. — Kyle Daigle, COO, GitHub Tag: github, azioni-github
Simon Willison
La ricerca sulle vulnerabilità è cucinata
La ricerca sulle vulnerabilità è preparata Il punto di vista di Thomas Ptacek sull'impatto improvviso ed enorme che gli ultimi modelli di frontiera stanno avendo sul campo della ricerca sulle vulnerabilità. Nei prossimi mesi, gli agenti di codifica modificheranno drasticamente sia la pratica che l’economia dello sviluppo degli exploit. Il miglioramento del modello di frontiera non sarà un processo lento, ma piuttosto una funzione graduale. Una quantità sostanziale di ricerche sulle vulnerabilità ad alto impatto (forse anche la maggior parte di esse) avverrà semplicemente indirizzando un agente verso una fonte
Simon Willison
L'impatto cognitivo degli agenti codificanti
Una cosa divertente nel registrare un podcast con un professionista come Lenny Rachitsky è che il suo team sa come suddividere il video risultante in video verticali in formato breve di dimensioni TikTok. Eccone uno che ha condiviso oggi su Twitter e che ha attirato oltre 1,1 milioni di visualizzazioni! Sono passati 48 secondi. La nostra conversazione completa è durata 1 ora e 40 minuti. Tag: ai-etica, agenti di codifica, ingegneria degli agenti, ai-generativa, apparizioni podcast, ai, llms, debito cognitivo
Simon Willison
Citando Willy Tarreau
Nell'elenco della sicurezza del kernel abbiamo riscontrato un'enorme quantità di segnalazioni. Eravamo tra i 2 e i 3 a settimana forse due anni fa, poi abbiamo raggiunto probabilmente i 10 a settimana nell'ultimo anno con l'unica differenza che era solo un rallentamento dell'intelligenza artificiale, e ora dall'inizio dell'anno siamo circa 5-10 al giorno a seconda dei giorni (venerdì e martedì sembrano i peggiori). Ora la maggior parte di questi resoconti sono corretti, al punto che abbiamo dovuto coinvolgere più manutentori per aiutarci. E ora stiamo vedendo quotidianamente qualcosa di così bello
Simon Willison
Citando Daniel Stenberg
La sfida con l'intelligenza artificiale nella sicurezza open source è passata da uno tsunami di intelligenza artificiale a più di un... semplice tsunami di rapporti sulla sicurezza. Meno slop ma molte segnalazioni. Molti di loro davvero buoni. Ci sto dedicando ore al giorno adesso. È intenso. — Daniel Stenberg, sviluppatore principale di cURL Tag: daniel-stenberg, sicurezza, curl, generativa-ai, ai, llms, ai-security-research
Dev.to LLM
All'interno della fuga di notizie di Claude Mythos Perché il prossimo modello di Anthropic S ha spaventato i suoi stessi creatori
Pubblicato originariamente su CoreProse KB-incidents Il 26 e 27 marzo 2026, Anthropic, la società nota per i LLM "costituzionali" incentrati sulla sicurezza, ha confermato che documenti interni su un sistema inedito chiamato Claude Mythos erano stati accidentalmente esposti online. [2] [6] Queste bozze descrivono Mythos come il modello più capace di Anthropic fino ad oggi, a cui è stato assegnato un livello di rischio che la società non aveva mai utilizzato prima ed esplicitamente etichettato come "troppo potente" per un ampio rilascio pubblico. [2] [3] [6] Tale giudizio viene da Anthr
Dev.to LLM
5 errori che fanno sì che l'IA generi codice peggiore (con correzioni)
Dopo centinaia di sessioni di codifica assistite dall'intelligenza artificiale, ho notato gli stessi cinque errori che compromettono la qualità dell'output. Ognuno è facile da risolvere, una volta che lo vedi. 1. Scaricare l'intero file come contesto L'errore: incollare 500 righe di codice e dire "correggi il bug". Perché fallisce: il modello distribuisce l'attenzione su codice irrilevante. Potrebbe "risolvere" qualcosa non correlato o perdere il problema reale sepolto nella riga 347. La correzione: estrarre solo la funzione rilevante + le sue dipendenze. Aggiungi una descrizione di una riga di cosa si tratta
Dev.to LLM
Il "Token Bleed": come gestire LLM senza andare in bancarotta
Gli esperti dei circoli Infra, SRE e ingegneria del prodotto non hanno un unico "regolamento", ma il consenso derivante da resoconti e discussioni nel mondo reale è chiaro: se stai costruendo un "wrapper AI" o un prodotto basato su LLM, il modo per avere successo (ed evitare contraccolpi) è concentrarsi sull'infrastruttura hardware e sui problemi di affidabilità, non solo sull'interfaccia utente o sull'"atmosfera". Lo abbiamo imparato nel modo più duro. In un progetto che abbiamo eseguito, abbiamo osservato un singolo agente in fuga colpire gettoni a sei cifre prima ancora che il dashboard si riferisse
Dev.to LLM
KV Cache è il motivo per cui il tuo modello si è adattato fino a quando non lo ha fatto
Il modello è stato caricato. Il primo prompt ha funzionato. Poi sono apparse richieste più lunghe o sono apparsi più utenti e improvvisamente la stessa configurazione ha smesso di essere stabile. La maggior parte delle volte si tratta di cache KV. Ciò che la cache KV cambia più contesto significa più memoria impegnata durante la generazione più richieste simultanee peggiorano il problema una configurazione che si adatta a un breve prompt può fallire su carichi di lavoro reali le persone danno la colpa al modello quando la cache è quella che cresce silenziosamente L'errore comune Le persone testano con un breve input e presumono
Dev.to LLM
I parametri 7B non significano che 8 GB di VRAM siano sufficienti
Molte persone vedono 7B e presumono che 8 GB di VRAM dovrebbero essere sufficienti. Quindi caricano il modello, aumentano la lunghezza del contesto e apprendono che il conteggio dei parametri era solo una parte della storia. Perché questo coglie di sorpresa le persone il conteggio dei parametri non è la bolletta della memoria completa La cache KV cresce con la quantizzazione della lunghezza del contesto cambia i calcoli, ma non rende importanti anche le scelte di runtime senza memoria come il batching e il sovraccarico del server modello L'errore Le persone chiedono quanti parametri? quando la domanda migliore è quale contesto
Dev.to LLM
Ai-Briefing-2026-04-03
Bozza automatica da LLL Anthropic sostiene che la maggior parte degli scaffold per agenti è ora il collo di bottiglia, non il modello Anthropic ha pubblicato questa settimana un post sull'architettura prescrittiva, facendo un'affermazione che dovrebbe far riflettere chiunque abbia costruito una pipeline LangGraph dodici mesi fa: le ipotesi insite nella maggior parte degli harness per agenti—ciò che Claude non può pianificare, non può ricordare, non può orchestrare—sono sempre più errate. I framework che codificano queste ipotesi sono ora la parte più lenta del sistema. Il post non è astratto;
Dev.to LLM
Iniziare con l'API Gemini: una guida pratica
Iniziare con l'API Gemini: una guida pratica per gli studenti TL;DR Ottenere l'accesso all'API Gemini richiede meno di 15 minuti: un account Google Cloud, una chiave API e una libreria Python sono sufficienti per produrre il tuo primo prompt funzionante. Il livello gratuito è sufficiente per progetti educativi, esperimenti e lavori di portfolio: non è necessaria una carta di credito per iniziare a costruire cose reali. La barriera all’ingresso è più bassa di quanto sembri: la parte difficile non è il setup tecnico, ma sapere cosa fare
Dev.to LLM
OpenAI ha appena raccolto 122 miliardi di dollari. I prezzi di inferenza di frontiera non si sono mossi in 9 settimane
OpenAI ha appena chiuso il più grande round di venture capital della storia con una valutazione di 852 miliardi di dollari. Capitale record, fiducia record nel futuro dell’intelligenza artificiale. Ma ecco cosa è interessante dal punto di vista dei prezzi di mercato. I prezzi dei modelli Frontier sono rimasti completamente invariati per 9 settimane consecutive. Il benchmark è pari a 0,005714 dollari per 1.000 token di input sui modelli di punta di livello superiore a livello globale. Allo stesso tempo, lo spread tra i modelli di frontiera e quelli di bilancio è pari a 7,1x. Si tratta di un divario significativo che è rimasto stabile. Quindi la domanda t
Dev.to LLM
Vane: il tuo motore di risposta AI privato che ti dà il controllo
Riepilogo rapido: 📝 Vane è un motore di risposta AI open source e incentrato sulla privacy che consente agli utenti di ospitare autonomamente le proprie ricerche. Si integra con vari fornitori LLM, inclusi i modelli Ollama locali e i servizi cloud, per fornire risposte precise e citate mantenendo la privacy dell'utente. Punti chiave: 💡 ✅ Vane è un motore di risposta AI self-hosted incentrato sulla privacy che funziona sul tuo hardware. ✅ Offre una flessibilità senza precedenti supportando sia LLM locali (Ollama) che i principali provider cloud (Open
GNews: AI Agents Code
Cursor entra nella corsa degli agenti IA contro Codex e Claude Code - YourStory.com
Cursor partecipa alla corsa degli agenti AI contro Codex e Claude Code YourStory.com
GNews: AI Agents Code
Cursor lancia flussi di lavoro di codifica basati su agenti man mano che gli agenti AI crescono - Developer Tech News
Cursor lancia flussi di lavoro di codifica basati su agenti man mano che gli agenti AI crescono Developer Tech News
GNews: AI Agents Code
Cursor3 introduce agenti AI che automatizzano la codifica, pronti a competere con Claude Code, il Codex di OpenAI - financialexpress.com
Cursor 3 introduce agenti AI che automatizzano la codifica, pronti a competere con Claude Code, il Codex financialexpress.com di OpenAI
GNews: Cursor Windsurf
Cursor presenta la terza versione con gestione degli agenti AI senza soluzione di continuità - ForkLog
Cursor presenta la terza versione con gestione degli agenti AI senza soluzione di continuità ForkLog
GNews: AI Agents Code
Cursor svela il nuovo agente AI che affronterà Claude Code e OpenAI Codex: cosa può fare - digit.in
Cursor svela il nuovo agente AI che affronterà Claude Code e OpenAI Codex: cosa può fare digit.in
GNews: AI Agents Code
I nuovi agenti IA di Cursor possono creare software per te: NewsBytes
I nuovi agenti AI di Cursor possono creare software per te NewsByte
GNews: Cursor Windsurf
Cursor aggiorna la sua piattaforma di codifica delle vibrazioni concentrandosi sugli agenti AI: SiliconANGLE
Cursor aggiorna la sua piattaforma di codifica delle vibrazioni concentrandosi sugli agenti AI SiliconANGLE
GNews: AI Agents Code
5 strumenti di codifica AI per semplificare il flusso di lavoro - Revisione dei gadget
5 strumenti di codifica AI per semplificare la revisione dei gadget del flusso di lavoro
Replit Blog
Perché i PM intelligenti utilizzano la codifica Vibe per ridurre i ritardi di progettazione
Questa è la terza parte di una serie in 6 parti che stiamo conducendo su come i product manager utilizzano gli strumenti di intelligenza artificiale e la codifica delle vibrazioni. Scritto da e per i product manager. Riepilogo Il collo di bottiglia del passaggio di progettazione costa ai PM giorni per funzionalità, aggiungendo settimane di ritardo ai cicli di sviluppo del prodotto ogni trimestre. Esistono due tipi di lavoro di progettazione: impostazione della direzione esplorativa e perfezionamento della produzione, e i PM sono già attrezzati per possedere il primo. Uno sprint di progettazione del vibe coding di 90 minuti aiuta i PM a generare, confrontare e convergere su a
GNews: AI Agents Code
Cursor lancia una nuova esperienza di agente AI per affrontare Claude Code e Codex - WIRED
Cursor lancia una nuova esperienza di agente AI per affrontare Claude Code e Codex WIRED