C'è un momento, nelle curve esponenziali, in cui il progresso smette di sembrare graduale e diventa improvvisamente travolgente. Se non ci siamo già, siamo molto vicini.
Ecco cosa non puoi esserti perso.
Il 74% dei guadagni dall'AI va al 20% delle aziende
Uno studio PwC su oltre 1.200 leader aziendali ha misurato il valore economico generato dall'intelligenza artificiale nelle aziende. I risultati dicono che il 20% delle imprese cattura tre quarti dei benefici. Cosa fanno di diverso? Usano l'AI per ripensare il modello di business e cercare nuovi ricavi, con una probabilità 2,6 volte superiore rispetto al resto del campione. La maggioranza, invece, si ferma al taglio dei costi.
OpenAI chiude Sora
Sora, l'applicazione di OpenAI per generare video con l'intelligenza artificiale, chiude il 26 aprile. La scelta è stata piuttosto improvvisa, tanto che secondo il Wall Street Journal, Disney, che aveva investito un miliardo di dollari per la partnership, ha saputo della notizia meno di un'ora prima che l'annuncio venisse dato al pubblico. L'accordo è saltato.
Un modello AI ha trovato migliaia di falle nei software che usiamo ogni giorno
Claude Mythos Preview, il nuovo modello di Anthropic (la società che sviluppa Claude, principale rivale di ChatGPT), ha scoperto in poche settimane migliaia di vulnerabilità sconosciute nei principali sistemi operativi, browser e software di uso comune, alcune nascoste da oltre vent'anni. Anthropic ha deciso di non renderlo disponibile al pubblico, riservandolo a un consorzio di aziende tecnologiche selezionate per testarlo.
Meta lancia il suo modello più potente e cambia strategia sull'open source
Meta ha presentato Muse Spark, il primo modello della nuova serie Muse, sviluppato dai Superintelligence Labs in grado di coordinare più agenti AI in parallelo per affrontare problemi complessi. Il fatto rilevante per il mercato, però, è che Muse Spark è proprietario. Per anni Meta aveva distribuito i modelli Llama gratuitamente a sviluppatori e aziende di tutto il mondo. L'azienda dice di voler rendere open source le versioni future, ma per ora il rubinetto è chiuso. Chi aveva costruito prodotti o servizi sopra Llama aperto dovrà tenere d'occhio come evolve la situazione.
Google risponde con Gemma 4, aperto e gratuito
Direzione opposta per Google DeepMind. Gemma 4, distribuito con licenza Apache 2.0, può essere usato, modificato e ridistribuito da chiunque senza vincoli. Quattro dimensioni disponibili, dalla versione per smartphone a quella per server aziendali. Il modello da 31 miliardi di parametri è già al terzo posto nella classifica mondiale dei modelli aperti, superando modelli venti volte più grandi.
I numeri più interessanti dal rapporto Stanford sull'AI
Lo Stanford AI Index 2026, il più completo osservatorio annuale sull'intelligenza artificiale, porta qualche numero che vale la pena di fermarsi a leggere.
Il distacco tra il miglior modello americano e il miglior modello cinese nei test di prestazione è sceso al 2,7%.
A livello globale, solo il 40% delle persone pensa che l'AI migliorerà il proprio lavoro.
La trasparenza dei modelli, cioè quanto le aziende rendono pubbliche le informazioni su come i loro modelli vengono addestrati, con quali dati e con quali limiti, è peggiorata: l'indice medio è sceso da 58 a 40 punti su 100.
Addestrare un singolo modello di ultima generazione può generare enormi quantità di CO2: secondo le stime dello studio, l'addestramento di Grok 4 di xAI ha prodotto oltre 72.000 tonnellate di CO2 equivalente, più o meno le emissioni di 17.000 automobili in un anno.
Il miglior hacker al mondo è un'intelligenza artificiale
Prendiamo Firefox, il browser usato da centinaia di milioni di persone. Nella versione 147, gli ingegneri di Anthropic hanno messo alla prova due modelli AI chiedendo loro non solo di trovare falle di sicurezza nel codice del programma, ma di dimostrare concretamente come sfruttarle. Opus 4.6, il più avanzato disponibile fino a quel momento, ci è riuscito 2 volte su centinaia di tentativi. Mythos Preview, il nuovo modello, 181 volte. Sullo stesso codice, con lo stesso tempo a disposizione.
Anthropic ha sottoposto Mythos anche a OSS-Fuzz, il programma con cui Google testa automaticamente la sicurezza dei software gratuiti e aperti più usati al mondo. I modelli precedenti, nelle stesse condizioni, riuscivano a provocare crash gravi in 150-175 casi. Mythos ne ha provocati 595, coprendo anche categorie di errore che prima sfuggivano, e in alcuni casi è arrivato a dimostrare la possibilità di prendere il pieno controllo del programma.
Mythos ha poi trovato un bug nascosto per ventisette anni in OpenBSD, un sistema operativo considerato tra i più sicuri al mondo, usato spesso nei firewall aziendali e nei sistemi bancari. Un difetto che generazioni di ingegneri e ricercatori avevano esaminato senza vederlo.
Ancora, nel kernel Linux, il componente centrale del sistema operativo che fa girare la maggior parte dei server aziendali e degli smartphone Android, Mythos ha trovato quasi una dozzina di sequenze di falle concatenate che, sfruttate una dopo l'altra, permetterebbero di arrivare al controllo totale della macchina.
Anthropic ha dichiarato di avere in coda la segnalazione di oltre mille altre falle critiche ai rispettivi produttori.
Una nuova era per la sicurezza informatica
Per decenni la sicurezza informatica ha funzionato così: i ricercatori cercavano le falle, le segnalavano ai produttori e i produttori le correggevano. Il problema era la velocità. Le falle si accumulavano più in fretta di quanto si riuscisse a trovarle.
Mythos ribalta questa dinamica. Opera su intere basi di codice in parallelo, ventiquattr'ore su ventiquattro, e trova difetti che sfuggivano da decenni. Il rapporto Stanford AI Index 2026 conferma il trend. Nel 2024 i sistemi AI applicati alla cybersecurity risolvevano il 15% dei problemi su cui venivano testati. Nel 2026 siamo al 93%.
L'impatto, di conseguenza, è anche economico. Lo schema è lo stesso che l'intelligenza artificiale sta replicando in molti altri settori: attività che prima richiedevano competenze rare e tempi lunghi diventano drasticamente più rapide, più accessibili e sostenibili su una scala completamente nuova.
Come Anthropic ha deciso di gestire la situazione
Mythos Preview non è disponibile all'acquisto. Lo stesso modello che trova le falle può essere usato per sfruttarle e Anthropic ha valutato che rilasciarlo avrebbe esposto milioni di sistemi a troppi rischi.
Ha scelto di metterlo a disposizione solo attraverso il Project Glasswing, un consorzio che ad oggi riunisce una cinquantina di organizzazioni. Tra queste ci sono Amazon Web Services, Apple, Microsoft, Google, NVIDIA, JPMorgan Chase, CrowdStrike, Cisco, Broadcom, Palo Alto Networks e la Linux Foundation. L'obiettivo è scovare le falle prima di rilasciare il modello al grande pubblico; entro quando ancora non lo sappiamo.
Per farlo Anthropic ha anche messo a disposizione 100 milioni di dollari in crediti per la ricerca sulla sicurezza, 2,5 milioni alla Alpha-Omega Project, un'iniziativa che protegge i progetti di software aperto più critici, e 1,5 milioni alla Apache Software Foundation, che mantiene programmi usati da milioni di server aziendali nel mondo.
Il Segretario al Tesoro americano e il presidente della Federal Reserve, intanto, hanno convocato d'urgenza i vertici delle principali banche per discuterne le implicazioni.
Cosa ci aspetta
Quello che succede adesso nella sicurezza informatica riguarda direttamente le imprese italiane e capirlo in tempo fa la differenza.
I programmi che le aziende usano ogni giorno, dai browser ai sistemi operativi, dai server alle piattaforme cloud, stanno per ricevere un'ondata di correzioni di sicurezza senza precedenti. Ma la correzione funziona solo se qualcuno la installa. Le aziende che non aggiornano regolarmente i propri sistemi resteranno esposte esattamente come prima.
Fino a oggi proteggere un'azienda significava spesso aggiornare quando possibile e intervenire dopo che si verificavano problemi. Oggi una nuova generazione di strumenti di analisi automatica e rilevamento delle anomalie sta diventando accessibile anche a chi non ha un reparto di sicurezza informatica dedicato, rendendo più concreta una protezione preventiva anche per realtà più piccole.
La normativa si sta muovendo nella stessa direzione. L'AI Act europeo entra nel vivo il 2 agosto 2026, la Legge italiana 132/2025 aggiunge obblighi di trasparenza e supervisione. Le aziende che iniziano ora a strutturare la propria governance AI, cioè a definire regole interne su come usano questi strumenti e a documentarne l'impiego, si troveranno in vantaggio quando la normativa entrerà a regime. Oggi solo il 9% delle grandi aziende italiane lo ha fatto.
Il rischio esiste e sarebbe ingenuo ignorarlo. La stessa tecnologia che protegge potrebbe, in mani diverse, essere usata per attaccare, ma la risposta a questo rischio passa dall'adozione, dalla preparazione. Le aziende più esposte saranno quelle che restano ferme, con sistemi datati e mai aggiornati, senza visibilità su cosa gira nelle proprie reti.
