Indice dei contenuti
Meta ha annunciato giovedì un nuovo taglio di circa 8.000 posti di lavoro, pari al 10% della forza lavoro di quasi 79.000 dipendenti, con decorrenza dal 20 maggio. Altri 6.000 ruoli aperti resteranno scoperti. La decisione arriva mentre il gruppo di Mark Zuckerberg rivede al rialzo le spese in conto capitale per l'intelligenza artificiale, fissandole tra 115 e 135 miliardi di dollari per l'anno in corso, quasi il doppio del 2025.
La lettera di Janelle Gale e la corsa agli investimenti in AI
A firmare il memo interno è la chief people officer Janelle Gale, che parla di "sforzo continuo per gestire l'azienda in modo più efficiente e compensare gli altri investimenti che stiamo facendo". Dietro la formula burocratica si legge la tensione tra le ambizioni di Zuckerberg sull'intelligenza artificiale e il nervosismo degli investitori. Negli ultimi quattro anni i tagli a Meta hanno riguardato decine di migliaia di persone, con colpi pesanti già inferti alla divisione Reality Labs. I conti trimestrali, attesi per il 29 aprile, diranno quanto la strategia stia reggendo.

Intel sorprende Wall Street e rilancia la sua identità
Nello stesso giorno in cui Meta annunciava i tagli, Intel ha battuto le attese degli analisti. Il fatturato del primo trimestre è cresciuto del 7% su base annua a 13,6 miliardi di dollari, contro il calo del 2% previsto dal consenso. Per il trimestre in corso la guidance oscilla tra 13,8 e 14,8 miliardi, sopra i 13,06 miliardi attesi. Il titolo ha guadagnato oltre il 22% nelle contrattazioni after-hours.
Il nuovo amministratore delegato Lip-Bu Tan ha aperto la conference call citando Andy Grove e il suo celebre "only the paranoid survive": "Stiamo abbracciando le nostre radici, data driven, paranoici, guidati dall'ingegneria". Intel sostiene che il fatturato sarebbe stato ancora più alto se avesse potuto produrre più CPU basate sull'architettura x86, la cui domanda resta in forte crescita.
GPT-5.5, il modello OpenAI che promette lavoro autonomo
Sul fronte dell'intelligenza artificiale, OpenAI ha presentato GPT-5.5, definito dall'azienda il suo modello più intelligente e intuitivo finora. La società guidata da Sam Altman punta tutto sul concetto di lavoro agentico: invece di guidare il modello passo per passo, l'utente può affidargli un compito articolato e lasciare che pianifichi, usi strumenti, verifichi i risultati e porti a termine l'attività. Un tema che si intreccia con il dibattito sulla crescente quota di contenuti prodotti dall'IA sul web.
I numeri citati da OpenAI parlano di un 82,7% di accuratezza su Terminal-Bench 2.0, il benchmark che misura la capacità di gestire flussi complessi da riga di comando, e del 58,6% su SWE-Bench Pro, che valuta la risoluzione di issue reali su GitHub. Il modello, secondo l'azienda, mantiene la stessa latenza per token di GPT-5.4 e utilizza meno token per completare gli stessi compiti di coding.
Il rollout è già partito per gli utenti Plus, Pro, Business ed Enterprise in ChatGPT e Codex, mentre GPT-5.5 Pro è disponibile per Pro, Business ed Enterprise. L'arrivo sulle API è stato annunciato come imminente, con l'azienda che spiega di voler calibrare separatamente le misure di sicurezza per il servizio su larga scala.
Nvidia testa il modello su 10.000 dipendenti
Prima del lancio pubblico, OpenAI ha coinvolto quasi 200 partner in accesso anticipato. Tra questi spicca Nvidia: il produttore di chip ha dato accesso a GPT-5.5 a oltre 10.000 dipendenti con settimane di anticipo. Alcuni ingegneri hanno parlato di risultati "mind-blowing", con esperimenti di coding che progrediscono in una notte invece che in settimane e attività che si risolvono in ore anziché giorni. Un ingegnere di Nvidia, citato nella presentazione, si è spinto a dire: "Perdere l'accesso a GPT-5.5 sarebbe come avere un arto amputato".
La collaborazione si inserisce in un disegno più ampio: OpenAI ha annunciato il piano per il dispiegamento di oltre 10 gigawatt di sistemi Nvidia destinati all'infrastruttura di training, rafforzando un asse che lega la catena dell'hardware a quella dei modelli di frontiera.
Le voci di chi ha testato GPT-5.5
Tra i tester della prima ora, Dan Shipper, fondatore e CEO di Every, ha definito GPT-5.5 "il primo modello di coding che ho usato ad avere una vera chiarezza concettuale". Shipper ha raccontato di averlo messo alla prova su un bug che il suo team aveva impiegato giorni a risolvere: GPT-5.4 non ci era riuscito, GPT-5.5 sì. Pietro Schirano, CEO di MagicPath, ha descritto l'esperienza dicendo che "sembra davvero di lavorare con un'intelligenza superiore, con quasi un senso di rispetto", dopo aver visto il modello fondere in circa venti minuti un branch con centinaia di modifiche frontend.
- OpenAI dichiara che oltre l'85% dei propri dipendenti usa Codex ogni settimana in funzioni che vanno dall'ingegneria al marketing, dalla finanza alla comunicazione.
- Il team Finance ha impiegato Codex per rivedere 24.771 moduli fiscali K-1 per un totale di 71.637 pagine, accelerando il lavoro di due settimane rispetto all'anno precedente.
Il contesto: Grok, SpaceX e le altre tensioni del settore
L'accelerazione di OpenAI arriva mentre altri protagonisti dell'AI affrontano contraccolpi. SpaceX, nel prospetto S-1 per l'IPO da 1.750 miliardi di dollari attesa in estate, ha inserito tra i fattori di rischio le inchieste su Grok, il chatbot di xAI acquisito lo scorso mese, per la generazione di immagini sessualmente esplicite non consensuali, comprese quelle di minori. Le indagini aperte in Brasile, Regno Unito, California, Canada e Francia potrebbero precludere l'accesso della società di Elon Musk a determinati mercati, come già accaduto nel 2024 con il ban brasiliano. Sullo sfondo, Microsoft ha offerto buyout volontari al 7% del personale statunitense e Tesla ha perso il 4% in Borsa dopo aver annunciato margini quasi nulli sulle auto ma 25 miliardi di dollari di capex.



