Meta ha compiuto un grande balzo in avanti nel campo dell’intelligenza artificiale, debuttando con la sua nuova generazione di chip AI denominata MTIA (Meta Training and Inference Accelerator). Questi chip rappresentano la punta di diamante del progetto di silicio interno di Meta, volto a potenziare la capacità di calcolo necessaria per prodotti AI generativi sempre più affamati di energia, come quelli integrati nelle app Facebook, Instagram e WhatsApp, oltre che in dispositivi hardware come gli smart glasses Ray-Ban.
Il primo modello di questa famiglia di chip, MTIA v1, è stato creato nel 2020 utilizzando un processo a 7 nanometri. Sebbene si concentri principalmente su carichi di lavoro di inferenza, piuttosto che di training, per “workload di raccomandazione” attraverso l’applicazione di Meta, il chip è stato lodato per la sua efficienza in termini di prestazioni per watt, soprattutto nel gestire modelli AI di bassa e media complessità più efficientemente rispetto a una GPU. Tuttavia, c’è ancora lavoro da fare per migliorare le aree di memoria e rete del chip, in particolare per gestire l’aumento delle dimensioni dei modelli AI.
Meta ha anche sviluppato un supercomputer per la ricerca AI, il Research SuperCluster (RSC), che rappresenta uno dei supercomputer più veloci al mondo, con l’obiettivo di spingere i limiti della ricerca AI in diversi domini, inclusa l’AI generativa. Questo supercomputer, che ora contiene un totale di 2.000 sistemi Nvidia DGX A100 con 16.000 GPU Nvidia A100, consente ai ricercatori di Meta di addestrare modelli utilizzando esempi dal mondo reale provenienti dai sistemi di produzione di Meta, a differenza delle precedenti infrastrutture AI che si basavano solo su dataset open source e pubblicamente disponibili.
Oltre al MTIA, Meta sta lavorando anche su un altro chip progettato per gestire tipi specifici di carichi di lavoro di elaborazione, il Meta Scalable Video Processor (MSVP), che si concentra sulle esigenze di elaborazione dei video on demand e della trasmissione in diretta, sottolineando l’impegno dell’azienda nel migliorare l’efficienza della trasmissione video.
Inoltre, Meta ha presentato annunci notevoli, tra cui MSVP, un ASIC avanzato per il transcoding video specificamente adattato per soddisfare le esigenze di elaborazione dei crescenti carichi di lavoro di Video-On-Demand (VOD) e live-streaming di Meta. Questa soluzione hardware offre programmabilità e scalabilità, migliorando la qualità e l’efficienza della compressione dei video, garantendo stabilità, affidabilità e riducendo i requisiti di calcolo e di archiviazione.
Meta ha anche dimostrato un impegno continuo nel rilasciare strumenti AI open-source, spingendo ulteriormente i limiti della ricerca e dell’innovazione AI. Tra questi, il Segment Anything Model (SAM) che ha rivoluzionato la segmentazione delle immagini applicando modelli fondamentali tradizionalmente utilizzati nel processing del linguaggio naturale, e DINOv2, una tecnica avanzata di apprendimento auto-supervisionato che apprende rappresentazioni visive dalle immagini senza fare affidamento su dati etichettati.
Con queste innovazioni, Meta non solo mira a ridurre la propria dipendenza dai chip Nvidia, dominanti nel mercato, ma anche a ottimizzare le prestazioni e l’efficienza energetica dei propri workload specifici, potenzialmente risparmiando centinaia di milioni di dollari in costi energetici annuali e miliardi in costi di acquisto di chip. Questi sviluppi segnalano l’ambizione di Meta di essere all’avanguardia nella corsa globale verso un’infrastruttura AI più potente e efficiente, paventando la strada per innovazioni future nell’AI generativa e oltre.