Microsoft sfida Nvida e lancia chip dedicati all’intelligenza artificiale

Non più speculazione ma dati di fatto: Microsoft ha costruito un chip che può essere utilizzato per addestrare modelli linguistici di grandi dimensioni ed evitare una dipendenza, costosa, da Nvidia. In aggiunta a ciò, il colosso americano ha pure confermato di aver progettato una CPU basata su Arm, dedicata ai carichi di lavoro sul cloud. Entrambi hanno un fine: creare un ecosistema proprietario che alimenti i data center di Azure e preparare il mondo ad un futuro in cui l’intelligenza artificiale la farà da padrone. Azure Maia e Azure Cobalt sono i nomi di semiconduttore e CPU, destinati ad un arrivo sul mercato nel 2024. Un modo non solo per affrancarsi da Nvidia ma anche per rispondere alle esigenze di uno scenario che sembra impazzito per l’elaborazione IA. Ci sono schede di Nvidia, le H100M che online arrivano anche a costare 40 mila dollari, con un costo reale di circa la metà.
Non è del tutto una novità per Microsoft, che ha collaborato allo sviluppo di chip per la Xbox da almeno 20 anni fa e ha co-ingegnerizzato i processori dei vari Surface. Nel 2017, l’azienda ha iniziato a progettare lo stack hardware cloud, mettendosi sulla buona strada per costruire i nuovi chip personalizzati. Sia Azure Maia che la CPU Azure Cobalt sono entrambi realizzati internamente da Microsoft, insieme a una profonda revisione dell’intero stack di server cloud così da ottimizzare prestazioni, potenza e costi.

Azure Cobalt: da dove arriva

La CPU Azure Cobalt, che prende il nome dal pigmento blu, è un chip a 128 core costruito su un design CSS Arm Neoverse e personalizzato per Microsoft. È progettato per supportare servizi cloud generali in Azure. Una caratteristica differenziante sul mercaoto è la capacità di controllare le prestazioni e il consumo energetico per core e su ogni singola macchina virtuale.Microsoft sta attualmente testando la sua CPU Cobalt su carichi di lavoro come Microsoft Teams e SQL Server, con l’intenzione di rendere disponibili macchine virtuali ai clienti il prossimo anno per una varietà di ambiti. I test iniziali mostrano che le prestazioni di Cobalt sono anche superiori del 40% rispetto a quelle disponibili nei data center di Microsoft che utilizzano server Arm.

Come è fatto Azure Maia 100

Dal canto suo, Azure Maia 100, che prende il nome da una stella, è progettato per l’esecuzione di carichi di lavoro IA sul cloud, come l’addestramento e l’inferenza di modelli linguistici di grandi dimensioni. Verrà utilizzato per alimentare alcuni dei più grandi progetti dell’azienda su Azure, comprese parti della partnership multimiliardaria con OpenAI in cui Microsoft alimenta l’evoluzione di ChatGpt e soci. Non a caso, proprio OpenAI ha collaborato con Redmond nelle fasi di progettazione e test di Maia. Costruito con un processo TSMC a 5 nanometri, Maia ha 105 miliardi di transistor, circa il 30% in meno rispetto ai 153 miliardi presenti sul concorrente Nvidia di AMD, la GPU AI MI300X. Supporta l’implementazione dei tipi di dati inferiori agli 8 bit, per semplificare la progettazione hardware e software con i partner. Microsoft fa parte di un gruppo che comprende AMD, Arm, Intel, Meta, Nvidia e Qualcomm che hanno l’intenzione di standardizzare la prossima generazione di formati dati per i modelli IA. Basandosi sul lavoro collaborativo e aperto dell’Open Compute Project (OCP) per adattare interi sistemi alle esigenze dell’intelligenza artificiale, Microsoft pensa di poter disegnare il futuro dell’IA, almeno dal punto di vista delle sue mire commerciali. Maia 100 è attualmente in fase di test su GPT 3.5 Turbo, lo stesso modello che alimenta ChatGpt, i carichi di lavoro Bing AI e GitHub Copilot.

La domanda è se effettivamente Maia è un passo avanti alla concorrente diretta di Nvidia, la GPU H100. Ciò che è vero è che nella scala in cui opera il cloud, è difficile ottimizzare e integrare ogni livello dello stack, massimizzare le prestazioni, diversificare la catena di fornitura. Avere un’alternativa a Nvidia può però essere un vantaggio per l’evoluzione del settore, in termini di concorrenza e compatibilità. Basti pensare che, secondo alcune stime, OpenAI avrebbe bisogno di oltre 30 mila delle vecchie GPU A100 di Nvidia per addestrare ChatGpt. Con un costo minore, più potenza e uno stack totalmente votato all’IA, i chip di Microsoft potrebbero aiutare a ridurre il “prezzo” dell’IA, sia per fornitori che clienti.

Fonte: Il Sole 24 Ore