Qualcomm sfida Nvidia e AMD: i chip AI200 e AI250 rivoluzionano il mercato data center

Il mercato dei chip per intelligenza artificiale sta vivendo una fase di trasformazione. Qualcomm, gigante dei semiconduttori finora concentrato su dispositivi mobile, ha annunciato il suo ingresso nel settore dei data center con due nuove soluzioni: AI200 e AI250. Le azioni dell’azienda sono balzate dell’11% subito dopo l’annuncio, segnale che gli investitori vedono potenziale in questa mossa strategica.

L’ingresso di Qualcomm nel mercato dei chip AI per data center

Fino ad oggi, Nvidia ha dominato il settore degli acceleratori AI con oltre il 90% della quota di mercato. AMD si posiziona come secondo player. Qualcomm sembra voler cambiare questo equilibrio, puntando su un approccio diverso che fa leva sulla sua esperienza nel campo dei processori neurali per smartphone.

L’azienda non è nuova al mondo dei chip ad alte prestazioni. Ha costruito la sua reputazione sui processori Snapdragon per dispositivi mobili. Ora porta quella competenza su scala enterprise.

Dagli Hexagon NPU degli smartphone ai rack per data center

I chip AI200 e AI250 si basano sugli Hexagon NPU, le unità di elaborazione neurale che Qualcomm integra da anni nei suoi processori per smartphone. Durga Malladi, responsabile per data center ed edge computing dell’azienda, ha spiegato: “Volevamo prima dimostrare le nostre capacità in altri ambiti, e una volta costruita la nostra forza lì, è stato relativamente semplice fare il salto al livello data center”.

Questa strategia rappresenta un’evoluzione naturale. Gli Hexagon NPU hanno già dimostrato efficienza energetica e prestazioni nell’inferenza AI su dispositivi con batteria. Scalare quella tecnologia per ambienti server potrebbe offrire vantaggi competitivi significativi.

AI200 e AI250: specifiche tecniche e elementi differenzianti

Qualcomm ha svelato due prodotti con tempistiche di lancio scaglionate. L’AI200 sarà disponibile commercialmente nel 2026, mentre l’AI250 arriverà sul mercato nel 2027. Entrambe le soluzioni saranno offerte sia come singole schede acceleratrici che come rack completi raffreddati a liquido.

768GB di memoria LPDDR: una scelta controcorrente

Una caratteristica che distingue l’approccio di Qualcomm è la scelta della memoria. Mentre i competitor utilizzano HBM (High Bandwidth Memory), Qualcomm ha optato per 768GB di LPDDR per ogni scheda AI200. Vediamo i vantaggi di questa decisione:

  • Capacità superiore: 768GB per scheda superano significativamente i 288GB di HBM3e di AMD Instinct MI350X o i circa 180GB per GPU delle configurazioni Nvidia B200
  • Costi ridotti: la memoria LPDDR costa meno dell’HBM, fattore cruciale per il TCO (Total Cost of Ownership)
  • Minori trasferimenti off-card: maggiore capacità significa che modelli linguistici di grandi dimensioni possono risiedere completamente sulla scheda
  • Scalabilità flessibile: l’architettura permette configurazioni adattabili alle diverse esigenze dei clienti

La memoria LPDDR ha però una bandwidth inferiore rispetto all’HBM. È qui che entra in gioco l’AI250.

AI250 e l’architettura near-memory computing: una possibile svolta

L’AI250 introduce quello che Qualcomm definisce un’innovazione significativa: un’architettura basata sul near-memory computing. Questa soluzione promette di aumentare la bandwidth effettiva di oltre 10 volte rispetto all’AI200, riducendo contemporaneamente il consumo energetico.

Il near-memory computing avvicina le unità di elaborazione alla memoria stessa. Questo riduce la latenza e aumenta drasticamente la velocità con cui i dati possono essere spostati durante l’inferenza AI. Per i modelli linguistici e multimodali, dove l’accesso ripetuto alla key-value cache rappresenta spesso un collo di bottiglia, questo approccio potrebbe fare la differenza.

Focus sull’inferenza: la scelta strategica di Qualcomm

Qualcomm ha chiarito che i suoi chip non sono progettati per il training di modelli AI, ma per l’inferenza. Questa è una distinzione importante. Il training richiede enorme potenza computativa per insegnare ai modelli. L’inferenza, invece, riguarda l’esecuzione di modelli già addestrati per generare risposte.

L’inferenza sta diventando un mercato sempre più rilevante. Con la diffusione di ChatGPT, Gemini e altri sistemi generativi, le aziende hanno bisogno di infrastrutture efficienti per far girare questi modelli in produzione. Qualcomm sembra puntare proprio su questo segmento.

Efficienza energetica e costi operativi nel mirino

Un rack completo AI200 consuma 160 kilowatt, un valore paragonabile ai sistemi GPU esistenti. Qualcomm sostiene però che i suoi chip offrono vantaggi significativi in termini di costi per watt e prestazioni per dollaro speso.

Gli acceleratori usano PCIe per le connessioni scale-up all’interno del rack ed Ethernet per il scale-out tra sistemi multipli. Questa configurazione standard facilita l’integrazione nei data center esistenti.

Secondo le stime di McKinsey, circa 6,7 trilioni di dollari verranno spesi in data center entro il 2030, con la maggior parte destinata a sistemi basati su chip AI. Se Qualcomm riesce a conquistare anche solo una piccola porzione di questo mercato, l’impatto finanziario sarebbe considerevole.

Humain: il primo cliente e i piani di deployment

Humain, startup AI con base in Arabia Saudita, è stata confermata come primo cliente di Qualcomm. L’azienda sta pianificando un’infrastruttura AI da 200 megawatt che utilizzerà sia rack AI200 che AI250.

Il deployment partirà nel 2026 con l’AI200. Questo progetto servirà anche come caso studio per dimostrare le capacità dei chip Qualcomm in scenari reali e su larga scala.

Qualcomm ha anche annunciato che venderà i chip e altri componenti separatamente. Questo significa che hyperscaler come Nvidia o AMD potrebbero teoricamente diventare clienti per parti specifiche dei sistemi Qualcomm, come le CPU centrali.

Prospettive future nel mercato degli acceleratori AI

L’ingresso di Qualcomm aggiunge un nuovo competitor in un mercato finora dominato da pochi player. Oltre a Nvidia e AMD, anche Google, Amazon e Microsoft stanno sviluppando i propri acceleratori AI per i loro servizi cloud.

Qualcomm si è impegnata a mantenere una cadenza annuale di aggiornamenti per la sua roadmap data center. Questo significa nuovi prodotti ogni anno, seguendo un modello simile a quello che l’azienda usa per i chip smartphone.

Un aspetto interessante riguarda le CPU. Qualcomm sta sviluppando processori di classe server, ma probabilmente non saranno pronti per l’AI200 nel 2026. Questo lascia aperta la domanda: quali CPU verranno usate nei primi rack? Probabilmente soluzioni off-the-shelf di ARM o x86.

Il mercato reagirà nei prossimi mesi, quando emergeranno i primi benchmark e confronti diretti con i prodotti Nvidia e AMD. Per ora, l’annuncio ha generato entusiasmo tra gli investitori e curiosità nel settore tech. Resta da vedere se Qualcomm riuscirà a tradurre la sua esperienza mobile in un vantaggio competitivo sostenibile nel complesso mondo dei data center AI.