Intel Core

Intel Xeon 6 offre risultati fino a 17 volte migliori nei carichi AI

MLCommons ha pubblicato oggi i risultati di MLPerf Inference v4.1, la suite di benchmark di prestazioni AI. Intel ha partecipato a sei benchmark MLPerf con i processori Intel Xeon Scalable di quinta generazione e, per la prima volta, con i processori Intelยฎ Xeonยฎ 6 con Performance-core (P-core). Questi ultimi hanno ottenuto un miglioramento nella media geometrica delle prestazioni AI di circa 1,9 volte rispetto ai processori Xeon di quinta generazione.

โ€œI piรน recenti risultati di MLPerf mostrano come i costanti investimenti siano essenziali per migliorare le prestazioni dell’AI. Negli ultimi quattro anni, abbiamo alzato l’asticella delle prestazioni dei processori Intel Xeon, con un miglioramento fino a 17 volte nei benchmark. Mentre ci prepariamo a rendere gli Xeon 6 disponibili al pubblico generale nel corso di quest’anno, lavoriamo con i nostri clienti e partner per renderli piรน performantiโ€.

  • Pallavi Mahajan, Intel corporate vice president e general manager, Data Center and AI Software

Nei sistemi AI, la CPU รจ un componente fondamentale per installare con efficacia soluzioni per la gestione di molteplici scenari. Intel Xeon fornisce un’ottima soluzione per l’inferenza AI, tra cui il machine learning classico e lโ€™embedding della ricerca vettoriale. Con MLPerf Inference v4.1, Intel ha presentato i processori Intel Xeon di quinta generazione e i processori Xeon 6 con P-Core su ResNet50, RetinaNet, 3DUNet, BERT, DLRM v2 e GPT-J. Rispetto a Intel Xeon di quinta generazione, Xeon 6 offre in media prestazioni di inferenza AI circa 1,9 volte piรน elevate in questi sei benchmark. Intel continua a essere l’unico fornitore di processori per server a sottoporre CPU ai benchmark MLPerf.

Nel corso degli ultimi quattro anni, da quando ha partecipato per la prima volta ai benchmark MLPerf, Intel ha fatto notevoli progressi nelle prestazioni AI delle proprie CPU. Rispetto ai processori Intel Xeon Scalable di terza generazione del 2021, Xeon 6 offre prestazioni fino a 17 volte superiori nell’elaborazione del linguaggio naturale (BERT) e fino a 15 volte superiori nei carichi di lavoro di computer vision (ResNet50). Intel continua a investire nell’AI per la propria roadmap di CPU. Ad esempio, continuando a innovare con Intel Advanced Matrix Extensions (AMX) attraverso nuovi tipi di dati e una maggiore efficienza.

I piรน recenti benchmark MLCommons evidenziano come i processori Xeon forniscano potenti soluzioni AI CPU per i server agli OEM. Via via che crescono le esigenze di elaborazione AI e molti clienti eseguono carichi di lavoro AI insieme ai loro carichi di lavoro aziendali, gli OEM stanno dando prioritร  ai processori sottoposti ai benchmark MLPerf per garantire di fornire ai clienti sistemi Xeon altamente performanti ottimizzati per carichi di lavoro AI. Intel ha sostenuto cinque partner OEM: Cisco, Dell Technologies, HPE, Quanta e Supermicro, con le loro proposte MLPerf in questo round. Ogni cliente si รจ presentato ai benchmark MLPerf con processori Xeon Scalable di quinta generazione, mostrando come i loro sistemi supportano una varietร  di carichi di lavoro e installazioni AI.

Intel fornirร  maggiori informazioni sui processori Xeon & con P-core in occasione di un lancio di prodotto il mese prossimo.

Intel