Intel

Intel, AMD, Microsoft e altri si uniscono per sviluppare “UALink”,

Il dominio di NVIDIA sull’interfaccia NVLink si scontra con la concorrenza di Intel, AMD, Microsoft e altri che si sono uniti per creare UALink. Non è la prima volta che i grandi colossi tecnologici si alleano contro NVIDIA per spezzare il suo monopolio sull’intelligenza artificiale: l’ultima volta è stato quando Intel ha dichiarato di avere in programma, insieme ad altri, di rovesciare il dominio di CUDA, ma guardate dove siamo arrivati. Partendo da questo presupposto, le principali aziende tecnologiche come Intel, AMD, Broadcom, Cisco, Google, HPE, Meta e Microsoft hanno deciso di formare un Ultra Accelerator Link Promoter Group con l’obiettivo di sviluppare un sistema di interconnessione incentrato sull’intelligenza artificiale e destinato specificamente ai data center. Il gruppo ha annunciato l’intenzione di sviluppare l’UALink (Ultra Accelerator Link), che mira a collegare gli acceleratori attraverso un protocollo aperto.

L’idea alla base di UALink è semplice. L’obiettivo non è solo quello di fornire un’alternativa a NVLink di NVIDIA, ma anche di offrire un’opzione più potente e accessibile attraverso una rete di acceleratori. Sappiamo tutti che NVIDIA è confinata al suo ecosistema e non permette il supporto di prodotti di più aziende, e questo è uno dei motivi per cui il Team Green è riuscito a ricevere il clamore che ha attualmente l’AI. Tuttavia, con UALink, la collaborazione si concentra sulla fornitura di una rete più scalabile e a prova di futuro, grazie all’ampia gamma di aziende coinvolte nel processo. Entrando un po’ nello specifico, UALink si baserà su un tessuto semantico di memoria, che contribuirà in modo massiccio alle prestazioni e alla scalabilità dell’ecosistema. Inoltre, il gruppo promotore di UALink prevede di rilasciare la specifica iniziale 1.0 entro il terzo trimestre del 2024. L’azienda afferma che la piattaforma sarà in grado di scalare fino a 1.024 acceleratori di intelligenza artificiale e un aggiornamento per aumentare la larghezza di banda è previsto per il quarto trimestre del 2024. La piattaforma servirà come interfaccia diretta di caricamento, memorizzazione e operazioni atomiche tra le GPU AI. Il ruolo di Ultra Ethernet per la distribuzione sarà cruciale anche in questo caso per la scalabilità e la connettività.

CPU Intel Panther Lake