Intel Xeon 6 oferă până la 17 ori câștiguri de performanță AI în 4 ani de rezultate MLPerf

Recent, MLCommons a publicat rezultatele suitei sale de benchmark-uri de performanță AI standard, MLPerf Inference v4.1. Intel a prezentat rezultate pentru șase benchmark-uri MLPerf pentru procesoarele Intel® Xeon® scalabile din a 5-a generație și, pentru prima dată, procesoarele Intel® Xeon® 6 cu nuclee de performanță (P-cores). Procesoarele Intel Xeon 6 cu nuclee P au obținut o îmbunătățire a performanței geomean de aproximativ 1,9 ori în ceea ce privește performanța AI, comparativ cu procesoarele Xeon din a 5-a generație.

Intel Xeon oferă o soluție excelentă pentru inferența AI, inclusiv învățarea automată clasică și încorporarea căutării vectoriale.

Cu MLPerf Inference v4.1, Intel a prezentat procesoare Intel Xeon din a 5-a generație și procesoare Xeon 6 cu P-Coes pe ResNet50, RetinaNet, 3DUNet, BERT, DLRM v2 și GPT-J. În comparație cu Intel Xeon de a 5-a generație, Xeon 6 oferă o medie de aproximativ 1,9 ori mai bună performanță a inferenței AI în aceste șase standarde. Intel continuă să fie singurul furnizor de procesoare de server care a trimis rezultatele CPU către MLPerf.

În ultimii patru ani, Intel a înregistrat câștiguri semnificative în ceea ce privește performanța AI cu procesoare de la prima prezentare a rezultatelor MLPerf. Comparativ cu procesoarele Intel® Xeon® Scalable din generația a 3-a din 2021, Xeon 6 are performanțe de până la 17 ori mai bune în ceea ce privește procesarea limbajului natural (BERT) și de până la 15 ori mai bune în ceea ce privește volumele de lucru de viziune computerizată (ResNet50). Intel continuă să investească în AI pentru foaia sa de parcurs privind procesoarele. Ca exemplu, continuă să inoveze cu Intel® Advanced Matrix Extensions (AMX) prin noi tipuri de date și eficiență sporită.

Cele mai recente benchmark-uri MLCommons evidențiază modul în care procesoarele Xeon oferă soluții puternice de servere CPU AI producătorilor de echipamente originale (OEM). Pe măsură ce nevoia de calcul AI crește și mulți clienți rulează încărcături de lucru AI împreună cu sarcinile de lucru ale companiei, OEM-urile acordă prioritate trimiterilor MLPerf pentru a se asigura că oferă clienților sisteme Xeon de înaltă performanță, optimizate pentru sarcinile de lucru AI.

Intel a sprijinit cinci parteneri OEM – Cisco, Dell Technologies, HPE, Quanta și Supermicro – cu trimiterile lor MLPerf în această rundă. Fiecare client a trimis rezultate MLPerf cu procesoare scalabile Xeon din a 5-a generație, afișând suportul sistemelor lor pentru o varietate de sarcini de lucru și implementări AI.

Pentru mai multe informații contactați un expert ASBIS