Прискорювач глибокого навчання Intel Habana Gaudi2 і процесори Intel Xeon Scalable 4-го покоління продемонстрували захопливі результати тесту MLPerf Training 3.0. Тест, опублікований MLCommons, є широко визнаним галузевим стандартом продуктивності ШІ. Storage Review розбиралися, в чому переваги Intel.
Результати кидають виклик поширеному в галузі наративу про те, що генеративний штучний інтелект та великі мовні моделі (LLM) можуть працювати лише на графічних процесорах NVIDIA. Портфоліо рішень ШІ від Intel пропонує конкурентні альтернативи для клієнтів, які прагнуть відійти від закритих екосистем, що обмежують ефективність і масштабованість.
Що таке MLPerf?
Набір тестів MLPerf Training 3.0 вимірює швидкість, з якою різні системи можуть навчати моделі, щоб вони відповідали заданому показнику якості. Еталонні показники охоплюють різні сфери, зокрема бачення, мову та комерцію, і використовують різні набори даних і цілі якості.
Прискорювач глибокого навчання Gaudi2 показав високу продуктивність на великій мовній моделі GPT-3, що зробило його одним із двох напівпровідникових рішень, які представили результати продуктивності для навчання LLM GPT-3.
Gaudi2 також пропонує значні переваги у вартості сервера та системи, що робить його переконливою альтернативою за ціною/продуктивністю до моделі H100 від NVIDIA.
Процесори Xeon 4-го покоління з інтегрованими AI-двигунами показали, що клієнти можуть створювати універсальну систему ШІ для попередньої обробки даних, навчання моделей та забезпечують продуктивність, ефективність, точність і масштабованість ШІ.
Результати, отримані з використанням Gaudi2, свідчать про неабияку швидкість навчання моделі GPT-3, де вона досягла 311 хвилин з використанням 384 прискорювачів і показала майже лінійне масштабування на 95% при збільшенні кількості прискорювачів із 256 до 384. Також були продемонстровані високі результати навчання в моделях комп’ютерного зору й обробки природної мови.
Процесори Intel Xeon 4-го покоління – єдині процесори, представлені серед численних альтернативних рішень. Вони доводять, що Intel Xeon надають підприємствам готові можливості для впровадження ШІ в системах загального призначення, уникаючи витрат і складнощів, пов’язаних із впровадженням спеціалізованих систем штучного інтелекту.
У завданні опрацювання природної мови (NLP) з використанням набору даних Wikipedia і моделі BERT-large Gaudi2 досягла часу навчання 2.103 хвилини за участі 64 прискорювачів.
У завданні сегментації зображень (медичних) з використанням набору даних KiTS19 і моделі 3D U-Net Gaudi2 досягла часу навчання 16.460 хвилини з використанням TensorFlow і 20.516 хвилини з використанням PyTorch, обидва – з вісьмома прискорювачами.
У завданні рекомендацій з використанням набору даних Criteo 4TB і моделі DLRM-dcnv2 Gaudi2 досягла часу навчання 14.794 хвилини з використанням PyTorch і 14.116 хвилини з TensorFlow, обидва з вісьмома прискорювачами.
У закритому підрозділі Xeon 4-го покоління міг навчити моделі BERT і ResNet-50 менше ніж за 50 і менше ніж за 90 хвилин відповідно. З BERT у відкритому відділі Xeon навчив модель приблизно за 30 хвилин при масштабуванні до 16 вузлів.
Вплив на ринок
Результати Intel Habana Gaudi2 у тесті MLPerf Training 3.0 підкреслюють прагнення компанії надавати конкурентоспроможні й ефективні рішення штучного інтелекту для широкого спектру додатків – від центрів обробки даних до розумних пристроїв. NVIDIA наразі є лідером на ринку в цій галузі, і кожен виробник серверів прагне продемонструвати широкий вибір серверів, оптимізованих для роботи з навантаженнями ШІ.
Проте ці дані підтверджують, що штучний інтелект не є універсальним рішенням і Intel робить свій внесок, надаючи галузі різноманітні варіанти для вибору. Для організацій, які впроваджують ШІ, більше конкуренції та вибору – це позитивна тенденція.