Компанія Apple повідомила, що моделі штучного інтелекту, які лежать в основі Apple Intelligence, були попередньо навчені на процесорах, розроблених Google. Це свідчить про те, що великі технологічні компанії шукають альтернативи NVIDIA, коли йдеться про навчання передового ШІ. Про це повідомляє CNBC.
Вибір Apple було детально описано в технічному документі, щойно опублікованому компанією.
Apple не називає Google або NVIDIA, але повідомляє, що її Apple Foundation Model (AFM) і сервер AFM навчаються на кластерах Cloud TPU. Це означає, що Apple орендувала сервери у хмарного постачальника для виконання обчислень.
«Ця система дозволяє нам навчати моделі AFM ефективно та з можливістю масштабування, включаючи моделі AFM на пристрої, AFM-сервер і більші моделі», — йдеться у статті.
Представники Apple і Google не відповіли на запити про коментарі.
Протягом наступного року Apple планує розгорнути функції на основі генеративного ШІ. Зокрема, генерацію зображень, генерацію емодзі та посилену Siri, яка може отримувати доступ до особистої інформації користувача та виконувати дії всередині програм.
У статті за понеділок Apple заявила, що AFM на пристрої навчено на одному «зрізі» 2048 чипів TPU v5p, які працюють разом. Це найдосконаліший TPU, вперше представлений у грудні.
Відповідно до статті, AFM-сервер був навчений на 8192 мікросхемах TPU v4, які були налаштовані на спільну роботу як 8 сегментів у мережі центру обробки даних.
Це другий технічний документ про систему штучного інтелекту від Apple після публікації більш загальної версії в червні. Тоді Apple заявила, що використовує TPU під час розробки своїх моделей AI.
Згідно з даними вебсайту Google, найновіші TPU від Google коштують менше $2 за годину використання чипа при бронюванні на 3 роки вперед.
Google вперше представив свої TPU у 2015 році для внутрішніх робочих навантажень і зробив їх доступними для всіх у 2017 році.
Тим не менш, Google є одним із головних клієнтів NVIDIA. Компанія використовує графічні процесори NVIDIA і власні TPU для навчання систем ШІ, а також продає доступ до технології NVIDIA у своїй хмарі.
Дорогі графічні процесори (GPU) NVIDIA домінують на ринку високоякісних навчальних чипів ШІ. Протягом останніх кількох років вони користувалися таким високим попитом, що їх було важко придбати в необхідних кількостях.
OpenAI та Microsoft Anthropic використовують графічні процесори NVIDIA для своїх моделей, а інші технологічні компанії, зокрема Google, Meta, Oracle Tesla, використовують їх для створення своїх систем штучного інтелекту й інших пропозицій.
Раніше ми повідомляли, що на своїй щорічній конференції I/O Google представила новий чип Trillium для навчання та запуску базових великих мовних моделей (LLM), таких як Gemma та Gemini.
Trillium — це шоста ітерація Tensor Processing Unit від Google, яка на 67% енергоефективніша та майже у 5 разів швидша за свого попередника TPU v5.
Google планує використовувати Trillium у своєму гіперкомп’ютері зі штучним інтелектом, суперкомп’ютерній архітектурі, розробленій для найсучасніших робочих навантажень, пов’язаних із ШІ, і зробить чипи доступними для підприємств вже до кінця цього року.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!