Apple использует разработки Google при обучении своих больших языковых моделей

Apple использует разработки Google при обучении своих больших языковых моделей

Возможно, компания Apple в будущем будет полагаться на серверные процессоры собственной разработки при развитии своих систем искусственного интеллекта, но пока она вынуждена пользоваться оборудованием от сторонних разработчиков.

Компания Apple предпочла разработки от Google, а не от лидера рынка Nvidia, и использует для обучения своих моделей искусственного интеллекта тензорные процессоры Google. Это стало известно из пояснительной записки Apple, опубликованной в минувший вторник.

Документ содержал конфигурации вычислительных кластеров, которые применяются для обучения LLM (Large Language Model) или больших языковых моделей. На LLM будет основана технология Apple Intelligence, рабочая версия которой уже функционирует на части устройств. В этом документе Apple не заявляла прямо об отказе от использования чипов Nvidia, но важно, что упоминания этого производителя полностью отсутствуют, при этом указано, что для обучения ИИ-моделей будут применяться два разных типа тензорных процессоров (TPU), организованных в разветвленные сети.

Apple использовала формулировку «облачные кластеры на основе TPU», а именно такое название дала компания Google своим тензорным процессорам. Оказалось также, что помимо применения этих процессоров Apple косвенно заявила о пользовании арендованными облачными вычислительными ресурсами «Гугл». Что вполне нормально для этапа разработки ИИ-модели и, конечно, ситуация может поменяться, когда Apple будет владеть уже собственными технологиями.

Large language model, которая разрабатывается для установки на iPhone и другие устройства Apple, проходила обучение на облачном кластере из 2048 процессоров Google серии TPUv5p, являющейся на данный момент самой современной. ИИ-модель, которая будет работать на серверах, проходила обучение на кластере из 8192 чипов серии TPUv4. Известно, что есть возможность арендовать такие кластеры у «Гугл» по цене $2 за час использования одного чипа при предварительном резервировании на 3 года. TPU этих серий появились в 2015 году, тогда «Гугл» использовала их для внутренних нужд, а для пользователей чипы стали доступны в 2017 году.  Однако «Гугл» не распространяет их как отдельные продукты, пользователям даётся доступ к облаку Google Cloud Platform, через которое клиенты могут заниматься разработкой ПО, используя названные процессоры. Даже сегодня эти TPU не потеряли своего первенства и являются одними из самых сложных специализированных чипов для обучения ИИ.

«Гугл» при этом в обучении собственных языковых моделей пользуется не только чипами собственной разработки, но и использует процессоры Nvidia.

Читайте в блоге:

Что будем искать? Например,VPS-сервер

Мы в социальных сетях