EuroWire , Сан-Франциско : 26 января Microsoft представила Maia 200, второе поколение своего собственного ускорителя искусственного интеллекта, предназначенного для запуска моделей ИИ в производственной среде в центрах обработки данных Azure. Компания заявила, что Maia 200 разработана для этапа вывода, на котором обученные модели генерируют ответы на запросы в реальном времени, и будет использоваться для поддержки ряда сервисов Microsoft в области ИИ.

По данным Microsoft , чип Maia 200 производится по 3-нанометровому техпроцессу TSMC и содержит более 140 миллиардов транзисторов. В вычислительных задачах используется новая система памяти, включающая 216 гигабайт высокоскоростной памяти HBM3e и около 272 мегабайт встроенной SRAM, предназначенная для поддержки крупномасштабной генерации токенов и других ресурсоемких задач вывода данных.
Microsoft заявила, что Maia 200 обеспечивает производительность более 10 петафлопс при 4-битной точности и около 5 петафлопс при 8-битной точности — форматах, обычно используемых для эффективного запуска современных систем генеративного ИИ . Компания также сообщила, что система рассчитана на энергопотребление в 750 Вт и имеет масштабируемую сеть, позволяющую объединять чипы для более масштабных развертываний.
Компания сообщила, что новое оборудование начало подключаться к дата-центру Azure US Central в штате Айова, а также планируется запуск еще одного центра в Аризоне. Microsoft назвала Maia 200 своей самой эффективной системой вывода данных, развернутой на сегодняшний день, отметив 30-процентное повышение производительности на доллар по сравнению с существующими системами вывода данных.
Фокус на выводе ИИ и развертывании в Azure.
Компания Microsoft заявила, что Maia 200 предназначена для поддержки продуктов и сервисов в области искусственного интеллекта, которые зависят от большого объема выполнения моделей с низкой задержкой, включая рабочие нагрузки, работающие в Azure и собственных приложениях Microsoft. Компания сообщила, что разработала чип и окружающую систему в рамках комплексного инфраструктурного подхода, включающего в себя кремниевые компоненты, серверы, сетевое оборудование и программное обеспечение для развертывания моделей ИИ в масштабе предприятия.
Одновременно с выпуском чипа Microsoft объявила о предоставлении раннего доступа к комплекту разработки программного обеспечения Maia для разработчиков и исследователей, работающих над оптимизацией моделей. Компания заявила, что эти инструменты призваны помочь командам компилировать и настраивать модели для систем на базе Maia и структурированы таким образом, чтобы соответствовать распространенным рабочим процессам разработки ИИ, используемым для развертывания инференции в облаке.
Заявления о производительности и поддержка моделей
Microsoft заявила, что Maia 200 предназначена для запуска больших языковых моделей и сложных систем логического мышления, и что она будет использоваться для внутреннего и облачного развертывания моделей в Azure. Компания позиционирует чип как ускоритель вывода данных в производственной среде, отличая его от систем, ориентированных на обучение, которые обычно используются для создания моделей перед развертыванием.
Microsoft ускорила разработку специализированных микросхем в связи с ростом спроса на вычислительные мощности для обслуживания приложений генеративного ИИ, где стоимость и доступность ускорителей могут влиять на скорость масштабирования сервисов. Maia 200 является продолжением Maia 100, представленной Microsoft в 2023 году, и представляет собой последнюю версию линейки специализированных ускорителей ИИ для обработки данных в центрах обработки данных.
Статья «Maia 200 расширяет возможности Microsoft Azure благодаря новому процессору для выполнения задач искусственного интеллекта» впервые появилась на сайте Manchester Examiner .
