Если вы продолжите пользоваться Веб-сайтом, не изменив настройки, то вы тем самым выражаете согласие на использование файлов cookie на Веб-сайте в соответствии с политикой использования файлов cookie, размещенной на сайте.

Новый ИИ-суперчип от Nvidia

Новый ИИ-суперчип от Nvidia

Nvidia представила свои последние достижения в области искусственного интеллекта, включая новый чип, который они считают "самым мощным в мире", а также "суперчип" и несколько модульных систем на его основе. Эти инновации предназначены для создания инфраструктуры, способной работать с моделями машинного обучения, содержащими триллионы параметров, и при этом потреблять гораздо меньше энергии, чем предыдущие модели семейства Hopper.

Корпорация Nvidia представила новые ускорители вычислений, основанные на архитектуре Blackwell, которая пришла на смену Hopper, анонсированной в марте 2022 года.

Этот чип представляет собой базу для создания высокопроизводительных систем, предназначенных для обучения и использования огромных моделей с триллионами параметров. Такие сложные модели могут применяться в различных областях, включая обработку естественного языка, создание мультимодальных приложений и кодогенерацию.

Новый GPU B200, продолжение востребованных на рынке моделей H100/H200, изготовлен по 4-нанометровой технологии TSMC и содержит 208 миллиардов транзисторов (по сравнению с 80 миллиардами у H100), что обеспечивает производительность на уровне 20 Петафлопс (FP4). Nvidia называет этот чип "самым мощным в мире" и "двигателем новой промышленной революции".

Помимо графических процессоров B200, Nvidia предлагает модули для создания и масштабирования ИИ-инфраструктуры. Например, модуль GB200, называемый "суперчипом", содержит два GPU B200 и центральный процессор Grace, соединенные шиной NVLink-C2C. Этот модуль обеспечивает высокую производительность, демонстрируя значительное улучшение по сравнению с предыдущими моделями.

Nvidia также предлагает серверы DGX Superpod на основе GB200, состоящие из восьми стоек NVL72. Эти системы обеспечивают огромную вычислительную мощность и могут быть использованы для различных задач машинного обучения.

Помимо этого, Nvidia обновила коммутаторы NVLink Switch, улучшив производительность обмена данными между GPU. Теперь они позволяют устройствам обмениваться данными на скорости до 1,8 ТБ/с, что повышает эффективность вычислений.

Крупные технологические компании, такие как Amazon, Google, Microsoft и Oracle, планируют использовать системы NVL72 в своих облачных вычислениях, согласно заявлению Nvidia.

С уважением, ООО "Компания "База Электроники"

Вернуться на главную