Крупные производители серверов включают ускорители Nvidia Tesla V100 в системы для ИИ

Вчера компания Nvidia и ее партнеры — Dell EMC, Hewlett Packard Enterprise, IBM и Supermicro — анонсировали ряд серверов, в которых используются ускорители Tesla V100 на архитектуре Nvidia Volta. По словам Nvidia, это наиболее передовые GPU для искусственного интеллекта (ИИ) и других задач, связанных с интенсивными вычислениями.

Производительность Nvidia V100, в задачах глубокого обучения превышающая 120 терафлопс, позволяет ученым, исследователям и инженерам справляться с задачами, решение которых ранее считались слишком сложными или даже невозможным.

Список систем, представленных партнерами Nvidia, выглядит так:

Компания Dell EMC анонсировала модель PowerEdge R740 с поддержкой до трех GPU V100 для шины PCIe, модель PowerEdge R740XD с поддержкой до трех GPU V100 для PCIe и модель PowerEdge C4130 с поддержкой до четырех V100 для PCIe или четырех GPU V100 в форм-факторе SXM2 с интерфейсом Nvidia NVLink;

Компания HPE представила модели HPE Apollo 6500 и HPE ProLiant DL380 с поддержкой соответственно до восьми и до трех GPU V100 для PCIe;

Компания IBM объявила о грядущем выпуске серверов IBM Power Systems нового поколения на процессоре Power9 с поддержкой нескольких GPU V100 и технологии NVLink, используемой для подключений GPU-to-GPU и CPU-to-GPU (последний вариант взаимодействия является уникальным и доступен только в системах OpenPOWER);

Наконец, компания Supermicro представила линейку, которая включает рабочую станцию 7048GR-TR, серверы 4028GR-TXRT, 4028GR-TRT, 4028GR-TR2 и 1028GQ-TRT.

Графические процессоры V100 комплектуются оптимизированным для архитектуры Volta программным обеспечением: CUDA 9.0 и SDK для глубокого обучения, включая TensorRT 3, DeepStream и cuDNN 7, а также все основные каркасные библиотеки для приложений ИИ.

Теги:
Nvidia

Комментировать

↓