NVIDIA анонсирует графический процессор для ChatGPT Hopper H100 NVL с 94 ГБ памяти HBM3 и новыми возможностями AI/ML
Компания NVIDIA анонсировала выпуск своего первого официального графического процессора для ChatGPT Hopper H100 NVL. Эта графическая карта PCIe питается от графического процессора NVIDIA Hopper и оснащена межсетевым соединением NVLINK, которое связывает два графических процессора. Каждый из чипов имеет 94 ГБ памяти HBM3e, что позволяет графическому процессору обрабатывать до 175 миллиардов параметров ChatGPT на ходу. Если использовать четыре таких графических процессора на одном сервере, то можно достичь до 10-кратного увеличения скорости по сравнению с традиционным сервером DGX A100, который оснащен 8 графическими процессорами.
Однако, по сравнению с конфигурацией H100 SXM5, конфигурация H100 PCIe имеет урезанные характеристики. Это включает 114 включенных SM из полных 144 SM графического процессора GH100 и 132 SM на H100 SXM. Карта PCIe также имеет более низкую пиковую вычислительную мощность, что требует работать на более низких тактовых частотах и имеет TDP 350 Вт по сравнению с двойным TDP 700 Вт варианта SXM5. Однако карта PCIe сохраняет свои 80 ГБ памяти с 5120-битным шинным интерфейсом, но в варианте HBM2e, обеспечивающей пропускную способность более 2 ТБ/с.
По данным NVIDIA, H100 PCIe рассчитан на 48 TFLOP операций с несколькими параметрами FP32 TFLOP, тогда как MI210 имеет пиковую расчетную мощность FP32 в 45,3 TFLOP. Кроме того, с операциями разреженности и тензора H100 может выдавать до 800 TFLOP мощности FP32. H100 также имеет больший объем памяти 80 ГБ по сравнению с 64 ГБ на MI210. Вероятно, NVIDIA будет взимать дополнительную плату за более высокие возможности искусственного интеллекта и машинного обучения.
Купить комплектующие для ПК можно по ссылке у нашего партнера
Добавить комментарий