华硕 旗下伺服器 将支援NVIDIA Tesla GPU

近年来 AI 人工智慧演进已持续将资料转为有意义的见解、服务及科学突破,推动 AI 革命的神经网路规模亦有大幅成长,例如目前用于语言翻译的 Google MOE 神经网路模型从两年前的 1 亿个参数进展到 80 亿个。为了因应 AI 人工智慧不断进化、成熟, 华硕 今日 (5/30) 宣布旗下 GPGPU 伺服器、通用伺服器均可支援最新 NVIDIA AI 人工智慧解决方案 Tesla GPU (Tesla V100 32GB 与 Tesla P4),将为使用者带来最极致的体验。

华硕 旗下伺服器 将支援NVIDIA Tesla GPU

此次 NVIDIA 新推出的 Tesla V100 具备 32GB 记忆体,可提升新一代 AI 模型深度学习效能达 50%,而 Tesla P4 为全球最快的深度学习推理 GPU,可减少 10 倍推理延迟,以及提供比 CPU 高出 40 倍的能源效率,安装于横向扩展伺服器上,能实现兼具智慧与互动性的 AI 服务应用。

华硕 旗下伺服器 将支援NVIDIA Tesla GPU

 

华硕的 GPGPU 伺服器及通用伺服器则是全面支援 Tesla V100 32GB、Tesla P4,其中 ESC8000 G4 可以支援 8 张 Tesla V100 32GB、ESC4000 G4 则是可以支援 4 张 Tesla V100 32GB 或 8 张 Tesla P4,至于 RS720-E9,则可支援 Tesla P4,透过绝佳的推理能力,满足各种 AI 负载需求。