英偉達(dá)A800|NVIDIA A800
英偉達(dá)A800|NVIDIA A800 Tensor Core GPU - 6912個(gè) NVIDIA CUDA 核數(shù),40/80GB GDDR6 顯存,最 大功耗 300瓦;PCI Express 4.0 x16;無(wú)顯示輸出接口;雙槽全高全長(zhǎng);3年質(zhì)保
咨詢熱線:
18888850905
400-108-1101
內(nèi)容介紹
/ introduce
一、概況
NVIDIA A800是由英偉達(dá)公司生產(chǎn),專為高性能計(jì)算和人工智能工作負(fù)載而設(shè)計(jì)的專業(yè)顯卡,具有強(qiáng)大的計(jì)算能力和豐富的技術(shù)規(guī)格。
新的A800可以替代A100,兩者都是GPU(圖形處理單元)處理器。 英偉達(dá)A800 GPU PCIe 版本的 技術(shù)參數(shù)數(shù)據(jù)略低于NVIDIA A100,數(shù)據(jù)傳輸速率為每秒400GB,而A100的每秒600GB,因此與A100相比其性能略有降低;但其他參數(shù)變化不大。
二、特性
NVIDIA AMPERE 架構(gòu)
無(wú)論是使用 MIG 將 A800 GPU 分割為較小的實(shí)例,還是使用 NVLink連接多個(gè) GPU 來(lái)加速大規(guī)模工作負(fù)載,A100 均可輕松滿足不同規(guī)模的加速需求,從小型作業(yè)到大型多節(jié)點(diǎn)工作負(fù)載無(wú)一例外。A800 功能全面,這意味著 IT 經(jīng)理可借此全天候充分利用數(shù)據(jù)中心內(nèi)的每個(gè) GPU。
第三代 TENSOR CORE 技術(shù)
NVIDIA A800 的深度學(xué)習(xí)運(yùn)算能力可達(dá) 312 teraFLOPS(TFLOPS)。其深度學(xué)習(xí)訓(xùn)練的Tensor 每秒浮點(diǎn)運(yùn)算次數(shù)(FLOPS)和推理的 Tensor 每秒萬(wàn)億次運(yùn)算次數(shù)(TOPS)皆為NVIDIA Volta GPU 的 20 倍。
新一代 NVLINK
A800 中采用的 NVIDIA NVLink可提供兩倍于上一代的吞吐量。與 NVIDIA NVSwitch 結(jié)合使用時(shí),此技術(shù)可將多達(dá) 16 個(gè) A800 GPU 互聯(lián),并將速度提升至 600GB/s,從而在單個(gè)服務(wù)器上實(shí)現(xiàn)應(yīng)用性能。NVLink 技術(shù)可應(yīng)用在 A800 中:SXM GPU 通過(guò) HGX A100 服務(wù)器主板連接,PCIe GPU 通過(guò) NVLink 橋接器可橋接多達(dá) 2 個(gè) GPU。
多實(shí)例 GPU (MIG)
一個(gè) A800 GPU 可分割成七個(gè)GPU 實(shí)例,這些實(shí)例在硬件級(jí)別完全獨(dú)立,并獨(dú)自擁有高帶寬顯存、緩存和計(jì)算核心。借助 MIG,開(kāi)發(fā)者可為其所有應(yīng)用實(shí)現(xiàn)驚人加速,IT 管理員也可為每個(gè)作業(yè)提供符合其規(guī)模的 GPU 加速,進(jìn)而優(yōu)化GPU 利用率,并讓每個(gè)用戶和應(yīng)用都能使用 GPU實(shí)例。
高帶寬顯存(HBM2E)
憑借 80GB 的高帶寬顯存(HBM2e),A800 成為顯存帶寬提升至超過(guò) 2TB/s 的GPU,并將動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器(DRAM)的利用效率提高至 95%。A800 提供的顯存帶寬是上一代產(chǎn)品的 1.7 倍。
結(jié)構(gòu)化稀疏
AI 網(wǎng)絡(luò)擁有數(shù)百萬(wàn)至數(shù)十億個(gè)參數(shù)。實(shí)現(xiàn)準(zhǔn)確預(yù)測(cè)并非要使用所有參數(shù),而且我們還可將某些參數(shù)轉(zhuǎn)換為零,以在無(wú)損準(zhǔn)確性的前提下使模型變得“稀疏”。A800 中的 Tensor Core 可令稀疏模型的性能獲得高達(dá)兩倍的提升。稀疏功能不僅更容易使 AI 推理受益,同時(shí)還能提升模型的訓(xùn)練性能。
NVIDIA A800 Tensor Core GPU 是 NVIDIA 數(shù)據(jù)中心平臺(tái)的旗艦產(chǎn)品,可用于深度學(xué)習(xí)、HPC 和數(shù)據(jù)分析。該平臺(tái)可為 2000 余款應(yīng)用和各大深度學(xué)習(xí)框架提供加速。A800適用于桌面、服務(wù)器以及云服務(wù),不僅能提升性能,還能創(chuàng)造眾多節(jié)約成本的機(jī)會(huì)。
三、規(guī)格
FP64
|
9.7 TFLOPs
|
FP64 Tensor Core
|
19.5 TFLOPS
|
FP32
|
19.5 TFLOPS
|
Tensor Float 32 (TF32)
|
156 TFLOPS?|?312 TFLOPS*
|
BFLOAT16 Tensor Core
|
312 TFLOPS?|?624 TFLOPS*
|
FP16 Tensor Core
|
|
INT8 Tensor Core
|
624 TOPS?|?1248 TOPS*
|
GPU Memory
|
|
GPU Memory Bandwidth
|
A800 40GB GPU PCIe : 1,555GB/s
A800 80GB GPU PCIe : 1,935GB/s
A800 80GB GPU SXM : 2,039GB/s
|
Max Thermal Design Power (TDP)
|
|
Multi-Instance GPU
|
-
A800 40GB GPU PCIe : Up to 7 MIGs @ 5GB
A800 80GB GPU PCIe : Up to 7 MIGs @ 10GB
A800 80GB GPU SXM : Up to 7 MIGs @ 10GB
|
Form Factor
|
-
PCIe : NVIDIA® NVLink® Bridge for 2 GPUs: 400GB/s **
-
PCIe Gen4: 64GB/
-
SXM : NVLink: 400GB/s
-
PCIe Gen4: 64GB/s
|
Server Options
|
PCIe : Partner and NVIDIA-Certified Systems? with 1-8 GPUs
SXM : NVIDIA HGX? A800-Partner and NVIDIA-Certified Systems with 4 or 8 GPUs
|