生成AIに最適なパフォーマンスGPU
NVIDIA HGX™ H200
東北電力のGPUクラウドサービスでご利用いただけます。
LLama2 70B 推論
1.9倍の高速化
GPT3-175B 推論
1.6倍の高速化
高性能コンピューティング
110倍の高速化

NVIDIA Hopper™ アーキテクチャをベースとする NVIDIA H200 は、毎秒 4.8 テラバイト (TB/s) で
141 ギガバイト (GB) の HBM3e メモリを提供する初の GPU です。
これは、NVIDIA H100 Tensor コア GPU の約 2 倍の容量で、メモリ帯域幅は 1.4 倍です。
H200 の大容量かつ高速なメモリは、生成 AI と LLM を加速し、エネルギー効率を向上させ、総所有コストを低減し、HPC ワーク
ロードのための科学コンピューティングを前進させます。
![]()
| 項目 | NVIDIA H200 (SXM※1) |
|---|---|
| CPUメモリ | 141 GB |
| GPU メモリ帯域幅 | 4.8 TB/秒 |
| FP64 | 34 TFLOPS |
| FP64 Tensorコア | 67 TFLOPS |
| FP32 | 67 TFLOPS |
| T32 Tensorコア※2 | 989 TFLOPS |
| BFLOAT16 Tensorコア※2 | 1,979 TFLOPS |
| FP16 Tensorコア※2 | 1,979 TFLOPS |
| FP8 Tensorコア※2 | 3,958 TFLOPS |
| INT8 Tensorコア※2 | 3,958 TFLOPS |
※1仕様は変更される場合があります
※2疎性あり
![]()
| 項目 | 性能 |
|---|---|
| GPU | NVIDIA H200 4基 |
| GPU間通信 | 900Gbps(NVLink・NVSwitch) |
| CPU | 2〜3.8GHz相当 |
| システムメモリ | 最大1TB |
| ストレージ | 2TB |
| 外部ネットワーク | 1Gbps(100Mbps帯域保証) |
※仕様は変更される場合があります