資料の紹介
計算力学や人工知能(AI)などの領域は、膨大な量のデータを高速に処理できる「High Performance Computing(HPC)」なしには成り立たない。そのHPCサーバーに求められる最も基本的な要件の一つはプロセッサの高速性だが、それだけでは不十分だ。
x86サーバーの多くは、CPUに搭載したPCI Express(PCIe)でGPUとの間を接続し、GPUとGPUの間は専用のインターコネクトでつなぐ方式を採用している。しかしこの方式では、CPUとメモリー、GPUとGPUの間ではデータを高速にやり取りできるが、CPUとGPUの間がボトルネックになり、全体の処理性能が低下してしまう。
本資料では、GPU用のインターコネクトをCPUに内蔵することで、このボトルネックを解消した最新の超高速サーバーを紹介する。CPUとGPUの間で、GPU/GPU間と同じ双方向80GB/sの帯域幅を確保することで、帯域幅が従来の2.5倍になり、“待ち合わせ”による効率低下の影響を最小限に抑えられる。