業界特化型 技術・製品情報サイト
  • MONOist
  • EE Times Japan
  • EDN Japan
  • スマートジャパン
  • BUILT

日本アイ・ビー・エム株式会社

製品資料

日本アイ・ビー・エム株式会社

PCIeより2.5倍高速にGPU-CPU接続。NVLink搭載サーバの実力

AIの実践のための具体的な手法として注目されるディープラーニング。しかし、ビジネスで活用するには多段階にわたる膨大な処理を実行できる高度なノウハウと回答精度の向上が不可欠だ。活用を容易にする方法はないのだろうか。

コンテンツ情報
公開日 2017/05/18 フォーマット PDF 種類

製品資料

ページ数・視聴時間 4ページ ファイルサイズ 1.8MB
要約
 近年注目されるディープラーニングは、回答の精度を上げるために極めて高い計算処理性能を必要とするニューラルネットワークを何階層も構築するとともに、各階層の間で処理結果のやりとりが必要になる。このような多段階にわたる膨大な処理を通常のIT環境で実行するには特殊な計算モデルを設計する必要があり、高度なノウハウが不可欠であった。

 このようなディープラーニングの課題を、圧倒的な性能によって解決するべく誕生したシステムがある。このシステムは、メモリチップの積層化技術や高度集積実装技術によりニューラルネットワークの学習パフォーマンスを従来の10倍以上に向上させるNVIDIAの最新アクセラレーター「Tesla P100 GPU」を組み込み型で搭載するとともに、新技術「NVLink」によって高性能PCUとのGPU-CPU間の高速接続を実現している。

 このシステムならば、x86サーバにおけるGPUとCPUの接続でボトルネックとなっていたPCIeの帯域幅に制限されることなく、2.5倍強もの高速アクセスが可能になる。特注品ではなく汎用製品として利用可能で、ディープラーニングのビジネス活用を身近にする、この新技術を詳しく見ていこう。