AIのビジネス活用が進む中、課題となっているのが「GPUの調達」と「サーバの排熱」だ。陳腐化の早いGPUは減価償却期間が短く設定される傾向にあるため、レンタルサービスにおけるGPU価格は高騰しやすい。そのためオンプレミス回帰が進んでいるが、これにはサーバの排熱という別の問題もある。既存データセンターは空調による冷却方式を採用しているため、TDP300ワットを超えるサーバを十分に冷却できないのが現実だ。
そこで注目したいのが、GPUを搭載した高発熱サーバに対応可能なデータセンターサービスだ。「液冷方式」により、1ラック当たり最大80キロワットもの電力消費に対応。サーバルーム全体を液冷化する「買い切り型」とは異なり、1ラックから利用可能だ。
またデータセンターのエネルギー消費効率の指標であるPUEが、従来の場合約1.7であることに対し、同サービスでは1.15と電力使用効率が高く、大幅な省エネ効果が期待できる。資源エネルギー庁のベンチマーク制度における指針であるPUE1.4をクリアするとともに、100%再生可能エネルギーを利用しているため、CO2排出量が実質ゼロとなり、脱炭素の面でも有効なアピールポイントとなっている。