NVIDIAのGPUを利用できるConoHa for AIがリリース
NVIDIAのGPU、NVIDIA H100/NVIDIA L4を利用できる仮想サーバー「ConoHa for AI」。その特徴や利用方法、プランを比較します。
ConoHa VPSに「GPUサーバー」が登場しています。
Conoha VPSにNVIDIA GPUが使える「GPUサーバー」インスタンスが追加
VPSサービスのConoha VPSは、NVIDIA GPUが使える「GPUサーバー」インスタンスサービスを追加しました。「NVIDIA H100」と「NVIDIA L4」の二つのタイプから選ぶことができます。
ConoHa for AIとは?
VPSなどの仮想サーバータイプのサービスで、大規模言語モデルや生成系AIのモデルを自ら構築する、もしくはAIを運用するサーバーとして使いたいといった、AIを利用したい企業、個人向けに提供されます。
同社のVPSサービス・ConoHa VPSとの大きな違いはNVIDIAの最新GPU機能を搭載している点ですが、AIに関連する作業をする前提となっていため、CPUやメモリのスペックも、ConoHa VPSとは比較にならないほど高スペックなサーバーとなっています。
似たような国内サービスでは、同じくVPSサーバーなどを手がけるNTTPCの「WebARENA IndigoGPU」があります。
WebARENA IndigoにNVIDIA A100/A4000が使えるGPUプランが登場
WebARENA Indigoに、2022年8月9日からディープラーニングでの使用を想定したGPUプランが登場しました。NVIDIAのGPU・A100/A4000が使える仮想インスタンスサービスです。
まずは無料トライアルからスタート
ConoHa for AIは、2023年6月の発表時点では、「新機能の動作検証およびフィードバック収集を目的として、開発中サービスを実験的にトライアル版として提供」となっているため、正式なサービスリリースではありません。
利用するには公式ページからトライアルの申し込みをし、ConoHa側での審査を経てサーバーが開放されるという流れになっています。
サービスイン時期については「2023年内の正式版サービス提供を目指す」としています。
ConoHa for AIのプラン
ConoHa for AIには、搭載しているGPUカードの性能で二つのプランが用意されています。
GPUカード | NVIDIA L4 Tensor コア GPU | NVIDIA H100 Tensor コア GPU |
---|---|---|
GPUカード搭載数 | 1 | 1 |
GPU搭載メモリ | 24GB | 80GB |
vCPU | 20vCPU | 22vCPU |
メモリ | 128GB | 228GB |
OS | Ubuntu 22.04LTS | Ubuntu 22.04LTS |
ブロックストレージ | 1TB | 1TB |
root権限 | ○ | ○ |
データセンター | 日本 | 日本 |
ピーク単精度演算性能FP32 | 30.3 TFLOPS | 51 TFLOPS |
ピークTensor演算性能FP16Tensor性能 | 242 TFLOPS※ | 1513 TFLOPS※ |
日本国内のサーバー事業者としては、NVIDIA L4、NVIDIA H100搭載サーバーを提供するのは初で、海外ではGoogle Cloudが同じくNVIDIAとの協業で同等のサーバーをリリースしています。
ただし、トライアル版のサーバースペックとしているため、正式リリース時にはスペック変更される可能性はあります。
価格は記載がある場合を除き、すべて税込みです。