GPU (Graphics Processing Unit)は、これまではゲームなどで3D Graphicsを高速処理する用途やスーパーコンピューターなどの高性能な演算などを主要な用途としてきましたが、行列計算を並列処理することに最適化されたプロセッサのため、「ディープラーニング」をはじめとするニューラルネットワークをベースとするAI (人工知能) にも適しているということで、AI関連のバズワードのひとつになってきています。

まずは、NVIDIA・GPUとAIとの関連を紹介した後に、各種クラウドでのGPU利用環境についてオンラインメディアの記事をピックアップして紹介します。

 

「AI時代はCPUからGPUへ」自動運転やロボット開発にも〜ディープラーニングにGPUが向いている理由 〜NVIDIAと機械学習〜

GPUの代表的なメーカであるNVIDIA(エヌビディア)は、ビジュアルコンピューティング・カンパニーから”AIコンピューティング・カンパニー”へと変革するとも宣言していますが、同社はもともと半導体メーカーで、最も有名な商品は「GeForce」シリーズのビデオカードであるビジュアルコンピュータティングの世界では屈指の知名度を持つ企業です。

ディープラーニングには膨大な「行列演算」処理が必要となり、これはグラフィックスで培ってきた行列演算の処理技術と同じで、CPUに比べて、高度なグラフィック演算のために開発された「GPU」は行列演算の処理速度がおおまかな目安でCPUの10倍以上、はるかに高速化されます。

そのため、企業がディープラーニングのシステムを開発したり、導入しようとする際、ディープラーニングで機械学習を行う「トレーニング」に関わる演算に大量の行列演算が必要となりますがCPUと比較して、はるかに行列演算には強いGPUを活用することで、比較的安価で手軽なのに高速なディープラーニング・システムの構築が可能になるために、GPU、NVIDIAがAI関連トピックスで注目をあびていることを解説してくれている記事です。

 

Googleのクラウドサービス「GCP」と「CLM」でGPUインスタンスが利用可能に

Googleは2月21日、「Google Compute Engine(GCP)」と「Cloud Machine Learning(CML)」のVMにおいて、NVIDIA Tesla K80のGPUインスタンスが利用可能になったと発表しました。1つのVMでは最大8GPUを利用できる。ただし、利用できるのは、us-east1、asia-east1、europe-west1の3つのデータセンターのみ。

GPUインスタンスでは、TensorFlow, Theano, Torch、MXNet、Caffeといった機械学習やディーラーニング向けの各フレームワークに加え、GPUアクセラレーションアプリケーション構築用のNVIDIACUDAをサポートする。

これで、AWS、Azureに続いて、主要クラウド環境で、GPUが利用できるようになったことを紹介してくれている Internet watchの記事です。

 

グーグルもGPUクラウドに参入、4社のコスパ比較

ITproのニュース解説記事です。2月21日にGoogleが発表したGPUの料金は、1GPUの利用価格は0.7ドル/時間から。仮想マシンの価格を含めても、TeslaシリーズのGPUを時間単位で提供できるサービスの中では、単精度1テラFLOPS当たりの価格は最安値となる見通しとのことで、各クラウドサービスでのGPUの料金を比較表にまとめて見せてくれています。

また、一時的に、数十台以上という規模でGPUを利用したいという用途には、スーパーコンピューターを利用するという環境も利用しやすくなっているとのこと。

東京工業大学のGPUスパコン「TSUBAME3.0」が2017年夏に稼働。さらに2017年末には、産業技術総合研究所が構築する「AI橋渡しクラウド(ABCI)」が完成する見込みであり、利用申請から半年はかかっていたスーパーコンピューター環境が、一ヶ月程度で利用可能となる環境もまもなく身近なものとなりそうです。

 

RettyはAI基盤をアキバで調達

ITproの記事です。実名型口コミのグルメ情報サービスRetty(レッティ)の、独自のAI開発への取り組みとして、秋葉原でGPUパーツを購入して自作PCにGPUアクセラレータを組み込むことにより、低価格でAI基盤を作り上げている例を紹介しています。

まだ、進化途中のAI基盤は、さまざまな方向からの進化を続けそうです。