Googleの最近のAI開発に関する話題になった3つのテーマに関する記事をピックアップして紹介します。

 

Google最新技術「BERT」と「東ロボ」との比較から見えてくるAIの課題

ハーバー・ビジネス・オンラインにフリーのITコンサルタント鳥谷氏が投稿している記事です。

GoogleのAIチームが先日発表した、ディープラーニングを使った自然言語処理の最新モデルがBERTが話題になっていますが、BERTおよび東ロボを題材にあげて、最近またよく見うけられる「AIが人類を超える日が近づいている」という声に対して、それは違うという説明をしている記事です。

BERT(Bidirectional Encoder Representations from Transformers )はディープラーニングを使った自然言語処理の最新の実装です。文書比較、質問回答、固有表現抽出など、11種類の自然言語処理ベンチマークで従来の記録を塗りかえました。SQuADというベンチマークシナリオでは人間を上回る精度を記録しています。これらの結果を、少ない学習データ環境で高い性能を出せるファインチューニングと呼ばれる実装で出した点も高く評価されています。

多様なベンチマークで従来の記録を上回る結果を叩き出しているだけでなく、人間を上回るベンチマークスコアを出したこともあり、「BERTの読解力が人間を上回った」とか、「AIが人類を超える日が近づいている」という声もまたメディアでもいろいろ見受けられるようになっています。

しかし、BERTが人間を上回るスコアを出したといっても、特定の定められたシナリオで人間より精度の高い結果を出した」に過ぎず、この結果を持って人間の汎用的な読解力と比較することは出来ないと解説してくれています。また、AI技術について『人間に選択肢決定の判断材料を提供する新しい道具』というのが今のAI技術に対する適切な位置付けとまとめてくれています。鉄道・自動車のような機械からコンピュータ・電卓のようなものまで、移動手段や計算速度としては人間を上回っても、人間の道具に過ぎないのと同じように、現在のAI技術は道具に過ぎず、それらをうまく使えるようになることが重要になるようです。

 

DeepMindのゲームAI「AlphaStar」、StarCraft IIでプロゲーマーに完勝。しかし条件平等化で1敗を喫す

engadget日本版の記事です。Google(Alphabet)傘下のAI開発子会社Deepmindが、囲碁AI「AlphaGo」で人間のチャンピオンを破った後、こんどはAIでコンピューターゲームに挑戦することにしている活動をレポートしています。

新たに開発されたAI「AlphaStar」は、リアルタイムストラテジーゲーム「StarCraft II」で人間と対戦するものとして開発されたゲームAIです。AlphaStarは人間のプレイヤーによるプレイ記録をまず学習し、そのAIを2つに分割して
さらにそれぞれを互いに対戦させて鍛え上げ、1週間の学習期間中これを繰り返すことで、AlphaStarはStarCraft IIを200年分訓練したとされています。

そしてAlphaStarはプロゲーマーと対戦し10戦全勝としました。ただし、AlphaStarは人間のプレイヤーに対して有利な点があったため、人間と対等の条件となるように修正して再び対戦したところ、プロゲーマーが勝利。この先、AphaStarと人間との戦いがどのような展開をみせるのか楽しみです。

 

2018年AI動向:Google『AI利用に関する原則』公開:軍事・国際法・人権に反する利用を禁止

Yahooニュースの2018年12月31日、大晦日に掲載された記事です。2018年のAIの動向を振り返って、一番インパクトのあったこととして、Googleのスンダー・ピチャイCEOがブログにて発表したGoogleの『AI利用に関する原則』(ガイドライン)を取り上げています。

Googleが2018年6月にこのようなガイドラインを発表した背景として、まずは2017年9月に米国防総省(DoD)とGoogleが契約した「Project Maven」で、GoogleのAI技術と画像認識技術をDoDに提供。それらの技術が軍事ドローンに利用される可能性があるということで社内外から批判を浴びたことを紹介しています。さらに2018年4月にはGoogleの3000人以上の社員が、このDoDとの契約に反対する請願書にサインしてピチャイCEOに提出しています。

そして「AI利用に関する原則」として2018年6月に公表されたガイドラインは以下の7つ。
1.社会に貢献できる利用(Be socially beneficial)
2.不公平な偏見が生じる利用をしない(Avoid creating or reinforcing unfair bias)
3.安全な開発設計とテスト(Be built and tested for safety)
4.説明責任を果たす(Be accountable to people)
5.プライバシーの保護(Incorporate privacy design principles)
6.研究成果の標準化と知識の共有(Uphold high standards of scientific excellence)
7.有害な利用の制限(Be made available for uses that accord with these principles)

さらに、ピチャイCEOはGoogleとしてAIを利用しない4つの領域を明らかにしています。
1.有害な事象を発生させる可能性のある技術
2.人間に危害を与えることを目的とした武器、その他の関連技術
3.国際的なプライバシー規範に反する監視のための情報収集に利用する技術
4.国際法と人権の原則に反する技術

AI技術において世界一の研究開発と技術力、商用サービスへの取組が一番進んでいるGoogleがAI利用原則を示したことのインパクトは大きかったようです。