まずはGoogleの画像認識技術がものの検索に簡単に利用できるようになったという記事から。その後、ディープラーニング利用の敷居を下げる開発環境についての発表、無人レジの実証実験の記事を紹介した後に、10月17日から開催されるワールド・ロボットサミットについての記事二本を紹介します。

 

Google Lensが画像検索にやってくる――自分が見ているのが何なのか即座に分かる

TechCrunchのイベントレポートです。Googleがプレスイベントで画像検索機能にGoogle Lensがサポートされることを発表したことをレポートしています。

現在でもGoogle Lens(Googleフォトの一部、あるいは専用アプリ)をタップするとGoogleのコンピューター画像認識機能が対象画像に関連する詳しい情報を提供してくれる。しかし検索とは連動していないので、ある    画像の商品を購入しようとした場合、その画像きら検索キーワードの組み合わせを考えて検索し直して購入できるサイトを探す必要があります。

Google Lensがサポートされるようになることで、検索結果にしろなにか画像を指定してGoogle Lensボタンを押すだけで、画像にうつっている物体を認識してそれに関する検索をした結果を返してくれるようです。

日本でいま使うには、Android端末の言語を英語に設定して、Google Photoを使うことにより利用することができるようです

 

AIが既存企業のノウハウを破壊する――ディープラーニング開発の「ハイウェイ」となるソニーの独自フレームワークとは

CodeZineに掲載された、デブサミ2018夏のセッションレポートです。ソニーの成平拓也氏がソニーのディープラーニング開発用フレームワーク「Neural Network Libraries」と、学習用GUIツール「Neural Network Console」を紹介するセッションの中で、ディープラーニングという技術がこれまでとどのように異なり、どのように業務を変えていくのかを解説してくれているのでご紹介します。

まずはディープラーニングによる開発プロセスを従来の開発プロセスと比較して説明してくれています。ディープラーニングの開発は、まず(1)データセット(「入力」と「期待する出力」の多数のペア)の用意をし、次に(2)その入力と期待する出力の紐づけを行うニューラルネットワークの構造設計を行い、その上で(3)用意したデータセットで設計したニューラルネットワークを学習する、という3ステップ。

このようなディープラーニングの開発における特徴は、その開発ノウハウは汎用的なものであって、一度学んだノウハウをもとに入力と期待する出力さえ変えればさまざまなソリューションに応用できるということ。例えば、画像認識におけるプロセスはインプットが画像ですが、インプットを音声にすれば音声認識のプロセスにも活用できますし、翻訳ソフトにも活用できるでしょう。

ディープラーニング以後の世界では、我々はデータセットを用意し、分析はディープラーニングに任せるという開発手法に移行する。その際に必要なのはノウハウではなく、精度を向上させるための種々さまざまな「データ」。企業が競っていた設計・開発のノウハウを無用なものにする可能性を秘めていると述べています。

そしてソニーが開発してオープンなものとして公開したNeural Network Libraries」と、「Neural Network Console」。まずは非ディープラーニング開発者やビジネス部門の人材など幅広い層に触れてもらうことを目指したものとのこと。そして、そこから徐々に
Neural Network Librariesを用いた実装ができる開発者に移行し、最終的には業務におけるプロジェクトでの開発にまでつなげていく。そのような、入り口から実践までカバーすることを、この2つのソフトウェアで目指したという話でセッションを結んでいます。

 

JCB、無人レジ実証実験開始 画像認識、AI搭載でキャッシュレス決済

ITmediaエグゼクティブがJCBの無人レジの実証実験に関するリリースを記事としてします。

ジェーシービー(JCB)は、人工知能(AI)を用いて自動的に商品を識別し、現金を使わないキャッシュレス決済で買い物ができる無人レジの実証実験を開始。深刻な人手不足に対応して加盟店の人件費削減や業務効率化に貢献するのが狙い。コンビニエンスストアやスーパーなどに導入したい考えで、早ければ2019年にも実用化するとのこと。

画像認識技術を用いることにより包装にバーコードがない商品でも読み取れる上、電子タグを付ける手間も省けるため、導入しやすいのが強み。ただ、商品の画像を事前登録する必要がある。

仕組みとしては、利用者が箱形レジの底に商品を置くと、カメラで弁当や飲み物などを画像として認識、AIがその種類を判別する。レジにスマートフォンや対応クレジットカードをかざしてJCB発行の電子マネー「QUICPay(クイックペイ)」で決済することにより、無人で店舗の決済を実現する。

実証実験は9月28日から東京都内の同社オフィスにある社員食堂などで開始。12月21日までの間、社員の稼働時間をどこまで減らせるかなどを調べるとのこと。年明けにも取引先企業の社内店舗で導入を始め、国内で普及を図りたい考えとのことです。

 

10月開催の国際ロボット競技会は“組み合わせ爆発”を加速する

日刊工業新聞が運営するnewswitchのワールド・ロボット・サミット (WRS) 実行委員長佐藤知正東京大学名誉教授へのインタビュー記事です。10月に開催する国際ロボット競演会「ワールド・ロボット・サミット」(WRS)の狙いなどについて聞いています。

WRSは日本発のロボットエコシステム構築への挑戦とのこと。18年のWRSプレ大会は技術を競い、ロボットの働く姿を社会に示すことが重点。まず大会を順当に立ち上げ、世界から技術と人材を集めることを目指すようです。20年の本大会を見据え、集まった技術や人材をいかにつなぐか。WRSを見に来た人たちを触発して、いかにビジネスモデルを生みだす場とするか挑戦していきたいとのこと。

現在、良い要素技術がそろい、その組み合わせでさまざまな分野でロボットが開発されるステージにあるという技術的な背景に対する認識をもとに、競技会でさまざまな技術やアイデア、人材を一堂に集めて競い、技術開発を加速させることを目的としたイベントのようです。

ロボットの要素技術としては、ロボットビジョンが使えるようになったこと、ロボットのオフラインティーチングがものになったこと、それから多機能ロボットが専用機に費用対効果で勝てるようになってきたことなどが大きいと述べ、ロボットをシステム構築するシステムインテグレーター(SI)の拡大がカギになるとのことです。

 

次のロボット開発を担う世代が日本で競う、WRS開幕目前!

やはり日刊工業新聞が運営するnewswitchのワールド・ロボット・サミット (WRS)関連の記事です。ワールド・ロボット・サミット(WRS)の17日開催を前に、ジュニア部門での戦いがはじまつておりそれをレポートしている記事です。

ジュニア部門のスクールロボットチャレンジでは、ソフトバンクのペッパーを標準機(プラットフォーム)として提供し、四つの指定課題と自由なオープンデモを競う。タスク1は人との会話だ。近づいて話しかけてきた人に対して、ペッパーは言葉を交わし、最後に何かを探すように頼まれる。この探し物を別の専門家に引き継ぐ。人物や音声の認識、対話が求められる。

タスク2では人の少し深い認識だ。相手の感情や挙げている手、シャツの色を認識し、様子を説明する。タスク3は文字認識と単語の発話。タスク4ではパネルやボールを認識して、そこに移動する。いずれもロボットに求められる基本機能であり、大学などでの研究テーマでもある。

参加者は中高生から大学2年生までの19歳以下。次のロボット開発を担う世代。ホームロボットチャレンジでは高さ30センチメートル程度の自作ロボット、スクールロボットチャレンジではソフトバンクの「ペッパー」を標準機として技を競う。定型課題は認識や把持などの基本機能を問うが、ともにオープンデモに最大の点数を配分。国や文化によってロボットへの期待や役割が変わるためとのこと。

こどもたちはペッパーに用意された画像認識などのモジュール化された機能を使って、つぎつぎと課題をこなしていくようです。