「ヒトラー礼讃Bot」の先にある「ナイトライダー」の世界 : Microsoft 「Build 2016」

April 6, 2016 by Tak Miyata
BRhRDB4xj5M.market_maxres

テクノロジー大手企業がSan Franciscoで定期的に開催する「開発者向けイベント」は、その企業の戦略や将来の方向性を理解する非常によい機会です。

これまで、AmazonGoogleAppleなどのイベントについて、このブログでも折に触れて紹介してきました。一方で、今回紹介するMicrosoftに関しては、多くの消費者と同様に私自身少し興味を失っていたため、このブログで紹介したことはありませんでした。

先週、Microsoftが開催した開発者向けイベント Build2016では、私がこのブログでも度々触れている「VR」の次にくる大きな波 「AR」の注目株 HoloLensのDeveloper Kitの出荷開始の話もあるということで、じっくりとKeynoteを見てみました。

Windows10のアップデートLinux / Windows連携Windows10のスタイラス機能HoloLensのDevelopers Kitなど盛りだくさんな内容でしたが、Nadella CEOが繰り返し強調していた「Conversation As A Platform」というコンセプトで打ち出していた「Bot戦略」は、今週発表のあった「トヨタとのコネクテッドカー分野での提携」というニュースとつなげて考えてみると面白いかもしれません。

「ヒトラーは正しかった」暴走したBot

スクリーンショット 2016-04-04 5.48.53

Build2016開催の一週間前、Microsoftは人間の会話を理解し、学習をするBot「Tay」をリリースしました。

Tayは、Botながら「若者風のカジュアルな会話ができる」ことを売りにしていたはずだったのですが、悪意のある多くのユーザから多くの暴言を教え込まれ、わずか数時間でヒトラー、9/11などについて不適切な発言を繰り返すようになってしまいました。

このため、Build16に向けてのショーケースとなるはずだったTayは、わずか16時間で緊急停止するという事態に追い込まれてしまいました。

「会話が新しいUIとなる」”Conversation As A Platform”

Tayの一件で出鼻をくじかれた感はありましたが、この「人間の自然な会話を理解し、自然な言葉で回答をする」Botは、Build2016のKeynoteの主役の一つでした。

スクリーンショット 2016-04-04 6.06.11

キーボード、マウス、タッチと進化してきたコンピュータのインターフェースですが、誰にでも分かりやすく使いやすい「人間の言葉」をインターフェースにしようというのが、Microsoftがいう”Conversation As A Platform”というコンセプトです。

ユーザが自然な言葉で話しかけ、その文脈、嗜好を理解し、学習しながら自然な会話で対応できる「Bot」をインターフェースのコアにしていくということです。

今後は様々なアプリケーションやWebサイトなどにも、Botが搭載されるようになり、ユーザーは「人」と会話をするように「Bot」に会話で伝えれば済むようになると。

カンファレンスでは、例として、今回Botが導入されるSkypeでのDomino Pizzaの事例が紹介されていました。

スクリーンショット 2016-04-04 6.03.36

オペレータと話をしたり、アプリから注文を入力したりするのではなく、Botに注文を伝えるだけで、細かいオプションなども丁寧にBotが聞き返し、ピザの注文が完了するというものです。

Microsoftは、今後ユーザ企業がこうした「AIを持ったBotを簡単に開発できる」ようにサービスを提供していくということです。

これまでもAzureで機械学習のクラウドサービスを提供していましたが、今回発表した「Microsoft Cognitive Services」では、AIの知識を持ったエンジニアがモデルを設計したり学習させることなく、より簡単にBotを自社サービスに組み込めるようになるようです。

同様にBot戦略を推し進めているFacebookが、先週オランダの航空会社KLMと提携しMessengerでの初の「航空会社Bot(搭乗券を受け取ったり、チェックインができる)」をリリースしましたが、今後航空会社にとどまらず、飲食店、小売、ホテル、など様々な業界で「Botの立ち上げ」というのが一つのトレンドになるのかもしれません。

Microsoft Cognitive Servicesには、文章の意味を理解するだけでなく、画像を認識する「Computer Vision API」や動画を認識する「Video API」なども含まれます。これを活用することで、前回食べたピザの写真をスマホから送り「これまた注文したい」と言うと、「ピザマヨスペシャルですね!」とBotが理解してすぐに注文が取れるというインターフェースも実現可能になるはずです。

Botインターフェースでは、中国最大のメッセンジャーWeChatが非常に進んでいることが有名ですが、MicrosoftはWeChat上で10万以上のBotをテストし、研究を進めてきたようです。Windowsを持つMicrosoftがBotインターフェースをプッシュしていくことで、よりBotが一般的なインターフェースになっていく可能性が高くなったと言えると思います。

「クルマと会話する」ナイトライダーはもうすぐか

WeChatを日々使っていない私が、「会話型UI」の威力を痛感しているのが、Amazonのスマートホームデバイス「Echo」です。

IMG_7736

これは我が家のキッチンに鎮座するEchoです。

最初は「何に使うんだろう?」というところはあったのですが、普通に「Hi Alexa, Jazz Music!」と言って音楽をかけたり、これから出かけるYosemiteの山の上の天気を聞いたり、わからない言葉をWikipediaで質問したり、と何の違和感もなく「スピーカーに話しかける」というのが日常になっています。

このEchoは、先日もブログで紹介したように、昨年全米でもっとも売れたポータブルスピーカーになっており、Amazonの次の1000億円ビジネスになるとも言われています。一時期「スマートホームのHub」は、Google傘下のNESTで決まり、という雰囲気がありましたが、最近の果てしないゴタゴタ続きで、Amazon Echoがこの分野で一気に優勢に立つのではという感じもしています。

このEchoの裏側になるAlexa、Amazon Prime MusicやAmazonの様々なデータベースにつながっていて十分に楽しいのですが、まだ上記で説明したようなBotのように「文脈を理解」したり、私の「嗜好を理解」するほど賢くはありません。

ただ、今全米でいろんなプロフィールの方が日々Echoに向かっていろんな要求を話しかけ、Alexaにはものすごい勢いで「会話データ」が溜まっていることは間違いありません。このデータを使ったこれからのAlexaの進化には大いに期待していいでしょう。

今年のCESでは、FordがAmazonと提携し、EchoをFordの自動車に組み込むという発表がされていました。Echoの音声認識インターフェースを車のインターフェースとし、ドライバーは、自分の言葉でEcho APIと連携した様々なサービスを楽しむことができるというものです。

今回の、Microsoftとトヨタの新会社のリリースでは、Botについては一切触れられていませんでした。しかしながら、キッチンに置かれているEchoと同様、ハンドルで腕がふさがっている自動車の車内では、「声」のインターフェースは非常に適していると思います。

「Alexa、今からオフィスに行くけど、銀行にも寄って行きたいな。トータル何分くらいかな?」

こんな感じで自然に車に話しかけるだけで、ナビの操作、情報の検索、サービスの予約ができる世界。

80年代にナイトライダーが描いたような世界はもしかしたらこの1-2年くらいでくるのかもしれません。

最先端の技術調査、市場調査、戦略コンサルティングを行っています

スクラムベンチャーズは、年間1000社超の企業調査の実績をもとに、企業のご要望に合わせてコンサルティングやリサーチを行っています。