Amazonみたいな新サービス作れます : Amazon re:Invent 2017
いよいよ2017年も残すところあと少しとなりました。
今、年末の特集記事でGAFAについての記事を書いているのですが、この一年を振り返ってみると、改めてAmazonの存在感が圧倒的であったなと感じます。
1月のCESはAlexa対応の家電が大量に並ぶ「Alexa祭り」でした。5月にはいち早くAmazon Echoの新世代製品、モニター付きとカメラ付きの「LookとShow」を発売。その後、Echo Showの小型モデルSpotも発売されました。6月にはWhole Foodsを買収し、ついに本格的にリアルにも参入してきました。その他にも、FreshPickup、MealKitなど、とにかく次から次へと新しい手を繰り出しています。
日本でも「Amazon Effect」という言葉が聞かれるようになりましたが、直接的なライバルである小売業の方々を含めて、Amazonのこの勢いには戦々恐々としている方が多いのではないでしょうか。
そんな中、一年の最後を締めくくるテック大手の開発者会議として、先月末Amazonの開発者会議 re:InventがLas Vegasで開催されました。
ものすごい数の新サービスや新機能が発表されたイベントでしたが、「これらを組み合わせたらAmazonの競合サービス作れちゃいますよね?」と心配になるような大盤振る舞いの内容でした。
イベントの詳細は、下記の公式の日本語ブログに説明されているので、そちらをご覧ください。
- Day1 : Tuesday Night Live ( Peter DeSantis )
- Day2 : KeyNote ( Andy Jessy )
- Day3 : KeyNote ( Werner Vogels )
このポストでは、Day2のCEO Andy JessyのKeyNoteで発表されたアプリケーション系の新機能と、個人的に大注目の開発用「Deep Learningカメラ」Deep Lens、そして「ここまでやっているんだ!」というNFLでの事例について、紹介したいと思います。
多彩な新機能:文字起こしから翻訳まで
今年も、Facebookのf8(「AIの進化で実現したスマホARのオープン化 :Facebook f8 2017」)、GoogleのI/O(「AIがAIを生み出すAIファーストの「7つの進化」。Google I/O 2017」)などの開発者向け会議のポストをいくつか書きましたが、今回のre:Inventはとにかく大量の新サービスが発表されたという印象です。
このAndyの後ろに表示された機能群たち。もはや、中の人も全部は把握できていないのではないでしょうか。
ということで、とても全てはカバーできないのですが、ビジネスの視点から重要な機能をいくつか紹介したいと思います。
一つ目は「SageMaker」。
今や誰もが取り組まないといけないと考えつつも、ものすごい難しい印象のある機械学習を簡単に導入できるというものです。
昨年のre:Inventで、Amazon AIとして画像認識(Amazon Rekognition)や自然言語認識(Amazon LEX)などのAPIは発表されていましたが、SageMakerはより自由度が高く、簡単に機械学習のモデルを構築、トレーニング、実装ができるというものです。
どの程度使えるのか分かりませんが、事前にモデルも複数用意されているようなので、「分析されていない大量の画像データはある」というようなケースではぜひ一度使ってみると良いと思います。
また、動画認識の「Rekognition Video」も発表されました。
画像に何が写っているかを判別する画像認識は、一気に「静止画」から「動画」の世界に移って来ています。Rekognition Videoでは、動画の中に写っている人間の顔、物体、シーンなど様々なものが認識できます。有名人の認識や特定の人物をトラッキングしたりすることも可能ということです。
「Transcribe」では、音声を自動でテキスト化することができます。
動画に字幕をつけたり、検索可能にするために、クラウドソーシングなどを使って文字起こしをしている方も多いと思います。この機能を使えば、大量の動画から、音声をテキスト化する作業が自動でできるようになります。当初は、英語とスペイン語のみの対応ですし、どの程度の精度なのか、という問題もありますが、コンテンツ作りが大きく変わる可能性を秘めた機能です。
自動翻訳の機能「Translate」も発表されました。
Alexaの日本語版の評判を聞いていると、ここはあまりAmazonは得意ではないのでは?という気がしますが、翻訳機能も出してきました。当然日本語対応は先になると思いますが、将来的にはTranscribeと組み合わせるとものすごいパワフルな機能になると思います。
その他にも、継続的に大量のデータを学習し続けている自然言語処理サービスComprehendなども発表されており、自社にAI技術者を抱えていない一般企業も含めて、機械学習を作った様々なサービスの構築がグッと身近になった印象です。
Deep Lens : Deep Learningカメラ
そして、今回の発表の中で、私が一番興奮を覚えたのが「Deep Lens」です。
Deep Lensは、「ワイヤレスな機械学習カメラ」です。上記で紹介したSageMakerで作った画像認識のモデルを取り込み、簡単にエッジ側で利用できるというものです。しかも、価格はたった$249! こちらから予約注文もできます。
で、何に使ったら良いの?という方向けに、彼らがデモをしたのがこちら。
DeepLensの前で、音楽CDのジャケットを持ってにっこりとします。写真の右上にCDの内容、右下には表情の認識結果が表示されています。この二つの組み合わせから、音楽のレコメンデーションをするというデモです。
Keynoteの中でCEOのAndyも言及していましたが、このDeepLensを使えば、Amazonがシアトルでテスト中のFresh Pickupのように、「来店客の車のナンバープレートを自動で認識して、車が止まるや否や、注文した商品をトランクに入れる」というサービスの構築も可能です。
また、Amazonがテスト販売しているファッション向けAmazonEchoのEcho Lookのように、「お客様の着こなしを認識してすぐにアドバイスをする」というようなサービスも作れそうです。
簡単ではないと思いますが、DeepLensと他のAWSの機能を組み合わせれば、あのAmazonGoだって作れるかもしれません(少なくとも近いものは)。
何れにしても、今回カメラまで提供してくれたことで、機械学習を活用した様々なアプリケーションの実装のスピードがものすごく上がることは間違いありません。
NFLの事例:AIでスポーツ体験を再構築
最後に実際の活用事例の紹介です。
様々な企業のAWSの活用事例が紹介されたのですが、特に印象的だったNFLの事例をご紹介します。
NFLが今年からスタートした「Next Gen Stats」というサービスでは、全ての選手の動き、スピード、などがほぼリアルタイム!でテレビ放送やネット向けに提供されています。
全ての選手の防具の中にはこの写真のようなセンサーが埋め込まれていて、31箇所全てのスタジアム全てで数cm単位でのトラッキングが可能になっているということです。
私はNFLをほとんど見ないので気づかなかったのですが、今年からはテレビ中継で、この写真のように、選手の走るスピードや方向がほぼリアルタイムで表示されるようになっているということです。これはスポーツの視聴体験がガラッと変わりそうですね。
また、中継に使う映像以外にも、当然全ての試合の全ての選手の動画も記録されているということで、選手のスカウトや個別のプレイヤーのトレーニングなどにも活用しているということです。
また将来的には、こうしたデータの蓄積を活かして、35あるアメフトのフォーメーションを自動的に認識したり、9あるルートを自動的に認識することまで行い、何がキーとなるイベントだったのかまでわかるようなところを目指しているということです。
そこまで行くと、フォーメーションや過去のデータから、この写真のようにどの選手にパスをすると何%の成功確率があるかまで予測ができるようになるということで、テレビを見ながら「あの選手にパスすれば成功したのに!」みたいな新しい試合の楽しみ方ができそうです。QBは災難かもしれませんが。
アメフトのようにフォーマットがきっちり固まっているスポーツならではという部分もあるとは思いますが、マラソン、野球、ラグビー、サッカーなどいろんなスポーツでも同じような取り組みの可能性はあるのでは無いでしょうか。
B2CとB2Bの両輪で加速するAmazonの進化
売り上げ2兆円という途方も無い規模になりながらも、年率42%という成長率で成長を続けるAWS。
その成長も圧倒的ですが、今回発表された機能群も圧倒的でした。祖業はB2C企業でありながら、その技術を惜しみなくB2B事業にすぐさま提供し続ける様は、大丈夫なの?といらぬ心配をしたくもなります。しかしながら、AWSで提供した機能群をみんなが活用する間に、さらに次のイノベーションを生み出す自信があるということでしょう。
ということで、今回も「Amazonすごい!」というポストになりましたが、みなさまAmazonの猛烈なスピードに置いて行かれないように、がんがんイノベーティブに行きましょう。