Amazon EchoとAmazon Alexaに感じる可能性

re:Invent 2015AWS re:Invent 2015に参加してきました。

(参加エントリーは会社ブログにいっぱい上げたけど、こっちにはまだ書いてないので、そのうち書く)

以前から気になっていてqiitaにも書いたのですが、re:InventのセッションでもAmazon EchoAmazon Alexa系のものに参加してきました。

qiita.com

何に興味があったかというと、Lambdaファンクションを使うことで、自由にAlexa Skill(機能)をAmazon Echoに足せるということです。 しかも、このSkilは公開することができ、他の人も自分のAmazon Echoで使うことが出来ます。

つまり、自分が作ったサービスを音声で利用することが可能になるということですね。

ちなみに、Amazon Echo 自体は大きめの水筒ぐらいのサイズで、机の上にもちょこんと置けるような感じです。

f:id:sparkgene:20151017121048j:plain

参加したセッション

AWS + ASK: Teaching Amazon Echo New Skills

このセッションはワークショップ形式のもので、冒頭から「通常は5時間使って行うものを2時間でやります!頑張ってついてこいよ!」と言われました(苦笑)

ワークショップではサンプルを使って、Alexa Skillの作り方、Amazon Echoへのひも付けを駆け足で説明した後、自分たちでSkillを作ってみましょうとなりました。

サンプルをAmazon Echoで試してみるとこんな感じで、自分の好きな色を質問してもらい、それを答えると覚えてくれて、好きな色を聞くと答えてくれるものです。

youtu.be

Lambdaのファンクションの作成から登録を一通り学べるワークショップでしたので、これで自作のSkillを作ることが可能になります。

Extending Alexa’s Built-in Skills – See How Capital One Did It

Capital One社が実際にAmazon Echoを使って自社のアプリケーションと連携して、カードの利用情報を確認するといったSkillを作った際の話を聞きました。

www.slideshare.net

アプリのアカウントとAmazon Echoのひも付け方法など、実際に自社サービスを連携させる際のワークフローの参考になる話も聞けました。

セッションの中での興味深かったのは、Webやアプリと違い音声認識向けのUI設計が必要だという話でした。

Webであればたくさんの選択肢をラジオボタンやドロップダウンで1つだけ選択させ、次のアクションに進めることが出来ます。 しかし、音声の場合はすべての選択肢を列挙しても、ユーザーはすべてを聴き終えた頃には最初の話を忘れてしまうこともあるので、何を選んだら良いか分からなくなるとのこと。 最も選ばれる3つぐらいの候補を最初の選択肢として挙げておき、それ以外はヘルプを呼び出させることで、全部列挙すると言ったUI設計が必要になるということです。

また、Webであれば読込中をインジケーター等で、視覚的に状態を知ることが出来ますが、音声の場合は処理中はずっと無音となるので、ユーザーからすると何が起きているかが分かりにくく、使いづらいと思われてしまいます。 その為にはすぐレスポンスを返せるように作らなければなりません。

今後の可能性

Alexa SkillはLambdaでも自分のサーバでも提供することが出来ます。 自分のサーバで提供する場合はhttpsが必須となりますが、すでにnode moduleとして作っている人がいたりするので、既存のシステムに連携させることも比較的簡単に出来ると思います。

DevOpsであれば、音声でサーバを増やしたり、サービスのステータスを教えてもらうことも出来ます。 今日の献立に悩んだ時に、おすすめの料理を教えてもらうことも可能です。

Amazon Fire TVではすでに、Amazon Alexaを使って音声でビデオを選んだりすることが可能になっています。

ただし、Amazon Echoはまだ英語にしか対応していません。 シアトルでのスペシャルセッションでは、ドイツ語、イギリス英語への対応は進めているとの話はありました。 ワークショップでは是非日本語も対応してとお願いしておきましたw

速く国内で発売して欲しいですね。

最後に

Amazon Echoの可能性はこの動画からも感じ取れると思います。

www.youtube.com