2017年7月5日(水)より、「音楽認識機能」の提供を開始した定額制音楽ストリーミングサービス「AWA」。気になる音楽に向けてスマートフォンをかざすだけで音楽の波形を認識し、数秒でアーティストと楽曲を特定することができる新機能です。 「音楽認識機能」を使ってみてまず目に止まったのが、音楽認識中に表示される“水”を表現したインタラクション。 「音楽認識機能」をリリースした背景と、なぜ“水”という表現を選んだのか?について、プロダクトマネージャーの冨樫にインタビューをしました。 AWAが「音楽認識機能」の提供を開始 ~音楽にスマートフォンをかざすだけで、アーティストと楽曲を特定。シームレスに再生まで~
冨樫 晃己
AWA Co.Ltd.
Product Manager / Interactive Animator
まずは音楽認識機能をリリースした経緯を教えていただけますか?
冨樫:もともとサービスローンチ初期からこの機能の開発はチーム内で検討していました。
ただ初期は日本でストリーミングサービスが始まったばかりで、未配信楽曲も今より多かったこのタイミングでは“楽曲を特定してもすぐに聴けない”ケースが多発しユーザーストレスの方が大きくなると判断し、ベストなタイミングを見計らっていました。
そして昨年の夏、配信楽曲数3,000万曲を超えてきたときに、そろそろだなと。
まずは音楽の波形を認識するための技術が必要だったのですが、この機能を発案したエンジニアメンバーが先陣を切ってプロジェクトを始動してくれたので、技術検証が非常に迅速かつスムーズにスタートしました。
技術が定まった頃には4,000万曲という世界規模の楽曲数となり、“ほとんどの楽曲が特定した時点ですぐに聴ける”体験を提供できる状態になったため、7月に満を持してリリースしました。
音楽認識中に使われている水が波打つインタラクションが印象的だったのですが、なぜ今回“水”という表現を選んだのでしょうか?
冨樫:水の“過敏に反応する性質”が、音楽認識中の表現として最適だったからです。そう思った背景にはこの水のインタラクションを長らくお蔵入りさせていた過去がありまして。。
実はこのインタラクションは音楽認識をリリースする1年前に音楽認識とは全く関係なく創ったんです。
AWAはアニメーションと現実世界のギャップを最小限にするという『ギャップレス』をテーマにしたインタラクションで直感性を高めているのですが、あるとき現実世界でふと水”に着目しました。
“水”ってものすごく過敏にインタラクションする物体だなぁと感じたんです。
指が少しでも触れれば波紋が起きて、一度発生した波は壁に当たれば跳ね返り、跳ね返った波同士がぶつかってまた波を作る。
こんなにも過敏で、触れたときに誰もがイメージのつくわかりやすい物体は他にはないのかなと。Googleが提唱するマテリアルデザインでもリップルエフェクトがありますが、ある物体が何かの影響を受けたことをフィードバックするのに最適な物体表現なんじゃないかと思いました。
そこからいろんな水の表現を創ってみました。可能な限りの流体表現手法を試し模索した結果、今の音楽認識中と同じインタラクションができあがったんですが、、やっぱり“過敏”なんですよね。
ここまで過敏にインタラクションされるとさすがにユーザーとして疲れちゃうなと。
なので一旦お蔵入りしたんです。
そんな経緯で1年間放置したまま、音楽認識の開発フェーズを迎えたのですが、そのときまさにこの機能の認識中の表現に“水”が最適なんじゃないかと思い、蔵から引っ張り出しました。
音を認識してるときって、スマホのマイクで音を拾って内部で波形を分析しているだけなので、ユーザーにフィードバックを与えにくいんです。
ユーザーにとっては何もできないので、ただでさえストレスになりやすく、場合によってはフリーズしてしまったんじゃないか、とも思われかねない時間です。
でも過敏に反応する“水”を使うと、音を可視化しやすい。
音は空気中よりも水中の方が伝わるスピードが速い、っていう現実感も相まって、ユーザーは特に操作していない中で、「アプリはちゃんと音に反応しているよ〜」というのをフィードバックするのに、過敏な水の表現がとても活きました。
機能もインタラクションも、然るべきタイミングを見計らって最適な状態でリリースできたと思います。
サービスローンチ当初も「既存の表現にとらわれない」より良いインターフェイスを追求していましたが、その先進性を重視する姿勢はローンチ後2年経った今でも変わらないのでしょうか?
冨樫:そうですね。チームメンバーが増えた今でも変わらないです。会社と一緒で、技術やデザイン、そしてそれによってできるサービスに関しても“現状維持は後退”なんです。
世の中どんどん次の課題をクリアした新しい技術、手法が出てきます。ここを先取って挑戦していかない限り“前進”はなくって。
Apple, Googleを始め世の中で広く使われているサービスも、少なくとも年1回のペースで新しい技術・デザインにチャレンジしていますよね。どんどん世の中に期待感を提示している。
だから人は惹かれ、長く愛されるメディアになっていくと思うんです。
もちろん“新しい”という観点だけでなく、その先にあるユーザー体験の明確な軸があったうえでチャレンジすることが前提ですが。
私達AWAも先取って変えていかなければならない部分はまだまだ山のようにあります。立ち上げ当初から『先進・洗練・極限』というテーマを掲げていますが、まさにこの先進性に関しては、臆することなくチャレンジし、ユーザーにとって最適な体験を届け続けたいと思います。
最後に、今後のAWAの展望について教えてください。
冨樫:ストリーミング元年と言われる2015年に日本で一早くローンチして早2年経ちましたが、着々と日本のストリーミング市場は拡大しています。
これまでのCDやアラカルトダウンロードの市場は、自分が知っている好きな音楽を深掘っていく聴き方がどうしても主流になりがちでした。ですがストリーミング市場が拡大して、今まで聴くこと自体にハードルのあった音楽に関しても“まずは聴いてみる”というスタイルが自然と身につき、それが主流となりつつあります。一人ひとりがより幅広い音楽に触れ、好みの音楽に出会えるようになってきているのを実感しています。
この音楽の聴き方が浸透したときに大切になるのは『如何にシーンに密着できるか』だと思ってます。
“まだ知らない音楽”を聴くことへの抵抗がなくなることにより、「海辺にピッタリな音楽ないかなぁ」とか「ドライブ中に何か流したい、でも何でも良くはない」と思うシーンがたくさん出てくると思います。そういったときに最適な音楽が豊富にそろっていて意識して探さなくても出会える環境である必要がある。また、今回の音楽認識機能で実現したように「今流れている音楽、心地いいなぁ」というシーンに遭遇した際にもすぐに出会える環境というのが充実していることも必要。
そのためには楽曲の網羅度もリコメンドの品質もさらに高めていくことは当然ですが、AWAが主軸にもおいている、シーンと音楽をつなぎ合わせてくれる“ユーザープレイリスト”の文化をさらに強化していくことが重要だと思っています。
ここに対してはまさに現在、システム/UI/UXすべてを改めて設計するレベルで動き出している真っ最中なんですが、これをユーザーの皆さんに届ける際には、日常のなかで遭遇する様々なシーンに応えられる音楽がそこにあり、それらがユーザー間で勝手に広がり、“純粋に良いと思える音楽”に自然と出会える、そういう世界が広がっている状態にしていきますので、今後のAWAの展開をぜひ楽しみにしていただきたいですね。