音声デザイン入門:始めるための5つのヒント

Florence Collins

Florenceは、ベルリンのオンラインプログラミングスクールCareerFoundryに所属するブログライター。

この記事はUsabilityGeekからの翻訳転載です。配信元または著者の許可を得て配信しています。

How to Design for Voice: 5 Tips to Get Started (2017-09-12)

今後10年の間に、デザイナーが今までほとんど注目してこなかった、巨大なマーケットが登場します。その市場とは、音声デザインです。

音声デザインとは何でしょうか? 従来のUXデザインとはどう違うのでしょうか?

実際には、この2つには多くの類似点が存在します。便利で楽しい音声インタラクションを作り出すには、ユーザーリサーチやペルソナの作成、プロトタイピング、ユーザーフローの作成、ユーザービリティテスト、反復というすべての手段が必要です。

しかし、大きな違いもいくつかあります。

この記事では、音声によるインタラクションが、GUI(グラフィカルユーザーインターフェイス)で行われる通常のインタラクションとどのように異なるのかに注目します。音声デザインを行う上で、発想を変えるためのヒントを提案していきます。

1. 従来のユーザーフローを捨ててやり直す

その理由は、ユーザーは別の目的を達成するために音声インタラクションを使う可能性があるからです。

あなたが楽曲ストリーミングサイトを運営していると仮定しましょう。手軽なAlexaのスキルを作成して、音声インタラクションに取り掛かろうとしているとします。

まず音声インタラクションを使ってユーザーがどのような目的を達成したいのか、慎重に考慮する必要があります。プレイリストは作成できない一方、プレイリストの再生はできるというように、最初は余分なものを削ぎ落した形で提供するかもしれません。

そこでユーザーリサーチを行うと、実際に音声で音楽を操作する際には、ユーザーはプレイリストではなく別のものを望んでいることに気付くかもしれません。たとえば、自分の好みの曲名を自発的に声に出し、その曲を聴きたいと思っている可能性もあります。

2. 理にかなった使用状況を考える

企業が音声インタラクションに沸き立ち、時流に乗りたいと思うのは当然のことです。

そして経営陣は、「この機能を音声でデザインし直しなさい」と言ってくるかもしれません。

しかし、音声UIは企業主導でなくユーザー主導であるべきです。よってユーザーリサーチがきわめて重要になります。UXデザイナーには、自動車の中などの状況で、どのようにすれば快適に音声で指示できるかを把握するというワクワクする仕事が待っているでしょう。

食料雑貨類を音声で注文するのは理にかなうでしょう。しかし、洋服をオンライン上で購入するのには視覚的な情報が必要とされ続けると予想できます。

上記の例はわかりやすいですが、もう少し難しい問題もあります。音声のインタラクションに慣れると、声を使えばもっと多くの目的を簡単に達成できることに気付きます。たとえば現在は、レシピ通りに料理を作ることは視覚の面で直感的であるように思えますが、料理中に手が汚れることを考えると、レシピが自動的に音声で流れたり、タイマーとして機能したりすれば、料理のUXが大きく改善されるでしょう。

3. 会話を超えたコミュニケーション:システムステータスを表示する

ノートパソコンやスマートフォンなどのGUIを利用する際、Webページが読み込み中であることや、動画の進行具合が10%であることなど、私たちはデバイスの状況がわかることに慣れています。

音声では、システムの状況を教えてくれる視覚的な手がかりはありません。では、音声デバイスがクラッシュしたかどうか、どのようにしてわかるのでしょうか?

この点について、既に新たな行動様式が生まれつつあります。たとえば、Amazon Alexaでは、さりげない光の点滅や途切れのない音によって、システムの状況に関する手がかりを提供します。

4. パーソナリティを独自のセールスポイントにする

これは音声デザインの面白いところの1つです。以前は、デザイナーはコピーの口調やカラースキーム、画像のガイドラインを決定する手助けをしていたかもしれませんが、音声デザインではパーソナリティ、人格を作成することができます。

インタラクションしたくなる人格をシステムに採用したテクノロジー企業は、最高の音声インタラクションを生み出す競争において大きくリードできるでしょう。

5. 指示を理解できるようにする

以前の音声製品では、システムが異なるアクセントや予想外の支持を理解できなかったために普及しませんでした。結果的に、ユーザーはよく音声技術に不満を感じていました。音声技術は90年代から存在しているにも関わらず、軌道に乗ったのはつい最近です。

その理由は、クラウドコンピューティングや人工知能、機械学習によって、音声システムがより賢くなったからです。これらのおかげで、即座に膨大なデータにアクセスでき、さまざまなバリエーションの会話を理解し、もちろんそれに応じて反応できるようになりました。

音声認識ソフトを1から開発しているチームには大抵、専門の科学者たちがいて、多種類の音声入力をしっかり理解できるように統計モデリングを適用しています。

しかし、たとえばAmazonのAlexaのスキル作成など、既存の音声サービスを使ってデザインする場合、さまざまな指示のをリストアップしなければなりません。たとえば、ピザを注文する、ピザを送る、ピザを届ける、ピザを持ってくる、ピザをくれる、ピザが必要だ、ピザが欲しい……もうおわかりでしょう。

まとめ

音声デザインの完成には、膨大なデザインと開発の時間が必要となるでしょう。その一方で、今後10年間で音声が人間とコンピューターのインタラクションをどのように変化させるのか、興味をそそられます。

機械学習は指数関数的に進歩する可能性を秘めており、まもなく人間よりも機械のほうが、支離滅裂な留守電のメッセージを理解できるようになるのも不思議ではありません。

音声に興味があるのなら、今が関わる絶好の機会です。音声認識の研究者から音声アーティスト、プログラマー、そしてもちろんUXデザイナーまで、この変化を牽引する優秀な人材の需要はたくさんあります。