論文の概要: Challenges in Supporting Exploratory Search through Voice Assistants
- arxiv url: http://arxiv.org/abs/2003.02986v1
- Date: Fri, 6 Mar 2020 01:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:38:01.569464
- Title: Challenges in Supporting Exploratory Search through Voice Assistants
- Title(参考訳): 音声アシスタントによる探索探索支援の課題
- Authors: Xiao Ma, Ariel Liu
- Abstract要約: 人々が音声アシスタントに慣れるにつれて、より複雑なタスクに対する期待が高まるかもしれない。
探索探索を支援する音声アシスタントの設計における4つの課題について概説する。
- 参考スコア(独自算出の注目度): 9.861790101853863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice assistants have been successfully adopted for simple, routine tasks,
such as asking for the weather or setting an alarm. However, as people get more
familiar with voice assistants, they may increase their expectations for more
complex tasks, such as exploratory search-- e.g., "What should I do when I
visit Paris with kids? Oh, and ideally not too expensive." Compared to simple
search tasks such as "How tall is the Eiffel Tower?", which can be answered
with a single-shot answer, the response to exploratory search is more nuanced,
especially through voice-based assistants. In this paper, we outline four
challenges in designing voice assistants that can better support exploratory
search: addressing situationally induced impairments; working with mixed-modal
interactions; designing for diverse populations; and meeting users'
expectations and gaining their trust. Addressing these challenges is important
for developing more "intelligent" voice-based personal assistants.
- Abstract(参考訳): 音声アシスタントは、天気の確認やアラームの設定など、シンプルで日常的なタスクにうまく採用されている。
しかし、人々が音声アシスタントに慣れるにつれて、探索的な探索のようなより複雑なタスクへの期待が高まる可能性がある。
単発の回答で答えられる「エッフェル塔の高さ」のような単純な検索タスクと比較すると、探索的な検索に対する反応は、特に音声ベースのアシスタントによって、より微妙なものである。
本稿では,探索探索を支援する音声アシスタント設計における4つの課題について概説する。状況に起因した障害に対処すること,複合モーダルなインタラクションに取り組むこと,多様な集団を設計すること,ユーザの期待に応えて信頼を得ること。
これらの課題に対処することは、よりインテリジェントな音声ベースのパーソナルアシスタントを開発する上で重要である。
関連論文リスト
- Towards Investigating Biases in Spoken Conversational Search [10.120634413661929]
画面ベースのWeb検索において,バイアスやユーザの態度の変化がどのように研究されているかを検討する。
本研究では,音声を用いた音声対話検索において,変数,データ,機器の偏りを探索する実験的な設定を提案する。
論文 参考訳(メタデータ) (2024-09-02T01:54:33Z) - Can AI Assistants Know What They Don't Know? [79.6178700946602]
AIアシスタントが知らない質問に答えることを拒否したことは、幻覚を減らし、アシスタントを真実にする重要な方法である。
モデル固有の"Idk"データセット(Idk)を構築し、その既知の未知の質問を含む。
Idkデータセットに合わせると、アシスタントは未知の質問のほとんどに答えることを拒否した。
論文 参考訳(メタデータ) (2024-01-24T07:34:55Z) - Advancing the Search Frontier with AI Agents [6.839870353268828]
複雑な検索タスクは、初歩的な事実発見や再定義のサポート以上のものを必要とする。
近年の人工人工知能(AI)の出現は、検索者にさらなる支援を提供する可能性がある。
この記事では、これらの問題とAIエージェントが検索システムの能力のフロンティアをいかに前進させているかを考察する。
論文 参考訳(メタデータ) (2023-11-02T13:43:22Z) - Follow-on Question Suggestion via Voice Hints for Voice Assistants [29.531005346608215]
我々は,ユーザがフォローアップ質問をできるように,コンパクトで自然な音声ヒントで質問を提案する新しい課題に取り組む。
質問リストから音声ヒントを生成するために,シーケンス・ツー・シーケンス・トランスフォーマを用いたベースラインとアプローチを提案する。
以上の結果から,提案する質問を和らげるナイーブなアプローチが,音声のヒントに乏しいことが示唆された。
論文 参考訳(メタデータ) (2023-10-25T22:22:18Z) - Rewriting the Script: Adapting Text Instructions for Voice Interaction [39.54213483588498]
音声アシスタントが複雑なタスクガイダンスにもたらす支配的アプローチの限界について検討する。
そこで本稿では,音声アシスタントが音声対話を通じて容易にコミュニケーションできる形態に変換できる8つの方法を提案する。
論文 参考訳(メタデータ) (2023-06-16T17:43:00Z) - Prompting the Hidden Talent of Web-Scale Speech Models for Zero-Shot
Task Generalization [61.60501633397704]
本稿では,最近提案されたWebスケール音声モデルのWhisperの創発的能力について検討する。
タスク固有のプロンプトを、別の大規模モデルを活用するか、あるいはデフォルトのプロンプトで特別なトークンを操作するだけで設計する。
実験の結果,提案手法は3つのゼロショットタスクで10%から45%向上し,SotAの教師付きモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-05-18T16:32:58Z) - Collaboration with Conversational AI Assistants for UX Evaluation:
Questions and How to Ask them (Voice vs. Text) [18.884080068561843]
We performed a Wizard-of-Oz design probe study with 20 participants who interacted simulated AI assistants via text or voice。
参加者は、ユーザアクション、ユーザメンタルモデル、AIアシスタントからのヘルプ、製品とタスク情報、ユーザ人口統計の5つのカテゴリについて質問した。
テキストアシスタントの効率は著しく向上したが,満足度と信頼度は同等であった。
論文 参考訳(メタデータ) (2023-03-07T03:59:14Z) - AVLEN: Audio-Visual-Language Embodied Navigation in 3D Environments [60.98664330268192]
AVLEN(Audio-Visual-Language Embodied Navigationの対話型エージェント)を提案する。
AVLENの目標は、3Dビジュアルワールドをナビゲートすることでオーディオイベントをローカライズすることである。
これらの能力を実現するために、AVLENはマルチモーダル階層的な強化学習バックボーンを使用する。
論文 参考訳(メタデータ) (2022-10-14T16:35:06Z) - Kaggle Competition: Cantonese Audio-Visual Speech Recognition for In-car
Commands [48.155806720847394]
車載スマートアシスタントは、車に関するコマンドだけでなく、一般的な処理も行う必要がある。
ほとんどのデータセットは、英語や中国語などの主要言語で使われている。
我々は車載コマンドに対するカントネーゼ音声認識を提案する。
論文 参考訳(メタデータ) (2022-07-06T13:31:56Z) - "Alexa, what do you do for fun?" Characterizing playful requests with
virtual assistants [68.48043257125678]
Alexaからの実際のトラフィックを分析することで、ユーモアの理論に根ざした遊び心のあるリクエストの分類を紹介します。
我々の予想では、このような発話を理解することで仮想アシスタントのユーザエクスペリエンスが向上する。
論文 参考訳(メタデータ) (2021-05-12T10:48:00Z) - Brain-inspired Search Engine Assistant based on Knowledge Graph [53.89429854626489]
developerbotは脳にインスパイアされた、knowledge graphの名前の検索エンジンアシスタントだ。
複雑なマルチ制約クエリを複数の順序制約に分割することで、多層クエリグラフを構築する。
次に、制約推論プロセスを認知科学の拡散活性化モデルに触発されたサブグラフ探索プロセスとしてモデル化する。
論文 参考訳(メタデータ) (2020-12-25T06:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。