論文の概要: "Alexa, what do you do for fun?" Characterizing playful requests with
virtual assistants
- arxiv url: http://arxiv.org/abs/2105.05571v1
- Date: Wed, 12 May 2021 10:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:32:17.639202
- Title: "Alexa, what do you do for fun?" Characterizing playful requests with
virtual assistants
- Title(参考訳): 「Alexa、楽しんだらどうしますか?」
仮想アシスタントで遊び心のあるリクエストを特徴付ける
- Authors: Chen Shani, Alexander Libov, Sofia Tolmach, Liane Lewin-Eytan, Yoelle
Maarek, Dafna Shahaf
- Abstract要約: Alexaからの実際のトラフィックを分析することで、ユーモアの理論に根ざした遊び心のあるリクエストの分類を紹介します。
我々の予想では、このような発話を理解することで仮想アシスタントのユーザエクスペリエンスが向上する。
- 参考スコア(独自算出の注目度): 68.48043257125678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual assistants such as Amazon's Alexa, Apple's Siri, Google Home, and
Microsoft's Cortana, are becoming ubiquitous in our daily lives and
successfully help users in various daily tasks, such as making phone calls or
playing music. Yet, they still struggle with playful utterances, which are not
meant to be interpreted literally. Examples include jokes or absurd requests or
questions such as, "Are you afraid of the dark?", "Who let the dogs out?", or
"Order a zillion gummy bears". Today, virtual assistants often return
irrelevant answers to such utterances, except for hard-coded ones addressed by
canned replies.
To address the challenge of automatically detecting playful utterances, we
first characterize the different types of playful human-virtual assistant
interaction. We introduce a taxonomy of playful requests rooted in theories of
humor and refined by analyzing real-world traffic from Alexa. We then focus on
one node, personification, where users refer to the virtual assistant as a
person ("What do you do for fun?"). Our conjecture is that understanding such
utterances will improve user experience with virtual assistants. We conducted a
Wizard-of-Oz user study and showed that endowing virtual assistant s with the
ability to identify humorous opportunities indeed has the potential to increase
user satisfaction. We hope this work will contribute to the understanding of
the landscape of the problem and inspire novel ideas and techniques towards the
vision of giving virtual assistants a sense of humor.
- Abstract(参考訳): amazonのalexa、appleのsiri、google home、microsoftのcortanaといったバーチャルアシスタントは、私たちの日常生活においてユビキタスになりつつあり、電話や音楽再生など、日々のさまざまなタスクでユーザーを助けることに成功しています。
しかしそれでも彼らは遊び心のある発話に苦しむが、これは文字通り解釈されるものではない。
例えば、ジョークや不条理な要求、“あなたは暗闇を恐れていますか?
「誰が犬を放したの?」
a zillion gummy bears"または"order a zillion gummy bears"。
現在、仮想アシスタントは、缶詰の返信で対処されるハードコードされたものを除いて、そのような発話に無関係な答えを返すことが多い。
遊び心のある発話を自動的に検出する課題に対処するため,まず,遊び心のある人間の仮想アシスタントインタラクションの異なるタイプを特徴付ける。
本稿では,alexaからの現実世界のトラフィックを分析し,ユーモア理論に根ざした遊び心のある要求の分類を紹介する。
次に、ユーザが仮想アシスタントを人として参照する、ひとつのノード、ペルソナライゼーションに焦点を当てます("What do you do for fun?
我々の予想では、このような発話を理解することで仮想アシスタントのユーザエクスペリエンスが向上する。
We performed a Wizard-of-Oz user study and showed that endowing virtual assistant s with the ability of humorous opportunity has indeed to increase user satisfaction。
この研究が、問題の風景の理解に寄与し、バーチャルアシスタントにユーモアのセンスを与えるというビジョンに向けて、新しいアイデアとテクニックを刺激することを望む。
関連論文リスト
- WildVis: Open Source Visualizer for Million-Scale Chat Logs in the Wild [88.05964311416717]
本研究では,高速,多目的,大規模会話分析が可能な対話型ツールWildVisを紹介する。
WildVisは、基準リストに基づいてテキストと埋め込みスペースの検索と視覚化機能を提供する。
誤用調査の促進,データセット間のトピック分布の可視化と比較,ユーザ固有の会話パターンの特徴付け,という3つのケーススタディを通じてWildVisの有用性を実証する。
論文 参考訳(メタデータ) (2024-09-05T17:59:15Z) - Can AI Assistants Know What They Don't Know? [79.6178700946602]
AIアシスタントが知らない質問に答えることを拒否したことは、幻覚を減らし、アシスタントを真実にする重要な方法である。
モデル固有の"Idk"データセット(Idk)を構築し、その既知の未知の質問を含む。
Idkデータセットに合わせると、アシスタントは未知の質問のほとんどに答えることを拒否した。
論文 参考訳(メタデータ) (2024-01-24T07:34:55Z) - HoloAssist: an Egocentric Human Interaction Dataset for Interactive AI
Assistants in the Real World [48.90399899928823]
この研究は、物理的な世界でのタスクを実行することで人間を対話的に導くインテリジェントエージェントを開発するための、より広範な研究努力の一環である。
大規模なエゴセントリックなヒューマンインタラクションデータセットであるHoloAssistを紹介する。
人間のアシスタントがミスを正し、タスク完了手順に介入し、環境に指示を下す方法について、重要な知見を提示する。
論文 参考訳(メタデータ) (2023-09-29T07:17:43Z) - Rewriting the Script: Adapting Text Instructions for Voice Interaction [39.54213483588498]
音声アシスタントが複雑なタスクガイダンスにもたらす支配的アプローチの限界について検討する。
そこで本稿では,音声アシスタントが音声対話を通じて容易にコミュニケーションできる形態に変換できる8つの方法を提案する。
論文 参考訳(メタデータ) (2023-06-16T17:43:00Z) - Virtual Mouse And Assistant: A Technological Revolution Of Artificial
Intelligence [0.0]
本研究の目的は,仮想アシスタントの性能を向上させることである。
仮想アシスタントは、自分で完了できる特定のスマートフォンやPCのアクティビティを実質的に完了させることができる。
論文 参考訳(メタデータ) (2023-03-11T05:00:06Z) - Episodic Memory Question Answering [55.83870351196461]
我々は、人間がAIエージェントと対話し、質問することで拡張現実デバイスを駆動するシナリオを思い描いている。
成功するためには、エゴAIアシスタントはセマンティックにリッチで効率的なシーン記憶を構築する必要がある。
EMQA(Episodic Memory Question Answering)という新しいタスクを紹介します。
私たちが選択したエピソードシーンメモリは、非常に競争力のあるベースラインのホストであると同時に、そのタスクに対して、単純でオフザセンシティブなソリューションよりも優れています。
論文 参考訳(メタデータ) (2022-05-03T17:28:43Z) - Iconary: A Pictionary-Based Game for Testing Multimodal Communication
with Drawings and Text [70.14613727284741]
人間とのコミュニケーションは、世界の共通理解、複雑なセマンティクス、時にはマルチモーダルなジェスチャーを必要とするため、AIにとって難しい。
図面と推測の協調ゲームであるIconaryの文脈において,これらの課題を考察する。
我々は、Iconaryをプレイし、人間のプレイヤー間で55,000以上のゲームでそれらをトレーニングするモデルを提案する。
論文 参考訳(メタデータ) (2021-12-01T19:41:03Z) - Crossing the Tepper Line: An Emerging Ontology for Describing the
Dynamic Sociality of Embodied AI [0.9176056742068814]
AIがいかに「社会的に具現化されたAI」として現れるかを示す。
私たちはこれを、人間によって社会的かつエージェント的と認識された場合、対話的なコンテキスト内でaiを「循環的に」実施する状態と定義します。
論文 参考訳(メタデータ) (2021-03-15T00:45:44Z) - Challenges in Supporting Exploratory Search through Voice Assistants [9.861790101853863]
人々が音声アシスタントに慣れるにつれて、より複雑なタスクに対する期待が高まるかもしれない。
探索探索を支援する音声アシスタントの設計における4つの課題について概説する。
論文 参考訳(メタデータ) (2020-03-06T01:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。