論文の概要: Deciding Whether to Ask Clarifying Questions in Large-Scale Spoken
Language Understanding
- arxiv url: http://arxiv.org/abs/2109.12451v1
- Date: Sat, 25 Sep 2021 22:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:37:48.389812
- Title: Deciding Whether to Ask Clarifying Questions in Large-Scale Spoken
Language Understanding
- Title(参考訳): 大規模音声言語理解における明確化質問の判断
- Authors: Joo-Kyung Kim, Guoyin Wang, Sungjin Lee, Young-Bum Kim
- Abstract要約: 大規模会話エージェントは、様々なあいまいさでユーザの発話を理解するのに苦しむことがある。
本稿では,あいまいさと文脈的信号による仮説を生かした神経自覚モデルを提案する。
- 参考スコア(独自算出の注目度): 28.195853603190447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large-scale conversational agent can suffer from understanding user
utterances with various ambiguities such as ASR ambiguity, intent ambiguity,
and hypothesis ambiguity. When ambiguities are detected, the agent should
engage in a clarifying dialog to resolve the ambiguities before committing to
actions. However, asking clarifying questions for all the ambiguity occurrences
could lead to asking too many questions, essentially hampering the user
experience. To trigger clarifying questions only when necessary for the user
satisfaction, we propose a neural self-attentive model that leverages the
hypotheses with ambiguities and contextual signals. We conduct extensive
experiments on five common ambiguity types using real data from a large-scale
commercial conversational agent and demonstrate significant improvement over a
set of baseline approaches.
- Abstract(参考訳): 大規模会話エージェントは、asr曖昧性、意図曖昧性、仮説曖昧性などの様々な曖昧性を持つユーザの発話を理解するのに苦しむ。
あいまいさが検出されると、エージェントは、行動にコミットする前にあいまいさを解決するために明確な対話を行うべきである。
しかしながら、曖昧さのすべての発生について明確な質問を行うことは、ユーザエクスペリエンスを阻害する、過剰な質問につながる可能性がある。
ユーザの満足度に必要となる場合にのみ、明確な質問をトリガーするために、あいまいさと文脈的信号による仮説を生かした神経自覚モデルを提案する。
大規模商業会話エージェントからの実データを用いて,5種類の共通曖昧性について広範囲に実験を行い,一連のベースラインアプローチに対する大幅な改善を示す。
関連論文リスト
- Aligning Language Models to Explicitly Handle Ambiguity [22.078095273053506]
我々は,あいまいなクエリを扱うために,言語モデルを整列する新しいパイプラインであるAlignment with Perceived Ambiguity (APA)を提案する。
APAは、明確な質問に答える能力を維持しつつ、あいまいなクエリを明示的に検出し、管理するLLMに権限を与えることを示す。
論文 参考訳(メタデータ) (2024-04-18T07:59:53Z) - Asking Multimodal Clarifying Questions in Mixed-Initiative
Conversational Search [89.1772985740272]
混合開始型会話検索システムでは、質問を明確にすることで、意図を単一のクエリで表現するのに苦労するユーザを支援する。
マルチモーダル情報が関係するシナリオでは、非テクスチャ情報を用いることで、明確化のプロセスを改善することができると仮定する。
質問を明確にする4k以上のマルチモーダルを含むMelonというデータセットを収集し、14k以上の画像で濃縮する。
クエリの明確化フェーズにおけるマルチモーダルコンテンツの重要性を理解するために,いくつかの解析を行った。
論文 参考訳(メタデータ) (2024-02-12T16:04:01Z) - Asking the Right Question at the Right Time: Human and Model Uncertainty
Guidance to Ask Clarification Questions [2.3838507844983248]
モデルの不確実性は、人間の明確化と探索の振る舞いを反映しないことを示す。
本稿では,モデル不確実性推定に基づく明確化問題の生成手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T16:15:30Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Open-ended Commonsense Reasoning with Unrestricted Answer Scope [47.14397700770702]
Open-ended Commonsense Reasoning は、1) 回答候補の短いリスト、2) 事前定義された回答スコープを提供することなく、Commonsenseの問題を解決するものとして定義される。
本研究では,事前学習した言語モデルを用いて,外部知識に基づく推論経路を反復的に検索する。
推論パスは、常識的な質問に対する最も正確な答えを特定するのに役立つ。
論文 参考訳(メタデータ) (2023-10-18T02:45:54Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Is the Elephant Flying? Resolving Ambiguities in Text-to-Image
Generative Models [64.58271886337826]
テキストから画像への生成モデルで生じるあいまいさについて検討する。
本稿では,ユーザから明確化を求めることによって,システムに与えられるプロンプトのあいまいさを軽減する枠組みを提案する。
論文 参考訳(メタデータ) (2022-11-17T17:12:43Z) - Decision-Theoretic Question Generation for Situated Reference
Resolution: An Empirical Study and Computational Model [11.543386846947554]
遠隔実験者と対話しながらツールセットを整理する仮想ロボットを参加者が操作する対話型研究から対話データを分析した。
あいまいさを解消するために用いられる質問型の分布や、参照分解過程における対話レベル要因の影響など、多くの新しい結果が得られた。
論文 参考訳(メタデータ) (2021-10-12T19:23:25Z) - Interactive Question Clarification in Dialogue via Reinforcement
Learning [36.746578601398866]
本来のクエリの改良を提案することにより,曖昧な質問を明確にする強化モデルを提案する。
モデルは、深いポリシーネットワークで強化学習を使用して訓練されます。
実世界のユーザクリックに基づいてモデルを評価し,大幅な改善を示す。
論文 参考訳(メタデータ) (2020-12-17T06:38:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。