論文の概要: Interpreting Answers to Yes-No Questions in Dialogues from Multiple Domains
- arxiv url: http://arxiv.org/abs/2404.16262v1
- Date: Thu, 25 Apr 2024 00:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 15:07:57.300980
- Title: Interpreting Answers to Yes-No Questions in Dialogues from Multiple Domains
- Title(参考訳): 複数のドメインからの対話におけるイエスノー質問への回答
- Authors: Zijie Wang, Farzana Rashid, Eduardo Blanco,
- Abstract要約: 多くの場合、イエス、ノー、または同様の極性キーワードを明示せずにイエスノー質問に答える。
我々は,映画脚本,テニスインタビュー,航空顧客サービスという3つの領域に新たなベンチマークを提示する。
- 参考スコア(独自算出の注目度): 13.057934487969522
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: People often answer yes-no questions without explicitly saying yes, no, or similar polar keywords. Figuring out the meaning of indirect answers is challenging, even for large language models. In this paper, we investigate this problem working with dialogues from multiple domains. We present new benchmarks in three diverse domains: movie scripts, tennis interviews, and airline customer service. We present an approach grounded on distant supervision and blended training to quickly adapt to a new dialogue domain. Experimental results show that our approach is never detrimental and yields F1 improvements as high as 11-34%.
- Abstract(参考訳): 多くの場合、イエス、ノー、または同様の極性キーワードを明示せずにイエスノー質問に答える。
大規模な言語モデルであっても、間接的な回答の意味を理解することは難しい。
本稿では,複数のドメインからの対話を扱う問題について検討する。
我々は,映画脚本,テニスインタビュー,航空顧客サービスという3つの領域に新たなベンチマークを提示する。
本稿では,遠隔監督とブレンドトレーニングを基礎として,新たな対話領域に迅速に適応するアプローチを提案する。
以上の結果から,F1の改善は最大11~34%に達することが示唆された。
関連論文リスト
- Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Interpreting Indirect Answers to Yes-No Questions in Multiple Languages [10.786408005081993]
この難しい問題に集中し、8つの言語で新しいベンチマークをリリースします。
直接解答(すなわち極性キーワード)は、間接解答を解釈するモデルを訓練するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-10-20T05:43:33Z) - Which One Are You Referring To? Multimodal Object Identification in
Situated Dialogue [50.279206765971125]
本稿では,会話や状況から多モーダル入力を解釈する3つの手法について検討する。
最適手法であるシーン対話アライメントは,SIMMC 2.1ベースラインと比較して20%F1スコアで性能を向上する。
論文 参考訳(メタデータ) (2023-02-28T15:45:20Z) - Building and Evaluating Open-Domain Dialogue Corpora with Clarifying
Questions [65.60888490988236]
オープンドメインのシングルターンとマルチターンの会話に焦点を当てたデータセットをリリースする。
我々は最先端のニューラルベースラインをいくつかベンチマークする。
様々な対話における質問の明確化の質を評価するための,オフラインおよびオンラインのステップからなるパイプラインを提案する。
論文 参考訳(メタデータ) (2021-09-13T09:16:14Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - MTSS: Learn from Multiple Domain Teachers and Become a Multi-domain
Dialogue Expert [24.010266171280342]
マルチドメイン・セッティングにおける満足度向上のための新しい手法を提案する。
実学教育のシナリオに触発された本手法は,複数のドメイン固有の教師と普遍的な学生から構成される。
実験の結果,本手法はマルチドメインと単一ドメインの両方でSOTAと競合する結果を得た。
論文 参考訳(メタデータ) (2020-05-21T03:40:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。