論文の概要: Reasoning About Intent for Ambiguous Requests
- arxiv url: http://arxiv.org/abs/2511.10453v1
- Date: Fri, 14 Nov 2025 01:52:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.876234
- Title: Reasoning About Intent for Ambiguous Requests
- Title(参考訳): あいまいな請求に対するインテントの理由
- Authors: Irina Saparina, Mirella Lapata,
- Abstract要約: あいまいな要求に対して単一の構造化された応答で複数の解釈-問合せペアを生成することを提案する。
我々のモデルは、複数の有効な回答を監督として、強化学習とカスタマイズされた報酬関数で訓練されている。
- 参考スコア(独自算出の注目度): 47.979705857002415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models often respond to ambiguous requests by implicitly committing to one interpretation. Intent misunderstandings can frustrate users and create safety risks. To address this, we propose generating multiple interpretation-answer pairs in a single structured response to ambiguous requests. Our models are trained with reinforcement learning and customized reward functions using multiple valid answers as supervision. Experiments on conversational question answering and semantic parsing demonstrate that our method achieves higher coverage of valid answers than baseline approaches. Human evaluation confirms that predicted interpretations are highly aligned with their answers. Our approach promotes transparency with explicit interpretations, achieves efficiency by requiring only one generation step, and supports downstream applications through its structured output format.
- Abstract(参考訳): 大きな言語モデルは、しばしば1つの解釈に暗黙的にコミットすることで曖昧な要求に応答する。
インテントの誤解はユーザーをイライラさせ、安全性のリスクを生じさせる。
そこで本稿では,あいまいな要求に対する単一構造応答で複数の解釈-答え対を生成することを提案する。
我々のモデルは、複数の有効な回答を監督として、強化学習とカスタマイズされた報酬関数で訓練されている。
対話型質問応答とセマンティックパーシングの実験により,本手法がベースライン手法よりも有効回答のカバレッジを高めることを示す。
人間の評価は、予測された解釈が回答と高度に一致していることを確認する。
提案手法は,透過性を明示的な解釈で促進し,生成ステップを1つだけ必要とすることで効率を向上し,構成された出力形式を通じて下流アプリケーションをサポートする。
関連論文リスト
- Modeling Future Conversation Turns to Teach LLMs to Ask Clarifying Questions [45.04582353648683]
大規模言語モデル(LLM)は、しばしば非常にあいまいなユーザー要求に応答しなければならない。
既存のLLMは、そのような曖昧な要求の単一解釈を前提とすることで、異なる解釈を意図したユーザーをいらいらさせる。
今後,期待する結果をシミュレーションして選好ラベルを提案する。
これによってLLMは、将来の順番で各ユーザの解釈に合わせた応答を生成することができるのか、明確な質問を学べるようになる。
論文 参考訳(メタデータ) (2024-10-17T17:29:04Z) - Answer is All You Need: Instruction-following Text Embedding via
Answering the Question [41.727700155498546]
本稿では、入力テキストに関する質問として命令を扱い、予測された回答を符号化して表現を得る新しい視点を提供する。
具体的には,抽象的質問応答タスクの言語モデルのみを微調整することで,この組込み解答のアイデアをインスタンス化するInBedderを提案する。
論文 参考訳(メタデータ) (2024-02-15T01:02:41Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - A Search for Prompts: Generating Structured Answers from Contracts [40.99057706243682]
我々は、契約条項に関する質問に対して、1つ(またはそれ以上)の固定された回答を返そうとする法的質問応答の一形態を示す。
我々は,OpenAIのtextitGPT-3.5-Turbo を用いた法的質問応答プロンプトの探索手法について議論し,洞察の要約を提供する。
論文 参考訳(メタデータ) (2023-10-16T07:29:38Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - TASA: Deceiving Question Answering Models by Twin Answer Sentences
Attack [93.50174324435321]
本稿では,質問応答(QA)モデルに対する敵対的攻撃手法であるTASA(Twin Answer Sentences Attack)を提案する。
TASAは、金の回答を維持しながら、流動的で文法的な逆境を生み出す。
論文 参考訳(メタデータ) (2022-10-27T07:16:30Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - Predict and Use Latent Patterns for Short-Text Conversation [5.757975605648179]
そこで本研究では,より詳細なセマンティックフォーム(潜時応答や部分音声シーケンスなど)を制御可能なセマンティックスとして使用し,生成を導くことを提案する。
以上の結果から,よりリッチなセマンティクスは情報的かつ多様な応答を提供するだけでなく,応答品質の全体的な性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-27T01:31:42Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。