論文の概要: Sherlock Your Queries: Learning to Ask the Right Questions for Dialogue-Based Retrieval
- arxiv url: http://arxiv.org/abs/2510.18659v1
- Date: Tue, 21 Oct 2025 14:10:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.724926
- Title: Sherlock Your Queries: Learning to Ask the Right Questions for Dialogue-Based Retrieval
- Title(参考訳): クエリをシャーロックする: 対話に基づく検索のための適切な質問を学習する
- Authors: Dong Yun, Marco Schouten, Dim Papadopoulos,
- Abstract要約: SherlockLLMは、Reinforcement Learning (RL)を通じて最適な質問戦略を学ぶ対話駆動検索フレームワークである。
本フレームワークでは,探索空間を効率的に絞り込むために,エージェントが2次質問列を生成するように訓練する。
実験の結果,SherlockLLMは堅牢で効率的な解であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User queries in information retrieval are often ambiguous, making it challenging for systems to identify a user's target from a single query. While recent dialogue-based interactive retrieval systems can clarify user intent, they are inefficient as they often lack an explicit strategy to ask the most informative questions. To address this limitation, we propose SherlockLLM, a dialogue-driven retrieval framework that learns an optimal questioning strategy via Reinforcement Learning (RL) and avoids the need for large-scale annotated dialogue data. In our framework, an agent is trained to generate a sequence of binary questions to efficiently narrow down the search space. To validate our approach, we introduce a benchmark with both structured and unstructured tasks. Experimental results show that SherlockLLM is a robust and efficient solution. On the structured tasks, its performance matches strong baselines and approaches the theoretical optimal defined by binary search. On the challenging unstructured task, our agent significantly outperforms these baselines, showcasing its ability to learn a highly effective information-seeking dialogue policy.
- Abstract(参考訳): 情報検索におけるユーザクエリは曖昧であることが多く、単一のクエリからユーザのターゲットを特定することは困難である。
近年の対話型対話型検索システムでは,ユーザの意図を明らかにすることができるが,最も有意義な質問を行うための明確な戦略が欠如している場合が多いため,非効率である。
この制限に対処するために、Reinforcement Learning (RL)を介して最適な質問戦略を学習し、大規模な注釈付き対話データを必要としない対話駆動検索フレームワークであるSherlockLLMを提案する。
本フレームワークでは,探索空間を効率的に絞り込むために,エージェントが2次質問列を生成するように訓練する。
提案手法を検証するため,構造化タスクと非構造化タスクのベンチマークを導入する。
実験の結果,SherlockLLMは堅牢で効率的な解であることがわかった。
構造化タスクでは、その性能は強いベースラインと一致し、二分探索によって定義される理論的最適にアプローチする。
難易度の高い未構造化タスクでは,エージェントがこれらのベースラインを大幅に上回り,高度に効果的な情報探索対話ポリシーを学習する能力を示している。
関連論文リスト
- Learning Contextual Retrieval for Robust Conversational Search [34.74877456870482]
ContextualRetrieverは、会話コンテキストを直接検索プロセスに組み込む新しいLLMベースのレトリバーである。
提案手法では,(1)対話履歴中の現在のクエリを強調表示するコンテキスト認識型埋め込み機構,(2)高品質なリライトクエリに基づく意図誘導型監視,(3)ベースLLMの生成能力を維持するためのトレーニング戦略を紹介する。
論文 参考訳(メタデータ) (2025-09-24T02:17:37Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Few-Shot Query Intent Detection via Relation-Aware Prompt Learning [14.048513219736543]
モデル事前学習のためのテキストと関係構造情報を統合した新しいフレームワークを提案する。
このフレームワークを基盤として,クエリ適応型アテンションネットワーク(QueryAdapt)を提案する。
論文 参考訳(メタデータ) (2025-09-06T07:41:47Z) - CLEAR-KGQA: Clarification-Enhanced Ambiguity Resolution for Knowledge Graph Question Answering [13.624962763072899]
KGQAシステムは通常、ユーザクエリは曖昧であると仮定するが、これは現実世界のアプリケーションではめったに行われない仮定である。
本稿では,対話的明確化を通じて,エンティティのあいまいさ(類似した名前を持つエンティティの区別など)と意図のあいまいさ(ユーザクエリの異なる解釈を明確にするなど)を動的に扱う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-13T17:34:35Z) - Social Commonsense-Guided Search Query Generation for Open-Domain
Knowledge-Powered Conversations [66.16863141262506]
本稿では,ソーシャルコモンセンスによってガイドされたインターネット検索クエリ生成に焦点を当てた新しいアプローチを提案する。
提案フレームワークは,トピックトラッキング,コモンセンス応答生成,命令駆動クエリ生成を統合することで,受動的ユーザインタラクションに対処する。
論文 参考訳(メタデータ) (2023-10-22T16:14:56Z) - What Does The User Want? Information Gain for Hierarchical Dialogue
Policy Optimisation [3.1433893853959605]
強化学習(RL)による最適化は、非効率性と不安定性のサンプリングに影響を受けやすい。
本稿では,この問題に対処するための情報ゲインに基づく本質的な報酬の利用を提案する。
FeudalGainと呼ばれる我々のアルゴリズムは、PyDialフレームワークのほとんどの環境で最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-15T07:21:26Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。