論文の概要: Learning Contextual Retrieval for Robust Conversational Search
- arxiv url: http://arxiv.org/abs/2509.19700v1
- Date: Wed, 24 Sep 2025 02:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.6655
- Title: Learning Contextual Retrieval for Robust Conversational Search
- Title(参考訳): 頑健な会話探索のための文脈検索の学習
- Authors: Seunghan Yang, Juntae Lee, Jihwan Bang, Kyuhong Shim, Minsoo Kim, Simyung Chang,
- Abstract要約: ContextualRetrieverは、会話コンテキストを直接検索プロセスに組み込む新しいLLMベースのレトリバーである。
提案手法では,(1)対話履歴中の現在のクエリを強調表示するコンテキスト認識型埋め込み機構,(2)高品質なリライトクエリに基づく意図誘導型監視,(3)ベースLLMの生成能力を維持するためのトレーニング戦略を紹介する。
- 参考スコア(独自算出の注目度): 34.74877456870482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective conversational search demands a deep understanding of user intent across multiple dialogue turns. Users frequently use abbreviations and shift topics in the middle of conversations, posing challenges for conventional retrievers. While query rewriting techniques improve clarity, they often incur significant computational cost due to additional autoregressive steps. Moreover, although LLM-based retrievers demonstrate strong performance, they are not explicitly optimized to track user intent in multi-turn settings, often failing under topic drift or contextual ambiguity. To address these limitations, we propose ContextualRetriever, a novel LLM-based retriever that directly incorporates conversational context into the retrieval process. Our approach introduces: (1) a context-aware embedding mechanism that highlights the current query within the dialogue history; (2) intent-guided supervision based on high-quality rewritten queries; and (3) a training strategy that preserves the generative capabilities of the base LLM. Extensive evaluations across multiple conversational search benchmarks demonstrate that ContextualRetriever significantly outperforms existing methods while incurring no additional inference overhead.
- Abstract(参考訳): 効果的な会話検索は、複数の対話のターンにまたがってユーザーの意図を深く理解する必要がある。
ユーザーはしばしば略語を使い、会話の途中でトピックをシフトし、従来のレトリバーに挑戦する。
クエリ書き換え技術は明快さを向上させるが、追加の自己回帰的なステップのために計算コストが大幅に向上することが多い。
さらに、LLMベースのレトリバーは高い性能を示すが、マルチターン設定におけるユーザの意図を追跡するように明示的に最適化されておらず、しばしばトピックのドリフトやコンテキストの曖昧さの下で失敗する。
これらの制約に対処するために,会話コンテキストを直接検索プロセスに組み込む新しいLLMベースのレトリバーであるContextualRetrieverを提案する。
提案手法では,(1)対話履歴中の現在のクエリを強調表示するコンテキスト認識型埋め込み機構,(2)高品質なリライトクエリに基づく意図誘導型監視,(3)ベースLLMの生成能力を維持するためのトレーニング戦略を紹介する。
複数の対話型検索ベンチマークによる広範囲な評価は、ContextualRetrieverが既存のメソッドを著しく上回り、追加の推論オーバーヘッドは発生しないことを示している。
関連論文リスト
- Agentic Conversational Search with Contextualized Reasoning via Reinforcement Learning [66.52010873968383]
本稿では,RL学習を通じて学習した探索的,適応的な行動を可能にする,交互に探索と推論をインターリーブする対話エージェントを提案する。
広く使われている4つの対話型ベンチマークによる実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-19T14:55:54Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [130.19204432111277]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Contextualizing Search Queries In-Context Learning for Conversational Rewriting with LLMs [0.0]
本稿では,数発の対話型クエリ書き換えのための新しいアプローチであるPrompt-Guided In-Context Learningを紹介する。
提案手法では,タスク記述,入出力形式仕様,図示的な例を取り入れ,慎重に設計したプロンプトを用いている。
ベンチマークデータセットであるTRECとTaskmaster-1の実験は、我々のアプローチが強いベースラインを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2025-02-20T20:02:42Z) - IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - ChatRetriever: Adapting Large Language Models for Generalized and Robust Conversational Dense Retrieval [37.24069808198862]
会話検索には複雑なマルチターンコンテキストからのユーザの意図を正確に解釈する必要がある。
本稿では,大規模言語モデルの強力な一般化能力を継承したChatRetrieverについて述べる。
論文 参考訳(メタデータ) (2024-04-21T07:03:55Z) - Effective and Efficient Conversation Retrieval for Dialogue State Tracking with Implicit Text Summaries [48.243879779374836]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - ZeQR: Zero-shot Query Reformulation for Conversational Search [11.644235288057123]
本稿では,対話型検索データからの監視を必要とせずに,従来の対話コンテキストに基づいてクエリを再構成する,ゼロショットクエリ再構成(あるいはクエリ書き換え)フレームワークを提案する。
具体的には、機械読解タスク用に設計された言語モデルを用いて、コア参照と省略という2つの共通の曖昧さを生クエリで明示的に解決する。
さらに、あいまいさが明確かつ積極的に解決されているため、説明可能性も向上し、クエリ意図の理解を効果的に強化する。
論文 参考訳(メタデータ) (2023-07-18T16:05:25Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。