論文の概要: Learning Contextual Retrieval for Robust Conversational Search
- arxiv url: http://arxiv.org/abs/2509.19700v1
- Date: Wed, 24 Sep 2025 02:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.6655
- Title: Learning Contextual Retrieval for Robust Conversational Search
- Title(参考訳): 頑健な会話探索のための文脈検索の学習
- Authors: Seunghan Yang, Juntae Lee, Jihwan Bang, Kyuhong Shim, Minsoo Kim, Simyung Chang,
- Abstract要約: ContextualRetrieverは、会話コンテキストを直接検索プロセスに組み込む新しいLLMベースのレトリバーである。
提案手法では,(1)対話履歴中の現在のクエリを強調表示するコンテキスト認識型埋め込み機構,(2)高品質なリライトクエリに基づく意図誘導型監視,(3)ベースLLMの生成能力を維持するためのトレーニング戦略を紹介する。
- 参考スコア(独自算出の注目度): 34.74877456870482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective conversational search demands a deep understanding of user intent across multiple dialogue turns. Users frequently use abbreviations and shift topics in the middle of conversations, posing challenges for conventional retrievers. While query rewriting techniques improve clarity, they often incur significant computational cost due to additional autoregressive steps. Moreover, although LLM-based retrievers demonstrate strong performance, they are not explicitly optimized to track user intent in multi-turn settings, often failing under topic drift or contextual ambiguity. To address these limitations, we propose ContextualRetriever, a novel LLM-based retriever that directly incorporates conversational context into the retrieval process. Our approach introduces: (1) a context-aware embedding mechanism that highlights the current query within the dialogue history; (2) intent-guided supervision based on high-quality rewritten queries; and (3) a training strategy that preserves the generative capabilities of the base LLM. Extensive evaluations across multiple conversational search benchmarks demonstrate that ContextualRetriever significantly outperforms existing methods while incurring no additional inference overhead.
- Abstract(参考訳): 効果的な会話検索は、複数の対話のターンにまたがってユーザーの意図を深く理解する必要がある。
ユーザーはしばしば略語を使い、会話の途中でトピックをシフトし、従来のレトリバーに挑戦する。
クエリ書き換え技術は明快さを向上させるが、追加の自己回帰的なステップのために計算コストが大幅に向上することが多い。
さらに、LLMベースのレトリバーは高い性能を示すが、マルチターン設定におけるユーザの意図を追跡するように明示的に最適化されておらず、しばしばトピックのドリフトやコンテキストの曖昧さの下で失敗する。
これらの制約に対処するために,会話コンテキストを直接検索プロセスに組み込む新しいLLMベースのレトリバーであるContextualRetrieverを提案する。
提案手法では,(1)対話履歴中の現在のクエリを強調表示するコンテキスト認識型埋め込み機構,(2)高品質なリライトクエリに基づく意図誘導型監視,(3)ベースLLMの生成能力を維持するためのトレーニング戦略を紹介する。
複数の対話型検索ベンチマークによる広範囲な評価は、ContextualRetrieverが既存のメソッドを著しく上回り、追加の推論オーバーヘッドは発生しないことを示している。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [130.19204432111277]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - ChatRetriever: Adapting Large Language Models for Generalized and Robust Conversational Dense Retrieval [37.24069808198862]
会話検索には複雑なマルチターンコンテキストからのユーザの意図を正確に解釈する必要がある。
本稿では,大規模言語モデルの強力な一般化能力を継承したChatRetrieverについて述べる。
論文 参考訳(メタデータ) (2024-04-21T07:03:55Z) - Effective and Efficient Conversation Retrieval for Dialogue State Tracking with Implicit Text Summaries [48.243879779374836]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - ZeQR: Zero-shot Query Reformulation for Conversational Search [11.644235288057123]
本稿では,対話型検索データからの監視を必要とせずに,従来の対話コンテキストに基づいてクエリを再構成する,ゼロショットクエリ再構成(あるいはクエリ書き換え)フレームワークを提案する。
具体的には、機械読解タスク用に設計された言語モデルを用いて、コア参照と省略という2つの共通の曖昧さを生クエリで明示的に解決する。
さらに、あいまいさが明確かつ積極的に解決されているため、説明可能性も向上し、クエリ意図の理解を効果的に強化する。
論文 参考訳(メタデータ) (2023-07-18T16:05:25Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。