論文の概要: Improving Neural Retrieval with Attribution-Guided Query Rewriting
- arxiv url: http://arxiv.org/abs/2602.11841v1
- Date: Thu, 12 Feb 2026 11:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.787774
- Title: Improving Neural Retrieval with Attribution-Guided Query Rewriting
- Title(参考訳): 帰属型クエリ書き換えによるニューラル検索の改善
- Authors: Moncef Garouani, Josiane Mothe,
- Abstract要約: 明確でないクエリやあいまいなクエリは、関係するドキュメントが存在する場合でも、ランク付けを誤って行うことができる。
本稿では,トークンレベルの説明を用いた帰属誘導型クエリ書き換え手法を提案する。
結果の書き直しは、強いベースライン上での検索効率を一貫して改善する。
- 参考スコア(独自算出の注目度): 3.1153758106426603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural retrievers are effective but brittle: underspecified or ambiguous queries can misdirect ranking even when relevant documents exist. Existing approaches address this brittleness only partially: LLMs rewrite queries without retriever feedback, and explainability methods identify misleading tokens but are used for post-hoc analysis. We close this loop and propose an attribution-guided query rewriting method that uses token-level explanations to guide query rewriting. For each query, we compute gradient-based token attributions from the retriever and then use these scores as soft guidance in a structured prompt to an LLM that clarifies weak or misleading query components while preserving intent. Evaluated on BEIR collections, the resulting rewrites consistently improve retrieval effectiveness over strong baselines, with larger gains for implicit or ambiguous information needs.
- Abstract(参考訳): ニューラルレトリバーは有効だが不安定である。不明確なクエリやあいまいなクエリは、関係するドキュメントが存在する場合でも、ランク付けを誤って行うことができる。
LLMはレトリバーのフィードバックなしにクエリを書き換え、説明可能性メソッドは誤解を招くトークンを識別するが、ポストホック解析に使用される。
本稿では,このループを閉じて,トークンレベルの説明を用いてクエリ書き換えをガイドする帰属誘導型クエリ書き換え手法を提案する。
各クエリに対して、検索者からの勾配に基づくトークン属性を計算し、そのスコアを構造化プロンプトのソフトガイダンスとして使用し、インテントを保ちながら、弱いまたは誤解を招くクエリコンポーネントを明らかにする。
BEIRコレクションに基づいて評価し、結果として得られたリライトは、強いベースライン上での検索効率を一貫して改善し、暗黙的または曖昧な情報要求に対してより大きな利益を得る。
関連論文リスト
- Hint-Augmented Re-ranking: Efficient Product Search using LLM-Based Query Decomposition [20.966359103135762]
LLMは,eコマースクエリにおいて最下位の意図を明らかにすることができることを示す。
提案手法では,クエリを検索と同時に生成した属性値ヒントに分解する。
本手法はMAPにおける検索効率を10.9ポイント改善し,ベースライン上のMRRにおいて5.9ポイントのランク付けを行う。
論文 参考訳(メタデータ) (2025-11-17T23:53:25Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Constructing Set-Compositional and Negated Representations for First-Stage Ranking [23.123116796159717]
本稿では,クエリの否定的な部分のみをペナライズするDistangled Negationと,交点を扱うLSRの能力を向上するCombined Pseudo-Termアプローチを紹介する。
私たちのゼロショットアプローチは競争力があり、しばしば合成データに基づいて調整されたレトリバーよりも優れています。
論文 参考訳(メタデータ) (2025-01-13T20:32:38Z) - R-Bot: An LLM-based Query Rewrite System [20.909806427953264]
本稿では,LLMに基づく問合せ書き換えシステムであるR-Botを提案する。
まず,複数ソースのリライトエビデンス作成パイプラインを設計し,クエリリライトエビデンスを生成する。
次に,構造解析と意味解析を組み合わせたハイブリッド・セマンティック検索手法を提案する。
実世界のデータセットと広く使われているベンチマークに関する包括的な実験を行い、システムの優れた性能を実証する。
論文 参考訳(メタデータ) (2024-12-02T16:13:04Z) - Adaptive Query Rewriting: Aligning Rewriters through Marginal Probability of Conversational Answers [66.55612528039894]
AdaQRは、シードデータセットからの限定的な書き直しアノテーションと完全にパスラベルのないクエリ書き換えモデルをトレーニングするフレームワークである。
会話クエリに条件付き回答の確率を用いて,これらの候補に対する検索者の嗜好を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T16:09:05Z) - Context Aware Query Rewriting for Text Rankers using LLM [5.164642900490078]
テキストランキングタスクのクエリ書き直し改善のための大規模モデルの有用性を解析する。
私たちは、コンテキスト対応クエリ書き換え(CAR)と呼ばれる、シンプルだが驚くほど効果的なアプローチを採用しています。
書き直しクエリを使ってランク付けを行うと、パスランキングタスクでは最大33%、ドキュメントランキングタスクでは最大28%の大幅な改善が得られます。
論文 参考訳(メタデータ) (2023-08-31T14:19:50Z) - Decomposing Complex Queries for Tip-of-the-tongue Retrieval [72.07449449115167]
複雑なクエリは、コンテンツ要素(例えば、書籍の文字やイベント)、ドキュメントテキスト以外の情報を記述する。
この検索設定は舌の先端 (TOT) と呼ばれ、クエリと文書テキスト間の語彙的および意味的重複に依存するモデルでは特に困難である。
クエリを個別のヒントに分解し、サブクエリとしてルーティングし、特定の検索者にルーティングし、結果をアンサンブルすることで、このような複雑なクエリを扱うための、シンプルで効果的なフレームワークを導入します。
論文 参考訳(メタデータ) (2023-05-24T11:43:40Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Improving Query Representations for Dense Retrieval with Pseudo
Relevance Feedback [29.719150565643965]
本稿では,疑似関連性フィードバック(PRF)を用いて高密度検索のためのクエリ表現を改善する新しいクエリエンコーダであるANCE-PRFを提案する。
ANCE-PRF は BERT エンコーダを使用し、検索モデルである ANCE からクエリとトップ検索されたドキュメントを消費し、関連ラベルから直接クエリの埋め込みを生成する。
PRFエンコーダは、学習された注意機構でノイズを無視しながら、PRF文書から関連および補完的な情報を効果的にキャプチャする。
論文 参考訳(メタデータ) (2021-08-30T18:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。