論文の概要: Your Dense Retriever is Secretly an Expeditious Reasoner
- arxiv url: http://arxiv.org/abs/2510.21727v2
- Date: Tue, 28 Oct 2025 02:31:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 17:50:20.162114
- Title: Your Dense Retriever is Secretly an Expeditious Reasoner
- Title(参考訳): ドキドキするレトリバー「Dense Retriever」
- Authors: Yichi Zhang, Jun Bai, Zhixin Cai, Shuhan Qin, Zhuofan Chen, Jinghua Guan, Wenge Rong,
- Abstract要約: 本稿では,ハイブリッドクエリ書き換えフレームワークであるAdaptive Query Reasoning (AdaQR)を提案する。
AdaQRは推論コストを28%削減し、保存または検索パフォーマンスを7%向上させる。
- 参考スコア(独自算出の注目度): 12.123445960145693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense retrievers enhance retrieval by encoding queries and documents into continuous vectors, but they often struggle with reasoning-intensive queries. Although Large Language Models (LLMs) can reformulate queries to capture complex reasoning, applying them universally incurs significant computational cost. In this work, we propose Adaptive Query Reasoning (AdaQR), a hybrid query rewriting framework. Within this framework, a Reasoner Router dynamically directs each query to either fast dense reasoning or deep LLM reasoning. The dense reasoning is achieved by the Dense Reasoner, which performs LLM-style reasoning directly in the embedding space, enabling a controllable trade-off between efficiency and accuracy. Experiments on large-scale retrieval benchmarks BRIGHT show that AdaQR reduces reasoning cost by 28% while preserving-or even improving-retrieval performance by 7%.
- Abstract(参考訳): デンスレトリバーは、クエリやドキュメントを連続ベクターにエンコードすることで検索を強化するが、推論集約的なクエリに苦慮することが多い。
LLM(Large Language Models)は、クエリを再構成して複雑な推論をキャプチャし、それらを普遍的に適用することで計算コストを大幅に削減する。
本研究では,ハイブリッドクエリ書き換えフレームワークであるAdaptive Query Reasoning (AdaQR)を提案する。
このフレームワーク内では、Reasoner Routerが各クエリを高速な高密度推論または深層LSM推論に動的に指示する。
密な推論はDense Reasonerによって達成され、埋め込み空間に直接LCMスタイルの推論を行い、効率と精度のトレードオフを制御できる。
大規模検索ベンチマークの実験 BRIGHTは、AdaQRが推論コストを28%削減し、保存または検索性能を7%改善していることを示している。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - DIVER: A Multi-Stage Approach for Reasoning-intensive Information Retrieval [36.38599923075882]
DIVERは、推論集約的な情報検索のために設計された検索パイプラインである。
ドキュメント前処理ステージ、クエリ拡張ステージ、検索ステージ、再ランクステージの4つのコンポーネントで構成されている。
BRIGHTベンチマークでは、DIVERは最先端のnDCG@10スコアを45.8点、オリジナルクエリでは28.9点と達成し、競争力のある推論モデルを上回っている。
論文 参考訳(メタデータ) (2025-08-11T13:57:49Z) - LogiCoL: Logically-Informed Contrastive Learning for Set-based Dense Retrieval [54.2765452810124]
我々は,高密度検索のための論理的インフォームド・コントラスト学習対象であるLogiCoLを紹介する。
結果から,LogiCoLで学習したモデルでは,検索性能と論理的整合性の両面で改善が見られた。
論文 参考訳(メタデータ) (2025-05-26T07:00:32Z) - GuRE:Generative Query REwriter for Legal Passage Retrieval [20.387315810696368]
LPR(Lawal Passage Retrieval)システムは、法的議論を起草する際の時間節約を支援するため、重要なシステムである。
主な理由は、クエリとターゲットパスの間の大きな語彙ミスマッチである。
本稿では,簡易かつ効果的な生成クエリリライタ(GuRE)を提案する。
論文 参考訳(メタデータ) (2025-05-19T10:42:36Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - Large Language Model Can Be a Foundation for Hidden Rationale-Based Retrieval [12.83513794686623]
本稿では,隠れ合理性検索という,より困難なタイプの検索タスクを提案し,検討する。
このような問題に対処するためには、命令調整付き大規模言語モデル(LLM)とクロスエンコーダアーキテクチャが妥当な選択である可能性がある。
我々は、RaHoReによってこの検索フレームワークを命名し、感情支援会話(ESC)におけるゼロショットおよび微調整性能上の優位性を検証した。
論文 参考訳(メタデータ) (2024-12-21T13:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。