論文の概要: IMRNNs: An Efficient Method for Interpretable Dense Retrieval via Embedding Modulation
- arxiv url: http://arxiv.org/abs/2601.20084v1
- Date: Tue, 27 Jan 2026 22:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.678759
- Title: IMRNNs: An Efficient Method for Interpretable Dense Retrieval via Embedding Modulation
- Title(参考訳): IMRNNs:埋め込み変調による高密度検索の効率化
- Authors: Yash Saxena, Ankur Padia, Kalpa Gunaratna, Manas Gaur,
- Abstract要約: ブラックボックスの高密度レトリバーの解釈性は、リトリーバル強化世代における中心的な課題である。
IMRNN(Interpretable Modular Retrieval Neural Networks)は,高密度検索を推論時に動的,双方向の変調で拡張する軽量なフレームワークである。
- 参考スコア(独自算出の注目度): 10.74445059832999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability in black-box dense retrievers remains a central challenge in Retrieval-Augmented Generation (RAG). Understanding how queries and documents semantically interact is critical for diagnosing retrieval behavior and improving model design. However, existing dense retrievers rely on static embeddings for both queries and documents, which obscures this bidirectional relationship. Post-hoc approaches such as re-rankers are computationally expensive, add inference latency, and still fail to reveal the underlying semantic alignment. To address these limitations, we propose Interpretable Modular Retrieval Neural Networks (IMRNNs), a lightweight framework that augments any dense retriever with dynamic, bidirectional modulation at inference time. IMRNNs employ two independent adapters: one conditions document embeddings on the current query, while the other refines the query embedding using corpus-level feedback from initially retrieved documents. This iterative modulation process enables the model to adapt representations dynamically and expose interpretable semantic dependencies between queries and documents. Empirically, IMRNNs not only enhance interpretability but also improve retrieval effectiveness. Across seven benchmark datasets, applying our method to standard dense retrievers yields average gains of +6.35% nDCG, +7.14% recall, and +7.04% MRR over state-of-the-art baselines. These results demonstrate that incorporating interpretability-driven modulation can both explain and enhance retrieval in RAG systems.
- Abstract(参考訳): ブラックボックス高密度レトリバーの解釈性は、レトリーバル強化世代(RAG)における中心的な課題である。
クエリとドキュメントのセマンティックな相互作用を理解することは、検索動作の診断とモデル設計の改善に不可欠である。
しかし、既存の密集型レトリバーは、クエリとドキュメントの両方に静的な埋め込みに依存しており、この双方向の関係を曖昧にしている。
再ランカのようなポストホックなアプローチは計算コストが高く、推論遅延を追加し、根底にあるセマンティックアライメントを明らかにすることができない。
これらの制約に対処するため,提案するInterpretable Modular Retrieval Neural Networks (IMRNNs) を提案する。
IMRNNには2つの独立したアダプタがある: 1つは現在のクエリにドキュメントを埋め込む条件、もう1つは最初に取得したドキュメントからコーパスレベルのフィードバックを使ってクエリを埋め込む条件である。
この反復変調プロセスにより、モデルは動的に表現を適応し、クエリとドキュメント間の解釈可能なセマンティック依存関係を公開することができる。
経験的には、IMRNNは解釈可能性を高めるだけでなく、検索効率も向上する。
7つのベンチマークデータセットにまたがって、我々の手法を標準的な高密度検索に適用すると、平均利得は+6.35%のnDCG、+7.14%のリコール、+7.04%のMRRとなる。
これらの結果は,RAGシステムにおいて,解釈可能性による変調を取り入れることで,検索を説明・強化できることを示した。
関連論文リスト
- CREAM: Continual Retrieval on Dynamic Streaming Corpora with Adaptive Soft Memory [19.64051996386645]
CREAMは、メモリベースの連続検索のための自己教師型フレームワークである。
教師なしの環境では、目に見えないトピックと見えないトピックの両方に適応します。
2つのベンチマークデータセットの実験は、CREAMが優れた適応性と精度を示すことを示した。
論文 参考訳(メタデータ) (2026-01-06T04:47:49Z) - MARAG-R1: Beyond Single Retriever via Reinforcement-Learned Multi-Tool Agentic Retrieval [50.30107119622642]
大規模言語モデル(LLM)は推論と生成において優れているが、本質的には静的事前学習データによって制限されている。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識に基盤を置くことでこの問題に対処する。
MarAG-R1は、LLMが複数の検索機構を動的に調整できる強化学習型マルチツールRAGフレームワークである。
論文 参考訳(メタデータ) (2025-10-31T15:51:39Z) - Enhancing Retrieval-Augmented Generation with Two-Stage Retrieval: FlashRank Reranking and Query Expansion [0.0]
RAGは、大きな言語モデル(LLM)とレトリバーを結合して、外部のエビデンスで生成された応答を接地する。
LLM駆動型クエリ拡張を統合して候補リコールを改善する2段階検索パイプラインを提案する。
FlashRankは、トークン予算の下で最適な証拠のサブセットを動的に選択する高速な限界効用リランカである。
論文 参考訳(メタデータ) (2025-10-17T15:08:17Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Cognitive-Aligned Document Selection for Retrieval-augmented Generation [2.9060210098040855]
本稿では,クエリを動的に更新し,高品質で信頼性の高い検索文書をフィルタリングするGGatrievalを提案する。
ユーザクエリを構文コンポーネントにパースし、検索したドキュメントときめ細かいグラウンドアライメントを実行する。
提案手法では,検索した文書をフィルタリングするための新しい基準を導入し,ターゲット情報を取得するための人的戦略を密にエミュレートする。
論文 参考訳(メタデータ) (2025-02-17T13:00:15Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - Corrective Retrieval Augmented Generation [36.04062963574603]
Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
論文 参考訳(メタデータ) (2024-01-29T04:36:39Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。