論文の概要: MoR: Better Handling Diverse Queries with a Mixture of Sparse, Dense, and Human Retrievers
- arxiv url: http://arxiv.org/abs/2506.15862v1
- Date: Wed, 18 Jun 2025 20:15:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.844634
- Title: MoR: Better Handling Diverse Queries with a Mixture of Sparse, Dense, and Human Retrievers
- Title(参考訳): MoR: スパース、デンス、リトリーバーを混合した多種多様なクエリの改善
- Authors: Jushaan Singh Kalra, Xinran Zhao, To Eun Kim, Fengyu Cai, Fernando Diaz, Tongshuang Wu,
- Abstract要約: Retrieval-augmented Generation(RAG)は強力だが、その有効性は、どのレトリバーを使うか、どのように使うかにかかっている。
ゼロショットとヘテロジニアス・レトリバーの重み付けを組み合わせたレトリバーの混合について紹介する。
実験の結果、この混合物は個々のレトリバー、さらに大きな7Bモデルを平均で+10.8%、+3.9%上回ることがわかった。
- 参考スコア(独自算出の注目度): 66.30712034015009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented Generation (RAG) is powerful, but its effectiveness hinges on which retrievers we use and how. Different retrievers offer distinct, often complementary signals: BM25 captures lexical matches; dense retrievers, semantic similarity. Yet in practice, we typically fix a single retriever based on heuristics, which fails to generalize across diverse information needs. Can we dynamically select and integrate multiple retrievers for each individual query, without the need for manual selection? In our work, we validate this intuition with quantitative analysis and introduce mixture of retrievers: a zero-shot, weighted combination of heterogeneous retrievers. Extensive experiments show that such mixtures are effective and efficient: Despite totaling just 0.8B parameters, this mixture outperforms every individual retriever and even larger 7B models by +10.8% and +3.9% on average, respectively. Further analysis also shows that this mixture framework can help incorporate specialized non-oracle human information sources as retrievers to achieve good collaboration, with a 58.9% relative performance improvement over simulated humans alone.
- Abstract(参考訳): Retrieval-augmented Generation(RAG)は強力だが、その有効性は、どのレトリバーを使うか、どのように使うかにかかっている。
BM25はレキシカルマッチ、密集したレトリバー、セマンティックな類似性をキャプチャする。
しかし、実際には、ヒューリスティックスに基づいた単一のレトリバーを修正し、多様な情報ニーズをまたいだ一般化に失敗するのが一般的である。
手動で選択することなく、個々のクエリに対して複数のレトリバーを動的に選択、統合できますか?
本研究では,この直観を定量的解析により検証し,ゼロショット,重み付けによるヘテロジニアス・レトリバーの混合を導入する。
合計0.8Bのパラメータしか持たないにもかかわらず、この混合物は個々のレトリバー、さらに大きな7Bモデルを平均で+10.8%、+3.9%で上回っている。
さらなる分析により、この混合フレームワークは、シミュレーションされた人間に比較して58.9%の性能向上を達成し、特殊な人的情報ソースをレトリバーとして組み込むのに役立つことが示されている。
関連論文リスト
- ReasonIR: Training Retrievers for Reasoning Tasks [139.54343970560103]
ReasonIR-8Bは一般的な推論タスクのために特別に訓練された最初のレトリバーである。
新たに29.9 nDCG@10をリランカなしで、36.9 nDCG@10をリランカで達成している。
論文 参考訳(メタデータ) (2025-04-29T09:49:28Z) - Towards Competitive Search Relevance For Inference-Free Learned Sparse Retrievers [6.773411876899064]
推測のないスパースモデルは 検索の関連という点で はるかに遅れています スパースモデルと密集したサイムズモデルの両方と比較して
まず,IDF(Inverted Document Frequency)を導入したIFF対応のFLOPS損失を表現のスペーシングに導入する。
その結果、FLOPS正則化が検索関連性に与える影響を軽減し、精度と効率のバランスが良くなることがわかった。
論文 参考訳(メタデータ) (2024-11-07T03:46:43Z) - Intrinsic Evaluation of RAG Systems for Deep-Logic Questions [2.869056892890114]
本稿では,検索拡張生成(RAG)機構を深い論理的クエリを含むアプリケーションに適用するための本質的な指標である総合性能指標(OPI)を紹介する。
OPIは2つの重要な指標の調和平均として計算される: 論理関係の正確度比(Logical-Relation Correctness Ratio)と BERT の平均値。
論文 参考訳(メタデータ) (2024-10-03T19:25:05Z) - Unraveling and Mitigating Retriever Inconsistencies in Retrieval-Augmented Large Language Models [25.346800371132645]
Retrieval-augmented Large Language Models (RALMs) は、元の検索自由言語モデル (LMs) を一貫して上回るものではない。
提案実験により, この例レベルの性能不整合性は, 検索強化と検索不要のLMの間だけでなく, 異なる検索者の間にも存在することが明らかとなった。
本稿では,異なる知識ソースから適応的に検索し,予測不能な読み出し誤りを効果的に低減できるトレーニング可能なフレームワークであるEnsemble of Retrievers(EoR)を紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:22:49Z) - UPRISE: Universal Prompt Retrieval for Improving Zero-Shot Evaluation [81.80385076856304]
本稿では,与えられたゼロショットタスク入力のプロンプトを自動的に取り出す軽量で多用途なレトリバーをチューニングするUPRISEを提案する。
具体的には、クロスタスクおよびクロスモデルシナリオにおける普遍性を示す。
UPRISEはChatGPT実験における幻覚の緩和効果を示す。
論文 参考訳(メタデータ) (2023-03-15T10:53:49Z) - A Study on the Efficiency and Generalization of Light Hybrid Retrievers [28.08970760703045]
インデクシング効率の高い高密度レトリバー(DrBoost)を活用し、さらにDrBoostのメモリを削減するLITEレトリバーを導入する。
我々のハイブリッド-LITEレトリバーは、BM25とDPRのハイブリッドレトリバーの98.0%性能を維持しながら、13Xメモリを節約する。
論文 参考訳(メタデータ) (2022-10-04T04:22:46Z) - Cooperative Retriever and Ranker in Deep Recommenders [75.35463122701135]
ディープ・レコメンダ・システム (DRS) は、現代のウェブサービスに強く適用されている。
DRSは検索とランキングという2段階のワークフローを使用して、推奨結果を生成する。
また、レトリバーとランサーの効果的なコラボレーションも検討している。
論文 参考訳(メタデータ) (2022-06-28T03:41:50Z) - Adversarial Retriever-Ranker for dense text retrieval [51.87158529880056]
本稿では、二重エンコーダレトリバーとクロスエンコーダローダからなるAdversarial Retriever-Ranker(AR2)を提案する。
AR2は、既存の高密度レトリバー法より一貫して大幅に優れている。
これには、R@5から77.9%(+2.1%)、TriviaQA R@5から78.2%(+1.4)、MS-MARCO MRR@10から39.5%(+1.3%)の改善が含まれている。
論文 参考訳(メタデータ) (2021-10-07T16:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。