論文の概要: MODE: Mixture of Document Experts for RAG
- arxiv url: http://arxiv.org/abs/2509.00100v1
- Date: Wed, 27 Aug 2025 17:45:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.079651
- Title: MODE: Mixture of Document Experts for RAG
- Title(参考訳): MODE:RAGのためのドキュメントエキスパートの混成
- Authors: Rahul Anand,
- Abstract要約: MODEは、よりきめ細かい近接探索をクラスタ・アンド・ルート検索に置き換える。
ドキュメントは埋め込み、セマンティック・コヒーレントなクラスタにグループ化され、キャッシュされたセントロイドで表現される。
100-500チャンクのHotpotQAとSQuADコーパスでは、MODEは解答品質において密度の高い検索基準線を超える。
- 参考スコア(独自算出の注目度): 0.532836690371986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) often relies on large vector databases and cross-encoders tuned for large-scale corpora, which can be excessive for small, domain-specific collections. We present MODE (Mixture of Document Experts), a lightweight alternative that replaces fine-grained nearest-neighbor search with cluster-and-route retrieval. Documents are embedded, grouped into semantically coherent clusters, and represented by cached centroids. At query time, we route to the top centroid(s) and retrieve context only within those clusters, eliminating external vector-database infrastructure and reranking while keeping latency low. On HotpotQA and SQuAD corpora with 100-500 chunks, MODE matches or exceeds a dense-retrieval baseline in answer quality while reducing end-to-end retrieval time. Ablations show that cluster granularity and multi-cluster routing control the recall/precision trade-off, and that tighter clusters improve downstream accuracy. MODE offers a practical recipe for small and medium corpora where simplicity, speed, and topical focus matter.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、大規模コーパス用に調整された大規模なベクトルデータベースやクロスエンコーダに依存することが多い。
MODE(Mixture of Document Experts:文書専門家のミクチャー)は、よりきめ細かな近接探索をクラスタ・アンド・ルート検索に置き換える軽量な代替手段である。
ドキュメントは埋め込み、セマンティック・コヒーレントなクラスタにグループ化され、キャッシュされたセントロイドで表現される。
クエリ時に、トップセントロイドにルートして、これらのクラスタ内でのみコンテキストを検索し、外部のベクトルデータベースインフラストラクチャを排除し、レイテンシを低く保ちながら再ランク付けします。
100-500チャンクのHotpotQAとSQuADコーパスでは、MODEは、エンドツーエンドの検索時間を短縮しつつ、回答品質の高密度検索ベースラインにマッチまたは超過する。
アブレーションは、クラスタの粒度とマルチクラスタルーティングがリコール/精度のトレードオフを制御し、クラスタがより厳格なクラスタによって下流の精度が向上することを示している。
MODEは、シンプルさ、スピード、トピックが重要となる中小コーパスの実践的なレシピを提供する。
関連論文リスト
- Multi-Vector Index Compression in Any Modality [73.7330345057813]
後期の相互作用は、テキスト、画像、ビジュアルドキュメント、ビデオにおける情報検索の主要なパラダイムとして現れてきた。
インデックス圧縮には,シーケンスリサイズ,メモリトークン,階層プール,新しいアテンション誘導クラスタリング(AGC)の4つのアプローチを導入する。
AGCは、ドキュメントの最もセマンティックな領域をクラスタセントロイドとして識別し、トークンの集合を重み付けするために注意誘導機構を使用する。
論文 参考訳(メタデータ) (2026-02-24T18:57:33Z) - Beyond RAG for Agent Memory: Retrieval by Decoupling and Aggregation [22.803751188961865]
検索は類似性マッチングを超えて移動し、代わりに潜在コンポーネントを操作するべきだと我々は主張する。
我々は、無傷ユニットの階層を構築し、検索可能な高レベルノード組織を維持するxMemoryを提案する。
論文 参考訳(メタデータ) (2026-02-02T12:04:58Z) - MERGE: Next-Generation Item Indexing Paradigm for Large-Scale Streaming Recommendation [15.1614576262293]
我々は,クラスタをスクラッチから適応的に構築し,クラスタの占有状況を動的に監視し,きめ細かいマージによって階層的なインデックス構造を形成する,次世代のアイテムインデックス化パラダイムであるMERGEを提案する。
大規模な実験により、MERGEは既存のインデックス手法と比較して割り当て精度、クラスタの均一性、クラスタの分離を著しく改善することが示された。
オンラインA/Bテストでは、主要なビジネス指標が大幅に向上し、大規模なレコメンデーションのための基本的なインデックス化アプローチとしての可能性を強調している。
論文 参考訳(メタデータ) (2026-01-28T02:56:30Z) - Cluster-based Adaptive Retrieval: Dynamic Context Selection for RAG Applications [8.946586077722822]
クラスタベースのAdaptive Retrieval (CAR) は、順序付きクエリ文書類似度距離のクラスタリングパターンを分析して、最適な文書数を決定するアルゴリズムである。
CARは、常に最適な検索深度を選択し、最高TESスコアを達成し、固定されたトップkベースラインを全て上回る。
論文 参考訳(メタデータ) (2025-10-02T05:11:12Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - Information-Theoretic Generative Clustering of Documents [24.56214029342293]
文書の集合をクラスタリングするための生成クラスタリング(GC)を$mathrmX$で提示する。
大規模言語モデル(LLM)は確率分布を提供するため、2つの文書間の類似性を厳密に定義することができる。
我々はGCが最先端のパフォーマンスを達成し、従来のクラスタリング手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-12-18T06:21:21Z) - Generative Dense Retrieval: Memory Can Be a Burden [16.964086245755798]
Generative Retrieval (GR) はクエリが与えられたドキュメント識別子を自動でデコードする。
Dense Retrieval (DR) はクラスタから関連ドキュメントへのきめ細かいクラスタ内マッチングを実現するために導入された。
DRは、NQデータセットを複数の設定で平均3.0R@100改善する。
論文 参考訳(メタデータ) (2024-01-19T04:24:07Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Hybrid Inverted Index Is a Robust Accelerator for Dense Retrieval [25.402767809863946]
逆ファイル構造は高密度検索を高速化する一般的な手法である。
本研究では,Hybrid Inverted Index (HI$2$)を提案する。
論文 参考訳(メタデータ) (2022-10-11T15:12:41Z) - Genie: A new, fast, and outlier-resistant hierarchical clustering
algorithm [3.7491936479803054]
我々はGenieと呼ばれる新しい階層的クラスタリングリンク基準を提案する。
我々のアルゴリズムは、2つのクラスタを、選択された経済不平等尺度が与えられたしきい値を超えないようにリンクする。
このアルゴリズムのリファレンス実装は、Rのためのオープンソースの'genie'パッケージに含まれている。
論文 参考訳(メタデータ) (2022-09-13T06:42:53Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。