論文の概要: MeVe: A Modular System for Memory Verification and Effective Context Control in Language Models
- arxiv url: http://arxiv.org/abs/2509.01514v1
- Date: Mon, 01 Sep 2025 14:33:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.735578
- Title: MeVe: A Modular System for Memory Verification and Effective Context Control in Language Models
- Title(参考訳): MeVe: 言語モデルにおけるメモリ検証と効果的なコンテキスト制御のためのモジュールシステム
- Authors: Andreas Ottem,
- Abstract要約: MeVeは、メモリ検証とスマートコンテキスト合成を目的とした、新しいモジュラーアーキテクチャである。
MeVe は RAG のパラダイムを再考し、検索とコンテキストの構成プロセスを明確に分解する5相モジュラー設計を提案している。
MeVeはコンテキスト効率を大幅に改善し、Wikipediaデータセットの57%の削減と、標準的なRAG実装と比較して、より複雑なHotpotQAデータセットの75%の削減を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems typically face constraints because of their inherent mechanism: a simple top-k semantic search [1]. The approach often leads to the incorporation of irrelevant or redundant information in the context, degrading performance and efficiency [10][11]. This paper presents MeVe, a novel modular architecture intended for Memory Verification and smart context composition. MeVe rethinks the RAG paradigm by proposing a five-phase modular design that distinctly breaks down the retrieval and context composition process into distinct, auditable, and independently tunable phases: initial retrieval, relevance verification, fallback retrieval, context prioritization, and token budgeting. This architecture enables fine-grained control of what knowledge is made available to an LLM, enabling task-dependent filtering and adaptation. We release a reference implementation of MeVe as a proof of concept and evaluate its performance on knowledge-heavy QA tasks over a subset of English Wikipedia [22]. Our results demonstrate that by actively verifying information before composition, MeVe significantly improves context efficiency, achieving a 57% reduction on the Wikipedia dataset and a 75% reduction on the more complex HotpotQA dataset compared to standard RAG implementations [25]. This work provides a framework for more scalable and reliable LLM applications. By refining and distilling contextual information, MeVe offers a path toward better grounding and more accurate factual support [16].
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは通常、その固有のメカニズムのために制約に直面している。
このアプローチは、しばしばコンテキスト内で無関係または冗長な情報を取り込み、パフォーマンスと効率を低下させる[10][11]。
本稿では,メモリ検証とスマートコンテキスト合成を目的とした,新しいモジュールアーキテクチャMeVeを提案する。
MeVe は RAG のパラダイムを再考し、検索およびコンテキスト構成プロセスを、初期検索、関連性検証、フォールバック検索、コンテキスト優先順位付け、トークン予算化という、明確に区別された、監査可能な、独立した調整可能なフェーズに分解する5段階のモジュラー設計を提案する。
このアーキテクチャは、LLMで利用可能な知識のきめ細かい制御を可能にし、タスク依存のフィルタリングと適応を可能にする。
本稿では,概念実証としてMeVeのリファレンス実装を公開し,英語Wikipedia[22]のサブセット上での知識量の多いQAタスクの性能評価を行う。
その結果, コンポジション前の情報を積極的に検証することにより, コンテクスト効率を大幅に向上し, ウィキペディアデータセットの57%, より複雑なHotpotQAデータセットの75%削減を実現した [25]。
この作業は、よりスケーラブルで信頼性の高いLLMアプリケーションのためのフレームワークを提供する。
文脈情報を精錬し蒸留することによって、MeVeはより良い基盤化とより正確な事実支援に向けた道筋を提供する[16]。
関連論文リスト
- REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - Tree-Based Text Retrieval via Hierarchical Clustering in RAGFrameworks: Application on Taiwanese Regulations [0.0]
階層的なクラスタリングに基づく検索手法を提案する。
本手法は,意味的関連コンテンツを適応的に選択しながら,システム応答の精度と関連性を維持する。
我々のフレームワークは実装が簡単で、既存のRAGパイプラインと簡単に統合できます。
論文 参考訳(メタデータ) (2025-06-16T15:34:29Z) - Transparent NLP: Using RAG and LLM Alignment for Privacy Q&A [15.86510147965235]
一般データ保護規則では、正確な処理情報を明確でアクセスしやすいものにする必要がある。
本稿では,その義務を果たすためのアライメント技術によって強化された,最先端の検索生成システムについて検討する。
論文 参考訳(メタデータ) (2025-02-10T16:42:00Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Semantic Tokens in Retrieval Augmented Generation [0.0]
本稿では,確率的RAGシステムと決定論的に検証可能な応答のギャップを埋めるための評価モジュールを導入した新しい比較RAGシステムを提案する。
このフレームワークは、高い精度と検証可能性を必要とする領域において、より信頼性が高くスケーラブルな質問応答アプリケーションを実現する。
論文 参考訳(メタデータ) (2024-12-03T16:52:06Z) - VERA: Validation and Enhancement for Retrieval Augmented systems [0.0]
textbfValidation and textbfEnhancement for textbfRetrieval textbfAugmented system を提案する。
VERAは、外部検索が必要なかどうかを最初にチェックし、検索したコンテキストの関連性と冗長性を評価し、非必要情報の除去のために精査する評価器-既存のLCMを使用している。
論文 参考訳(メタデータ) (2024-09-18T16:10:47Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - RAGGED: Towards Informed Design of Scalable and Stable RAG Systems [51.171355532527365]
Retrieval-augmented Generation (RAG)は、外部知識を統合することで言語モデルを強化する。
RAGGEDは、RAGシステムを体系的に評価するためのフレームワークである。
論文 参考訳(メタデータ) (2024-03-14T02:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。