論文の概要: Context-Adaptive Synthesis and Compression for Enhanced Retrieval-Augmented Generation in Complex Domains
- arxiv url: http://arxiv.org/abs/2508.19357v1
- Date: Tue, 26 Aug 2025 18:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.395612
- Title: Context-Adaptive Synthesis and Compression for Enhanced Retrieval-Augmented Generation in Complex Domains
- Title(参考訳): 複雑な領域における検索拡張生成のための文脈適応型合成と圧縮
- Authors: Peiran Zhou, Junnan Zhu, Yichen Shen, Ruoxi Yu,
- Abstract要約: 大規模言語モデルは言語タスクでは優れているが、幻覚や時代遅れの知識を持つ傾向がある。
検索拡張生成(Retrieval-Augmented Generation)は、LLMを外部知識に接地することでこれらを緩和する。
検索したコンテキストをインテリジェントに処理する新しいフレームワークであるCASCを提案する。
- 参考スコア(独自算出の注目度): 4.6053294562865625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) excel in language tasks but are prone to hallucinations and outdated knowledge. Retrieval-Augmented Generation (RAG) mitigates these by grounding LLMs in external knowledge. However, in complex domains involving multiple, lengthy, or conflicting documents, traditional RAG suffers from information overload and inefficient synthesis, leading to inaccurate and untrustworthy answers. To address this, we propose CASC (Context-Adaptive Synthesis and Compression), a novel framework that intelligently processes retrieved contexts. CASC introduces a Context Analyzer & Synthesizer (CAS) module, powered by a fine-tuned smaller LLM, which performs key information extraction, cross-document consistency checking and conflict resolution, and question-oriented structured synthesis. This process transforms raw, scattered information into a highly condensed, structured, and semantically rich context, significantly reducing the token count and cognitive load for the final Reader LLM. We evaluate CASC on SciDocs-QA, a new challenging multi-document question answering dataset designed for complex scientific domains with inherent redundancies and conflicts. Our extensive experiments demonstrate that CASC consistently outperforms strong baselines.
- Abstract(参考訳): 言語モデル(LLM)は言語タスクでは優れるが、幻覚や時代遅れの知識が伴う傾向がある。
Retrieval-Augmented Generation (RAG) は、LLMを外部知識に接地することでこれらを緩和する。
しかし、複数の、長い、あるいは矛盾する文書を含む複雑なドメインでは、従来のRAGは情報過負荷と非効率な合成に悩まされ、不正確で信頼できない答えをもたらす。
そこで我々は,検索したコンテキストをインテリジェントに処理する新しいフレームワークであるCASC(Context-Adaptive Synthesis and Compression)を提案する。
CASC は Context Analyzer & Synthesizer (CAS) モジュールを導入し,キー情報抽出,文書間の整合性確認,コンフリクト解決,質問対象の構造化合成を行う。
このプロセスは、生の散らばった情報を高度に凝縮され、構造化され、意味的にリッチなコンテキストに変換し、最終読取 LLM のトークン数と認知負荷を著しく低減する。
SciDocs-QAは,複雑な科学的領域に固有の冗長性や矛盾を伴って設計された,新しい挑戦的な多文書質問応答データセットである。
広範な実験により,CASCは強いベースラインを一貫して上回っていることが示された。
関連論文リスト
- DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Resource-Friendly Dynamic Enhancement Chain for Multi-Hop Question Answering [21.077964610022313]
この研究はDEC(Dynamic Enhancement Chain)と呼ばれる新しいフレームワークを提案する。
DECはまず複雑な質問を論理的に一貫性のあるサブクエストに分解し、幻覚のない推論連鎖を形成する。
その後、コンテキスト対応の書き換えによってこれらのサブクエストを反復的に洗練し、効率的なクエリの定式化を生成する。
論文 参考訳(メタデータ) (2025-06-21T11:55:27Z) - Oreo: A Plug-in Context Reconstructor to Enhance Retrieval-Augmented Generation [28.568010424711563]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) の機能強化を目的としている。
生成に使用する前に検索したチャンクを洗練するために設計された,コンパクトで効率的な,プラグ可能なモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-18T16:38:39Z) - BRIEF: Bridging Retrieval and Inference for Multi-hop Reasoning via Compression [91.23933111083389]
Retrieval-augmented Generation (RAG)は、外部知識を統合することで、大きな言語モデル(LLM)を補完することができる。
本稿では,クエリ対応マルチホップ推論を行う軽量なアプローチであるBRIEFを提案する。
オープンソースモデルで構築した合成データに基づいて,BRIEFはより簡潔な要約を生成する。
論文 参考訳(メタデータ) (2024-10-20T04:24:16Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。