論文の概要: Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding
- arxiv url: http://arxiv.org/abs/2512.17220v1
- Date: Fri, 19 Dec 2025 04:08:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.243318
- Title: Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding
- Title(参考訳): 長期的理解向上のためのマインドスケープ対応検索生成
- Authors: Yuqing Li, Jiangnan Li, Zheng Lin, Ziyan Zhou, Junjie Wu, Weiping Wang, Jie Zhou, Mo Yu,
- Abstract要約: 我々は,LLMに基づくRAGシステムにグローバルな文脈認識を具体化するために,Mindscape-Aware RAG (MiA-RAG)を提案する。
MiA-RAGは階層的な要約と、このグローバルな意味表現に基づく検索と生成の両方の条件によってマインドスケープを構築する。
我々は,エビデンスに基づく理解とグローバルなセンスメイキングのために,多種多様な長期コンテキストおよびバイリンガルベンチマークを用いてMiA-RAGを評価した。
- 参考スコア(独自算出の注目度): 47.09088041402842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans understand long and complex texts by relying on a holistic semantic representation of the content. This global view helps organize prior knowledge, interpret new information, and integrate evidence dispersed across a document, as revealed by the Mindscape-Aware Capability of humans in psychology. Current Retrieval-Augmented Generation (RAG) systems lack such guidance and therefore struggle with long-context tasks. In this paper, we propose Mindscape-Aware RAG (MiA-RAG), the first approach that equips LLM-based RAG systems with explicit global context awareness. MiA-RAG builds a mindscape through hierarchical summarization and conditions both retrieval and generation on this global semantic representation. This enables the retriever to form enriched query embeddings and the generator to reason over retrieved evidence within a coherent global context. We evaluate MiA-RAG across diverse long-context and bilingual benchmarks for evidence-based understanding and global sense-making. It consistently surpasses baselines, and further analysis shows that it aligns local details with a coherent global representation, enabling more human-like long-context retrieval and reasoning.
- Abstract(参考訳): 人間は、コンテンツの全体的意味表現に頼ることによって、長く複雑なテキストを理解する。
このグローバルな見解は、心理学における人間のマインドスケープ・アウェア能力によって明らかになったように、事前の知識を整理し、新しい情報を解釈し、文書に散在する証拠を統合するのに役立つ。
現在のRetrieval-Augmented Generation (RAG) システムはそのようなガイダンスを欠いているため、長いコンテキストのタスクに苦労している。
本稿では,LLMに基づくRAGシステムにグローバルな文脈認識を付加した最初のアプローチであるMindscape-Aware RAG(MiA-RAG)を提案する。
MiA-RAGは階層的な要約と、このグローバルな意味表現に基づく検索と生成の両方の条件によってマインドスケープを構築する。
これにより、レトリバーはリッチなクエリ埋め込みを形成し、ジェネレータはコヒーレントなグローバルコンテキスト内で、検索されたエビデンスを推論することができる。
我々は,エビデンスに基づく理解とグローバルなセンスメイキングのために,多種多様な長期コンテキストおよびバイリンガルベンチマークを用いてMiA-RAGを評価した。
一貫してベースラインを超越し、さらに分析により、局所的な詳細を一貫性のあるグローバルな表現と整合させ、より人間的な長文検索と推論を可能にすることが示されている。
関連論文リスト
- CMV-Fuse: Cross Modal-View Fusion of AMR, Syntax, and Knowledge Representations for Aspect Based Sentiment Analysis [2.2972913486393707]
CMV-Fuseは、人間の言語処理をエミュレートするクロスモーダルビュー融合フレームワークである。
我々のアプローチは4つの言語的視点を体系的に編成する。
CMV-Fuseは、きめ細かい構造パターンと広いコンテキスト理解の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-12-07T06:35:46Z) - Retrieval-Augmented Generation for Large Language Models: A Survey [17.82361213043507]
大きな言語モデル(LLM)には印象的な能力があるが、幻覚のような課題に直面している。
Retrieval-Augmented Generation (RAG) は,外部データベースからの知識を取り入れた,有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-18T07:47:33Z) - Large Language Models for Information Retrieval: A Survey [83.75872593741578]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Control Globally, Understand Locally: A Global-to-Local Hierarchical
Graph Network for Emotional Support Conversation [21.659320965072265]
本稿では,多元的情報(言語的原因,地域意図,対話履歴)を抽出し,それらの階層関係をモデル化するグローバル・ローカル階層型グラフネットワークを提案する。
グローバルな原因のセマンティック情報を監視するために,新たなトレーニング目標が設計された。
感情支援会話データセットESConvの実験結果から,提案したGLHGが最先端の性能を達成したことが確認された。
論文 参考訳(メタデータ) (2022-04-27T07:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。