論文の概要: Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering
- arxiv url: http://arxiv.org/abs/2506.06313v2
- Date: Thu, 02 Oct 2025 08:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:19.985816
- Title: Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering
- Title(参考訳): チャンキングを超えて:長文質問応答のための談話認識階層検索
- Authors: Huiyao Chen, Yi Yang, Yinghui Li, Meishan Zhang, Min Zhang,
- Abstract要約: 本稿では,長文質問応答を改善するための対話型階層型フレームワークを提案する。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの拡張、構造誘導階層検索である。
- 参考スコア(独自算出の注目度): 51.7493726399073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long document question answering systems typically process texts as flat sequences or use arbitrary segmentation, failing to capture discourse structures that guide human comprehension. We present a discourse-aware hierarchical framework that leverages rhetorical structure theory (RST) to enhance long document question answering. Our approach converts discourse trees into sentence-level representations and employs LLM-enhanced node representations to bridge structural and semantic information. The framework involves three key innovations: specialized discourse parsing for lengthy documents, LLM-based enhancement of discourse relation nodes, and structure-guided hierarchical retrieval. Comprehensive experiments on QASPER, QuALITY, and NarrativeQA demonstrate consistent improvements over existing approaches. Ablation studies confirm that incorporating discourse structure significantly enhances question answering across diverse document types.
- Abstract(参考訳): 長い文書質問応答システムは、典型的にはテキストを平らなシーケンスとして処理するか、任意のセグメンテーションを使用し、人間の理解を導く談話構造を捉えるのに失敗する。
本稿では、修辞構造理論(RST)を活用して長い文書質問応答を向上させる談話対応階層型フレームワークを提案する。
提案手法では,談話木を文レベル表現に変換し,LLM拡張ノード表現を用いて構造情報と意味情報をブリッジする。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの強化、構造誘導階層検索である。
QASPER、QuALITY、NarrativeQAに関する総合的な実験は、既存のアプローチよりも一貫した改善を示している。
アブレーション研究は、談話構造を取り入れることによって、様々な文書タイプにおける質問応答が著しく向上することを確認する。
関連論文リスト
- Structured Attention Matters to Multimodal LLMs in Document Understanding [52.37530640460363]
入力形式が文書理解性能に与える影響について検討する。
生のOCRテキストはMLLMの性能を向上するのではなく、しばしば機能不全であることがわかった。
本稿では,LaTexパラダイムを用いて文書要素を符号化する構造保存手法を提案する。
論文 参考訳(メタデータ) (2025-06-19T07:16:18Z) - Align to Structure: Aligning Large Language Models with Structural Information [26.960069076925386]
本研究では,大規模言語モデルと人間のような談話構造を整合させて長文生成を向上する構造アライメントを提案する。
提案手法では,人間の文章に対する言論的特質に基づいて,詳細なトークンレベルの報酬を割り当てる。
論文 参考訳(メタデータ) (2025-04-04T17:40:04Z) - Graph-tree Fusion Model with Bidirectional Information Propagation for Long Document Classification [20.434941308959786]
長い文書分類は、その広範な内容と複雑な構造のために困難を呈する。
既存のメソッドはトークン制限に苦しむことが多く、ドキュメント内の階層的関係を適切にモデル化することができない。
本手法は,文エンコーディングのための構文木と文書エンコーディングのための文書グラフを統合し,より詳細な構文関係とより広い文書コンテキストを抽出する。
論文 参考訳(メタデータ) (2024-10-03T19:25:01Z) - SRFUND: A Multi-Granularity Hierarchical Structure Reconstruction Benchmark in Form Understanding [55.48936731641802]
階層的に構造化されたマルチタスク形式理解ベンチマークであるSRFUNDを提案する。
SRFUNDはオリジナルのFUNSDとXFUNDデータセットの上に洗練されたアノテーションを提供する。
データセットには、英語、中国語、日本語、ドイツ語、フランス語、スペイン語、イタリア語、ポルトガル語を含む8つの言語が含まれている。
論文 参考訳(メタデータ) (2024-06-13T02:35:55Z) - Modeling Unified Semantic Discourse Structure for High-quality Headline Generation [45.23071138765902]
文書意味論を表現するために,統一意味談話構造(S3)を提案する。
文、節、単語の階層的な構成は、本質的に全体文書の意味を特徴づける。
私たちの仕事は、見出しや要約生成以上の、幅広いドキュメントモデリングタスクに対してインストラクティブなものです。
論文 参考訳(メタデータ) (2024-03-23T09:18:53Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Language Models As Semantic Indexers [78.83425357657026]
本稿では,ジェネレーティブ言語モデルを用いてセマンティックIDを学習するための自己教師型フレームワークLMIndexerを紹介する。
学習したIDの質を検証し,推奨,製品検索,文書検索の3つの課題において有効性を示す。
論文 参考訳(メタデータ) (2023-10-11T18:56:15Z) - RST-style Discourse Parsing Guided by Document-level Content Structures [27.28989421841165]
既存のRTT解析パイプラインは、文書レベルのコンテンツ構造を知らずに修辞構造を構築する。
本稿では,構造を意識したニュースコンテンツ文表現を取り入れたRTT-DPのための新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-08T05:50:27Z) - Advancing Topic Segmentation and Outline Generation in Chinese Texts: The Paragraph-level Topic Representation, Corpus, and Benchmark [44.06803331843307]
段落レベルのトピック構造は、ドキュメント全体のコンテキストをより高いレベルから把握し、理解することができる。
大規模で高品質な中国語段落レベルの話題構造コーパスの欠如は研究や応用を妨げた。
コーパス構築を導くために,3層からなる階層的な段落レベルのトピック構造表現を提案する。
2段階のマンマシン・コラボレーティブ・アノテーションを用いて,中国最大規模のトピック構造コーパスを構築する。
論文 参考訳(メタデータ) (2023-05-24T06:43:23Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - An End-to-End Document-Level Neural Discourse Parser Exploiting
Multi-Granularity Representations [24.986030179701405]
構文とセマンティクスにまたがる複数のレベルの粒度から派生した堅牢な表現を利用します。
このような表現をエンドツーエンドのエンコーダデコーダニューラルアーキテクチャに組み込んで、よりリソース豊富な対話処理を行います。
論文 参考訳(メタデータ) (2020-12-21T08:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。