論文の概要: DISRetrieval: Harnessing Discourse Structure for Long Document Retrieval
- arxiv url: http://arxiv.org/abs/2506.06313v1
- Date: Mon, 26 May 2025 14:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 03:13:19.047389
- Title: DISRetrieval: Harnessing Discourse Structure for Long Document Retrieval
- Title(参考訳): Disretrieval: 長文検索のためのハーネス化談話構造
- Authors: Huiyao Chen, Yi Yang, Yinghui Li, Meishan Zhang, Min Zhang,
- Abstract要約: DISRetrievalは、言語談話構造を利用して長い文書理解を強化する新しい階層的検索フレームワークである。
本研究は,談話構造が文書の長さや問合せの種類によって検索効率を著しく向上することを確認する。
- 参考スコア(独自算出の注目度): 51.89673002051528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long document understanding has become increasingly crucial in natural language processing, with retrieval-based methods emerging as a promising solution to address the context length limitations of large language models (LLMs). However, existing approaches either treat documents as flat sequences or employ arbitrary chunking strategies, failing to capture the inherent discourse structure that guides human comprehension. We present DISRetrieval, a novel hierarchical retrieval framework that leverages linguistic discourse structure to enhance long document understanding. Our approach introduces three key innovations: (1) a discourse-aware document organization framework that utilizes rhetorical structure theory (RST) to create sentence-level hierarchical representations, preserving both semantic relationships and natural document flow; (2) an LLM-enhanced node representation technique that combines discourse structure with adaptive summarization to enrich tree nodes with contextual information; and (3) a hierarchical evidence retrieval mechanism that effectively selects relevant content while maintaining discourse coherence. Through comprehensive experiments on QASPER and QuALITY datasets, DISRetrieval demonstrates substantial improvements over existing methods in both token-level retrieval metrics and downstream question answering tasks. Our ablation studies confirm that incorporating discourse structure significantly enhances retrieval effectiveness across different document lengths and query types, validating the importance of linguistically-informed document representation in long-text understanding. Our code and datasets are publicly available at github/DreamH1gh/DISRetrieval to facilitate future research.
- Abstract(参考訳): 長い文書理解は自然言語処理においてますます重要になってきており、検索ベースの手法が大きな言語モデル(LLM)の文脈長制限に対処するための有望な解決策として登場した。
しかし、既存のアプローチでは文書をフラットなシーケンスとして扱うか、任意のチャンキング戦略を採用するかのいずれかであり、人間の理解を導く固有の談話構造を捉えていない。
本稿では,言語談話構造を利用して文書理解の長期化を図る新しい階層型検索フレームワークであるDisdisRetrievalを提案する。
提案手法では,(1)意味的関係と自然文書の流れの両面を保ち,文レベルの階層的表現を生成するために,修辞的構造理論(RST)を利用する談話型文書組織フレームワーク,(2)談話構造と適応的要約を組み合わせたLLM拡張ノード表現技術,(3)談話コヒーレンスを維持しつつ,関連コンテンツを効果的に選択する階層的エビデンス検索機構を導入する。
QASPERとQuALITYデータセットに関する包括的な実験を通じて、DisdisRetrievalはトークンレベルの検索メトリクスと下流の質問応答タスクの両方において、既存のメソッドよりも大幅に改善されていることを示した。
本研究は,コンコース構造を組み込むことで,文書の長さやクエリタイプが異なる場合の検索効率が著しく向上することを確認し,長文理解における言語的にインフォームドされた文書表現の重要性を検証した。
我々のコードとデータセットは、将来の研究を促進するためにgithub/DreamH1gh/DISRetrievalで公開されています。
関連論文リスト
- Align to Structure: Aligning Large Language Models with Structural Information [26.960069076925386]
本研究では,大規模言語モデルと人間のような談話構造を整合させて長文生成を向上する構造アライメントを提案する。
提案手法では,人間の文章に対する言論的特質に基づいて,詳細なトークンレベルの報酬を割り当てる。
論文 参考訳(メタデータ) (2025-04-04T17:40:04Z) - Graph-tree Fusion Model with Bidirectional Information Propagation for Long Document Classification [20.434941308959786]
長い文書分類は、その広範な内容と複雑な構造のために困難を呈する。
既存のメソッドはトークン制限に苦しむことが多く、ドキュメント内の階層的関係を適切にモデル化することができない。
本手法は,文エンコーディングのための構文木と文書エンコーディングのための文書グラフを統合し,より詳細な構文関係とより広い文書コンテキストを抽出する。
論文 参考訳(メタデータ) (2024-10-03T19:25:01Z) - Modeling Unified Semantic Discourse Structure for High-quality Headline Generation [45.23071138765902]
文書意味論を表現するために,統一意味談話構造(S3)を提案する。
文、節、単語の階層的な構成は、本質的に全体文書の意味を特徴づける。
私たちの仕事は、見出しや要約生成以上の、幅広いドキュメントモデリングタスクに対してインストラクティブなものです。
論文 参考訳(メタデータ) (2024-03-23T09:18:53Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Language Models As Semantic Indexers [78.83425357657026]
本稿では,ジェネレーティブ言語モデルを用いてセマンティックIDを学習するための自己教師型フレームワークLMIndexerを紹介する。
学習したIDの質を検証し,推奨,製品検索,文書検索の3つの課題において有効性を示す。
論文 参考訳(メタデータ) (2023-10-11T18:56:15Z) - RST-style Discourse Parsing Guided by Document-level Content Structures [27.28989421841165]
既存のRTT解析パイプラインは、文書レベルのコンテンツ構造を知らずに修辞構造を構築する。
本稿では,構造を意識したニュースコンテンツ文表現を取り入れたRTT-DPのための新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-08T05:50:27Z) - Advancing Topic Segmentation and Outline Generation in Chinese Texts: The Paragraph-level Topic Representation, Corpus, and Benchmark [44.06803331843307]
段落レベルのトピック構造は、ドキュメント全体のコンテキストをより高いレベルから把握し、理解することができる。
大規模で高品質な中国語段落レベルの話題構造コーパスの欠如は研究や応用を妨げた。
コーパス構築を導くために,3層からなる階層的な段落レベルのトピック構造表現を提案する。
2段階のマンマシン・コラボレーティブ・アノテーションを用いて,中国最大規模のトピック構造コーパスを構築する。
論文 参考訳(メタデータ) (2023-05-24T06:43:23Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - An End-to-End Document-Level Neural Discourse Parser Exploiting
Multi-Granularity Representations [24.986030179701405]
構文とセマンティクスにまたがる複数のレベルの粒度から派生した堅牢な表現を利用します。
このような表現をエンドツーエンドのエンコーダデコーダニューラルアーキテクチャに組み込んで、よりリソース豊富な対話処理を行います。
論文 参考訳(メタデータ) (2020-12-21T08:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。