論文の概要: StrucSum: Graph-Structured Reasoning for Long Document Extractive Summarization with LLMs
- arxiv url: http://arxiv.org/abs/2505.22950v1
- Date: Thu, 29 May 2025 00:10:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.593562
- Title: StrucSum: Graph-Structured Reasoning for Long Document Extractive Summarization with LLMs
- Title(参考訳): ストルークサム:LLMを用いた長期文書抽出要約のためのグラフ構造化推論
- Authors: Haohan Yuan, Sukhwa Hong, Haopeng Zhang,
- Abstract要約: StrucSumは、大規模言語モデル(LLM)のためのトレーニングフリープロンプトフレームワークである。
構造信号を3つの戦略を介してプロンプトに注入する。
ArXiv、PubMed、Multi-Newsの実験では、StrucSumは要約品質と事実整合性の両方を一貫して改善している。
- 参考スコア(独自算出の注目度): 1.5134121362787107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown strong performance in zero-shot summarization, but often struggle to model document structure and identify salient information in long texts. In this work, we introduce StrucSum, a training-free prompting framework that enhances LLM reasoning through sentence-level graph structures. StrucSum injects structural signals into prompts via three targeted strategies: Neighbor-Aware Prompting (NAP) for local context, Centrality-Aware Prompting (CAP) for importance estimation, and Centrality-Guided Masking (CGM) for efficient input reduction. Experiments on ArXiv, PubMed, and Multi-News demonstrate that StrucSum consistently improves both summary quality and factual consistency over unsupervised baselines and vanilla prompting. Notably, on ArXiv, it boosts FactCC and SummaC by 19.2 and 9.7 points, indicating stronger alignment between summaries and source content. These findings suggest that structure-aware prompting is a simple yet effective approach for zero-shot extractive summarization with LLMs, without any training or task-specific tuning.
- Abstract(参考訳): 大規模言語モデル (LLM) はゼロショット要約において高い性能を示してきたが、文書構造をモデル化し、長いテキストで有能な情報を特定するのにしばしば苦労している。
本研究では,文レベルグラフ構造によるLLM推論を強化するトレーニングフリープロンプトフレームワークであるStrucSumを紹介する。
StrucSumは、3つのターゲット戦略によって構造的信号をインジェクトする: 局所的コンテキストに対するNeighbor-Aware Prompting(NAP)、重要度推定のためのCentrality-Aware Prompting(CAP)、効率的な入力削減のためのCentrality-Guided Masking(CGM)。
ArXiv、PubMed、Multi-Newsの実験では、StrucSumは教師なしのベースラインとバニラプロンプトよりも要約品質と事実整合性の両方を一貫して改善している。
特に ArXiv では FactCC と SummaC を 19.2 と 9.7 に増やし、要約とソースの内容の整合性を強く示している。
これらの結果から, 構造認識プロンプトは, 訓練やタスク固有のチューニングを伴わずに, LLMによるゼロショット抽出の要約に対して, 単純かつ効果的なアプローチであることが示唆された。
関連論文リスト
- Towards Explainable Temporal Reasoning in Large Language Models: A Structure-Aware Generative Framework [18.770512964705176]
本稿では,多種多様な時間的粒度を網羅したベンチマークを導入し,説明可能な時間的推論における大規模言語モデルの能力を体系的に評価する。
提案するGETERは,グラフ構造を記述可能なテンポラル推論のためのテキストと統合した新しい構造認識型生成フレームワークである。
GETERは最先端の性能を実現し、その効果と強力な一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-21T08:20:35Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Struct-X: Enhancing Large Language Models Reasoning with Structured Data [38.558614152006975]
構造Xは5つの重要なフェーズを通して動作する:read-model-fill-reflect-reason'
構造化データをグラフ埋め込みを用いて位相空間にエンコードする。
行方不明のエンティティ情報を知識検索モジュールで埋める。
最後のフェーズでは、選択したトークンでトポロジネットワークを構築する。
論文 参考訳(メタデータ) (2024-07-17T13:06:25Z) - kNN-ICL: Compositional Task-Oriented Parsing Generalization with Nearest
Neighbor In-Context Learning [50.40636157214161]
Task-Oriented Parsing (TOP)により、会話アシスタントは自然言語で表現されたユーザーコマンドを解釈できる。
LLMは、自然言語のプロンプトに基づいて、コンピュータプログラムにおいて印象的な性能を達成した。
本稿では,LLMのセマンティック解析機能を活用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-17T17:26:50Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。