論文の概要: MRGSEM-Sum: An Unsupervised Multi-document Summarization Framework based on Multi-Relational Graphs and Structural Entropy Minimization
- arxiv url: http://arxiv.org/abs/2507.23400v1
- Date: Thu, 31 Jul 2025 10:14:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.512238
- Title: MRGSEM-Sum: An Unsupervised Multi-document Summarization Framework based on Multi-Relational Graphs and Structural Entropy Minimization
- Title(参考訳): MRGSEM-Sum:マルチリレーショナルグラフと構造エントロピー最小化に基づく教師なしマルチドキュメント要約フレームワーク
- Authors: Yongbing Zhang, Fang Nan, Shengxiang Gao, Yuxin Huang, Kaiwen Tan, Zhengtao Yu,
- Abstract要約: MRGSEM-Sumはマルチリレーショナルグラフと構造エントロピー最小化に基づく教師なしマルチドキュメント要約フレームワークである。
本稿では,各クラスタを蒸留し,簡潔かつ情報的な要約を生成する位置認識圧縮機構を提案する。
- 参考スコア(独自算出の注目度): 15.596156608713347
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The core challenge faced by multi-document summarization is the complexity of relationships among documents and the presence of information redundancy. Graph clustering is an effective paradigm for addressing this issue, as it models the complex relationships among documents using graph structures and reduces information redundancy through clustering, achieving significant research progress. However, existing methods often only consider single-relational graphs and require a predefined number of clusters, which hinders their ability to fully represent rich relational information and adaptively partition sentence groups to reduce redundancy. To overcome these limitations, we propose MRGSEM-Sum, an unsupervised multi-document summarization framework based on multi-relational graphs and structural entropy minimization. Specifically, we construct a multi-relational graph that integrates semantic and discourse relations between sentences, comprehensively modeling the intricate and dynamic connections among sentences across documents. We then apply a two-dimensional structural entropy minimization algorithm for clustering, automatically determining the optimal number of clusters and effectively organizing sentences into coherent groups. Finally, we introduce a position-aware compression mechanism to distill each cluster, generating concise and informative summaries. Extensive experiments on four benchmark datasets (Multi-News, DUC-2004, PubMed, and WikiSum) demonstrate that our approach consistently outperforms previous unsupervised methods and, in several cases, achieves performance comparable to supervised models and large language models. Human evaluation demonstrates that the summaries generated by MRGSEM-Sum exhibit high consistency and coverage, approaching human-level quality.
- Abstract(参考訳): 多文書要約が直面する主な課題は、文書間の関係の複雑さと情報冗長性の存在である。
グラフクラスタリングは、グラフ構造を用いて文書間の複雑な関係をモデル化し、クラスタリングによる情報の冗長性を低減し、重要な研究進歩を達成するため、この問題に対処するための効果的なパラダイムである。
しかし、既存の手法では、単一のリレーショナルグラフのみを考慮し、事前定義された数のクラスタを必要とすることが多く、これにより、リッチなリレーショナル情報を完全に表現し、冗長性を減少させるために文群を適応的に分割する能力が妨げられる。
これらの制限を克服するため,マルチリレーショナルグラフと構造エントロピー最小化に基づく教師なしマルチドキュメント要約フレームワークMRGSEM-Sumを提案する。
具体的には、文間の意味関係と談話関係を統合し、文書間の複雑な関係と動的関係を包括的にモデル化するマルチリレーショナルグラフを構築する。
次に、クラスタリングのための2次元構造エントロピー最小化アルゴリズムを適用し、最適なクラスタ数を自動決定し、文を一貫性のあるグループに効果的に整理する。
最後に,各クラスタを蒸留し,簡潔かつ情報的な要約を生成する位置認識圧縮機構を提案する。
4つのベンチマークデータセット(Multi-News, DUC-2004, PubMed, WikiSum)の大規模な実験により, 従来の教師なし手法を一貫して上回り, 場合によっては教師なしモデルや大規模言語モデルに匹敵する性能を達成した。
MRGSEM-Sumが生成したサマリーは高い一貫性とカバレッジを示し,人間レベルの品質に近づいた。
関連論文リスト
- CORG: Generating Answers from Complex, Interrelated Contexts [57.213304718157985]
現実世界のコーパスでは、知識は文書間で頻繁に再帰するが、曖昧な命名、時代遅れの情報、エラーのためにしばしば矛盾を含む。
以前の研究では、言語モデルはこれらの複雑さに苦しむことが示されており、典型的には孤立した単一要因に焦点を当てている。
複数のコンテキストを個別に処理されたグループに整理するフレームワークであるContext Organizer (CORG)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T02:40:48Z) - One for all: A novel Dual-space Co-training baseline for Large-scale
Multi-View Clustering [42.92751228313385]
我々は、Dual-space Co-training Large-scale Multi-view Clustering (DSCMC)という新しいマルチビュークラスタリングモデルを提案する。
提案手法の主な目的は,2つの異なる空間における協調学習を活用することにより,クラスタリング性能を向上させることである。
我々のアルゴリズムは近似線形計算複雑性を持ち、大規模データセットへの適用が成功することを保証している。
論文 参考訳(メタデータ) (2024-01-28T16:30:13Z) - Efficient Multi-View Graph Clustering with Local and Global Structure
Preservation [59.49018175496533]
局所・グローバル構造保存を用いた効率的なマルチビューグラフクラスタリング(EMVGC-LG)という,アンカーベースのマルチビューグラフクラスタリングフレームワークを提案する。
具体的には、EMVGC-LGがクラスタリング品質を向上させるために、アンカー構築とグラフ学習を共同で最適化する。
さらに、EMVGC-LGはサンプル数に関する既存のAMVGCメソッドの線形複雑性を継承する。
論文 参考訳(メタデータ) (2023-08-31T12:12:30Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Fine-grained Graph Learning for Multi-view Subspace Clustering [2.4094285826152593]
マルチビューサブスペースクラスタリング(FGL-MSC)のためのきめ細かいグラフ学習フレームワークを提案する。
主な課題は、クラスタリングタスクに適合する学習グラフを生成しながら、微細な融合重みを最適化する方法である。
8つの実世界のデータセットの実験では、提案されたフレームワークは最先端の手法に匹敵する性能を示している。
論文 参考訳(メタデータ) (2022-01-12T18:00:29Z) - Unsupervised Multi-view Clustering by Squeezing Hybrid Knowledge from
Cross View and Each View [68.88732535086338]
本稿では,適応グラフ正規化に基づくマルチビュークラスタリング手法を提案する。
5つの多視点ベンチマークの実験結果から,提案手法が他の最先端手法をクリアマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-08-23T08:25:06Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z) - Reasoning with Latent Structure Refinement for Document-Level Relation
Extraction [20.308845516900426]
本稿では,潜在文書レベルグラフを自動的に誘導することにより,文間の関係推論を促進する新しいモデルを提案する。
具体的には、大規模文書レベルデータセット(DocRED)上でF1スコア59.05を達成する。
論文 参考訳(メタデータ) (2020-05-13T13:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。