論文の概要: GRETEL: Graph Contrastive Topic Enhanced Language Model for Long
Document Extractive Summarization
- arxiv url: http://arxiv.org/abs/2208.09982v1
- Date: Sun, 21 Aug 2022 23:09:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:05:58.756468
- Title: GRETEL: Graph Contrastive Topic Enhanced Language Model for Long
Document Extractive Summarization
- Title(参考訳): GRETEL:長い文書抽出要約のためのグラフコントラストトピック拡張言語モデル
- Authors: Qianqian Xie and Jimin Huang and Tulika Saha and Sophia Ananiadou
- Abstract要約: グローバルな意味情報を取得するためのグラフコントラストトピック拡張言語モデル(GRETEL)を提案する。
GRETELは階層型トランスフォーマーエンコーダとグラフコントラスト学習を統合し,グローバル文書コンテキストとゴールド要約から意味情報を融合する。
一般領域およびバイオメディカルデータセットの実験結果から,提案手法がSOTA法より優れていることが示された。
- 参考スコア(独自算出の注目度): 22.053942327552583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, neural topic models (NTMs) have been incorporated into pre-trained
language models (PLMs), to capture the global semantic information for text
summarization. However, in these methods, there remain limitations in the way
they capture and integrate the global semantic information. In this paper, we
propose a novel model, the graph contrastive topic enhanced language model
(GRETEL), that incorporates the graph contrastive topic model with the
pre-trained language model, to fully leverage both the global and local
contextual semantics for long document extractive summarization. To better
capture and incorporate the global semantic information into PLMs, the graph
contrastive topic model integrates the hierarchical transformer encoder and the
graph contrastive learning to fuse the semantic information from the global
document context and the gold summary. To this end, GRETEL encourages the model
to efficiently extract salient sentences that are topically related to the gold
summary, rather than redundant sentences that cover sub-optimal topics.
Experimental results on both general domain and biomedical datasets demonstrate
that our proposed method outperforms SOTA methods.
- Abstract(参考訳): 近年,学習済み言語モデル (PLM) にニューラルトピックモデル (NTM) が組み込まれ,テキスト要約のための大域的意味情報を収集している。
しかし、これらの手法では、グローバル意味情報のキャプチャと統合の方法に制限が残っている。
本稿では,グラフコントラストトピックモデルと事前学習された言語モデルを組み合わせた,グラフコントラストトピック拡張言語モデル(gretel)を提案する。
グラフコントラストトピックモデルは、グローバルな意味情報を PLM に取り込み、よりうまく取り込み、階層的なトランスフォーマーエンコーダとグラフコントラスト学習を統合し、グローバルな文書コンテキストと金の要約から意味情報を融合させる。
この目的のために、GRETELは、最適でないトピックをカバーする冗長な文ではなく、金の要約にトポロジ的に関係する有能な文を効率的に抽出することをモデルに推奨する。
一般領域およびバイオメディカルデータセットの実験結果から,提案手法がSOTA法より優れていることが示された。
関連論文リスト
- Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - Let the Pretrained Language Models "Imagine" for Short Texts Topic
Modeling [29.87929724277381]
短いテキストでは、共起情報は最小限であり、結果として文書表現の特徴が分散する。
既存のトピックモデル(確率的あるいは神経的)は、ほとんどの場合、一貫性のあるトピックを生成するためにパターンのマイニングに失敗します。
既存の事前学習言語モデル(PLM)を用いて、短いテキストを長いシーケンスに拡張する。
論文 参考訳(メタデータ) (2023-10-24T00:23:30Z) - Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - Enriching and Controlling Global Semantics for Text Summarization [11.037667460077813]
トランスフォーマーに基づくモデルは、流動的で情報的な要約を作成することで抽象的な要約タスクに有効であることが証明されている。
文書のグローバルな意味を捉えるために,正規化フローを付与したニューラルトピックモデルを導入し,それを要約モデルに統合する。
本手法は,5つの共通テキスト要約データセットにおいて,最先端の要約モデルより優れる。
論文 参考訳(メタデータ) (2021-09-22T09:31:50Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - Enhancing Extractive Text Summarization with Topic-Aware Graph Neural
Networks [21.379555672973975]
本稿では,グラフニューラルネットワーク(GNN)に基づく抽出要約モデルを提案する。
本モデルでは,文章選択のための文書レベルの特徴を提供する潜在トピックを発見するために,共同ニューラルトピックモデル(NTM)を統合している。
実験結果から,CNN/DMおよびNYTデータセットにおいて,本モデルがほぼ最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T09:30:04Z) - Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven
Cloze Reward [42.925345819778656]
本稿では,グラフ拡張と意味駆動型RewarDによる抽象要約のための新しいフレームワークであるASGARDを紹介する。
本稿では,2つのエンコーダ(シーケンシャル文書エンコーダ)とグラフ構造化エンコーダ(グラフ構造化エンコーダ)の利用を提案する。
その結果、我々のモデルは、New York TimesとCNN/Daily Mailのデータセットからの入力として、知識グラフのない変種よりもはるかに高いROUGEスコアを生成することがわかった。
論文 参考訳(メタデータ) (2020-05-03T18:23:06Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。