論文の概要: InforME: Improving Informativeness of Abstractive Text Summarization With Informative Attention Guided by Named Entity Salience
- arxiv url: http://arxiv.org/abs/2510.05769v1
- Date: Tue, 07 Oct 2025 10:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.209816
- Title: InforME: Improving Informativeness of Abstractive Text Summarization With Informative Attention Guided by Named Entity Salience
- Title(参考訳): InforME:informative Attentioned by Named Entity Salienceによる抽象テキスト要約のインフォーマル性向上
- Authors: Jianbin Shen, Christy Jie Liang, Junyu Xuan,
- Abstract要約: 本稿では,情報伝達に基づく最適注意法と,名前付きエンティティに対する累積的共同エントロピー低減法という2つの手法からなる新しい学習手法を提案する。
実験の結果, 提案手法は, CNN/Daily Mail の先行研究と比較して, XSum と競合する結果を得た上で, ROUGE のスコアが向上することがわかった。
- 参考スコア(独自算出の注目度): 5.75415224867232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstractive text summarization is integral to the Big Data era, which demands advanced methods to turn voluminous and often long text data into concise but coherent and informative summaries for efficient human consumption. Despite significant progress, there is still room for improvement in various aspects. One such aspect is to improve informativeness. Hence, this paper proposes a novel learning approach consisting of two methods: an optimal transport-based informative attention method to improve learning focal information in reference summaries and an accumulative joint entropy reduction method on named entities to enhance informative salience. Experiment results show that our approach achieves better ROUGE scores compared to prior work on CNN/Daily Mail while having competitive results on XSum. Human evaluation of informativeness also demonstrates the better performance of our approach over a strong baseline. Further analysis gives insight into the plausible reasons underlying the evaluation results.
- Abstract(参考訳): 抽象的なテキスト要約はビッグデータの時代に不可欠なものであり、人間の効率的な消費のために、輝かしく長い長いテキストデータを簡潔だが一貫性のある情報的な要約に変換する高度な方法を要求する。
大幅な進歩にもかかわらず、様々な面で改善の余地は残っている。
そのような側面の1つは、情報性を改善することである。
そこで,本稿では,参照要約における学習焦点情報を改善するための最適輸送に基づく情報的注意法と,情報的敬意を高めるための名前付きエンティティに対する累積的共同エントロピー低減法という,2つの方法からなる新しい学習手法を提案する。
実験の結果, 提案手法は, CNN/Daily Mail の先行研究と比較して, XSum と競合する結果を得た上で, ROUGE のスコアが向上することがわかった。
また,人間の情報性評価は,強力なベースラインに対するアプローチの優れた性能を示すものである。
さらなる分析は、評価結果の根底にあるもっともらしい理由について洞察を与える。
関連論文リスト
- TG-LLaVA: Text Guided LLaVA via Learnable Latent Embeddings [61.9257731511557]
視覚言語モデル(VLM)を最適化するためのテキストガイド付きLLaVA(TG-LLaVA)を提案する。
学習可能な潜伏埋め込みをブリッジとして使用し、テキスト命令を分析し、視覚エンコーダに解析結果をガイダンスとして付加する。
テキストのガイダンスによって、視覚エンコーダは、人間が質問を考えるとき、画像の最も関連性の高い部分に集中する方法と同様に、テキスト関連の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-09-15T00:38:34Z) - Enhancing Video Summarization with Context Awareness [9.861215740353247]
ビデオ要約は、ビデオの本質をキャプチャするテクニック、ショット、セグメントを選択することで、簡潔な要約を自動的に生成する。
ビデオ要約の重要性にもかかわらず、多様で代表的なデータセットが不足している。
本稿では,映像データ構造と情報を活用して情報要約を生成する教師なし手法を提案する。
論文 参考訳(メタデータ) (2024-04-06T09:08:34Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Improving Factuality of Abstractive Summarization via Contrastive Reward
Learning [77.07192378869776]
本稿では,報酬学習と実効性指標の最近の発展を取り入れた,シンプルだが効果的なコントラスト学習フレームワークを提案する。
実証的研究により,提案手法により,実測値のフィードバックから要約モデルを学習できることが実証された。
論文 参考訳(メタデータ) (2023-07-10T12:01:18Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - On the State of German (Abstractive) Text Summarization [3.1776833268555134]
ドイツの抽象的テキスト要約の景観を評価する。
業界において,抽象的なテキスト要約のための実用的なソリューションがいまだに欠落している理由を考察する。
論文 参考訳(メタデータ) (2023-01-17T18:59:20Z) - Human-in-the-loop Abstractive Dialogue Summarization [61.4108097664697]
我々は、異なるレベルの人間のフィードバックをトレーニングプロセスに組み込むことを提案する。
これにより、モデルをガイドして、人間が要約に用いている振る舞いを捉えることができます。
論文 参考訳(メタデータ) (2022-12-19T19:11:27Z) - OTExtSum: Extractive Text Summarisation with Optimal Transport [45.78604902572955]
テキスト要約を最適輸送(OT)問題として初めて定式化した非学習型手法を提案する。
提案手法は,最先端の非学習的手法と最近の学習的手法をROUGEメートル法で比較した。
論文 参考訳(メタデータ) (2022-04-21T13:25:34Z) - Automatic Text Summarization Methods: A Comprehensive Review [1.6114012813668934]
本研究は,要約手法,使用する手法,標準データセット,評価指標,今後の研究範囲などのテキスト要約概念を詳細に分析する。
論文 参考訳(メタデータ) (2022-03-03T10:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。