論文の概要: An unsupervised extractive summarization method based on multi-round
computation
- arxiv url: http://arxiv.org/abs/2112.03203v1
- Date: Mon, 6 Dec 2021 18:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 14:24:49.886829
- Title: An unsupervised extractive summarization method based on multi-round
computation
- Title(参考訳): マルチラウンド計算に基づく教師なし抽出要約法
- Authors: Dehao Tao, Yingzhu Xiong, Jin He, Skevin and Yongfeng Huang
- Abstract要約: 本稿では,多ラウンド計算に基づく教師なし抽出テキスト要約手法を提案する。
実験は4つのデータセットで行われ、それぞれが中国語、英語、長文、短文を別々に含む。
- 参考スコア(独自算出の注目度): 18.372754308226167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text summarization methods have attracted much attention all the time. In
recent years, deep learning has been applied to text summarization, and it
turned out to be pretty effective. However, most of the current text
summarization methods based on deep learning need large-scale datasets, which
is difficult to achieve in practical applications. In this paper, an
unsupervised extractive text summarization method based on multi-round
calculation is proposed. Based on the directed graph algorithm, we change the
traditional method of calculating the sentence ranking at one time to
multi-round calculation, and the summary sentences are dynamically optimized
after each round of calculation to better match the characteristics of the
text. In this paper, experiments are carried out on four data sets, each
separately containing Chinese, English, long and short texts. The experiment
results show that our method has better performance than both baseline methods
and other unsupervised methods and is robust on different datasets.
- Abstract(参考訳): テキスト要約手法は常に注目を集めている。
近年,テキスト要約にディープラーニングが適用されており,その効果は極めて高いことが判明した。
しかし、ディープラーニングに基づく現在のテキスト要約手法のほとんどが大規模なデータセットを必要としており、実用化は困難である。
本稿では,マルチラウンド計算に基づく教師なし抽出テキスト要約手法を提案する。
有向グラフアルゴリズムに基づき、従来の文ランキングの計算方法を多ラウンド計算に変更し、各ラウンドの計算後に要約文を動的に最適化し、テキストの特性に合致させる。
本稿では,中国語,英語,長文,短文の4つのデータセットについて実験を行った。
実験の結果,本手法はベースライン法および他の教師なし手法よりも優れた性能を示し,異なるデータセット上で堅牢であることがわかった。
関連論文リスト
- Model-Free Active Exploration in Reinforcement Learning [53.786439742572995]
強化学習における探索問題について検討し,新しいモデルフリーソリューションを提案する。
我々の戦略は、最先端の探査アプローチよりも高速に効率的な政策を特定できる。
論文 参考訳(メタデータ) (2024-06-30T19:00:49Z) - Building blocks for complex tasks: Robust generative event extraction
for radiology reports under domain shifts [11.845850292404768]
マルチパスT5ベースのテキスト・テキスト生成モデルでは、BERTベースのタスク固有分類層を用いた手法と比較して、試験モード間の一般化が優れていることを示す。
そこで我々は, 大規模コーパス処理を臨床応用に利用しやすくするため, モデルの推論コストを低減させる手法を開発した。
論文 参考訳(メタデータ) (2023-06-15T23:16:58Z) - Recent Trends in Unsupervised Summarization [0.6752538702870792]
教師なしの要約は、ラベル付きデータセットを必要とせずにモデルを要約する訓練を可能にする強力なテクニックである。
このサーベイは、教師なし要約に使用される様々な手法とモデルをカバーしている。
論文 参考訳(メタデータ) (2023-05-18T18:00:44Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z) - Towards Abstractive Timeline Summarisation using Preference-based
Reinforcement Learning [3.6640004265358477]
本稿では,複数のニュースソースから報告されるイベントの時系列を要約する新しいパイプラインを提案する。
抽象的な要約のためのトランスフォーマーに基づくモデルは、長い文書のコヒーレントで簡潔な要約を生成する。
抽出要約は情報源に忠実であるが、読みにくく、余分な情報や不要な情報を含んでいる可能性がある。
論文 参考訳(メタデータ) (2022-11-14T18:24:13Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - The Summary Loop: Learning to Write Abstractive Summaries Without
Examples [21.85348918324668]
本研究は,与えられた長さ制約に対するカバレッジとフラエンシの組み合わせを最大化することに基づく,教師なし抽象的要約に対する新しいアプローチを提案する。
主要な用語は元のドキュメントから隠蔽され、現在の生成された要約を使ってカバレッジモデルで満たされなければならない。
一般的なニュース要約データセットでテストすると、従来の教師なし手法よりも2R-1ポイント以上性能が向上する。
論文 参考訳(メタデータ) (2021-05-11T23:19:46Z) - CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems [121.78477833009671]
データセット間設定下での様々な要約モデルの性能について検討する。
異なるドメインの5つのデータセットに対する11の代表的な要約システムに関する包括的な研究は、モデルアーキテクチャと生成方法の影響を明らかにしている。
論文 参考訳(メタデータ) (2020-10-11T02:19:15Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Improving unsupervised neural aspect extraction for online discussions
using out-of-domain classification [11.746330029375745]
本稿では,ニュースグループに基づくコンテンツから学んだ話題的側面を改善するために,文フィルタリングに基づく簡単なアプローチを提案する。
文フィルタリングがトピックコヒーレンスに与える影響を,未フィルタリングテキスト上で訓練されたアスペクト抽出モデルと比較した。
論文 参考訳(メタデータ) (2020-06-17T10:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。