論文の概要: Leveraging ParsBERT and Pretrained mT5 for Persian Abstractive Text
Summarization
- arxiv url: http://arxiv.org/abs/2012.11204v1
- Date: Mon, 21 Dec 2020 09:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:38:29.240786
- Title: Leveraging ParsBERT and Pretrained mT5 for Persian Abstractive Text
Summarization
- Title(参考訳): ペルシャ抽象テキスト要約のための ParsBERT と事前訓練 mT5 の活用
- Authors: Mehrdad Farahani, Mohammad Gharachorloo, Mohammad Manthouri
- Abstract要約: 本稿では,ペルシャ抽象テキスト要約のための新しいデータセットpn-summaryについて紹介する。
本論文で用いるモデルはmT5とParsBERTモデルのエンコーダデコーダ版である。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text summarization is one of the most critical Natural Language Processing
(NLP) tasks. More and more researches are conducted in this field every day.
Pre-trained transformer-based encoder-decoder models have begun to gain
popularity for these tasks. This paper proposes two methods to address this
task and introduces a novel dataset named pn-summary for Persian abstractive
text summarization. The models employed in this paper are mT5 and an
encoder-decoder version of the ParsBERT model (i.e., a monolingual BERT model
for Persian). These models are fine-tuned on the pn-summary dataset. The
current work is the first of its kind and, by achieving promising results, can
serve as a baseline for any future work.
- Abstract(参考訳): テキスト要約は、最も重要な自然言語処理(NLP)タスクの1つである。
この分野では日々多くの研究が行なわれている。
事前訓練されたトランスフォーマーベースのエンコーダデコーダモデルがこれらのタスクで人気を集め始めている。
本稿では,この課題に対処する2つの手法を提案し,ペルシャ抽象テキスト要約のための新しいデータセットpn-summaryを提案する。
この論文で使用されたモデルはmT5とParsBERTモデルのエンコーダ・デコーダバージョン(ペルシャ語用単言語BERTモデル)である。
これらのモデルはpn-summaryデータセット上で微調整される。
現在の作業はこの種の最初のもので、有望な結果を達成することで、将来の作業のベースラインとして機能することができる。
関連論文リスト
- Text Summarization Using Large Language Models: A Comparative Study of
MPT-7b-instruct, Falcon-7b-instruct, and OpenAI Chat-GPT Models [0.0]
Leveraging Large Language Models (LLMs) は、要約技術の強化において、顕著な将来性を示している。
本稿では,MPT-7b-instruct,falcon-7b-instruct,OpenAI ChatGPT text-davinci-003 モデルなど,多種多様な LLM を用いたテキスト要約について検討する。
論文 参考訳(メタデータ) (2023-10-16T14:33:02Z) - Abstractive Text Summarization for Resumes With Cutting Edge NLP
Transformers and LSTM [0.0]
LSTM、事前訓練されたモデル、微調整されたモデルは履歴書のデータセットを用いて評価された。
履歴データセットを微調整したBART-Largeモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2023-06-23T06:33:20Z) - Z-Code++: A Pre-trained Language Model Optimized for Abstractive
Summarization [108.09419317477986]
Z-Code++は、抽象的なテキスト要約に最適化された、新しいトレーニング済み言語モデルである。
このモデルは、まず、言語理解のためのテキストコーパスを用いて事前訓練され、続いて、接地テキスト生成のための要約コーパス上で継続的に事前訓練される。
パラメータ効率はXSumでは600倍のPaLM-540B,SAMSumでは200倍のGPT3-175Bである。
論文 参考訳(メタデータ) (2022-08-21T01:00:54Z) - Evaluation of Transfer Learning for Polish with a Text-to-Text Model [54.81823151748415]
ポーランド語におけるテキスト・テキスト・モデルの質を評価するための新しいベンチマークを導入する。
KLEJベンチマークはテキスト・トゥ・テキスト、en-pl翻訳、要約、質問応答に適応している。
本稿では,ポーランド語のための汎用テキスト・テキスト・ツー・テキスト・モデルであるplT5について述べる。
論文 参考訳(メタデータ) (2022-05-18T09:17:14Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - A Survey of Recent Abstract Summarization Techniques [0.0]
英語とインドネシア語のウィキペディアデータセットに対する事前学習モデルの影響について検討する。
ROUGEのパフォーマンスに影響を与える最も重要な要因は、カバレッジ、密度、圧縮です。
T5-Large、Pegasus-XSum、ProphetNet-CNNDMは最高の要約を提供する。
論文 参考訳(メタデータ) (2021-04-15T20:01:34Z) - Data-to-Text Generation with Iterative Text Editing [3.42658286826597]
本稿では,反復的テキスト編集に基づく新しいデータ・テキスト生成手法を提案する。
まず、自明なテンプレートを用いてデータ項目をテキストに変換し、その後、文融合タスクのために訓練されたニューラルモデルにより結果のテキストを反復的に改善する。
モデルの出力は単純で、既製の事前訓練言語モデルで再帰的にフィルタリングされる。
論文 参考訳(メタデータ) (2020-11-03T13:32:38Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。