論文の概要: VieSum: How Robust Are Transformer-based Models on Vietnamese
Summarization?
- arxiv url: http://arxiv.org/abs/2110.04257v1
- Date: Fri, 8 Oct 2021 17:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 15:19:07.262032
- Title: VieSum: How Robust Are Transformer-based Models on Vietnamese
Summarization?
- Title(参考訳): viesum: トランスフォーマーベースのモデルはベトナムの要約にどの程度堅牢か?
- Authors: Hieu Nguyen, Long Phan, James Anibal, Alec Peltekian, Hieu Tran
- Abstract要約: ベトナムの抽象的な要約のためのトランスフォーマーベースエンコーダデコーダアーキテクチャのロバスト性について検討する。
ベトナムの2つのデータセットにおける手法の性能を検証した。
- 参考スコア(独自算出の注目度): 1.1379578593538398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text summarization is a challenging task within natural language processing
that involves text generation from lengthy input sequences. While this task has
been widely studied in English, there is very limited research on summarization
for Vietnamese text. In this paper, we investigate the robustness of
transformer-based encoder-decoder architectures for Vietnamese abstractive
summarization. Leveraging transfer learning and self-supervised learning, we
validate the performance of the methods on two Vietnamese datasets.
- Abstract(参考訳): テキスト要約は、長い入力シーケンスからテキストを生成する自然言語処理において難しいタスクである。
この仕事は英語で広く研究されているが、ベトナム語のテキストの要約に関する研究は限られている。
本稿ではベトナムの抽象的要約のためのトランスフォーマーベースのエンコーダデコーダアーキテクチャの堅牢性について検討する。
トランスファー学習と自己教師あり学習の活用により,ベトナムの2つのデータセットにおける手法の性能を検証する。
関連論文リスト
- ViConsFormer: Constituting Meaningful Phrases of Scene Texts using Transformer-based Method in Vietnamese Text-based Visual Question Answering [0.5803309695504829]
テキストベースのVQAの主な課題は、シーンテキストの意味と情報を活用することである。
近年の研究では、画像中のシーンテキストの空間的情報を考慮することでこの問題に対処している。
ベトナム語で書かれたシーンテキストからの情報を効果的に活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:00:03Z) - Cross-modality Data Augmentation for End-to-End Sign Language Translation [66.46877279084083]
エンドツーエンド手話翻訳(SLT)は、手話動画を中間表現なしで直接音声言語テキストに変換することを目的としている。
署名ビデオとテキスト間のモダリティのギャップとラベル付きデータの不足のため、これは難しい課題だった。
本稿では,強力な光沢からテキストへの翻訳機能をエンドツーエンドの手話翻訳に変換するための,新しいクロスモダリティデータ拡張(XmDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:34:18Z) - Code-Switching Text Generation and Injection in Mandarin-English ASR [57.57570417273262]
業界で広く使われているストリーミングモデルTransformer-Transducer(T-T)の性能向上のためのテキスト生成とインジェクションについて検討する。
まず、コードスイッチングテキストデータを生成し、テキスト-to-Speech(TTS)変換または暗黙的に音声とテキストの潜在空間を結び付けることによって、T-Tモデルに生成されたテキストを明示的に注入する戦略を提案する。
実際のマンダリン・イングリッシュ音声の1,800時間を含むデータセットを用いて訓練したT-Tモデルの実験結果から,生成したコードスイッチングテキストを注入する手法により,T-Tモデルの性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2023-03-20T09:13:27Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - ViT5: Pretrained Text-to-Text Transformer for Vietnamese Language
Generation [2.0302025541827247]
ベトナム語のトランスフォーマーを用いたエンコーダデコーダモデルViT5を提案する。
T5スタイルの自己教師型プレトレーニングでは、ViT5は高品質で多様なベトナム語のテキストのコーパスで訓練されている。
論文 参考訳(メタデータ) (2022-05-13T06:08:35Z) - Sentence Extraction-Based Machine Reading Comprehension for Vietnamese [0.2446672595462589]
UIT-ViWikiQAは,ベトナム語における文抽出に基づく機械読解に関する最初のデータセットである。
このデータセットは、ウィキペディアから174のベトナム語記事の5.109節に基づく23.074の質問回答からなる。
我々の実験によると、最良のマシンモデルはXLM-R$_Largeであり、これは正確な一致(EM)スコアが85.97%、F1スコアが88.77%である。
論文 参考訳(メタデータ) (2021-05-19T10:22:27Z) - Automatic Post-Editing for Translating Chinese Novels to Vietnamese [13.018476689878637]
5mのベトナム語訳文対の大規模データセットを構築した。
次に、強力なニューラルMTモデルを適用してAPEタスクを処理します。
論文 参考訳(メタデータ) (2021-04-25T10:59:31Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - A Vietnamese Dataset for Evaluating Machine Reading Comprehension [2.7528170226206443]
ベトナム語として低リソース言語のための新しいデータセットであるUIT-ViQuADを提案する。
このデータセットは、ウィキペディアから174のベトナム語記事の5,109節に基づいて、23,000人以上の人が生成した質問応答ペアで構成されている。
UIT-ViQuADの最初の実験モデルとして、英語と中国語の最先端MRC手法の実験を行った。
論文 参考訳(メタデータ) (2020-09-30T15:06:56Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。