論文の概要: Towards Unifying Multi-Lingual and Cross-Lingual Summarization
- arxiv url: http://arxiv.org/abs/2305.09220v1
- Date: Tue, 16 May 2023 06:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 16:06:27.763971
- Title: Towards Unifying Multi-Lingual and Cross-Lingual Summarization
- Title(参考訳): 多言語・言語横断要約の統一に向けて
- Authors: Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng
Qu and Jie Zhou
- Abstract要約: 我々は多言語要約(MLS)と多言語要約(CLS)をより一般的な設定、すなわち多対多要約(M2MS)に統一することを目指している。
M2MS への第一歩として,M2MS が MLS や CLS よりも多言語でタスク知識を伝達できることを示す予備的研究を行った。
本稿では,3段階の事前学習を通して言語モデリング,言語横断能力,要約能力を学ぶ,事前学習型M2MSモデルであるPiscesを提案する。
- 参考スコア(独自算出の注目度): 43.89340385650822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To adapt text summarization to the multilingual world, previous work proposes
multi-lingual summarization (MLS) and cross-lingual summarization (CLS).
However, these two tasks have been studied separately due to the different
definitions, which limits the compatible and systematic research on both of
them. In this paper, we aim to unify MLS and CLS into a more general setting,
i.e., many-to-many summarization (M2MS), where a single model could process
documents in any language and generate their summaries also in any language. As
the first step towards M2MS, we conduct preliminary studies to show that M2MS
can better transfer task knowledge across different languages than MLS and CLS.
Furthermore, we propose Pisces, a pre-trained M2MS model that learns language
modeling, cross-lingual ability and summarization ability via three-stage
pre-training. Experimental results indicate that our Pisces significantly
outperforms the state-of-the-art baselines, especially in the zero-shot
directions, where there is no training data from the source-language documents
to the target-language summaries.
- Abstract(参考訳): テキスト要約を多言語世界に適応させるために,従来の研究は多言語要約(MLS)と言語間要約(CLS)を提案する。
しかし、これらの2つのタスクは、両者の互換性と体系的な研究を制限する異なる定義のために、別々に研究されてきた。
本稿では,MLS と CLS をより一般的な設定,すなわち多対多の要約 (M2MS) に統合することを目的としている。
M2MS への第一歩として,M2MS が MLS や CLS よりも多言語でタスク知識を伝達できることを示す予備的研究を行った。
さらに,3段階事前学習による言語モデリング,言語横断能力,要約能力を学習するM2MSモデルであるPiscesを提案する。
実験結果から,本症例のpisceは最先端のベースライン,特にゼロショット方向のベースラインを有意に上回っており,ソース言語文書からターゲット言語要約までのトレーニングデータが存在しないことがわかった。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - A Survey on Multilingual Large Language Models: Corpora, Alignment, and Bias [5.104497013562654]
本稿では,MLLMの進化,鍵技術,多言語能力について概説する。
我々は、MLLMのトレーニングや下流タスクに適した多言語データセットに広く利用されている多言語コーパスについて検討する。
本稿では,MLLMのカテゴリと評価指標を含むバイアスについて論じ,既存のデバイアス手法を要約する。
論文 参考訳(メタデータ) (2024-04-01T05:13:56Z) - D$^2$TV: Dual Knowledge Distillation and Target-oriented Vision Modeling
for Many-to-Many Multimodal Summarization [113.72253589338472]
many-to-many multimodal summarization (M$3$S) タスクは、どんな言語でも文書入力と対応する画像シーケンスで要約を生成することを目的としている。
本稿では,M$3$Sタスクのための二重知識蒸留と目標指向視覚モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-22T06:47:35Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。