論文の概要: Bridging the Gap: Cross-Lingual Summarization with Compression Rate
- arxiv url: http://arxiv.org/abs/2110.07936v1
- Date: Fri, 15 Oct 2021 08:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:12:42.723543
- Title: Bridging the Gap: Cross-Lingual Summarization with Compression Rate
- Title(参考訳): ギャップを橋渡しする:圧縮率による言語横断要約
- Authors: Yu Bai, Heyan Huang, Kai Fan, Yang Gao, Zewen Chi, Boxing Chen
- Abstract要約: CLS(Cross-lingual Summarization)は、機械翻訳(MT)タスクと密接に関連している。
本稿では,大規模MTコーパスによる言語間要約を支援するために,圧縮速度を用いた言語間要約(CSC)を提案する。
- 参考スコア(独自算出の注目度): 30.96206778472334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual Summarization (CLS), converting a document into a cross-lingual
summary, is highly related to Machine Translation (MT) task. However, MT
resources are still underutilized for the CLS task. In this paper, we propose a
novel task, Cross-lingual Summarization with Compression rate (CSC), to benefit
cross-lingual summarization through large-scale MT corpus. Through introducing
compression rate, we regard MT task as a special CLS task with the compression
rate of 100%. Hence they can be trained as a unified task, sharing knowledge
more effectively. Moreover, to bridge these two tasks smoothly, we propose a
simple yet effective data augmentation method to produce document-summary pairs
with different compression rates. The proposed method not only improves the
performance of CLS task, but also provides controllability to generate
summaries in desired lengths. Experiments demonstrate that our method
outperforms various strong baselines.
- Abstract(参考訳): 文書を言語間要約に変換する言語間要約(CLS)は,機械翻訳(MT)タスクと密接に関連している。
しかし、MTリソースは依然としてCLSタスクには使われていない。
本稿では,大規模MTコーパスによる言語間要約の便宜を図るために,CSC(Cross-lingual Summarization with Compression rate)を提案する。
圧縮率を導入することで、mtタスクを圧縮率100%の特別なclsタスクとみなす。
したがって、それらを統一されたタスクとして訓練し、知識をより効果的に共有することができる。
さらに,これら2つのタスクをスムーズにブリッジするために,圧縮率の異なる文書-要約ペアを作成するための簡易かつ効果的なデータ拡張手法を提案する。
提案手法は, CLSタスクの性能向上だけでなく, 所望の長さで要約を生成するための制御性も提供する。
実験により,本手法は様々な強いベースラインより優れていることが示された。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - ConVerSum: A Contrastive Learning-based Approach for Data-Scarce Solution of Cross-Lingual Summarization Beyond Direct Equivalents [4.029675201787349]
言語間の要約は自然言語処理の洗練された分野である。
高品質なCLSデータがない場合、CLSには実現可能な解決策がない。
コントラスト学習のパワーを活かしたCLSのための新しいデータ効率のアプローチであるConVerSumを提案する。
論文 参考訳(メタデータ) (2024-08-17T19:03:53Z) - Cross-lingual Contextualized Phrase Retrieval [63.80154430930898]
そこで本研究では,言語間関係の単語検索を多義的に行うタスクの定式化を提案する。
我々は、コントラスト学習を用いて、言語間コンテクスト対応句検索(CCPR)を訓練する。
フレーズ検索タスクでは、CCPRはベースラインをかなり上回り、少なくとも13ポイント高いトップ1の精度を達成する。
論文 参考訳(メタデータ) (2024-03-25T14:46:51Z) - Cross-Modal Multi-Tasking for Speech-to-Text Translation via Hard
Parameter Sharing [72.56219471145232]
ハードパラメータ共有を伴うST/MTマルチタスクフレームワークを提案する。
本手法は,事前処理による音声文のモダリティギャップを低減する。
我々は,注意エンコーダ・デコーダ,コネクショニスト時間分類(CTC),トランスデューサ,共同CTC/アテンションモデルを平均+0.5BLEUで改善することを示す。
論文 参考訳(メタデータ) (2023-09-27T17:48:14Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - ClueGraphSum: Let Key Clues Guide the Cross-Lingual Abstractive
Summarization [5.873920727236548]
言語間の要約は、異なる言語の記事に対して1つの言語で要約を生成するタスクである。
CLSに関するこれまでの研究は主にパイプライン方式を採用し、翻訳された並列データを使ってエンドツーエンドモデルを訓練していた。
本稿では,言語間要約の品質向上を図るために,手掛かり付き言語間抽象要約手法を提案する。
論文 参考訳(メタデータ) (2022-03-05T18:01:11Z) - Cross-Lingual Abstractive Summarization with Limited Parallel Resources [22.680714603332355]
低リソース環境下でのクロスリンガル抽象要約(MCLAS)のための新しいマルチタスクフレームワークを提案する。
1つの統一デコーダを用いてモノリンガルとクロスリンガルの要約の逐次連結を生成することで、MCLASはモノリンガルの要約タスクをクロスリンガルの要約タスクの前提条件とする。
我々のモデルは、低リソースとフルデータセットの両方のシナリオにおいて、3つのベースラインモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-05-28T07:51:42Z) - Enhancing Answer Boundary Detection for Multilingual Machine Reading
Comprehension [86.1617182312817]
そこで我々は,句境界管理を付加するために,微調整段階における2つの補助的タスクを提案する。
混合機械読解タスクは、質問または通過を他の言語に翻訳し、言語横断の問合せペアを構築する。
Webから抽出した知識フレーズを活用する言語に依存しない知識マスキングタスク。
論文 参考訳(メタデータ) (2020-04-29T10:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。