論文の概要: $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge
- arxiv url: http://arxiv.org/abs/2305.14205v1
- Date: Tue, 23 May 2023 16:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:53:34.081970
- Title: $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge
- Title(参考訳): $\mu$PLAN: クロスリンガルブリッジとしてのコンテンツプランを用いた要約
- Authors: Fantine Huot, Joshua Maynez, Chris Alberti, Reinald Kim Amplayo,
Priyanka Agrawal, Constanza Fierro, Shashi Narayan, Mirella Lapata
- Abstract要約: $mu$PLANは、中間計画ステップを言語間ブリッジとして使用する、言語間要約のアプローチである。
我々は,4言語間の言語間ペアを用いたXWikisデータセット上での方法論の評価を行った。
- 参考スコア(独自算出の注目度): 62.00797952678644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-lingual summarization consists of generating a summary in one language
given an input document in a different language, allowing for the dissemination
of relevant content across speakers of other languages. However, this task
remains challenging, mainly because of the need for cross-lingual datasets and
the compounded difficulty of summarizing and translating. This work presents
$\mu$PLAN, an approach to cross-lingual summarization that uses an intermediate
planning step as a cross-lingual bridge. We formulate the plan as a sequence of
entities that captures the conceptualization of the summary, i.e. identifying
the salient content and expressing in which order to present the information,
separate from the surface form. Using a multilingual knowledge base, we align
the entities to their canonical designation across languages. $\mu$PLAN models
first learn to generate the plan and then continue generating the summary
conditioned on the plan and the input. We evaluate our methodology on the
XWikis dataset on cross-lingual pairs across four languages and demonstrate
that this planning objective achieves state-of-the-art performance in terms of
ROUGE and faithfulness scores. Moreover, this planning approach improves the
zero-shot transfer to new cross-lingual language pairs compared to non-planning
baselines.
- Abstract(参考訳): 言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成し、他の言語の話者間で関連コンテンツの拡散を可能にする。
しかし、言語間データセットの必要性と、要約と翻訳の複合的な難しさから、この課題は依然として困難である。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$\mu$PLANを提示する。
我々は,サマリの概念化を捉えたエンティティのシーケンス,すなわち,サニエントコンテンツの識別と,表層形式とは別個の情報提示の順序表現としてプランを定式化する。
多言語知識ベースを用いて、そのエンティティを言語間の標準指定と整合させる。
まず、$\mu$planモデルはプランを生成し、その後プランとインプットに基づいて条件付けられたサマリーを生成します。
提案手法は,4言語間の言語間ペアを用いたXWikisデータセット上で評価し,ROUGEと忠実度スコアの観点から,最先端のパフォーマンスを実現することを実証する。
さらに、この計画手法は、非計画ベースラインに比べて、新たな言語間ペアへのゼロショット転送を改善する。
関連論文リスト
- Automatic Data Retrieval for Cross Lingual Summarization [4.759360739268894]
言語間の要約では、ある言語で書かれたテキストを別の言語に要約する。
本研究は,英語からヒンディー語への言語間要約を実現することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T09:13:24Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Models and Datasets for Cross-Lingual Summarisation [78.56238251185214]
対象言語における多文要約に関連付けられたソース言語において,長い文書を含む言語間要約コーパスを提案する。
コーパスは、チェコ語、英語、フランス語、ドイツ語の4つの言語について、12の言語対と指示をカバーしている。
言語対応のウィキペディアのタイトルから、主節と記事の本体を組み合わせることで、ウィキペディアから言語横断的な文書要約インスタンスを導出する。
論文 参考訳(メタデータ) (2022-02-19T11:55:40Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - WikiLingua: A New Benchmark Dataset for Cross-Lingual Abstractive
Summarization [41.578594261746055]
ウィキリンガ(WikiLingua)は,言語間抽象要約システムの評価のための大規模多言語データセットである。
ウィキハウ(WikiHow)は,人文者によって書かれた多種多様なトピックに関するハウツーガイドの高品質で協調的な資料である。
我々は、各記事のハウツーステップを記述するために使用されるイメージをアライメントすることで、言語間でのゴールドスタンダードな記事要約アライメントを作成する。
論文 参考訳(メタデータ) (2020-10-07T00:28:05Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards [40.17497211507507]
言語間テキスト要約は、実際は重要だが未探索の課題である。
本稿では,エンドツーエンドのテキスト要約モデルを提案する。
論文 参考訳(メタデータ) (2020-06-27T21:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。