論文の概要: $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge
- arxiv url: http://arxiv.org/abs/2305.14205v2
- Date: Wed, 31 Jan 2024 13:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 18:04:52.449420
- Title: $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge
- Title(参考訳): $\mu$PLAN: クロスリンガルブリッジとしてのコンテンツプランを用いた要約
- Authors: Fantine Huot, Joshua Maynez, Chris Alberti, Reinald Kim Amplayo,
Priyanka Agrawal, Constanza Fierro, Shashi Narayan, Mirella Lapata
- Abstract要約: 言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成することで構成される。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$mu$PLANを提示する。
- 参考スコア(独自算出の注目度): 72.64847925450368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-lingual summarization consists of generating a summary in one language
given an input document in a different language, allowing for the dissemination
of relevant content across speakers of other languages. The task is challenging
mainly due to the paucity of cross-lingual datasets and the compounded
difficulty of summarizing and translating. This work presents $\mu$PLAN, an
approach to cross-lingual summarization that uses an intermediate planning step
as a cross-lingual bridge. We formulate the plan as a sequence of entities
capturing the summary's content and the order in which it should be
communicated. Importantly, our plans abstract from surface form: using a
multilingual knowledge base, we align entities to their canonical designation
across languages and generate the summary conditioned on this cross-lingual
bridge and the input. Automatic and human evaluation on the XWikis dataset
(across four language pairs) demonstrates that our planning objective achieves
state-of-the-art performance in terms of informativeness and faithfulness.
Moreover, $\mu$PLAN models improve the zero-shot transfer to new cross-lingual
language pairs compared to baselines without a planning component.
- Abstract(参考訳): 言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成し、他の言語の話者間で関連コンテンツの拡散を可能にする。
主な課題は、言語間データセットのポーシティと、要約と翻訳の複合的な難しさである。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$\mu$PLANを提示する。
我々は,サマリーの内容とコミュニケーションすべき順序をキャプチャするエンティティのシーケンスとしてプランを定式化した。
重要なことは、私たちの計画は表面的な形態から抽象化されている: 多言語知識ベースを使用して、エンティティを言語間の標準的指定に整列し、この言語横断ブリッジと入力に条件付けられた要約を生成する。
XWikisデータセット(4つの言語ペア)における自動的および人的評価は、我々の計画目標が情報性と忠実性の観点から最先端のパフォーマンスを達成することを示す。
さらに$\mu$planモデルは、プランニングコンポーネントのないベースラインと比較して、新しい言語間ペアへのゼロショット転送を改善する。
関連論文リスト
- Automatic Data Retrieval for Cross Lingual Summarization [4.759360739268894]
言語間の要約では、ある言語で書かれたテキストを別の言語に要約する。
本研究は,英語からヒンディー語への言語間要約を実現することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T09:13:24Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Models and Datasets for Cross-Lingual Summarisation [78.56238251185214]
対象言語における多文要約に関連付けられたソース言語において,長い文書を含む言語間要約コーパスを提案する。
コーパスは、チェコ語、英語、フランス語、ドイツ語の4つの言語について、12の言語対と指示をカバーしている。
言語対応のウィキペディアのタイトルから、主節と記事の本体を組み合わせることで、ウィキペディアから言語横断的な文書要約インスタンスを導出する。
論文 参考訳(メタデータ) (2022-02-19T11:55:40Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - WikiLingua: A New Benchmark Dataset for Cross-Lingual Abstractive
Summarization [41.578594261746055]
ウィキリンガ(WikiLingua)は,言語間抽象要約システムの評価のための大規模多言語データセットである。
ウィキハウ(WikiHow)は,人文者によって書かれた多種多様なトピックに関するハウツーガイドの高品質で協調的な資料である。
我々は、各記事のハウツーステップを記述するために使用されるイメージをアライメントすることで、言語間でのゴールドスタンダードな記事要約アライメントを作成する。
論文 参考訳(メタデータ) (2020-10-07T00:28:05Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards [40.17497211507507]
言語間テキスト要約は、実際は重要だが未探索の課題である。
本稿では,エンドツーエンドのテキスト要約モデルを提案する。
論文 参考訳(メタデータ) (2020-06-27T21:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。