論文の概要: A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards
- arxiv url: http://arxiv.org/abs/2006.15454v1
- Date: Sat, 27 Jun 2020 21:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 07:51:08.904087
- Title: A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards
- Title(参考訳): バイリンガル・セマンティック・リワードを用いたゼロショット・クロスリンガル要約の深部強化モデル
- Authors: Zi-Yi Dou, Sachin Kumar, Yulia Tsvetkov
- Abstract要約: 言語間テキスト要約は、実際は重要だが未探索の課題である。
本稿では,エンドツーエンドのテキスト要約モデルを提案する。
- 参考スコア(独自算出の注目度): 40.17497211507507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual text summarization aims at generating a document summary in one
language given input in another language. It is a practically important but
under-explored task, primarily due to the dearth of available data. Existing
methods resort to machine translation to synthesize training data, but such
pipeline approaches suffer from error propagation. In this work, we propose an
end-to-end cross-lingual text summarization model. The model uses reinforcement
learning to directly optimize a bilingual semantic similarity metric between
the summaries generated in a target language and gold summaries in a source
language. We also introduce techniques to pre-train the model leveraging
monolingual summarization and machine translation objectives. Experimental
results in both English--Chinese and English--German cross-lingual
summarization settings demonstrate the effectiveness of our methods. In
addition, we find that reinforcement learning models with bilingual semantic
similarity as rewards generate more fluent sentences than strong baselines.
- Abstract(参考訳): 言語間テキスト要約は、ある言語で与えられた入力の文書要約を生成することを目的としている。
これは実質的には重要ではあるが未熟な作業であり、主に利用可能なデータの不足のためである。
既存の方法は、トレーニングデータを合成するために機械翻訳に頼るが、このようなパイプラインアプローチはエラー伝播に苦しむ。
本稿では,エンドツーエンドの言語間テキスト要約モデルを提案する。
このモデルは強化学習を用いて、ターゲット言語で生成された要約とソース言語で生成された金の要約のバイリンガル意味類似度メトリックを直接最適化する。
また,単言語要約と機械翻訳の目的を利用した事前学習手法も導入する。
英語・中国語・英語・ドイツ語の言語間要約設定における実験結果から,提案手法の有効性が示された。
さらに,二言語的意味的類似性を持つ強化学習モデルでは,強固なベースラインよりも,より流麗な文を生成することが判明した。
関連論文リスト
- Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Cross-language Sentence Selection via Data Augmentation and Rationale
Training [22.106577427237635]
雑音のある並列文データに対するデータ拡張と負のサンプリング技術を用いて、言語間埋め込みに基づくクエリ関連モデルの学習を行う。
その結果、同じ並列データでトレーニングされた複数の最先端機械翻訳+モノリンガル検索システムよりも、このアプローチが優れているか、あるいは優れていることが示された。
論文 参考訳(メタデータ) (2021-06-04T07:08:47Z) - Cross-lingual Approach to Abstractive Summarization [0.0]
言語間モデル転送は低リソース言語でうまく適用できる。
深層ニューラルネットワークとシークエンス・トゥ・シークエンスアーキテクチャに基づく事前学習型英語要約モデルを用いた。
対象言語データに異なる比率のモデルを開発し,微調整を行った。
論文 参考訳(メタデータ) (2020-12-08T09:30:38Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。