論文の概要: Self-Attention with Cross-Lingual Position Representation
- arxiv url: http://arxiv.org/abs/2004.13310v4
- Date: Sat, 21 Nov 2020 17:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:00:57.011803
- Title: Self-Attention with Cross-Lingual Position Representation
- Title(参考訳): 言語間位置表現による自己認識
- Authors: Liang Ding, Longyue Wang, Dacheng Tao
- Abstract要約: 位置符号化(PE)は、自然言語処理タスクの単語順序情報を保存し、入力シーケンスの固定位置インデックスを生成する。
語順が異なるため、言語間の位置関係をモデル化することは、SANがこの問題に取り組むのに役立つ。
我々は、入力文のバイリンガル認識潜在構造をモデル化するために、言語間位置表現によるSANを拡大する。
- 参考スコア(独自算出の注目度): 112.05807284056337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Position encoding (PE), an essential part of self-attention networks (SANs),
is used to preserve the word order information for natural language processing
tasks, generating fixed position indices for input sequences. However, in
cross-lingual scenarios, e.g. machine translation, the PEs of source and target
sentences are modeled independently. Due to word order divergences in different
languages, modeling the cross-lingual positional relationships might help SANs
tackle this problem. In this paper, we augment SANs with \emph{cross-lingual
position representations} to model the bilingually aware latent structure for
the input sentence. Specifically, we utilize bracketing transduction grammar
(BTG)-based reordering information to encourage SANs to learn bilingual
diagonal alignments. Experimental results on WMT'14 English$\Rightarrow$German,
WAT'17 Japanese$\Rightarrow$English, and WMT'17 Chinese$\Leftrightarrow$English
translation tasks demonstrate that our approach significantly and consistently
improves translation quality over strong baselines. Extensive analyses confirm
that the performance gains come from the cross-lingual information.
- Abstract(参考訳): 位置符号化(PE)は自己注意ネットワーク(SAN)の重要な部分であり、自然言語処理タスクの単語順序情報を保存し、入力シーケンスの固定位置インデックスを生成する。
しかし、機械翻訳のような言語横断のシナリオでは、ソースとターゲットの文のPEは独立してモデル化される。
語順が異なるため、言語間の位置関係をモデル化することは、SANがこの問題に取り組むのに役立つ。
本稿では、入力文のバイリンガル認識潜在構造をモデル化するために、SANを \emph{cross-lingual position representations} で拡張する。
具体的には、ブラケット変換文法(BTG)に基づく並べ替え情報を用いて、SANに二言語対角アライメントの学習を促す。
WMT'14 English$\Rightarrow$ German, WAT'17 Japanese$\Rightarrow$ English, WMT'17 Chinese$\Leftrightarrow$ English による実験結果は,我々のアプローチが強いベースラインよりも大幅に,一貫して翻訳品質を向上させることを示した。
徹底的な分析により、性能向上は言語間情報によるものであることが確認される。
関連論文リスト
- Breaking the Script Barrier in Multilingual Pre-Trained Language Models with Transliteration-Based Post-Training Alignment [50.27950279695363]
転送性能は、低リソースのターゲット言語が高リソースのソース言語とは異なるスクリプトで書かれている場合、しばしば妨げられる。
本論文は,この問題に対処するために翻訳を用いた最近の研究に触発されて,翻訳に基づくポストプレトレーニングアライメント(PPA)手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T08:59:24Z) - Cross-lingual Transfer or Machine Translation? On Data Augmentation for
Monolingual Semantic Textual Similarity [2.422759879602353]
Wikipediaデータの言語間転送では、モノリンガルSTSのパフォーマンスが改善されている。
学習データとしてNLIに着目した先行研究とは対照的に,これらの言語ではWikipediaドメインがNLIドメインよりも優れている。
論文 参考訳(メタデータ) (2024-03-08T12:28:15Z) - Translation Errors Significantly Impact Low-Resource Languages in
Cross-Lingual Learning [26.49647954587193]
本研究では,翻訳の不整合が存在し,XNLIの低リソース言語に不均等に影響を及ぼすことを示す。
このような矛盾を識別するために,人間翻訳テキストと機械翻訳ターゲットテキストにおけるゼロショット評価の差を計測する手法を提案する。
また,Hindi と Urdu という2つの言語に対して,人間が翻訳したテストインスタンスを手動で再注釈することで,翻訳エラーが存在することも確認した。
論文 参考訳(メタデータ) (2024-02-03T08:22:51Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。