論文の概要: Adversarial Subword Regularization for Robust Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2004.14109v2
- Date: Thu, 8 Oct 2020 05:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:43:04.934385
- Title: Adversarial Subword Regularization for Robust Neural Machine Translation
- Title(参考訳): ロバストニューラルネットワーク翻訳のための副語規則化
- Authors: Jungsoo Park, Mujeen Sung, Jinhyuk Lee, Jaewoo Kang
- Abstract要約: さまざまなサブワードセグメンテーションをニューラルネットワーク翻訳(NMT)モデルに公開することで、機械翻訳の堅牢性が向上することがしばしばある。
本稿では,訓練中の勾配信号が多種多様なサブワードセグメンテーションの代替基準となるかどうかを検討するために,ADVSR(adversarial subword regularization)を提案する。
- 参考スコア(独自算出の注目度): 23.968624881678913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exposing diverse subword segmentations to neural machine translation (NMT)
models often improves the robustness of machine translation as NMT models can
experience various subword candidates. However, the diversification of subword
segmentations mostly relies on the pre-trained subword language models from
which erroneous segmentations of unseen words are less likely to be sampled. In
this paper, we present adversarial subword regularization (ADVSR) to study
whether gradient signals during training can be a substitute criterion for
exposing diverse subword segmentations. We experimentally show that our
model-based adversarial samples effectively encourage NMT models to be less
sensitive to segmentation errors and improve the performance of NMT models in
low-resource and out-domain datasets.
- Abstract(参考訳): 多様なサブワードセグメンテーションをニューラルネットワーク翻訳(nmt)モデルに暴露することで、nmtモデルが様々なサブワード候補を経験できるため、機械翻訳の堅牢性が向上する。
しかし、サブワードセグメンテーションの多様化は主に、未確認語の誤ったセグメンテーションがサンプリングされる可能性が低い、事前訓練されたサブワード言語モデルに依存している。
本稿では,学習中の勾配信号が多様な単語分割を露呈するための代替基準となるかを検討するために,advsr(adversarial subword regularization)を提案する。
実験により, モデルに基づく逆解析により, nmtモデルのセグメンテーションエラーに対する感度が低下し, 低リソースおよびアウトドメインデータセットにおけるnmtモデルの性能が向上することを示す。
関連論文リスト
- An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - Subword Segmental Machine Translation: Unifying Segmentation and Target
Sentence Generation [7.252933737829635]
サブワードセグメント機械翻訳(SSMT)は、目標文を生成するために共同学習しながら、ターゲット文をセグメント化することを学ぶ。
6つの翻訳方向にわたる実験により、SSMTは形態学的にリッチな凝集言語に対するchrFスコアを改善することが示された。
論文 参考訳(メタデータ) (2023-05-11T17:44:29Z) - Subword Segmental Language Modelling for Nguni Languages [7.252933737829635]
サブワードセグメント言語モデル(SSLM)は、自動回帰言語モデリングのトレーニング中に単語をセグメントする方法を学ぶ。
南アフリカの4つのググニ語でモデルを訓練します。
この結果から,既存のサブワードセグメンテーションの代替として,学習サブワードセグメンテーションが有効であることが示唆された。
論文 参考訳(メタデータ) (2022-10-12T18:41:00Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Single Model Ensemble for Subword Regularized Models in Low-Resource
Machine Translation [25.04086897886412]
サブワード正規化は、トレーニング中に複数のサブワードセグメンテーションを使用して、ニューラルネットワーク翻訳モデルの堅牢性を改善する。
この矛盾に対処するための推論戦略を提案する。
実験結果から,提案手法はサブワード正規化を訓練したモデルの性能を向上させることが示された。
論文 参考訳(メタデータ) (2022-03-25T09:25:47Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - A Correspondence Variational Autoencoder for Unsupervised Acoustic Word
Embeddings [50.524054820564395]
そこで本稿では,変数分割音声セグメントを固定次元表現にマッピングするための教師なしモデルを提案する。
結果として得られる音響単語の埋め込みは、低リソース言語とゼロリソース言語のための検索、発見、インデックスシステムの基礎を形成することができる。
論文 参考訳(メタデータ) (2020-12-03T19:24:42Z) - Detecting Word Sense Disambiguation Biases in Machine Translation for
Model-Agnostic Adversarial Attacks [84.61578555312288]
本稿では,統計的データ特性に基づく曖昧な誤りの予測手法を提案する。
我々は,曖昧な誤りを生じさせるため,文の摂動を最小限に抑える,単純な敵攻撃戦略を開発する。
以上の結果から,曖昧さの堅牢性はドメイン間で大きく異なり,同一データ上でトレーニングされた異なるモデルが異なる攻撃に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2020-11-03T17:01:44Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。