論文の概要: Machine Translation Robustness to Natural Asemantic Variation
- arxiv url: http://arxiv.org/abs/2205.12514v1
- Date: Wed, 25 May 2022 06:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 12:33:29.349963
- Title: Machine Translation Robustness to Natural Asemantic Variation
- Title(参考訳): 機械翻訳ロバストネスと自然アセマンティック変動
- Authors: Jacob Bremerman, Xiang Ren, Jonathan May
- Abstract要約: 我々はNatural Asemantic Variation (NAV)と呼ぶ未研究の言語現象を導入し、形式化する。
NAVの堅牢性は言語間で伝達可能であることを示し、人工摂動は人為的なNAVデータの利点の全てを達成できるわけではないことを示す。
- 参考スコア(独自算出の注目度): 42.051001201619904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce and formalize an under-studied linguistic phenomenon we call
Natural Asemantic Variation (NAV) and investigate it in the context of Machine
Translation (MT) robustness. Standard MT models are shown to be less robust to
rarer, nuanced language forms, and current robustness techniques do not account
for this kind of perturbation despite their prevalence in "real world" data.
Experiment results provide more insight into the nature of NAV and we
demonstrate strategies to improve performance on NAV. We also show that NAV
robustness can be transferred across languages and fine that synthetic
perturbations can achieve some but not all of the benefits of human-generated
NAV data.
- Abstract(参考訳): 本研究では,Natural Asemantic Variation (NAV) と呼ぶ未研究の言語現象を導入,形式化し,機械翻訳(MT)の堅牢性の観点から検討する。
標準のmtモデルは、希少でニュアンス的な言語形式に弱いことが示されており、現在のロバストネス技術は、"現実世界"データに頻度が高いにもかかわらず、この種の摂動を考慮していない。
実験結果は,NAVの特性についてより深い知見を与え,NAVの性能向上戦略を実証する。
また、NAVの堅牢性は言語間で伝達でき、合成摂動は人間の生成したNAVデータの利点の全てを達成できるわけではないことを示す。
関連論文リスト
- TransFool: An Adversarial Attack against Neural Machine Translation
Models [49.50163349643615]
敵攻撃に対するニューラルネットワーク翻訳(NMT)モデルの脆弱性を調査し,TransFoolと呼ばれる新たな攻撃アルゴリズムを提案する。
クリーンなサンプルと高いレベルのセマンティックな類似性を保ったソースコード言語で、流動的な逆の例を生成する。
自動的および人的評価に基づいて、TransFoolは、既存の攻撃と比較して成功率、意味的類似性、流布率の改善につながる。
論文 参考訳(メタデータ) (2023-02-02T08:35:34Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Alternated Training with Synthetic and Authentic Data for Neural Machine
Translation [49.35605028467887]
ニューラルマシン翻訳(NMT)のための合成および認証データを用いた交互トレーニングを提案する。
従来の研究と比較して,ノイズの多い合成データによってNMTモデルのトレーニングが妨げられるのを防止するためのガイダンスとして,認証データを導入している。
中国語・ドイツ語・英語の翻訳タスクの実験は、我々のアプローチがいくつかの強いベースラインにまたがって性能を向上させることを示している。
論文 参考訳(メタデータ) (2021-06-16T07:13:16Z) - Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences
on Neural Machine Translation [14.645468999921961]
本研究は,トランスフォーマーモデルにおける様々な種類の細粒度セマンティックな違いの影響を解析する。
自然に発生する発散による劣化からNMTが回復するのに役立つ因子を用いた発散型NMTフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T16:15:35Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - PheMT: A Phenomenon-wise Dataset for Machine Translation Robustness on
User-Generated Contents [40.25277134147149]
日本語翻訳における特定の言語現象に対するMTシステムの堅牢性を評価するための新しいデータセットであるPheMTを提案する。
作成したデータセットを用いて行った実験では、社内モデルだけでなく、市販のシステムでも、特定の現象の存在によって大きく混乱していることが明らかになりました。
論文 参考訳(メタデータ) (2020-11-04T04:44:47Z) - Sentence Boundary Augmentation For Neural Machine Translation Robustness [11.290581889247983]
文境界セグメンテーションが品質に最も大きな影響を与えることを示し、セグメンテーションの堅牢性を改善するための単純なデータ拡張戦略を開発する。
文境界セグメンテーションが品質に最も大きな影響を与えることを示し、セグメンテーションの堅牢性を改善するための単純なデータ拡張戦略を開発する。
論文 参考訳(メタデータ) (2020-10-21T16:44:48Z) - Understanding Learning Dynamics for Neural Machine Translation [53.23463279153577]
ロス・チェンジ・アロケーション (LCA)citeplan 2019-loss-change-allocation を用いてNMTの学習力学を理解することを提案する。
LCAは更新毎にデータセット全体の勾配を計算する必要があるため、NMTシナリオで実際に実施するための近似を提示する。
シミュレーション実験により, 近似計算は効率的であり, 実験により一貫した結果が得られることを示した。
論文 参考訳(メタデータ) (2020-04-05T13:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。