論文の概要: Secoco: Self-Correcting Encoding for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2108.12137v1
- Date: Fri, 27 Aug 2021 07:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:19:00.012661
- Title: Secoco: Self-Correcting Encoding for Neural Machine Translation
- Title(参考訳): Secoco: ニューラルネットワーク翻訳のための自己修正エンコーディング
- Authors: Tao Wang, Chengqi Zhao, Mingxuan Wang, Lei Li, Hang Li, Deyi Xiong
- Abstract要約: 本稿では、ロバストなニューラルネットワーク翻訳のための入力ノイズを効果的に扱うフレームワークであるSecocoを紹介する。
Secocoは、NMTが明示的にノイズの多い入力を訂正し、翻訳復号処理と同時に特定のエラーを削除することを可能にする。
Secocoは、2つの実世界のテストセットと、優れた解釈性を備えたベンチマークWMTデータセットの強いベースラインよりも、大幅な改善を実現している。
- 参考スコア(独自算出の注目度): 34.26822694212488
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents Self-correcting Encoding (Secoco), a framework that
effectively deals with input noise for robust neural machine translation by
introducing self-correcting predictors. Different from previous robust
approaches, Secoco enables NMT to explicitly correct noisy inputs and delete
specific errors simultaneously with the translation decoding process. Secoco is
able to achieve significant improvements over strong baselines on two
real-world test sets and a benchmark WMT dataset with good interpretability. We
will make our code and dataset publicly available soon.
- Abstract(参考訳): 本稿では,自己補正予測器を導入することによって,ロバストなニューラルネットワーク翻訳のための入力ノイズを効果的に処理するフレームワークであるsecocoについて述べる。
従来のロバストなアプローチとは異なり、sicocoはnmtによってノイズのある入力を明示的に訂正し、翻訳復号プロセスと同時に特定のエラーを削除することができる。
Secocoは、2つの実世界のテストセットと、優れた解釈性を備えたベンチマークWMTデータセットの強いベースラインよりも大幅に改善することができる。
コードとデータセットを間もなく公開します。
関連論文リスト
- GECTurk: Grammatical Error Correction and Detection Dataset for Turkish [1.804922416527064]
文法的誤り検出・訂正(GEC)ツールは、母語話者と第二言語学習者にとって有用であることが証明されている。
合成データ生成は、そのようなデータの不足を克服するための一般的なプラクティスである。
トルコ語のためのフレキシブルで総合的なデータ生成パイプラインを提案し、20以上の専門家による文法と綴り規則をカバーしている。
論文 参考訳(メタデータ) (2023-09-20T14:25:44Z) - Thutmose Tagger: Single-pass neural model for Inverse Text Normalization [76.87664008338317]
逆テキスト正規化(ITN)は自動音声認識において重要な後処理ステップである。
本稿では,ITN例の粒度アライメントに基づくデータセット作成手法を提案する。
タグと入力語との1対1対応により、モデルの予測の解釈性が向上する。
論文 参考訳(メタデータ) (2022-07-29T20:39:02Z) - M-Adapter: Modality Adaptation for End-to-End Speech-to-Text Translation [66.92823764664206]
テキストに音声表現を適応させる新しいトランスフォーマーベースのモジュールであるM-Adapterを提案する。
音声シーケンスを縮小しながら、M-Adapterは音声からテキストへの翻訳に必要な機能を生成する。
実験の結果,我々のモデルは最大1BLEUで強いベースラインを達成できた。
論文 参考訳(メタデータ) (2022-07-03T04:26:53Z) - Quality-Aware Decoding for Neural Machine Translation [64.24934199944875]
ニューラルネットワーク翻訳(NMT)のための品質認識復号法を提案する。
参照フリーおよび参照ベースMT評価における最近のブレークスルーを,様々な推論手法を用いて活用する。
品質認識復号化は、最先端の自動測定値と人的評価値の両方で、MAPベースの復号化を一貫して上回ります。
論文 参考訳(メタデータ) (2022-05-02T15:26:28Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Modeling Homophone Noise for Robust Neural Machine Translation [23.022527815382862]
このフレームワークは、ホモホンノイズディテクタと、ホモホンエラーに対する音節対応NMTモデルで構成されています。
検出器は、テキスト文中の潜在的ホモフォン誤りを特定し、それらを音節に変換して混合シーケンスを形成し、音節認識NMTに入力する。
論文 参考訳(メタデータ) (2020-12-15T16:12:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。