論文の概要: CUNI Non-Autoregressive System for the WMT 22 Efficient Translation
Shared Task
- arxiv url: http://arxiv.org/abs/2212.00477v1
- Date: Thu, 1 Dec 2022 13:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:57:03.752705
- Title: CUNI Non-Autoregressive System for the WMT 22 Efficient Translation
Shared Task
- Title(参考訳): WMT 22効率的な翻訳共有タスクのためのCUNI非自己回帰システム
- Authors: Jind\v{r}ich Helcl
- Abstract要約: 本稿では,WMT 22 の効率的な翻訳共有タスクに対する非自己回帰システムを提案する。
本システムは,非自己回帰モデルと自己回帰モデルとの公正な比較を目的としたHelclらによって2022年に開発された。
- 参考スコア(独自算出の注目度): 3.2634122554914
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a non-autoregressive system submission to the WMT 22 Efficient
Translation Shared Task. Our system was used by Helcl et al. (2022) in an
attempt to provide fair comparison between non-autoregressive and
autoregressive models. This submission is an effort to establish solid
baselines along with sound evaluation methodology, particularly in terms of
measuring the decoding speed. The model itself is a 12-layer Transformer model
trained with connectionist temporal classification on knowledge-distilled
dataset by a strong autoregressive teacher model.
- Abstract(参考訳): WMT 22 の効率的な翻訳共有タスクに非自己回帰システムを提案する。
本システムは,非自己回帰モデルと自己回帰モデルとの公正な比較を目的としたHelclらによって2022年に開発された。
この提案は、特に復号速度の測定の観点から、健全なベースラインと音響評価手法を確立するための試みである。
モデル自体が12層トランスフォーマーモデルであり、強い自己回帰型教師モデルによる知識蒸留データセットの接続性時間的分類を訓練している。
関連論文リスト
- Improving Non-autoregressive Translation Quality with Pretrained Language Model, Embedding Distillation and Upsampling Strategy for CTC [51.34222224728979]
本稿では,非自己回帰翻訳(NAT)モデルの翻訳品質を向上させるための一連の革新的な技術を紹介する。
我々は,NATモデルを効果的に訓練するために,CTCの損失を抑えたPMLM(Pretrained Multilingual Language Models)を提案する。
自動回帰モデルと比較して16.35倍の速度向上を示した。
論文 参考訳(メタデータ) (2023-06-10T05:24:29Z) - IUST_NLP at SemEval-2023 Task 10: Explainable Detecting Sexism with
Transformers and Task-adaptive Pretraining [0.0]
本稿ではSemEval-2023 Task 10: Explainable Detection of Online Sexism (EDOS)について述べる。
本稿では,タスク適応型事前学習とアンサンブル学習を用いたトランスフォーマーに基づく事前学習モデルを提案する。
テストデータセットでは,サブタスクA,B,CのF1スコアが83%,64%,47%であった。
論文 参考訳(メタデータ) (2023-05-11T15:29:04Z) - ESimCSE Unsupervised Contrastive Learning Jointly with UDA
Semi-Supervised Learning for Large Label System Text Classification Mode [4.708633772366381]
ESimCSEモデルは、ラベルのないデータを用いてテキストベクトル表現を効率よく学習し、より良い分類結果を得る。
UDAは、モデルと安定性の予測性能を改善するために、半教師付き学習手法を通じてラベルのないデータを用いて訓練される。
FGMとPGDは、モデルの堅牢性と信頼性を向上させるために、モデルトレーニングプロセスで使用される。
論文 参考訳(メタデータ) (2023-04-19T03:44:23Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z) - ENGINE: Energy-Based Inference Networks for Non-Autoregressive Machine
Translation [56.59824570139266]
我々は、非自己回帰機械翻訳モデルを訓練し、前回帰モデルで定義されるエネルギーを最小限に抑える。
我々のアプローチは、IT 2014 DE-ENとWMT 2016 RO-WSLENデータセットの最先端の非自己回帰結果を達成する。
論文 参考訳(メタデータ) (2020-05-02T15:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。