論文の概要: Simultaneous paraphrasing and translation by fine-tuning Transformer
models
- arxiv url: http://arxiv.org/abs/2005.05570v1
- Date: Tue, 12 May 2020 06:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:14:59.989208
- Title: Simultaneous paraphrasing and translation by fine-tuning Transformer
models
- Title(参考訳): 微調整トランスモデルによる同時言い換えと翻訳
- Authors: Rakesh Chada
- Abstract要約: 本稿では,ACL 2020における第4回ニューラルジェネレーション・アンド・トランスフォーメーション(WNGT)ワークショップにおいて,言語教育のための同時翻訳とパラフレージングに関する共通課題への第3位の応募について述べる。
最終システムは事前訓練された翻訳モデルを活用し、トランスフォーマーアーキテクチャとオーバーサンプリング戦略を組み合わせて競合性能を達成する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the third place submission to the shared task on
simultaneous translation and paraphrasing for language education at the 4th
workshop on Neural Generation and Translation (WNGT) for ACL 2020. The final
system leverages pre-trained translation models and uses a Transformer
architecture combined with an oversampling strategy to achieve a competitive
performance. This system significantly outperforms the baseline on Hungarian
(27% absolute improvement in Weighted Macro F1 score) and Portuguese (33%
absolute improvement) languages.
- Abstract(参考訳): 本稿では,acl 2020の第4回ニューラルジェネレーション・トランスレーションワークショップ(wngt)において,言語教育における同時翻訳とパラフレージングに関する共通タスクへの3番目の提案について述べる。
最終システムは事前訓練された翻訳モデルを活用し、トランスフォーマーアーキテクチャとオーバーサンプリング戦略を組み合わせて競合性能を達成する。
このシステムはハンガリー語(重み付けマクロF1の27%の絶対改善)とポルトガル語(33%の絶対改善)のベースラインを大きく上回っている。
関連論文リスト
- HW-TSC's Submission to the CCMT 2024 Machine Translation Tasks [12.841065384808733]
我々はバイリンガル機械翻訳タスクとマルチドメイン機械翻訳タスクに参加する。
これら2つの翻訳タスクでは,正規化ドロップアウト,双方向トレーニング,データ多様化,前方翻訳,後方翻訳,交互学習,カリキュラム学習,トランスダクティブアンサンブル学習などの学習戦略を用いる。
論文 参考訳(メタデータ) (2024-09-23T09:20:19Z) - KIT's Multilingual Speech Translation System for IWSLT 2023 [58.5152569458259]
IWSLT 2023の多言語トラックに対する音声翻訳システムについて述べる。
このタスクは、様々な量のリソースを持つ10の言語に翻訳する必要がある。
我々のケースド音声システムは、科学的な話の翻訳において、エンドツーエンドの音声よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-06-08T16:13:20Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - Improved Data Augmentation for Translation Suggestion [28.672227843541656]
本稿では,WMT'22翻訳提案共有タスクに使用するシステムについて紹介する。
我々は3つの戦略を用いて並列コーパスから合成データを構築し、教師付きデータの欠如を補う。
私たちはそれぞれ、英語とドイツ語と英語と中国語の双方向タスクで第2位と第3位にランク付けします。
論文 参考訳(メタデータ) (2022-10-12T12:46:43Z) - Effective General-Domain Data Inclusion for the Machine Translation Task
by Vanilla Transformers [0.0]
本稿では,ドイツ語のソース文を英語のターゲット文に翻訳可能なトランスフォーマーベースシステムを提案する。
我々はWMT'13データセットから、ニュースコメンタリーなドイツ語-英語並列文の実験を行った。
We found that including the IWSLT'16 dataset in training help a gain of 2 BLEU score points on the test set of the WMT'13 dataset。
論文 参考訳(メタデータ) (2022-09-28T13:14:49Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - The NiuTrans End-to-End Speech Translation System for IWSLT 2021 Offline
Task [23.008938777422767]
本稿では,IWSLT 2021オフラインタスクに対して,NuTransのエンドツーエンド音声翻訳システムを提案する。
我々はTransformerベースのモデルアーキテクチャを使用し、Conformer、相対位置符号化、スタックされた音響およびテキスト符号化により拡張する。
我々は MuST-C En-De テストセット上で 33.84 BLEU 点を達成する。
論文 参考訳(メタデータ) (2021-07-06T07:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。