論文の概要: SIT at MixMT 2022: Fluent Translation Built on Giant Pre-trained Models
- arxiv url: http://arxiv.org/abs/2210.11670v1
- Date: Fri, 21 Oct 2022 01:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 14:36:41.353157
- Title: SIT at MixMT 2022: Fluent Translation Built on Giant Pre-trained Models
- Title(参考訳): mixmt 2022: 巨大な事前学習されたモデルで構築されたフルーエント翻訳
- Authors: Abdul Rafae Khan, Hrishikesh Kanade, Girish Amar Budhrani, Preet
Jhanglani, Jia Xu
- Abstract要約: 本稿では,WMT 2022共有タスク:コード混合機械翻訳(MixMT)へのスティーブンス工科大学の提出について述べる。
このタスクは2つのサブタスクで構成されており、サブタスクはヒンディー語/英語で1ドル、サブタスクで2ドルヒンディ語/英語で2ドルだった。
我々の発見は、大規模な訓練済みの多言語NMTモデルとドメイン内データセットを使用することによる改善に起因している。
- 参考スコア(独自算出の注目度): 3.7893096749810264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the Stevens Institute of Technology's submission for the
WMT 2022 Shared Task: Code-mixed Machine Translation (MixMT). The task
consisted of two subtasks, subtask $1$ Hindi/English to Hinglish and subtask
$2$ Hinglish to English translation. Our findings lie in the improvements made
through the use of large pre-trained multilingual NMT models and in-domain
datasets, as well as back-translation and ensemble techniques. The translation
output is automatically evaluated against the reference translations using
ROUGE-L and WER. Our system achieves the $1^{st}$ position on subtask $2$
according to ROUGE-L, WER, and human evaluation, $1^{st}$ position on subtask
$1$ according to WER and human evaluation, and $3^{rd}$ position on subtask $1$
with respect to ROUGE-L metric.
- Abstract(参考訳): 本稿では、スティーブンス工科大学がWMT 2022 Shared Task: Code-mixed Machine Translation (MixMT) を提出したことを述べる。
タスクは2つのサブタスクで構成されており、サブタスクはヒンディー語に$$$、サブタスクは$$hinglishから英語に$hinglishである。
以上の知見は,事前学習された多言語nmtモデルとドメイン内データセット,およびバックトランスレーションやアンサンブル技術を用いた改善である。
ROUGE-LおよびWERを用いて参照翻訳に対して翻訳出力を自動評価する。
我々のシステムは、サブタスクの1^{st}$位置をrouge-l, wer, and human evaluationによると2ドル、サブタスクの1^{st}$位置をwerとヒューマン評価で1ドル、サブタスクの3^{rd}$位置をrouge-lメトリックで1ドル達成する。
関連論文リスト
- LAMPAT: Low-Rank Adaption for Multilingual Paraphrasing Using
Adversarial Training [20.946209173797747]
パラフレーズ(英: Paraphrase)とは、異なる単語や文構造を用いて同じ意味を伝えるテキストである。
これまでの研究は機械翻訳の知識を活用し、ゼロショット機械翻訳によるパラフレーズを同じ言語で生成してきた。
単言語データセットが人間に似た多文を生成するのに十分である最初の教師なし多言語パラフレーズモデル LAMPAT を提案する。
論文 参考訳(メタデータ) (2024-01-09T04:19:16Z) - Scaling Distributed Multi-task Reinforcement Learning with Experience
Sharing [38.883540444516605]
DARPAはShELLプログラムを立ち上げた。これは、経験共有が分散生涯学習エージェントにどのように役立つかを探求することを目的としている。
分散マルチタスク強化学習(RL)の理論的および実証的研究を行い、N$エージェントのグループがM$タスクを協調的に解決する。
我々はDistMT-LSVIと呼ばれるアルゴリズムを提案し、各エージェントは独立に$epsilon$-optimal Policyを全ての$M$タスクに対して学習する。
論文 参考訳(メタデータ) (2023-07-11T22:58:53Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - The University of Edinburgh's Submission to the WMT22 Code-Mixing Shared
Task (MixMT) [2.9681323891560303]
エディンバラ大学はWMT22のコードミックス翻訳作業に参加した。
これは2つのサブタスクで構成されている: コードミックスされたヒンディー語/英語(ヒングリッシュ語)のテキスト生成を並列ヒンディー語と英語の文から生成し、ii)機械翻訳をヒングリッシュ語から英語に翻訳する。
どちらのサブタスクも、全体的なパフォーマンスの高いサブタスクのひとつです。
論文 参考訳(メタデータ) (2022-10-20T14:40:10Z) - Taygete at SemEval-2022 Task 4: RoBERTa based models for detecting
Patronising and Condescending Language [0.0]
本研究は、LSTMおよびCNNレイヤと組み合わせた事前学習されたRoBERTa言語モデルに基づく、さまざまなモデルについて検討する。
F1スコアはサブタスクAが0.5924、サブタスクBが12ドル、マクロF1スコアは0.3763である。
論文 参考訳(メタデータ) (2022-04-22T06:11:47Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。