論文の概要: SIT at MixMT 2022: Fluent Translation Built on Giant Pre-trained Models
- arxiv url: http://arxiv.org/abs/2210.11670v1
- Date: Fri, 21 Oct 2022 01:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 14:36:41.353157
- Title: SIT at MixMT 2022: Fluent Translation Built on Giant Pre-trained Models
- Title(参考訳): mixmt 2022: 巨大な事前学習されたモデルで構築されたフルーエント翻訳
- Authors: Abdul Rafae Khan, Hrishikesh Kanade, Girish Amar Budhrani, Preet
Jhanglani, Jia Xu
- Abstract要約: 本稿では,WMT 2022共有タスク:コード混合機械翻訳(MixMT)へのスティーブンス工科大学の提出について述べる。
このタスクは2つのサブタスクで構成されており、サブタスクはヒンディー語/英語で1ドル、サブタスクで2ドルヒンディ語/英語で2ドルだった。
我々の発見は、大規模な訓練済みの多言語NMTモデルとドメイン内データセットを使用することによる改善に起因している。
- 参考スコア(独自算出の注目度): 3.7893096749810264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the Stevens Institute of Technology's submission for the
WMT 2022 Shared Task: Code-mixed Machine Translation (MixMT). The task
consisted of two subtasks, subtask $1$ Hindi/English to Hinglish and subtask
$2$ Hinglish to English translation. Our findings lie in the improvements made
through the use of large pre-trained multilingual NMT models and in-domain
datasets, as well as back-translation and ensemble techniques. The translation
output is automatically evaluated against the reference translations using
ROUGE-L and WER. Our system achieves the $1^{st}$ position on subtask $2$
according to ROUGE-L, WER, and human evaluation, $1^{st}$ position on subtask
$1$ according to WER and human evaluation, and $3^{rd}$ position on subtask $1$
with respect to ROUGE-L metric.
- Abstract(参考訳): 本稿では、スティーブンス工科大学がWMT 2022 Shared Task: Code-mixed Machine Translation (MixMT) を提出したことを述べる。
タスクは2つのサブタスクで構成されており、サブタスクはヒンディー語に$$$、サブタスクは$$hinglishから英語に$hinglishである。
以上の知見は,事前学習された多言語nmtモデルとドメイン内データセット,およびバックトランスレーションやアンサンブル技術を用いた改善である。
ROUGE-LおよびWERを用いて参照翻訳に対して翻訳出力を自動評価する。
我々のシステムは、サブタスクの1^{st}$位置をrouge-l, wer, and human evaluationによると2ドル、サブタスクの1^{st}$位置をwerとヒューマン評価で1ドル、サブタスクの3^{rd}$位置をrouge-lメトリックで1ドル達成する。
関連論文リスト
- NLIP_Lab-IITH Low-Resource MT System for WMT24 Indic MT Shared Task [9.476463361600826]
本稿では,WMT 24の低リソースインデックス言語翻訳タスクについて述べる。
我々の一次システムは、事前訓練されたモデルに基づく言語固有の微調整に基づいている。
我々は、eng$rightarrow$as, eng$rightarrow$kha, eng$rightarrow$lus, eng$rightarrow$mniの公式公試セットにおいて、50.6, 42.3, 54.9, 66.3のchrF2スコアを得る。
論文 参考訳(メタデータ) (2024-10-04T08:02:43Z) - Blending LLMs into Cascaded Speech Translation: KIT's Offline Speech Translation System for IWSLT 2024 [61.189875635090225]
大規模言語モデル (LLM) は現在,自動音声認識 (ASR) や機械翻訳 (MT) ,さらにはエンドツーエンド音声翻訳 (ST) など,さまざまなタスクを探索中である。
論文 参考訳(メタデータ) (2024-06-24T16:38:17Z) - SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - UMBCLU at SemEval-2024 Task 1A and 1C: Semantic Textual Relatedness with and without machine translation [0.09208007322096534]
SemEval-2024 Task 1の目的は、2つの文間の意味的テキスト関連性を特定するモデルを開発することである。
教師付きおよび言語間設定のための2つのSTRモデル、textitTranSem$ と $textitFineSem$ を開発します。
論文 参考訳(メタデータ) (2024-02-20T05:46:29Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - The University of Edinburgh's Submission to the WMT22 Code-Mixing Shared
Task (MixMT) [2.9681323891560303]
エディンバラ大学はWMT22のコードミックス翻訳作業に参加した。
これは2つのサブタスクで構成されている: コードミックスされたヒンディー語/英語(ヒングリッシュ語)のテキスト生成を並列ヒンディー語と英語の文から生成し、ii)機械翻訳をヒングリッシュ語から英語に翻訳する。
どちらのサブタスクも、全体的なパフォーマンスの高いサブタスクのひとつです。
論文 参考訳(メタデータ) (2022-10-20T14:40:10Z) - Taygete at SemEval-2022 Task 4: RoBERTa based models for detecting
Patronising and Condescending Language [0.0]
本研究は、LSTMおよびCNNレイヤと組み合わせた事前学習されたRoBERTa言語モデルに基づく、さまざまなモデルについて検討する。
F1スコアはサブタスクAが0.5924、サブタスクBが12ドル、マクロF1スコアは0.3763である。
論文 参考訳(メタデータ) (2022-04-22T06:11:47Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。