論文の概要: Syntax-based data augmentation for Hungarian-English machine translation
- arxiv url: http://arxiv.org/abs/2201.06876v1
- Date: Tue, 18 Jan 2022 11:13:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:58:23.942435
- Title: Syntax-based data augmentation for Hungarian-English machine translation
- Title(参考訳): ハンガリー英語機械翻訳のための構文に基づくデータ拡張
- Authors: Attila Nagy, Patrick Nanys, Bal\'azs Frey Konr\'ad, Bence Bial, Judit
\'Acs
- Abstract要約: 我々は、Hunglish2コーパスを使用して、ハンガリー語と英語のハンガリー語に対するトランスフォーマーベースのニューラルマシン翻訳モデルを訓練する。
我々の最良のモデルは、ハンガリー語で40.0点、英語とハンガリー語で33.4点のBLEUスコアを得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We train Transformer-based neural machine translation models for
Hungarian-English and English-Hungarian using the Hunglish2 corpus. Our best
models achieve a BLEU score of 40.0 on HungarianEnglish and 33.4 on
English-Hungarian. Furthermore, we present results on an ongoing work about
syntax-based augmentation for neural machine translation. Both our code and
models are publicly available.
- Abstract(参考訳): 我々は、Hunglish2コーパスを用いて、ハンガリー語と英語とハンガリー語のトランスフォーマーベースのニューラルマシン翻訳モデルを訓練する。
我々の最良のモデルはハンガリー語で40.0点、英語とハンガリー語で33.4点である。
さらに、ニューラルマシン翻訳のための構文ベースの拡張に関する継続的な研究結果を示す。
コードとモデルの両方が公開されています。
関連論文リスト
- Dialectal and Low Resource Machine Translation for Aromanian [44.99833362998488]
ルーマニア語、英語、ルーマニア語を翻訳できるニューラルマシン翻訳システムを提案する。
BLEUスコアはテキストの方向やジャンルによって17から32まで様々である。
Aromanian-Romanian-Romanian bilingual corpus は 79k 個の清潔な文対から構成される。
論文 参考訳(メタデータ) (2024-10-23T10:00:23Z) - Decoupled Vocabulary Learning Enables Zero-Shot Translation from Unseen Languages [55.157295899188476]
ニューラルマシン翻訳システムは、異なる言語の文を共通の表現空間にマッピングすることを学ぶ。
本研究では、この仮説を未知の言語からのゼロショット翻訳により検証する。
この設定により、全く見えない言語からのゼロショット翻訳が可能になることを実証する。
論文 参考訳(メタデータ) (2024-08-05T07:58:58Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Developing neural machine translation models for Hungarian-English [0.0]
私は、Hunglish2コーパスを使用して、英語とハンガリー語とハンガリー英語のニューラルマシン翻訳タスクのモデルをトレーニングします。
ハンガリー語で最良のモデルはBLEUスコア33.9、英語で最高のモデルはBLEUスコア28.6である。
論文 参考訳(メタデータ) (2021-11-07T14:35:00Z) - Paraphrastic Representations at Scale [134.41025103489224]
私たちは、英語、アラビア語、ドイツ語、フランス語、スペイン語、ロシア語、トルコ語、中国語の訓練されたモデルをリリースします。
我々はこれらのモデルを大量のデータでトレーニングし、元の論文から大幅に性能を向上した。
論文 参考訳(メタデータ) (2021-04-30T16:55:28Z) - Unsupervised Transfer Learning in Multilingual Neural Machine
Translation with Cross-Lingual Word Embeddings [72.69253034282035]
我々は、言語独立多言語文表現を活用し、新しい言語に容易に一般化する。
複数のロマンス言語を含むベースシステムを用いてポルトガル語から盲目的に復号し、ポルトガル語では36.4 BLEU、ロシア語では12.8 BLEUのスコアを得た。
非反復的逆翻訳によるより実用的な適応アプローチを探求し、高品質の翻訳を生産するモデルの能力を活用します。
論文 参考訳(メタデータ) (2021-03-11T14:22:08Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z) - Lite Training Strategies for Portuguese-English and English-Portuguese
Translation [67.4894325619275]
ポルトガル語・英語・ポルトガル語の翻訳タスクにおいて,T5などの事前学習モデルの使用について検討する。
本稿では,ポルトガル語の文字,例えばダイアレーシス,急性アクセント,墓のアクセントを表すために,英語のトークン化器の適応を提案する。
以上の結果から,本モデルは最新モデルと競合する性能を示しながら,控えめなハードウェアでトレーニングを行った。
論文 参考訳(メタデータ) (2020-08-20T04:31:03Z) - Simultaneous paraphrasing and translation by fine-tuning Transformer
models [1.90365714903665]
本稿では,ACL 2020における第4回ニューラルジェネレーション・アンド・トランスフォーメーション(WNGT)ワークショップにおいて,言語教育のための同時翻訳とパラフレージングに関する共通課題への第3位の応募について述べる。
最終システムは事前訓練された翻訳モデルを活用し、トランスフォーマーアーキテクチャとオーバーサンプリング戦略を組み合わせて競合性能を達成する。
論文 参考訳(メタデータ) (2020-05-12T06:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。