論文の概要: EvolveMT: an Ensemble MT Engine Improving Itself with Usage Only
- arxiv url: http://arxiv.org/abs/2306.11823v1
- Date: Tue, 20 Jun 2023 18:32:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 16:18:17.014139
- Title: EvolveMT: an Ensemble MT Engine Improving Itself with Usage Only
- Title(参考訳): EvolveMT: 使用のみを自力で改善したEnsemble MTエンジン
- Authors: Kamer Ali Yuksel, Ahmet Gunduz, Mohamed Al-Badrashiny, Shreyas Sharma,
Hassan Sawaf
- Abstract要約: 本稿では,複数の機械翻訳(MT)エンジンを効率よく組み合わせたEvolveMTを提案する。
提案システムは,オンライン学習技術を用いて,各セグメントの単一エンジンからの出力を選択し,翻訳要求毎に最適なシステムを予測する。
- 参考スコア(独自算出の注目度): 3.1498833540989413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents EvolveMT for efficiently combining multiple machine
translation (MT) engines. The proposed system selects the output from a single
engine for each segment by utilizing online learning techniques to predict the
most suitable system for every translation request. A neural quality estimation
metric supervises the method without requiring reference translations. The
online learning capability of this system allows for dynamic adaptation to
alterations in the domain or machine translation engines, thereby obviating the
necessity for additional training. EvolveMT selects a subset of translation
engines to be called based on the source sentence features. The degree of
exploration is configurable according to the desired quality-cost trade-off.
Results from custom datasets demonstrate that EvolveMT achieves similar
translation accuracy at a lower cost than selecting the best translation of
each segment from all translations using an MT quality estimator. To our
knowledge, EvolveMT is the first meta MT system that adapts itself after
deployment to incoming translation requests from the production environment
without needing costly retraining on human feedback.
- Abstract(参考訳): 本稿では,複数の機械翻訳(MT)エンジンを効率よく組み合わせたEvolveMTを提案する。
提案システムは,オンライン学習技術を用いて,各セグメントの単一エンジンからの出力を選択し,翻訳要求毎に最適なシステムを予測する。
ニューラル品質推定メトリックは、参照翻訳を必要とせず、その方法を監督する。
このシステムのオンライン学習能力は、ドメインまたは機械翻訳エンジンの変更への動的適応を可能にするため、追加トレーニングの必要性を回避できる。
EvolveMTは、ソース文の特徴に基づいて呼び出される変換エンジンのサブセットを選択する。
探索の度合いは、要求される品質コストトレードオフに応じて設定可能である。
カスタムデータセットの結果、EvolveMTは、MT品質推定器を用いて、すべての翻訳から各セグメントの最適な翻訳を選択するよりも、同様の翻訳精度を低コストで達成できることが示されている。
私たちの知る限り、EvolveMTは、人間のフィードバックにコストがかかることなく、本番環境からの入力翻訳要求にデプロイ後に適応する最初のメタMTシステムです。
関連論文リスト
- Choose the Final Translation from NMT and LLM hypotheses Using MBR Decoding: HW-TSC's Submission to the WMT24 General MT Shared Task [9.819139035652137]
本稿では,Huawei Translate Services Center(HW-TSC)をWMT24汎用機械翻訳(MT)共有タスクに提出する。
我々は、正規化ドロップアウト、双方向トレーニング、データ多様化、前方翻訳、後方翻訳、交互学習、カリキュラム学習、トランスダクティブアンサンブル学習などのトレーニング戦略を用いて、ニューラルマシン翻訳(NMT)モデルをトレーニングする。
論文 参考訳(メタデータ) (2024-09-23T08:25:37Z) - Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Segment-Based Interactive Machine Translation for Pre-trained Models [2.0871483263418806]
対話型機械翻訳環境におけるLLM(Pre-trained large language model)の利用について検討する。
システムは、ユーザが各イテレーションで提供するフィードバックを使って、インタラクティブに完璧な翻訳を生成する。
我々は,mBART,mT5,SoTA(State-of-the-art)機械翻訳モデルの性能を,ユーザ作業に関するベンチマークデータセット上で比較した。
論文 参考訳(メタデータ) (2024-07-09T16:04:21Z) - Active Learning for Neural Machine Translation [0.0]
NMTツールキットのJoey NMTにActive Learningと呼ばれるテクニックを組み込んで、低リソース言語翻訳の十分な精度と堅牢な予測を行った。
この研究は、トランスフォーマーベースのNMTシステム、ベースラインモデル(BM)、フルトレーニングモデル(FTM)、アクティブラーニング最小信頼ベースモデル(ALLCM)、アクティブラーニングマージンサンプリングベースモデル(ALMSM)を用いて、英語をヒンディー語に翻訳する。
論文 参考訳(メタデータ) (2022-12-30T17:04:01Z) - Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer [49.897891031932545]
Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
論文 参考訳(メタデータ) (2021-09-27T14:49:35Z) - Non-Parametric Online Learning from Human Feedback for Neural Machine
Translation [54.96594148572804]
本稿では,人間のフィードバックによるオンライン学習の課題について検討する。
従来手法では、高品質な性能を達成するために、オンラインモデル更新や翻訳メモリネットワークの追加が必要であった。
モデル構造を変更することなく、新しい非パラメトリックオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-23T04:26:15Z) - Language Modeling, Lexical Translation, Reordering: The Training Process
of NMT through the Lens of Classical SMT [64.1841519527504]
ニューラルマシン翻訳は、翻訳プロセス全体をモデル化するために、単一のニューラルネットワークを使用する。
ニューラルネットワーク翻訳はデファクトスタンダードであるにもかかわらず、NMTモデルがトレーニングの過程でどのように異なる能力を獲得するのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2021-09-03T09:38:50Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。