論文の概要: Fixed and Adaptive Simultaneous Machine Translation Strategies Using Adapters
- arxiv url: http://arxiv.org/abs/2407.13469v1
- Date: Thu, 18 Jul 2024 12:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 15:20:54.711895
- Title: Fixed and Adaptive Simultaneous Machine Translation Strategies Using Adapters
- Title(参考訳): 適応器を用いた固定・適応同時機械翻訳手法
- Authors: Abderrahmane Issam, Yusuf Can Semerci, Jan Scholtes, Gerasimos Spanakis,
- Abstract要約: 機械翻訳は、全入力を消費する前に翻訳を開始することで、リアルタイム翻訳の課題を解決することを目的としている。
wait-$k$ポリシーは、$k$ワードを消費した後、翻訳を開始することでソリューションを提供する。
本稿では,複数のレイテンシレベルを満たす1つのモデルを構築するという課題に対処する。
- 参考スコア(独自算出の注目度): 5.312303275762104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous machine translation aims at solving the task of real-time translation by starting to translate before consuming the full input, which poses challenges in terms of balancing quality and latency of the translation. The wait-$k$ policy offers a solution by starting to translate after consuming $k$ words, where the choice of the number $k$ directly affects the latency and quality. In applications where we seek to keep the choice over latency and quality at inference, the wait-$k$ policy obliges us to train more than one model. In this paper, we address the challenge of building one model that can fulfil multiple latency levels and we achieve this by introducing lightweight adapter modules into the decoder. The adapters are trained to be specialized for different wait-$k$ values and compared to other techniques they offer more flexibility to allow for reaping the benefits of parameter sharing and minimizing interference. Additionally, we show that by combining with an adaptive strategy, we can further improve the results. Experiments on two language directions show that our method outperforms or competes with other strong baselines on most latency values.
- Abstract(参考訳): 同時機械翻訳は、全入力を消費する前に翻訳を開始することでリアルタイム翻訳の課題を解決することを目的としており、翻訳の品質とレイテンシのバランスをとることの難しさを浮き彫りにする。
wait-$k$ポリシーは、$k$ワードを消費した後に翻訳し始めることでソリューションを提供する。
遅延と品質を推論で選択しようとするアプリケーションでは、wait-$k$ポリシーによって複数のモデルをトレーニングせざるを得ません。
本稿では,複数の遅延レベルを満たす1つのモデルを構築することの課題に対処し,デコーダに軽量なアダプタモジュールを導入することでこれを実現する。
アダプタはさまざまなwait-k$値に特化するように訓練されており、パラメータ共有のメリットを享受し、干渉を最小限に抑えるために、他のテクニックと比較して柔軟性が向上している。
さらに,適応戦略と組み合わせることで,結果をさらに改善できることを示す。
2つの言語方向の実験により、我々のメソッドは、ほとんどの遅延値において、他の強力なベースラインよりも優れているか、競合していることが示された。
関連論文リスト
- Class Incremental Learning with Pre-trained Vision-Language Models [59.15538370859431]
本稿では、事前学習された視覚言語モデル(例えば、CLIP)を利用して、さらなる適応を可能にするアプローチを提案する。
いくつかの従来のベンチマークの実験は、常に現在の最先端よりも顕著な改善のマージンを示している。
論文 参考訳(メタデータ) (2023-10-31T10:45:03Z) - Adaptive Policy with Wait-$k$ Model for Simultaneous Translation [20.45004823667775]
同時機械翻訳(SiMT)は、高品質な翻訳モデルとともに、堅牢な読み書きポリシーを必要とする。
従来の方法は、固定のwait-k$ポリシーとスタンドアロンのwait-k$翻訳モデル、あるいは翻訳モデルと共同で訓練された適応型ポリシーのいずれかに依存している。
本稿では、適応ポリシーモデルを翻訳モデルから切り離すことにより、より柔軟なアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:16:32Z) - Incremental Blockwise Beam Search for Simultaneous Speech Translation
with Controllable Quality-Latency Tradeoff [49.75167556773752]
ブロックワイズ・セルフアテンショナル・エンコーダ・モデル(英語版)は、同時音声翻訳において有望なエンドツーエンドのアプローチとして登場した。
本稿では、局所的な合意や品質レイテンシ制御のための$nのポリシーを組み込んだインクリメンタルなブロックワイドビームサーチを提案する。
論文 参考訳(メタデータ) (2023-09-20T14:59:06Z) - LEAPT: Learning Adaptive Prefix-to-prefix Translation For Simultaneous
Machine Translation [6.411228564798412]
機械翻訳は、多くのライブシナリオで有用であるが、精度とレイテンシのトレードオフのため非常に難しい。
LEAPTと呼ばれる新しい適応型トレーニングポリシーを提案し、それによって機械翻訳モデルがソースプレフィックスの翻訳方法を学習し、将来の文脈を活用することができる。
論文 参考訳(メタデータ) (2023-03-21T11:17:37Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Does Simultaneous Speech Translation need Simultaneous Models? [17.305879157385675]
オフラインでトレーニングされた1つのモデルが、オフラインだけでなく、異なるレイテンシー状態における同時タスクでも効果的に機能することを示します。
このシングルモデルソリューションは、レイテンシに影響を与えることなく、確立されたオフライン技術やアーキテクチャの採用を促進するだけでなく、同時設定でトレーニングされた同じモデルと比較して、同様の、あるいはさらに優れた翻訳品質をもたらす。
論文 参考訳(メタデータ) (2022-04-08T00:10:46Z) - Exploring Continuous Integrate-and-Fire for Adaptive Simultaneous Speech
Translation [75.86581380817464]
SimulSTシステムは通常、音声情報を集約する事前決定と、読み書きを決定するポリシーの2つのコンポーネントを含む。
本稿では,CIF(Continuous Integrate-and-Fire)を適用して適応政策をモデル化することを提案する。
単調なマルチヘッドアテンション (MMA) と比較して,本手法はより単純な計算,低レイテンシにおける品質,長い発話の一般化に優れる。
論文 参考訳(メタデータ) (2022-03-22T23:33:18Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Universal Simultaneous Machine Translation with Mixture-of-Experts
Wait-k Policy [6.487736084189248]
同時機械翻訳(SiMT)は、原文全体を読む前に翻訳を生成する。
従来の手法では、遅延レベルが異なる複数のSiMTモデルをトレーニングする必要があるため、計算コストが大きくなる。
任意のレイテンシで最適な翻訳品質を実現するために,Mixture-of-Experts Wait-k Policyを用いた汎用SiMTモデルを提案する。
論文 参考訳(メタデータ) (2021-09-11T09:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。