論文の概要: Transformer-Encoder Trees for Efficient Multilingual Machine Translation and Speech Translation
- arxiv url: http://arxiv.org/abs/2509.17930v1
- Date: Mon, 22 Sep 2025 15:52:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.476579
- Title: Transformer-Encoder Trees for Efficient Multilingual Machine Translation and Speech Translation
- Title(参考訳): 効率的な多言語機械翻訳と音声翻訳のためのトランスフォーマーエンコーダ木
- Authors: Yiwen Guan, Jacob Whitehill,
- Abstract要約: 多言語翻訳のためのコネクショナリズム時間分類法を用いて学習した非自己回帰エンコーダのみのモデルと組み合わせた新しい階層変換木(TET)を提案する。
音声翻訳では,TETと非自己回帰音声認識バックボーン(wav2vec2)を組み合わせることで,自己回帰システムの7~14倍の速さで,翻訳品質の面で有望な結果が得られる。
- 参考スコア(独自算出の注目度): 2.7023796303812193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual translation faces challenges of computational redundancy and limited accuracy for low-resource languages, especially in speech translation. To address this, we propose a novel hierarchical Transformer Encoder Tree (TET) combined with non-autoregressive encoder-only models trained with Connectionist Temporal Classification for multilingual translation. By sharing intermediate representations among linguistically similar target languages, TET can improve accuracy on low-resource languages, reduce computational redundancy, and allow generating all target languages in a single forward pass, thus eliminating sequential bottlenecks and improving parallelism. For speech translation, combining TET with a non-autoregressive speech recognition backbone (wav2vec2) shows promising results in terms of translation quality compared to autoregressive systems while being 7-14 times faster.
- Abstract(参考訳): 多言語翻訳は、低リソース言語、特に音声翻訳において、計算冗長性と限られた精度の課題に直面している。
そこで本研究では,階層型トランスフォーマー・エンコーダツリー(TET)と非自己回帰型エンコーダのみのモデルを組み合わせた,多言語翻訳のための接続型テンポラル分類(Connectionist Temporal Classification)を提案する。
言語的に類似したターゲット言語間で中間表現を共有することで、TETは低リソース言語の精度を向上し、計算冗長性を低減し、単一のフォワードパスで全てのターゲット言語を生成することができ、シーケンシャルなボトルネックを排除し、並列性を改善することができる。
音声翻訳では,TETと非自己回帰音声認識バックボーン(wav2vec2)を組み合わせることで,自己回帰システムの7~14倍の速さで,翻訳品質の面で有望な結果が得られる。
関連論文リスト
- Pointer-Generator Networks for Low-Resource Machine Translation: Don't Copy That! [13.120825574589437]
本研究では,Transformer-based neural machine translation (NMT) が高リソース環境において非常に有効であることを示す。
このモデルでは,近縁な言語対と遠縁な言語対に対する改善が示されていない。
この動作の理由に関する議論は、LR NMTのいくつかの一般的な課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-03-16T16:17:47Z) - Towards a Deep Understanding of Multilingual End-to-End Speech
Translation [52.26739715012842]
我々は22言語以上で訓練された多言語エンドツーエンド音声翻訳モデルで学習した表現を解析する。
我々は分析から3つの大きな発見を得た。
論文 参考訳(メタデータ) (2023-10-31T13:50:55Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - LAMASSU: Streaming Language-Agnostic Multilingual Speech Recognition and
Translation Using Neural Transducers [71.76680102779765]
自動音声認識(ASR)と音声翻訳(ST)はどちらもモデル構造としてニューラルトランスデューサを使用することができる。
ニューラルトランスデューサを用いた多言語音声認識および翻訳モデルであるLAMASSUを提案する。
論文 参考訳(メタデータ) (2022-11-05T04:03:55Z) - Zero-Shot Cross-lingual Semantic Parsing [56.95036511882921]
7つのテスト言語に対する並列データを持たないゼロショット問題として,言語間セマンティックパーシングについて検討した。
英文論理形式ペアデータのみを用いて解析知識を付加言語に転送するマルチタスクエンコーダデコーダモデルを提案する。
このシステムは、ゼロショット解析を潜時空間アライメント問題としてフレーム化し、事前訓練されたモデルを改善し、最小のクロスリンガル転送ペナルティで論理形式を生成することができる。
論文 参考訳(メタデータ) (2021-04-15T16:08:43Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Bi-Decoder Augmented Network for Neural Machine Translation [108.3931242633331]
本稿では,ニューラルマシン翻訳タスクのためのBi-Decoder Augmented Network (BiDAN)を提案する。
各デコーダは入力されたテキストの表現を対応する言語に変換するため、2つの目的語と共同でトレーニングすることで、共有エンコーダは言語に依存しない意味空間を生成することができる。
論文 参考訳(メタデータ) (2020-01-14T02:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。