論文の概要: TranSFormer: Slow-Fast Transformer for Machine Translation
- arxiv url: http://arxiv.org/abs/2305.16982v1
- Date: Fri, 26 May 2023 14:37:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:17:06.362966
- Title: TranSFormer: Slow-Fast Transformer for Machine Translation
- Title(参考訳): TranSFormer: 機械翻訳用低速変圧器
- Authors: Bei Li, Yi Jing, Xu Tan, Zhen Xing, Tong Xiao and Jingbo Zhu
- Abstract要約: 本稿では,TrantextbfSFormerと呼ばれる2ストリーム学習モデルを提案する。
我々のTranSFormerは、複数の機械翻訳ベンチマークにおいて、BLEUの一貫性のある改善(BLEU点よりも大きい)を示す。
- 参考スコア(独自算出の注目度): 52.12212173775029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning multiscale Transformer models has been evidenced as a viable
approach to augmenting machine translation systems. Prior research has
primarily focused on treating subwords as basic units in developing such
systems. However, the incorporation of fine-grained character-level features
into multiscale Transformer has not yet been explored. In this work, we present
a \textbf{S}low-\textbf{F}ast two-stream learning model, referred to as
Tran\textbf{SF}ormer, which utilizes a ``slow'' branch to deal with subword
sequences and a ``fast'' branch to deal with longer character sequences. This
model is efficient since the fast branch is very lightweight by reducing the
model width, and yet provides useful fine-grained features for the slow branch.
Our TranSFormer shows consistent BLEU improvements (larger than 1 BLEU point)
on several machine translation benchmarks.
- Abstract(参考訳): マルチスケールトランスフォーマーモデルの学習は、機械翻訳システムを強化するための有効なアプローチとして証明されている。
先行研究は主に、そのようなシステムの開発において、サブワードを基本単位として扱うことに焦点を当ててきた。
しかし,マルチスケールトランスへのキャラクタレベルの微細化は未だ検討されていない。
本稿では,'slow' の分岐を用いてサブワード列と ``fast'' の分岐を処理し,より長い文字列列を扱う,二流学習モデルである tran\textbf{sf}ormer を提案する。
このモデルは、モデル幅を小さくすることで高速分岐が非常に軽量であるため効率的であるが、緩やかな分岐に便利な機能を提供している。
私たちのトランスフォーマーは、いくつかの機械翻訳ベンチマークで一貫性のあるbleu改善(1 bleu点より大きい)を示しました。
関連論文リスト
- Modeling Context With Linear Attention for Scalable Document-Level
Translation [72.41955536834702]
本稿では,近年の文書翻訳における線形アテンションモデルの有効性について検討し,直流帰納バイアスを促進するためにセンデンシャルゲートで拡張する。
感性ゲーティングはIWSLTの翻訳品質をさらに向上させることを示す。
論文 参考訳(メタデータ) (2022-10-16T03:41:50Z) - Learning Multiscale Transformer Models for Sequence Generation [33.73729074207944]
単語境界情報と句レベルの事前知識に基づいて,スケール間の関係を確立することで,マルチスケールトランスフォーマーモデルを構築する。
特に、いくつかのテストセットにおいて、効率を犠牲にすることなく、強いベースラインに対して一貫したパフォーマンス向上を実現した。
論文 参考訳(メタデータ) (2022-06-19T07:28:54Z) - Glancing Transformer for Non-Autoregressive Neural Machine Translation [58.87258329683682]
単一パス並列生成モデルにおける単語相互依存の学習法を提案する。
単一パスの並列デコードだけで、GLATは8~15倍のスピードアップで高品質な翻訳を生成することができる。
論文 参考訳(メタデータ) (2020-08-18T13:04:03Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Multi-branch Attentive Transformer [152.07840447196384]
我々は,マルチブランチ・アテンティブ・トランスフォーマーと呼ばれる,シンプルで効果的なトランスフォーマーの変種を提案する。
注目層は複数のブランチの平均であり、各ブランチは独立したマルチヘッド注意層である。
機械翻訳、コード生成、自然言語理解の実験は、Transformerのこのような単純な変種が大きな改善をもたらすことを示した。
論文 参考訳(メタデータ) (2020-06-18T04:24:28Z) - Funnel-Transformer: Filtering out Sequential Redundancy for Efficient
Language Processing [112.2208052057002]
本稿では,隠れ状態の列を短く圧縮するFunnel-Transformerを提案する。
Funnel-TransformerはFLOPに匹敵する数が少ないため、様々なシーケンスレベルの予測タスクにおいて標準のTransformerよりも優れている。
論文 参考訳(メタデータ) (2020-06-05T05:16:23Z) - Character-level Transformer-based Neural Machine Translation [5.699756532377753]
本稿では,トランスフォーマーをベースとした新しい手法について論じる。スピードと品質を,サブワードレベルでのトランスフォーマーとキャラクタレベルで比較する。
WMT'15: DE-EN, CS-EN, FI-EN, RU-ENの4つの言語対について評価を行った。
提案された新しいアーキテクチャは、単一のGPUでトレーニングすることが可能で、キャラクタレベルのTransformerよりも34%高速である。
論文 参考訳(メタデータ) (2020-05-22T15:40:43Z) - Efficient Wait-k Models for Simultaneous Machine Translation [46.01342928010307]
同時機械翻訳は、入力シーケンス全体が利用可能になる前に出力生成を開始することで構成される。
Wait-kデコーダは、この問題に対してシンプルだが効率的なアプローチを提供する。
IWSLTデータセットを用いた音声コーパスの低リソース設定におけるwait-k復号の動作について検討する。
論文 参考訳(メタデータ) (2020-05-18T11:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。