論文の概要: Residual Tree Aggregation of Layers for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2107.14590v1
- Date: Mon, 19 Jul 2021 09:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-08 12:00:30.174848
- Title: Residual Tree Aggregation of Layers for Neural Machine Translation
- Title(参考訳): ニューラルネットワーク翻訳のための階層の残留木集合
- Authors: GuoLiang Li and Yiyang Li
- Abstract要約: 本稿では,トランスフォーマー (RTAL) のための残木集約手法を提案する。
具体的には、ポストオーダーのバイナリツリーを構築することで、レイヤ間で情報を融合させようとする。
我々のモデルはニューラルマシン翻訳モデルトランスフォーマーに基づいており、WMT14英語-ドイツ語とWMT17英語--フランス語翻訳タスクの実験を行っている。
- 参考スコア(独自算出の注目度): 11.660776324473645
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Although attention-based Neural Machine Translation has achieved remarkable
progress in recent layers, it still suffers from issue of making insufficient
use of the output of each layer. In transformer, it only uses the top layer of
encoder and decoder in the subsequent process, which makes it impossible to
take advantage of the useful information in other layers. To address this
issue, we propose a residual tree aggregation of layers for Transformer(RTAL),
which helps to fuse information across layers. Specifically, we try to fuse the
information across layers by constructing a post-order binary tree. In
additional to the last node, we add the residual connection to the process of
generating child nodes. Our model is based on the Neural Machine Translation
model Transformer and we conduct our experiments on WMT14 English-to-German and
WMT17 English-to-France translation tasks. Experimental results across language
pairs show that the proposed approach outperforms the strong baseline model
significantly
- Abstract(参考訳): 注意に基づくニューラルマシン翻訳は近年のレイヤで顕著な進歩を遂げているが、各レイヤの出力を十分に利用できない問題に悩まされている。
トランスでは、後続のプロセスでエンコーダとデコーダの上位層のみを使用するため、他のレイヤで有用な情報を利用することはできない。
この問題に対処するため,我々はtransformer(rtal)用のレイヤの残木集約を提案する。
具体的には、注文後のバイナリツリーを構築することで、レイヤ間で情報を融合させようとする。
最後のノードに加えて、子ノードを生成するプロセスに残留接続を追加します。
我々のモデルはニューラルマシン翻訳モデルTransformerに基づいており、WMT14とWMT17の英仏翻訳タスクについて実験を行っている。
言語ペア間の実験結果から,提案手法が強いベースラインモデルよりも優れていることが示された。
関連論文リスト
- GTrans: Grouping and Fusing Transformer Layers for Neural Machine
Translation [107.2752114891855]
トランスフォーマー構造は、エンコーダとデコーダのネットワーク層によって積み重ねられ、ニューラルマシン翻訳において大きな発展を遂げる。
本稿では,エンコーダとデコーダの多層表現を異なるグループに柔軟に分割し,これらの特徴を融合して目的語を生成するグループトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-07-29T04:10:36Z) - Recurrent Stacking of Layers in Neural Networks: An Application to
Neural Machine Translation [18.782750537161615]
我々は、全ての層にパラメータを共有することで、繰り返し積み重ねられたニューラルネットワークモデルを実現することを提案する。
我々は、パラメータが著しく少ないにもかかわらず、単一のレイヤを6回繰り返し積み重ねるモデルの翻訳品質が、各レイヤが異なるパラメータを持つ6つのレイヤを積み重ねるモデルの翻訳品質にアプローチすることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-18T08:48:01Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - IOT: Instance-wise Layer Reordering for Transformer Structures [173.39918590438245]
トランスフォーマの固定層順序の仮定を分解し,モデル構造にインスタンス単位の層順序変更を導入する。
当社の手法はTransformer以外のアーキテクチャにも適用可能です。
論文 参考訳(メタデータ) (2021-03-05T03:44:42Z) - Meta Back-translation [111.87397401837286]
プリトレーニングされたバック翻訳モデルから擬似並列データを生成する新しい手法を提案する。
本手法は,生成する擬似並列データに対して,検証セット上で良好な処理を行うためのフォワードトランスレーションモデルを訓練するように,事前訓練されたバックトランスレーションモデルを適用するメタラーニングアルゴリズムである。
論文 参考訳(メタデータ) (2021-02-15T20:58:32Z) - Transition based Graph Decoder for Neural Machine Translation [41.7284715234202]
本稿では,木とグラフのデコーディングをトランジションのシーケンス生成に基づいて一般化したトランスフォーマーベースのアプローチを提案する。
標準のTransformerデコーダよりも性能が向上し,モデルの短縮バージョンも向上した。
論文 参考訳(メタデータ) (2021-01-29T15:20:45Z) - Long-Short Term Masking Transformer: A Simple but Effective Baseline for
Document-level Neural Machine Translation [28.94748226472447]
文書レベルの翻訳における標準変換器の長所と短所について検討する。
本稿では,標準変圧器上での自己注意を隠蔽する,驚くほど単純な長短項マスクを提案する。
BLEUの強い結果が得られ、談話現象を捉えることができる。
論文 参考訳(メタデータ) (2020-09-19T00:29:51Z) - Glancing Transformer for Non-Autoregressive Neural Machine Translation [58.87258329683682]
単一パス並列生成モデルにおける単語相互依存の学習法を提案する。
単一パスの並列デコードだけで、GLATは8~15倍のスピードアップで高品質な翻訳を生成することができる。
論文 参考訳(メタデータ) (2020-08-18T13:04:03Z) - Character-level Transformer-based Neural Machine Translation [5.699756532377753]
本稿では,トランスフォーマーをベースとした新しい手法について論じる。スピードと品質を,サブワードレベルでのトランスフォーマーとキャラクタレベルで比較する。
WMT'15: DE-EN, CS-EN, FI-EN, RU-ENの4つの言語対について評価を行った。
提案された新しいアーキテクチャは、単一のGPUでトレーニングすることが可能で、キャラクタレベルのTransformerよりも34%高速である。
論文 参考訳(メタデータ) (2020-05-22T15:40:43Z) - Rethinking and Improving Natural Language Generation with Layer-Wise
Multi-View Decoding [59.48857453699463]
シーケンシャル・ツー・シーケンス学習では、デコーダは注意機構に依存してエンコーダから情報を効率的に抽出する。
近年の研究では、異なるエンコーダ層からの表現を多様なレベルの情報に利用することが提案されている。
本稿では, 各デコーダ層に対して, グローバルビューとして機能する最後のエンコーダ層からの表現とともに, ソースシーケンスの立体視のために他のエンコーダ層からのデコーダ層からのデコーダ層を補足するレイヤワイド・マルチビューデコーダを提案する。
論文 参考訳(メタデータ) (2020-05-16T20:00:39Z) - Multi-layer Representation Fusion for Neural Machine Translation [38.12309528346962]
積層層を融合する多層表現融合(MLRF)手法を提案する。
特に、スタックからより良い表現を学ぶために、3つの融合関数を設計する。
その結果、ドイツ語と英語の翻訳における新たな最先端技術が誕生した。
論文 参考訳(メタデータ) (2020-02-16T23:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。