論文の概要: EDITOR: an Edit-Based Transformer with Repositioning for Neural Machine
Translation with Soft Lexical Constraints
- arxiv url: http://arxiv.org/abs/2011.06868v2
- Date: Tue, 19 Jan 2021 22:26:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:26:47.526246
- Title: EDITOR: an Edit-Based Transformer with Repositioning for Neural Machine
Translation with Soft Lexical Constraints
- Title(参考訳): EDITOR:ソフトレキシカル制約を用いたニューラルマシン翻訳のための再配置型編集型変換器
- Authors: Weijia Xu, Marine Carpuat
- Abstract要約: EDITORは仮説を反復的に編集することで新しいシーケンスを生成する。
これは単語の位置決定から語彙選択を解き放つために設計された新しい再配置操作に依存している。
EDITORは、Levenshtein Transformerよりも高速なデコード速度で、同等または優れた翻訳品質を達成する。
- 参考スコア(独自算出の注目度): 26.333923895006993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an Edit-Based Transformer with Repositioning (EDITOR), which
makes sequence generation flexible by seamlessly allowing users to specify
preferences in output lexical choice. Building on recent models for
non-autoregressive sequence generation (Gu et al., 2019), EDITOR generates new
sequences by iteratively editing hypotheses. It relies on a novel reposition
operation designed to disentangle lexical choice from word positioning
decisions, while enabling efficient oracles for imitation learning and parallel
edits at decoding time. Empirically, EDITOR uses soft lexical constraints more
effectively than the Levenshtein Transformer (Gu et al., 2019) while speeding
up decoding dramatically compared to constrained beam search (Post and Vilar,
2018). EDITOR also achieves comparable or better translation quality with
faster decoding speed than the Levenshtein Transformer on standard
Romanian-English, English-German, and English-Japanese machine translation
tasks.
- Abstract(参考訳): 編集ベーストランスフォーマー(EDITOR)を導入し,出力語彙選択の好みをユーザがシームレスに指定できるようにすることで,シーケンス生成を柔軟にする。
非回帰シーケンス生成のための最近のモデル(gu et al., 2019)に基づいて、エディタは仮説を反復的に編集することで新しいシーケンスを生成する。
単語の位置決定から語彙選択を解き放つために設計された新しい再配置操作に依存しており、復号時に模倣学習と並列編集を効率よく行うことができる。
経験的に、EDITORはLevenshtein Transformer(Gu et al., 2019)よりもソフトレキシカルな制約を効果的に用いながら、制約されたビームサーチ(Post and Vilar, 2018)に比べてデコーディングを劇的に高速化している。
EDITORはまた、標準的なルーマニア語、英語、英語、日本語の機械翻訳タスクにおいて、Levenshtein Transformerよりも高速な復号速度で、同等またはより良い翻訳品質を達成する。
関連論文リスト
- Quick Back-Translation for Unsupervised Machine Translation [9.51657235413336]
我々は Transformer back-translation: Quick Back-translation (QBT) に対する2対1の改善を提案する。
QBTは、エンコーダを生成モデルとして再使用し、エンコーダ生成シーケンスを使用してデコーダを訓練する。
様々なWMTベンチマーク実験により、QBTはトレーニング効率の点で標準逆翻訳法よりも劇的に優れていることが示された。
論文 参考訳(メタデータ) (2023-12-01T20:27:42Z) - TranSFormer: Slow-Fast Transformer for Machine Translation [52.12212173775029]
本稿では,TrantextbfSFormerと呼ばれる2ストリーム学習モデルを提案する。
我々のTranSFormerは、複数の機械翻訳ベンチマークにおいて、BLEUの一貫性のある改善(BLEU点よりも大きい)を示す。
論文 参考訳(メタデータ) (2023-05-26T14:37:38Z) - Viterbi Decoding of Directed Acyclic Transformer for Non-Autoregressive
Machine Translation [13.474844448367367]
非自己回帰モデルは、ニューラルネットワーク翻訳において大幅なデコードスピードアップを実現するが、シーケンシャルな依存関係をキャプチャする能力は欠如している。
本稿では, DA-Transformer のためのビタビ復号化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-11T06:53:34Z) - Style Transformer for Image Inversion and Editing [35.45674653596084]
既存のGANインバージョン手法では、信頼性の高い再構築とフレキシブルな編集のための遅延コードを提供できない。
本稿では,事前学習したStyleGANに対して,トランスフォーマーを用いた画像インバージョンと編集モデルを提案する。
提案モデルでは、CNNエンコーダを用いて、キーと値としてマルチスケールの画像特徴を提供する。
論文 参考訳(メタデータ) (2022-03-15T14:16:57Z) - Sentence Bottleneck Autoencoders from Transformer Language Models [53.350633961266375]
我々は、事前訓練されたフリーズトランスフォーマー言語モデルから文レベルのオートエンコーダを構築する。
我々は、文ボトルネックと1層修飾トランスフォーマーデコーダのみを訓練しながら、マスク付き言語モデリングの目的を生成的・認知的言語として適応する。
本研究では,テキスト類似性タスク,スタイル転送,単一文分類タスクにおける事前学習されたトランスフォーマーからの表現をGLUEベンチマークで抽出する手法よりも,大規模な事前学習モデルよりも少ないパラメータを用いて,より高品質な文表現を実現することを示す。
論文 参考訳(メタデータ) (2021-08-31T19:39:55Z) - Transition based Graph Decoder for Neural Machine Translation [41.7284715234202]
本稿では,木とグラフのデコーディングをトランジションのシーケンス生成に基づいて一般化したトランスフォーマーベースのアプローチを提案する。
標準のTransformerデコーダよりも性能が向上し,モデルの短縮バージョンも向上した。
論文 参考訳(メタデータ) (2021-01-29T15:20:45Z) - Glancing Transformer for Non-Autoregressive Neural Machine Translation [58.87258329683682]
単一パス並列生成モデルにおける単語相互依存の学習法を提案する。
単一パスの並列デコードだけで、GLATは8~15倍のスピードアップで高品質な翻訳を生成することができる。
論文 参考訳(メタデータ) (2020-08-18T13:04:03Z) - SimulEval: An Evaluation Toolkit for Simultaneous Translation [59.02724214432792]
テキストと音声の同時翻訳は、リアルタイムと低レイテンシのシナリオに焦点を当てている。
SimulEvalは、テキストと音声の同時翻訳のための、使いやすくて汎用的な評価ツールキットである。
論文 参考訳(メタデータ) (2020-07-31T17:44:41Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Segatron: Segment-Aware Transformer for Language Modeling and
Understanding [79.84562707201323]
本稿では,セグメンテーション対応トランスフォーマー(Segatron)を提案する。
本稿ではまず,Transformerベースの言語モデルであるTransformer-XLにセグメント認識機構を導入する。
WikiText-103データセット上で17.1パープレキシティを実現することにより,Transformer-XLベースモデルと大規模モデルをさらに改善できることがわかった。
論文 参考訳(メタデータ) (2020-04-30T17:38:27Z) - Lexically Constrained Neural Machine Translation with Levenshtein
Transformer [8.831954614241234]
本稿では,ニューラルネットワーク翻訳に語彙制約を組み込むための,単純かつ効果的なアルゴリズムを提案する。
提案手法は,デコード速度に影響を与えることなく,推論時に用語制約を注入する。
論文 参考訳(メタデータ) (2020-04-27T09:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。