論文の概要: A Framework for Bidirectional Decoding: Case Study in Morphological
Inflection
- arxiv url: http://arxiv.org/abs/2305.12580v1
- Date: Sun, 21 May 2023 22:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:25:19.593762
- Title: A Framework for Bidirectional Decoding: Case Study in Morphological
Inflection
- Title(参考訳): 双方向デコードのためのフレームワーク:形態的インフレクションのケーススタディ
- Authors: Marc E. Canby and Julia Hockenmaier
- Abstract要約: 外部からシーケンスを復号するフレームワークを提案する。
各ステップで、モデルは左、右にトークンを生成するか、左と右のシーケンスを結合するかを選択します。
- 参考スコア(独自算出の注目度): 7.919213739992465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based encoder-decoder models that generate outputs in a
left-to-right fashion have become standard for sequence-to-sequence tasks. In
this paper, we propose a framework for decoding that produces sequences from
the "outside-in": at each step, the model chooses to generate a token on the
left, on the right, or join the left and right sequences. We argue that this is
more principled than prior bidirectional decoders. Our proposal supports a
variety of model architectures and includes several training methods, such as a
dynamic programming algorithm that marginalizes out the latent ordering
variable. Our model improves considerably over a simple baseline based on
unidirectional transformers on the SIGMORPHON 2023 inflection task and sets
SOTA on the 2022 shared task. The model performs particularly well on long
sequences, can learn the split point of words composed of stem and affix
(without supervision), and performs better relative to the baseline on datasets
that have fewer unique lemmas (but more examples per lemma).
- Abstract(参考訳): 左右方向の出力を生成するトランスフォーマベースのエンコーダ-デコーダモデルがシーケンス-シーケンスタスクの標準となっている。
本稿では,"outside-in"からシーケンスを生成するデコードのためのフレームワークを提案する。 各ステップにおいて,モデルが左,右,あるいは左,右のシーケンスに結合するトークンを生成するように選択する。
これは従来の双方向デコーダよりも原則的だと主張する。
本提案は,様々なモデルアーキテクチャをサポートし,潜在順序変数を辺化する動的プログラミングアルゴリズムなど,いくつかのトレーニング手法を含む。
SIGMORPHON 2023のインフレクションタスクにおける一方向トランスフォーマーに基づく単純なベースラインよりも大幅に改善し,2022年の共有タスクにSOTAを設定する。
このモデルは、特に長いシーケンスでうまく機能し、茎と接尾辞からなる単語の分割点(監督なしで)を学習でき、ユニークな補題が少ないデータセット(ただし、補題毎の例が多い)のベースラインに対してよりよく機能する。
関連論文リスト
- Graph-Structured Speculative Decoding [52.94367724136063]
投機的復号化は、大規模言語モデルの推論を加速する有望な手法として登場した。
本稿では, 有向非巡回グラフ(DAG)を応用して, 起案された仮説を管理する革新的な手法を提案する。
我々は1.73$times$から1.96$times$に顕著なスピードアップを観察し、標準投機的復号法を大幅に上回った。
論文 参考訳(メタデータ) (2024-07-23T06:21:24Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Improving Tree-Structured Decoder Training for Code Generation via
Mutual Learning [27.080718377956693]
コード生成は、入力された自然言語の発話に与えられたコードを自動的に生成することを目的としている。
まず、異なるデコードを持つニューラルコード生成モデル間のコンテキストモデリングの違いを網羅的に分析する。
本稿では,これらのモデルを協調的に学習するための相互学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T08:44:13Z) - Fast Interleaved Bidirectional Sequence Generation [90.58793284654692]
左右方向と左右方向を同時に生成するデコーダを提案する。
一方向デコードのための標準アーキテクチャを簡単に双方向デコーダに変換することができることを示す。
我々のインターリーブ双方向デコーダ (IBDecoder) は標準変換器のモデル単純性と訓練効率を保っている。
論文 参考訳(メタデータ) (2020-10-27T17:38:51Z) - Cascaded Text Generation with Markov Transformers [122.76100449018061]
ニューラルテキスト生成における2つの主要なアプローチは、シリアルビームサーチデコーディングを使用した完全自己回帰モデルと、出力依存のない並列デコーディングを使用した非自己回帰モデルである。
本稿では,境界付きコンテキストを持つ条件付きランダムフィールドを並列にデコードできることに言及し,高品質な出力を生成するための効率的なカスケードデコード手法を提案する。
このアプローチでは,5つの機械翻訳データセットの既存の手法と比較して,競争力のある精度と速度のトレードオフを示す一方で,標準的な自己回帰トレーニングからのわずかな変更しか必要としない。
論文 参考訳(メタデータ) (2020-06-01T17:52:15Z) - Consistent Multiple Sequence Decoding [36.46573114422263]
一貫性のある多重シーケンスデコーディングアーキテクチャを導入する。
このアーキテクチャは任意の数のシーケンスを一貫した同時復号化を可能にする。
重回帰画像キャプションにおける一貫した多重シーケンスデコーダの有効性を示す。
論文 参考訳(メタデータ) (2020-04-02T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。