論文の概要: Sequence-Level Mixed Sample Data Augmentation
- arxiv url: http://arxiv.org/abs/2011.09039v1
- Date: Wed, 18 Nov 2020 02:18:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:29:15.929544
- Title: Sequence-Level Mixed Sample Data Augmentation
- Title(参考訳): シーケンスレベル混合サンプルデータ拡張
- Authors: Demi Guo, Yoon Kim and Alexander M. Rush
- Abstract要約: 本研究は、シーケンス対シーケンス問題に対するニューラルモデルにおける合成行動を促進するための単純なデータ拡張手法を提案する。
我々の手法であるSeqMixは、トレーニングセットから入力/出力シーケンスをソフトに結合することで、新しい合成例を作成する。
- 参考スコア(独自算出の注目度): 119.94667752029143
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite their empirical success, neural networks still have difficulty
capturing compositional aspects of natural language. This work proposes a
simple data augmentation approach to encourage compositional behavior in neural
models for sequence-to-sequence problems. Our approach, SeqMix, creates new
synthetic examples by softly combining input/output sequences from the training
set. We connect this approach to existing techniques such as SwitchOut and word
dropout, and show that these techniques are all approximating variants of a
single objective. SeqMix consistently yields approximately 1.0 BLEU improvement
on five different translation datasets over strong Transformer baselines. On
tasks that require strong compositional generalization such as SCAN and
semantic parsing, SeqMix also offers further improvements.
- Abstract(参考訳): 経験的な成功にもかかわらず、ニューラルネットワークは自然言語の構成的側面を捉えるのに苦労している。
本研究は、シーケンス対シーケンス問題に対するニューラルモデルにおける合成行動を促進するための単純なデータ拡張手法を提案する。
私たちのアプローチであるseqmixは、トレーニングセットから入出力シーケンスをソフトに組み合わせて、新しい合成例を作成します。
提案手法は,SwitchOutやワードドロップアウトといった既存の手法と結合し,これらの手法がすべて一つの目的の変種を近似していることを示す。
seqmixは、強いトランスフォーマーベースラインよりも、5つの異なる翻訳データセットで、一貫して1.0 bleuの改善をもたらす。
SCANやセマンティックパースといった強力な構成の一般化を必要とするタスクに関して、SeqMixはさらに改善されている。
関連論文リスト
- Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - A Well-Composed Text is Half Done! Composition Sampling for Diverse
Conditional Generation [79.98319703471596]
高品質の条件付き生成のための多種多様な出力を生成するための簡易で効果的な合成サンプリング法であるコンポジションサンプリングを提案する。
これは最近提案された計画ベースのニューラルジェネレーションモデルに基づいて構築され、まず最初に出力の合成を作成し、それと入力を条件付けして生成するように訓練される。
論文 参考訳(メタデータ) (2022-03-28T21:24:03Z) - Improving Compositional Generalization with Latent Structure and Data
Augmentation [39.24527889685699]
合成構造学習者(CSL)と呼ばれるモデルを用いたより強力なデータ組換え手法を提案する。
CSLは、準同期の文脈自由文法バックボーンを持つ生成モデルである。
この手順は、診断タスクのためにCSLの組成バイアスの大部分をT5に効果的に転送する。
論文 参考訳(メタデータ) (2021-12-14T18:03:28Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。