論文の概要: Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality
- arxiv url: http://arxiv.org/abs/2211.15578v1
- Date: Mon, 28 Nov 2022 17:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:47:37.663957
- Title: Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality
- Title(参考訳): 構成性向上のための相互排他性訓練と原始増強
- Authors: Yichen Jiang, Xiang Zhou, Mohit Bansal
- Abstract要約: 最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
- 参考スコア(独自算出の注目度): 84.94877848357896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent datasets expose the lack of the systematic generalization ability in
standard sequence-to-sequence models. In this work, we analyze this behavior of
seq2seq models and identify two contributing factors: a lack of mutual
exclusivity bias (i.e., a source sequence already mapped to a target sequence
is less likely to be mapped to other target sequences), and the tendency to
memorize whole examples rather than separating structures from contents. We
propose two techniques to address these two issues respectively: Mutual
Exclusivity Training that prevents the model from producing seen generations
when facing novel, unseen examples via an unlikelihood-based loss; and
prim2primX data augmentation that automatically diversifies the arguments of
every syntactic function to prevent memorizing and provide a compositional
inductive bias without exposing test-set data. Combining these two techniques,
we show substantial empirical improvements using standard sequence-to-sequence
models (LSTMs and Transformers) on two widely-used compositionality datasets:
SCAN and COGS. Finally, we provide analysis characterizing the improvements as
well as the remaining challenges, and provide detailed ablations of our method.
Our code is available at https://github.com/owenzx/met-primaug
- Abstract(参考訳): 最近のデータセットは、標準的なシーケンス対シーケンスモデルにおける体系的な一般化能力の欠如を明らかにしている。
本研究では,Seq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如(すなわち,すでに対象配列にマッピングされたソースシーケンスが他のターゲットシーケンスにマッピングされる可能性が低い)と,構造を内容から切り離すのではなく,全体例を記憶する傾向という2つの要因を同定する。
我々は,これら2つの課題にそれぞれ対処するための2つの手法を提案している: 相互排他的訓練は,新奇な例に対面した場合にモデルが現れるのを防止し,類似性に基づく損失による未発見の例を発生させる;prim2primxデータ拡張は,すべての構文関数の引数を自動的に多様化し,暗記化を防止し,テストセットデータを露呈することなく構成的帰納的バイアスを与える。
これら2つの手法を組み合わせることで,SCAN と COGS の2つの広く使用されている構成性データセット上で,標準シーケンス列列モデル (LSTM と Transformer ) を用いた経験的改善が得られた。
最後に,改善点と残る課題を特徴とする分析を行い,本手法の詳細なアブレーションを行う。
私たちのコードはhttps://github.com/owenzx/met-primaugで利用可能です。
関連論文リスト
- Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - FeCAM: Exploiting the Heterogeneity of Class Distributions in
Exemplar-Free Continual Learning [21.088762527081883]
Exemplar-free class-incremental learning (CIL)は、以前のタスクからのデータのリハーサルを禁止しているため、いくつかの課題がある。
第1タスクの後に特徴抽出器を凍結して分類器を漸進的に学習する手法が注目されている。
凍結した特徴抽出器を用いて新しいクラスプロトタイプを生成するCILのプロトタイプネットワークを探索し,プロトタイプとのユークリッド距離に基づいて特徴を分類する。
論文 参考訳(メタデータ) (2023-09-25T11:54:33Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Compositional Generalization without Trees using Multiset Tagging and
Latent Permutations [121.37328648951993]
まず、各入力トークンに複数の出力トークンをタグ付けします。
次に、新しいパラメータ化法と置換予測法を用いて、トークンを出力シーケンスに配置する。
我々のモデルは、事前訓練されたセq2seqモデルと、現実的なセマンティック解析タスクに関する先行研究より優れている。
論文 参考訳(メタデータ) (2023-05-26T14:09:35Z) - Imputing Missing Observations with Time Sliced Synthetic Minority
Oversampling Technique [0.3973560285628012]
本稿では,データセット内の各サンプルに対して均一な不規則な時系列を構成することを目的とした,単純かつ斬新な時系列計算手法を提案する。
我々は、観測時間の重複しないビン(「スライス」と呼ばれる)の中間点で定義される格子を固定し、各サンプルが所定の時間にすべての特徴に対して値を持つことを保証する。
これにより、完全に欠落した観察をインプットし、データ全体の時系列の均一な分類を可能にし、特別な場合には個々の欠落した特徴をインプットすることができる。
論文 参考訳(メタデータ) (2022-01-14T19:23:24Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Adversarial and Contrastive Variational Autoencoder for Sequential
Recommendation [25.37244686572865]
本稿では、逐次レコメンデーションのためのAdversarial and Contrastive Variational Autoencoder (ACVAE) と呼ばれる新しい手法を提案する。
まず,本モデルが高品質な潜在変数を生成することを可能にするadversarial variational bayesフレームワークの下で,シーケンス生成のためのadversarial trainingを導入する。
さらに、シーケンスをエンコードする場合、シーケンス内のグローバルおよびローカルの関係をキャプチャするために、繰り返しおよび畳み込み構造を適用します。
論文 参考訳(メタデータ) (2021-03-19T09:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。