論文の概要: Compositional Generalization in Unsupervised Compositional
Representation Learning: A Study on Disentanglement and Emergent Language
- arxiv url: http://arxiv.org/abs/2210.00482v2
- Date: Wed, 5 Oct 2022 21:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 14:50:05.165129
- Title: Compositional Generalization in Unsupervised Compositional
Representation Learning: A Study on Disentanglement and Emergent Language
- Title(参考訳): 教師なし構成表現学習における構成一般化 : 絡み合いと創発言語に関する研究
- Authors: Zhenlin Xu, Marc Niethammer, Colin Raffel
- Abstract要約: 合成一般化を直接テストできる2つのデータセット上で、3つの教師なし表現学習アルゴリズムについて検討する。
単純なモデルと少ないラベルでボトルネック表現を直接使用すると、学習された表現そのものの前後のレイヤからの表現よりも、より悪い一般化につながる可能性がある。
驚くべきことに、不整合表現を生成する圧力の増加は、より悪い一般化を伴う表現を生成するのに対し、ELモデルからの表現は強い合成一般化を示す。
- 参考スコア(独自算出の注目度): 48.37815764394315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models struggle with compositional generalization, i.e. the
ability to recognize or generate novel combinations of observed elementary
concepts. In hopes of enabling compositional generalization, various
unsupervised learning algorithms have been proposed with inductive biases that
aim to induce compositional structure in learned representations (e.g.
disentangled representation and emergent language learning). In this work, we
evaluate these unsupervised learning algorithms in terms of how well they
enable compositional generalization. Specifically, our evaluation protocol
focuses on whether or not it is easy to train a simple model on top of the
learned representation that generalizes to new combinations of compositional
factors. We systematically study three unsupervised representation learning
algorithms - $\beta$-VAE, $\beta$-TCVAE, and emergent language (EL)
autoencoders - on two datasets that allow directly testing compositional
generalization. We find that directly using the bottleneck representation with
simple models and few labels may lead to worse generalization than using
representations from layers before or after the learned representation itself.
In addition, we find that the previously proposed metrics for evaluating the
levels of compositionality are not correlated with actual compositional
generalization in our framework. Surprisingly, we find that increasing pressure
to produce a disentangled representation produces representations with worse
generalization, while representations from EL models show strong compositional
generalization. Taken together, our results shed new light on the compositional
generalization behavior of different unsupervised learning algorithms with a
new setting to rigorously test this behavior, and suggest the potential
benefits of delevoping EL learning algorithms for more generalizable
representations.
- Abstract(参考訳): 深層学習モデルは構成的一般化、すなわち観察された基本概念の新たな組み合わせを認識または生成する能力に苦慮する。
構成一般化を可能にするために、学習表現における構成構造を誘導する帰納的バイアス(例えば、非絡み合い表現や創発的言語学習)を用いて、様々な教師なし学習アルゴリズムが提案されている。
本研究では,これらの教師なし学習アルゴリズムを,構成一般化の有効性の観点から評価する。
具体的には,合成因子の新たな組み合わせに一般化する学習表現の上に,簡単なモデルを訓練することが容易かどうかに焦点をあてる。
我々は,構成一般化を直接テスト可能な2つのデータセット上で,教師なし表現学習アルゴリズム($\beta$-VAE,$\beta$-TCVAE,および創発言語(EL)オートエンコーダ)を体系的に研究した。
単純なモデルと少ないラベルでボトルネック表現を直接使用すると、学習された表現そのものの前後のレイヤからの表現よりも、より悪い一般化につながる可能性がある。
また,これまでに提案した構成性評価指標は,本フレームワークの実際の構成一般化と相関しないことがわかった。
驚くべきことに、不整合表現を生成する圧力の増加は、より悪い一般化を伴う表現を生成するのに対し、ELモデルからの表現は強い構成一般化を示す。
本研究の結果は, 異なる教師なし学習アルゴリズムの合成一般化行動に新たな光を当て, より一般化可能な表現のために, EL学習アルゴリズムを高度に活用することの潜在的メリットを示唆するものである。
関連論文リスト
- Towards Understanding the Relationship between In-context Learning and Compositional Generalization [7.843029855730508]
私たちは、通常の学習を非常に難しい設定で因果変換器を訓練します。
しかし、このモデルは、初期の例を利用して、後の例に一般化することで、タスクを解くことができる。
データセット、SCAN、COGS、GeoQueryの評価では、この方法でトレーニングされたモデルは、実際に合成の一般化の改善を示している。
論文 参考訳(メタデータ) (2024-03-18T14:45:52Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Disentangled Sequence to Sequence Learning for Compositional
Generalization [62.954842223732435]
本稿では,ソース入力を適応的に再符号化することで,不整合表現の学習を可能にするシーケンス・ツー・シーケンス・モデルの拡張を提案する。
意味解析と機械翻訳の実験結果から,提案手法はより不整合な表現とより優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2021-10-09T22:27:19Z) - Learning Algebraic Recombination for Compositional Generalization [71.78771157219428]
合成一般化のための代数的組換え学習のためのエンドツーエンドニューラルモデルLeARを提案する。
主要な洞察は、意味解析タスクを潜在構文代数学と意味代数学の間の準同型としてモデル化することである。
2つの現実的・包括的構成一般化の実験は、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2021-07-14T07:23:46Z) - Improving Compositional Generalization in Classification Tasks via
Structure Annotations [33.90268697120572]
人間は構成を一般化する能力は大きいが、最先端のニューラルモデルはそれを行うのに苦労している。
まず、自然言語のシーケンス・ツー・シーケンス・データセットを、合成の一般化も必要とする分類データセットに変換する方法について検討する。
第二に、構造的ヒントを提供すること(特にトランスフォーマーモデルの注意マスクとしてパースツリーとエンティティリンクを提供すること)は、構成の一般化に役立つことを示す。
論文 参考訳(メタデータ) (2021-06-19T06:07:27Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Improving Compositional Generalization in Semantic Parsing [54.4720965813889]
オフ・オブ・ディストリビューション(OOD)データへのモデルの一般化は、最近、大きな注目を集めている。
合成一般化のための自然なテストベッドである意味解析における合成一般化について検討する。
論文 参考訳(メタデータ) (2020-10-12T12:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。