論文の概要: Commutative Lie Group VAE for Disentanglement Learning
- arxiv url: http://arxiv.org/abs/2106.03375v1
- Date: Mon, 7 Jun 2021 07:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:29:02.390930
- Title: Commutative Lie Group VAE for Disentanglement Learning
- Title(参考訳): ゆがみ学習のための可換リー群VAE
- Authors: Xinqi Zhu, Chang Xu, Dacheng Tao
- Abstract要約: 本研究では,データに表される因子の変動を同変的に反映する基盤構造を見いだすこととして,非絡み合い学習を考察する。
グループベースの非絡み合い学習を実現するために、Communative Lie Group VAEというシンプルなモデルが導入された。
実験により,本モデルでは,教師なしの非絡み合い表現を効果的に学習し,余分な制約を伴わずに最先端のパフォーマンスを達成できることが示されている。
- 参考スコア(独自算出の注目度): 96.32813624341833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We view disentanglement learning as discovering an underlying structure that
equivariantly reflects the factorized variations shown in data. Traditionally,
such a structure is fixed to be a vector space with data variations represented
by translations along individual latent dimensions. We argue this simple
structure is suboptimal since it requires the model to learn to discard the
properties (e.g. different scales of changes, different levels of abstractness)
of data variations, which is an extra work than equivariance learning. Instead,
we propose to encode the data variations with groups, a structure not only can
equivariantly represent variations, but can also be adaptively optimized to
preserve the properties of data variations. Considering it is hard to conduct
training on group structures, we focus on Lie groups and adopt a
parameterization using Lie algebra. Based on the parameterization, some
disentanglement learning constraints are naturally derived. A simple model
named Commutative Lie Group VAE is introduced to realize the group-based
disentanglement learning. Experiments show that our model can effectively learn
disentangled representations without supervision, and can achieve
state-of-the-art performance without extra constraints.
- Abstract(参考訳): 我々は,データに表される因子的変動を同変的に反映する基盤構造を見いだしている。
伝統的に、そのような構造は個々の潜在次元に沿った変換によって表されるデータの変動を持つベクトル空間として固定される。
この単純な構造は、モデルがプロパティを破棄することを学ぶ必要がある(例えば、)ため、準最適であると主張する。
変化のスケール、抽象性の異なるレベル) データの変化、これは等分散学習よりも余分な仕事です。
その代わりに,データ変動をグループで符号化する手法を提案する。構造は変化を同変的に表現できるだけでなく,データ変動の特性を保存するために適応的に最適化することもできる。
群構造に関する訓練を行うことは困難であり, リー群に着目し, リー代数を用いたパラメータ化を適用する。
パラメータ化に基づいて、いくつかの非絡み合い学習制約が自然に導出される。
グループベースの非絡み合い学習を実現するために,Communative Lie Group VAEというシンプルなモデルを導入した。
実験の結果,本モデルでは,不連続表現を監視せずに効果的に学習し,余分な制約を伴わずに最先端のパフォーマンスを実現することができた。
関連論文リスト
- Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift [91.38796390449504]
ドメインとラベルの組み合わせは、トレーニング中に観察されるのではなく、テスト環境に現れる。
我々は、同型の概念、同値性、および整合性の定義に基づく結合シフト問題の一意的な定式化を提供する。
論文 参考訳(メタデータ) (2022-08-03T12:31:31Z) - Unsupervised Learning of Group Invariant and Equivariant Representations [10.252723257176566]
グループ不変および同変表現学習を教師なし深層学習の分野に拡張する。
本稿では,エンコーダ・デコーダ・フレームワークに基づく一般学習戦略を提案する。このフレームワークでは,潜在表現を不変項と同変群アクション成分で分離する。
鍵となる考え方は、ネットワークがグループ不変表現にデータをエンコードしてデコードすることを学習し、さらに適切なグループ動作を予測して、入力と出力のポーズを調整して再構成タスクを解決することである。
論文 参考訳(メタデータ) (2022-02-15T16:44:21Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z) - Group Equivariant Conditional Neural Processes [30.134634059773703]
群同変条件ニューラルプロセス(EquivCNP)を提案する。
EquivCNPは1次元回帰タスクにおいて従来の条件付きニューラルプロセスに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-02-17T13:50:07Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。