論文の概要: Addressing the Topological Defects of Disentanglement via Distributed
Operators
- arxiv url: http://arxiv.org/abs/2102.05623v1
- Date: Wed, 10 Feb 2021 18:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:46:44.392578
- Title: Addressing the Topological Defects of Disentanglement via Distributed
Operators
- Title(参考訳): 分散演算子による絡み合いのトポロジ的欠陥への対処
- Authors: Diane Bouchacourt, Mark Ibrahim, St\'ephane Deny
- Abstract要約: ゆがみに対する一般的なアプローチは、これらの因子をモデルの潜在表現の別個の部分空間にマッピングする学習である。
ここでは、画像に作用する広範な変換系に対して、この手法がトポロジ的欠陥をもたらすことを示す。
群表現論の古典的な結果に動機付けられ、より柔軟な解離へのアプローチについて研究する。
- 参考スコア(独自算出の注目度): 10.29148285032989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A core challenge in Machine Learning is to learn to disentangle natural
factors of variation in data (e.g. object shape vs. pose). A popular approach
to disentanglement consists in learning to map each of these factors to
distinct subspaces of a model's latent representation. However, this approach
has shown limited empirical success to date. Here, we show that, for a broad
family of transformations acting on images--encompassing simple affine
transformations such as rotations and translations--this approach to
disentanglement introduces topological defects (i.e. discontinuities in the
encoder). Motivated by classical results from group representation theory, we
study an alternative, more flexible approach to disentanglement which relies on
distributed latent operators, potentially acting on the entire latent space. We
theoretically and empirically demonstrate the effectiveness of this approach to
disentangle affine transformations. Our work lays a theoretical foundation for
the recent success of a new generation of models using distributed operators
for disentanglement.
- Abstract(参考訳): 機械学習における中核的な課題は、データの変動の自然要因を解き放つことである。
オブジェクト形状 vs. ポーズ)。
乱れに対する一般的なアプローチは、それぞれの因子をモデルの潜在表現の異なる部分空間にマッピングする学習である。
しかし、このアプローチは経験的な成功をこれまで限定的に示してきた。
ここでは、画像に作用する幅広い変換群において、回転や翻訳などの単純なアフィン変換を包含する、この非絡み合いへのアプローチが位相的欠陥をもたらすことを示します(すなわち)。
エンコーダ内の不連続)。
群表現理論の古典的結果に動機づけられて、分散潜在作用素に依存し、潜在的に潜在空間全体に作用する非絡み合いに対するオルタナティブでより柔軟なアプローチを検討する。
我々は,このアプローチがアフィン変換を不等角化させる効果を理論的に実証的に示す。
我々の研究は、分散演算子を用いた新しい世代のモデルの成功の理論的基礎を築き上げている。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Transfer learning with affine model transformation [18.13383101189326]
本稿では,アフィンモデル転送と呼ばれる,伝達学習の一般的なクラスについて述べる。
アフィンモデル転送は、ニューラル特徴抽出器に基づく最も一般的な手順を含む、様々な既存手法を幅広く包含していることが示されている。
論文 参考訳(メタデータ) (2022-10-18T10:50:24Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Tensor Component Analysis for Interpreting the Latent Space of GANs [41.020230946351816]
本稿では,GANの潜在空間における解釈可能な方向を求める問題に対処する。
提案手法では,テンソルの個々のモードに対応する線形編集と,それらの間の乗法的相互作用をモデル化する非線形編集が可能である。
実験により, 前者は幾何に基づく変換から, 後者は拡張可能な変換を生成できることを示す。
論文 参考訳(メタデータ) (2021-11-23T09:14:39Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。