論文の概要: Disentangling images with Lie group transformations and sparse coding
- arxiv url: http://arxiv.org/abs/2012.12071v1
- Date: Fri, 11 Dec 2020 19:11:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:08:48.244042
- Title: Disentangling images with Lie group transformations and sparse coding
- Title(参考訳): リー群変換とスパース符号化による画像の分離
- Authors: Ho Yin Chau, Frank Qiu, Yubei Chen, Bruno Olshausen
- Abstract要約: 空間パターンとその連続的な変換を、完全に教師なしの方法で区別することを学ぶモデルを訓練する。
特定のMNIST桁の制御された幾何変換からなるデータセット上でモデルをトレーニングすると、これらの変換を桁とともに復元できることが分かる。
- 参考スコア(独自算出の注目度): 3.3454373538792552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete spatial patterns and their continuous transformations are two
important regularities contained in natural signals. Lie groups and
representation theory are mathematical tools that have been used in previous
works to model continuous image transformations. On the other hand, sparse
coding is an important tool for learning dictionaries of patterns in natural
signals. In this paper, we combine these ideas in a Bayesian generative model
that learns to disentangle spatial patterns and their continuous
transformations in a completely unsupervised manner. Images are modeled as a
sparse superposition of shape components followed by a transformation that is
parameterized by n continuous variables. The shape components and
transformations are not predefined, but are instead adapted to learn the
symmetries in the data, with the constraint that the transformations form a
representation of an n-dimensional torus. Training the model on a dataset
consisting of controlled geometric transformations of specific MNIST digits
shows that it can recover these transformations along with the digits. Training
on the full MNIST dataset shows that it can learn both the basic digit shapes
and the natural transformations such as shearing and stretching that are
contained in this data.
- Abstract(参考訳): 離散空間パターンとその連続変換は、自然信号に含まれる2つの重要な規則性である。
リー群と表現論(英: Lie group and representation theory)は、連続的な画像変換をモデル化するために過去の研究で使われた数学的ツールである。
一方、スパース符号化は自然信号のパターンの辞書を学習するための重要なツールである。
本稿では,これらのアイデアを,空間パターンと連続的な変換を完全に教師なしの方法で解離するベイズ生成モデルに組み合わせる。
画像は形状成分のスパース重ね合わせとしてモデル化され、n個の連続変数によってパラメータ化される変換が続く。
形状成分や変換は事前に定義されていないが、代わりに変換が n-次元トーラスの表現を形成するという制約により、データの対称性を学ぶために適応される。
特定のMNIST桁の制御された幾何変換からなるデータセット上でモデルをトレーニングすると、これらの変換を桁とともに復元できることが分かる。
完全なmnistデータセットのトレーニングは、基本桁の形状と、このデータに含まれるせん断やストレッチといった自然変換の両方を学習できることを示しています。
関連論文リスト
- Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Current Symmetry Group Equivariant Convolution Frameworks for Representation Learning [5.802794302956837]
ユークリッドの深層学習はしばしば、表現空間が不規則で複雑な位相で湾曲した実世界の信号に対処するのに不十分である。
我々は、対称性群同変深層学習モデルの重要性と、グラフや3次元形状、非ユークリッド空間における畳み込みのような操作の実現に焦点を当てる。
論文 参考訳(メタデータ) (2024-09-11T15:07:18Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Learning Symmetric Embeddings for Equivariant World Models [9.781637768189158]
入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
論文 参考訳(メタデータ) (2022-04-24T22:31:52Z) - Disentangling Patterns and Transformations from One Sequence of Images
with Shape-invariant Lie Group Transformer [0.0]
我々は、よりシンプルで直感的な定式化に基づいて、複数の独立したパターンと変換を組み合わせた新しい表現学習のアプローチを採っている。
本稿では,シーンを1つの画像列のみからパターンとリー変換の基本成分の最小値に分解するモデルを提案する。
論文 参考訳(メタデータ) (2022-03-21T11:55:13Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields [95.39603371087921]
入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状収集を学ぶための最近のアプローチである。
我々は,暗黙的ニューラル表現に対する変形認識正規化を提唱し,遅延コードの変化として可塑性変形を生成することを目的とした。
論文 参考訳(メタデータ) (2021-08-19T22:07:08Z) - Robust Training Using Natural Transformation [19.455666609149567]
画像分類アルゴリズムのロバスト性を改善するための逆学習手法であるNaTraを提案する。
クラス識別とは無関係な入力画像の属性をターゲティングし、それらの属性を操作して実世界の自然変換を模倣します。
本手法の有効性を,よく訓練されたGANから導かれる非絡み合った潜在表現を用いて実証する。
論文 参考訳(メタデータ) (2021-05-10T01:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。