論文の概要: Unsupervised Disentanglement with Tensor Product Representations on the
Torus
- arxiv url: http://arxiv.org/abs/2202.06201v1
- Date: Sun, 13 Feb 2022 04:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 15:47:33.568464
- Title: Unsupervised Disentanglement with Tensor Product Representations on the
Torus
- Title(参考訳): トーラス上のテンソル積表現による教師なし歪み
- Authors: Michael Rotman, Amit Dekel, Shir Gur, Yaron Oz, Lior Wolf
- Abstract要約: オートエンコーダで表現を学習する現在の方法では、ほとんどベクターを潜在表現として用いている。
本研究では,この目的のためにテンソル積構造を用いることを提案する。
通常分布する特徴を対象とする従来の変分法とは対照的に,表現の潜在空間は単位円の集合上に均一に分布する。
- 参考スコア(独自算出の注目度): 78.6315881294899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current methods for learning representations with auto-encoders almost
exclusively employ vectors as the latent representations. In this work, we
propose to employ a tensor product structure for this purpose. This way, the
obtained representations are naturally disentangled. In contrast to the
conventional variations methods, which are targeted toward normally distributed
features, the latent space in our representation is distributed uniformly over
a set of unit circles. We argue that the torus structure of the latent space
captures the generative factors effectively. We employ recent tools for
measuring unsupervised disentanglement, and in an extensive set of experiments
demonstrate the advantage of our method in terms of disentanglement,
completeness, and informativeness. The code for our proposed method is
available at https://github.com/rotmanmi/Unsupervised-Disentanglement-Torus.
- Abstract(参考訳): 現在のオートエンコーダによる表現の学習方法は、ほとんどが潜在表現としてベクトルを用いる。
本研究では,この目的のためにテンソル積構造を用いることを提案する。
このように、得られた表現は自然に絡み合っている。
通常分布する特徴を対象とする従来の変分法とは対照的に、我々の表現における潜在空間は単位円の組に一様に分布する。
我々は、潜伏空間のトーラス構造が生成因子を効果的に捉えていると論じる。
我々は,近年の非教師付き異方性測定ツールを用いて,異方性,完全性,情報性という観点から,本手法の利点を実証する実験を行った。
提案手法のコードはhttps://github.com/rotmanmi/unsupervised-disentanglement-torusで利用可能である。
関連論文リスト
- Disentangling Disentangled Representations: Towards Improved Latent Units via Diffusion Models [3.1923251959845214]
Disentangled Expression Learning (DRL) は、観測されたデータをコア固有の要素に分解して、データの深い理解を目指している。
近年,教師なしDRLにおける拡散モデル(DM)の利用について,限定的な調査が行われている。
より解釈可能なDRLに対して属性分離型潜在ユニットを強制する動的ガウスアンチョリングを提案する。
また、よりDRLフレンドリーなU-Netを容易に修正できるスキップドロップアウト手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T11:05:09Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Orthogonal Jacobian Regularization for Unsupervised Disentanglement in
Image Generation [64.92152574895111]
直交ジャコビアン正規化法(OroJaR)を提案する。
提案手法は, 絡み合った, 制御可能な画像生成に有効であり, 最先端の手法に対して好適に機能する。
論文 参考訳(メタデータ) (2021-08-17T15:01:46Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。