論文の概要: Where and What? Examining Interpretable Disentangled Representations
- arxiv url: http://arxiv.org/abs/2104.05622v1
- Date: Wed, 7 Apr 2021 11:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:42:07.186375
- Title: Where and What? Examining Interpretable Disentangled Representations
- Title(参考訳): 場所と場所は?
解釈可能な不整形表現の検討
- Authors: Xinqi Zhu, Chang Xu, Dacheng Tao
- Abstract要約: 解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
- 参考スコア(独自算出の注目度): 96.32813624341833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing interpretable variations has long been one of the goals in
disentanglement learning. However, unlike the independence assumption,
interpretability has rarely been exploited to encourage disentanglement in the
unsupervised setting. In this paper, we examine the interpretability of
disentangled representations by investigating two questions: where to be
interpreted and what to be interpreted? A latent code is easily to be
interpreted if it would consistently impact a certain subarea of the resulting
generated image. We thus propose to learn a spatial mask to localize the effect
of each individual latent dimension. On the other hand, interpretability
usually comes from latent dimensions that capture simple and basic variations
in data. We thus impose a perturbation on a certain dimension of the latent
code, and expect to identify the perturbation along this dimension from the
generated images so that the encoding of simple variations can be enforced.
Additionally, we develop an unsupervised model selection method, which
accumulates perceptual distance scores along axes in the latent space. On
various datasets, our models can learn high-quality disentangled
representations without supervision, showing the proposed modeling of
interpretability is an effective proxy for achieving unsupervised
disentanglement.
- Abstract(参考訳): 解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
しかし、独立の前提と異なり、教師なしの環境での混乱を促すために解釈可能性を利用することはめったにない。
本稿では, 解釈対象と解釈対象の2つの質問について検討し, 不連続表現の解釈可能性について検討する。
潜在コードは、生成された画像の特定の部分領域に一貫して影響を及ぼす場合、容易に解釈できる。
そこで我々は,個々の潜在次元の効果を局所化する空間マスクの学習を提案する。
一方、解釈可能性は通常、データの単純かつ基本的なバリエーションをキャプチャする潜在次元に由来する。
したがって、潜在コードのある次元に摂動を課し、生成された画像からこの次元に沿った摂動を識別し、単純なバリエーションの符号化を強制できることを期待している。
さらに,潜在空間における軸に沿った知覚距離スコアを蓄積する教師なしモデル選択法を開発した。
様々なデータセット上では,提案する解釈可能性のモデル化が教師なし不規則化を実現する効果的な指標であることを示すため,モデルが監視なしで高品質な不絡み合い表現を学習できる。
関連論文リスト
- Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Semantic uncertainty intervals for disentangled latent spaces [30.254614465166245]
基本生成モデルに対する真の意味的要素を含むことが保証される原則付き不確実区間を提供する。
この技術は、画像の超解像や画像補完といった逆問題において、意味論的、原則的、インスタンス適応的な不確実性を確実に伝達する。
論文 参考訳(メタデータ) (2022-07-20T17:58:10Z) - Weakly Supervised Representation Learning with Sparse Perturbations [82.39171485023276]
潜伏変数のスパース摂動によって生じる観測の監督が弱い場合、未知の連続潜伏分布の下で識別が達成可能であることを示す。
本稿では,この理論に基づく自然な推定手法を提案し,それを低次元の合成および画像に基づく実験で説明する。
論文 参考訳(メタデータ) (2022-06-02T15:30:07Z) - Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders [63.46738617561255]
訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-19T01:27:21Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。