論文の概要: Representation Decomposition for Image Manipulation and Beyond
- arxiv url: http://arxiv.org/abs/2011.00788v2
- Date: Wed, 23 Mar 2022 09:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:15:26.648694
- Title: Representation Decomposition for Image Manipulation and Beyond
- Title(参考訳): 画像操作とそれ以上の表現の分解
- Authors: Shang-Fu Chen, Jia-Wei Yan, Ya-Fan Su, Yu-Chiang Frank Wang
- Abstract要約: 分解GAN(dec-GAN)は、既存の潜在表現をコンテンツや属性に分解することができる。
複数の画像データセットに対する実験により、最近の表現不絡合モデルよりもデジGANの有効性とロバスト性が確認された。
- 参考スコア(独自算出の注目度): 29.991777603295816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation disentanglement aims at learning interpretable features, so
that the output can be recovered or manipulated accordingly. While existing
works like infoGAN and AC-GAN exist, they choose to derive disjoint attribute
code for feature disentanglement, which is not applicable for existing/trained
generative models. In this paper, we propose a decomposition-GAN (dec-GAN),
which is able to achieve the decomposition of an existing latent representation
into content and attribute features. Guided by the classifier pre-trained on
the attributes of interest, our dec-GAN decomposes the attributes of interest
from the latent representation, while data recovery and feature consistency
objectives enforce the learning of our proposed method. Our experiments on
multiple image datasets confirm the effectiveness and robustness of our dec-GAN
over recent representation disentanglement models.
- Abstract(参考訳): Representation Disentanglementは解釈可能な特徴を学習することを目的としており、それによって出力を回復または操作することができる。
インフォGANやAC-GANのような既存の研究は存在するが、既存の/訓練された生成モデルには適用できない特徴の非結合属性コードを導出することを選択する。
本稿では,既存の潜在表現をコンテンツや属性に分解できる分解GAN(dec-GAN)を提案する。
興味の属性に基づいて事前学習された分類器によってガイドされ、dec-GANは興味の属性を潜在表現から分解し、データリカバリと特徴整合目的は提案手法の学習を強制する。
複数画像データセットを用いた実験により,dec-ganの有効性とロバスト性が確認できた。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Multi-Attribute Balanced Sampling for Disentangled GAN Controls [0.0]
予め訓練されたGANの潜伏空間から、生成されたデータに対する様々な制御を抽出することができる。
提案手法は,非絡み付き後処理の不要さを回避しつつ,最先端の分類器に基づく手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-28T08:44:13Z) - GLOWin: A Flow-based Invertible Generative Framework for Learning
Disentangled Feature Representations in Medical Images [40.58581577183134]
可逆関数によるデータ分布を直接モデル化することにより,現実的な画像を生成するフローベースの生成モデルが提案されている。
本稿では, エンドツーエンドのインバータブルで, 絡み合った表現を学習できる, フローベースの生成モデルフレームワーク glowin を提案する。
論文 参考訳(メタデータ) (2021-03-19T15:47:01Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Two-Level Adversarial Visual-Semantic Coupling for Generalized Zero-shot
Learning [21.89909688056478]
トレーニング中に推論ネットワークを用いて生成ネットワークを増強する2段階のジョイントアイデアを提案する。
これにより、ビジュアルドメインとセマンティックドメイン間の効果的な知識伝達のための強力な相互モーダル相互作用が提供される。
提案手法は,4つのベンチマークデータセットに対して,いくつかの最先端手法に対して評価し,その性能を示す。
論文 参考訳(メタデータ) (2020-07-15T15:34:09Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。