論文の概要: Rethinking Content and Style: Exploring Bias for Unsupervised
Disentanglement
- arxiv url: http://arxiv.org/abs/2102.10544v1
- Date: Sun, 21 Feb 2021 08:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:24:54.572199
- Title: Rethinking Content and Style: Exploring Bias for Unsupervised
Disentanglement
- Title(参考訳): コンテンツとスタイルを再考する: 教師なしの絡み合いのバイアスを探る
- Authors: Xuanchi Ren, Tao Yang, Yuwang Wang, Wenjun Zeng
- Abstract要約: 本研究では,異なる要因が画像再構成において重要度や人気度が異なるという仮定に基づいて,教師なしc-s異節の定式化を提案する。
モデルインダクティブバイアスは,提案したC-Sアンタングルメントモジュール(C-S DisMo)によって導入された。
いくつかの一般的なデータセットに対する実験により、我々の手法が最先端の教師なしC-Sアンタングルメントを実現することを示す。
- 参考スコア(独自算出の注目度): 59.033559925639075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Content and style (C-S) disentanglement intends to decompose the underlying
explanatory factors of objects into two independent subspaces. From the
unsupervised disentanglement perspective, we rethink content and style and
propose a formulation for unsupervised C-S disentanglement based on our
assumption that different factors are of different importance and popularity
for image reconstruction, which serves as a data bias. The corresponding model
inductive bias is introduced by our proposed C-S disentanglement Module (C-S
DisMo), which assigns different and independent roles to content and style when
approximating the real data distributions. Specifically, each content embedding
from the dataset, which encodes the most dominant factors for image
reconstruction, is assumed to be sampled from a shared distribution across the
dataset. The style embedding for a particular image, encoding the remaining
factors, is used to customize the shared distribution through an affine
transformation. The experiments on several popular datasets demonstrate that
our method achieves the state-of-the-art unsupervised C-S disentanglement,
which is comparable or even better than supervised methods. We verify the
effectiveness of our method by downstream tasks: domain translation and
single-view 3D reconstruction. Project page at
https://github.com/xrenaa/CS-DisMo.
- Abstract(参考訳): content and style (c-s) disentanglementはオブジェクトの基本的な説明要素を2つの独立した部分空間に分解することを目的としている。
教師なしのアンサンブルの観点から、コンテンツとスタイルを再考し、データバイアスとして機能する画像再構築に異なる要因が重要であると仮定して、教師なしのC-Sアンサングル化の定式化を提案します。
実データ分布を近似する際,C-Sディコンタングルメントモジュール(C-S DisMo)により,対応するモデル帰納的バイアスを導入し,異なる役割と独立な役割をコンテンツやスタイルに割り当てる。
具体的には、画像再構築の最も支配的な要因をエンコードするデータセットから埋め込まれた各コンテンツは、データセット全体の共有分布からサンプリングされるものと仮定される。
アフィン変換によって共有分布をカスタマイズするために、残りの因子を符号化する特定の画像に対するスタイル埋め込みが使用される。
いくつかのポピュラーデータセットの実験では、この方法が最先端の監視されていないC-Sの非絡み合いを達成していることが示されています。
提案手法の有効性を,ドメイン翻訳と単一ビュー3D再構成という下流タスクで検証する。
Project page at https://github.com/xrenaa/CS-DisMo
関連論文リスト
- Common-Sense Bias Discovery and Mitigation for Classification Tasks [16.8259488742528]
画像記述に基づいてデータセットの特徴クラスタを抽出するフレームワークを提案する。
解析された特徴と相関は人間に解釈可能であるので、我々はCommon-Sense Bias Discovery (CSBD) という手法を名づける。
実験の結果,2つのベンチマーク画像データセットに対して,複数の分類タスクに新たなバイアスが生じることがわかった。
論文 参考訳(メタデータ) (2024-01-24T03:56:07Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Self-supervised Correlation Mining Network for Person Image Generation [9.505343361614928]
人物画像生成は、ソース画像の非剛性変形を実現することを目的としている。
特徴空間のソース画像を再構成する自己教師付き相関マイニングネットワーク(SCM-Net)を提案する。
クロススケールポーズ変換の忠実度を向上させるために,グラフに基づく身体構造保持損失を提案する。
論文 参考訳(メタデータ) (2021-11-26T03:57:46Z) - Multi-Attribute Balanced Sampling for Disentangled GAN Controls [0.0]
予め訓練されたGANの潜伏空間から、生成されたデータに対する様々な制御を抽出することができる。
提案手法は,非絡み付き後処理の不要さを回避しつつ,最先端の分類器に基づく手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-28T08:44:13Z) - There and back again: Cycle consistency across sets for isolating
factors of variation [43.59036597872957]
私たちは、グループ化の形でデータについて限られた情報がわかっている設定で動作します。
私たちの目標は、グループ間で共通する変化の要因を分離する表現を学ぶことです。
論文 参考訳(メタデータ) (2021-03-04T18:58:45Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。