論文の概要: Self-Conditioned Generative Adversarial Networks for Image Editing
- arxiv url: http://arxiv.org/abs/2202.04040v1
- Date: Tue, 8 Feb 2022 18:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 15:18:08.376410
- Title: Self-Conditioned Generative Adversarial Networks for Image Editing
- Title(参考訳): 画像編集のための自己条件付き生成型逆ネットワーク
- Authors: Yunzhe Liu, Rinon Gal, Amit H. Bermano, Baoquan Chen, Daniel Cohen-Or
- Abstract要約: Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
- 参考スコア(独自算出の注目度): 61.50205580051405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) are susceptible to bias, learned from
either the unbalanced data, or through mode collapse. The networks focus on the
core of the data distribution, leaving the tails - or the edges of the
distribution - behind. We argue that this bias is responsible not only for
fairness concerns, but that it plays a key role in the collapse of
latent-traversal editing methods when deviating away from the distribution's
core. Building on this observation, we outline a method for mitigating
generative bias through a self-conditioning process, where distances in the
latent-space of a pre-trained generator are used to provide initial labels for
the data. By fine-tuning the generator on a re-sampled distribution drawn from
these self-labeled data, we force the generator to better contend with rare
semantic attributes and enable more realistic generation of these properties.
We compare our models to a wide range of latent editing methods, and show that
by alleviating the bias they achieve finer semantic control and better identity
preservation through a wider range of transformations. Our code and models will
be available at https://github.com/yzliu567/sc-gan
- Abstract(参考訳): generative adversarial networks (gans) はバイアスに影響を受けやすく、バランスのとれないデータやモードの崩壊から学んでいる。
ネットワークはデータ分散のコアに集中し、テール(あるいは分布のエッジ)を置き去りにします。
このバイアスは公平な懸念だけでなく、ディストリビューションのコアから切り離す際に潜在トラバーサル編集方法が崩壊する上でも重要な役割を担っていると論じている。
本研究は, 自己条件付けプロセスを通じて生成バイアスを緩和する手法を概説し, 事前学習した発電機の潜伏空間内の距離をデータの初期ラベルとして利用する。
これらの自己ラベル付きデータから得られた再サンプリングされた分布にジェネレータを微調整することにより、ジェネレータは稀なセマンティック属性とよりよく競合し、これらの特性をより現実的な生成を可能にする。
モデルと潜在性編集手法を比較し,バイアスを緩和することで,より広い範囲の変換を通じて,より詳細な意味制御と識別性維持を実現することを示す。
私たちのコードとモデルはhttps://github.com/yzliu567/sc-ganで入手できる。
関連論文リスト
- AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - Balancing Act: Distribution-Guided Debiasing in Diffusion Models [31.38505986239798]
拡散モデル(DM)は、前例のない画像生成能力を持つ強力な生成モデルとして登場した。
DMはトレーニングデータセットに存在するバイアスを反映します。
本稿では、追加データやモデル再学習に頼ることなく、DMをデバイアスする手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T09:53:17Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Self-supervised GANs with Label Augmentation [43.78253518292111]
本稿では,ラベルの強化,すなわち,自己教師付き擬似ラベルによるGANラベル(実物または偽物)の増大を図った,新たな自己教師型GANフレームワークを提案する。
提案手法は,生成モデルと表現学習の両面において,競争ベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。