論文の概要: Improving the Fairness of Deep Generative Models without Retraining
- arxiv url: http://arxiv.org/abs/2012.04842v2
- Date: Mon, 29 Mar 2021 08:55:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:15:58.395811
- Title: Improving the Fairness of Deep Generative Models without Retraining
- Title(参考訳): 訓練を伴わない深部生成モデルの公正性向上
- Authors: Shuhan Tan, Yujun Shen, Bolei Zhou
- Abstract要約: GAN(Generative Adversarial Networks)は、観測データの基盤となる分布を学習し、顔合成を進める。
高品質な生成顔にもかかわらず、一部の少数グループはバイアス画像生成プロセスのためにトレーニングされたモデルから生成されることは稀である。
アウトプット顔面特性を再訓練することなくバランスをとるための解釈可能なベースライン法を提案する。
- 参考スコア(独自算出の注目度): 41.6580482370894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) advance face synthesis through
learning the underlying distribution of observed data. Despite the high-quality
generated faces, some minority groups can be rarely generated from the trained
models due to a biased image generation process. To study the issue, we first
conduct an empirical study on a pre-trained face synthesis model. We observe
that after training the GAN model not only carries the biases in the training
data but also amplifies them to some degree in the image generation process. To
further improve the fairness of image generation, we propose an interpretable
baseline method to balance the output facial attributes without retraining. The
proposed method shifts the interpretable semantic distribution in the latent
space for a more balanced image generation while preserving the sample
diversity. Besides producing more balanced data regarding a particular
attribute (e.g., race, gender, etc.), our method is generalizable to handle
more than one attribute at a time and synthesize samples of fine-grained
subgroups. We further show the positive applicability of the balanced data
sampled from GANs to quantify the biases in other face recognition systems,
like commercial face attribute classifiers and face super-resolution
algorithms.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、観測データの基盤となる分布を学習して顔合成を進める。
高品質な生成顔にもかかわらず、一部の少数グループはバイアス画像生成プロセスのために訓練されたモデルから生成されることはほとんどない。
本研究は,まず,事前学習した顔合成モデルに関する実証的研究を行う。
我々は、GANモデルをトレーニングした後、トレーニングデータにバイアスを持つだけでなく、画像生成プロセスのある程度の増幅も行うことを観察した。
画像生成の公平性をさらに高めるために,出力された顔属性を再訓練することなくバランスをとるための解釈可能なベースライン手法を提案する。
提案手法は, サンプルの多様性を維持しつつ, よりバランスの取れた画像生成のために, 潜在空間における解釈可能な意味分布をシフトする。
特定の属性(例えば、人種、性別など)に関するよりバランスのとれたデータを生成すること。
本手法は,複数の属性を一度に処理し,細粒度サブグループのサンプルを合成できる。
さらに,ganからサンプリングしたバランスデータの正適用性を示し,商用顔属性分類器や顔超解像アルゴリズムなど,他の顔認識システムにおけるバイアスを定量化する。
関連論文リスト
- Sampling Strategies for Mitigating Bias in Face Synthesis Methods [12.604667154855532]
本稿では,Flickr Faces データセット HQ で訓練されたStyleGAN2 生成モデルのバイアスについて検討する。
我々は、性別と年齢という2つの保護された属性に注目し、ランダムにサンプリングされた画像が、非常に若く、非常に高齢なグループや、女性の顔に対して分布することを明らかにする。
論文 参考訳(メタデータ) (2024-05-18T15:30:14Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Gaussian Harmony: Attaining Fairness in Diffusion-based Face Generation
Models [31.688873613213392]
拡散モデルは生成過程のバイアスを増幅し、年齢、性別、人種などの敏感な属性の分布の不均衡をもたらす。
ガウス混合モデル(GMM)を用いて拡散モデルの潜時空間における顔特性の手段を局在させることによりバイアスを軽減する。
その結果, 提案手法は, 生成したサンプルの品質を保ちながら, 表現フェアネスの観点から, より公平なデータ生成につながることが示された。
論文 参考訳(メタデータ) (2023-12-21T20:06:15Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Fair Diffusion: Instructing Text-to-Image Generation Models on Fairness [15.059419033330126]
生成テキストから画像への展開後のバイアスを軽減するために,Fair Diffusionと呼ばれる新しい手法を提案する。
具体的には、人間の指示に基づいて、任意の方向にバイアスをシフトさせることで、例えば、アイデンティティグループに対して任意に新しい比率が得られることを示す。
この制御を導入することで、データフィルタリングや追加のトレーニングを必要とせず、公平さで生成イメージモデルを指示することができる。
論文 参考訳(メタデータ) (2023-02-07T18:25:28Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Pixel-based Facial Expression Synthesis [1.7056768055368383]
本稿では,各出力画素が1つの入力画素のみを観測する,画素ベースの表情合成手法を提案する。
提案するモデルは2桁の規模で,リソース制約のあるデバイスへの展開に適している。
論文 参考訳(メタデータ) (2020-10-27T16:00:45Z) - One-Shot Domain Adaptation For Face Generation [34.882820002799626]
本稿では,与えられた一発例と同じ分布に陥る顔画像を生成するフレームワークを提案する。
出力の高レベル分布を目標にシフトするために,モデルの重みを迅速に適応させる反復最適化手法を開発した。
同じ分布の画像を生成するために,ターゲットからランダムに生成した顔へ低レベル統計を転送するスタイルミキシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-28T18:50:13Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。