論文の概要: RepFair-GAN: Mitigating Representation Bias in GANs Using Gradient
Clipping
- arxiv url: http://arxiv.org/abs/2207.10653v1
- Date: Wed, 13 Jul 2022 14:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-24 11:39:46.173885
- Title: RepFair-GAN: Mitigating Representation Bias in GANs Using Gradient
Clipping
- Title(参考訳): RepFair-GAN:勾配クリッピングによるGANの表現バイアスの緩和
- Authors: Patrik Joslin Kenfack, Kamil Sabbagh, Ad\'in Ram\'irez Rivera, Adil
Khan
- Abstract要約: 生成モデルに対する新しい公平性の概念を、同じ保護属性を共有する生成されたサンプルの分布の観点から定義する。
この公平性の概念は、データセットが等しく表現されたグループを含む場合でも破られることを示す。
判別器におけるグループワイド勾配ノルムクリッピングにより群勾配ノルムを制御することにより,より公正なデータ生成につながることを示す。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness has become an essential problem in many domains of Machine Learning
(ML), such as classification, natural language processing, and Generative
Adversarial Networks (GANs). In this research effort, we study the unfairness
of GANs. We formally define a new fairness notion for generative models in
terms of the distribution of generated samples sharing the same protected
attributes (gender, race, etc.). The defined fairness notion (representational
fairness) requires the distribution of the sensitive attributes at the test
time to be uniform, and, in particular for GAN model, we show that this
fairness notion is violated even when the dataset contains equally represented
groups, i.e., the generator favors generating one group of samples over the
others at the test time. In this work, we shed light on the source of this
representation bias in GANs along with a straightforward method to overcome
this problem. We first show on two widely used datasets (MNIST, SVHN) that when
the norm of the gradient of one group is more important than the other during
the discriminator's training, the generator favours sampling data from one
group more than the other at test time. We then show that controlling the
groups' gradient norm by performing group-wise gradient norm clipping in the
discriminator during the training leads to a more fair data generation in terms
of representational fairness compared to existing models while preserving the
quality of generated samples.
- Abstract(参考訳): フェアネスは、分類、自然言語処理、GAN(Generative Adversarial Networks)など、機械学習(ML)の多くの領域において重要な問題となっている。
本研究では,GANの不正性について検討する。
我々は、同じ保護された属性(生成者、人種など)を共有する生成サンプルの分布の観点から、生成モデルに対する新しい公平性の概念を正式に定義する。
定義されたフェアネスの概念(表現フェアネス)は、テスト時の感度特性の分布を均一にする必要があるが、特にGANモデルでは、データセットが等しく表現された群を含む場合でも、このフェアネスの概念が違反していることを示す。
本稿では,GANにおける表現バイアスの源泉と,この問題を克服するための簡単な方法について述べる。
まず,2つの広く使用されているデータセット (MNIST, SVHN) について, 判別器の訓練において, 集団の勾配のノルムが他方よりも重要である場合, ジェネレータは, テスト時に他のグループよりも多くのデータをサンプリングすることが好ましいことを示した。
次に,グループワイド・グラデーション・ノルムを訓練中に判別器でクリッピングすることにより群勾配ノルムを制御することにより,既存のモデルと比較して表現フェアネスの点で,より公平なデータ生成につながることを示す。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - On the Privacy Properties of GAN-generated Samples [12.765060550622422]
GANが生成するサンプルは、本質的にいくつかの(弱い)プライバシー保証を満たすことを示す。
また,GAN生成サンプルのメンバシップ推論攻撃に対する堅牢性についても検討した。
論文 参考訳(メタデータ) (2022-06-03T00:29:35Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - cGANs with Auxiliary Discriminative Classifier [43.78253518292111]
条件付き生成モデルは、データとラベルの基本的な結合分布を学習することを目的としている。
副分類器生成敵ネットワーク (AC-GAN) は広く用いられているが, 生成標本のクラス内多様性の低い問題に悩まされている。
本稿では,AC-GANの問題に対処するため,補助識別器(ADC-GAN)を用いた新しいcGANを提案する。
論文 参考訳(メタデータ) (2021-07-21T13:06:32Z) - Self-supervised GANs with Label Augmentation [43.78253518292111]
本稿では,ラベルの強化,すなわち,自己教師付き擬似ラベルによるGANラベル(実物または偽物)の増大を図った,新たな自己教師型GANフレームワークを提案する。
提案手法は,生成モデルと表現学習の両面において,競争ベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - On the Fairness of Generative Adversarial Networks (GANs) [1.061960673667643]
GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
論文 参考訳(メタデータ) (2021-03-01T12:25:01Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。