論文の概要: Fair GANs through model rebalancing for extremely imbalanced class
distributions
- arxiv url: http://arxiv.org/abs/2308.08638v2
- Date: Thu, 21 Dec 2023 16:22:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 18:32:34.619492
- Title: Fair GANs through model rebalancing for extremely imbalanced class
distributions
- Title(参考訳): 極めて不均衡なクラス分布に対するモデル再バランスによる公正なGAN
- Authors: Anubhav Jain, Nasir Memon, Julian Togelius
- Abstract要約: 本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
- 参考スコア(独自算出の注目度): 5.463417677777276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models require large amounts of training data. This often
poses a problem as the collection of datasets can be expensive and difficult,
in particular datasets that are representative of the appropriate underlying
distribution (e.g. demographic). This introduces biases in datasets which are
further propagated in the models. We present an approach to construct an
unbiased generative adversarial network (GAN) from an existing biased GAN by
rebalancing the model distribution. We do so by generating balanced data from
an existing imbalanced deep generative model using an evolutionary algorithm
and then using this data to train a balanced generative model. Additionally, we
propose a bias mitigation loss function that minimizes the deviation of the
learned class distribution from being equiprobable. We show results for the
StyleGAN2 models while training on the Flickr Faces High Quality (FFHQ) dataset
for racial fairness and see that the proposed approach improves on the fairness
metric by almost 5 times, whilst maintaining image quality. We further validate
our approach by applying it to an imbalanced CIFAR10 dataset where we show that
we can obtain comparable fairness and image quality as when training on a
balanced CIFAR10 dataset which is also twice as large. Lastly, we argue that
the traditionally used image quality metrics such as Frechet inception distance
(FID) are unsuitable for scenarios where the class distributions are imbalanced
and a balanced reference set is not available.
- Abstract(参考訳): 深層生成モデルは大量のトレーニングデータを必要とする。
これはしばしば、データセットの収集が高価で難しいため、特に適切な基礎となる分布(例えば人口統計学)を表すデータセットが問題となる。
これにより、モデルにさらに伝播するデータセットのバイアスが発生する。
本稿では,モデル分布を再バランスさせることにより,既存のバイアス付きGANからGANを構築する手法を提案する。
進化的アルゴリズムを用いて、既存の不均衡な深層生成モデルから平衡データを生成し、このデータを用いてバランスの取れた生成モデルを訓練する。
さらに,学習したクラス分布の偏差を等確率に抑えるバイアス緩和損失関数を提案する。
Flickr Faces High Quality(FFHQ)データセットで人種的公正度をトレーニングしながら、StyleGAN2モデルの結果を示し、画像品質を維持しながら、提案手法が公正度基準をほぼ5倍改善することを確認する。
さらに、バランスの取れないCIFAR10データセットに適用することで、バランスのとれたCIFAR10データセットのトレーニングにおいて、同等の公平性と画質を得ることができることを示す。
最後に,Frechet Inception distance (FID) などの従来の画像品質指標は,クラス分布が不均衡であり,参照セットのバランスが取れないシナリオには適さないと論じる。
関連論文リスト
- Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。