論文の概要: Fair GANs through model rebalancing with synthetic data
- arxiv url: http://arxiv.org/abs/2308.08638v1
- Date: Wed, 16 Aug 2023 19:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:54:33.441236
- Title: Fair GANs through model rebalancing with synthetic data
- Title(参考訳): 合成データを用いたモデルレバランシングによる公正なGAN
- Authors: Anubhav Jain, Nasir Memon, Julian Togelius
- Abstract要約: 本稿では,モデル分布の再バランスにより,既存の生成逆数ネットワークにおけるバイアスを軽減する手法を提案する。
我々は、潜在空間探索を用いて、既存の不均衡な深層生成モデルから平衡データを生成し、このデータを用いて、バランスの取れた生成モデルを訓練する。
FFHQデータセットを用いた人種的公平性のトレーニング中に、Stylegan2モデルの結果を示し、画像の品質を維持しながら、提案手法がフェアネスの指標をほぼ5倍改善することを確認する。
- 参考スコア(独自算出の注目度): 5.463417677777276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models require large amounts of training data. This often
poses a problem as the collection of datasets can be expensive and difficult,
in particular datasets that are representative of the appropriate underlying
distribution (e.g. demographic). This introduces biases in datasets which are
further propagated in the models. We present an approach to mitigate biases in
an existing generative adversarial network by rebalancing the model
distribution. We do so by generating balanced data from an existing unbalanced
deep generative model using latent space exploration and using this data to
train a balanced generative model. Further, we propose a bias mitigation loss
function that shows improvements in the fairness metric even when trained with
unbalanced datasets. We show results for the Stylegan2 models while training on
the FFHQ dataset for racial fairness and see that the proposed approach
improves on the fairness metric by almost 5 times, whilst maintaining image
quality. We further validate our approach by applying it to an imbalanced
Cifar-10 dataset. Lastly, we argue that the traditionally used image quality
metrics such as Frechet inception distance (FID) are unsuitable for bias
mitigation problems.
- Abstract(参考訳): 深層生成モデルは大量のトレーニングデータを必要とする。
これはしばしば、データセットの収集が高価で難しいため、特に適切な基礎となる分布(例えば人口統計学)を表すデータセットが問題となる。
これにより、モデルにさらに伝播するデータセットのバイアスが発生する。
本稿では,モデル分布の再バランスにより,既存の生成逆数ネットワークにおけるバイアスを軽減する手法を提案する。
我々は、潜在空間探索を用いて既存の非平衡深層生成モデルからバランスのとれたデータを生成し、このデータを用いてバランスのとれた生成モデルを訓練する。
さらに,不均衡データセットでトレーニングした場合でも,公平度指標の改善を示すバイアス緩和損失関数を提案する。
FFHQデータセットを用いた人種的公平性のトレーニング中に、Stylegan2モデルの結果を示し、画像の品質を維持しながら、提案手法がフェアネスの指標をほぼ5倍改善することを確認する。
さらに,不均衡なcifar-10データセットに適用することで,このアプローチを検証した。
最後に,frechetインセプション距離(fid)などの従来の画像品質指標は,バイアス緩和問題には適さないと主張する。
関連論文リスト
- Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。