論文の概要: On the Fairness of Generative Adversarial Networks (GANs)
- arxiv url: http://arxiv.org/abs/2103.00950v1
- Date: Mon, 1 Mar 2021 12:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 16:10:07.037411
- Title: On the Fairness of Generative Adversarial Networks (GANs)
- Title(参考訳): GAN(Generative Adversarial Networks)の公正性について
- Authors: Patrik Joslin Kenfack, Daniil Dmitrievich Arapovy, Rasheed Hussain,
S.M. Ahsan Kazmi, Adil Mehmood Khan
- Abstract要約: GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
- 参考スコア(独自算出の注目度): 1.061960673667643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial networks (GANs) are one of the greatest advances in AI
in recent years. With their ability to directly learn the probability
distribution of data, and then sample synthetic realistic data. Many
applications have emerged, using GANs to solve classical problems in machine
learning, such as data augmentation, class unbalance problems, and fair
representation learning. In this paper, we analyze and highlight fairness
concerns of GANs model. In this regard, we show empirically that GANs models
may inherently prefer certain groups during the training process and therefore
they're not able to homogeneously generate data from different groups during
the testing phase. Furthermore, we propose solutions to solve this issue by
conditioning the GAN model towards samples' group or using ensemble method
(boosting) to allow the GAN model to leverage distributed structure of data
during the training phase and generate groups at equal rate during the testing
phase.
- Abstract(参考訳): GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
データの確率分布を直接学習し、合成現実データをサンプリングする能力を持つ。
データ強化、クラスアンバランス問題、公正表現学習など、機械学習の古典的な問題を解決するためにGANを使用して、多くのアプリケーションが登場した。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
この点で、GANsモデルがトレーニングプロセス中に本質的に特定のグループを好む可能性があることを実証的に示し、したがって、テストフェーズ中に異なるグループからのデータを均質に生成することはできません。
さらに,サンプルグループに対してGANモデルを条件付けしたり,あるいはアンサンブル法(ブースティング)を用いて,トレーニングフェーズ中にデータ分散構造を利用して,テストフェーズ中に同じ速度でグループを生成することで,この問題を解決する方法を提案する。
関連論文リスト
- Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Generative Adversarial Reduced Order Modelling [0.0]
本稿ではGAROMについて述べる。GAN(Generative Adversarial Network)に基づくリダクション・オーダー・モデリング(ROM)の新しいアプローチである。
GANはデータ配布を学習し、よりリアルなデータを生成する可能性がある。
本研究では,パラメータ微分方程式の解を学習可能なデータ駆動生成逆数モデルを導入することにより,GANとROMの枠組みを組み合わせる。
論文 参考訳(メタデータ) (2023-05-25T09:23:33Z) - RepFair-GAN: Mitigating Representation Bias in GANs Using Gradient
Clipping [2.580765958706854]
生成モデルに対する新しい公平性の概念を、同じ保護属性を共有する生成されたサンプルの分布の観点から定義する。
この公平性の概念は、データセットが等しく表現されたグループを含む場合でも破られることを示す。
判別器におけるグループワイド勾配ノルムクリッピングにより群勾配ノルムを制御することにより,より公正なデータ生成につながることを示す。
論文 参考訳(メタデータ) (2022-07-13T14:58:48Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - Partially Conditioned Generative Adversarial Networks [75.08725392017698]
Generative Adversarial Networks (GAN)は、実世界のトレーニングデータセットの基盤となる確率分布を暗黙的にモデル化することで、人工データセットを合成する。
条件付きGANとその変種の導入により、これらの手法はデータセット内の各サンプルで利用可能な補助情報に基づいて条件付きサンプルを生成するように拡張された。
本研究では,標準条件付きGANがそのようなタスクに適さないことを論じ,新たなAdversarial Networkアーキテクチャとトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-07-06T15:59:28Z) - Generative Adversarial Networks (GANs): An Overview of Theoretical
Model, Evaluation Metrics, and Recent Developments [9.023847175654602]
GAN(Generative Adversarial Network)は,大規模データ分散のサンプルを作成する上で有効な手法である。
GANはラベル付きトレーニングデータを広く使用せずにディープ表現を学習する適切な方法を提供する。
GANでは、ジェネレータと識別器のネットワークを同時にトレーニングする競合プロセスを通じて生成モデルを推定する。
論文 参考訳(メタデータ) (2020-05-27T05:56:53Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。