論文の概要: Inclusive GAN: Improving Data and Minority Coverage in Generative Models
- arxiv url: http://arxiv.org/abs/2004.03355v3
- Date: Sun, 23 Aug 2020 01:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:25:16.752195
- Title: Inclusive GAN: Improving Data and Minority Coverage in Generative Models
- Title(参考訳): 包括的GAN: 生成モデルにおけるデータとマイノリティカバレッジの改善
- Authors: Ning Yu, Ke Li, Peng Zhou, Jitendra Malik, Larry Davis, Mario Fritz
- Abstract要約: データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化する。
次に、再構成世代と敵対的トレーニングを調和させることにより、データカバレッジを改善することを提案する。
我々は、モデルが確実に含めるべきマイノリティサブグループを明示的に制御できる拡張を開発する。
- 参考スコア(独自算出の注目度): 101.67587566218928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have brought about rapid progress
towards generating photorealistic images. Yet the equitable allocation of their
modeling capacity among subgroups has received less attention, which could lead
to potential biases against underrepresented minorities if left uncontrolled.
In this work, we first formalize the problem of minority inclusion as one of
data coverage, and then propose to improve data coverage by harmonizing
adversarial training with reconstructive generation. The experiments show that
our method outperforms the existing state-of-the-art methods in terms of data
coverage on both seen and unseen data. We develop an extension that allows
explicit control over the minority subgroups that the model should ensure to
include, and validate its effectiveness at little compromise from the overall
performance on the entire dataset. Code, models, and supplemental videos are
available at GitHub.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、フォトリアリスティック画像の生成に向けて急速に進歩している。
しかし、サブグループ間のモデリング能力の均等な配分は、あまり制御されていないマイノリティに対する潜在的なバイアスをもたらす可能性があるとして、あまり注目されていない。
本研究ではまず,データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化し,その上で,コンストラクティブ・ジェネレーションと敵対的トレーニングを調和させてデータカバレッジを改善することを提案する。
実験の結果,本手法は実データと未発見データの両方のデータカバレッジにおいて,既存の最先端手法よりも優れていることがわかった。
我々は、モデルが含めるべき少数小グループを明示的に制御できる拡張を開発し、データセット全体の全体的なパフォーマンスからほとんど妥協なくその有効性を検証します。
コード、モデル、補足ビデオはgithubから入手できる。
関連論文リスト
- Mind the GAP: Improving Robustness to Subpopulation Shifts with Group-Aware Priors [46.03963664373476]
我々は、サブポピュレーションシフトの下でよく一般化するモデルを明示的に好むニューラルネットワークパラメータ上で、GAP(group-aware prior)分布のファミリーを開発する。
我々は、以前トレーニングされた非ロバストモデルの最終層のみをトレーニングしても、GAPによるトレーニングが最先端のパフォーマンスをもたらすことを実証する。
論文 参考訳(メタデータ) (2024-03-14T21:00:26Z) - Chameleon: Foundation Models for Fairness-aware Multi-modal Data
Augmentation to Enhance Coverage of Minorities [25.215178019059874]
訓練データにおけるマイノリティの下位表現は、よく認識されている関心事である。
提案するChameleonは、最小限の設定を加えてデータセットを拡張して、表現されていないグループの範囲を拡大するシステムである。
提案アルゴリズムの有効性を確認するとともに,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-02T00:16:45Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Fair Diffusion: Instructing Text-to-Image Generation Models on Fairness [15.059419033330126]
生成テキストから画像への展開後のバイアスを軽減するために,Fair Diffusionと呼ばれる新しい手法を提案する。
具体的には、人間の指示に基づいて、任意の方向にバイアスをシフトさせることで、例えば、アイデンティティグループに対して任意に新しい比率が得られることを示す。
この制御を導入することで、データフィルタリングや追加のトレーニングを必要とせず、公平さで生成イメージモデルを指示することができる。
論文 参考訳(メタデータ) (2023-02-07T18:25:28Z) - Mitigating Health Data Poverty: Generative Approaches versus Resampling
for Time-series Clinical Data [0.2867517731896504]
再サンプリング(SMOTEなど)を使用したマイノリティクラスの拡張は、アルゴリズムの単純さのために広く使われているアプローチである。
提案手法は, マイノリティクラスの真正データの生成と, 実データの元の分布に留まることの両立を図っている。
論文 参考訳(メタデータ) (2022-10-25T12:30:48Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。