論文の概要: Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration
- arxiv url: http://arxiv.org/abs/2111.02316v1
- Date: Wed, 3 Nov 2021 16:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 15:28:39.998357
- Title: Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration
- Title(参考訳): 境界校正による生成相反ネットワークのモデル適合性の向上
- Authors: Si-An Chen, Chun-Liang Li, Hsuan-Tien Lin
- Abstract要約: 境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
- 参考スコア(独自算出の注目度): 24.28407308818025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) is a powerful family of models that
learn an underlying distribution to generate synthetic data. Many existing
studies of GANs focus on improving the realness of the generated image data for
visual applications, and few of them concern about improving the quality of the
generated data for training other classifiers -- a task known as the model
compatibility problem. As a consequence, existing GANs often prefer generating
`easier' synthetic data that are far from the boundaries of the classifiers,
and refrain from generating near-boundary data, which are known to play an
important roles in training the classifiers. To improve GAN in terms of model
compatibility, we propose Boundary-Calibration GANs (BCGANs), which leverage
the boundary information from a set of pre-trained classifiers using the
original data. In particular, we introduce an auxiliary Boundary-Calibration
loss (BC-loss) into the generator of GAN to match the statistics between the
posterior distributions of original data and generated data with respect to the
boundaries of the pre-trained classifiers. The BC-loss is provably unbiased and
can be easily coupled with different GAN variants to improve their model
compatibility. Experimental results demonstrate that BCGANs not only generate
realistic images like original GANs but also achieves superior model
compatibility than the original GANs.
- Abstract(参考訳): Generative Adversarial Networks (GAN) は、基礎となる分布を学習して合成データを生成する強力なモデル群である。
gansの既存の研究の多くは、視覚アプリケーションのために生成された画像データの現実性を改善することに焦点を当てており、それらのうち、他の分類器を訓練するための生成されたデータの品質向上に関心を持つものはほとんどない。
その結果、既存のganは分類器の境界に遠く及ばない'easier'合成データを生成することを好むことが多く、分類器の訓練において重要な役割を果たすことが知られている、境界に近いデータの生成を控えている。
モデル整合性の観点からGANを改善するために,元データを用いて事前学習した分類器の集合からの境界情報を利用する境界校正GAN(BCGAN)を提案する。
特に, GAN の生成元に補助的境界校正損失 (BC-loss) を導入し, 事前学習した分類器の境界に関する原データの後方分布と生成されたデータの統計値とを一致させる。
BC-loss は明らかにバイアスがなく、モデル互換性を改善するために異なる GAN 変種と簡単に結合できる。
実験により、BCGANはオリジナルのGANのようなリアルな画像を生成するだけでなく、オリジナルのGANよりも優れたモデル互換性を実現することが示された。
関連論文リスト
- Bt-GAN: Generating Fair Synthetic Healthdata via Bias-transforming Generative Adversarial Networks [3.3903891679981593]
本稿では,医療領域に特化して設計されたGANベースの合成データジェネレータであるBias-transforming Generative Adversarial Networks (Bt-GAN)について述べる。
以上の結果から,Bt-GANはSOTA精度を向上し,公平性とバイアスの最小化を図った。
論文 参考訳(メタデータ) (2024-04-21T12:16:38Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation [108.11783463263328]
本稿では, 生成モデルに基づくノイズ・ロバスト訓練法(GeNRT)を提案する。
ラベルノイズを緩和しながらドメインシフトを除去する。
Office-Home、PACS、Digit-Fiveの実験は、GeNRTが最先端のメソッドに匹敵するパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-03-10T06:43:55Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Improving the quality of generative models through Smirnov
transformation [1.3492000366723798]
本稿では,ジェネレータの出力として使用される新しいアクティベーション関数を提案する。
これはスミルノフ確率変換に基づいており、生成されたデータの品質を改善するために特別に設計されている。
論文 参考訳(メタデータ) (2021-10-29T17:01:06Z) - On the Fairness of Generative Adversarial Networks (GANs) [1.061960673667643]
GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
論文 参考訳(メタデータ) (2021-03-01T12:25:01Z) - HGAN: Hybrid Generative Adversarial Network [25.940501417539416]
本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
論文 参考訳(メタデータ) (2021-02-07T03:54:12Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。