論文の概要: Self-Diagnosing GAN: Diagnosing Underrepresented Samples in Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2102.12033v1
- Date: Wed, 24 Feb 2021 02:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 15:34:19.749071
- Title: Self-Diagnosing GAN: Diagnosing Underrepresented Samples in Generative
Adversarial Networks
- Title(参考訳): 生成型adversarial networkにおける自己診断gan:未表示サンプルの診断
- Authors: Jinhee Lee, Haeri Kim, Youngkyu Hong, Hye Won Chung
- Abstract要約: 本研究では,GAN (Generative Adversarial Networks) のトレーニング中に未表現のサンプルを診断し強調する手法を提案する。
本研究では, 下表の試料が平均差が高いか, ばらつきが高いかの観察から, それらの試料を強調する方法を提案する。
実験により,提案手法は各種データセット上でのGAN性能の向上を実証した。
- 参考スコア(独自算出の注目度): 5.754152248672317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite remarkable performance in producing realistic samples, Generative
Adversarial Networks (GANs) often produce low-quality samples near low-density
regions of the data manifold. Recently, many techniques have been developed to
improve the quality of generated samples, either by rejecting low-quality
samples after training or by pre-processing the empirical data distribution
before training, but at the cost of reduced diversity. To guarantee both the
quality and the diversity, we propose a simple yet effective method to diagnose
and emphasize underrepresented samples during training of a GAN. The main idea
is to use the statistics of the discrepancy between the data distribution and
the model distribution at each data instance. Based on the observation that the
underrepresented samples have a high average discrepancy or high variability in
discrepancy, we propose a method to emphasize those samples during training of
a GAN. Our experimental results demonstrate that the proposed method improves
GAN performance on various datasets, and it is especially effective in
improving the quality of generated samples with minor features.
- Abstract(参考訳): 現実的なサンプルの作成で驚くべき性能にもかかわらず、GAN(Generative Adversarial Networks)はしばしばデータマニホールドの低密度領域の近くで低品質のサンプルを生成します。
近年, 学習後の低品質サンプルの拒絶や, 学習前の経験的データ分布の事前処理などにより, 生成サンプルの品質向上を図る技術が開発されているが, 多様性の低減が図られている。
品質と多様性の両立を保証するため,GANのトレーニングにおいて,未表示サンプルを診断・強調するための簡易かつ効果的な手法を提案する。
主なアイデアは、各データインスタンスにおけるデータ分布とモデル分布との間の不一致の統計を使用することである。
本研究では, 下表の試料が平均差が高いか, ばらつきが高いかの観察から, GANのトレーニング中に強調する手法を提案する。
実験の結果,提案手法は各種データセットのGAN性能を向上し,特に小特徴量で生成したサンプルの品質向上に有効であることがわかった。
関連論文リスト
- Assessing Sample Quality via the Latent Space of Generative Models [44.59115390303591]
そこで本研究では,学習した生成モデルの潜伏空間について検討し,生成したサンプルの品質を推定する。
これは、生成されたサンプルの品質が、それに似たトレーニングデータの量に直接関連しているため、実現可能である。
提案手法は, VAE, GAN, 潜伏拡散モデルなど, 様々な生成モデルのサンプル品質と高い相関関係を示す。
論文 参考訳(メタデータ) (2024-07-21T14:05:06Z) - How Low Can You Go? Surfacing Prototypical In-Distribution Samples for Unsupervised Anomaly Detection [48.30283806131551]
非常に少ないトレーニングサンプルを持つUADが、トレーニングデータセット全体のトレーニングパフォーマンスにすでに一致している - そして、場合によっては、それを超えることもある、ということが、私たちは示しています。
そこで本研究では,UAD性能をさらに向上させるために,原型標本を確実に同定するための教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Selectively increasing the diversity of GAN-generated samples [8.980453507536017]
本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:06Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Learning Fast Samplers for Diffusion Models by Differentiating Through
Sample Quality [44.37533757879762]
差分拡散サンプリングサーチ(DDSS)は,任意の事前学習拡散モデルに対して高速サンプリングを最適化する手法である。
また、拡散モデルのためのフレキシブルな非マルコフ型サンプルモデルのファミリーである一般化ガウス拡散モデル(GGDM)を提示する。
本手法は, 微調整や再学習の必要なく, 事前学習した拡散モデルと互換性がある。
論文 参考訳(メタデータ) (2022-02-11T18:53:18Z) - Implicit Data Augmentation Using Feature Interpolation for Diversified
Low-Shot Image Generation [11.4559888429977]
生成モデルのトレーニングは、低データ設定で容易に発散することができる。
そこで本研究では,安定したトレーニングと多様なサンプルの合成を容易にする,新しい暗黙的データ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T23:55:46Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Informative Sample Mining Network for Multi-Domain Image-to-Image
Translation [101.01649070998532]
本稿では,画像から画像への翻訳作業において,サンプル選択戦略の改善が有効であることを示す。
本稿では,サンプルの硬さを抑えつつ,サンプルの硬さを抑えるための新しい多段階サンプルトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-01-05T05:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。