論文の概要: ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data
- arxiv url: http://arxiv.org/abs/2210.15137v1
- Date: Thu, 27 Oct 2022 02:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:21:17.857166
- Title: ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data
- Title(参考訳): ScoreMix: 限られたデータでGANをトレーニングするためのスケーラブルな拡張戦略
- Authors: Jie Cao, Mandi Luo, Junchi Yu, Ming-Hsuan Yang, and Ran He
- Abstract要約: GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
- 参考スコア(独自算出の注目度): 93.06336507035486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) typically suffer from overfitting when
limited training data is available. To facilitate GAN training, current methods
propose to use data-specific augmentation techniques. Despite the
effectiveness, it is difficult for these methods to scale to practical
applications. In this work, we present ScoreMix, a novel and scalable data
augmentation approach for various image synthesis tasks. We first produce
augmented samples using the convex combinations of the real samples. Then, we
optimize the augmented samples by minimizing the norms of the data scores,
i.e., the gradients of the log-density functions. This procedure enforces the
augmented samples close to the data manifold. To estimate the scores, we train
a deep estimation network with multi-scale score matching. For different image
synthesis tasks, we train the score estimation network using different data. We
do not require the tuning of the hyperparameters or modifications to the
network architecture. The ScoreMix method effectively increases the diversity
of data and reduces the overfitting problem. Moreover, it can be easily
incorporated into existing GAN models with minor modifications. Experimental
results on numerous tasks demonstrate that GAN models equipped with the
ScoreMix method achieve significant improvements.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
GANトレーニングを容易にするため,本手法ではデータ固有の拡張手法を提案する。
有効性にもかかわらず、これらの手法を実用的な応用に拡張することは困難である。
本稿では,様々な画像合成タスクのための新しいスケーラブルなデータ拡張手法である scoremix を提案する。
まず、実サンプルの凸組み合わせを用いて、拡張サンプルを生成する。
次に,データスコアのノルム,すなわち対数密度関数の勾配を最小化することで拡張サンプルを最適化する。
この手順はデータ多様体に近い拡張サンプルを強制する。
スコアを推定するために,マルチスケールスコアマッチングを用いた深層推定ネットワークを訓練する。
異なる画像合成タスクに対して,スコア推定ネットワークを異なるデータを用いてトレーニングする。
ハイパーパラメータのチューニングやネットワークアーキテクチャの変更は必要ありません。
ScoreMix法はデータの多様性を効果的に増加させ、オーバーフィッティング問題を低減させる。
さらに、小さな修正を加えて既存のGANモデルに簡単に組み込むことができる。
多数のタスクに対する実験結果から,ScoreMix 法を用いた GAN モデルにより大幅な改善が得られた。
関連論文リスト
- LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - An Adaptive Plug-and-Play Network for Few-Shot Learning [12.023266104119289]
少数のサンプルから学んだ後、新しいサンプルを分類するモデルが必要である。
ディープネットワークと複雑なメトリクスはオーバーフィッティングを引き起こす傾向があり、パフォーマンスをさらに改善することは困難である。
プラグアンドプレイ型モデル適応型リサイザ (MAR) とアダプティブ類似度測定器 (ASM) をその他の損失なく提案する。
論文 参考訳(メタデータ) (2023-02-18T13:25:04Z) - On the effectiveness of partial variance reduction in federated learning
with heterogeneous data [27.527995694042506]
クライアント間の最終分類層の多様性は、FedAvgアルゴリズムの性能を阻害することを示す。
そこで本研究では,最終層のみの分散還元によるモデル修正を提案する。
同様の通信コストや低い通信コストで既存のベンチマークを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-05T11:56:35Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Implicit Data Augmentation Using Feature Interpolation for Diversified
Low-Shot Image Generation [11.4559888429977]
生成モデルのトレーニングは、低データ設定で容易に発散することができる。
そこで本研究では,安定したトレーニングと多様なサンプルの合成を容易にする,新しい暗黙的データ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T23:55:46Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。