論文の概要: Data Dieting in GAN Training
- arxiv url: http://arxiv.org/abs/2004.04642v1
- Date: Tue, 7 Apr 2020 00:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:44:13.915509
- Title: Data Dieting in GAN Training
- Title(参考訳): GAN研修におけるデータダイエット
- Authors: Jamal Toutouh, Una-May O'Reilly, Erik Hemberg
- Abstract要約: 我々は、より少ないデータでジェネレーティブ・アドバイサル・ネットワーク、GANを訓練する。
データ削減がジェネレータのパフォーマンスにどの程度影響するかを問う。
我々は、Redux-Lipizzanerという進化的GANトレーニングフレームワークにおけるデータトレーニングの削減を検討する。
- 参考スコア(独自算出の注目度): 9.214145993644596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate training Generative Adversarial Networks, GANs, with less
data. Subsets of the training dataset can express empirical sample diversity
while reducing training resource requirements, e.g. time and memory. We ask how
much data reduction impacts generator performance and gauge the additive value
of generator ensembles. In addition to considering stand-alone GAN training and
ensembles of generator models, we also consider reduced data training on an
evolutionary GAN training framework named Redux-Lipizzaner. Redux-Lipizzaner
makes GAN training more robust and accurate by exploiting overlapping
neighborhood-based training on a spatial 2D grid. We conduct empirical
experiments on Redux-Lipizzaner using the MNIST and CelebA data sets.
- Abstract(参考訳): 我々は、より少ないデータで生成的敵ネットワーク、GANを訓練する。
トレーニングデータセットのサブセットは、時間やメモリなどのトレーニングリソース要件を削減しながら、経験的なサンプル多様性を表現することができる。
我々は,データ削減がジェネレータの性能に与える影響を問うとともに,ジェネレータアンサンブルの加算値を測定する。
スタンドアロンのGANトレーニングとジェネレータモデルのアンサンブルの検討に加えて,Redux-Lipizzanerという進化的GANトレーニングフレームワーク上でのデータトレーニングも検討した。
redux-lipizzanerは、空間的な2dグリッド上で隣り合ったトレーニングを活用し、ganトレーニングをより堅牢かつ正確にする。
MNISTとCelebAデータセットを用いたRedux-Lipizzanerの実験実験を行った。
関連論文リスト
- Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - cDVGAN: One Flexible Model for Multi-class Gravitational Wave Signal and Glitch Generation [0.7853804618032806]
本稿では,複数の時間領域観測のクラスをシミュレートする手法として,ジェネレーティブ・アドリアック・ネットワーク・フレームワークに新しい条件モデルを提案する。
提案したcDVGANは,3つのクラスの特徴を再現する4種類のベースラインGANモデルより優れている。
実験の結果,cDVGAN生成データによる畳み込みニューラルネットワークのトレーニングにより,検出器ノイズに埋め込まれたサンプルの検出が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:59:26Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Less is More: Reducing Task and Model Complexity for 3D Point Cloud
Semantic Segmentation [26.94284739177754]
新しいパイプラインは、より優れたセグメンテーション精度を達成するために、より少ない地平線アノテーションを必要とする。
Sparse Depthwise Separable Convolutionモジュールは、ネットワークパラメータ数を著しく削減する。
新しいspatio-Temporal Redundant Frame Downsampling (ST-RFD) 法は、トレーニングデータフレームのより多様なサブセットを抽出する。
論文 参考訳(メタデータ) (2023-03-20T15:36:10Z) - Zero-Shot Learning of a Conditional Generative Adversarial Network for
Data-Free Network Quantization [44.22469647001933]
本研究では,条件付き生成逆ネットワーク(CGAN)をトレーニングデータを用いずにトレーニングする方法を提案する。
条件付きジェネレータのゼロショット学習は、事前訓練された識別(分類)モデルのみを必要とし、訓練データを必要としない。
深層ニューラルネットワークのデータ自由量子化におけるZS-CGANの有用性を示す。
論文 参考訳(メタデータ) (2022-10-26T00:05:57Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。