論文の概要: Scalable Balanced Training of Conditional Generative Adversarial Neural
Networks on Image Data
- arxiv url: http://arxiv.org/abs/2102.10485v1
- Date: Sun, 21 Feb 2021 00:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:22:10.192731
- Title: Scalable Balanced Training of Conditional Generative Adversarial Neural
Networks on Image Data
- Title(参考訳): 画像データに基づく条件付き生成逆ニューラルネットワークのスケーラブルバランストレーニング
- Authors: Massimiliano Lupo Pasini, Vittorio Gabbi, Junqi Yin, Simona Perotto,
Nouamane Laanait
- Abstract要約: 本稿では,DC-CGANモデル(Deep Convolutional Generative Adversarial Neural Network)を学習するための分散アプローチを提案する。
本手法は,データラベルに従ってトレーニングデータを分割することにより,ジェネレータと判別器の不均衡を低減する。
MNIST, CIFAR10, CIFAR100, ImageNet1kデータセットのインセプションスコアと画質について評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a distributed approach to train deep convolutional generative
adversarial neural network (DC-CGANs) models. Our method reduces the imbalance
between generator and discriminator by partitioning the training data according
to data labels, and enhances scalability by performing a parallel training
where multiple generators are concurrently trained, each one of them focusing
on a single data label. Performance is assessed in terms of inception score and
image quality on MNIST, CIFAR10, CIFAR100, and ImageNet1k datasets, showing a
significant improvement in comparison to state-of-the-art techniques to
training DC-CGANs. Weak scaling is attained on all the four datasets using up
to 1,000 processes and 2,000 NVIDIA V100 GPUs on the OLCF supercomputer Summit.
- Abstract(参考訳): 本稿では,DC-CGANモデル(Deep Convolutional Generative Adversarial Neural Network)を学習するための分散アプローチを提案する。
本手法は,データラベルに従ってトレーニングデータを分割することで,ジェネレータと判別器間の不均衡を低減し,複数のジェネレータが同時にトレーニングされる並列トレーニングを実行し,それぞれが単一のデータラベルに焦点を当てたスケーラビリティを向上させる。
MNIST, CIFAR10, CIFAR100, ImageNet1kデータセットのインセプションスコアと画質の評価を行い、DC-CGANのトレーニングにおける最先端技術と比較して大幅に改善した。
olcf supercomputer summitでは、最大1000プロセスと2000のnvidia v100 gpuを使用して、4つのデータセットすべてで弱いスケーリングを実現している。
関連論文リスト
- DataDAM: Efficient Dataset Distillation with Attention Matching [15.300968899043498]
研究者たちは、さまざまなデータセットをまたいだ強力な一般化を維持することによって、ディープラーニングのトレーニングコストを最小化しようと長年努力してきた。
データセットに関する新たな研究は、より大きな実際のデータセットの情報を含む小さな合成セットを作成することで、トレーニングコストの削減を目的としている。
しかし、従来の方法で生成された合成データは、元のトレーニングデータと同様に、配布・差別することが保証されていない。
論文 参考訳(メタデータ) (2023-09-29T19:07:48Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - Stable Parallel Training of Wasserstein Conditional Generative
Adversarial Neural Networks [0.0]
本稿では,固定計算予算の制約の下で,条件付き生成逆ニューラルネットワーク(W-CGAN)を訓練するための,安定かつ並列なアプローチを提案する。
CIFAR10、CIFAR100、ImageNet1kデータセットに対するアプローチについて説明する。
性能は、限られた計算時間と計算資源内でのスケーラビリティと最終的な精度の観点から評価される。
論文 参考訳(メタデータ) (2022-07-25T16:30:40Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis [21.40315235087551]
1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2021-01-12T22:02:54Z) - Differentiable Augmentation for Data-Efficient GAN Training [48.920992130257595]
DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-18T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。