論文の概要: Stable Parallel Training of Wasserstein Conditional Generative
Adversarial Neural Networks
- arxiv url: http://arxiv.org/abs/2207.12315v1
- Date: Mon, 25 Jul 2022 16:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:19:29.844649
- Title: Stable Parallel Training of Wasserstein Conditional Generative
Adversarial Neural Networks
- Title(参考訳): wasserstein条件生成型ニューラルネットワークの安定的並列トレーニング
- Authors: Massimiliano Lupo Pasini, Junqi Yin
- Abstract要約: 本稿では,固定計算予算の制約の下で,条件付き生成逆ニューラルネットワーク(W-CGAN)を訓練するための,安定かつ並列なアプローチを提案する。
CIFAR10、CIFAR100、ImageNet1kデータセットに対するアプローチについて説明する。
性能は、限られた計算時間と計算資源内でのスケーラビリティと最終的な精度の観点から評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a stable, parallel approach to train Wasserstein Conditional
Generative Adversarial Neural Networks (W-CGANs) under the constraint of a
fixed computational budget. Differently from previous distributed GANs training
techniques, our approach avoids inter-process communications, reduces the risk
of mode collapse and enhances scalability by using multiple generators, each
one of them concurrently trained on a single data label. The use of the
Wasserstein metric also reduces the risk of cycling by stabilizing the training
of each generator. We illustrate the approach on the CIFAR10, CIFAR100, and
ImageNet1k datasets, three standard benchmark image datasets, maintaining the
original resolution of the images for each dataset. Performance is assessed in
terms of scalability and final accuracy within a limited fixed computational
time and computational resources. To measure accuracy, we use the inception
score, the Frechet inception distance, and image quality. An improvement in
inception score and Frechet inception distance is shown in comparison to
previous results obtained by performing the parallel approach on deep
convolutional conditional generative adversarial neural networks (DC-CGANs) as
well as an improvement of image quality of the new images created by the GANs
approach. Weak scaling is attained on both datasets using up to 2,000 NVIDIA
V100 GPUs on the OLCF supercomputer Summit.
- Abstract(参考訳): 本稿では,W-CGAN(Wasserstein Conditional Generative Adversarial Neural Networks)を固定計算予算の制約下で訓練するための,安定かつ並列なアプローチを提案する。
従来の分散GANのトレーニング手法とは違って,プロセス間通信を回避し,モード崩壊のリスクを低減し,複数のジェネレータを使用してスケーラビリティを向上させる。
ワッサーシュタイン計量を用いることで、各発電機の訓練を安定化することでサイクリングのリスクを低減できる。
我々は、cifar10、cifar100、imagenet1kの3つの標準ベンチマーク画像データセットのアプローチを説明し、各データセットのイメージのオリジナルの解像度を維持する。
性能は、限られた計算時間と計算資源内でのスケーラビリティと最終的な精度の観点から評価される。
精度の測定には,開始スコア,Frechet開始距離,画像品質を用いる。
深部畳み込み条件付き生成対向ニューラルネットワーク(DC-CGAN)に対する並列アプローチと、GANsアプローチによる新しい画像の画質向上を併用した従来の結果と比較して、開始スコアとFrechet開始距離の改善を示す。
olcf supercomputer summitでは、最大2,000のnvidia v100 gpuを使用して、両方のデータセットで弱いスケーリングを実現している。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Curvature regularization for Non-line-of-sight Imaging from
Under-sampled Data [5.591221518341613]
非視線イメージング(NLOS)は、視線で測定されたデータから3次元の隠れたシーンを再構築することを目的としている。
曲率正規化に基づく新しいNLOS再構成モデルを提案する。
提案したアルゴリズムを,合成データセットと実データセットの両方で評価する。
論文 参考訳(メタデータ) (2023-01-01T14:10:43Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Deep Neural Networks Based Weight Approximation and Computation Reuse
for 2-D Image Classification [0.9507070656654631]
ディープニューラルネットワーク(DNN)は計算とメモリ集約である。
本稿では,近似計算とデータ再利用手法を融合させ,DNNs性能を改善する新しい手法を提案する。
IoTエッジデバイスに適しており、メモリサイズ要件と必要なメモリアクセス数を削減します。
論文 参考訳(メタデータ) (2021-04-28T10:16:53Z) - Scalable Balanced Training of Conditional Generative Adversarial Neural
Networks on Image Data [0.0]
本稿では,DC-CGANモデル(Deep Convolutional Generative Adversarial Neural Network)を学習するための分散アプローチを提案する。
本手法は,データラベルに従ってトレーニングデータを分割することにより,ジェネレータと判別器の不均衡を低減する。
MNIST, CIFAR10, CIFAR100, ImageNet1kデータセットのインセプションスコアと画質について評価する。
論文 参考訳(メタデータ) (2021-02-21T00:48:19Z) - Sparse Signal Models for Data Augmentation in Deep Learning ATR [0.8999056386710496]
ドメイン知識を取り入れ,データ集約学習アルゴリズムの一般化能力を向上させるためのデータ拡張手法を提案する。
本研究では,空間領域における散乱中心のスパース性とアジムタル領域における散乱係数の滑らかな変動構造を活かし,過パラメータモデルフィッティングの問題を解く。
論文 参考訳(メタデータ) (2020-12-16T21:46:33Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。