論文の概要: LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization
- arxiv url: http://arxiv.org/abs/2305.00132v1
- Date: Sat, 29 Apr 2023 00:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 17:00:27.979223
- Title: LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization
- Title(参考訳): LD-GAN:可変規則化を用いたスペクトル画像生成のための低次元生成逆ネットワーク
- Authors: Emmanuel Martinez, Roman Jacome, Alejandra Hernandez-Rojas and Henry
Arguello
- Abstract要約: ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
- 参考スコア(独自算出の注目度): 72.4394510913927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods are state-of-the-art for spectral image (SI)
computational tasks. However, these methods are constrained in their
performance since available datasets are limited due to the highly expensive
and long acquisition time. Usually, data augmentation techniques are employed
to mitigate the lack of data. Surpassing classical augmentation methods, such
as geometric transformations, GANs enable diverse augmentation by learning and
sampling from the data distribution. Nevertheless, GAN-based SI generation is
challenging since the high-dimensionality nature of this kind of data hinders
the convergence of the GAN training yielding to suboptimal generation. To
surmount this limitation, we propose low-dimensional GAN (LD-GAN), where we
train the GAN employing a low-dimensional representation of the {dataset} with
the latent space of a pretrained autoencoder network. Thus, we generate new
low-dimensional samples which are then mapped to the SI dimension with the
pretrained decoder network. Besides, we propose a statistical regularization to
control the low-dimensional representation variance for the autoencoder
training and to achieve high diversity of samples generated with the GAN. We
validate our method LD-GAN as data augmentation strategy for compressive
spectral imaging, SI super-resolution, and RBG to spectral tasks with
improvements varying from 0.5 to 1 [dB] in each task respectively. We perform
comparisons against the non-data augmentation training, traditional DA, and
with the same GAN adjusted and trained to generate the full-sized SIs. The code
of this paper can be found in https://github.com/romanjacome99/LD_GAN.git
- Abstract(参考訳): ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
しかし、これらの手法は高いコストと長い取得時間のために利用可能なデータセットが制限されているため、性能に制約がある。
通常、データの欠如を軽減するためにデータ拡張技術が使用される。
幾何学的変換のような古典的拡張法を超越したganは、データ分布から学習およびサンプリングすることで多様な拡張を可能にする。
しかしながら、この種のデータの高次元性はGANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
この制限を克服するため、我々は、事前訓練されたオートエンコーダネットワークの潜伏空間と低次元のデータベース表現を用いた低次元GAN(LD-GAN)を提案する。
これにより,事前学習したデコーダネットワークを用いてsi次元にマッピングした新しい低次元サンプルを生成する。
さらに,自動エンコーダ訓練のための低次元表現分散を制御し,GANで生成されたサンプルの多様性を達成するための統計正規化を提案する。
圧縮スペクトル画像, SI超解像, RBGにおけるデータ拡張戦略としてLD-GAN法を検証し, それぞれ0.5から1[dB]に改善した。
我々は,非データ強化トレーニングである従来のDAとの比較を行い,全サイズのSIを生成するための調整および訓練を行った。
本論文のコードはhttps://github.com/romanjacome99/LD_GAN.gitにある。
関連論文リスト
- GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。