論文の概要: Intriguing Property and Counterfactual Explanation of GAN for Remote
Sensing Image Generation
- arxiv url: http://arxiv.org/abs/2303.05240v2
- Date: Fri, 31 Mar 2023 14:21:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 20:25:59.717916
- Title: Intriguing Property and Counterfactual Explanation of GAN for Remote
Sensing Image Generation
- Title(参考訳): リモートセンシング画像生成のためのGANの特性と非現実的説明
- Authors: Xingzhe Su, Wenwen Qiang, Jie Hu, Fengge Wu, Changwen Zheng, Fuchun
Sun
- Abstract要約: GAN(Generative Adversarial Network)は、自然画像の分野で顕著な進歩を遂げている。
GANモデルは、自然な画像生成よりも、RS画像生成のためのトレーニングデータのサイズに敏感である。
本稿では,一様正則化(UR)とエントロピー正則化(ER)という2つの革新的な調整手法を提案する。
- 参考スコア(独自算出の注目度): 16.05744622269697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have achieved remarkable progress in
the natural image field. However, when applying GANs in the remote sensing (RS)
image generation task, an extraordinary phenomenon is observed: the GAN model
is more sensitive to the size of training data for RS image generation than for
natural image generation. In other words, the generation quality of RS images
will change significantly with the number of training categories or samples per
category. In this paper, we first analyze this phenomenon from two kinds of toy
experiments and conclude that the amount of feature information contained in
the GAN model decreases with reduced training data. Then we establish a
structural causal model (SCM) of the data generation process and interpret the
generated data as the counterfactuals. Based on this SCM, we theoretically
prove that the quality of generated images is positively correlated with the
amount of feature information. This provides insights for enriching the feature
information learned by the GAN model during training. Consequently, we propose
two innovative adjustment schemes, namely Uniformity Regularization (UR) and
Entropy Regularization (ER), to increase the information learned by the GAN
model at the distributional and sample levels, respectively. We theoretically
and empirically demonstrate the effectiveness and versatility of our methods.
Extensive experiments on three RS datasets and two natural datasets show that
our methods outperform the well-established models on RS image generation
tasks. The source code is available at https://github.com/rootSue/Causal-RSGAN.
- Abstract(参考訳): generative adversarial networks (gans) は自然画像分野において著しい進歩を遂げている。
しかしながら、リモートセンシング(RS)画像生成タスクにGANを適用する場合、GANモデルは自然画像生成よりもRS画像生成のためのトレーニングデータのサイズに敏感である、という驚くべき現象が観察される。
言い換えると、rs画像の生成品質は、カテゴリごとのトレーニングカテゴリやサンプルの数によって大きく変化する。
本稿では,この現象を2種類の玩具実験から解析し,GANモデルに含まれる特徴情報の量は,トレーニングデータを減らすことで減少することを示す。
次に、データ生成プロセスの構造因果モデル(SCM)を構築し、生成したデータを対物として解釈する。
このSCMに基づいて、生成した画像の品質が特徴情報の量と正の相関関係があることを理論的に証明する。
これはトレーニング中にganモデルによって学習された機能情報を強化するための洞察を提供する。
その結果,一様正則化 (UR) とエントロピー正則化 (ER) という2つの革新的な調整手法が提案され,GANモデルで得られた情報をそれぞれ分布レベルとサンプルレベルで向上する。
我々は理論上,実証的に手法の有効性と汎用性を示す。
3つのrsデータセットと2つの自然データセットに関する広範囲な実験により、本手法がrs画像生成タスクにおいて確立されたモデルを上回ることを示した。
ソースコードはhttps://github.com/rootSue/Causal-RSGANで入手できる。
関連論文リスト
- Medical Imaging Complexity and its Effects on GAN Performance [1.776717121506676]
医用医用画像合成は, 画像合成のための強力な手法として, GAN (Generative Adversarial Network) による医用画像合成が登場した。
サンプルデータセットサイズと生成された画像の忠実度との関係を計測するベンチマークを実験的に確立する。
サンプルサイズが変化する複数の医用画像データセットをトレーニングした,最先端の2つのGANであるStyleGAN 3とSPADE-GANを用いて実験を行った。
論文 参考訳(メタデータ) (2024-10-23T15:28:25Z) - Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - X-Transfer: A Transfer Learning-Based Framework for GAN-Generated Fake
Image Detection [33.31312811230408]
顔置換などの偽画像を生成するためにGANを誤用することは、重大なセキュリティ上の懸念を引き起こす。
本稿では,新しい画像検出アルゴリズムであるX-Transferを提案する。
インターリーブされた並列勾配伝送を利用する2つのニューラルネットワークを利用することで、トランスファーラーニングを強化する。
論文 参考訳(メタデータ) (2023-10-07T01:23:49Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Generative Zero-shot Network Quantization [41.75769117366117]
畳み込みニューラルネットワークは、低レベルの画像生成と復元における多数のトレーニングサンプルから現実的な画像優先度を学習することができる。
また,高レベル画像認識タスクでは,本質的バッチ正規化(bn)統計をトレーニングデータなしで活用することにより,各カテゴリの「現実的」画像をさらに再構築できることを示す。
論文 参考訳(メタデータ) (2021-01-21T04:10:04Z) - Turbulence Enrichment using Physics-informed Generative Adversarial
Networks [0.0]
我々は乱流生成法を開発した。
損失関数の修正による物理インフォームド・ラーニング・アプローチを取り入れた。
物理インフォームドラーニングを用いることで、物理支配方程式を満たすデータを生成する際のモデルの能力が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-03-04T06:14:11Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。