論文の概要: A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context
- arxiv url: http://arxiv.org/abs/2111.12577v2
- Date: Fri, 31 Mar 2023 17:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 17:46:14.614414
- Title: A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context
- Title(参考訳): 高次空間文脈の再現性評価による画像の深部生成モデルの評価法
- Authors: Rucha Deshpande, Mark A. Anastasio and Frank J. Brooks
- Abstract要約: GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
- 参考スコア(独自算出の注目度): 9.00018232117916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models (DGMs) have the potential to revolutionize diagnostic
imaging. Generative adversarial networks (GANs) are one kind of DGM which are
widely employed. The overarching problem with deploying GANs, and other DGMs,
in any application that requires domain expertise in order to actually use the
generated images is that there generally is not adequate or automatic means of
assessing the domain-relevant quality of generated images. In this work, we
demonstrate several objective tests of images output by two popular GAN
architectures. We designed several stochastic context models (SCMs) of distinct
image features that can be recovered after generation by a trained GAN. Several
of these features are high-order, algorithmic pixel-arrangement rules which are
not readily expressed in covariance matrices. We designed and validated
statistical classifiers to detect specific effects of the known arrangement
rules. We then tested the rates at which two different GANs correctly
reproduced the feature context under a variety of training scenarios, and
degrees of feature-class similarity. We found that ensembles of generated
images can appear largely accurate visually, and show high accuracy in ensemble
measures, while not exhibiting the known spatial arrangements. Furthermore,
GANs trained on a spectrum of distinct spatial orders did not respect the given
prevalence of those orders in the training data. The main conclusion is that
SCMs can be engineered to quantify numerous errors, per image, that may not be
captured in ensemble statistics but plausibly can affect subsequent use of the
GAN-generated images.
- Abstract(参考訳): 深部生成モデル(dgms)は診断イメージングに革命をもたらす可能性がある。
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
GANなどのDGMを実際に使用するためにドメインの専門知識を必要とするアプリケーションでは、一般的に、生成された画像のドメイン関連品質を評価するための適切な、あるいは自動的な手段が存在しない。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANにより生成した画像の特徴を再現できるいくつかの確率的文脈モデル(SCM)を設計した。
これらの特徴のいくつかは、共分散行列では容易に表現できない高次、アルゴリズム的な画素配列規則である。
我々は、既知の配置規則の特定の効果を検出するために統計的分類器を設計し検証した。
次に、2つの異なるganがさまざまなトレーニングシナリオで機能コンテキストを正しく再現した率と、機能クラスの類似度をテストした。
生成した画像のアンサンブルは視覚的にほぼ正確に見え、アンサンブル測度では高い精度を示すが、既知の空間配置は示さない。
さらに、異なる空間秩序のスペクトルで訓練されたGANは、トレーニングデータにおけるこれらの秩序の所定の頻度を尊重しなかった。
主な結論は、画像毎に多数のエラーを定量化するためにSCMを設計できるが、アンサンブル統計では捉えられないが、GAN生成画像のその後の使用に確実に影響を及ぼす。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - The Geometry of Deep Generative Image Models and its Applications [0.0]
generative adversarial networks (gans) は、実世界のデータセットの統計パターンをモデル化する強力な教師なし手法として登場した。
これらのネットワークは、潜在空間内のランダムな入力を学習データを表す新しいサンプルにマップするように訓練される。
潜在空間の構造は、その高い寸法性と発電機の非線形性のために内挿しが困難である。
論文 参考訳(メタデータ) (2021-01-15T07:57:33Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。