論文の概要: A Method for Evaluating the Capacity of Generative Adversarial Networks
to Reproduce High-order Spatial Context
- arxiv url: http://arxiv.org/abs/2111.12577v1
- Date: Wed, 24 Nov 2021 15:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 14:08:48.800612
- Title: A Method for Evaluating the Capacity of Generative Adversarial Networks
to Reproduce High-order Spatial Context
- Title(参考訳): 高次空間環境を再現する生成型逆ネットワークの容量評価法
- Authors: Rucha Deshpande, Mark A. Anastasio and Frank J. Brooks
- Abstract要約: 生成ネットワークは、バイオメディカルイメージングに革命をもたらす可能性のある、深い生成モデルの一種である。
臨床応用におけるGANの過大な問題は、GANが生成する画像の診断品質を評価するための適切な手段や自動手段がないことである。
- 参考スコア(独自算出の注目度): 3.486901561986149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks are a kind of deep generative model with the
potential to revolutionize biomedical imaging. This is because GANs have a
learned capacity to draw whole-image variates from a lower-dimensional
representation of an unknown, high-dimensional distribution that fully
describes the input training images. The overarching problem with GANs in
clinical applications is that there is not adequate or automatic means of
assessing the diagnostic quality of images generated by GANs. In this work, we
demonstrate several tests of the statistical accuracy of images output by two
popular GAN architectures. We designed several stochastic object models (SOMs)
of distinct features that can be recovered after generation by a trained GAN.
Several of these features are high-order, algorithmic pixel-arrangement rules
which are not readily expressed in covariance matrices. We designed and
validated statistical classifiers to detect the known arrangement rules. We
then tested the rates at which the different GANs correctly reproduced the
rules under a variety of training scenarios and degrees of feature-class
similarity. We found that ensembles of generated images can appear accurate
visually, and correspond to low Frechet Inception Distance scores (FID), while
not exhibiting the known spatial arrangements. Furthermore, GANs trained on a
spectrum of distinct spatial orders did not respect the given prevalence of
those orders in the training data. The main conclusion is that while low-order
ensemble statistics are largely correct, there are numerous quantifiable errors
per image that plausibly can affect subsequent use of the GAN-generated images.
- Abstract(参考訳): 生成的敵ネットワークは、バイオメディカルイメージングに革命をもたらす可能性のある、深い生成モデルの一種である。
これは、GANが入力トレーニング画像を完全に記述した未知の高次元分布の低次元表現から全体像の変数を抽出する学習能力を持っているためである。
臨床応用におけるGANの過大な問題は、GANが生成する画像の診断品質を評価するための適切な手段や自動手段がないことである。
本研究では,2つのGANアーキテクチャによって出力される画像の統計的精度を検証した。
我々は、訓練されたGANにより生成後に復元できる、異なる特徴を持ついくつかの確率オブジェクトモデル(SOM)を設計した。
これらの特徴のいくつかは、共分散行列では容易に表現できない高次、アルゴリズム的な画素配列規則である。
既知の配置規則を検出するために統計的分類器を設計し検証した。
次に異なるganが規則を正しく再現する速度を、さまざまなトレーニングシナリオと機能クラスの類似度の下でテストした。
その結果、生成された画像のアンサンブルは視覚的に正確に見え、既知の空間配置を示さずに低フレシェット開始距離スコア(fid)に対応することがわかった。
さらに、異なる空間秩序のスペクトルで訓練されたGANは、トレーニングデータにおけるこれらの秩序の所定の頻度を尊重しなかった。
主な結論は、低次アンサンブル統計は概ね正しいが、1画像あたりの定量化可能な誤差は、gan生成画像のその後の使用に影響を与える可能性がある。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - The Geometry of Deep Generative Image Models and its Applications [0.0]
generative adversarial networks (gans) は、実世界のデータセットの統計パターンをモデル化する強力な教師なし手法として登場した。
これらのネットワークは、潜在空間内のランダムな入力を学習データを表す新しいサンプルにマップするように訓練される。
潜在空間の構造は、その高い寸法性と発電機の非線形性のために内挿しが困難である。
論文 参考訳(メタデータ) (2021-01-15T07:57:33Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。