論文の概要: Analyzing the Latent Space of GAN through Local Dimension Estimation
- arxiv url: http://arxiv.org/abs/2205.13182v1
- Date: Thu, 26 May 2022 06:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:34:22.119013
- Title: Analyzing the Latent Space of GAN through Local Dimension Estimation
- Title(参考訳): 局所次元推定によるGANの潜時空間の解析
- Authors: Jaewoong Choi, Geonho Hwang, Hyunsoo Cho, Myungjoo Kang
- Abstract要約: 事前学習したGANモデルにおける任意の中間層に対する局所次元推定アルゴリズムを提案する。
推定された内在次元は、非絡み合った局所摂動の数に対応する。
提案した計量はDistortionと呼ばれ、学習された潜在空間上の本質的な接空間の不整合を測定する。
- 参考スコア(独自算出の注目度): 4.688163910878411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The impressive success of style-based GANs (StyleGANs) in high-fidelity image
synthesis has motivated research to understand the semantic properties of their
latent spaces. Recently, a close relationship was observed between the
semantically disentangled local perturbations and the local PCA components in
the learned latent space $\mathcal{W}$. However, understanding the number of
disentangled perturbations remains challenging. Building upon this observation,
we propose a local dimension estimation algorithm for an arbitrary intermediate
layer in a pre-trained GAN model. The estimated intrinsic dimension corresponds
to the number of disentangled local perturbations. In this perspective, we
analyze the intermediate layers of the mapping network in StyleGANs. Our
analysis clarifies the success of $\mathcal{W}$-space in StyleGAN and suggests
an alternative. Moreover, the intrinsic dimension estimation opens the
possibility of unsupervised evaluation of global-basis-compatibility and
disentanglement for a latent space. Our proposed metric, called Distortion,
measures an inconsistency of intrinsic tangent space on the learned latent
space. The metric is purely geometric and does not require any additional
attribute information. Nevertheless, the metric shows a high correlation with
the global-basis-compatibility and supervised disentanglement score. Our
findings pave the way towards an unsupervised selection of globally
disentangled latent space among the intermediate latent spaces in a GAN.
- Abstract(参考訳): 高忠実な画像合成におけるスタイルベースのgan(stylegans)の素晴らしい成功は、その潜在空間の意味的性質を理解する研究の動機となった。
近年,学習された潜在空間$\mathcal{w}$ における局所摂動と局所pca成分との間に密接な関係が観察された。
しかし、乱れた摂動の数の理解は依然として困難である。
この観測に基づいて,事前学習GANモデルにおける任意の中間層に対する局所次元推定アルゴリズムを提案する。
推定される内在次元は、乱れのある局所摂動の数に対応する。
この観点から、我々はStyleGANにおけるマッピングネットワークの中間層を解析する。
我々の分析はStyleGANにおける$\mathcal{W}$-spaceの成功を明らかにし、代替案を提案する。
さらに,本質的次元推定は,潜在空間に対する大域的ベイズ結合性と乱れの教師なし評価の可能性を開く。
提案手法は歪みと呼ばれ,学習された潜在空間上の固有接空間の不整合を計測する。
計量は純粋に幾何学的であり、追加の属性情報を必要としない。
それでも、この計量は、大域的ベイズ適合性と教師付き非絡み合いスコアと高い相関を示す。
我々の発見は、gan 内の中間的潜在空間の間で、世界的不連続な潜在空間の教師なし選択への道を開くものである。
関連論文リスト
- Deep spatial context: when attention-based models meet spatial
regression [8.90978723839271]
深部空間コンテキスト(DSCon)法は,空間コンテキストの概念を用いた注意に基づく視覚モデルの研究に役立つ。
病理学者にヒントを得たものであるが、様々な領域に応用できる。
論文 参考訳(メタデータ) (2024-01-18T15:08:42Z) - Discovering Class-Specific GAN Controls for Semantic Image Synthesis [73.91655061467988]
本稿では,事前訓練されたSISモデルの潜在空間において,空間的に不整合なクラス固有方向を求める新しい手法を提案する。
提案手法によって検出される潜在方向は,セマンティッククラスの局所的な外観を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2022-12-02T21:39:26Z) - Finding the global semantic representation in GAN through Frechet Mean [4.688163910878411]
GANにおける中間潜伏空間におけるこの大域的意味基底を求めるための教師なし手法を提案する。
提案されたグローバル基底は Fr'echet ベースと呼ばれ、潜在空間における局所的意味摂動に Fr'echet 平均を導入することによって導かれる。
実験の結果、Fr'echet基底は従来の手法よりも意味的分解と堅牢性の向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-10-11T15:01:25Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Do Not Escape From the Manifold: Discovering the Local Coordinates on
the Latent Space of GANs [7.443321740418409]
本稿では,GAN(Generative Adversarial Networks)の中間潜伏空間上での局所幾何学的軌道方向を求める手法を提案する。
潜在空間の内在的な間隔によって動機づけられた基礎は、部分ネットワークの微分の低ランク近似問題を解くことによって発見される。
論文 参考訳(メタデータ) (2021-06-13T10:29:42Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - EigenGAN: Layer-Wise Eigen-Learning for GANs [84.33920839885619]
EigenGANは、異なる発電機層から解釈可能で制御可能な寸法を無監督にマイニングすることができます。
特定の固有次元の係数をトラバースすることで、ジェネレータは特定の意味属性に対応する連続的な変化を伴うサンプルを生成することができる。
論文 参考訳(メタデータ) (2021-04-26T11:14:37Z) - The Geometry of Deep Generative Image Models and its Applications [0.0]
generative adversarial networks (gans) は、実世界のデータセットの統計パターンをモデル化する強力な教師なし手法として登場した。
これらのネットワークは、潜在空間内のランダムな入力を学習データを表す新しいサンプルにマップするように訓練される。
潜在空間の構造は、その高い寸法性と発電機の非線形性のために内挿しが困難である。
論文 参考訳(メタデータ) (2021-01-15T07:57:33Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。