論文の概要: Using Deep LSD to build operators in GANs latent space with meaning in
real space
- arxiv url: http://arxiv.org/abs/2102.05132v1
- Date: Tue, 9 Feb 2021 21:05:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 00:33:31.355308
- Title: Using Deep LSD to build operators in GANs latent space with meaning in
real space
- Title(参考訳): Deep LSDを使用して、実空間で意味を持つGANの潜時空間で演算子を構築する
- Authors: J. Quetzalcoatl Toledo-Marin and James A. Glazier
- Abstract要約: 相関の欠如は、潜在空間多様体が理解し操作し易いことを示唆するからである。
生成モデルは、例えば、可変オートエンコーダ(VAE)やGAN(Generative Adversarial Network)といったディープラーニングで広く使われている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models rely on the key idea that data can be represented in terms
of latent variables which are uncorrelated by definition. Lack of correlation
is important because it suggests that the latent space manifold is simpler to
understand and manipulate. Generative models are widely used in deep learning,
e.g., variational autoencoders (VAEs) and generative adversarial networks
(GANs). Here we propose a method to build a set of linearly independent vectors
in the latent space of a GANs, which we call quasi-eigenvectors. These
quasi-eigenvectors have two key properties: i) They span all the latent space,
ii) A set of these quasi-eigenvectors map to each of the labeled features
one-on-one. We show that in the case of the MNIST, while the number of
dimensions in latent space is large by construction, 98% of the data in real
space map to a sub-domain of latent space of dimensionality equal to the number
of labels. We then show how the quasi-eigenvalues can be used for Latent
Spectral Decomposition (LSD), which has applications in denoising images and
for performing matrix operations in latent space that map to feature
transformations in real space. We show how this method provides insight into
the latent space topology. The key point is that the set of quasi-eigenvectors
form a basis set in latent space and each direction corresponds to a feature in
real space.
- Abstract(参考訳): 生成モデルは、データが定義とは無関係な潜在変数の項で表現できるという重要な考え方に依存している。
相関の欠如は、潜在空間多様体が理解し操作しやすいことを示唆しているため重要である。
生成モデルは、例えば、可変オートエンコーダ(VAE)や生成逆ネットワーク(GAN)など、ディープラーニングで広く使われている。
本稿では、gans の潜在空間に線型独立なベクトルの集合を構築する手法を提案し、これを準固有ベクトルと呼ぶ。
これらの準固有ベクトルは、2つの鍵となる性質を有する: i) 潜在空間すべてにまたがる; ii) これらの準固有ベクトルの集合は、ラベル付き特徴のそれぞれに1対1で写る。
MNISTの場合、潜在空間における次元の数は建設によって大きいが、実空間におけるデータの98%は、ラベルの数に等しい次元の潜在空間のサブドメインである。
次に、その準固有値が、実空間における特徴変換にマップする潜在空間における行列演算や画像の復号化に応用できる潜在スペクトル分解(LSD)にどのように使用できるかを示す。
この手法が潜在空間トポロジーの洞察を与える方法を示す。
鍵となる点は、準固有ベクトルの集合が潜在空間に基底集合を形成し、各方向が実空間の特徴に対応することである。
関連論文リスト
- Transport of Algebraic Structure to Latent Embeddings [8.693845596949892]
機械学習はしばしば、より大きく抽象的な数学的空間にある入力の潜在的な埋め込みを生成することを目的としている。
アソシエーションを尊重しながら、その潜在埋め込みだけを使って2つの集合を「統一」する方法をどうやって学べるか。
本稿では、入力空間上の法則と確実に一致した潜在空間演算をパラメータ化するための一般的な手順を提案する。
論文 参考訳(メタデータ) (2024-05-27T02:24:57Z) - Householder Projector for Unsupervised Latent Semantics Discovery [58.92485745195358]
Householder Projectorは、画像の忠実さを犠牲にすることなく、StyleGANがより複雑で正確なセマンティック属性を見つけるのに役立つ。
プロジェクタを事前訓練したStyleGAN2/StyleGAN3に統合し、複数のベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2023-07-16T11:43:04Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Analyzing the Latent Space of GAN through Local Dimension Estimation [4.688163910878411]
高忠実度画像合成におけるスタイルベースGAN(StyleGAN)は、それらの潜在空間の意味的特性を理解するために研究の動機となっている。
事前学習したGANモデルにおける任意の中間層に対する局所次元推定アルゴリズムを提案する。
提案した計量はDistortionと呼ばれ、学習された潜在空間上の内在空間の不整合を測定する。
論文 参考訳(メタデータ) (2022-05-26T06:36:06Z) - Sign and Basis Invariant Networks for Spectral Graph Representation
Learning [75.18802152811539]
SignNetとBasisNetは、すべての必須対称性に不変な新しいニューラルアーキテクチャであり、したがって、原則化された方法で固有空間のコレクションを処理する。
我々のネットワークは理論的にはグラフ表現学習に強い -- 任意のスペクトルグラフ畳み込みを近似することができる。
実験により、スペクトルグラフフィルタの学習とグラフ位置エンコーディングの学習のためのネットワークの強みが示された。
論文 参考訳(メタデータ) (2022-02-25T23:11:59Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - EigenGAN: Layer-Wise Eigen-Learning for GANs [84.33920839885619]
EigenGANは、異なる発電機層から解釈可能で制御可能な寸法を無監督にマイニングすることができます。
特定の固有次元の係数をトラバースすることで、ジェネレータは特定の意味属性に対応する連続的な変化を伴うサンプルを生成することができる。
論文 参考訳(メタデータ) (2021-04-26T11:14:37Z) - The Geometry of Deep Generative Image Models and its Applications [0.0]
generative adversarial networks (gans) は、実世界のデータセットの統計パターンをモデル化する強力な教師なし手法として登場した。
これらのネットワークは、潜在空間内のランダムな入力を学習データを表す新しいサンプルにマップするように訓練される。
潜在空間の構造は、その高い寸法性と発電機の非線形性のために内挿しが困難である。
論文 参考訳(メタデータ) (2021-01-15T07:57:33Z) - Geometry-Aware Hamiltonian Variational Auto-Encoder [0.0]
変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
このような潜在空間モデリングは、より意味のある、よりリアルなデータ生成、より信頼性の高いクラスタリングに繋がる基盤構造に関する有用な情報を提供する、と我々は主張する。
論文 参考訳(メタデータ) (2020-10-22T08:26:46Z) - Spatial Pyramid Based Graph Reasoning for Semantic Segmentation [67.47159595239798]
セマンティックセグメンテーションタスクにグラフ畳み込みを適用し、改良されたラプラシアンを提案する。
グラフ推論は、空間ピラミッドとして構成された元の特徴空間で直接実行される。
計算とメモリのオーバーヘッドの利点で同等のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-03-23T12:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。