論文の概要: Comparing the latent space of generative models
- arxiv url: http://arxiv.org/abs/2207.06812v1
- Date: Thu, 14 Jul 2022 10:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 22:22:32.429609
- Title: Comparing the latent space of generative models
- Title(参考訳): 生成モデルの潜在空間の比較
- Authors: Andrea Asperti and Valerio Tonelli
- Abstract要約: 潜在ベクトル生成モデルの潜在空間におけるデータポイントの異なるエンコーディングは、データの背後にある様々な説明要因の多かれ少なかれ効果的で不整合な特徴づけをもたらす可能性がある。
単純な線形写像は、情報の大半を保存しながら、潜在空間から別の空間に渡すのに十分である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Different encodings of datapoints in the latent space of latent-vector
generative models may result in more or less effective and disentangled
characterizations of the different explanatory factors of variation behind the
data. Many works have been recently devoted to the explorationof the latent
space of specific models, mostly focused on the study of how features are
disentangled and of how trajectories producing desired alterations of data in
the visible space can be found. In this work we address the more general
problem of comparing the latent spaces of different models, looking for
transformations between them. We confined the investigation to the familiar and
largely investigated case of generative models for the data manifold of human
faces. The surprising, preliminary result reported in this article is that
(provided models have not been taught or explicitly conceived to act
differently) a simple linear mapping is enough to pass from a latent space to
another while preserving most of the information.
- Abstract(参考訳): 潜伏ベクトル生成モデルの潜在空間におけるデータポイントの異なる符号化は、データの背後にある異なる説明的要因の多かれ少なかれ効果的で不連続な特徴付けをもたらす可能性がある。
近年、特定のモデルの潜伏空間の探索に多くの研究が注がれており、主に特徴がどのように絡み合っているか、また、軌道が可視空間における望ましいデータ変化をいかに生み出すかの研究に焦点が当てられている。
本研究では、異なるモデルの潜在空間を比較し、それらの間の変換を求めるというより一般的な問題に対処する。
本研究は,人間の顔のデータ多様体生成モデルについて,親しみやすく,広く研究されている事例に限定した。
この論文で報告された驚くべき予備的な結果は、(提案されたモデルは、異なる振る舞いをするために教えられていないか、明示的に考えられている)単純な線形写像は、情報の大半を保存しながら、潜在空間から別の空間に渡すのに十分であるということである。
関連論文リスト
- All Roads Lead to Rome? Exploring Representational Similarities Between Latent Spaces of Generative Image Models [22.364723506539974]
VAE、GAN、正規化フロー(NF)、拡散モデル(DM)の4つの生成画像モデルの潜時空間類似度を測定する。
我々の手法は、凍結された潜在空間間の線型写像を任意のエンコーダとデコーダのペアの「スティッチ」に訓練することを含む。
主な知見は,潜時空間間の線形写像が,潜時サイズの違いがあっても,ほとんどの視覚情報を保存できることである。
論文 参考訳(メタデータ) (2024-07-18T12:23:57Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Smoothing the Generative Latent Space with Mixup-based Distance Learning [32.838539968751924]
我々は、我々の関心の大規模なデータセットも、転送可能なソースデータセットも利用できない状況を考える。
本稿では,ジェネレータとディスクリミネータの両方の特徴空間における遅延混合に基づく距離正規化を提案する。
論文 参考訳(メタデータ) (2021-11-23T06:39:50Z) - Latent Space Refinement for Deep Generative Models [0.4297070083645048]
反復生成モデルによる空間改良が, 位相的障害を回避し, 精度を向上できることを示す。
本稿では,LaSeR(Latent Space Refinement)プロトコルを実例で紹介し,正規化フローと生成逆数ネットワークの組み合わせに着目した。
論文 参考訳(メタデータ) (2021-06-01T21:01:39Z) - Expressivity of Parameterized and Data-driven Representations in Quality
Diversity Search [111.06379262544911]
2つの異なる検索空間で実施した品質多様性進化探索の出力多様性を比較する。
学習モデルは、未知の例への外挿や拡大よりも、既知のデータポイント間の補間が優れている。
論文 参考訳(メタデータ) (2021-05-10T10:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。