論文の概要: Atlas Generative Models and Geodesic Interpolation
- arxiv url: http://arxiv.org/abs/2102.00264v1
- Date: Sat, 30 Jan 2021 16:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:36:50.163216
- Title: Atlas Generative Models and Geodesic Interpolation
- Title(参考訳): アトラス生成モデルと測地線補間
- Authors: Jakob Stolberg-Larsen, Stefan Sommer
- Abstract要約: 我々は,Atlas Generative Models (AGMs) の一般クラスを定義する。
グラフに基づく測地線のアルゴリズムをAGMの設定に一般化してこれを実証し、その性能を実験的に検証する。
- 参考スコア(独自算出の注目度): 0.20305676256390928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative neural networks have a well recognized ability to estimate
underlying manifold structure of high dimensional data. However, if a simply
connected latent space is used, it is not possible to faithfully represent a
manifold with non-trivial homotopy type. In this work we define the general
class of Atlas Generative Models (AGMs), models with hybrid discrete-continuous
latent space that estimate an atlas on the underlying data manifold together
with a partition of unity on the data space. We identify existing examples of
models from various popular generative paradigms that fit into this class. Due
to the atlas interpretation, ideas from non-linear latent space analysis and
statistics, e.g. geodesic interpolation, which has previously only been
investigated for models with simply connected latent spaces, may be extended to
the entire class of AGMs in a natural way. We exemplify this by generalizing an
algorithm for graph based geodesic interpolation to the setting of AGMs, and
verify its performance experimentally.
- Abstract(参考訳): ジェネレーティブニューラルネットワークは、高次元データの基礎となる多様体構造を推定する能力を持っている。
しかし、単連結な潜在空間が使われる場合、非自明なホモトピー型を持つ多様体を忠実に表現することは不可能である。
本研究では,AGM(Atlas Generative Models)の一般クラスを定義し,基本となるデータマニホールド上のアトラスとデータ空間上の統一性の分割を推定するハイブリッド離散連続潜空間を持つモデルを定義する。
このクラスに収まる様々なポピュラーなジェネレーションパラダイムからモデルの既存の例を特定します。
アトラスの解釈により、非線形潜時空間解析と統計学からのアイデア、例えば。
単に連結された潜在空間を持つモデルでしか研究されていない測地補間は、自然にAGMのクラス全体に拡張することができる。
グラフに基づく測地線補間アルゴリズムをAGMの設定に一般化し、その性能を実験的に検証した例を例示する。
関連論文リスト
- Unsupervised Manifold Linearizing and Clustering [17.252562935291497]
本稿では,クラスタリングを行い,最大符号化率の削減による部分空間の和合表現を学習することを提案する。
合成および現実的なデータセットの実験により,提案手法は,最先端の代替手法に匹敵するクラスタリング精度を実現することを示した。
論文 参考訳(メタデータ) (2023-01-04T20:08:23Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Towards Understanding and Mitigating Dimensional Collapse in
Heterogeneous Federated Learning [114.32726625370258]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Linear Connectivity Reveals Generalization Strategies [54.947772002394736]
微調整されたモデルのいくつかは、それらの間の線形経路における損失を増大させる大きな障壁を持つ。
テスト損失面上で線形に接続されているが、クラスタ外のモデルから切り離されている異なるモデルのクラスタが見つかる。
我々の研究は、損失面の幾何学がモデルを異なる関数へと導く方法を示している。
論文 参考訳(メタデータ) (2022-05-24T23:43:02Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Charts and atlases for nonlinear data-driven models of dynamics on
manifolds [0.0]
低次元多様体上の高次元時系列データから最小次元力学モデルを学習する手法を提案する。
本手法は, 単純な周期力学から複雑, 名目上は倉本-シヴァシンスキー方程式の高次元非周期バースト力学に至るまでの例に適用する。
論文 参考訳(メタデータ) (2021-08-12T19:06:08Z) - Learning Self-Expression Metrics for Scalable and Inductive Subspace
Clustering [5.587290026368626]
サブスペースクラスタリングは、高次元データをクラスタリングするための最先端のアプローチとして確立されている。
本研究では,シアムニューラルネットワークアーキテクチャを用いて,サブスペース親和性関数を学習するための新しい距離学習手法を提案する。
我々のモデルは、パラメータの一定数とメモリフットプリントの恩恵を受けており、かなり大きなデータセットにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-27T15:40:12Z) - Variational Autoencoder with Learned Latent Structure [4.41370484305827]
学習潜在構造を持つ変分オートエンコーダ(VAELLS)について紹介する。
VAELLS は、学習可能な多様体モデルを VAE の潜在空間に組み込む。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
論文 参考訳(メタデータ) (2020-06-18T14:59:06Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。