論文の概要: Dissipative residual layers for unsupervised implicit parameterization
of data manifolds
- arxiv url: http://arxiv.org/abs/2210.07100v1
- Date: Thu, 13 Oct 2022 15:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:11:04.660721
- Title: Dissipative residual layers for unsupervised implicit parameterization
of data manifolds
- Title(参考訳): データ多様体の暗黙的パラメータ化のための散逸残層
- Authors: Viktor Reshniak
- Abstract要約: この方法では、データは高次元空間の低次元多様体に属すると仮定される。
この仮定の下で、データ多様体は推定される力学系の魅力的な多様体である。
このような力学系を残差ニューラルネットワークでパラメータ化し、データ近傍で局所的に魅力的なものにするためのスペクトル局在化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an unsupervised technique for implicit parameterization of data
manifolds. In our approach, the data is assumed to belong to a lower
dimensional manifold in a higher dimensional space, and the data points are
viewed as the endpoints of the trajectories originating outside the manifold.
Under this assumption, the data manifold is an attractive manifold of a
dynamical system to be estimated. We parameterize such a dynamical system with
a residual neural network and propose a spectral localization technique to
ensure it is locally attractive in the vicinity of data. We also present
initialization and additional regularization of the proposed residual layers. %
that we call dissipative bottlenecks. We mention the importance of the
considered problem for the tasks of reinforcement learning and support our
discussion with examples demonstrating the performance of the proposed layers
in denoising and generative tasks.
- Abstract(参考訳): データ多様体の暗黙的パラメータ化のための教師なし手法を提案する。
本手法では, より高次元空間において, データは下次元多様体に属すると仮定し, そのデータポイントは, 多様体の外側から発生する軌道の終点と見なされる。
この仮定の下で、データ多様体は推定される力学系の魅力的な多様体である。
このような動的システムを残留ニューラルネットワークでパラメータ化し,データ近傍で局所的に魅力的であることを保証するためのスペクトル局在化手法を提案する。
また,提案した残留層の初期化および追加正規化を提案する。
散逸ボトルネック(dissipative bottlenecks)と呼ぶものです。
強化学習のタスクにおいて考慮すべき課題の重要性について述べ,提案するレイヤの性能を示す例を用いて議論を支援する。
関連論文リスト
- Hyperboloid GPLVM for Discovering Continuous Hierarchies via Nonparametric Estimation [41.13597666007784]
次元性低減(DR)は複雑な高次元データの有用な表現を提供する。
最近のDR法は、階層データの忠実な低次元表現を導出する双曲幾何学に焦点を当てている。
本稿では,非パラメトリック推定による暗黙的な連続性を持つ高次元階層データを埋め込むためのhGP-LVMを提案する。
論文 参考訳(メタデータ) (2024-10-22T05:07:30Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Polynomial Chaos Expansions on Principal Geodesic Grassmannian
Submanifolds for Surrogate Modeling and Uncertainty Quantification [0.41709348827585524]
高次元システムにおける不確実性のための多様体学習に基づく代理モデリングフレームワークを提案する。
反応のグラスマン多様体上の主測地線解析を用いて、不随伴な主測地線部分多様体の集合を同定する。
次に、ランダムな入力パラメータと応答の投影の間のマッピングを構築するために、多項式カオス展開を用いる。
論文 参考訳(メタデータ) (2024-01-30T02:13:02Z) - Multi-Linear Kernel Regression and Imputation in Data Manifolds [12.15802365851407]
本稿では、データ回帰とインプットのための効率的なマルチ線形非パラメトリック近似フレームワークとその動的磁気共鳴イメージング(dMRI)への応用について紹介する。
データ特徴は、ヒルベルト空間を再現するカーネルに埋め込まれた滑らかな多様体に、あるいは近くに存在すると仮定される。ランドマーク点は、接空間の概念を滑らかに模倣する線形近似パッチにより、特徴の点雲を記述するために特定される。
マルチ線形モデルは次元の削減に影響を及ぼし、効率的な計算を可能にし、トレーニングデータや追加情報なしでデータパターンとその幾何学を抽出する。
論文 参考訳(メタデータ) (2023-04-06T12:58:52Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。