論文の概要: Deep Manifold Transformation for Nonlinear Dimensionality Reduction
- arxiv url: http://arxiv.org/abs/2010.14831v3
- Date: Mon, 3 May 2021 15:24:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 04:26:10.342220
- Title: Deep Manifold Transformation for Nonlinear Dimensionality Reduction
- Title(参考訳): 非線形次元低減のための深部多様体変換
- Authors: Stan Z. Li, Zelin Zang, Lirong Wu
- Abstract要約: 我々は、教師なしNLDRおよび埋め込み学習のためのディープ多様体変換(DMT)と呼ばれるディープ多様体学習フレームワークを提案する。
DMTは、層間局所幾何保存(LGP)制約を用いることで、ディープニューラルネットワークを強化する。
合成および実世界のデータに関する実験により、DMTネットワークは、データ構造を保存するという点で、既存の主多様体ベースのNLDR法より優れていることが示された。
- 参考スコア(独自算出の注目度): 37.7499958388076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manifold learning-based encoders have been playing important roles in
nonlinear dimensionality reduction (NLDR) for data exploration. However,
existing methods can often fail to preserve geometric, topological and/or
distributional structures of data. In this paper, we propose a deep manifold
learning framework, called deep manifold transformation (DMT) for unsupervised
NLDR and embedding learning. DMT enhances deep neural networks by using
cross-layer local geometry-preserving (LGP) constraints. The LGP constraints
constitute the loss for deep manifold learning and serve as geometric
regularizers for NLDR network training. Extensive experiments on synthetic and
real-world data demonstrate that DMT networks outperform existing leading
manifold-based NLDR methods in terms of preserving the structures of data.
- Abstract(参考訳): マニフォールド学習に基づくエンコーダはデータ探索において非線形次元減少(NLDR)において重要な役割を果たしている。
しかし、既存の手法は、しばしば幾何学的、位相的、あるいは分布的なデータ構造を保存するのに失敗する。
本稿では、教師なしNLDRおよび埋め込み学習のための深層多様体変換(DMT)と呼ばれる深部多様体学習フレームワークを提案する。
DMTは、層間局所幾何保存(LGP)制約を用いることで、ディープニューラルネットワークを強化する。
lgp制約は深部多様体学習の損失を構成し、nldrネットワークトレーニングの幾何正規化として機能する。
合成データと実世界のデータに関する広範囲な実験は、dmtネットワークがデータの構造保存の観点から、既存の有界多様体ベースのnldrメソッドよりも優れていることを示している。
関連論文リスト
- Deep Learning as Ricci Flow [38.27936710747996]
ディープニューラルネットワーク(DNN)は、複雑なデータの分布を近似する強力なツールである。
分類タスク中のDNNによる変換は、ハミルトンのリッチ流下で期待されるものと類似していることを示す。
本研究の成果は, 微分幾何学や離散幾何学から, 深層学習における説明可能性の問題まで, ツールの利用を動機づけるものである。
論文 参考訳(メタデータ) (2024-04-22T15:12:47Z) - Deep Learning Weight Pruning with RMT-SVD: Increasing Accuracy and
Reducing Overfitting [0.0]
ディープニューラルネットワーク(DNN)の重み層のスペクトルをランダム行列理論(RMT)の手法を用いて研究・理解することができる。
本研究では,これらのRTT手法を用いて, DNNの重み付け層から, 特異値分解(SVD)を通して, どれ程の特異値を取り除くべきかを判断する。
MNISTで訓練した単純なDNNモデルについて,その結果を示す。
論文 参考訳(メタデータ) (2023-03-15T23:19:45Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Deep Recursive Embedding for High-Dimensional Data [9.611123249318126]
本稿では,DNN(Deep Neural Network)と高次元データ埋め込みのための数学誘導埋め込みルールを組み合わせることを提案する。
本稿では,高次元空間から低次元空間へのパラメトリックマッピングを学習可能な汎用ディープ埋め込みネットワーク(DEN)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-31T23:22:33Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Invertible Manifold Learning for Dimension Reduction [44.16432765844299]
次元減少(DR)は,重要情報の保存により高次元データの低次元表現を学習することを目的としている。
Inv-ML(invertible manifold learning)と呼ばれる新しい2段階DR法を提案し、理論的な情報損失のないDRと実用的なDRのギャップを埋める。
実験は、i-ML-Encと呼ばれる、inv-MLのニューラルネットワーク実装による7つのデータセットで実施される。
論文 参考訳(メタデータ) (2020-10-07T14:22:51Z) - A Tailored Convolutional Neural Network for Nonlinear Manifold Learning
of Computational Physics Data using Unstructured Spatial Discretizations [0.0]
深部畳み込みオートエンコーダに基づく非線形多様体学習手法を提案する。
この手法は複素幾何学における物理系のモデル次数削減に適している。
論文 参考訳(メタデータ) (2020-06-11T02:19:34Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。