論文の概要: Deep Recursive Embedding for High-Dimensional Data
- arxiv url: http://arxiv.org/abs/2111.00622v1
- Date: Sun, 31 Oct 2021 23:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:30:26.111544
- Title: Deep Recursive Embedding for High-Dimensional Data
- Title(参考訳): 高次元データのための深部再帰埋め込み
- Authors: Zixia Zhou, Xinrui Zu, Yuanyuan Wang, Boudewijn P.F. Lelieveldt, Qian
Tao
- Abstract要約: 本稿では,DNN(Deep Neural Network)と高次元データ埋め込みのための数学誘導埋め込みルールを組み合わせることを提案する。
本稿では,高次元空間から低次元空間へのパラメトリックマッピングを学習可能な汎用ディープ埋め込みネットワーク(DEN)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.611123249318126
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Embedding high-dimensional data onto a low-dimensional manifold is of both
theoretical and practical value. In this paper, we propose to combine deep
neural networks (DNN) with mathematics-guided embedding rules for
high-dimensional data embedding. We introduce a generic deep embedding network
(DEN) framework, which is able to learn a parametric mapping from
high-dimensional space to low-dimensional space, guided by well-established
objectives such as Kullback-Leibler (KL) divergence minimization. We further
propose a recursive strategy, called deep recursive embedding (DRE), to make
use of the latent data representations for boosted embedding performance. We
exemplify the flexibility of DRE by different architectures and loss functions,
and benchmarked our method against the two most popular embedding methods,
namely, t-distributed stochastic neighbor embedding (t-SNE) and uniform
manifold approximation and projection (UMAP). The proposed DRE method can map
out-of-sample data and scale to extremely large datasets. Experiments on a
range of public datasets demonstrated improved embedding performance in terms
of local and global structure preservation, compared with other
state-of-the-art embedding methods.
- Abstract(参考訳): 高次元データを低次元多様体に埋め込むことは理論値と実用値の両方である。
本稿では,高次元データ埋め込みのための深層ニューラルネットワーク(dnn)と数学誘導埋め込みルールを組み合わせることを提案する。
本稿では,高次元空間から低次元空間へのパラメトリックマッピングを学習できる汎用的深層埋め込みネットワーク(den)フレームワークについて紹介する。
さらに,遅延データ表現を用いた埋め込み性能の向上を目的として,dre(deep recursive embedded)と呼ばれる再帰的戦略を提案する。
我々は,異なるアーキテクチャと損失関数によるDREの柔軟性を実証し,t分散確率的隣接埋め込み (t-SNE) と一様多様体近似および投影 (UMAP) の2つの最もポピュラーな埋め込み法と比較した。
提案手法はサンプル外データをマッピングし,極めて大規模なデータセットにスケールすることができる。
各種公開データセットを用いた実験により, 局所的およびグローバルな構造保存の観点から, 組込み性能が向上した。
関連論文リスト
- Hyperboloid GPLVM for Discovering Continuous Hierarchies via Nonparametric Estimation [41.13597666007784]
次元性低減(DR)は複雑な高次元データの有用な表現を提供する。
最近のDR法は、階層データの忠実な低次元表現を導出する双曲幾何学に焦点を当てている。
本稿では,非パラメトリック推定による暗黙的な連続性を持つ高次元階層データを埋め込むためのhGP-LVMを提案する。
論文 参考訳(メタデータ) (2024-10-22T05:07:30Z) - Entropic Optimal Transport Eigenmaps for Nonlinear Alignment and Joint Embedding of High-Dimensional Datasets [11.105392318582677]
本稿では,理論的保証付きデータセットの整列と共同埋め込みの原理的アプローチを提案する。
提案手法は,2つのデータセット間のEOT計画行列の先頭特異ベクトルを利用して,それらの共通基盤構造を抽出する。
EOT計画では,高次元状態において,潜伏変数の位置で評価されたカーネル関数を近似することにより,共有多様体構造を復元する。
論文 参考訳(メタデータ) (2024-07-01T18:48:55Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - A Heat Diffusion Perspective on Geodesic Preserving Dimensionality
Reduction [66.21060114843202]
熱測地線埋め込みと呼ばれるより一般的な熱カーネルベースの多様体埋め込み法を提案する。
その結果,本手法は,地中真理多様体距離の保存において,既存の技術よりも優れていることがわかった。
また,連続体とクラスタ構造を併用した単一セルRNAシークエンシングデータセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-30T13:58:50Z) - Index $t$-SNE: Tracking Dynamics of High-Dimensional Datasets with
Coherent Embeddings [1.7188280334580195]
本稿では,クラスタの位置を保存した新しいものを作成するために,埋め込みを再利用する手法を提案する。
提案アルゴリズムは,新しい項目を埋め込むために$t$-SNEと同じ複雑さを持つ。
論文 参考訳(メタデータ) (2021-09-22T06:45:37Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Deep Recursive Embedding for High-Dimensional Data [10.499461691493526]
深層ニューラルネットワーク(DNN)と,高次元データ埋め込みのための数学的基盤埋め込み規則を組み合わせることを提案する。
本実験は,高次元データ埋め込みにおけるDRE(Deep Recursive Embedding)の優れた性能を示すものである。
論文 参考訳(メタデータ) (2021-04-12T03:04:38Z) - Invertible Manifold Learning for Dimension Reduction [44.16432765844299]
次元減少(DR)は,重要情報の保存により高次元データの低次元表現を学習することを目的としている。
Inv-ML(invertible manifold learning)と呼ばれる新しい2段階DR法を提案し、理論的な情報損失のないDRと実用的なDRのギャップを埋める。
実験は、i-ML-Encと呼ばれる、inv-MLのニューラルネットワーク実装による7つのデータセットで実施される。
論文 参考訳(メタデータ) (2020-10-07T14:22:51Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。