論文の概要: Deep Recursive Embedding for High-Dimensional Data
- arxiv url: http://arxiv.org/abs/2111.00622v1
- Date: Sun, 31 Oct 2021 23:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:30:26.111544
- Title: Deep Recursive Embedding for High-Dimensional Data
- Title(参考訳): 高次元データのための深部再帰埋め込み
- Authors: Zixia Zhou, Xinrui Zu, Yuanyuan Wang, Boudewijn P.F. Lelieveldt, Qian
Tao
- Abstract要約: 本稿では,DNN(Deep Neural Network)と高次元データ埋め込みのための数学誘導埋め込みルールを組み合わせることを提案する。
本稿では,高次元空間から低次元空間へのパラメトリックマッピングを学習可能な汎用ディープ埋め込みネットワーク(DEN)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.611123249318126
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Embedding high-dimensional data onto a low-dimensional manifold is of both
theoretical and practical value. In this paper, we propose to combine deep
neural networks (DNN) with mathematics-guided embedding rules for
high-dimensional data embedding. We introduce a generic deep embedding network
(DEN) framework, which is able to learn a parametric mapping from
high-dimensional space to low-dimensional space, guided by well-established
objectives such as Kullback-Leibler (KL) divergence minimization. We further
propose a recursive strategy, called deep recursive embedding (DRE), to make
use of the latent data representations for boosted embedding performance. We
exemplify the flexibility of DRE by different architectures and loss functions,
and benchmarked our method against the two most popular embedding methods,
namely, t-distributed stochastic neighbor embedding (t-SNE) and uniform
manifold approximation and projection (UMAP). The proposed DRE method can map
out-of-sample data and scale to extremely large datasets. Experiments on a
range of public datasets demonstrated improved embedding performance in terms
of local and global structure preservation, compared with other
state-of-the-art embedding methods.
- Abstract(参考訳): 高次元データを低次元多様体に埋め込むことは理論値と実用値の両方である。
本稿では,高次元データ埋め込みのための深層ニューラルネットワーク(dnn)と数学誘導埋め込みルールを組み合わせることを提案する。
本稿では,高次元空間から低次元空間へのパラメトリックマッピングを学習できる汎用的深層埋め込みネットワーク(den)フレームワークについて紹介する。
さらに,遅延データ表現を用いた埋め込み性能の向上を目的として,dre(deep recursive embedded)と呼ばれる再帰的戦略を提案する。
我々は,異なるアーキテクチャと損失関数によるDREの柔軟性を実証し,t分散確率的隣接埋め込み (t-SNE) と一様多様体近似および投影 (UMAP) の2つの最もポピュラーな埋め込み法と比較した。
提案手法はサンプル外データをマッピングし,極めて大規模なデータセットにスケールすることができる。
各種公開データセットを用いた実験により, 局所的およびグローバルな構造保存の観点から, 組込み性能が向上した。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and
Clustering with Gromov-Wasserstein Projection [50.51460159104604]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
伝統的に、これは次元還元法を用いて解釈可能な空間にデータを投影したり、意味のあるクラスタにポイントを整理する。
私たちは新しい視点 – 流通の視点 – を提供しています。
我々はクラスタリングと次元還元を分散還元と呼ばれる単一のフレームワークに統合する。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - A Heat Diffusion Perspective on Geodesic Preserving Dimensionality
Reduction [66.21060114843202]
熱測地線埋め込みと呼ばれるより一般的な熱カーネルベースの多様体埋め込み法を提案する。
その結果,本手法は,地中真理多様体距離の保存において,既存の技術よりも優れていることがわかった。
また,連続体とクラスタ構造を併用した単一セルRNAシークエンシングデータセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-30T13:58:50Z) - Learning Topology-Preserving Data Representations [9.710409273484464]
位相保存データ表現(次元減少)を学習する手法を提案する。
この手法の中核は、元の高次元データと潜時空間における低次元表現との間の表現トポロジディバージェンス(RTD)の最小化である。
提案手法は, 線形相関, 三重項距離ランキング精度, 永続バーコード間のワッサーシュタイン距離によって測定された, 最先端の競合相手よりも, データ多様体のグローバル構造とトポロジーをよりよく保存する。
論文 参考訳(メタデータ) (2023-01-31T22:55:04Z) - Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization [20.43471678277403]
本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
論文 参考訳(メタデータ) (2022-07-25T14:10:24Z) - Index $t$-SNE: Tracking Dynamics of High-Dimensional Datasets with
Coherent Embeddings [1.7188280334580195]
本稿では,クラスタの位置を保存した新しいものを作成するために,埋め込みを再利用する手法を提案する。
提案アルゴリズムは,新しい項目を埋め込むために$t$-SNEと同じ複雑さを持つ。
論文 参考訳(メタデータ) (2021-09-22T06:45:37Z) - HUMAP: Hierarchical Uniform Manifold Approximation and Projection [64.0476282000118]
HUMAPは、局所的・大域的構造と階層的探索を通してのメンタルマップの保存に柔軟に設計された、新しい階層的次元削減技術である。
本手法の優位性を示す実証的な証拠を,現在の階層的アプローチと比較し,その強みを示す2つのケーススタディを示す。
論文 参考訳(メタデータ) (2021-06-14T19:27:54Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Deep Recursive Embedding for High-Dimensional Data [10.499461691493526]
深層ニューラルネットワーク(DNN)と,高次元データ埋め込みのための数学的基盤埋め込み規則を組み合わせることを提案する。
本実験は,高次元データ埋め込みにおけるDRE(Deep Recursive Embedding)の優れた性能を示すものである。
論文 参考訳(メタデータ) (2021-04-12T03:04:38Z) - Invertible Manifold Learning for Dimension Reduction [44.16432765844299]
次元減少(DR)は,重要情報の保存により高次元データの低次元表現を学習することを目的としている。
Inv-ML(invertible manifold learning)と呼ばれる新しい2段階DR法を提案し、理論的な情報損失のないDRと実用的なDRのギャップを埋める。
実験は、i-ML-Encと呼ばれる、inv-MLのニューラルネットワーク実装による7つのデータセットで実施される。
論文 参考訳(メタデータ) (2020-10-07T14:22:51Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。