論文の概要: Deep Recursive Embedding for High-Dimensional Data
- arxiv url: http://arxiv.org/abs/2104.05171v1
- Date: Mon, 12 Apr 2021 03:04:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:09:25.851796
- Title: Deep Recursive Embedding for High-Dimensional Data
- Title(参考訳): 高次元データのための深部再帰埋め込み
- Authors: Zixia Zhou, Yuanyuan Wang, Boudewijn P.F. Lelieveldt, Qian Tao
- Abstract要約: 深層ニューラルネットワーク(DNN)と,高次元データ埋め込みのための数学的基盤埋め込み規則を組み合わせることを提案する。
本実験は,高次元データ埋め込みにおけるDRE(Deep Recursive Embedding)の優れた性能を示すものである。
- 参考スコア(独自算出の注目度): 10.499461691493526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: t-distributed stochastic neighbor embedding (t-SNE) is a well-established
visualization method for complex high-dimensional data. However, the original
t-SNE method is nonparametric, stochastic, and often cannot well prevserve the
global structure of data as it emphasizes local neighborhood. With t-SNE as a
reference, we propose to combine the deep neural network (DNN) with the
mathematical-grounded embedding rules for high-dimensional data embedding. We
first introduce a deep embedding network (DEN) framework, which can learn a
parametric mapping from high-dimensional space to low-dimensional embedding.
DEN has a flexible architecture that can accommodate different input data
(vector, image, or tensor) and loss functions. To improve the embedding
performance, a recursive training strategy is proposed to make use of the
latent representations extracted by DEN. Finally, we propose a two-stage loss
function combining the advantages of two popular embedding methods, namely,
t-SNE and uniform manifold approximation and projection (UMAP), for optimal
visualization effect. We name the proposed method Deep Recursive Embedding
(DRE), which optimizes DEN with a recursive training strategy and two-stage
losse. Our experiments demonstrated the excellent performance of the proposed
DRE method on high-dimensional data embedding, across a variety of public
databases. Remarkably, our comparative results suggested that our proposed DRE
could lead to improved global structure preservation.
- Abstract(参考訳): t-distributed stochastic neighbor embedded (t-sne) は複雑な高次元データに対するよく確立された可視化手法である。
しかし、元の t-SNE 法は非パラメトリックで確率的であり、しばしば局所的な近傍を強調するため、データのグローバルな構造を十分に保存することができない。
t-sneを基準として,深層ニューラルネットワーク(dnn)を高次元データ埋め込みのための数学的根拠埋め込みルールと組み合わせることを提案する。
まず,高次元空間から低次元埋め込みへのパラメトリックマッピングを学習できる深層埋め込みネットワーク(den)フレームワークについて紹介する。
DENは柔軟なアーキテクチャを持ち、異なる入力データ(ベクトル、画像、テンソル)と損失関数に対応できる。
組込み性能を向上させるために,denで抽出した潜在表現を利用した再帰的学習戦略を提案する。
最後に,2つの一般的な埋め込み手法,すなわち t-SNE と一様多様体近似および投影(UMAP)の利点を組み合わせた2段階の損失関数を提案する。
本稿では,再帰的トレーニング戦略と2段階の損失でDENを最適化するDeep Recursive Embedding (DRE) を提案する。
本実験は,多種多様な公開データベースにまたがる高次元データ埋め込みにおけるDRE手法の優れた性能を実証した。
以上の結果から,提案したDREがグローバルな構造保存の改善につながる可能性が示唆された。
関連論文リスト
- Hyperboloid GPLVM for Discovering Continuous Hierarchies via Nonparametric Estimation [41.13597666007784]
次元性低減(DR)は複雑な高次元データの有用な表現を提供する。
最近のDR法は、階層データの忠実な低次元表現を導出する双曲幾何学に焦点を当てている。
本稿では,非パラメトリック推定による暗黙的な連続性を持つ高次元階層データを埋め込むためのhGP-LVMを提案する。
論文 参考訳(メタデータ) (2024-10-22T05:07:30Z) - Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization [20.43471678277403]
本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
論文 参考訳(メタデータ) (2022-07-25T14:10:24Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Deep Recursive Embedding for High-Dimensional Data [9.611123249318126]
本稿では,DNN(Deep Neural Network)と高次元データ埋め込みのための数学誘導埋め込みルールを組み合わせることを提案する。
本稿では,高次元空間から低次元空間へのパラメトリックマッピングを学習可能な汎用ディープ埋め込みネットワーク(DEN)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-31T23:22:33Z) - Index $t$-SNE: Tracking Dynamics of High-Dimensional Datasets with
Coherent Embeddings [1.7188280334580195]
本稿では,クラスタの位置を保存した新しいものを作成するために,埋め込みを再利用する手法を提案する。
提案アルゴリズムは,新しい項目を埋め込むために$t$-SNEと同じ複雑さを持つ。
論文 参考訳(メタデータ) (2021-09-22T06:45:37Z) - Improving Metric Dimensionality Reduction with Distributed Topology [68.8204255655161]
DIPOLEは、局所的、計量的項と大域的、位相的項の両方で損失関数を最小化し、初期埋め込みを補正する次元推論後処理ステップである。
DIPOLEは、UMAP、t-SNE、Isomapといった一般的な手法よりも多くの一般的なデータセットで優れています。
論文 参考訳(メタデータ) (2021-06-14T17:19:44Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Densely Nested Top-Down Flows for Salient Object Detection [137.74130900326833]
本稿では,物体検出におけるトップダウンモデリングの役割を再考する。
密度の高いトップダウンフロー(DNTDF)ベースのフレームワークを設計する。
DNTDFのすべての段階において、高いレベルの特徴はプログレッシブ圧縮ショートカットパス(PCSP)を介して読み込まれる。
論文 参考訳(メタデータ) (2021-02-18T03:14:02Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。