論文の概要: Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization
- arxiv url: http://arxiv.org/abs/2207.12214v1
- Date: Mon, 25 Jul 2022 14:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 16:01:16.553867
- Title: Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization
- Title(参考訳): 高次元データ可視化のためのlalacian-based cluster-contractive t-sne
- Authors: Yan Sun, Yi Han, Jicong Fan
- Abstract要約: 本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
- 参考スコア(独自算出の注目度): 20.43471678277403
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Dimensionality reduction techniques aim at representing high-dimensional data
in low-dimensional spaces to extract hidden and useful information or
facilitate visual understanding and interpretation of the data. However, few of
them take into consideration the potential cluster information contained
implicitly in the high-dimensional data. In this paper, we propose LaptSNE, a
new graph-layout nonlinear dimensionality reduction method based on t-SNE, one
of the best techniques for visualizing high-dimensional data as 2D scatter
plots. Specifically, LaptSNE leverages the eigenvalue information of the graph
Laplacian to shrink the potential clusters in the low-dimensional embedding
when learning to preserve the local and global structure from high-dimensional
space to low-dimensional space. It is nontrivial to solve the proposed model
because the eigenvalues of normalized symmetric Laplacian are functions of the
decision variable. We provide a majorization-minimization algorithm with
convergence guarantee to solve the optimization problem of LaptSNE and show how
to calculate the gradient analytically, which may be of broad interest when
considering optimization with Laplacian-composited objective. We evaluate our
method by a formal comparison with state-of-the-art methods, both visually and
via established quantitative measurements. The results demonstrate the
superiority of our method over baselines such as t-SNE and UMAP. We also extend
our method to spectral clustering and establish an accurate and parameter-free
clustering algorithm, which provides us high reliability and convenience in
real applications.
- Abstract(参考訳): 低次元空間における高次元データの表現を目的とし、隠れた有用な情報を抽出したり、データの視覚的理解や解釈を容易にする。
しかしながら、高次元データに暗黙的に含まれている潜在的なクラスタ情報を考慮する者は少ない。
本稿では,2次元散乱プロットとして高次元データを可視化する手法の1つである t-SNE に基づく新しいグラフレイアウト非線形次元削減手法 LaptSNE を提案する。
特に、laptsneはグラフラプラシアンの固有値情報を利用して、高次元空間から低次元空間への局所的および大域的な構造の保存を学ぶ際に、低次元埋め込みのポテンシャルクラスターを縮小する。
正規化対称ラプラシアンの固有値が決定変数の関数であるため、提案されたモデルを解くのは非自明である。
本稿では,laptsneの最適化問題を解くための収束保証付きメジャー化最小化アルゴリズムを提案し,ラプラシアン合成目的の最適化を考える際に広く注目される勾配を解析的に計算する方法を示す。
本手法は, 視覚的および定式的な定量的測定により, 最先端手法との形式的比較により評価した。
その結果, t-SNE や UMAP などのベースラインよりも本手法の方が優れていることが示された。
また,本手法をスペクトルクラスタリングに拡張し,高精度かつパラメータフリーなクラスタリングアルゴリズムを構築し,実際のアプリケーションで高い信頼性と利便性を実現する。
関連論文リスト
- Dimension reduction via score ratio matching [0.9012198585960441]
スコアマッチングから派生したフレームワークを提案し、勾配を利用できない問題に勾配に基づく次元の減少を拡大する。
提案手法は,低次元構造を有する問題に対して,標準的なスコアマッチングよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:21:03Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Linearly-scalable learning of smooth low-dimensional patterns with
permutation-aided entropic dimension reduction [0.0]
多くのデータサイエンス応用において、高次元データセットから適切に順序付けられた滑らかな低次元データパターンを抽出することが目的である。
本研究では, ユークリッドの滑らか度をパターン品質基準として選択する場合, これらの問題を数値的に効率的に解けることを示す。
論文 参考訳(メタデータ) (2023-06-17T08:03:24Z) - Topology-Preserving Dimensionality Reduction via Interleaving
Optimization [10.097180927318703]
本稿では, インターリーブ距離を最小化する最適化手法を次元還元アルゴリズムに組み込む方法について述べる。
データビジュアライゼーションにおけるこのフレームワークの有用性を実証する。
論文 参考訳(メタデータ) (2022-01-31T06:11:17Z) - ExClus: Explainable Clustering on Low-dimensional Data Representations [9.496898312608307]
次元の減少とクラスタリング技術は複雑なデータセットの分析に頻繁に使用されるが、それらの結果は容易には解釈できないことが多い。
本研究では, 直接解釈できない散乱プロット上で, クラスタ構造を解釈する際のユーザ支援について検討する。
本稿では,解釈可能なクラスタリングを自動的に計算する新しい手法を提案し,その説明は元の高次元空間にあり,クラスタリングは低次元射影においてコヒーレントである。
論文 参考訳(メタデータ) (2021-11-04T21:24:01Z) - Improving Metric Dimensionality Reduction with Distributed Topology [68.8204255655161]
DIPOLEは、局所的、計量的項と大域的、位相的項の両方で損失関数を最小化し、初期埋め込みを補正する次元推論後処理ステップである。
DIPOLEは、UMAP、t-SNE、Isomapといった一般的な手法よりも多くの一般的なデータセットで優れています。
論文 参考訳(メタデータ) (2021-06-14T17:19:44Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。