論文の概要: Scalable manifold learning by uniform landmark sampling and constrained
locally linear embedding
- arxiv url: http://arxiv.org/abs/2401.01100v2
- Date: Fri, 5 Jan 2024 08:09:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 17:30:34.597185
- Title: Scalable manifold learning by uniform landmark sampling and constrained
locally linear embedding
- Title(参考訳): 一様ランドマークサンプリングと制約付き局所線形埋め込みによるスケーラブル多様体学習
- Authors: Dehua Peng, Zhipeng Gui, Wenzhang Wei, Huayi Wu
- Abstract要約: 本研究では,大規模・高次元データを効率的に操作できるスケーラブルな多様体学習法を提案する。
異なるタイプの合成データセットと実世界のベンチマークにおけるSCMLの有効性を実証的に検証した。
scMLはデータサイズや埋め込み次元の増大とともにスケールし、グローバル構造を保存する上で有望なパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a pivotal approach in machine learning and data science, manifold learning
aims to uncover the intrinsic low-dimensional structure within complex
nonlinear manifolds in high-dimensional space. By exploiting the manifold
hypothesis, various techniques for nonlinear dimension reduction have been
developed to facilitate visualization, classification, clustering, and gaining
key insights. Although existing manifold learning methods have achieved
remarkable successes, they still suffer from extensive distortions incurred in
the global structure, which hinders the understanding of underlying patterns.
Scalability issues also limit their applicability for handling large-scale
data. Here, we propose a scalable manifold learning (scML) method that can
manipulate large-scale and high-dimensional data in an efficient manner. It
starts by seeking a set of landmarks to construct the low-dimensional skeleton
of the entire data, and then incorporates the non-landmarks into the learned
space based on the constrained locally linear embedding (CLLE). We empirically
validated the effectiveness of scML on synthetic datasets and real-world
benchmarks of different types, and applied it to analyze the single-cell
transcriptomics and detect anomalies in electrocardiogram (ECG) signals. scML
scales well with increasing data sizes and embedding dimensions, and exhibits
promising performance in preserving the global structure. The experiments
demonstrate notable robustness in embedding quality as the sample rate
decreases.
- Abstract(参考訳): 機械学習とデータサイエンスにおける重要なアプローチとして、多様体学習は、高次元空間における複素非線形多様体内の固有の低次元構造を明らかにすることを目的としている。
多様体仮説を利用して, 可視化, 分類, クラスタリング, 重要な洞察を得るために, 非線形次元低減のための様々な手法を開発した。
既存の多様体学習法は顕著な成功をおさめたが、それでも大域構造に生じる広範囲の歪みに苦しめられ、基本的なパターンの理解を妨げている。
スケーラビリティの問題は、大規模なデータを扱うための適用性にも制限がある。
本稿では,大規模・高次元データを効率的に操作できるスケーラブルな多様体学習(scml)手法を提案する。
まず、データ全体の低次元スケルトンを構築するためのランドマークのセットを探し始め、制約付き局所線型埋め込み(CLLE)に基づいて非ランドマークを学習空間に組み込む。
そこで本研究では,合成データセットと実世界ベンチマークにおけるscmlの有効性を実証的に検証し,単細胞転写学の解析と心電図信号の異常の検出に応用した。
scMLはデータサイズや埋め込み次元の増大とともにスケールし、グローバル構造を保存する上で有望なパフォーマンスを示す。
実験では, 試料速度が低下するにつれて, 埋込み品質に顕著なロバスト性を示す。
関連論文リスト
- Inductive Global and Local Manifold Approximation and Projection [5.629705943815797]
まず,次元縮小と高次元データ可視化のための新しい多様体学習法であるGLoMAPを提案する。
我々はGLoMAPをインダクティブ版iGLoMAPに拡張し、ディープニューラルネットワークを用いてデータを低次元表現にマッピングする。
我々は,GLoMAPとiGLoMAPの両方をシミュレーションおよび実データ設定に適用し,最先端手法に対する競合実験を行った。
論文 参考訳(メタデータ) (2024-06-12T11:22:27Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Unsupervised Anomaly Detection via Nonlinear Manifold Learning [0.0]
異常は、残りのデータから著しく逸脱するサンプルであり、その検出は機械学習モデルを構築する上で大きな役割を果たす。
非線形多様体学習に基づく頑健で効率的かつ解釈可能な手法を導入し,教師なし設定における異常を検出する。
論文 参考訳(メタデータ) (2023-06-15T18:48:10Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - A Multiscale Environment for Learning by Diffusion [9.619814126465206]
本稿では,Multiscale Environment for Learning by Diffusion (MELD)データモデルを提案する。
本稿では,MELDデータモデルがデータ中の潜在的マルチスケール構造を正確に把握し,解析を容易にすることを示す。
多くの実データセットで観測されるマルチスケール構造を効率的に学習するために,教師なし拡散(M-LUND)クラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-01-31T17:46:19Z) - Invertible Manifold Learning for Dimension Reduction [44.16432765844299]
次元減少(DR)は,重要情報の保存により高次元データの低次元表現を学習することを目的としている。
Inv-ML(invertible manifold learning)と呼ばれる新しい2段階DR法を提案し、理論的な情報損失のないDRと実用的なDRのギャップを埋める。
実験は、i-ML-Encと呼ばれる、inv-MLのニューラルネットワーク実装による7つのデータセットで実施される。
論文 参考訳(メタデータ) (2020-10-07T14:22:51Z) - Visualizing the Finer Cluster Structure of Large-Scale and
High-Dimensional Data [7.400745342582259]
一般化されたシグモイド関数を用いて高次元空間と低次元空間の距離類似性をモデル化する。
本研究では,シミュレーションと実世界の両方のデータセットを用いて,一様多様体の近似と投影に匹敵する可視化結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-17T01:36:45Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。