論文の概要: Survey: Geometric Foundations of Data Reduction
- arxiv url: http://arxiv.org/abs/2008.06853v2
- Date: Sun, 20 Mar 2022 12:55:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 09:16:46.594621
- Title: Survey: Geometric Foundations of Data Reduction
- Title(参考訳): 調査:データ削減の幾何学的基礎
- Authors: Ce Ju
- Abstract要約: 本研究の目的は,データ削減における非線形次元減少(NLDR)を簡潔に導入することである。
2001年、マニフォールド学習の概念がラプラシアン固有写像と呼ばれるNLDR法として初めて現れる。
行列と演算子表現を用いて各スペクトル多様体学習を導出し、それから幾何学的一様言語における各手法の収束挙動について議論する。
- 参考スコア(独自算出の注目度): 2.238700807267101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This survey is written in summer, 2016. The purpose of this survey is to
briefly introduce nonlinear dimensionality reduction (NLDR) in data reduction.
The first two NLDR were respectively published in Science in 2000 in which they
solve the similar reduction problem of high-dimensional data endowed with the
intrinsic nonlinear structure. The intrinsic nonlinear structure is always
interpreted as a concept in manifolds from geometry and topology in theoretical
mathematics by computer scientists and theoretical physicists. In 2001, the
concept of Manifold Learning first appears as an NLDR method called Laplacian
Eigenmaps. In a typical manifold learning setup, the data set, also called the
observation set, is distributed on or near a low dimensional manifold M
embedded in RD, which yields that each observation has a D-dimensional
representation. The goal of manifold learning is to reduce these observations
as a compact lower-dimensional representation based on the geometric
information. The reduction procedure is called the spectral manifold learning.
In this paper, we derive each spectral manifold learning with the matrix and
operator representation, and we then discuss the convergence behavior of each
method in a geometric uniform language. Hence, the survey is named Geometric
Foundations of Data Reduction.
- Abstract(参考訳): この調査は2016年の夏に書かれた。
本研究の目的は,データ削減における非線形次元減少(NLDR)を簡潔に導入することである。
最初の2つのNLDRは2000年にScienceで発表され、本質的な非線形構造を持つ高次元データの同様の還元問題を解いた。
固有非線形構造は、コンピュータ科学者や理論物理学者によって理論数学の幾何学や位相学から多様体の概念として解釈される。
2001年、マニフォールド学習の概念がラプラシアン固有写像と呼ばれるNLDR法として初めて現れる。
典型的な多様体学習装置では、観測集合とも呼ばれるデータセットは、RDに埋め込まれた低次元多様体 M 上に分布し、各観測はD次元表現を持つ。
多様体学習の目標は、幾何学的情報に基づくコンパクトな低次元表現としてこれらの観測を減らすことである。
還元過程はスペクトル多様体学習と呼ばれる。
本稿では,行列と演算子表現を用いた各スペクトル多様体学習を導出し,幾何学的一様言語における各手法の収束挙動について考察する。
そのため、この調査はGeometric Foundations of Data Reductionと名付けられた。
関連論文リスト
- A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Manifold learning: what, how, and why [2.681437069928767]
Manifold Learning (ML) は、データの低次元構造を見つけるための一連の手法である。
MLによって得られた新しい表現と記述子は、高次元の点雲の幾何学的形状を明らかにする。
本調査は,MLの基礎となる原則,代表的手法,および実践統計学者の視点からの統計基盤を提示する。
論文 参考訳(メタデータ) (2023-11-07T06:44:20Z) - A Heat Diffusion Perspective on Geodesic Preserving Dimensionality
Reduction [66.21060114843202]
熱測地線埋め込みと呼ばれるより一般的な熱カーネルベースの多様体埋め込み法を提案する。
その結果,本手法は,地中真理多様体距離の保存において,既存の技術よりも優れていることがわかった。
また,連続体とクラスタ構造を併用した単一セルRNAシークエンシングデータセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-30T13:58:50Z) - Exploring Data Geometry for Continual Learning [64.4358878435983]
非定常データストリームのデータ幾何を探索することにより,新しい視点から連続学習を研究する。
提案手法は,新しいデータによって引き起こされる幾何構造に対応するために,基底空間の幾何学を動的に拡張する。
実験により,本手法はユークリッド空間で設計したベースライン法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-04-08T06:35:25Z) - Study of Manifold Geometry using Multiscale Non-Negative Kernel Graphs [32.40622753355266]
データの幾何学的構造を研究するための枠組みを提案する。
我々は最近導入された非負のカーネル回帰グラフを用いて、点密度、固有次元、およびデータ多様体(曲率)の線型性を推定する。
論文 参考訳(メタデータ) (2022-10-31T17:01:17Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Statistical Mechanics of Neural Processing of Object Manifolds [3.4809730725241605]
この論文は、物体の神経処理の計算理論の基礎を築いた。
多様体のキャパシティは,有効半径, R_M, 有効次元, D_Mと決定される。
論文 参考訳(メタデータ) (2021-06-01T20:49:14Z) - Manifold learning with arbitrary norms [8.433233101044197]
本研究では,アースモーバー距離に基づく多様体学習が,分子形状空間を学習する標準的なユークリッド変種よりも優れていることを示す。
数値シミュレーションにより,アースモーバー距離に基づく多様体学習は,分子形状空間を学習するための標準ユークリッド変種よりも優れていることを示した。
論文 参考訳(メタデータ) (2020-12-28T10:24:30Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Disentangling by Subspace Diffusion [72.1895236605335]
データ多様体の完全教師なし分解は、多様体の真の計量が知られている場合、可能であることを示す。
我々の研究は、教師なしメートル法学習が可能であるかどうかという問題を減らし、表現学習の幾何学的性質に関する統一的な洞察を提供する。
論文 参考訳(メタデータ) (2020-06-23T13:33:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。