論文の概要: Linearly-scalable learning of smooth low-dimensional patterns with
permutation-aided entropic dimension reduction
- arxiv url: http://arxiv.org/abs/2306.10287v1
- Date: Sat, 17 Jun 2023 08:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 23:27:43.338801
- Title: Linearly-scalable learning of smooth low-dimensional patterns with
permutation-aided entropic dimension reduction
- Title(参考訳): 置換支援エントロピー次元減少を伴う滑らかな低次元パターンの線形スケーラブル学習
- Authors: Illia Horenko and Lukas Pospisil
- Abstract要約: 多くのデータサイエンス応用において、高次元データセットから適切に順序付けられた滑らかな低次元データパターンを抽出することが目的である。
本研究では, ユークリッドの滑らか度をパターン品質基準として選択する場合, これらの問題を数値的に効率的に解けることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many data science applications, the objective is to extract
appropriately-ordered smooth low-dimensional data patterns from
high-dimensional data sets. This is challenging since common sorting algorithms
are primarily aiming at finding monotonic orderings in low-dimensional data,
whereas typical dimension reduction and feature extraction algorithms are not
primarily designed for extracting smooth low-dimensional data patterns. We show
that when selecting the Euclidean smoothness as a pattern quality criterium,
both of these problems (finding the optimal 'crisp' data permutation and
extracting the sparse set of permuted low-dimensional smooth patterns) can be
efficiently solved numerically as one unsupervised entropy-regularized
iterative optimization problem. We formulate and prove the conditions for
monotonicity and convergence of this linearly-scalable (in dimension) numerical
procedure, with the iteration cost scaling of $\mathcal{O}(DT^2)$, where $T$ is
the size of the data statistics and $D$ is a feature space dimension. The
efficacy of the proposed method is demonstrated through the examination of
synthetic examples as well as a real-world application involving the
identification of smooth bankruptcy risk minimizing transition patterns from
high-dimensional economical data. The results showcase that the statistical
properties of the overall time complexity of the method exhibit linear scaling
in the dimensionality $D$ within the specified confidence intervals.
- Abstract(参考訳): 多くのデータサイエンスの応用において、目的は高次元データセットから適切に整列された滑らかな低次元データパターンを抽出することである。
これは、一般的なソートアルゴリズムが主に低次元データにおける単調順序を見つけることを目的としているのに対し、典型的な次元の縮小と特徴抽出アルゴリズムはスムーズな低次元データパターンの抽出を主な目的としていないためである。
パターン品質基準としてユークリッドの滑らか度を選択する場合、これらの問題(最適な「クリスプ」データの置換と、置換された低次元の滑らかなパターンのスパース集合の抽出)は、教師なしエントロピー規則化反復最適化問題として効率的に解けることを示す。
この線形スケーリング可能な(次元において)数値手順の単調性および収束条件を定式化し、反復コストのスケーリングを$\mathcal{O}(DT^2)$とすると、$T$はデータ統計量の大きさであり、$D$は特徴空間次元である。
提案手法の有効性は, 高次元経済データから遷移パターンを最小化するスムーズな倒産リスクの同定を含む実例および実世界の応用の検証を通じて実証された。
その結果,本手法の全体的な時間複雑性の統計的性質は,信頼区間内の次元$d$の線形スケーリングを示すことがわかった。
関連論文リスト
- Dimension reduction via score ratio matching [0.9012198585960441]
スコアマッチングから派生したフレームワークを提案し、勾配を利用できない問題に勾配に基づく次元の減少を拡大する。
提案手法は,低次元構造を有する問題に対して,標準的なスコアマッチングよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:21:03Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
我々は、高次元一般化線形モデルにおいて、オンライン推論に新しいアプローチを導入する。
本手法はシングルパスモードで動作し,時間と空間の複雑さを著しく低減する。
提案手法は,ADL (Approximated Debiased Lasso) と呼ばれ,有界な個人確率条件の必要性を緩和するだけでなく,数値性能も著しく向上することを示した。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Interpretable Linear Dimensionality Reduction based on Bias-Variance
Analysis [45.3190496371625]
本稿では,特徴の解釈可能性を維持するための基本次元削減手法を提案する。
このように、全ての特徴を考慮し、次元性を減らし、解釈可能性を保持する。
論文 参考訳(メタデータ) (2023-03-26T14:30:38Z) - Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization [20.43471678277403]
本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
論文 参考訳(メタデータ) (2022-07-25T14:10:24Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。