論文の概要: Multi-view Sparse Laplacian Eigenmaps for nonlinear Spectral Feature
Selection
- arxiv url: http://arxiv.org/abs/2307.15905v1
- Date: Sat, 29 Jul 2023 06:23:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 18:44:33.981368
- Title: Multi-view Sparse Laplacian Eigenmaps for nonlinear Spectral Feature
Selection
- Title(参考訳): 非線形スペクトル特徴選択のためのマルチビュースパースラプラシアン固有写像
- Authors: Gaurav Srivastava, Mahesh Jangid
- Abstract要約: 高次元データセットの複雑さは、機械学習モデルに重大な課題をもたらす。
これらの課題に対処するためには、データの本質的構造を捉えた機能の情報的サブセットを特定することが不可欠である。
本研究では,マルチビュー・スパース・ラプラシアン固有写像(MSLE)を特徴選択のために提案する。
- 参考スコア(独自算出の注目度): 1.6853711292804476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The complexity of high-dimensional datasets presents significant challenges
for machine learning models, including overfitting, computational complexity,
and difficulties in interpreting results. To address these challenges, it is
essential to identify an informative subset of features that captures the
essential structure of the data. In this study, the authors propose Multi-view
Sparse Laplacian Eigenmaps (MSLE) for feature selection, which effectively
combines multiple views of the data, enforces sparsity constraints, and employs
a scalable optimization algorithm to identify a subset of features that capture
the fundamental data structure. MSLE is a graph-based approach that leverages
multiple views of the data to construct a more robust and informative
representation of high-dimensional data. The method applies sparse
eigendecomposition to reduce the dimensionality of the data, yielding a reduced
feature set. The optimization problem is solved using an iterative algorithm
alternating between updating the sparse coefficients and the Laplacian graph
matrix. The sparse coefficients are updated using a soft-thresholding operator,
while the graph Laplacian matrix is updated using the normalized graph
Laplacian. To evaluate the performance of the MSLE technique, the authors
conducted experiments on the UCI-HAR dataset, which comprises 561 features, and
reduced the feature space by 10 to 90%. Our results demonstrate that even after
reducing the feature space by 90%, the Support Vector Machine (SVM) maintains
an error rate of 2.72%. Moreover, the authors observe that the SVM exhibits an
accuracy of 96.69% with an 80% reduction in the overall feature space.
- Abstract(参考訳): 高次元データセットの複雑性は、過剰フィッティング、計算複雑性、結果解釈の困難など、機械学習モデルに重大な課題をもたらす。
これらの課題に対処するためには、データの本質的構造を捉えた機能の情報的サブセットを特定することが不可欠である。
本研究では,データの複数ビューを効果的に結合し,スパーシティ制約を強制し,基本データ構造をキャプチャする機能のサブセットを特定するためにスケーラブルな最適化アルゴリズムを用いる特徴選択のためのマルチビュースパースラプラシアン固有マップ(msle)を提案する。
MSLEは、高次元データのより堅牢で情報的な表現を構築するために、データの複数のビューを活用するグラフベースのアプローチである。
この方法はスパース固有分解を適用してデータの次元を小さくし、特徴集合を小さくする。
スパース係数とラプラシアングラフ行列の更新を交互に繰り返す反復アルゴリズムを用いて最適化問題を解く。
スパース係数はソフトスレッショルド演算子を用いて更新され、グラフラプラシアン行列は正規化グラフラプラシアンを用いて更新される。
筆者らは,MSLE手法の性能を評価するために,561個の特徴からなるUCI-HARデータセットの実験を行い,特徴空間を10~90%削減した。
その結果,機能領域を90%削減した後でも,SVM(Support Vector Machine)はエラー率2.72%を維持していることがわかった。
さらに、著者らはSVMが96.69%の精度を示し、全体の特徴空間を80%削減していると考えている。
関連論文リスト
- Nonlinear Feature Aggregation: Two Algorithms driven by Theory [45.3190496371625]
現実世界の機械学習アプリケーションは、膨大な機能によって特徴付けられ、計算やメモリの問題を引き起こす。
一般集約関数を用いて特徴量の非線形変換を集約する次元還元アルゴリズム(NonLinCFA)を提案する。
また、アルゴリズムを合成および実世界のデータセット上でテストし、回帰および分類タスクを実行し、競合性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:57:33Z) - Interpretable Linear Dimensionality Reduction based on Bias-Variance
Analysis [45.3190496371625]
本稿では,特徴の解釈可能性を維持するための基本次元削減手法を提案する。
このように、全ての特徴を考慮し、次元性を減らし、解釈可能性を保持する。
論文 参考訳(メタデータ) (2023-03-26T14:30:38Z) - Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization [20.43471678277403]
本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
論文 参考訳(メタデータ) (2022-07-25T14:10:24Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Adaptive Graph-based Generalized Regression Model for Unsupervised
Feature Selection [11.214334712819396]
非相関的かつ識別的特徴の選択は、教師なしの機能選択の重要な問題である。
非相関制約と $ell_2,1$-norm 正規化によって課される新しい一般化回帰モデルを提案する。
それは同時に同じ近所に属するこれらのデータ ポイントの分散を減らすこと無相関および差別的な特徴を選ぶことができます。
論文 参考訳(メタデータ) (2020-12-27T09:07:26Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z) - Model Inversion Networks for Model-Based Optimization [110.24531801773392]
スコアから入力への逆写像を学習するモデル反転ネットワーク(MIN)を提案する。
MINは高次元の入力空間にスケールでき、コンテキスト最適化と非コンテキスト最適化の両方にオフラインログデータを利用する。
我々は,ベイズ最適化の文献から,画像やタンパク質の設計に対する高次元モデルベース最適化問題,ログデータからのコンテキスト的帯域最適化といったタスクのMINを評価した。
論文 参考訳(メタデータ) (2019-12-31T18:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。