論文の概要: Robust Singular Values based on L1-norm PCA
- arxiv url: http://arxiv.org/abs/2210.12097v1
- Date: Fri, 21 Oct 2022 16:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 16:13:52.612990
- Title: Robust Singular Values based on L1-norm PCA
- Title(参考訳): L1-norm PCAに基づくロバスト特異値
- Authors: Duc Le, Panos P. Markopoulos
- Abstract要約: Singular-Value Decomposition (SVD) は、工学、科学、統計学におけるユビキタスなデータ解析手法である。
本稿では,L1-ノルム(絶対値の仮定)の定式化に基づくSVDと特異値推定のための新しいロバストな非パラメトリック手法を提案する。
- 参考スコア(独自算出の注目度): 11.706222361809374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Singular-Value Decomposition (SVD) is a ubiquitous data analysis method in
engineering, science, and statistics. Singular-value estimation, in particular,
is of critical importance in an array of engineering applications, such as
channel estimation in communication systems, electromyography signal analysis,
and image compression, to name just a few. Conventional SVD of a data matrix
coincides with standard Principal-Component Analysis (PCA). The L2-norm (sum of
squared values) formulation of PCA promotes peripheral data points and, thus,
makes PCA sensitive against outliers. Naturally, SVD inherits this outlier
sensitivity. In this work, we present a novel robust non-parametric method for
SVD and singular-value estimation based on a L1-norm (sum of absolute values)
formulation, which we name L1-cSVD. Accordingly, the proposed method
demonstrates sturdy resistance against outliers and can facilitate more
reliable data analysis and processing in a wide range of engineering
applications.
- Abstract(参考訳): Singular-Value Decomposition (SVD) は、工学、科学、統計学におけるユビキタスなデータ解析手法である。
特に特異値推定は,通信システムにおけるチャネル推定,筋電図信号解析,画像圧縮など,一連の工学的応用において重要である。
データ行列の従来のSVDは、標準主成分分析(PCA)と一致する。
PCAのL2ノルム(二乗値の仮定)の定式化は、周辺データポイントを促進し、PCAを外れ値に敏感にする。
当然、SVDはこの異常感度を継承する。
本研究では,L1-ノルム(絶対値の仮定)の定式化に基づくSVDと特異値推定のための新しいロバストな非パラメトリック手法を提案する。
そこで, 提案手法は, 外れ値に対する頑丈な耐性を示し, 幅広い工学的応用において, より信頼性の高いデータ解析と処理を容易にする。
関連論文リスト
- Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Robust SVD Made Easy: A fast and reliable algorithm for large-scale data
analysis [0.0]
既存のロバストなSVDアルゴリズムは、ロバスト性のために速度を犠牲にしたり、わずかに外れ値が存在する場合に失敗することが多い。
本研究では,Spherally Normalized SVDというアルゴリズムを導入し,ロバストなSVD近似手法を提案する。
提案アルゴリズムは, 標準低ランクSVDアルゴリズムの2つの応用しか利用せず, 顕著な高速化を実現している。
論文 参考訳(メタデータ) (2024-02-15T07:08:11Z) - On the Noise Sensitivity of the Randomized SVD [8.98526174345299]
ランダム化特異値分解(R-SVD)は、大きな行列の部分的なSVDを効率的に計算するためのスケッチベースアルゴリズムである。
我々はR-SVDを低ランク信号と雑音測定モデルで解析する。
R-SVDによって生成される特異値は、BBPのような相転移を示す。
論文 参考訳(メタデータ) (2023-05-27T10:15:17Z) - Numerical Optimizations for Weighted Low-rank Estimation on Language
Model [73.12941276331316]
Singular value decomposition (SVD) は、より小さい行列でターゲット行列を近似する最も一般的な圧縮手法の1つである。
標準SVDは行列内のパラメータを同じ重要性で扱うが、これは単純だが非現実的な仮定である。
本手法は,ニューラルベース言語モデルにおいて,現在のSOTA法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-02T00:58:02Z) - Local manifold learning and its link to domain-based physics knowledge [53.15471241298841]
多くの反応系では、熱化学状態空間は低次元多様体(LDM)に近く進化すると仮定される。
局所的データクラスタ(ローカルPCA)に適用されたPCAは,熱化学状態空間の固有パラメータ化を検出することができることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:06:25Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Robust factored principal component analysis for matrix-valued outlier
accommodation and detection [4.228971753938522]
Factored PCA (FPCA) は行列データに対するPCAの確率的拡張である。
行列データに対するFPCA(RFPCA)の堅牢な拡張を提案する。
RFPCAは適応的に減量し、ロバストな推定値が得られる。
論文 参考訳(メタデータ) (2021-12-13T16:12:22Z) - Differential privacy and robust statistics in high dimensions [49.50869296871643]
高次元Propose-Test-Release (HPTR) は指数的メカニズム、頑健な統計、Propose-Test-Release メカニズムという3つの重要なコンポーネントの上に構築されている。
本論文では,HPTRが複数のシナリオで最適サンプル複雑性をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2021-11-12T06:36:40Z) - Supervised Linear Dimension-Reduction Methods: Review, Extensions, and
Comparisons [6.71092092685492]
主成分分析(PCA)は、データ解析やモデリングに広く用いられている、よく知られた線形次元還元法である。
本稿では,選択した手法をレビューし,その一部を拡張し,シミュレーションによる性能比較を行う。
これらの2つの手法のうち、部分最小二乗法(PLS)と最小二乗法(LSPCA)は、この研究で他よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-09T17:57:25Z) - Regularisation for PCA- and SVD-type matrix factorisations [0.0]
特異値分解(SVD)とその近縁な主成分分析(PCA)はよく知られた線形行列分解法である。
本稿では,正規化問題について考察し,最小化問題の異なる定式化が質的に異なる解をもたらすことを示す。
論文 参考訳(メタデータ) (2021-06-24T12:25:12Z) - Stochastic Approximation for Online Tensorial Independent Component
Analysis [98.34292831923335]
独立成分分析(ICA)は統計機械学習や信号処理において一般的な次元削減ツールである。
本稿では,各独立成分を推定する副産物オンライン時系列アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T18:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。