論文の概要: ALPCAH: Subspace Learning for Sample-wise Heteroscedastic Data
- arxiv url: http://arxiv.org/abs/2505.07272v1
- Date: Mon, 12 May 2025 06:49:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.281995
- Title: ALPCAH: Subspace Learning for Sample-wise Heteroscedastic Data
- Title(参考訳): ALPCAH:サンプルワイド・ヘテロシダスティックデータのサブスペース学習
- Authors: Javier Salazar Cavazos, Jeffrey A. Fessler, Laura Balzano,
- Abstract要約: 本稿では,サンプル単位の雑音分散を推定できる部分空間学習手法 ALPCAH を提案する。
本手法は低ランク成分の分布を仮定せず,ノイズ分散が知られていると仮定しない。
さらに, ALPCAH の行列分解版である LR-ALPCAH を開発した。
- 参考スコア(独自算出の注目度): 15.812312064457867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Principal component analysis (PCA) is a key tool in the field of data dimensionality reduction. However, some applications involve heterogeneous data that vary in quality due to noise characteristics associated with each data sample. Heteroscedastic methods aim to deal with such mixed data quality. This paper develops a subspace learning method, named ALPCAH, that can estimate the sample-wise noise variances and use this information to improve the estimate of the subspace basis associated with the low-rank structure of the data. Our method makes no distributional assumptions of the low-rank component and does not assume that the noise variances are known. Further, this method uses a soft rank constraint that does not require subspace dimension to be known. Additionally, this paper develops a matrix factorized version of ALPCAH, named LR-ALPCAH, that is much faster and more memory efficient at the cost of requiring subspace dimension to be known or estimated. Simulations and real data experiments show the effectiveness of accounting for data heteroscedasticity compared to existing algorithms. Code available at https://github.com/javiersc1/ALPCAH.
- Abstract(参考訳): 主成分分析(PCA)はデータ次元削減の分野で重要なツールである。
しかし,各データサンプルに付随するノイズ特性により品質が変化する異種データを含むアプリケーションもある。
ヘテロセダスティックな手法は、このような混合データ品質を扱うことを目的としている。
本稿では,ALPCAHというサブスペース学習手法を開発し,サンプル単位のノイズ分散を推定し,この情報を用いてデータの低ランク構造に関連するサブスペースベースの推定を改善する。
本手法は低ランク成分の分布を仮定せず,ノイズの分散が知られていると仮定しない。
さらに、この手法は、既知の部分空間次元を必要としないソフトランク制約を用いる。
さらに, ALPCAH の行列分解版である LR-ALPCAH を開発した。
シミュレーションと実データ実験は、既存のアルゴリズムと比較して、データのヘテロセシスティック性を考慮した会計の有効性を示す。
コードはhttps://github.com/javiersc1/ALPCAH.comで公開されている。
関連論文リスト
- ALPCAH: Sample-wise Heteroscedastic PCA with Tail Singular Value
Regularization [17.771454131646312]
主成分分析はデータ次元削減の分野で重要なツールである。
そこで本研究では,サンプル単位の雑音分散を推定できるPCA法を開発した。
これは低ランク成分の分布的な仮定なしで、ノイズの分散が知られていると仮定せずに行われる。
論文 参考訳(メタデータ) (2023-07-06T03:11:11Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Stochastic tensor space feature theory with applications to robust machine learning [3.6891975755608355]
テンソル空間に基づくマルチレベル直交部分空間(MOS)カーフン・ローブ特徴量理論を開発する。
私たちのキーとなる観察は、個別の機械学習クラスは、主に異なる部分空間に存在することができるということです。
血漿データセット(アルツハイマー病神経画像イニシアチブ)の検査では、精度が劇的に向上した。
論文 参考訳(メタデータ) (2021-10-04T22:01:01Z) - Tensor Laplacian Regularized Low-Rank Representation for Non-uniformly
Distributed Data Subspace Clustering [2.578242050187029]
低ランク表現(LRR)は、サブスペースクラスタリングにおけるデータポイントの局所性情報を破棄する。
本稿では,隣接ノードの変動数を容易にし,データの局所性情報を組み込むハイパーグラフモデルを提案する。
人工および実データを用いた実験により,提案手法の精度と精度が向上した。
論文 参考訳(メタデータ) (2021-03-06T08:22:24Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - A Method for Handling Multi-class Imbalanced Data by Geometry based
Information Sampling and Class Prioritized Synthetic Data Generation (GICaPS) [15.433936272310952]
本稿では,多ラベル分類問題における不均衡データ処理の問題について考察する。
特徴ベクトル間の幾何学的関係を利用する2つの新しい手法が提案されている。
提案手法の有効性は,汎用的なマルチクラス認識問題を解くことによって解析する。
論文 参考訳(メタデータ) (2020-10-11T04:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。