論文の概要: Learning Ordered Representations in Latent Space for Intrinsic Dimension Estimation via Principal Component Autoencoder
- arxiv url: http://arxiv.org/abs/2601.19179v1
- Date: Tue, 27 Jan 2026 04:24:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.169089
- Title: Learning Ordered Representations in Latent Space for Intrinsic Dimension Estimation via Principal Component Autoencoder
- Title(参考訳): 主成分オートエンコーダを用いた固有次元推定のための潜在空間における順序付き表現の学習
- Authors: Qipeng Zhan, Zhuoping Zhou, Zexuan Wang, Li Shen,
- Abstract要約: オートエンコーダは長い間、主成分分析(PCA)の非線形拡張と見なされてきた。
非一様分散正規化と等尺制約を統合する新しいオートエンコーダフレームワークを提案する。
この設計はPCAの自然な一般化として機能し、順序付き表現や分散保持といった重要な利点をモデルが維持できる。
- 参考スコア(独自算出の注目度): 10.509144950561103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoencoders have long been considered a nonlinear extension of Principal Component Analysis (PCA). Prior studies have demonstrated that linear autoencoders (LAEs) can recover the ordered, axis-aligned principal components of PCA by incorporating non-uniform $\ell_2$ regularization or by adjusting the loss function. However, these approaches become insufficient in the nonlinear setting, as the remaining variance cannot be properly captured independently of the nonlinear mapping. In this work, we propose a novel autoencoder framework that integrates non-uniform variance regularization with an isometric constraint. This design serves as a natural generalization of PCA, enabling the model to preserve key advantages, such as ordered representations and variance retention, while remaining effective for nonlinear dimensionality reduction tasks.
- Abstract(参考訳): オートエンコーダは長い間、主成分分析(PCA)の非線形拡張と見なされてきた。
従来の研究では、線形オートエンコーダ(LAE)は、不均一な$\ell_2$正規化を組み込んだり、損失関数を調整したりすることで、PCAの順序付き軸整列主成分を復元することができることが示されている。
しかし、これらのアプローチは、非線形マッピングとは独立に残りの分散を適切に捉えることができないため、非線形環境では不十分となる。
本研究では,非一様分散正規化と等尺制約を統合した新しいオートエンコーダフレームワークを提案する。
この設計はPCAの自然な一般化として機能し、秩序表現や分散保持といった重要な利点を保ちながら、非線形次元減少タスクに有効である。
関連論文リスト
- Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability [0.0]
本稿では,Sparse Isotonic Shapley Regression (SISR)について紹介する。
SISRは単調変換を学び、加法的に復元する。-閉形式仕様の必要性を回避し、Shapleyベクトル上でL0間隔制約を強制する。
SISRはペイオフスキーム間の属性を安定化し、無関係な特徴を正しくフィルタリングする。
論文 参考訳(メタデータ) (2025-12-02T08:34:43Z) - Adversarial Dependence Minimization [78.36795688238155]
この研究は、線形対のデコリレーションを超越した依存最小化のための微分可能でスケーラブルなアルゴリズムを提供する。
我々は,PCAを非線形デコリレーションに拡張し,画像分類法の一般化を改良し,自己教師あり表現学習における次元的崩壊を防止する3つのアプリケーションでその実用性を実証する。
論文 参考訳(メタデータ) (2025-02-05T14:43:40Z) - Refined Risk Bounds for Unbounded Losses via Transductive Priors [67.12679195076387]
線形回帰の逐次変分を2乗損失、ヒンジ損失の分類問題、ロジスティック回帰で再検討する。
我々の鍵となるツールは、慎重に選択された導出先を持つ指数重み付けアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-10-29T00:01:04Z) - $σ$-PCA: a building block for neural learning of identifiable linear transformations [0.0]
$sigma$-PCAは線形および非線形PCAの統一モデルを定式化する手法である。
非線形PCAは、ばらつきと統計的独立性の両方を最大化する方法と見なすことができる。
論文 参考訳(メタデータ) (2023-11-22T18:34:49Z) - Gram-Schmidt Methods for Unsupervised Feature Extraction and Selection [7.373617024876725]
本稿では,関数空間上のGram-Schmidtプロセスを提案する。
合成および実世界のベンチマークデータセットに対する実験結果を提供する。
驚いたことに、線形特徴抽出アルゴリズムは同等であり、しばしば重要な非線形特徴抽出法よりも優れている。
論文 参考訳(メタデータ) (2023-11-15T21:29:57Z) - Fundamental Limits of Two-layer Autoencoders, and Achieving Them with
Gradient Methods [91.54785981649228]
本稿では,非線形二層型オートエンコーダについて述べる。
本結果は,人口リスクの最小化要因を特徴付け,その最小化要因が勾配法によって達成されることを示す。
符号アクティベーション関数の特別な場合において、この解析は、シャローオートエンコーダによるガウス音源の損失圧縮の基本的な限界を確立する。
論文 参考訳(メタデータ) (2022-12-27T12:37:34Z) - PCA-Boosted Autoencoders for Nonlinear Dimensionality Reduction in Low
Data Regimes [0.2925461470287228]
そこで本研究では,PCAを利用して少ない非線形データによく対応できるオートエンコーダを提案する。
まず, データの非線形性とサイズが提案手法の性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2022-05-23T23:46:52Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Sparse Quantized Spectral Clustering [85.77233010209368]
このような非線形変換の下で行列の固有スペクトルがどのように変化するのかを、ランダム行列理論のツールを用いて正確に述べる。
急激なスペーシング/量子化の下でも,情報的固有構造にはほとんど変化は見られなかった。
論文 参考訳(メタデータ) (2020-10-03T15:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。