論文の概要: Optimal Discriminant Analysis in High-Dimensional Latent Factor Models
- arxiv url: http://arxiv.org/abs/2210.12862v1
- Date: Sun, 23 Oct 2022 21:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:17:54.372803
- Title: Optimal Discriminant Analysis in High-Dimensional Latent Factor Models
- Title(参考訳): 高次元潜在因子モデルにおける最適判別分析
- Authors: Xin Bing and Marten Wegkamp
- Abstract要約: 高次元分類問題において、一般的に用いられるアプローチは、まず高次元の特徴を低次元空間に射影することである。
我々は、この2段階の手順を正当化するために、隠れた低次元構造を持つ潜在変数モデルを定式化する。
観測された特徴の特定の主成分(PC)を射影とする計算効率の良い分類器を提案する。
- 参考スコア(独自算出の注目度): 1.4213973379473654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In high-dimensional classification problems, a commonly used approach is to
first project the high-dimensional features into a lower dimensional space, and
base the classification on the resulting lower dimensional projections. In this
paper, we formulate a latent-variable model with a hidden low-dimensional
structure to justify this two-step procedure and to guide which projection to
choose. We propose a computationally efficient classifier that takes certain
principal components (PCs) of the observed features as projections, with the
number of retained PCs selected in a data-driven way. A general theory is
established for analyzing such two-step classifiers based on any projections.
We derive explicit rates of convergence of the excess risk of the proposed
PC-based classifier. The obtained rates are further shown to be optimal up to
logarithmic factors in the minimax sense. Our theory allows the lower-dimension
to grow with the sample size and is also valid even when the feature dimension
(greatly) exceeds the sample size. Extensive simulations corroborate our
theoretical findings. The proposed method also performs favorably relative to
other existing discriminant methods on three real data examples.
- Abstract(参考訳): 高次元分類問題において、一般的に用いられるアプローチは、まず高次元の特徴を低次元空間に投影し、その結果得られる低次元射影を分類する。
本稿では,この2段階の手順を正当化し,選択する射影を導くために,隠れた低次元構造を持つ潜在変数モデルを定式化する。
本稿では,観測された特徴の特定の主成分(PC)を投影として,データ駆動方式で選択した保持PCの数を計算効率よく分類する手法を提案する。
任意の射影に基づいてこれらの二段階分類器を分析するための一般的な理論が確立される。
提案するpcベース分類器の過剰リスクの収束率を明示的に導出する。
得られた率は、ミニマックス意味での対数因子まで最適であることがさらに示される。
本理論は, 試料サイズで低次元が成長することを可能にするとともに, 特徴次元が試料サイズを超える場合においても有効である。
大規模なシミュレーションは我々の理論的な結果を裏付ける。
提案手法は,3つの実データ例において,既存の判別手法と良好に比較できる。
関連論文リスト
- Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - Sharp-SSL: Selective high-dimensional axis-aligned random projections
for semi-supervised learning [16.673022545571566]
本稿では,高次元半教師付き学習問題に対する新しい手法を提案する。
これは、データの多くの軸方向のランダムな投影に適用される低次元プロシージャの結果の慎重な集約に基づいている。
論文 参考訳(メタデータ) (2023-04-18T17:49:02Z) - Origins of Low-dimensional Adversarial Perturbations [17.17170592140042]
分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
論文 参考訳(メタデータ) (2022-03-25T17:02:49Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Dimensionality Reduction via Diffusion Map Improved with Supervised
Linear Projection [1.7513645771137178]
本稿では、データサンプルが1つの基礎となる滑らかな多様体上に存在すると仮定する。
ペアワイズローカルカーネル距離を用いてクラス内およびクラス間類似性を定義する。
クラス内類似度を最大化し、クラス間類似度を同時に最小化する線形射影を求める。
論文 参考訳(メタデータ) (2020-08-08T04:26:07Z) - The classification for High-dimension low-sample size data [3.411873646414169]
本稿では,クラス分離可能性の前提として,クラス内分散の類似性を強調する,HDLSSの新たな分類基準を提案する。
この基準により、非分離データ分散最大値 (NPDMD) で表される新しい線形二分分類器が設計される。
NPDMDは最先端の分類法と比較していくつかの特徴がある。
論文 参考訳(メタデータ) (2020-06-21T07:04:16Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z) - Unsupervised Discretization by Two-dimensional MDL-based Histogram [0.0]
教師なしの離散化は多くの知識発見タスクにおいて重要なステップである。
本稿では,2次元データのより柔軟な分割を可能にする表現型モデルクラスを提案する。
本稿では,各次元を交互に分割し,隣接する領域をマージするPALMというアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-02T19:19:49Z) - Two-Dimensional Semi-Nonnegative Matrix Factorization for Clustering [50.43424130281065]
TS-NMFと呼ばれる2次元(2次元)データに対する新しい半負行列分解法を提案する。
前処理ステップで2次元データをベクトルに変換することで、データの空間情報に深刻なダメージを与える既存の手法の欠点を克服する。
論文 参考訳(メタデータ) (2020-05-19T05:54:14Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。