論文の概要: A Convex formulation for linear discriminant analysis
- arxiv url: http://arxiv.org/abs/2503.13623v1
- Date: Mon, 17 Mar 2025 18:17:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:17:13.508224
- Title: A Convex formulation for linear discriminant analysis
- Title(参考訳): 線形判別分析のための凸定式化
- Authors: Sai Vijay Kumar Surineela, Prathyusha Kanakamalla, Harigovind Harikumar, Tomojit Ghosh,
- Abstract要約: 本稿では,Convex Linear Discriminant Analysis (ConvexLDA) と呼ばれるディメンタリティ低減手法を提案する。
その結果,ConvexLDAは,高次元の生物学的データや画像データセットなどにおいて,LDA(Lyly linear discriminant analysis)に基づくいくつかの手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License:
- Abstract: We present a supervised dimensionality reduction technique called Convex Linear Discriminant Analysis (ConvexLDA). The proposed model optimizes a multi-objective cost function by balancing two complementary terms. The first term pulls the samples of a class towards its centroid by minimizing a sample's distance from its class-centroid in low dimensional space. The second term pushes the classes far apart by maximizing their hyperellipsoid scattering volume via the logarithm of the determinant (\textit{log det}) of the outer product matrix formed by the low-dimensional class-centroids. Using the negative of the \textit{log det}, we pose the final cost as a minimization problem, which balances the two terms using a hyper-parameter $\lambda$. We demonstrate that the cost function is convex. Unlike Fisher LDA, the proposed method doesn't require to compute the inverse of a matrix, hence avoiding any ill-conditioned problem where data dimension is very high, e.g. RNA-seq data. ConvexLDA doesn't require pair-wise distance calculation, making it faster and more easily scalable. Moreover, the convex nature of the cost function ensures global optimality, enhancing the reliability of the learned embedding. Our experimental evaluation demonstrates that ConvexLDA outperforms several popular linear discriminant analysis (LDA)-based methods on a range of high-dimensional biological data, image data sets, etc.
- Abstract(参考訳): 本稿では,Convex Linear Discriminant Analysis (ConvexLDA) と呼ばれるディメンタリティ低減手法を提案する。
提案モデルは,2つの相補的項のバランスをとることで,多目的コスト関数を最適化する。
最初の項は、低次元空間におけるクラスセントロイドからの距離を最小にすることで、クラスのサンプルをそのセントロイドに向かって引き出す。
第二項は、低次元のクラスセントロイドによって形成される外積行列の行列式 (\textit{log det}) の対数を通して、超楕円体散乱体積を最大化することによって、クラスを遠くに押し出す。
これは、ハイパーパラメータ$\lambda$で2つの項のバランスをとる最小化問題である。
コスト関数は凸であることを示す。
Fisher LDAとは異なり、提案手法は行列の逆数を計算する必要はなく、従ってデータ次元が非常に高い不条件問題、例えばRNA-seqデータを避けることができる。
ConvexLDAはペアワイズ距離の計算を必要としないため、より高速で、よりスケーラブルです。
さらに,コスト関数の凸特性により,グローバルな最適性が確保され,学習された埋め込みの信頼性が向上する。
実験により,ConvexLDAは,高次元生物学的データや画像データセットなどにおいて,いくつかの一般的な線形判別分析法(LDA)よりも優れていることが示された。
関連論文リスト
- ADMM for Structured Fractional Minimization [7.9047096855236125]
我々は、数値化器が微分可能な関数を含むような、構造化された分数問題のクラスを考える。
本稿では,このクラスの問題に対して,最初の乗算器の交換法であるsf FADMMを紹介する。
論文 参考訳(メタデータ) (2024-11-12T02:50:12Z) - Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Obtaining Lower Query Complexities through Lightweight Zeroth-Order Proximal Gradient Algorithms [65.42376001308064]
複素勾配問題に対する2つの分散化ZO推定器を提案する。
我々は、現在最先端の機能複雑性を$mathcalOleft(minfracdn1/2epsilon2, fracdepsilon3right)$から$tildecalOleft(fracdepsilon2right)$に改善する。
論文 参考訳(メタデータ) (2024-10-03T15:04:01Z) - A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Stochastic First-Order Methods with Non-smooth and Non-Euclidean Proximal Terms for Nonconvex High-Dimensional Stochastic Optimization [2.0657831823662574]
非問題が非問題である場合、一階法のサンプルは問題次元に線形に依存することがあるが、望ましくない問題に対するものである。
我々のアルゴリズムは距離を使って複雑さを見積もることができる。
MathO (log d) / EuM4。
DISFOM は $mathO (log d) / EuM4 を用いて分散を鋭くすることができることを示す。
論文 参考訳(メタデータ) (2024-06-27T18:38:42Z) - Double Variance Reduction: A Smoothing Trick for Composite Optimization Problems without First-Order Gradient [40.22217106270146]
ばらつき低減技術はサンプリングのばらつきを低減し、一階法(FO)とゼロ階法(ZO)の収束率を向上するように設計されている。
複合最適化問題において、ZO法は、ランダム推定から導かれる座標ワイド分散と呼ばれる追加の分散に遭遇する。
本稿では,ZPDVR法とZPDVR法を提案する。
論文 参考訳(メタデータ) (2024-05-28T02:27:53Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - Sparse Linear Centroid-Encoder: A Convex Method for Feature Selection [1.057079240576682]
本稿では,Sparse Centroid-Encoder (SLCE) を提案する。
このアルゴリズムは線形ネットワークを使用して、ニューラルネットワークを同時に再構築する。
論文 参考訳(メタデータ) (2023-06-07T23:07:55Z) - Two-dimensional Bhattacharyya bound linear discriminant analysis with
its applications [8.392689203476955]
Bhattacharyya誤差境界推定(L2BLDA)によるL2-ノルム線形判別分析基準は,特徴抽出のための線形判別分析(LDA)を効果的に改善する。
L2BLDAを2次元バナチャリア境界線形判別分析(2DBLDA)に拡張する。
2DBLDAの構成により、ロバスト性を持ちながら小さなサンプルサイズ問題を回避することができ、単純な標準固有値分解問題によって解決できる。
論文 参考訳(メタデータ) (2020-11-11T01:56:42Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。