論文の概要: Optimizing Sparse Generalized Singular Vectors for Feature Selection in Proximal Support Vector Machines with Application to Breast and Ovarian Cancer Detection
- arxiv url: http://arxiv.org/abs/2410.03978v1
- Date: Fri, 4 Oct 2024 23:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 15:00:17.021350
- Title: Optimizing Sparse Generalized Singular Vectors for Feature Selection in Proximal Support Vector Machines with Application to Breast and Ovarian Cancer Detection
- Title(参考訳): 近位支持ベクトル装置の特徴選択のためのスパース一般化特異ベクトルの最適化と乳癌・卵巣癌検出への応用
- Authors: Ugochukwu O. Ugwu, Michael Kirby,
- Abstract要約: 本稿では,一般化特異値問題(GSVP)のスパース解の計算手法を提案する。
これらの問題の解は、勾配近位降下アルゴリズムを一定のステップサイズで適用することによって決定される。
乳癌および卵巣癌データセット間で, ほぼ完全にバランスの取れた精度を, いくつかの特徴を用いて報告した。
- 参考スコア(独自算出の注目度): 3.069335774032178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents approaches to compute sparse solutions of Generalized Singular Value Problem (GSVP). The GSVP is regularized by $\ell_1$-norm and $\ell_q$-penalty for $0<q<1$, resulting in the $\ell_1$-GSVP and $\ell_q$-GSVP formulations. The solutions of these problems are determined by applying the proximal gradient descent algorithm with a fixed step size. The inherent sparsity levels within the computed solutions are exploited for feature selection, and subsequently, binary classification with non-parallel Support Vector Machines (SVM). For our feature selection task, SVM is integrated into the $\ell_1$-GSVP and $\ell_q$-GSVP frameworks to derive the $\ell_1$-GSVPSVM and $\ell_q$-GSVPSVM variants. Machine learning applications to cancer detection are considered. We remarkably report near-to-perfect balanced accuracy across breast and ovarian cancer datasets using a few selected features.
- Abstract(参考訳): 本稿では,一般化特異値問題(GSVP)のスパース解の計算手法を提案する。
GSVP は $\ell_1$-norm と $\ell_q$-penalty for $0<q<1$ によって正規化され、$\ell_1$-GSVP と $\ell_q$-GSVP が定式化される。
これらの問題の解は、一定のステップサイズで近位勾配降下アルゴリズムを適用することによって決定される。
計算されたソリューション内の固有空間レベルは、特徴の選択に利用され、その後、非並列サポートベクトルマシン(SVM)によるバイナリ分類が行われる。
私たちの機能選択タスクでは、SVMは$\ell_1$-GSVPと$\ell_q$-GSVPフレームワークに統合され、$\ell_1$-GSVPSVMと$\ell_q$-GSVPSVMを派生します。
がん検出への機械学習の適用が検討されている。
乳癌および卵巣癌データセット間で, ほぼ完全にバランスの取れた精度を, いくつかの特徴を用いて明らかに報告した。
関連論文リスト
- Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A Novel Loss Function-based Support Vector Machine for Binary Classification [3.773980481058198]
サポートベクトルマシン分類器($ell_s$-SVM)を構築するための新しいスライド損失関数(ell_s$)を提案する。
近似定常点の概念を導入し、リプシッツ連続性の性質を利用することにより、$ell_s$-SVM に対する一階最適条件を導出する。
我々は, $ell_s$-SVM を効率的に処理するために, 演算セットと乗算器の高速交互方向法を考案した。
論文 参考訳(メタデータ) (2024-03-25T11:42:01Z) - Transformers as Support Vector Machines [54.642793677472724]
自己アテンションの最適化幾何と厳密なSVM問題との間には,形式的等価性を確立する。
勾配降下に最適化された1層変圧器の暗黙バイアスを特徴付ける。
これらの発見は、最適なトークンを分離し選択するSVMの階層としてのトランスフォーマーの解釈を刺激していると信じている。
論文 参考訳(メタデータ) (2023-08-31T17:57:50Z) - Kernel Support Vector Machine Classifiers with the $\ell_0$-Norm Hinge
Loss [3.007949058551534]
Support Vector Machine (SVM)は、バイナリ分類問題において最も成功した機械学習技術の1つである。
本論文は, ヒンジ損失を持つベクトル($ell$-KSVM)に集中し, ヒンジ損失と$ell_$normの複合関数である。
合成データセットと実データセットの実験は、$ell_$-KSVMが標準のKSVMと同等の精度を達成可能であることを示すために照らされている。
論文 参考訳(メタデータ) (2023-06-24T14:52:44Z) - Sparse Linear Centroid-Encoder: A Convex Method for Feature Selection [1.057079240576682]
本稿では,Sparse Centroid-Encoder (SLCE) を提案する。
このアルゴリズムは線形ネットワークを使用して、ニューラルネットワークを同時に再構築する。
論文 参考訳(メタデータ) (2023-06-07T23:07:55Z) - High-Dimensional Penalized Bernstein Support Vector Machines [0.0]
SVMヒンジ損失関数の非微分性は、高次元設定において計算困難を引き起こす可能性がある。
本稿では,Pentalized BernSVMの解を求めるための2つの効率的なアルゴリズムを提案する。
我々の境界は高い確率を持ち、位数 $sqrtslog(p)/n$ を達成する。
論文 参考訳(メタデータ) (2023-03-16T03:48:29Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Nonlinear Kernel Support Vector Machine with 0-1 Soft Margin Loss [13.803988813225025]
本稿では,0-1ソフトマージン損失を持つサポートベクトルマシンの非線形モデルである$L_0/1$-KSVMを提案する。
1$L_0/1$-KSVMは、線形ピアに比べて非常に少ないSVを持ち、正確な予測精度を持つ。
論文 参考訳(メタデータ) (2022-03-01T12:53:52Z) - Projection-free Graph-based Classifier Learning using Gershgorin Disc
Perfect Alignment [59.87663954467815]
グラフベースのバイナリ学習では、既知のラベルのサブセット$hatx_i$を使って未知のラベルを推論する。
ラベルの$x_i$をバイナリ値に制限する場合、問題はNPハードである。
代わりに線形プログラム(LP)の列を解くことにより,高速なプロジェクションフリー手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T07:22:48Z) - Consistent Structured Prediction with Max-Min Margin Markov Networks [84.60515484036239]
二項分類のためのマックスマージン法は、最大マージンマルコフネットワーク(M3N$)の名前で構造化予測設定まで拡張されている。
我々は、学習問題を"max-min"マージンの定式化で定義し、結果のメソッドmax-minマージンマルコフネットワーク(M4N$)を命名することで、そのような制限を克服する。
マルチクラス分類,順序回帰,シーケンス予測,ランキング実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-02T10:48:42Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。