論文の概要: $L_1$-norm Regularized Indefinite Kernel Logistic Regression
- arxiv url: http://arxiv.org/abs/2510.26043v1
- Date: Thu, 30 Oct 2025 00:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.614501
- Title: $L_1$-norm Regularized Indefinite Kernel Logistic Regression
- Title(参考訳): L_1$-norm 正規化不定値カーネルロジスティック回帰
- Authors: Shaoxin Wang, Hanjing Yao,
- Abstract要約: カーネルロジスティック回帰(KLR)は、様々な領域に広く適用される強力な分類法である。
多くの実世界のシナリオでは、カーネルは一定の正のカーネルよりもドメイン固有の情報をキャプチャする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Kernel logistic regression (KLR) is a powerful classification method widely applied across diverse domains. In many real-world scenarios, indefinite kernels capture more domain-specific structural information than positive definite kernels. This paper proposes a novel $L_1$-norm regularized indefinite kernel logistic regression (RIKLR) model, which extends the existing IKLR framework by introducing sparsity via an $L_1$-norm penalty. The introduction of this regularization enhances interpretability and generalization while introducing nonsmoothness and nonconvexity into the optimization landscape. To address these challenges, a theoretically grounded and computationally efficient proximal linearized algorithm is developed. Experimental results on multiple benchmark datasets demonstrate the superior performance of the proposed method in terms of both accuracy and sparsity.
- Abstract(参考訳): カーネルロジスティック回帰(KLR)は、様々な領域に広く適用される強力な分類法である。
多くの実世界のシナリオでは、不定カーネルは正の定カーネルよりもドメイン固有の構造情報をキャプチャする。
本稿では,新しい$L_1$-norm正規化不定値カーネルロジスティック回帰(RIKLR)モデルを提案する。
この正規化の導入は、最適化ランドスケープに非滑らかさと非凸性を導入しながら、解釈性と一般化を促進する。
これらの課題に対処するため、理論的に基礎と計算学的に効率的な近距離線形化アルゴリズムを開発した。
複数のベンチマークデータセットに対する実験結果から,提案手法の精度と疎性の両方の観点から,優れた性能を示す。
関連論文リスト
- Truncated Kernel Stochastic Gradient Descent with General Losses and Spherical Radial Basis Functions [3.308257914042897]
本稿では,大規模教師あり学習のための新しいカーネル勾配統合下降アルゴリズムを提案する。
従来のカーネルSGDと比較して,我々のアルゴリズムは革新的な正規化戦略によって効率とスケーラビリティを向上させる。
我々のフレームワークは、最小二乗、ハマー、ロジスティック損失など、古典的損失関数の幅広いクラスに対応している。
論文 参考訳(メタデータ) (2025-10-05T15:04:03Z) - Generalized Linear Bandits: Almost Optimal Regret with One-Pass Update [60.414548453838506]
非線形リンク関数を組み込んで古典線形モデルを拡張したコンテキスト型多武装バンディットフレームワークである一般化線形バンディット問題(GLB)について検討する。
GLBは現実世界のシナリオに広く適用できるが、その非線形性は計算効率と統計効率の両方を達成する上で大きな課題をもたらす。
本稿では,$mathcalO(1)$時間と1ラウンドあたりの空間複雑度をほぼ最適に再現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-16T02:24:21Z) - Generalization Bound of Gradient Flow through Training Trajectory and Data-dependent Kernel [55.82768375605861]
我々は、カーネル法における古典的ラデマッハ複雑性と整合する勾配流の一般化を確立する。
NTKのような静的カーネルとは異なり、LPKはトレーニング軌跡全体をキャプチャし、データと最適化の両方に適応する。
論文 参考訳(メタデータ) (2025-06-12T23:17:09Z) - Efficient Differentiable Approximation of Generalized Low-rank Regularization [64.73416824444328]
低ランク正規化(LRR)は様々な機械学習タスクに広く応用されている。
本稿では,LRRの効率的な微分可能近似を提案する。
論文 参考訳(メタデータ) (2025-05-21T11:49:17Z) - Stochastic Optimization with Optimal Importance Sampling [49.484190237840714]
本稿では,両者の時間的分離を必要とせずに,意思決定とIS分布を共同で更新する反復型アルゴリズムを提案する。
本手法は,IS分布系に対する目的的,軽度な仮定の凸性の下で,最小の変数分散を達成し,大域収束を保証する。
論文 参考訳(メタデータ) (2025-04-04T16:10:18Z) - Robust Offline Reinforcement Learning with Linearly Structured $f$-Divergence Regularization [10.465789490644031]
我々は、ロバストな正則化マルコフ決定プロセスのための新しいフレームワーク(d$-RRMDP)を提案する。
オフラインRL設定のために、ロバスト正規化悲観的値イテレーション(R2PVI)と呼ばれるアルゴリズム群を開発する。
論文 参考訳(メタデータ) (2024-11-27T18:57:03Z) - Solving Multistage Stochastic Linear Programming via Regularized Linear
Decision Rules: An Application to Hydrothermal Dispatch Planning [77.34726150561087]
AdaSO(Adaptive least absolute shrinkage and selection operator)に基づく線形決定規則(LDR)の新しい正規化手法を提案する。
実験により、MSLPを解くために古典的な非正規化LDRを使用する場合、過度に適合する脅威は無視できないことが示された。
LHDP問題に対しては、非正規化ベンチマークと比較して、提案したフレームワークの次の利点を強調した。
論文 参考訳(メタデータ) (2021-10-07T02:36:14Z) - Hierarchical Non-Stationary Temporal Gaussian Processes With
$L^1$-Regularization [11.408721072077604]
我々は、明示的に構築された非定常共分散関数と微分方程式に基づく2つのよく使われるNSGP構成を考える。
これらのNSGPは、スパース性を誘導するために、プロセスに$L1$-regularizationを含めることで拡張する。
結果の正規化NSGP(R-NSGP)回帰問題を解決するために,乗算器の交互方向法(ADMM)に基づく手法を開発した。
論文 参考訳(メタデータ) (2021-05-20T12:15:33Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。