論文の概要: Renet: Principled and Efficient Relaxation for the Elastic Net via Dynamic Objective Selection
- arxiv url: http://arxiv.org/abs/2602.11107v1
- Date: Wed, 11 Feb 2026 18:22:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.305871
- Title: Renet: Principled and Efficient Relaxation for the Elastic Net via Dynamic Objective Selection
- Title(参考訳): Renet: 動的目的選択による弾性ネットの原理的かつ効率的な緩和
- Authors: Albert Dorador,
- Abstract要約: 我々はRenetを紹介し、Relaxed Lassoの原理的な一般化を推定器のElastic Net族に導入する。
Renetは、高次元、低信号-雑音比、高マルチチコリン系において標準のElastic Netを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Renet, a principled generalization of the Relaxed Lasso to the Elastic Net family of estimators. While, on the one hand, $\ell_1$-regularization is a standard tool for variable selection in high-dimensional regimes and, on the other hand, the $\ell_2$ penalty provides stability and solution uniqueness through strict convexity, the standard Elastic Net nevertheless suffers from shrinkage bias that frequently yields suboptimal prediction accuracy. We propose to address this limitation through a framework called \textit{relaxation}. Existing relaxation implementations rely on naive linear interpolations of penalized and unpenalized solutions, which ignore the non-linear geometry that characterizes the entire regularization path and risk violating the Karush-Kuhn-Tucker conditions. Renet addresses these limitations by enforcing sign consistency through an adaptive relaxation procedure that dynamically dispatches between convex blending and efficient sub-path refitting. Furthermore, we identify and formalize a unique synergy between relaxation and the ``One-Standard-Error'' rule: relaxation serves as a robust debiasing mechanism, allowing practitioners to leverage the parsimony of the 1-SE rule without the traditional loss in predictive fidelity. Our theoretical framework incorporates automated stability safeguards for ultra-high dimensional regimes and is supported by a comprehensive benchmarking suite across 20 synthetic and real-world datasets, demonstrating that Renet consistently outperforms the standard Elastic Net and provides a more robust alternative to the Adaptive Elastic Net in high-dimensional, low signal-to-noise ratio and high-multicollinearity regimes. By leveraging an adaptive solver backend, Renet delivers these statistical gains while offering a computational profile that remains competitive with state-of-the-art coordinate descent implementations.
- Abstract(参考訳): 我々はRenetを紹介し、Relaxed Lassoの原理的な一般化を推定器のElastic Net族に導入する。
一方、$\ell_1$-regularizationは高次元状態における変数選択の標準ツールであり、一方、$\ell_2$のペナルティは厳密な凸性による安定性と解の一意性を提供するが、標準のElastic Netは、しばしば最適でない予測精度をもたらす縮小バイアスに悩まされる。
本稿では,この制限に,textit{relaxation} というフレームワークを用いて対処することを提案する。
既存の緩和実装は、正則化パス全体を特徴づける非線形幾何を無視し、カルーシュ=クーン=タッカー条件に違反するリスクを無視する、ペナル化および未定解の単純線型補間に依存している。
Renetは、コンベックスブレンディングと効率的なサブパスリフィットの間を動的にディスパッチする適応緩和手順を通じて、符号の一貫性を強制することでこれらの制限に対処する。
さらに,リラクゼーションと「ワン・スタンダード・エラー」ルールのユニークな相乗効果を定式化し,リラクゼーションは堅牢なデバイアス機構として機能し,従来の予測忠実性の喪失を伴わない1-SE則のパーシモニーを実践者が活用できるようにする。
我々の理論フレームワークは,超高次元状態に対する自動安定性保護を取り入れ,20の合成および実世界のデータセットを対象とした総合的なベンチマークスイートによってサポートされており,Renetが標準のElastic Netを一貫して上回り,高次元,低信号-雑音比,高マルチティコリニアリティレシスタンスにおいて,Adaptive Elastic Netのより堅牢な代替手段を提供することを示す。
適応型ソルババックエンドを活用することで、Renetはこれらの統計的ゲインを提供しながら、最先端の座標降下実装と競合する計算プロファイルを提供する。
関連論文リスト
- MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability [0.0]
本稿では,Sparse Isotonic Shapley Regression (SISR)について紹介する。
SISRは単調変換を学び、加法的に復元する。-閉形式仕様の必要性を回避し、Shapleyベクトル上でL0間隔制約を強制する。
SISRはペイオフスキーム間の属性を安定化し、無関係な特徴を正しくフィルタリングする。
論文 参考訳(メタデータ) (2025-12-02T08:34:43Z) - Optimal Regularization Under Uncertainty: Distributional Robustness and Convexity Constraints [9.77322868877488]
分布的に堅牢な最適正規化のためのフレームワークを導入する。
トレーニング分布の計算と均一な事前計算との間には,ロバストな正則化器がどのように介在するかを示す。
論文 参考訳(メタデータ) (2025-10-03T19:35:38Z) - Resilient Constrained Reinforcement Learning [87.4374430686956]
本稿では,複数の制約仕様を事前に特定しない制約付き強化学習(RL)のクラスについて検討する。
報酬訓練目標と制約満足度との間に不明確なトレードオフがあるため、適切な制約仕様を特定することは困難である。
我々は、ポリシーと制約仕様を一緒に検索する新しい制約付きRLアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:28:23Z) - Outlier-robust neural network training: variation regularization meets trimmed loss to prevent functional breakdown [2.5628953713168685]
我々は,高度に表現力のあるニューラルネットワークを用いた外乱予測モデリングの課題に取り組む。
提案手法は,(1)変換トリミング損失(TTL)と(2)高次変動正規化(HOVR)の2つの重要な要素を統合し,予測関数に滑らかさの制約を課す。
論文 参考訳(メタデータ) (2023-08-04T12:57:13Z) - Provably tuning the ElasticNet across instances [53.0518090093538]
我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
論文 参考訳(メタデータ) (2022-07-20T21:22:40Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Sparse Identification of Nonlinear Dynamical Systems via Reweighted
$\ell_1$-regularized Least Squares [62.997667081978825]
本研究は, 非線形系の制御方程式をノイズ状態測定から復元するための繰り返しスパース規則化回帰法を提案する。
本研究の目的は、状態測定ノイズの存在下での手法の精度とロバスト性を改善することである。
論文 参考訳(メタデータ) (2020-05-27T08:30:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。