論文の概要: Exponential Lasso: robust sparse penalization under heavy-tailed noise and outliers with exponential-type loss
- arxiv url: http://arxiv.org/abs/2511.15332v1
- Date: Wed, 19 Nov 2025 10:50:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.77175
- Title: Exponential Lasso: robust sparse penalization under heavy-tailed noise and outliers with exponential-type loss
- Title(参考訳): 指数ラッソ:重テール雑音下での頑健なスパースペナル化と指数型損失による外乱
- Authors: The Tien Mai,
- Abstract要約: 本稿では,ラッソフレームワーク内に指数型損失関数を統合する,新しいロバストな手法を提案する。
指数ラッソは、古典ラッソを理想的な条件で整合させて、強い統計的収束率を達成することを示す。
数値実験により, 提案手法は競争力が高く, 汚染された環境下では古典ラッソよりも優れ, ガウス雑音下においても強い性能を維持していることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In high-dimensional statistics, the Lasso is a cornerstone method for simultaneous variable selection and parameter estimation. However, its reliance on the squared loss function renders it highly sensitive to outliers and heavy-tailed noise, potentially leading to unreliable model selection and biased estimates. To address this limitation, we introduce the Exponential Lasso, a novel robust method that integrates an exponential-type loss function within the Lasso framework. This loss function is designed to achieve a smooth trade-off between statistical efficiency under Gaussian noise and robustness against data contamination. Unlike other methods that cap the influence of large residuals, the exponential loss smoothly redescends, effectively downweighting the impact of extreme outliers while preserving near-quadratic behavior for small errors. We establish theoretical guarantees showing that the Exponential Lasso achieves strong statistical convergence rates, matching the classical Lasso under ideal conditions while maintaining its robustness in the presence of heavy-tailed contamination. Computationally, the estimator is optimized efficiently via a Majorization-Minimization (MM) algorithm that iteratively solves a series of weighted Lasso subproblems. Numerical experiments demonstrate that the proposed method is highly competitive, outperforming the classical Lasso in contaminated settings and maintaining strong performance even under Gaussian noise. Our method is implemented in the \texttt{R} package \texttt{heavylasso} available on Github: https://github.com/tienmt/heavylasso
- Abstract(参考訳): 高次元統計学において、ラッソ (Lasso) は同時変数選択とパラメータ推定のための基礎的手法である。
しかし、その正方形損失関数への依存は、外れ値と重み付きノイズに非常に敏感であり、信頼できないモデル選択と偏りのある推定につながる可能性がある。
この制限に対処するために、ラッソフレームワーク内に指数型損失関数を統合する新しいロバストな手法であるExponential Lassoを導入する。
この損失関数はガウス雑音下での統計的効率とデータ汚染に対するロバスト性の間のスムーズなトレードオフを実現するように設計されている。
大きな残留物の影響を抑える他の方法とは異なり、指数的損失はスムーズに再帰し、極端なアウトリーチの影響を効果的に減らし、小さな誤差に対して四分法に近い挙動を保っている。
我々は、指数ラッソが強い統計的収束率を達成することを示す理論的保証を確立し、古典ラッソを理想的な条件下で整合させながら、重尾汚染の存在下で頑健性を維持する。
計算的に、推定器は、一連の重み付けされたラッソのサブプロブレムを反復的に解決するMajorization-Minimization (MM)アルゴリズムによって効率よく最適化される。
数値実験により, 提案手法は競争力が高く, 汚染された環境下では古典ラッソよりも優れ, ガウス雑音下においても強い性能を維持していることが示された。
私たちのメソッドは,Githubで公開されている \texttt{R} package \texttt{heavylasso} で実装されています。
関連論文リスト
- Heavy Lasso: sparse penalized regression under heavy-tailed noise via data-augmented soft-thresholding [0.0]
本稿では,学生のt分布にインスパイアされた損失関数をラッソのペナル化フレームワークに組み込んだ,新しいロバスト回帰手法を提案する。
この損失は、小さな残留物に対して望ましい二次的挙動を維持しながら、大きな偏差を適応的に下降させ、重み付きノイズや外れ値に対するロバスト性を高める。
当社のメソッドは,Githubで公開されているRパッケージのヘビーラッソに実装されている。
論文 参考訳(メタデータ) (2025-06-09T14:13:02Z) - Asymptotically Optimal Linear Best Feasible Arm Identification with Fixed Budget [55.938644481736446]
本稿では,誤差確率の指数的減衰を保証し,最適な腕識別のための新しいアルゴリズムを提案する。
我々は,複雑性のレベルが異なる様々な問題インスタンスに対する包括的経験的評価を通じて,アルゴリズムの有効性を検証する。
論文 参考訳(メタデータ) (2025-06-03T02:56:26Z) - Risk-Sensitive Diffusion: Robustly Optimizing Diffusion Models with Noisy Samples [58.68233326265417]
非画像データは実際のアプリケーションで広く使われており、ノイズが多い傾向にある。
リスク感受性SDEは、リスクベクトルによってパラメータ化された微分方程式(SDE)の一種である。
我々はガウス雑音分布と非ガウス雑音分布の両方について系統的研究を行う。
論文 参考訳(メタデータ) (2024-02-03T08:41:51Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Robust Stochastic Optimization via Gradient Quantile Clipping [6.2844649973308835]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Convergence of uncertainty estimates in Ensemble and Bayesian sparse
model discovery [4.446017969073817]
ブートストラップに基づく逐次しきい値最小二乗推定器による雑音に対する精度と頑健性の観点から経験的成功を示す。
このブートストラップに基づくアンサンブル手法は,誤差率の指数収束率で,確率的に正しい可変選択を行うことができることを示す。
論文 参考訳(メタデータ) (2023-01-30T04:07:59Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。