論文の概要: Kullback-Leibler excess risk bounds for exponential weighted aggregation in Generalized linear models
- arxiv url: http://arxiv.org/abs/2504.10171v1
- Date: Mon, 14 Apr 2025 12:25:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:50:20.125962
- Title: Kullback-Leibler excess risk bounds for exponential weighted aggregation in Generalized linear models
- Title(参考訳): 一般化線形モデルにおける指数重み付け集合に対するKulback-Leibler過剰リスク境界
- Authors: The Tien Mai,
- Abstract要約: 本稿では,一般化線形モデル(GLM)におけるスパースアグリゲーションの問題について検討する。
指数重み付けアグリゲーションスキームは、クルバック・リーバーのリスクに対する鋭い不等式を1に等しく導くとともに、最小値-最適アグリゲーション率を達成することを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Aggregation methods have emerged as a powerful and flexible framework in statistical learning, providing unified solutions across diverse problems such as regression, classification, and density estimation. In the context of generalized linear models (GLMs), where responses follow exponential family distributions, aggregation offers an attractive alternative to classical parametric modeling. This paper investigates the problem of sparse aggregation in GLMs, aiming to approximate the true parameter vector by a sparse linear combination of predictors. We prove that an exponential weighted aggregation scheme yields a sharp oracle inequality for the Kullback-Leibler risk with leading constant equal to one, while also attaining the minimax-optimal rate of aggregation. These results are further enhanced by establishing high-probability bounds on the excess risk.
- Abstract(参考訳): 集約法は統計的学習において強力で柔軟な枠組みとして現れ、回帰、分類、密度推定といった様々な問題にまたがる統一されたソリューションを提供している。
指数関数族分布に応答する一般化線形モデル(GLM)の文脈では、アグリゲーションは古典的パラメトリックモデリングに代わる魅力的な代替手段を提供する。
本稿では, GLMにおけるスパースアグリゲーションの問題について検討し, 予測器のスパース線形結合による真のパラメータベクトルの近似を目的とした。
指数重み付けアグリゲーションスキームは、クルバック・リーバーのリスクに対して1に等しいリード定数を持つ鋭いオラクル不等式をもたらすとともに、最小値-最適アグリゲーション率を達成することを証明した。
これらの結果は、過剰リスクの高確率境界を確立することによってさらに強化される。
関連論文リスト
- Asymptotics of Linear Regression with Linearly Dependent Data [28.005935031887038]
非ガウス共変量の設定における線形回帰の計算について検討する。
本稿では,依存性が推定誤差と正規化パラメータの選択にどのように影響するかを示す。
論文 参考訳(メタデータ) (2024-12-04T20:31:47Z) - Precise analysis of ridge interpolators under heavy correlations -- a Random Duality Theory view [0.0]
EmphRandom Duality Theory (RDT) を用いて, 関心量の最適化に係わるすべての推定器の正確なクローズドな形状のキャラクタリゼーションが得られることを示す。
論文 参考訳(メタデータ) (2024-06-13T14:56:52Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Generalized generalized linear models: Convex estimation and online
bounds [11.295523372922533]
モデルのクラス(GL-based)モデル(GGLM)に不等式を導入する。
提案手法は, モデル間の非時間的変動を克服するために, 演算子に基づくアプローチを用いる。
本稿では,数値シミュレーションと実データを用いたインシデントの実例を示す。
論文 参考訳(メタデータ) (2023-04-26T19:19:42Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - A non-asymptotic model selection in block-diagonal mixture of polynomial
experts models [1.491109220586182]
回帰モデルの未知条件密度を推定するために, ペナル化最大選択基準を導入する。
我々は、Jensen-Kullback-Leibler型損失によるペナル化極大確率で満たされる有限サンプルオラクルを含む強力な理論的保証を提供する。
論文 参考訳(メタデータ) (2021-04-18T21:32:20Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Estimation of Switched Markov Polynomial NARX models [75.91002178647165]
非線形自己回帰(NARX)成分を特徴とするハイブリッド力学系のモデル群を同定する。
提案手法は, 特定の回帰器を持つ3つの非線形サブモデルからなるSMNARX問題に対して実証される。
論文 参考訳(メタデータ) (2020-09-29T15:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。