論文の概要: Sparsified-Learning for Heavy-Tailed Locally Stationary Processes
- arxiv url: http://arxiv.org/abs/2504.06477v1
- Date: Tue, 08 Apr 2025 22:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:07:04.498868
- Title: Sparsified-Learning for Heavy-Tailed Locally Stationary Processes
- Title(参考訳): 重板型局所定常プロセスにおけるスパシファイドラーニング
- Authors: Yingjie Wang, Mokhtar Z. Alaya, Salim Bouzebda, Xinsheng Liu,
- Abstract要約: 重み付きデータを扱えるフレキシブルで堅牢なスパース学習フレームワークを開発した。
また、異なる種類の疎性に対して非漸近オラクル不等式も提供する。
- 参考スコア(独自算出の注目度): 4.273261396227034
- License:
- Abstract: Sparsified Learning is ubiquitous in many machine learning tasks. It aims to regularize the objective function by adding a penalization term that considers the constraints made on the learned parameters. This paper considers the problem of learning heavy-tailed LSP. We develop a flexible and robust sparse learning framework capable of handling heavy-tailed data with locally stationary behavior and propose concentration inequalities. We further provide non-asymptotic oracle inequalities for different types of sparsity, including $\ell_1$-norm and total variation penalization for the least square loss.
- Abstract(参考訳): Sparsified Learningは多くの機械学習タスクにおいてユビキタスである。
学習パラメータの制約を考慮に入れたペナル化項を追加することで,目的関数の正規化を目指す。
本稿では,重み付きLSP学習の問題点について考察する。
本研究では,重み付きデータを局所的な定常動作で処理できるフレキシブルで頑健なスパース学習フレームワークを開発し,集中不等式を提案する。
さらに, 異なる種類の空間に対して, $\ell_1$-norm や最小二乗損失に対する全変分ペナル化を含む非漸近オラクル不等式も提供する。
関連論文リスト
- Balancing the Scales: A Theoretical and Algorithmic Framework for Learning from Imbalanced Data [35.03888101803088]
本稿では,不均衡な分類における一般化を解析するための新しい理論的枠組みを提案する。
本稿では,2値設定と複数値設定の両方に新しいクラス不均衡なマージン損失関数を提案し,その強い$H$一貫性を証明し,それに対応する学習保証を導出する。
我々は、信頼率を組み込んだ新しい一般学習アルゴリズムIMMAXを考案し、様々な仮説集合に適用する。
論文 参考訳(メタデータ) (2025-02-14T18:57:16Z) - Adaptive Robust Learning using Latent Bernoulli Variables [50.223140145910904]
破損したトレーニングセットから学習するための適応的なアプローチを提案する。
我々は,潜伏したベルヌーイ変数を持つ崩壊した非破壊標本を同定した。
結果の問題は変分推論によって解決される。
論文 参考訳(メタデータ) (2023-12-01T13:50:15Z) - Fair Supervised Learning with A Simple Random Sampler of Sensitive
Attributes [13.988497790151651]
本研究は,ニューラルネットワークによって学習された公正な罰則を,非識別的教師付き学習のための感度属性の単純なランダムサンプリングを用いて提案する。
計算効率のよいグループレベルのフェアネス対応トレーニングフレームワークを構築した。
実証的な証拠は、我々のフレームワークが競合する手法よりも人気のあるベンチマークデータセットの有効性と公平性を享受していることを示している。
論文 参考訳(メタデータ) (2023-11-10T04:38:13Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Continual Learning in Linear Classification on Separable Data [34.78569443156924]
正規化の弱い学習は、逐次極大問題の解法に還元されることを示す。
次に、様々な設定の下で、忘れることやその他の関心事に関する上限を策定する。
正規化スケジューリングや重み付けといった,一般的なトレーニングプラクティスに対する実践的な影響について論じる。
論文 参考訳(メタデータ) (2023-06-06T09:34:11Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Oracle-Efficient Smoothed Online Learning for Piecewise Continuous Decision Making [73.48977854003697]
この研究は、複雑性という新しい概念、一般化ブラケット数を導入し、空間の大きさに対する敵の制約を結婚させる。
次に、オンライン予測や断片的連続関数の計画など、関心のあるいくつかの問題で境界をインスタンス化する。
論文 参考訳(メタデータ) (2023-02-10T18:45:52Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。