論文の概要: Learning with risks based on M-location
- arxiv url: http://arxiv.org/abs/2012.02424v2
- Date: Mon, 26 Apr 2021 00:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:50:28.973717
- Title: Learning with risks based on M-location
- Title(参考訳): M-locationに基づくリスク学習
- Authors: Matthew J. Holland
- Abstract要約: 損失分布の位置と偏差から定義されるリスクの新たなクラスについて検討する。
クラスはスムーズな損失を取り巻くラッパーとして容易に実装されます。
- 参考スコア(独自算出の注目度): 6.903929927172917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study a new class of risks defined in terms of the location
and deviation of the loss distribution, generalizing far beyond classical
mean-variance risk functions. The class is easily implemented as a wrapper
around any smooth loss, it admits finite-sample stationarity guarantees for
stochastic gradient methods, it is straightforward to interpret and adjust,
with close links to M-estimators of the loss location, and has a salient effect
on the test loss distribution.
- Abstract(参考訳): 本研究では,従来の平均分散リスク関数をはるかに超え,損失分布の位置と偏差から定義される新たなリスクのクラスについて検討する。
クラスは任意の滑らかな損失のラッパーとして容易に実装され、確率勾配法に対する有限サンプルの定常性保証を認め、損失位置のM推定器に近接して解釈と調整が容易であり、テスト損失分布に顕著な影響を持つ。
関連論文リスト
- Understanding Transfer Learning via Mean-field Analysis [5.7150083558242075]
我々は、KL規則化された経験的リスク最小化を用いて、$alpha$-ERMとファインチューニングの2つの主要なトランスファー学習シナリオを検討する。
平均場状態における一層ニューラルネットワークを用いたトランスファーラーニングの利点を示す。
論文 参考訳(メタデータ) (2024-10-22T16:00:44Z) - An Alternative to Variance: Gini Deviation for Risk-averse Policy
Gradient [35.01235012813407]
政策の回帰の分散を制限することは、リスク回避強化学習において一般的な選択である。
最近の手法では、プロキシとしてのステップごとの報酬分散が制限されている。
代替リスク尺度であるGini deviation を代替として用いることを提案する。
論文 参考訳(メタデータ) (2023-07-17T22:08:27Z) - A Generalized Unbiased Risk Estimator for Learning with Augmented
Classes [70.20752731393938]
ラベルなしのデータが与えられた場合、非バイアスリスク推定器(URE)が導出され、理論的保証のあるLACでは最小限にすることができる。
理論的な保証を維持しつつ任意の損失関数を装備できる一般化されたUREを提案する。
論文 参考訳(メタデータ) (2023-06-12T06:52:04Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - Tailoring to the Tails: Risk Measures for Fine-Grained Tail Sensitivity [10.482805367361818]
予測されるリスクアレンジメント(ERM)は、マシンラーニングシステムの中核にある。
本稿では,所望のテール感度を示すリスク対策を構築するための一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T09:51:18Z) - Supervised Learning with General Risk Functionals [28.918233583859134]
標準一様収束結果は、予想損失の予想損失の一般化ギャップを仮説クラスに束縛する。
我々は、損失分布のCDFを推定するための最初の一様収束結果を確立し、すべてのH"古いリスク関数と全ての仮説の両方に同時に保持する保証を与える。
論文 参考訳(メタデータ) (2022-06-27T22:11:05Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z) - Adversarial Classification via Distributional Robustness with
Wasserstein Ambiguity [12.576828231302134]
ワッサーシュタインの曖昧さの下では、モデルは誤分類のリスクを最小限にすることを目的としている。
この分類の非整合性にもかかわらず、標準降下法はこの問題に対して収束しているように見える。
論文 参考訳(メタデータ) (2020-05-28T07:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。