論文の概要: Learning Bounds for Risk-sensitive Learning
- arxiv url: http://arxiv.org/abs/2006.08138v2
- Date: Mon, 4 Jan 2021 07:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:48:05.694388
- Title: Learning Bounds for Risk-sensitive Learning
- Title(参考訳): リスクに敏感な学習のための学習限界
- Authors: Jaeho Lee, Sejun Park, Jinwoo Shin
- Abstract要約: リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
- 参考スコア(独自算出の注目度): 86.50262971918276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In risk-sensitive learning, one aims to find a hypothesis that minimizes a
risk-averse (or risk-seeking) measure of loss, instead of the standard expected
loss. In this paper, we propose to study the generalization properties of
risk-sensitive learning schemes whose optimand is described via optimized
certainty equivalents (OCE): our general scheme can handle various known risks,
e.g., the entropic risk, mean-variance, and conditional value-at-risk, as
special cases. We provide two learning bounds on the performance of empirical
OCE minimizer. The first result gives an OCE guarantee based on the Rademacher
average of the hypothesis space, which generalizes and improves existing
results on the expected loss and the conditional value-at-risk. The second
result, based on a novel variance-based characterization of OCE, gives an
expected loss guarantee with a suppressed dependence on the smoothness of the
selected OCE. Finally, we demonstrate the practical implications of the
proposed bounds via exploratory experiments on neural networks.
- Abstract(参考訳): リスクセンシティブな学習では、標準的な期待損失ではなく、リスク回避(あるいはリスク発見)の損失を最小化する仮説を見つけることを目指している。
本稿では、最適化された確実性等価性(OCE)によって最適化された最適条件が記述されるリスク感受性学習スキームの一般化特性について検討し、この一般的なスキームは、例えばエントロピーリスク、平均分散、条件付き値-リスクなど、様々な既知のリスクを扱うことができる。
我々は経験的OCE最小化器の性能に関する2つの学習境界を提供する。
最初の結果は、仮説空間のラデマッハ平均に基づいてOCE保証を与え、予測損失と条件付き値-リスクに関する既存の結果を一般化し改善する。
第2の結果は, OCEの新規な分散に基づく評価に基づいて, 選択したOCEの滑らかさへの依存性を抑えながら, 期待される損失保証を与える。
最後に,ニューラルネットワークの探索実験を通じて,提案する境界の実用的意義を示す。
関連論文リスト
- Pessimism Meets Risk: Risk-Sensitive Offline Reinforcement Learning [19.292214425524303]
リスクに敏感な強化学習(RL)は,不確実性を管理し,潜在的な有害な結果を最小限に抑えることが不可欠であるシナリオにおいて,意思決定を強化する能力において重要な分野である。
本研究は, エントロピーリスク尺度をRL問題に適用することに焦点を当てる。
我々は,リスクに敏感な観点からはまだ検討されていない理論的枠組みである線形マルコフ決定プロセス(MDP)の設定を中心としている。
論文 参考訳(メタデータ) (2024-07-10T13:09:52Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Strong Duality Relations in Nonconvex Risk-Constrained Learning [0.0]
一般無限次元バナッハ空間に対する J. J. Uhl の凸性は A. A. Lynovs の拡張である。
我々は,制約付き分類と回帰を統一レンズで処理できることを示し,現在の文献で実施されている一定の制約的仮定は,新たな最先端技術であることを示した。
論文 参考訳(メタデータ) (2023-12-02T11:21:00Z) - Domain Generalization without Excess Empirical Risk [83.26052467843725]
一般的なアプローチは、一般化を捉え、ペナルティと共同で経験的リスクを最小化するために、データ駆動の代理ペナルティを設計することである。
我々は、このレシピの重大な失敗モードは、共同最適化における誤ったペナルティや難しさによる過度なリスクであると主張している。
我々は,この問題を解消するアプローチを提案し,経験的リスクと刑罰を同時に最小化する代わりに,経験的リスクの最適性の制約の下でのペナルティを最小化する。
論文 参考訳(メタデータ) (2023-08-30T08:46:46Z) - A Distribution Optimization Framework for Confidence Bounds of Risk
Measures [23.46659319363579]
本稿では,従来の手法と比較して,各種リスク対策の信頼性境界を大幅に改善する分布最適化フレームワークを提案する。
本フレームワークは, エントロピーリスク尺度, CVaR, スペクトルリスク尺度, 歪みリスク尺度, 等価確実性, ランク依存予測ユーティリティなどの一般的なリスク尺度を含む。
論文 参考訳(メタデータ) (2023-06-12T12:13:06Z) - A Generalized Unbiased Risk Estimator for Learning with Augmented
Classes [70.20752731393938]
ラベルなしのデータが与えられた場合、非バイアスリスク推定器(URE)が導出され、理論的保証のあるLACでは最小限にすることができる。
理論的な保証を維持しつつ任意の損失関数を装備できる一般化されたUREを提案する。
論文 参考訳(メタデータ) (2023-06-12T06:52:04Z) - Deep Learning for Systemic Risk Measures [3.274367403737527]
本研究の目的は,システム的リスク対策のための新しい方法論の枠組みを検討することである。
この新たな枠組みの下で、システム的リスク対策は、集約されたシステムを保護する最小限の現金として解釈できる。
ディープラーニングは、金融モデリングやリスク管理においてますます注目を集めている。
論文 参考訳(メタデータ) (2022-07-02T05:01:19Z) - Supervised Learning with General Risk Functionals [28.918233583859134]
標準一様収束結果は、予想損失の予想損失の一般化ギャップを仮説クラスに束縛する。
我々は、損失分布のCDFを推定するための最初の一様収束結果を確立し、すべてのH"古いリスク関数と全ての仮説の両方に同時に保持する保証を与える。
論文 参考訳(メタデータ) (2022-06-27T22:11:05Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Risk-Sensitive Deep RL: Variance-Constrained Actor-Critic Provably Finds
Globally Optimal Policy [95.98698822755227]
本研究は,リスクに敏感な深層強化学習を,分散リスク基準による平均報酬条件下で研究する試みである。
本稿では,ポリシー,ラグランジュ乗算器,フェンシェル双対変数を反復的かつ効率的に更新するアクタ批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T05:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。