論文の概要: Statistical Learning with Conditional Value at Risk
- arxiv url: http://arxiv.org/abs/2002.05826v1
- Date: Fri, 14 Feb 2020 00:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:05:40.551498
- Title: Statistical Learning with Conditional Value at Risk
- Title(参考訳): リスク条件付き統計的学習
- Authors: Tasuku Soma and Yuichi Yoshida
- Abstract要約: 本稿では,予測損失よりも損失の条件付き値付きリスク(CVaR)を用いて,学習アルゴリズムの性能を評価するリスク-逆統計学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.4968603057034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a risk-averse statistical learning framework wherein the
performance of a learning algorithm is evaluated by the conditional
value-at-risk (CVaR) of losses rather than the expected loss. We devise
algorithms based on stochastic gradient descent for this framework. While
existing studies of CVaR optimization require direct access to the underlying
distribution, our algorithms make a weaker assumption that only i.i.d.\ samples
are given. For convex and Lipschitz loss functions, we show that our algorithm
has $O(1/\sqrt{n})$-convergence to the optimal CVaR, where $n$ is the number of
samples. For nonconvex and smooth loss functions, we show a generalization
bound on CVaR. By conducting numerical experiments on various machine learning
tasks, we demonstrate that our algorithms effectively minimize CVaR compared
with other baseline algorithms.
- Abstract(参考訳): 本稿では,予測損失よりも損失の条件付き値付きリスク(CVaR)を用いて,学習アルゴリズムの性能を評価するリスク逆統計学習フレームワークを提案する。
この枠組みの確率的勾配勾配に基づくアルゴリズムを考案する。
CVaR最適化の既存の研究は、基礎となる分布に直接アクセスする必要があるが、我々のアルゴリズムは、i.d.\サンプルのみが与えられるというより弱い仮定をしている。
凸とリプシッツの損失関数に対して、我々のアルゴリズムは、最適なCVaRに対して$O(1/\sqrt{n})$-convergenceを持ち、$n$はサンプル数であることを示す。
非凸および滑らかな損失関数に対して、CVaR 上の一般化を示す。
各種機械学習タスクの数値実験により,本アルゴリズムは他のベースラインアルゴリズムと比較してCVaRを効果的に最小化することを示した。
関連論文リスト
- SOREL: A Stochastic Algorithm for Spectral Risks Minimization [1.6574413179773761]
スペクトルリスクは機械学習、特に現実世界の意思決定において幅広い応用がある。
異なるサンプルポイントの損失に異なる重みを割り当てることで、平均的なパフォーマンスと最悪のパフォーマンスの間にモデルのパフォーマンスを配置することができる。
SORELはスペクトルリスク最小化のための収束保証をもつ最初の勾配に基づくアルゴリズムである。
論文 参考訳(メタデータ) (2024-07-19T18:20:53Z) - Provably Efficient CVaR RL in Low-rank MDPs [58.58570425202862]
リスクに敏感な強化学習(RL)について検討する。
本稿では, CVaR RLにおける探索, 搾取, 表現学習の相互作用のバランスをとるための, 新たなアッパー信頼境界(UCB)ボーナス駆動アルゴリズムを提案する。
提案アルゴリズムは,各エピソードの長さが$H$,アクション空間が$A$,表現の次元が$d$であるような,エプシロン$最適CVaRのサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2023-11-20T17:44:40Z) - Forward-PECVaR Algorithm: Exact Evaluation for CVaR SSPs [1.347733333991357]
Conditional Value at Risk (CVaR)は、任意のレベルのリスクをモデリングできる基準である。
非一様コストでCVaR-SSPの定常ポリシーを正確に評価するアルゴリズムであるForward-PECVaRを提案する。
論文 参考訳(メタデータ) (2023-03-01T17:10:22Z) - Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - Boosted CVaR Classification [44.731468512484824]
モデル尾部性能を最大化するための一般的なアプローチは、CVaR損失を最小限に抑えることである。
モデルがゼロ1損失によって評価される分類タスクの場合、平均ゼロ1損失の最小化はCVaRゼロ1損失を最小化する。
本稿では,CVaR と LPBoost という古典的ブースティングアルゴリズムとの直接的な関係を動機としたBoosted CVaR 分類フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-26T18:27:25Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Noisy Linear Convergence of Stochastic Gradient Descent for CV@R
Statistical Learning under Polyak-{\L}ojasiewicz Conditions [4.721069729610892]
Conditional Value-at-Risk(mathrmCV@R$)は、最も一般的なリスク対策の1つである。
私たちは、$mathrmCV@R$が教師付き統計学習のパフォーマンス基準として使用できることを証明します。
論文 参考訳(メタデータ) (2020-12-14T18:22:53Z) - Stochastic Hard Thresholding Algorithms for AUC Maximization [49.00683387735522]
分散分類におけるAUCのためのハードしきい値決定アルゴリズムを開発した。
提案アルゴリズムの有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-11-04T16:49:29Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Learning with CVaR-based feedback under potentially heavy tails [8.572654816871873]
条件付きリスク(CVaR)の最小化を目指す学習アルゴリズムについて検討する。
まず,重み付き確率変数に対するCVaRの汎用推定器について検討する。
次に、勾配駆動サブプロセスによって生成される候補の中から頑健に選択する新しい学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-06-03T01:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。