論文の概要: Beyond Expectations: Learning with Stochastic Dominance Made Practical
- arxiv url: http://arxiv.org/abs/2402.02698v1
- Date: Mon, 5 Feb 2024 03:21:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:59:11.389504
- Title: Beyond Expectations: Learning with Stochastic Dominance Made Practical
- Title(参考訳): 期待を超えて:確率的支配で学ぶことは現実的になった
- Authors: Shicong Cen, Jincheng Mei, Hanjun Dai, Dale Schuurmans, Yuejie Chi, Bo
Dai
- Abstract要約: 支配は、不確実な結果で意思決定を行うためのリスク-逆の選好をモデル化する。
理論上は魅力的だが、機械学習における優位性の応用は乏しい。
まず支配の概念を一般化し、任意の確率変数の任意のペア間の比較を可能にする。
次に、優位性の観点から最適解を見つけるための単純で効率的なアプローチを開発する。
- 参考スコア(独自算出の注目度): 88.06211893690964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic dominance models risk-averse preferences for decision making with
uncertain outcomes, which naturally captures the intrinsic structure of the
underlying uncertainty, in contrast to simply resorting to the expectations.
Despite theoretically appealing, the application of stochastic dominance in
machine learning has been scarce, due to the following challenges:
$\textbf{i)}$, the original concept of stochastic dominance only provides a
$\textit{partial order}$, therefore, is not amenable to serve as an optimality
criterion; and $\textbf{ii)}$, an efficient computational recipe remains
lacking due to the continuum nature of evaluating stochastic dominance.%, which
barriers its application for machine learning.
In this work, we make the first attempt towards establishing a general
framework of learning with stochastic dominance. We first generalize the
stochastic dominance concept to enable feasible comparisons between any
arbitrary pair of random variables. We next develop a simple and
computationally efficient approach for finding the optimal solution in terms of
stochastic dominance, which can be seamlessly plugged into many learning tasks.
Numerical experiments demonstrate that the proposed method achieves comparable
performance as standard risk-neutral strategies and obtains better trade-offs
against risk across a variety of applications including supervised learning,
reinforcement learning, and portfolio optimization.
- Abstract(参考訳): 確率的支配は、単に期待に頼るのとは対照的に、不確実性の本質的な構造を自然に捉えた不確定な結果を伴う意思決定に対するリスク回避的な選好をモデル化する。
理論上は魅力的であるにもかかわらず、機械学習における確率的支配の応用は、以下の課題により少ない:$\textbf{i)}$, the original concept of stochastic dominance only provides a $\textit{partial order}$, is amenable to serve aOptimity criterion; $\textbf{ii)}$, and $\textbf{ii}$, a efficient computational recipe is not lack to the continuum nature of stochastic dominance。
これは機械学習への応用を妨げている。
本研究では,確率的支配による学習の一般的な枠組みを確立するための最初の試みを行う。
まず確率支配の概念を一般化し、任意の確率変数の任意のペア間の比較を可能にする。
次に,多くの学習タスクにシームレスに接続できる確率的支配という観点から最適解を求めるための,単純かつ計算効率の良い手法を開発した。
数値実験により,提案手法は標準的なリスク中立戦略に匹敵する性能を示し,教師付き学習,強化学習,ポートフォリオ最適化など,さまざまなアプリケーション間でのリスクに対するよりよいトレードオフを得ることができた。
関連論文リスト
- Risk-Sensitive Soft Actor-Critic for Robust Deep Reinforcement Learning
under Distribution Shifts [11.765000124617186]
本研究では、文脈多段階最適化問題における分散シフトに対する深層強化学習アルゴリズムの堅牢性について検討する。
提案アルゴリズムは,リスクニュートラルなソフトアクター・クライブや,頑健な深層強化学習のための2つのベンチマーク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-15T14:55:38Z) - Risk-Sensitive Stochastic Optimal Control as Rao-Blackwellized Markovian
Score Climbing [3.9410617513331863]
動的システムの最適制御は、シーケンシャルな意思決定において重要な課題である。
コントロール・アズ・推論のアプローチは大きな成功をおさめ、探索・探索ジレンマに対処するためのリスクに敏感なフレームワークを提供する。
本稿では, 条件付き粒子フィルタから抽出した試料下でのマルコフ強化スコアクライミングとして, リスク感応性制御のフレーミングによる新しい視点を提案する。
論文 参考訳(メタデータ) (2023-12-21T16:34:03Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。