論文の概要: Mean-Variance Analysis in Bayesian Optimization under Uncertainty
- arxiv url: http://arxiv.org/abs/2009.08166v1
- Date: Thu, 17 Sep 2020 09:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:35:21.850093
- Title: Mean-Variance Analysis in Bayesian Optimization under Uncertainty
- Title(参考訳): 不確実性下におけるベイズ最適化における平均変動解析
- Authors: Shogo Iwazaki, Yu Inatsu, Ichiro Takeuchi
- Abstract要約: 複数のリスク対策のトレードオフを検討する必要がある不確実な環境において、アクティブラーニング(AL)を考える。
理論的解析と数値実験により提案アルゴリズムの有効性を示す。
- 参考スコア(独自算出の注目度): 23.39754660544729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider active learning (AL) in an uncertain environment in which
trade-off between multiple risk measures need to be considered. As an AL
problem in such an uncertain environment, we study Mean-Variance Analysis in
Bayesian Optimization (MVA-BO) setting. Mean-variance analysis was developed in
the field of financial engineering and has been used to make decisions that
take into account the trade-off between the average and variance of investment
uncertainty. In this paper, we specifically focus on BO setting with an
uncertain component and consider multi-task, multi-objective, and constrained
optimization scenarios for the mean-variance trade-off of the uncertain
component. When the target blackbox function is modeled by Gaussian Process
(GP), we derive the bounds of the two risk measures and propose AL algorithm
for each of the above three problems based on the risk measure bounds. We show
the effectiveness of the proposed AL algorithms through theoretical analysis
and numerical experiments.
- Abstract(参考訳): 複数のリスク対策のトレードオフを検討する必要がある不確実な環境において、アクティブラーニング(AL)を考える。
このような不確実な環境におけるAL問題として,ベイズ最適化(MVA-BO)における平均変動解析について検討する。
平均分散分析は金融工学の分野で開発され、投資の不確実性の平均と分散のトレードオフを考慮した意思決定に用いられてきた。
本稿では,不確実成分を用いたBO設定に着目し,不確実成分の平均分散トレードオフに対するマルチタスク,マルチオブジェクト,制約付き最適化シナリオを検討する。
対象のブラックボックス関数がガウス過程(GP)によってモデル化された場合、2つのリスク測度の境界を導出し、リスク測度境界に基づいて上記の3つの問題それぞれに対してALアルゴリズムを提案する。
理論的解析と数値実験により提案アルゴリズムの有効性を示す。
関連論文リスト
- Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Nonlinear Distributionally Robust Optimization [5.0490573482829335]
本稿では、分布において目的関数が潜在的に非線形であるような分布ロバスト最適化(DRO)のクラスに焦点を当てる。
本稿では,ジェネリックリスク尺度に対するGateaux(G)誘導体に基づく微分とそれに対応する滑らかさの代替概念を提案する。
我々はFWアルゴリズムのセットアップを用いて非線形DRO問題のサドル点を計算する手法を考案する。
論文 参考訳(メタデータ) (2023-06-05T19:22:02Z) - Bounding Box-based Multi-objective Bayesian Optimization of Risk
Measures under Input Uncertainty [21.056363101777052]
我々は,入力不確実性(IU)の存在下でのブラックボックス関数のリスク測定によって定義されるパレートフロント(PF)を効率的に同定する,新しい多目的ベイズ最適化(MOBO)手法を提案する。
提案手法の基本的な考え方は,ブラックボックス関数に対するガウス過程(GP)モデルを仮定し,GPモデルを用いたリスク対策のための高確率バウンディングボックスを構築することである。
ベイズリスク、最悪のケースリスク、そして値といった様々なリスク対策に対して、アルゴリズムは高い確率で有限個の反復で任意の精度の解を返すことができることを証明した。
論文 参考訳(メタデータ) (2023-01-27T08:25:45Z) - Uncertainty-Driven Action Quality Assessment [67.20617610820857]
本稿では,複数の判定スコアの多様性を捉えるために,不確実性駆動型AQA (UD-AQA) という新しい確率モデルを提案する。
我々は,AQA回帰損失の再重み付けに使用される各予測の不確かさを推定する。
提案手法は,オリンピックイベントMTL-AQAとFineDivingの3つのベンチマークと,手術スキルJIGSAWSデータセットの3つのベンチマークで比較結果を得た。
論文 参考訳(メタデータ) (2022-07-29T07:21:15Z) - Mean-Semivariance Policy Optimization via Risk-Averse Reinforcement
Learning [12.022303947412917]
本稿では,強化学習における平均半変量基準の最適化を目的とした。
我々は,政策依存型報酬関数を用いて一連のRL問題を反復的に解くことで,MSV問題を解くことができることを明らかにした。
政策勾配理論と信頼領域法に基づく2つのオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-15T08:32:53Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Risk-Averse Bayes-Adaptive Reinforcement Learning [3.5289688061934963]
ベイズ適応マルコフ決定過程(MDP)における総リターンの条件値(CVaR)を最適化する問題を提起する。
この設定でCVaRを最適化する政策は、MDPの事前分布によるパラメトリック不確実性と、MDPの固有性による内部不確実性の両方に反するものである。
我々の実験は,本手法がこの問題に対するベースラインアプローチより著しく優れていることを示した。
論文 参考訳(メタデータ) (2021-02-10T22:34:33Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。