論文の概要: Online Uniform Risk Times Sampling: First Approximation Algorithms,
Learning Augmentation with Full Confidence Interval Integration
- arxiv url: http://arxiv.org/abs/2402.01995v2
- Date: Wed, 7 Feb 2024 14:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 12:11:10.054469
- Title: Online Uniform Risk Times Sampling: First Approximation Algorithms,
Learning Augmentation with Full Confidence Interval Integration
- Title(参考訳): オンライン一様リスクタイムサンプリング:最初の近似アルゴリズム、完全信頼区間統合による学習増強
- Authors: Xueqing Liu, Kyra Gan, Esmaeil Keyvanshokooh, Susan Murphy
- Abstract要約: デジタルヘルスにおいて、限られた治療予算を利用可能なリスク時間に割り当てる戦略は、ユーザの疲労を軽減するために不可欠である。
本稿では,近似アルゴリズムフレームワーク内でのオンライン一様リスク時間サンプリング問題について,初めて紹介する。
本稿では,この問題に対する2つのオンライン近似アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.861395476387163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In digital health, the strategy of allocating a limited treatment budget
across available risk times is crucial to reduce user fatigue. This strategy,
however, encounters a significant obstacle due to the unknown actual number of
risk times, a factor not adequately addressed by existing methods lacking
theoretical guarantees. This paper introduces, for the first time, the online
uniform risk times sampling problem within the approximation algorithm
framework. We propose two online approximation algorithms for this problem, one
with and one without learning augmentation, and provide rigorous theoretical
performance guarantees for them using competitive ratio analysis. We assess the
performance of our algorithms using both synthetic experiments and a real-world
case study on HeartSteps mobile applications.
- Abstract(参考訳): デジタルヘルスにおいて、限られた治療予算を利用可能なリスク時間に割り当てる戦略は、ユーザの疲労を軽減するために不可欠である。
しかし、この戦略は、理論上の保証が欠けている既存の方法では適切に対処できない要因である、実際のリスクタイムが不明であるために、重大な障害に直面する。
本稿では,近似アルゴリズムフレームワーク内でのオンライン一様リスク時間サンプリング問題について,初めて紹介する。
そこで本研究では,学習の強化を伴わない2つのオンライン近似アルゴリズムを提案し,競合比分析による厳密な理論性能保証を提供する。
人工実験とHeartStepsモバイルアプリケーションにおける実世界のケーススタディの両方を用いてアルゴリズムの性能を評価する。
関連論文リスト
- Risk-Sensitive Soft Actor-Critic for Robust Deep Reinforcement Learning
under Distribution Shifts [11.765000124617186]
本研究では、文脈多段階最適化問題における分散シフトに対する深層強化学習アルゴリズムの堅牢性について検討する。
提案アルゴリズムは,リスクニュートラルなソフトアクター・クライブや,頑健な深層強化学習のための2つのベンチマーク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-15T14:55:38Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Conditionally Elicitable Dynamic Risk Measures for Deep Reinforcement
Learning [0.0]
我々は,ディープニューラルネットワークを用いた動的スペクトルリスク尺度のクラスを推定する効率的な手法を開発した。
また,リスクに敏感なアクター・クリティック・アルゴリズムも開発しており,追加のネスト・トランジションを必要としない。
論文 参考訳(メタデータ) (2022-06-29T14:11:15Z) - Improving Adversarial Robustness by Putting More Regularizations on Less
Robust Samples [1.675857332621569]
本稿では,他の既存アルゴリズムよりも理論的に動機付けられ,実証的に優れている新しい逆学習アルゴリズムを提案する。
我々は,本アルゴリズムを,新たに導出されたロバストリスクの上界から動機付けられた正規化経験的リスクを最小化するアルゴリズムとして理解することができることを示す。
論文 参考訳(メタデータ) (2022-06-07T14:46:27Z) - TOPS: Transition-based VOlatility-controlled Policy Search and its
Global Convergence [9.607937067646617]
本稿では,遷移型ボラティリティ制御ポリシサーチ(TOPS)を提案する。
このアルゴリズムは、連続した軌道ではなく(おそらく非連続的な)遷移から学習することで、リスク-逆問題の解法である。
理論的解析と実験結果の両方が、リスク・逆ポリシー探索手法の最先端レベルを示している。
論文 参考訳(メタデータ) (2022-01-24T18:29:23Z) - Instance-Dependent Confidence and Early Stopping for Reinforcement
Learning [99.57168572237421]
強化学習(RL)のための様々なアルゴリズムは、その収束率の劇的な変動を問題構造の関数として示している。
この研究は、観察されたパフォーマンスの違いについて、textitexを説明する保証を提供する。
次の自然なステップは、これらの理論的保証を実際に有用なガイドラインに変換することです。
論文 参考訳(メタデータ) (2022-01-21T04:25:35Z) - Proximal Causal Learning with Kernels: Two-Stage Estimation and Moment
Restriction [39.51144507601913]
我々は近位因果学習の設定に焦点をあてるが、本手法はフレドホルム積分方程式によって特徴づけられるより広い逆問題のクラスを解くのに使うことができる。
我々は,各アルゴリズムに一貫性の保証を提供し,これらの手法が合成データと実世界のタスクをシミュレートしたデータにおいて競争的な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-10T17:52:48Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。