論文の概要: Contextual Bandits for Evaluating and Improving Inventory Control
Policies
- arxiv url: http://arxiv.org/abs/2310.16096v1
- Date: Tue, 24 Oct 2023 18:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 18:48:09.616600
- Title: Contextual Bandits for Evaluating and Improving Inventory Control
Policies
- Title(参考訳): 在庫管理政策の評価と改善のための文脈帯域
- Authors: Dean Foster, Randy Jia, Dhruv Madeka
- Abstract要約: 均衡政策の概念、つまり政策の望ましい性質は、直感的に言えば、わずかな行動だけを変えるだけでは、実質的な報奨が得られないことを意味する。
本手法は,理論上も経験上も良好な保証を達成できることを示す。
- 参考スコア(独自算出の注目度): 2.2530496464901106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solutions to address the periodic review inventory control problem with
nonstationary random demand, lost sales, and stochastic vendor lead times
typically involve making strong assumptions on the dynamics for either
approximation or simulation, and applying methods such as optimization, dynamic
programming, or reinforcement learning. Therefore, it is important to analyze
and evaluate any inventory control policy, in particular to see if there is
room for improvement. We introduce the concept of an equilibrium policy, a
desirable property of a policy that intuitively means that, in hindsight,
changing only a small fraction of actions does not result in materially more
reward. We provide a light-weight contextual bandit-based algorithm to evaluate
and occasionally tweak policies, and show that this method achieves favorable
guarantees, both theoretically and in empirical studies.
- Abstract(参考訳): 定期的なレビュー在庫管理問題に、非定常的なランダムな需要、失った販売、確率的ベンダーのリードタイムに対処する解決策は、一般に近似またはシミュレーションのダイナミクスを強く仮定し、最適化、動的プログラミング、強化学習などの手法を適用する。
したがって、特に改善の余地があるかどうかを確認するためには、在庫管理政策の分析と評価が重要である。
我々は,政策の望ましい性質である均衡政策の概念について紹介する。これは,ほんのわずかな行動だけを変更するだけでは,実質的な報酬は得られない,という直観的な意味を持つ。
本手法は, 理論上, 経験的研究においても良好な保証が得られることを示すため, 軽量なコンテキストバンディットベースアルゴリズムを提案する。
関連論文リスト
- Learning Optimal Deterministic Policies with Stochastic Policy Gradients [62.81324245896716]
政策勾配法(PG法)は連続強化学習(RL法)問題に対処する手法として成功している。
一般的には、収束(ハイパー)政治は、決定論的バージョンをデプロイするためにのみ学習される。
本稿では,サンプルの複雑性とデプロイされた決定論的ポリシのパフォーマンスのトレードオフを最適化するために,学習に使用する探索レベルの調整方法を示す。
論文 参考訳(メタデータ) (2024-05-03T16:45:15Z) - Risk-Sensitive Stochastic Optimal Control as Rao-Blackwellized Markovian
Score Climbing [3.9410617513331863]
動的システムの最適制御は、シーケンシャルな意思決定において重要な課題である。
コントロール・アズ・推論のアプローチは大きな成功をおさめ、探索・探索ジレンマに対処するためのリスクに敏感なフレームワークを提供する。
本稿では, 条件付き粒子フィルタから抽出した試料下でのマルコフ強化スコアクライミングとして, リスク感応性制御のフレーミングによる新しい視点を提案する。
論文 参考訳(メタデータ) (2023-12-21T16:34:03Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Model-Based Offline Reinforcement Learning with Pessimism-Modulated
Dynamics Belief [3.0036519884678894]
モデルベースオフライン強化学習(RL)は、以前に収集した静的データセットと動的モデルを活用することで、高い報奨ポリシーを見つけることを目的としている。
本研究は, 力学上の信念分布を維持し, バイアスサンプリングによる政策評価・最適化を行う。
偏りのあるサンプリングは、Pessimism-Modulated Dynamics Beliefと呼ばれる、ポリシー依存の再重み付けによる更新された動的信念を自然に引き起こすことを示す。
論文 参考訳(メタデータ) (2022-10-13T03:14:36Z) - Bounded Robustness in Reinforcement Learning via Lexicographic
Objectives [54.00072722686121]
強化学習における政策の堅牢性は、いかなるコストでも望ましいものではないかもしれない。
本研究では,任意の観測ノイズに対して,政策が最大限に頑健になる方法について検討する。
本稿では,どのような政策アルゴリズムにも適用可能なロバストネス誘導方式を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:53:18Z) - Learning Robust Feedback Policies from Demonstrations [9.34612743192798]
閉ループ性能と境界(逆)摂動に対する堅牢性に関する実証可能な保証を示すフィードバック制御ポリシーを学ぶための新しいフレームワークを提案し、分析する。
これらのポリシーは、タスクやコスト関数、システムダイナミクスに関する事前知識のない専門家によるデモンストレーションから学習される。
論文 参考訳(メタデータ) (2021-03-30T19:11:05Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Provably Good Batch Reinforcement Learning Without Great Exploration [51.51462608429621]
バッチ強化学習(RL)は、RLアルゴリズムを多くの高利得タスクに適用するために重要である。
最近のアルゴリズムは将来性を示しているが、期待された結果に対して過度に楽観的である。
より保守的な更新を行うため、ベルマンの最適性と評価のバックアップに小さな修正を加えることで、はるかに強力な保証が得られることを示す。
論文 参考訳(メタデータ) (2020-07-16T09:25:54Z) - Distributionally Robust Batch Contextual Bandits [20.667213458836734]
歴史的観測データを用いた政策学習は、広く応用されている重要な問題である。
既存の文献は、学習方針が展開される将来の環境が過去の環境と同じである、という決定的な前提に基づいている。
本稿では、この仮定を引き上げ、不完全な観測データを用いて、分布的に堅牢なポリシーを学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-10T03:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。