論文の概要: Non-Stationary Inventory Control with Lead Times
- arxiv url: http://arxiv.org/abs/2602.05799v1
- Date: Thu, 05 Feb 2026 15:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.019553
- Title: Non-Stationary Inventory Control with Lead Times
- Title(参考訳): リードタイムによる非定常インベントリ制御
- Authors: Nele H. Amiri, Sean R. Sinclair, Maximiliano Udenio,
- Abstract要約: 非定常単体, 定期レビュー在庫管理問題について検討した。
非定常性の需要が在庫モデル全体の学習性能に与える影響を分析する。
- 参考スコア(独自算出の注目度): 0.4927882324444362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study non-stationary single-item, periodic-review inventory control problems in which the demand distribution is unknown and may change over time. We analyze how demand non-stationarity affects learning performance across inventory models, including systems with demand backlogging or lost-sales, both with and without lead times. For each setting, we propose an adaptive online algorithm that optimizes over the class of base-stock policies and establish performance guarantees in terms of dynamic regret relative to the optimal base-stock policy at each time step. Our results reveal a sharp separation across inventory models. In backlogging systems and lost-sales models with zero lead time, we show that it is possible to adapt to demand changes without incurring additional performance loss in stationary environments, even without prior knowledge of the demand distributions or the number of demand shifts. In contrast, for lost-sales systems with positive lead times, we establish weaker guarantees that reflect fundamental limitations imposed by delayed replenishment in combination with censored feedback. Our algorithms leverage the convexity and one-sided feedback structure of inventory costs to enable counterfactual policy evaluation despite demand censoring. We complement the theoretical analysis with simulation results showing that our methods significantly outperform existing benchmarks.
- Abstract(参考訳): 本研究では, 需要分布が不明であり, 経時的に変化する可能性のある, 定常的な単一項目, 定期的な在庫管理問題について検討する。
需要の非定常性が在庫モデル全体の学習パフォーマンスに与える影響を分析する。
各設定に対して,各段階における最適基準ポリシーに対する動的後悔の観点から,基本基準ポリシーのクラスを最適化し,性能保証を確立する適応型オンラインアルゴリズムを提案する。
この結果から,在庫モデル間での明確な分離が明らかとなった。
バックログシステムや,ゼロリードタイムのロスセールモデルでは,需要分布や需要数の変化の事前知識がなくても,定常環境においてさらなるパフォーマンス損失を生じさせることなく,需要変化に適応できることが示されている。
対照的に、前向きなリードタイムを持つロスセールシステムでは、遅延補充による根本的な制約と検閲されたフィードバックを反映して、より弱い保証を確立する。
当社のアルゴリズムは,需要規制にもかかわらず,在庫コストの凸性と一方的なフィードバック構造を利用して,対実的政策評価を可能にする。
提案手法が既存のベンチマークを著しく上回ることを示すシミュレーション結果と理論解析を補完する。
関連論文リスト
- Offline Dynamic Inventory and Pricing Strategy: Addressing Censored and Dependent Demand [7.289672463326423]
オフライン機能に基づく価格と在庫管理の問題について検討する。
私たちの目標は、オフラインデータセットを活用して、最適な価格と在庫管理ポリシを見積もることです。
論文 参考訳(メタデータ) (2025-04-14T02:57:51Z) - Spatial Supply Repositioning with Censored Demand Data [10.797160099834306]
我々は、一方通行のオンデマンド車両共有サービスによるネットワーク在庫システムについて検討する。
このような一般的な在庫ネットワークにおいて最適なポリシーを見つけることは解析的にも計算的にも困難である。
我々の研究は、共有モビリティビジネスの生存性における在庫管理の重要性を強調している。
論文 参考訳(メタデータ) (2025-01-31T15:16:02Z) - Contextual Bandits for Evaluating and Improving Inventory Control
Policies [2.2530496464901106]
均衡政策の概念、つまり政策の望ましい性質は、直感的に言えば、わずかな行動だけを変えるだけでは、実質的な報奨が得られないことを意味する。
本手法は,理論上も経験上も良好な保証を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-24T18:00:40Z) - Online Inventory Problems: Beyond the i.i.d. Setting with Online Convex
Optimization [0.8602553195689513]
管理者がその累積損失を最小限に抑えるため、管理者が部分的履歴情報に基づいて逐次補充決定を行う多製品在庫管理問題について検討する。
我々は,非I.d.要求問題やステートフル・ダイナミクスの問題に対して,証明可能な保証を有するオンラインアルゴリズムであるMaxCOSDを提案する。
論文 参考訳(メタデータ) (2023-07-12T10:00:22Z) - Approaching sales forecasting using recurrent neural networks and
transformers [57.43518732385863]
深層学習技術を用いて,日・店・店レベルでの顧客販売予測問題に対処する3つの方法を開発した。
実験結果から,データ前処理を最小限に抑えた単純なシーケンスアーキテクチャを用いて,優れた性能を実現することができることを示す。
提案した解は約0.54の RMSLE を達成し、Kaggle コンペティションで提案された問題に対する他のより具体的な解と競合する。
論文 参考訳(メタデータ) (2022-04-16T12:03:52Z) - A Learning Based Framework for Handling Uncertain Lead Times in
Multi-Product Inventory Management [8.889304968879163]
サプライチェーンと在庫管理に関する既存の文献の多くは、ゼロまたは一定リードタイムの需要プロセスを考慮する。
最近導入された遅延解決深度Q-ラーニング(DRDQN)アルゴリズムに動機づけられた本研究では,リードタイムにおける不確実性を扱うための強化学習に基づくパラダイムを開発する。
論文 参考訳(メタデータ) (2022-03-02T05:50:04Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z) - Stateful Offline Contextual Policy Evaluation and Learning [88.9134799076718]
我々は、シーケンシャルデータから、政治以外の評価と学習について研究する。
動的パーソナライズされた価格設定などの問題の因果構造を形式化する。
本報告では,本クラスにおけるアウト・オブ・サンプル・ポリシーの性能改善について述べる。
論文 参考訳(メタデータ) (2021-10-19T16:15:56Z) - MUSBO: Model-based Uncertainty Regularized and Sample Efficient Batch
Optimization for Deployment Constrained Reinforcement Learning [108.79676336281211]
データ収集とオンライン学習のための新しいポリシーの継続的展開はコスト非効率か非現実的かのどちらかである。
モデルベース不確実性正規化とサンプル効率的なバッチ最適化という新しいアルゴリズム学習フレームワークを提案する。
本フレームワークは,各デプロイメントの新規で高品質なサンプルを発見し,効率的なデータ収集を実現する。
論文 参考訳(メタデータ) (2021-02-23T01:30:55Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。