論文の概要: Reinforcement Learning for Multi-Product Multi-Node Inventory Management
in Supply Chains
- arxiv url: http://arxiv.org/abs/2006.04037v1
- Date: Sun, 7 Jun 2020 04:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:11:17.316921
- Title: Reinforcement Learning for Multi-Product Multi-Node Inventory Management
in Supply Chains
- Title(参考訳): サプライチェーンにおける多製品多ノード在庫管理のための強化学習
- Authors: Nazneen N Sultana, Hardik Meisheri, Vinita Baniwal, Somjit Nath,
Balaraman Ravindran, Harshad Khadilkar
- Abstract要約: 本稿では,サプライチェーンにおける多製品在庫管理への強化学習(RL)の適用について述べる。
実験の結果,提案手法は製品販売の最大化と商品の無駄を最小化する多目的報酬を処理可能であることが示された。
- 参考スコア(独自算出の注目度): 17.260459603456745
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper describes the application of reinforcement learning (RL) to
multi-product inventory management in supply chains. The problem description
and solution are both adapted from a real-world business solution. The novelty
of this problem with respect to supply chain literature is (i) we consider
concurrent inventory management of a large number (50 to 1000) of products with
shared capacity, (ii) we consider a multi-node supply chain consisting of a
warehouse which supplies three stores, (iii) the warehouse, stores, and
transportation from warehouse to stores have finite capacities, (iv) warehouse
and store replenishment happen at different time scales and with realistic time
lags, and (v) demand for products at the stores is stochastic. We describe a
novel formulation in a multi-agent (hierarchical) reinforcement learning
framework that can be used for parallelised decision-making, and use the
advantage actor critic (A2C) algorithm with quantised action spaces to solve
the problem. Experiments show that the proposed approach is able to handle a
multi-objective reward comprised of maximising product sales and minimising
wastage of perishable products.
- Abstract(参考訳): 本稿では,サプライチェーンにおける多製品在庫管理への強化学習(RL)の適用について述べる。
問題の説明と解決策はどちらも現実世界のビジネスソリューションから適応しています。
サプライチェーン文学におけるこの問題の目新しさは
(i)共有容量を有する多数の製品(50~1000)の同時在庫管理について検討する。
(ii)3店舗の倉庫からなる多ノードサプライチェーンを考える。
(三)倉庫、店舗及び倉庫から店舗への輸送は、容量が有限である。
(四 倉庫及び店舗の補充は、異なる時間規模で、かつ、現実的なタイムラグで行われ、
(v)店舗での商品の需要は確率的である。
本稿では,並列化意思決定に使用可能なマルチエージェント(階層的)強化学習フレームワークにおける新しい定式化について述べる。
実験の結果,提案手法は製品販売の最大化と商品の無駄を最小化する多目的報酬を処理可能であることが示された。
関連論文リスト
- Enhancing Supply Chain Visibility with Knowledge Graphs and Large Language Models [49.898152180805454]
本稿では,サプライチェーンの可視性を高めるために,知識グラフ(KG)と大規模言語モデル(LLM)を活用した新しいフレームワークを提案する。
我々のゼロショットLPM駆動アプローチは、様々な公共情報源からのサプライチェーン情報の抽出を自動化する。
NERとREタスクの精度が高く、複雑な多層供給ネットワークを理解する効果的なツールを提供する。
論文 参考訳(メタデータ) (2024-08-05T17:11:29Z) - InvAgent: A Large Language Model based Multi-Agent System for Inventory Management in Supply Chains [0.0]
本研究では,大規模言語モデル (LLM) を用いて複数エージェントの在庫管理システムを管理する手法を提案する。
我々のモデルであるInvAgentはレジリエンスを高め、サプライチェーンネットワーク全体の効率を向上させる。
論文 参考訳(メタデータ) (2024-07-16T04:55:17Z) - MARLIM: Multi-Agent Reinforcement Learning for Inventory Management [1.1470070927586016]
本稿では、在庫管理問題に対処するため、MARLIMと呼ばれる新しい強化学習フレームワークを提案する。
このコンテキスト内では、コントローラは単一のエージェントまたは複数のエージェントを介して協調的に開発される。
実データに関する数値実験は、従来のベースラインよりも強化学習法の利点を実証している。
論文 参考訳(メタデータ) (2023-08-03T09:31:45Z) - Cooperative Multi-Agent Reinforcement Learning for Inventory Management [0.5276232626689566]
在庫管理のための強化学習(RL)は、初期の研究分野である。
本稿では,1つの倉庫と複数の店舗からなる,GPU並列化された独自のシステムを提案する。
標準在庫管理ポリシーより優れたシステムを実現する。
論文 参考訳(メタデータ) (2023-04-18T06:55:59Z) - Multi-Agent Reinforcement Learning with Shared Resources for Inventory
Management [62.23979094308932]
私たちの設定では、共有リソース(在庫容量など)の制約は、SKUごとに独立した制御を結合します。
共有資源ゲーム(SRSG)としてこの問題を定式化し,CD-PPO(Context-aware Decentralized PPO)と呼ばれる効率的なアルゴリズムを提案する。
実験により,CD-PPOは標準的なMARLアルゴリズムと比較して学習手順を高速化できることが実証された。
論文 参考訳(メタデータ) (2022-12-15T09:35:54Z) - No-Regret Learning in Two-Echelon Supply Chain with Unknown Demand
Distribution [48.27759561064771]
我々は[Cachon and Zipkin, 1999]で導入された2つのエケロンサプライチェーンモデルについて, 2つの異なる設定で検討する。
両設定の最適在庫決定に対する後悔と収束の両面において良好な保証を達成するアルゴリズムを設計する。
私たちのアルゴリズムは、オンライングラディエントDescentとOnline Newton Stepをベースとしています。
論文 参考訳(メタデータ) (2022-10-23T08:45:39Z) - A Simulation Environment and Reinforcement Learning Method for Waste
Reduction [50.545552995521774]
本稿では, 流通の観点から, 食料品店の在庫を消耗品で補充する際の問題点を考察する。
目的は、ごみを最小化しながら販売を最大化することであり、衣料品の実際の消費について不確実性がある。
我々は, エージェントの行動に合わせた行動を示す新しい強化学習タスクとして, 在庫再備の枠組みを定めている。
論文 参考訳(メタデータ) (2022-05-30T22:48:57Z) - Concepts and Algorithms for Agent-based Decentralized and Integrated
Scheduling of Production and Auxiliary Processes [78.120734120667]
本稿ではエージェントベースの分散型統合スケジューリング手法について述べる。
要求の一部は、線形にスケールする通信アーキテクチャを開発することである。
このアプローチは、工業的要件に基づいた例を使って説明されます。
論文 参考訳(メタデータ) (2022-05-06T18:44:29Z) - Comparing Deep Reinforcement Learning Algorithms in Two-Echelon Supply
Chains [1.4685355149711299]
我々は、サプライチェーン在庫管理問題を解決するための最先端の深層強化学習アルゴリズムの性能を分析し、比較する。
本研究では,サプライチェーンの在庫管理問題を解決するためのカスタマイズ可能な環境を提供するオープンソースソフトウェアライブラリの設計と開発について,詳細な知見を提供する。
論文 参考訳(メタデータ) (2022-04-20T16:33:01Z) - Learning to Minimize Cost-to-Serve for Multi-Node Multi-Product Order
Fulfilment in Electronic Commerce [3.3865605512957457]
サプライチェーンの最も多くのノードから製品を提供するコストが重要な課題であることに気付きました。
大規模で高確率で地理的に広がるeコマースサプライチェーンは、慎重に設計されたデータ駆動意思決定アルゴリズムに理想的だ。
強化学習に基づくアルゴリズムは,これらのポリシーと競合し,実世界における効率的なスケールアップの可能性を示す。
論文 参考訳(メタデータ) (2021-12-16T09:42:40Z) - Product1M: Towards Weakly Supervised Instance-Level Product Retrieval
via Cross-modal Pretraining [108.86502855439774]
弱教師付きマルチモーダル・インスタンスレベルの製品検索を目的とした,より現実的な設定について検討する。
実世界のインスタンスレベルの検索において,最も大規模なマルチモーダル化粧品データセットであるProduct1Mをコントリビュートする。
ケースレベルの予測検索(CAPTURE)のためのクロスモーダル・コントラサシブ・プロダクト・トランスフォーマーという新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-07-30T12:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。