論文の概要: Deep Reinforcement Learning for Picker Routing Problem in Warehousing
- arxiv url: http://arxiv.org/abs/2402.03525v1
- Date: Mon, 5 Feb 2024 21:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 17:49:09.852926
- Title: Deep Reinforcement Learning for Picker Routing Problem in Warehousing
- Title(参考訳): 倉庫におけるピッカールーティング問題に対する深層強化学習
- Authors: George Dunn, Hadi Charkhgard, Ali Eshragh, Sasan Mahmoudinazlou and
Elizabeth Stojanovski
- Abstract要約: 本稿では、強化学習を用いて学習したピッカーツアーをモデル化するための注意に基づくニューラルネットワークを提案する。
提案手法の重要な利点は,経路の複雑さを低減できるオプションを提供することである。
- 参考スコア(独自算出の注目度): 0.6562256987706128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Order Picker Routing is a critical issue in Warehouse Operations Management.
Due to the complexity of the problem and the need for quick solutions,
suboptimal algorithms are frequently employed in practice. However,
Reinforcement Learning offers an appealing alternative to traditional
heuristics, potentially outperforming existing methods in terms of speed and
accuracy. We introduce an attention based neural network for modeling picker
tours, which is trained using Reinforcement Learning. Our method is evaluated
against existing heuristics across a range of problem parameters to demonstrate
its efficacy. A key advantage of our proposed method is its ability to offer an
option to reduce the perceived complexity of routes.
- Abstract(参考訳): 注文ピッカールーティングは倉庫管理において重要な問題である。
問題の複雑さと迅速な解法の必要性により、最適化アルゴリズムは実際に頻繁に用いられる。
しかし、強化学習(Reinforcement Learning)は、従来のヒューリスティックスに代えて魅力的な代替手段を提供する。
本稿では,強化学習を用いて学習するピッカーツアーをモデル化するための注意に基づくニューラルネットワークを提案する。
本手法はその有効性を示すために,様々な問題パラメータの既存のヒューリスティックスに対して評価を行った。
提案手法の重要な利点は,経路の複雑さを低減できるオプションを提供することである。
関連論文リスト
- An Efficient Learning-based Solver Comparable to Metaheuristics for the
Capacitated Arc Routing Problem [67.92544792239086]
我々は,高度メタヒューリスティックスとのギャップを著しく狭めるため,NNベースの解法を導入する。
まず,方向対応型注意モデル(DaAM)を提案する。
第2に、教師付き事前学習を伴い、堅牢な初期方針を確立するための教師付き強化学習スキームを設計する。
論文 参考訳(メタデータ) (2024-03-11T02:17:42Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Towards Omni-generalizable Neural Methods for Vehicle Routing Problems [14.210085924625705]
本稿では,VRPにおけるサイズと分布の両面での一般化を考慮した,挑戦的かつ現実的な設定について検討する。
提案するメタラーニングフレームワークは,推論中に新しいタスクに迅速に適応する能力を持つモデルを効果的に学習することを可能にする。
論文 参考訳(メタデータ) (2023-05-31T06:14:34Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Learning To Cut By Looking Ahead: Cutting Plane Selection via Imitation
Learning [80.45697245527019]
我々は、最良限の改善をもたらすカットを明示的に目指している欲求選択規則が、カット選択に対して強い決定を下すことを示す。
本研究では,頭頂部の専門家を対象とした模擬学習のための新しいニューラルアーキテクチャ(NeuralCut)を提案する。
論文 参考訳(メタデータ) (2022-06-27T16:07:27Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z) - Large Neighborhood Search based on Neural Construction Heuristics [5.210197476419621]
時間窓を用いた車両経路問題の解法として,ニューラルネットワークを応用した学習構築法を提案する。
本手法では, グラフニューラルネットワークを用いて問題を符号化し, 解を自己回帰的に復号する。
論文 参考訳(メタデータ) (2022-05-02T09:38:19Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Reinforcement Learning for Combinatorial Optimization: A Survey [12.323976053967066]
最適化問題を解決する多くの伝統的なアルゴリズムは、解決を逐次構築する手工芸品を使用する。
強化学習(Reinforcement Learning, RL)は、エージェントを監督的または自己監督的な方法で訓練することにより、これらの検索を自動化する優れた代替手段を提案する。
論文 参考訳(メタデータ) (2020-03-07T16:19:45Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。