論文の概要: DeepFreight: Integrating Deep Reinforcement Learning and Mixed Integer
Programming for Multi-transfer Truck Freight Delivery
- arxiv url: http://arxiv.org/abs/2103.03450v2
- Date: Thu, 25 May 2023 14:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-27 00:44:04.126379
- Title: DeepFreight: Integrating Deep Reinforcement Learning and Mixed Integer
Programming for Multi-transfer Truck Freight Delivery
- Title(参考訳): deepfreight:マルチトランスファートラック貨物配送のための深層強化学習と混合整数計画の統合
- Authors: Jiayu Chen, Abhishek K. Umrawal, Tian Lan, and Vaneet Aggarwal
- Abstract要約: DeepFreightは、マルチトランスファー貨物配送のためのモデルフリーのディープ強化学習ベースのアルゴリズムである。
提案システムは非常にスケーラブルで,低納車時間と燃料消費を維持しつつ,100%の納車成功を実現する。
- 参考スコア(独自算出の注目度): 38.04321619061474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the freight delivery demands and shipping costs increasing rapidly,
intelligent control of fleets to enable efficient and cost-conscious solutions
becomes an important problem. In this paper, we propose DeepFreight, a
model-free deep-reinforcement-learning-based algorithm for multi-transfer
freight delivery, which includes two closely-collaborative components:
truck-dispatch and package-matching. Specifically, a deep multi-agent
reinforcement learning framework called QMIX is leveraged to learn a dispatch
policy, with which we can obtain the multi-step joint vehicle dispatch
decisions for the fleet with respect to the delivery requests. Then an
efficient multi-transfer matching algorithm is executed to assign the delivery
requests to the trucks. Also, DeepFreight is integrated with a Mixed-Integer
Linear Programming optimizer for further optimization. The evaluation results
show that the proposed system is highly scalable and ensures a 100\% delivery
success while maintaining low delivery-time and fuel consumption. The codes are
available at https://github.com/LucasCJYSDL/DeepFreight.
- Abstract(参考訳): 貨物輸送需要と輸送コストの急激な増加により、効率よくコストを意識したソリューションを実現するための艦隊のインテリジェントな制御が重要な問題となっている。
本稿では,トラックディスパッチとパッケージマッチングという2つの密接なコラボレーションコンポーネントを含む,マルチトランスファー貨物配送のためのモデルフリーなディープラーニングアルゴリズムであるdeepfreightを提案する。
具体的には、qmixと呼ばれる深いマルチエージェント強化学習フレームワークを利用してディスパッチポリシを学習し、配信要求に対して複数のステップの共同車両ディスパッチ決定を得ることができる。
そして、トラックに配送要求を割り当てる効率的なマルチ転送マッチングアルゴリズムを実行する。
また、DeepFreightはさらなる最適化のためにMixed-Integer Linear Programming Optimizationrと統合されている。
評価の結果,提案システムは非常にスケーラブルであり,低供給時間と燃料消費を維持しつつ,100 %の配送成功が保証された。
コードはhttps://github.com/lucascjysdl/deepfreightで入手できる。
関連論文リスト
- Learn to Solve Vehicle Routing Problems ASAP: A Neural Optimization Approach for Time-Constrained Vehicle Routing Problems with Finite Vehicle Fleet [0.0]
車両の車両サイズが有限である時間制約付静電容量VRPを解くためのNCO手法を提案する。
この手法は、柔軟性と堅牢な一般化の両方を示す、適切で費用効率のよい解を見つけることができる。
論文 参考訳(メタデータ) (2024-11-07T15:16:36Z) - SmartPathfinder: Pushing the Limits of Heuristic Solutions for Vehicle Routing Problem with Drones Using Reinforcement Learning [14.395184780210913]
Vehicle Problem with Drones (VRPD)は、トラックとドローンの両方のルーティングパスを最適化しようとしている。
我々は、VRPDの解決、蒸留、およびコア要素への標準化のために設計された手法を網羅的に検討する。
次に、ソリューションコンポーネントとシームレスに統合された、新しい強化学習フレームワークを開発します。
論文 参考訳(メタデータ) (2024-04-13T19:10:54Z) - Deep Reinforcement Learning for Multi-Truck Vehicle Routing Problems with Multi-Leg Demand Routes [0.9423257767158634]
既存のエンコーダ・デコーダのアテンションモデルに新たな拡張を加えて,複数のトラックとマルチレグルーティング要求を処理できるようにした。
私たちのモデルには、少数のトラックやノードに対してトレーニングを行い、大きなサプライチェーンに組み込んで、多数のトラックやノードに対するソリューションを提供するという利点があります。
論文 参考訳(メタデータ) (2024-01-08T21:13:07Z) - Multi-Agent Learning of Efficient Fulfilment and Routing Strategies in
E-Commerce [11.421159751635667]
電子商取引における製品配送コストを最小化するための統合的アルゴリズムフレームワークを提案する。
電子商取引における大きな課題の1つは、複数の顧客からの時間的に多様な注文が大量にあることだ。
本稿では,グラフニューラルネットワークと強化学習を組み合わせたノード選択と車両エージェントの学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T10:32:28Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z) - Dynamic Bicycle Dispatching of Dockless Public Bicycle-sharing Systems
using Multi-objective Reinforcement Learning [79.61517670541863]
ドッキングレスPBS(DL-PBS)に欠かせない動的自転車レンタル需要に基づく効率的な自転車配車ソリューションを実現するためのAIの活用
DL-PBSに最適な自転車ディスパッチソリューションを提供するために、マルチオブジェクト強化学習(MORL-BD)に基づく動的自転車ディスパッチアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-01-19T03:09:51Z) - Multi-Agent Reinforcement Learning for Channel Assignment and Power
Allocation in Platoon-Based C-V2X Systems [15.511438222357489]
我々は,C-V2Xシステムにおける結合チャネル割り当てと電力配分の問題点を考察する。
提案する分散リソース割当アルゴリズムは,よく知られた網羅的探索アルゴリズムと比較して,近い性能を提供する。
論文 参考訳(メタデータ) (2020-11-09T16:55:09Z) - Reinforcement Learning Based Vehicle-cell Association Algorithm for
Highly Mobile Millimeter Wave Communication [53.47785498477648]
本稿では,ミリ波通信網における車とセルの関連性について検討する。
まず、ユーザ状態(VU)問題を離散的な非車両関連最適化問題として定式化する。
提案手法は,複数のベースライン設計と比較して,ユーザの複雑性とVUEの20%削減の合計で最大15%のゲインが得られる。
論文 参考訳(メタデータ) (2020-01-22T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。