論文の概要: Online Multimodal Transportation Planning using Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2105.08374v1
- Date: Tue, 18 May 2021 09:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 21:13:03.347908
- Title: Online Multimodal Transportation Planning using Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習を用いたオンラインマルチモーダル交通計画
- Authors: Amirreza Farahani, Laura Genga and Remco Dijkman
- Abstract要約: マルチモーダル交通計画問題の解法として,Deep Reinforcement Learningアプローチを提案する。
従来の計画手法は"オフライン"(輸送開始前にコンテナのバッチを決定する)で動作しますが、提案されたアプローチは"オンライン"です。
オンライン輸送計画は、当初の輸送計画に影響を与える可能性のある予期せぬ出来事に効果的に対応するのに役立ちます。
- 参考スコア(独自算出の注目度): 2.0088802641040604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we propose a Deep Reinforcement Learning approach to solve a
multimodal transportation planning problem, in which containers must be
assigned to a truck or to trains that will transport them to their destination.
While traditional planning methods work "offline" (i.e., they take decisions
for a batch of containers before the transportation starts), the proposed
approach is "online", in that it can take decisions for individual containers,
while transportation is being executed. Planning transportation online helps to
effectively respond to unforeseen events that may affect the original
transportation plan, thus supporting companies in lowering transportation
costs. We implemented different container selection heuristics within the
proposed Deep Reinforcement Learning algorithm and we evaluated its performance
for each heuristic using data that simulate a realistic scenario, designed on
the basis of a real case study at a logistics company. The experimental results
revealed that the proposed method was able to learn effective patterns of
container assignment. It outperformed tested competitors in terms of total
transportation costs and utilization of train capacity by 20.48% to 55.32% for
the cost and by 7.51% to 20.54% for the capacity. Furthermore, it obtained
results within 2.7% for the cost and 0.72% for the capacity of the optimal
solution generated by an Integer Linear Programming solver in an offline
setting.
- Abstract(参考訳): 本稿では,トラックにコンテナを割り当てたり,目的地に輸送する列車にコンテナを割り当てるマルチモーダル輸送計画問題を解決するための深層強化学習手法を提案する。
従来の計画手法は"オフライン"(すなわち、輸送開始前にコンテナのバッチを決定する)で動作するが、提案されたアプローチは"オンライン"であり、輸送が実行される間、個々のコンテナに対して決定を下すことができる。
オンライン交通計画は、当初の交通計画に影響を及ぼす可能性のある予期せぬ出来事に効果的に対応し、企業による輸送コストの削減を支援する。
提案したDeep Reinforcement Learningアルゴリズムで異なるコンテナ選択ヒューリスティックスを実装し,ロジスティクス企業における実ケーススタディに基づいて,現実的なシナリオをシミュレートしたデータを用いて,各ヒューリスティックのパフォーマンスを評価した。
実験の結果,提案手法はコンテナ割り当ての効果的なパターンを学習できることがわかった。
競争相手の総輸送コストと車両使用能力の面では20.48%から55.32%、キャパシティは7.51%から20.54%に向上した。
さらに,オフライン環境で整数線形計画解法で生成した最適解の容量は,コストで2.7%,オフラインで0.72%であった。
関連論文リスト
- Rethinking Optimal Transport in Offline Reinforcement Learning [64.56896902186126]
オフラインの強化学習では、データはさまざまな専門家によって提供され、一部は準最適である。
効率的なポリシを抽出するには、データセットから最高の振る舞いを強調する必要がある。
本稿では,各状態に対する最善の専門家行動の公平な分布に状態をマッピングするポリシーを見つけることを目的としたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T22:36:43Z) - Short Run Transit Route Planning Decision Support System Using a Deep
Learning-Based Weighted Graph [0.0]
本稿では,公共交通機関の計画立案者が短期間の経路改善を迅速に特定できるような,意思決定支援システムのための新しいディープラーニング手法を提案する。
本手法は,日中の2つの停留所間の経路をシームレスに調整することにより,時間を短縮し,PTサービスを増強する。
本研究では,道路セグメントの遅延値を予測するためのディープラーニングモデルを訓練し,これらの遅延値を輸送グラフのエッジ重みとして利用することにより,効率的な経路探索を実現する。
論文 参考訳(メタデータ) (2023-08-24T14:37:55Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - Learning-based Online Optimization for Autonomous Mobility-on-Demand
Fleet Control [8.020856741504794]
自律移動オンデマンドシステムのためのオンライン制御アルゴリズムについて検討する。
我々は、オンラインディスパッチとリバランスポリシーを学習する、新しいハイブリッド強化機械学習パイプラインを開発した。
提案手法は,最先端の欲求とモデル予測制御のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-08T09:40:30Z) - Travel Time, Distance and Costs Optimization for Paratransit Operations
using Graph Convolutional Neural Network [0.0]
本研究では、グラフ畳み込みニューラルネットワーク(GCN)を用いて、様々な運用シナリオの研究におけるパラトランジット演算子の支援を行う。
この研究は、ランダム化されたシミュレートされたデータセットを使用して、艦隊の構成と能力の点で決定を下すのに役立った。
論文 参考訳(メタデータ) (2022-05-21T05:27:45Z) - A Deep Reinforcement Learning Approach for Constrained Online Logistics
Route Assignment [4.367543599338385]
物流業界にとって、各出荷区画に適切な物流ルートを割り当てる方法が不可欠である。
このオンライン経路割り当て問題は、制約付きオンライン意思決定問題とみなすことができる。
我々はPPO-RAと呼ばれるモデルフリーDRLアプローチを開発し、経路割当(RA)の課題に対処する専用の技術を用いてPPO(Pximal Policy Optimization)を改善した。
論文 参考訳(メタデータ) (2021-09-08T07:27:39Z) - Estimating the Robustness of Public Transport Systems Using Machine
Learning [62.997667081978825]
公共交通機関の計画は、多くのステップを含む非常に複雑なプロセスである。
乗客の観点からの堅牢性の統合により、作業はさらに困難になる。
本稿では,機械学習の手法を用いたシナリオベースロバストネス近似の新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-10T05:52:56Z) - Do Neural Optimal Transport Solvers Work? A Continuous Wasserstein-2
Benchmark [133.46066694893318]
最適輸送のためのニューラルネットワークに基づく解法の性能を評価する。
既存の解法では,下流タスクでは良好に機能するにもかかわらず,最適な輸送マップを復元できないことがわかった。
論文 参考訳(メタデータ) (2021-06-03T15:59:28Z) - End-to-end Interpretable Neural Motion Planner [78.69295676456085]
複雑な都市環境での自律走行学習のためのニューラルモーションプランナー(NMP)を提案する。
我々は,生lidarデータとhdマップを入力とし,解釈可能な中間表現を生成する全体モデルを設計した。
北米のいくつかの都市で収集された実世界の運転データにおける我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-01-17T14:16:12Z) - PassGoodPool: Joint Passengers and Goods Fleet Management with
Reinforcement Learning aided Pricing, Matching, and Route Planning [29.73314892749729]
本稿では,商品と旅客輸送を組み合わせた需要対応型艦隊管理フレームワークを提案する。
提案手法は,分散システムの成長に伴う計算コストを最小限に抑えるため,各車両内で独立して展開可能である。
論文 参考訳(メタデータ) (2020-11-17T23:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。