論文の概要: Deep Reinforcement Learning for Demand Driven Services in Logistics and Transportation Systems: A Survey
- arxiv url: http://arxiv.org/abs/2108.04462v3
- Date: Mon, 28 Oct 2024 13:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 02:59:32.514191
- Title: Deep Reinforcement Learning for Demand Driven Services in Logistics and Transportation Systems: A Survey
- Title(参考訳): 物流・交通システムにおける需要駆動型サービスのための深層強化学習
- Authors: Zefang Zong, Jingwei Wang, Tao Feng, Tong Xia, Depeng Jin, Yong Li,
- Abstract要約: サービスループは、サービスワーカー、サービスプロバイダ、および対応するサービスターゲットを含む要素構造である。
近年,これらの問題を解決するため,深層強化学習 (DRL) が急速に開発されている。
各問題に対して,既存のDRLソリューションを包括的に導入する。
- 参考スコア(独自算出の注目度): 25.63911337681847
- License:
- Abstract: Recent technology development brings the boom of numerous new Demand-Driven Services (DDS) into urban lives, including ridesharing, on-demand delivery, express systems and warehousing. In DDS, a service loop is an elemental structure, including its service worker, the service providers and corresponding service targets. The service workers should transport either people or parcels from the providers to the target locations. Various planning tasks within DDS can thus be classified into two individual stages: 1) Dispatching, which is to form service loops from demand/supply distributions, and 2) Routing, which is to decide specific serving orders within the constructed loops. Generating high-quality strategies in both stages is important to develop DDS but faces several challenges. Meanwhile, deep reinforcement learning (DRL) has been developed rapidly in recent years. It is a powerful tool to solve these problems since DRL can learn a parametric model without relying on too many problem-based assumptions and optimize long-term effects by learning sequential decisions. In this survey, we first define DDS, then highlight common applications and important decision/control problems within. For each problem, we comprehensively introduce the existing DRL solutions. We also introduce open simulation environments for development and evaluation of DDS applications. Finally, we analyze remaining challenges and discuss further research opportunities in DRL solutions for DDS.
- Abstract(参考訳): 最近の技術開発は、ライドシェアリング、オンデマンドデリバリー、急行システム、ウェアハウスなど、多くの新しい需要駆動サービス(DDS)のブームを都市生活にもたらす。
DDSでは、サービスループは、サービスワーカー、サービスプロバイダ、および対応するサービスターゲットを含む要素構造である。
サービスワーカーは、サービス提供者からターゲットの場所へ人または小包を輸送する必要がある。
したがって、DDS内の様々な計画タスクは2つの段階に分けられる。
1)需要/供給分布からサービスループを形成するディスパッチ
2) 構築されたループ内の特定のサービス順序を決定するためのルーティング。
両方の段階で高品質な戦略を生成することはDDSを開発する上で重要であるが、いくつかの課題に直面している。
一方, 近年, 深層強化学習 (DRL) が急速に進展している。
DRLは、あまりにも多くの問題ベースの仮定に頼ることなくパラメトリックモデルを学習し、シーケンシャルな決定を学習することで長期的な効果を最適化できるため、これらの問題を解決する強力なツールである。
このサーベイでは、まずDDSを定義し、次に、一般的なアプリケーションと重要な意思決定/制御の問題を強調します。
各問題に対して,既存のDRLソリューションを包括的に導入する。
また、DDSアプリケーションの開発と評価のためのオープンシミュレーション環境についても紹介する。
最後に,DDSにおけるDRLソリューションの課題を分析し,さらなる研究機会について考察する。
関連論文リスト
- D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - Deployment Challenges of Industrial Intrusion Detection Systems [4.312191099372558]
産業制御システム(ICS)に対するサイバー攻撃による脅威のエスカレートは、研究において大きな注目を集めた。
この記事では、実践的なデプロイメントに大きく影響する、2つの重要な、そしてしばしば見過ごされる側面を強調します。
実産業環境における記録・ラベル付け攻撃の複雑さを考慮し,非現実的な管理IIDSに対する広範囲にわたる悪意あるトレーニングデータの必要性を示す。
論文 参考訳(メタデータ) (2024-03-04T07:58:03Z) - Deep Reinforcement Learning for Autonomous Cyber Defence: A Survey [0.0]
近年のサイバー攻撃の急増により、ネットワークを悪意ある行為者から守るための原則的な方法の必要性が高まっている。
深層強化学習は、これらの攻撃を緩和するための有望なアプローチとして現れている。
DRLはサイバー防衛に大きな可能性を示しているが、DRLが大規模に自律的なサイバー防衛問題に適用される前には、多くの課題が克服されなければならない。
論文 参考訳(メタデータ) (2023-10-11T16:24:14Z) - Digital Twin Assisted Deep Reinforcement Learning for Online Admission
Control in Sliced Network [19.152875040151976]
この問題に対処するために、ディジタルツイン(DT)高速化DRLソリューションを提案する。
ニューラルネットワークベースのDTは、システムをキューイングするためのカスタマイズされた出力層を備え、教師付き学習を通じてトレーニングされ、DRLモデルのトレーニングフェーズを支援するために使用される。
DT加速DRLは、直接訓練された最先端Q-ラーニングモデルと比較して、リソース利用率を40%以上向上させる。
論文 参考訳(メタデータ) (2023-10-07T09:09:19Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - "My nose is running.""Are you also coughing?": Building A Medical
Diagnosis Agent with Interpretable Inquiry Logics [80.55587329326046]
本稿では,DSMDの対話マネージャを実装するための,より解釈可能な意思決定プロセスを提案する。
推論を行うために、非常に透明なコンポーネントを持つモデルを考案する。
実験の結果,診断精度は7.7%,10.0%,3.0%向上した。
論文 参考訳(メタデータ) (2022-04-29T09:02:23Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Pessimistic Model Selection for Offline Deep Reinforcement Learning [56.282483586473816]
深層強化学習(DRL)は多くのアプリケーションにおいてシーケンシャルな意思決定問題を解決する大きな可能性を示している。
主要な障壁の1つは、DRLが学んだ政策の一般化性の低下につながる過度に適合する問題である。
理論的保証のあるオフラインDRLに対する悲観的モデル選択(PMS)手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T06:29:49Z) - Learning to Optimize Industry-Scale Dynamic Pickup and Delivery Problems [17.076557377480444]
動的ピックアップ・デリバリー問題 (DPDP) は、配送注文が事前に分かっていない場合のコストを最小限に抑えるため、複数のサイト間で車両を動的にスケジューリングすることを目的としている。
産業規模のDPDPを解決するために,データ駆動型空間時間支援ダブルグラフネットワーク(ST-DDGN)を提案する。
本手法は,ST-DDGNデータから隣接車両のリレーショナル表現を周期的に学習し,補正することが可能である。
論文 参考訳(メタデータ) (2021-05-27T01:16:00Z) - Deep Reinforcement Learning and Transportation Research: A Comprehensive
Review [0.0]
DRLの数学的背景、人気があり有望なDRLアルゴリズム、高効率なDRL拡張について概説する。
本稿では, DRL技術の適用性, 強度, 欠点, 一般, 応用に特有な課題について検討する。
論文 参考訳(メタデータ) (2020-10-13T05:23:11Z) - Learning What to Defer for Maximum Independent Sets [84.00112106334655]
本稿では,各段階における解の要素的決定を学習することにより,エージェントが適応的に段階数を縮小あるいは拡張する,新たなDRL方式を提案する。
提案手法を最大独立集合(MIS)問題に適用し、現状のDRL方式よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2020-06-17T02:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。