論文の概要: Deep Reinforcement Learning for Demand Driven Services in Logistics and
Transportation Systems: A Survey
- arxiv url: http://arxiv.org/abs/2108.04462v1
- Date: Tue, 10 Aug 2021 06:13:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 22:57:33.154529
- Title: Deep Reinforcement Learning for Demand Driven Services in Logistics and
Transportation Systems: A Survey
- Title(参考訳): 物流・交通システムにおける需要駆動型サービスのための深層強化学習
- Authors: Zefang Zong, Tao Feng, Tong Xia, Depeng and Yong Li
- Abstract要約: 最近の技術開発は、多くの新しい需要駆動サービス(DDS)を都市生活にもたらす。
近年, 深部強化学習 (DRL) が急速に発展している。
DRLは、シーケンシャルな決定を学習することで、あまりにも多くの問題ベースのパラメトリックな長期的な効果に頼ることなく、モデルを学ぶことができる。
- 参考スコア(独自算出の注目度): 8.20854542741731
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technology development brings the booming of numerous new
Demand-Driven Services (DDS) into urban lives, including ridesharing, on-demand
delivery, express systems and warehousing. In DDS, a service loop is an
elemental structure, including its service worker, the service providers and
corresponding service targets. The service workers should transport either
humans or parcels from the providers to the target locations. Various planning
tasks within DDS can thus be classified into two individual stages: 1)
Dispatching, which is to form service loops from demand/supply distributions,
and 2)Routing, which is to decide specific serving orders within the
constructed loops. Generating high-quality strategies in both stages is
important to develop DDS but faces several challenging. Meanwhile, deep
reinforcement learning (DRL) has been developed rapidly in recent years. It is
a powerful tool to solve these problems since DRL can learn a parametric model
without relying on too many problem-based assumptions and optimize long-term
effect by learning sequential decisions. In this survey, we first define DDS,
then highlight common applications and important decision/control problems
within. For each problem, we comprehensively introduce the existing DRL
solutions, and further summarize them in
\textit{https://github.com/tsinghua-fib-lab/DDS\_Survey}. We also introduce
open simulation environments for development and evaluation of DDS
applications. Finally, we analyze remaining challenges and discuss further
research opportunities in DRL solutions for DDS.
- Abstract(参考訳): 最近の技術開発は、ライドシェアリング、オンデマンドデリバリー、急行システム、ウェアハウスなど、多くの新しい需要駆動サービス(DDS)の都市生活にブームをもたらしている。
DDSでは、サービスループは、サービスワーカー、サービスプロバイダ、および対応するサービスターゲットを含む要素構造である。
サービスワーカーは、提供者からターゲットの場所へ人間または小包を輸送する必要がある。
そのため、DDS内の様々な計画タスクは、(1)需要/供給分布からサービスループを形成するディスパッチ、(2)構築されたループ内の特定のサービス順序を決定するルーティングの2つの段階に分けられる。
両方の段階で高品質な戦略を生成することはDDSを開発する上で重要であるが、いくつかの課題に直面している。
一方,近年,深層強化学習(DRL)が急速に発展している。
DRLは、あまりにも多くの問題ベースの仮定に頼ることなくパラメトリックモデルを学習し、シーケンシャルな決定を学習することで長期的な効果を最適化できるため、これらの問題を解決する強力なツールである。
このサーベイでは、まずDDSを定義し、次に一般的なアプリケーションと重要な意思決定/制御の問題を強調します。
各問題に対して、既存のDRLソリューションを包括的に紹介し、さらにそれを textit{https://github.com/tsinghua-fib-lab/DDS\_Survey} に要約する。
また,ddsアプリケーションの開発と評価のためのオープンシミュレーション環境を提案する。
最後に,残った課題を分析し,DRLソリューションのさらなる研究機会について考察する。
関連論文リスト
- InstructTODS: Large Language Models for End-to-End Task-Oriented
Dialogue Systems [60.53276524369498]
大規模言語モデル(LLM)は自然言語処理(NLP)における多様なタスクに使用されている。
InstructTODSは、ゼロショットのタスク指向対話システムのための新しいフレームワークである。
InstructTODSは、ユーザの意図を動的クエリにシームレスに翻訳するプロキシの信念状態を生成する。
論文 参考訳(メタデータ) (2023-10-13T06:36:26Z) - Digital Twin Assisted Deep Reinforcement Learning for Online Admission
Control in Sliced Network [19.152875040151976]
この問題に対処するために、ディジタルツイン(DT)高速化DRLソリューションを提案する。
ニューラルネットワークベースのDTは、システムをキューイングするためのカスタマイズされた出力層を備え、教師付き学習を通じてトレーニングされ、DRLモデルのトレーニングフェーズを支援するために使用される。
DT加速DRLは、直接訓練された最先端Q-ラーニングモデルと比較して、リソース利用率を40%以上向上させる。
論文 参考訳(メタデータ) (2023-10-07T09:09:19Z) - Deploying Deep Reinforcement Learning Systems: A Taxonomy of Challenges [13.39623605590729]
DRLシステムのデプロイにおいて,実践者が直面する課題を明らかにし,理解するために,開発者の最も人気のあるQ&AフォーラムであるStack Overflow(SO)に関する実証的研究を提案する。
フィルタと手動解析を行い,DRLの展開に関する357のSOポストを調査し,現状を調査し,DRLシステムの展開に関わる課題を特定した。
その結果、DRLの展開に対する一般的な関心が高まり、研究の妥当性と重要性が確認されている。
論文 参考訳(メタデータ) (2023-08-23T21:44:09Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - "My nose is running.""Are you also coughing?": Building A Medical
Diagnosis Agent with Interpretable Inquiry Logics [80.55587329326046]
本稿では,DSMDの対話マネージャを実装するための,より解釈可能な意思決定プロセスを提案する。
推論を行うために、非常に透明なコンポーネントを持つモデルを考案する。
実験の結果,診断精度は7.7%,10.0%,3.0%向上した。
論文 参考訳(メタデータ) (2022-04-29T09:02:23Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Dynamic Channel Access via Meta-Reinforcement Learning [0.8223798883838329]
モデル非依存型メタラーニング(MAML)の手法を取り入れたメタDRLフレームワークを提案する。
同じ分布から引き出された異なるタスクに適応するためには、勾配降下がわずかに必要であることが示される。
論文 参考訳(メタデータ) (2021-12-24T15:04:43Z) - Pessimistic Model Selection for Offline Deep Reinforcement Learning [56.282483586473816]
深層強化学習(DRL)は多くのアプリケーションにおいてシーケンシャルな意思決定問題を解決する大きな可能性を示している。
主要な障壁の1つは、DRLが学んだ政策の一般化性の低下につながる過度に適合する問題である。
理論的保証のあるオフラインDRLに対する悲観的モデル選択(PMS)手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T06:29:49Z) - Learning to Optimize Industry-Scale Dynamic Pickup and Delivery Problems [17.076557377480444]
動的ピックアップ・デリバリー問題 (DPDP) は、配送注文が事前に分かっていない場合のコストを最小限に抑えるため、複数のサイト間で車両を動的にスケジューリングすることを目的としている。
産業規模のDPDPを解決するために,データ駆動型空間時間支援ダブルグラフネットワーク(ST-DDGN)を提案する。
本手法は,ST-DDGNデータから隣接車両のリレーショナル表現を周期的に学習し,補正することが可能である。
論文 参考訳(メタデータ) (2021-05-27T01:16:00Z) - Deep Reinforcement Learning and Transportation Research: A Comprehensive
Review [0.0]
DRLの数学的背景、人気があり有望なDRLアルゴリズム、高効率なDRL拡張について概説する。
本稿では, DRL技術の適用性, 強度, 欠点, 一般, 応用に特有な課題について検討する。
論文 参考訳(メタデータ) (2020-10-13T05:23:11Z) - Learning What to Defer for Maximum Independent Sets [84.00112106334655]
本稿では,各段階における解の要素的決定を学習することにより,エージェントが適応的に段階数を縮小あるいは拡張する,新たなDRL方式を提案する。
提案手法を最大独立集合(MIS)問題に適用し、現状のDRL方式よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2020-06-17T02:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。