論文の概要: Deployment Optimization for Shared e-Mobility Systems with Multi-agent
Deep Neural Search
- arxiv url: http://arxiv.org/abs/2111.02149v1
- Date: Wed, 3 Nov 2021 11:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 18:26:00.844697
- Title: Deployment Optimization for Shared e-Mobility Systems with Multi-agent
Deep Neural Search
- Title(参考訳): マルチエージェント深層ニューラルネットワークを用いた共有e-mobilityシステムの配置最適化
- Authors: Man Luo, Bowen Du, Konstantin Klemmer, Hongming Zhu, Hongkai Wen
- Abstract要約: 共有e-mobilityサービスは世界中の都市で広くテストされ、試験運用されている。
本稿では,持続的な収益性を維持しつつ,ユーザに対してユビキタスなサービスを実現するための,空間的・時間的インフラストラクチャの展開と管理方法について検討する。
我々は,共有電子移動システムの主要動作詳細を粒度で抽象化した高忠実度シミュレーション環境を設計することで,この問題に対処する。
- 参考スコア(独自算出の注目度): 15.657420177295624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shared e-mobility services have been widely tested and piloted in cities
across the globe, and already woven into the fabric of modern urban planning.
This paper studies a practical yet important problem in those systems: how to
deploy and manage their infrastructure across space and time, so that the
services are ubiquitous to the users while sustainable in profitability.
However, in real-world systems evaluating the performance of different
deployment strategies and then finding the optimal plan is prohibitively
expensive, as it is often infeasible to conduct many iterations of
trial-and-error. We tackle this by designing a high-fidelity simulation
environment, which abstracts the key operation details of the shared e-mobility
systems at fine-granularity, and is calibrated using data collected from the
real-world. This allows us to try out arbitrary deployment plans to learn the
optimal given specific context, before actually implementing any in the
real-world systems. In particular, we propose a novel multi-agent neural search
approach, in which we design a hierarchical controller to produce tentative
deployment plans. The generated deployment plans are then tested using a
multi-simulation paradigm, i.e., evaluated in parallel, where the results are
used to train the controller with deep reinforcement learning. With this closed
loop, the controller can be steered to have higher probability of generating
better deployment plans in future iterations. The proposed approach has been
evaluated extensively in our simulation environment, and experimental results
show that it outperforms baselines e.g., human knowledge, and state-of-the-art
heuristic-based optimization approaches in both service coverage and net
revenue.
- Abstract(参考訳): 共有のe-mobilityサービスは、世界中の都市で広くテストされ、試験されているが、既に現代の都市計画の布地に織り込まれている。
本稿では,それらのシステムにおける実用的かつ重要な課題である,空間と時間にわたってインフラストラクチャをデプロイし管理する方法について検討する。
しかし、現実世界のシステムでは、異なる配置戦略のパフォーマンスを評価し、最適な計画を見つけることは、しばしば試行錯誤のイテレーションを実行することができないため、非常に高価である。
本研究では,共有電子移動システムの主要動作詳細を粒度で抽象化し,実世界から収集したデータを用いてキャリブレーションする高忠実度シミュレーション環境を設計する。
これにより、現実世界のシステムで実際に実装する前に、最適な特定のコンテキストを学ぶための任意のデプロイメント計画を試すことができます。
特に,新たなマルチエージェント・ニューラルサーチ手法を提案し,暫定的な展開計画を作成する階層型コントローラを設計する。
生成されたデプロイメント計画は、マルチシミュレーションパラダイム(すなわち、並列に評価される)を使ってテストされ、その結果は、深い強化学習でコントローラをトレーニングするために使用される。
このクローズドループにより、コントローラは、将来のイテレーションでより良いデプロイメント計画を生成する確率を高めるように調整できる。
提案手法はシミュレーション環境において広く評価されており,人間知識や最先端のヒューリスティックベース最適化手法を,サービスカバレッジと純収益の両方において上回っている。
関連論文リスト
- Differentiable Discrete Event Simulation for Queuing Network Control [7.965453961211742]
キューのネットワーク制御は、高い性、大きな状態とアクション空間、安定性の欠如など、異なる課題を生んでいる。
本稿では,異なる離散イベントシミュレーションに基づくポリシー最適化のためのスケーラブルなフレームワークを提案する。
本手法は,非定常環境で動作するシステムなど,現実的なシナリオを柔軟に処理することができる。
論文 参考訳(メタデータ) (2024-09-05T17:53:54Z) - Learning-Initialized Trajectory Planning in Unknown Environments [4.2960463890487555]
未知の環境での自律飛行の計画には、空間軌道と時間軌道の両方を正確に計画する必要がある。
本稿ではニューラルdトラジェクトリ・プランナーを用いて最適化を導く新しい手法を提案する。
遅延計画に対する耐性を持って、堅牢なオンラインリプランニングをサポートするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-19T15:07:26Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Finding Needles in Haystack: Formal Generative Models for Efficient
Massive Parallel Simulations [0.0]
著者らはベイズ最適化に基づく手法を提案し、望ましい結果をもたらすシナリオで生成モデルを効率的に学習する。
この方法論は、シナリオを記述するためにOpenSCENARIO標準を使用するエンドツーエンドフレームワークに統合されている。
論文 参考訳(メタデータ) (2023-01-03T16:55:06Z) - Estimating the Robustness of Public Transport Systems Using Machine
Learning [62.997667081978825]
公共交通機関の計画は、多くのステップを含む非常に複雑なプロセスである。
乗客の観点からの堅牢性の統合により、作業はさらに困難になる。
本稿では,機械学習の手法を用いたシナリオベースロバストネス近似の新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-10T05:52:56Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z) - Learning to Plan Optimally with Flow-based Motion Planner [29.124322674133]
従来の経験から学習した条件付き正規化フローに基づく分布を導入し,これらの手法のサンプリングを改善する。
我々の分布は現在のイシューインスタンスで条件付けでき、将来性のある領域内の構成をサンプリングするための情報的事前情報を提供することができる。
フローベースの正規化ディストリビューションを使用することで、より高速にソリューションを見つけることができ、より少ないサンプルと全体的な実行時のパフォーマンスが向上します。
論文 参考訳(メタデータ) (2020-10-21T21:46:08Z) - From Simulation to Real World Maneuver Execution using Deep
Reinforcement Learning [69.23334811890919]
深層強化学習(Deep Reinforcement Learning)は、さまざまな分野における多くの制御タスクを解決できることが証明されている。
これは主に、シミュレーションデータと実世界のデータ間のドメイン適応の欠如と、トレインデータセットとテストデータセットの区別の欠如による。
本稿では,エージェントが同時に訓練される複数の環境に基づくシステムを提案する。
論文 参考訳(メタデータ) (2020-05-13T14:22:20Z) - Localized active learning of Gaussian process state space models [63.97366815968177]
多くの共通制御アプリケーションにおいて、優れた性能を達成するためには、グローバルに正確なモデルを必要としない。
本稿では,状態-作用空間の有界部分集合上の正確なモデルを得ることを目的としたガウス過程状態空間モデルに対する能動的学習戦略を提案する。
モデル予測制御を用いることで、探索中に収集した情報を統合し、探索戦略を適応的に改善する。
論文 参考訳(メタデータ) (2020-05-04T05:35:02Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。