論文の概要: Deep-Dispatch: A Deep Reinforcement Learning-Based Vehicle Dispatch
Algorithm for Advanced Air Mobility
- arxiv url: http://arxiv.org/abs/2312.10809v1
- Date: Sun, 17 Dec 2023 20:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:35:51.147022
- Title: Deep-Dispatch: A Deep Reinforcement Learning-Based Vehicle Dispatch
Algorithm for Advanced Air Mobility
- Title(参考訳): deep-dispatch: 高度エアモビリティのための深層強化学習に基づく車両派遣アルゴリズム
- Authors: Elaheh Sabziyan Varnousfaderani, Syed A. M. Shihab, Esrat F. Dulia
- Abstract要約: 我々は,営業利益を最大化するために,深層強化学習に基づくeVTOLディスパッチアルゴリズムを開発した。
提案アルゴリズムの性能評価のために,eVTOLを用いた乗客輸送シミュレーション環境を構築した。
その結果,マルチエージェントeVTOLディスパッチアルゴリズムは最適ディスパッチポリシーを近似できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Near future air taxi operations with electric vertical take-off and landing
(eVTOL) aircraft will be constrained by the need for frequent recharging of
eVTOLs, limited takeoff and landing pads in vertiports, and subject to
time-varying demand and electricity prices, making the eVTOL dispatch problem
unique and particularly challenging to solve. Previously, we have developed
optimization models to address this problem. Such optimization models however
suffer from prohibitively high computational run times when the scale of the
problem increases, making them less practical for real world implementation. To
overcome this issue, we have developed two deep reinforcement learning-based
eVTOL dispatch algorithms, namely single-agent and multi-agent deep Q-learning
eVTOL dispatch algorithms, where the objective is to maximize operating profit.
An eVTOL-based passenger transportation simulation environment was built to
assess the performance of our algorithms across $36$ numerical cases with
varying number of eVTOLs, vertiports, and demand. The results indicate that the
multi-agent eVTOL dispatch algorithm can closely approximate the optimal
dispatch policy with significantly less computational expenses compared to the
benchmark optimization model. The multi-agent algorithm was found to outperform
the single-agent counterpart with respect to both profits generated and
training time.
- Abstract(参考訳): 電動垂直離着陸機(eVTOL)による将来のエアタクシーの運用は、eVTOLの頻繁な再充電の必要性、垂直離着陸パッドの制限、時間的変化による需要と電力価格の変動により制約され、eVTOLディスパッチ問題はユニークで特に解決が難しい。
これまで,この問題に対処する最適化モデルを開発してきた。
しかし、そのような最適化モデルでは、問題の規模が大きくなると計算実行時間が著しく増加し、現実的な実装では実用性が低下する。
この問題を克服するため、我々は、単エージェントと複数エージェントの深層学習eVTOLディスパッチアルゴリズムという、2つの深層学習eVTOLディスパッチアルゴリズムを開発した。
eVTOLをベースとした旅客輸送シミュレーション環境を構築し,eVTOL,Vertiport,需要の異なる36ドルの数値ケースを対象に,アルゴリズムの性能評価を行った。
その結果、マルチエージェントのeVTOLディスパッチアルゴリズムは、ベンチマーク最適化モデルと比較して計算コストが大幅に少ない最適ディスパッチポリシーを近似できることがわかった。
マルチエージェントアルゴリズムは, 利益とトレーニング時間の両方において, シングルエージェントよりも優れていた。
関連論文リスト
- Fractional Deep Reinforcement Learning for Age-Minimal Mobile Edge
Computing [11.403989519949173]
本研究は,AOI( Age-of-Information)によって測定された計算集約更新の時系列に焦点をあてる。
我々は,AoIのタスク更新とオフロードポリシを分断形式で共同で最適化する方法について検討する。
実験の結果,提案アルゴリズムは,いくつかの非フラクタルベンチマークと比較して平均AoIを57.6%削減できることがわかった。
論文 参考訳(メタデータ) (2023-12-16T11:13:40Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - AI-based Radio and Computing Resource Allocation and Path Planning in
NOMA NTNs: AoI Minimization under CSI Uncertainty [23.29963717212139]
高高度プラットフォーム(HAP)と無人航空機(UAV)からなる階層型空中コンピューティングフレームワークを開発する。
タスクスケジューリングは平均AoIを大幅に削減する。
電力割り当ては全ユーザに対して全送信電力を使用する場合と比較して平均AoIに限界効果があることが示されている。
論文 参考訳(メタデータ) (2023-05-01T11:52:15Z) - Training Efficient Controllers via Analytic Policy Gradient [44.0762454494769]
ロボットシステムの制御設計は複雑であり、しばしば軌道を正確に追従するために最適化を解く必要がある。
Model Predictive Control (MPC)のようなオンライン最適化手法は、優れたトラッキング性能を実現するために示されているが、高い計算能力を必要とする。
本稿では,この問題に対処するための分析政策グラディエント(APG)手法を提案する。
論文 参考訳(メタデータ) (2022-09-26T22:04:35Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Enhanced Teaching-Learning-based Optimization for 3D Path Planning of
Multicopter UAVs [2.0305676256390934]
本稿では,無人航空機(UAV)の新しい経路計画アルゴリズムを提案する。
まず,UAVの移動と安全操作の制約と経路長の要件を組み込んだ目的関数を定義する。
次に, 目的関数の定式化を最小化するために, Multi-subject TLBO というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-31T16:00:32Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Distributed Multi-agent Meta Learning for Trajectory Design in Wireless
Drone Networks [151.27147513363502]
本稿では,動的無線ネットワーク環境で動作するエネルギー制約型ドローン群に対する軌道設計の問題点について検討する。
値ベース強化学習(VDRL)ソリューションとメタトレイン機構を提案する。
論文 参考訳(メタデータ) (2020-12-06T01:30:12Z) - Offloading Optimization in Edge Computing for Deep Learning Enabled
Target Tracking by Internet-of-UAVs [22.143742665920573]
無人航空機(UAV)は標的追跡などの情報提供に広く利用されている。
プレトレーニングされた畳み込みニューラルネットワーク(CNN)がUAVに展開され、キャプチャされたビデオフレームからターゲットを特定する。
この種の視覚目標追跡は、所望の高推論精度と厳格な遅延要求のため、多くの計算資源を必要とする。
これは、このようなディープラーニング(DL)タスクをモバイルエッジコンピューティング(MEC)サーバにオフロードすることを検討する動機となります。
論文 参考訳(メタデータ) (2020-08-18T16:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。