論文の概要: Towards a Standardized Reinforcement Learning Framework for AAM
Contingency Management
- arxiv url: http://arxiv.org/abs/2311.10805v1
- Date: Fri, 17 Nov 2023 13:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 14:11:34.279876
- Title: Towards a Standardized Reinforcement Learning Framework for AAM
Contingency Management
- Title(参考訳): aamコンティンジェンシー管理のための強化学習フレームワークの標準化に向けて
- Authors: Luis E. Alvarez, Marc W. Brittain, Kara Breeden
- Abstract要約: 我々はMarkov Decision Process(MDP)として並行性管理問題を開発し,それをAAM-Gymシミュレーションフレームワークに統合する。
これにより、強化学習アルゴリズムの迅速なプロトタイピングと既存システムの評価が可能になる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced Air Mobility (AAM) is the next generation of air transportation that
includes new entrants such as electric vertical takeoff and landing (eVTOL)
aircraft, increasingly autonomous flight operations, and small UAS package
delivery. With these new vehicles and operational concepts comes a desire to
increase densities far beyond what occurs today in and around urban areas, to
utilize new battery technology, and to move toward more autonomously-piloted
aircraft. To achieve these goals, it becomes essential to introduce new safety
management system capabilities that can rapidly assess risk as it evolves
across a span of complex hazards and, if necessary, mitigate risk by executing
appropriate contingencies via supervised or automated decision-making during
flights. Recently, reinforcement learning has shown promise for real-time
decision making across a wide variety of applications including contingency
management. In this work, we formulate the contingency management problem as a
Markov Decision Process (MDP) and integrate the contingency management MDP into
the AAM-Gym simulation framework. This enables rapid prototyping of
reinforcement learning algorithms and evaluation of existing systems, thus
providing a community benchmark for future algorithm development. We report
baseline statistical information for the environment and provide example
performance metrics.
- Abstract(参考訳): アドバンスト・エア・モビリティ(advanced air mobility, aam)は次世代の航空輸送であり、電動垂直離着陸機(evtol)、自律飛行の強化、小型のuasパッケージの配送などの新しい参入者を含む。
これらの新しい車両と運用コンセプトにより、都市部周辺で現在起きていることを超えて密度を高め、新しいバッテリー技術を活用し、より自律的に操縦する航空機に移行したいという願望がもたらされる。
これらの目標を達成するためには、複雑な危険範囲にまたがって進化していくリスクを迅速に評価し、必要であれば飛行中の監督や自動意思決定によって適切な事態を犯すことでリスクを軽減できる、新たな安全管理システム機能の導入が不可欠となる。
近年、強化学習は、並行性管理を含む様々なアプリケーションにおいてリアルタイム意思決定を約束している。
本研究では,マルコフ決定過程(MDP)として並列性管理問題を定式化し,並列性管理のMDPをAAM-Gymシミュレーションフレームワークに統合する。
これにより強化学習アルゴリズムの迅速なプロトタイピングと既存システムの評価が可能になり、将来のアルゴリズム開発のためのコミュニティベンチマークを提供する。
我々は,環境に関するベースライン統計情報を報告し,性能指標を例示する。
関連論文リスト
- Deep progressive reinforcement learning-based flexible resource scheduling framework for IRS and UAV-assisted MEC system [22.789916304113476]
無人航空機(UAV)を利用した移動体エッジコンピューティングシステムは、一時的および緊急のシナリオで広く利用されている。
我々のゴールは、UAV位置、IRS位相シフト、タスクオフロード、リソース割り当てを可変数のUAVで共同最適化することで、MECシステムのエネルギー消費を最小化することである。
論文 参考訳(メタデータ) (2024-08-02T13:10:33Z) - Tradeoffs When Considering Deep Reinforcement Learning for Contingency Management in Advanced Air Mobility [0.0]
航空輸送は、Advanced Air Mobility (AAM)の導入により、世界中で急速に進化している。
運用上の安全性と効率の目標を達成するためには、自動化のレベルが増加する必要がある。
本稿では,複雑・高次元環境において有望な性能を示す深層強化学習(DRL)の利用について検討する。
論文 参考訳(メタデータ) (2024-06-28T19:09:55Z) - Airport take-off and landing optimization through genetic algorithms [55.2480439325792]
本研究は, 航空機の運転における汚染問題に対処し, ゲート割り当てと滑走路スケジューリングを同時に最適化することに焦点を当てた。
本研究は,航空機の離陸・着陸時の燃料燃焼による汚染を最小化するための,革新的な遺伝的アルゴリズムに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T14:53:55Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Toward collision-free trajectory for autonomous and pilot-controlled
unmanned aerial vehicles [1.018017727755629]
本研究は、高度衝突管理手法の開発において、PilotAware Ltdが入手した電子情報(EC)をより活用するものである。
DACM手法の利点は、空中衝突を避けるための広範囲なシミュレーションと実世界のフィールドテストによって実証されてきた。
論文 参考訳(メタデータ) (2023-09-18T18:24:31Z) - Improving Autonomous Separation Assurance through Distributed
Reinforcement Learning with Attention Networks [0.0]
本稿では,AAM廊下内で自律的な自己分離機能を実現するための強化学習フレームワークを提案する。
この問題はマルコフ決定プロセス(Markov Decision Process)として定式化され、サンプル効率の良いオフポリティ・ソフトアクター・クリティック(SAC)アルゴリズムへの新たな拡張を開発することで解決される。
包括的数値計算により,提案手法は高密度・動的環境下で航空機の安全かつ効率的な分離を保証できることが示唆された。
論文 参考訳(メタデータ) (2023-08-09T13:44:35Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - A Deep Ensemble Multi-Agent Reinforcement Learning Approach for Air
Traffic Control [5.550794444001022]
本稿では,マルチエージェント強化学習(MARL)を活用し,航空機の速度調整をリアルタイムで提案する知的意思決定フレームワークを提案する。
本システムの目的は,航空交通渋滞の回避,ニアミス状況の改善,到着スケジュールの改善のため,航空交通管制官が航空機に効果的な誘導を行う能力を高めることである。
論文 参考訳(メタデータ) (2020-04-03T06:03:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。