論文の概要: Integrated Conflict Management for UAM with Strategic Demand Capacity
Balancing and Learning-based Tactical Deconfliction
- arxiv url: http://arxiv.org/abs/2305.10556v1
- Date: Wed, 17 May 2023 20:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:08:52.066478
- Title: Integrated Conflict Management for UAM with Strategic Demand Capacity
Balancing and Learning-based Tactical Deconfliction
- Title(参考訳): ストラテジック・デマンド・バランシングと学習に基づく戦術的デコンフリクションによるUAM統合競合管理
- Authors: Shulu Chen, Antony Evans, Marc Brittain and Peng Wei
- Abstract要約: 本稿では,戦略紛争管理のための要求キャパシティ・バランシング(DCB)と戦術的分離のための強化学習を組み合わせた新たなフレームワークを提案する。
以上の結果から,このDCBプレコンディショニングにより,他の方法では不可能な安全レベルを達成できることが示唆された。
- 参考スコア(独自算出の注目度): 3.074861321741328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Urban air mobility (UAM) has the potential to revolutionize our daily
transportation, offering rapid and efficient deliveries of passengers and cargo
between dedicated locations within and around the urban environment. Before the
commercialization and adoption of this emerging transportation mode, however,
aviation safety must be guaranteed, i.e., all the aircraft have to be safely
separated by strategic and tactical deconfliction. Reinforcement learning has
demonstrated effectiveness in the tactical deconfliction of en route commercial
air traffic in simulation. However, its performance is found to be dependent on
the traffic density. In this project, we propose a novel framework that
combines demand capacity balancing (DCB) for strategic conflict management and
reinforcement learning for tactical separation. By using DCB to precondition
traffic to proper density levels, we show that reinforcement learning can
achieve much better performance for tactical safety separation. Our results
also indicate that this DCB preconditioning can allow target levels of safety
to be met that are otherwise impossible. In addition, combining strategic DCB
with reinforcement learning for tactical separation can meet these safety
levels while achieving greater operational efficiency than alternative
solutions.
- Abstract(参考訳): 都市空気移動(UAM)は、私たちの日常の交通に革命をもたらす可能性を秘めており、都市環境内および周辺の専用場所間で、乗客と貨物の迅速かつ効率的な輸送を提供する。
しかし、この新興輸送モードの商業化と採用の前には、航空安全は保証されなければならない。
強化学習は、シミュレーションによる商用航空輸送の戦術的難解化に有効性を示している。
しかし,その性能は交通密度に依存することが判明した。
本研究では,戦略紛争管理のための需要キャパシティバランス(dcb)と戦術分離のための強化学習を組み合わせた新しい枠組みを提案する。
プレコンディショニングにDCBを用いることにより, 強化学習により, 戦術的安全分離に優れた性能が得られることを示す。
また,このDCBプレコンディショニングにより,他の方法では不可能な安全レベルを達成できることが示唆された。
さらに,戦略的なDCBと戦略分離のための強化学習を組み合わせることで,これらの安全レベルを満たしつつ,代替ソリューションよりも高い運用効率を実現することができる。
関連論文リスト
- Mitigating Partial Observability in Adaptive Traffic Signal Control with Transformers [26.1987660654434]
Reinforcement Learning (RL) は、適応的な交通信号制御(ATSC)システムを強化するための有望なアプローチとして登場した。
本稿では、部分観測可能性(PO)に対処するため、TransformerベースのコントローラをATSCシステムに統合する。
その結果,トランスフォーマーをベースとしたモデルでは,過去の観測から重要な情報を捉えることができ,制御ポリシが向上し,トラフィックフローが改善された。
論文 参考訳(メタデータ) (2024-09-16T19:46:15Z) - Emerging Safety Attack and Defense in Federated Instruction Tuning of Large Language Models [51.85781332922943]
フェデレートラーニング(FL)は、複数のパーティが直接データ共有を必要とせずに、共同で大きな言語モデル(LLM)を微調整することを可能にする。
我々は、シンプルでステルス的で効果的な安全攻撃手法を提案することにより、FedITにおける安全性アライメントの脆弱性を初めて明らかにした。
論文 参考訳(メタデータ) (2024-06-15T13:24:22Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Learning Speed Adaptation for Flight in Clutter [3.8876619768726157]
動物は自分の運動の速度を自分の能力や観察する環境に適応させることを学ぶ。
モバイルロボットはまた、タスクを効率的に達成するための攻撃性と安全性をトレードオフする能力を示す必要がある。
この研究は、未知の、部分的に観測可能な乱雑な環境において、速度適応の能力を持つ飛行車両を養うことを目的としている。
論文 参考訳(メタデータ) (2024-03-07T15:30:54Z) - Meta Reinforcement Learning for Strategic IoT Deployments Coverage in
Disaster-Response UAV Swarms [5.57865728456594]
無人航空機(UAV)は、重要な緊急用途に使用される可能性があるとして、学術や産業の研究者の注目を集めている。
これらのアプリケーションには、地上のユーザーに無線サービスを提供し、災害の影響を受けた地域からデータを収集する機能が含まれる。
UAVの限られた資源、エネルギー予算、厳格なミッション完了時間は、これらの用途にUAVを採用する際の課題を提起している。
論文 参考訳(メタデータ) (2024-01-20T05:05:39Z) - Improving Autonomous Separation Assurance through Distributed
Reinforcement Learning with Attention Networks [0.0]
本稿では,AAM廊下内で自律的な自己分離機能を実現するための強化学習フレームワークを提案する。
この問題はマルコフ決定プロセス(Markov Decision Process)として定式化され、サンプル効率の良いオフポリティ・ソフトアクター・クリティック(SAC)アルゴリズムへの新たな拡張を開発することで解決される。
包括的数値計算により,提案手法は高密度・動的環境下で航空機の安全かつ効率的な分離を保証できることが示唆された。
論文 参考訳(メタデータ) (2023-08-09T13:44:35Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - A deep reinforcement learning approach to assess the low-altitude
airspace capacity for urban air mobility [0.0]
都市空力は、低高度空域を利用して高速で安全な旅行手段を提供することを目的としている。
当局は現在も、都市空輸に適用される新しい飛行規則の見直しに取り組んでいる。
深い強化学習アプローチと深い決定論的政策勾配アルゴリズムを用いて,自律型UAV経路計画フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-23T23:38:05Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。