論文の概要: UAV-assisted Internet of Vehicles: A Framework Empowered by Reinforcement Learning and Blockchain
- arxiv url: http://arxiv.org/abs/2502.15713v1
- Date: Wed, 22 Jan 2025 18:54:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 04:51:58.792591
- Title: UAV-assisted Internet of Vehicles: A Framework Empowered by Reinforcement Learning and Blockchain
- Title(参考訳): UAV支援自動車インターネット:強化学習とブロックチェーンを活用したフレームワーク
- Authors: Ahmed Alagha, Maha Kadadha, Rabeb Mizouni, Shakti Singh, Jamal Bentahar, Hadi Otrok,
- Abstract要約: 本稿では,UAV支援型インターネット・オブ・Vehicles(IoV)におけるリレーノードの選択と相互調整の課題について述べる。
UAV支援型IoVのための双方向リレー選択機構、自律型UAV調整のための分散マルチエージェントディープ強化学習(MDRL)モデル、車両とUAV間の相互作用における透明性とトレーサビリティの枠組みである。
- 参考スコア(独自算出の注目度): 15.044355436072742
- License:
- Abstract: This paper addresses the challenges of selecting relay nodes and coordinating among them in UAV-assisted Internet-of-Vehicles (IoV). The selection of UAV relay nodes in IoV employs mechanisms executed either at centralized servers or decentralized nodes, which have two main limitations: 1) the traceability of the selection mechanism execution and 2) the coordination among the selected UAVs, which is currently offered in a centralized manner and is not coupled with the relay selection. Existing UAV coordination methods often rely on optimization methods, which are not adaptable to different environment complexities, or on centralized deep reinforcement learning, which lacks scalability in multi-UAV settings. Overall, there is a need for a comprehensive framework where relay selection and coordination are coupled and executed in a transparent and trusted manner. This work proposes a framework empowered by reinforcement learning and Blockchain for UAV-assisted IoV networks. It consists of three main components: a two-sided UAV relay selection mechanism for UAV-assisted IoV, a decentralized Multi-Agent Deep Reinforcement Learning (MDRL) model for autonomous UAV coordination, and a Blockchain implementation for transparency and traceability in the interactions between vehicles and UAVs. The relay selection considers the two-sided preferences of vehicles and UAVs based on the Quality-of-UAV (QoU) and the Quality-of-Vehicle (QoV). Upon selection of relay UAVs, the decentralized coordination between them is enabled through an MDRL model trained to control their mobility and maintain the network coverage and connectivity using Proximal Policy Optimization (PPO). The evaluation results demonstrate that the proposed selection and coordination mechanisms improve the stability of the selected relays and maximize the coverage and connectivity achieved by the UAVs.
- Abstract(参考訳): 本稿では,UAV支援型インターネット・オブ・Vehicles (IoV) におけるリレーノードの選択と相互調整の課題について述べる。
IoVにおけるUAV中継ノードの選択には、集中サーバまたは分散ノードで実行されるメカニズムが採用されている。
1)選択機構の実行のトレーサビリティ、及び
2) 選択されたUAV間の協調は,現在中央集権的に提供されており,リレー選択と結合していない。
既存のUAV調整手法は、異なる環境の複雑さに適応できない最適化手法や、マルチUAV設定のスケーラビリティに欠ける集中型深層学習に依存していることが多い。
全体として、リレーの選択と調整が結合され、透過的で信頼できる方法で実行される包括的なフレームワークが必要である。
本研究は、UAV支援IoVネットワークのための強化学習とブロックチェーンによって強化されたフレームワークを提案する。
UAV支援IoVのための双方向UAV中継選択機構、自律型UAV調整のための分散マルチエージェントディープ強化学習(MDRL)モデル、車両とUAV間のインタラクションにおける透明性とトレーサビリティのためのブロックチェーン実装の3つの主要コンポーネントで構成されている。
リレー選択は、クオリティー・オブ・UAV(QoU)とクオリティー・オブ・Vehicle(QoV)に基づいて、車両とUAVの両面的な選好を検討する。
リレーUAVを選択すると、それら間の分散コーディネーションは、そのモビリティを制御し、PPO(Proximal Policy Optimization)を使用してネットワークカバレッジと接続性を維持するために訓練されたMDRLモデルによって実現される。
評価結果から,提案した選択調整機構は,選択されたリレーの安定性を向上し,UAVによるカバー範囲と接続性を最大化することを示した。
関連論文リスト
- Cluster-Based Multi-Agent Task Scheduling for Space-Air-Ground Integrated Networks [60.085771314013044]
低高度経済は、コミュニケーションやセンシングなどの分野で発展する大きな可能性を秘めている。
本稿では,SAGINにおけるマルチUAV協調タスクスケジューリング問題に対処するため,クラスタリングに基づく多エージェントDeep Deterministic Policy Gradient (CMADDPG)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-14T06:17:33Z) - Cooperative Cognitive Dynamic System in UAV Swarms: Reconfigurable Mechanism and Framework [80.39138462246034]
UAVスワムの管理を最適化するための協調認知力学システム(CCDS)を提案する。
CCDSは階層的かつ協調的な制御構造であり、リアルタイムのデータ処理と意思決定を可能にする。
さらに、CCDSは、UAVスワムのタスクを効率的に割り当てるための生体模倣機構と統合することができる。
論文 参考訳(メタデータ) (2024-05-18T12:45:00Z) - UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - Multi-Agent Reinforcement Learning for Offloading Cellular Communications with Cooperating UAVs [21.195346908715972]
無人航空機は、地上のBSからデータトラフィックをオフロードする代替手段を提供する。
本稿では,地上BSからデータオフロードを行うために,複数のUAVを効率的に利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T12:36:08Z) - UAV Swarm-enabled Collaborative Secure Relay Communications with
Time-domain Colluding Eavesdropper [115.56455278813756]
航空中継機としての無人航空機(UAV)は、インターネットモノ(IoT)ネットワークの補助として事実上魅力的である。
本研究では,UAV基地局と端末端末装置間のセキュアな通信を支援するために,UAVを活用することを目的とする。
論文 参考訳(メタデータ) (2023-10-03T11:47:01Z) - UAV-Aided Decentralized Learning over Mesh Networks [23.612400109629544]
分散学習は、デバイス間通信(D2D)のみに依存する機械学習(ML)モデルを協調的にトレーニングする、無線ネットワークデバイスに権限を与える。
実世界のメッシュネットワークのローカル接続は、無線ノードの通信範囲が限られており、分散学習プロトコルの効率を損なう。
本論文は,UAVトラジェクトリを最適化し,ユーザグループ間のインテリジェンスを伝達するために,UAVが逐次訪問する一連の経路ポイントとして定義する。
論文 参考訳(メタデータ) (2022-03-02T10:39:40Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。