論文の概要: LLM Meets the Sky: Heuristic Multi-Agent Reinforcement Learning for Secure Heterogeneous UAV Networks
- arxiv url: http://arxiv.org/abs/2507.17188v1
- Date: Wed, 23 Jul 2025 04:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.855381
- Title: LLM Meets the Sky: Heuristic Multi-Agent Reinforcement Learning for Secure Heterogeneous UAV Networks
- Title(参考訳): LLM meets the Sky: Heuristic Multi-Agent Reinforcement Learning for Secure Heterogeneous UAV Networks
- Authors: Lijie Zheng, Ji He, Shih Yu Chang, Yulong Shen, Dusit Niyato,
- Abstract要約: この研究は、エネルギー制約下での不均一なUAVネットワーク(HetUAVN)における機密率の最大化に焦点を当てている。
本稿では,Large Language Model (LLM) を用いたマルチエージェント学習手法を提案する。
その結果,本手法は機密性やエネルギー効率において,既存のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 57.27815890269697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work tackles the physical layer security (PLS) problem of maximizing the secrecy rate in heterogeneous UAV networks (HetUAVNs) under propulsion energy constraints. Unlike prior studies that assume uniform UAV capabilities or overlook energy-security trade-offs, we consider a realistic scenario where UAVs with diverse payloads and computation resources collaborate to serve ground terminals in the presence of eavesdroppers. To manage the complex coupling between UAV motion and communication, we propose a hierarchical optimization framework. The inner layer uses a semidefinite relaxation (SDR)-based S2DC algorithm combining penalty functions and difference-of-convex (d.c.) programming to solve the secrecy precoding problem with fixed UAV positions. The outer layer introduces a Large Language Model (LLM)-guided heuristic multi-agent reinforcement learning approach (LLM-HeMARL) for trajectory optimization. LLM-HeMARL efficiently incorporates expert heuristics policy generated by the LLM, enabling UAVs to learn energy-aware, security-driven trajectories without the inference overhead of real-time LLM calls. The simulation results show that our method outperforms existing baselines in secrecy rate and energy efficiency, with consistent robustness across varying UAV swarm sizes and random seeds.
- Abstract(参考訳): この研究は、推進エネルギー制約下での不均一なUAVネットワーク(HetUAVN)における機密率を最大化する物理層セキュリティ(PLS)問題に取り組む。
均一なUAV能力やエネルギーセキュリティのトレードオフを前提とした以前の研究とは異なり、多様なペイロードと計算資源を持つUAVが、盗聴器の存在下で地上端末に協力する現実的なシナリオを考察する。
UAV動作と通信の複雑な結合を管理するために,階層的最適化フレームワークを提案する。
内部層は、ペナルティ関数と差分凸(d.c.)プログラミングを組み合わせた半定緩和(SDR)ベースのS2DCアルゴリズムを用いて、固定されたUAV位置の秘密プリコーディング問題を解決する。
外層は軌道最適化のためのLarge Language Model (LLM)-guided Heuristic Multi-Adnt reinforcement learning approach (LLM-HeMARL)を導入している。
LLM-HeMARL は LLM によって生成される専門家のヒューリスティックスポリシーを効率的に取り入れており、UAV はリアルタイム LLM コールの推測オーバーヘッドを伴わずに、エネルギーを意識したセキュリティ駆動軌道を学習することができる。
シミュレーションの結果,提案手法は,UAVスワムサイズやランダム種子にまたがる一貫したロバスト性で,秘密保持率とエネルギー効率において,既存のベースラインよりも優れていた。
関連論文リスト
- Hierarchical and Collaborative LLM-Based Control for Multi-UAV Motion and Communication in Integrated Terrestrial and Non-Terrestrial Networks [21.350819743855382]
本研究は,複数のUAVの連立動作と通信制御を地球外ネットワークと非地球外ネットワークで行うことを目的としたものである。
大規模言語モデル(LLM)に基づく新しい階層的協調手法を提案する。
実験により,提案手法は, システム報酬の向上, 運用コストの低減, ベースライン手法と比較してUAV衝突率の大幅な低減を実現していることがわかった。
論文 参考訳(メタデータ) (2025-06-06T20:59:52Z) - Low-altitude Friendly-Jamming for Satellite-Maritime Communications via Generative AI-enabled Deep Reinforcement Learning [72.72954660774002]
低地球軌道(LEO)衛星は、海上無線通信で広範囲にわたるデータ通信を支援するために使用できる。
LEO衛星を広範囲にカバーし、チャネルの開放性と組み合わせることで、通信プロセスはセキュリティ上のリスクに悩まされる可能性がある。
本稿では無人航空機による低高度衛星通信システムLEOについて述べる。
論文 参考訳(メタデータ) (2025-01-26T10:13:51Z) - Cluster-Based Multi-Agent Task Scheduling for Space-Air-Ground Integrated Networks [60.085771314013044]
低高度経済は、コミュニケーションやセンシングなどの分野で発展する大きな可能性を秘めている。
本稿では,SAGINにおけるマルチUAV協調タスクスケジューリング問題に対処するため,クラスタリングに基づく多エージェントDeep Deterministic Policy Gradient (CMADDPG)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-14T06:17:33Z) - UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - Multi-Agent Reinforcement Learning for Offloading Cellular Communications with Cooperating UAVs [21.195346908715972]
無人航空機は、地上のBSからデータトラフィックをオフロードする代替手段を提供する。
本稿では,地上BSからデータオフロードを行うために,複数のUAVを効率的に利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T12:36:08Z) - Joint Optimization of Deployment and Trajectory in UAV and IRS-Assisted
IoT Data Collection System [25.32139119893323]
無人航空機(UAV)は多くのモノのインターネット(IoT)システムに適用できる。
UAV-IoT無線チャネルは、時には木や高層建築物によってブロックされることがある。
本稿では,UAVの展開と軌道を最適化することで,システムのエネルギー消費を最小化することを目的とする。
論文 参考訳(メタデータ) (2022-10-27T06:27:40Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Federated Learning in the Sky: Joint Power Allocation and Scheduling
with UAV Swarms [98.78553146823829]
無人航空機(UAV)は様々なタスクを実行するために機械学習(ML)を利用する必要がある。
本稿では,UAVスワム内に分散学習(FL)アルゴリズムを実装するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T14:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。