論文の概要: Leveraging Large Vision Model for Multi-UAV Co-perception in Low-Altitude Wireless Networks
- arxiv url: http://arxiv.org/abs/2603.16927v1
- Date: Fri, 13 Mar 2026 17:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.262617
- Title: Leveraging Large Vision Model for Multi-UAV Co-perception in Low-Altitude Wireless Networks
- Title(参考訳): 低高度無線ネットワークにおけるマルチUAVコパーセプションのための大規模ビジョンモデルの導入
- Authors: Yunting Xu, Jiacheng Wang, Ruichen Zhang, Changyuan Zhao, Yinqiu Liu, Dusit Niyato, Liang Yu, Haibo Zhou, Dong In Kim,
- Abstract要約: 多様な低高度経済応用のための有望なパラダイムとして、UAV(Multi-Uncrewed Aero Vehicle)協調認識が出現している。
本稿では,BHU(Base-Station-Helped UAV)と呼ばれるコミュニケーション効率の良い協調認識フレームワークを提案する。
我々は、UAVキャプチャされたRGB画像から最も情報性の高い画素を識別するためにTop-K選択機構を使用し、データボリュームと遅延を低減したスペーサー化された視覚伝達を可能にする。
- 参考スコア(独自算出の注目度): 51.323657802729535
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multi-uncrewed aerial vehicle (UAV) cooperative perception has emerged as a promising paradigm for diverse low-altitude economy applications, where complementary multi-view observations are leveraged to enhance perception performance via wireless communications. However, the massive visual data generated by multiple UAVs poses significant challenges in terms of communication latency and resource efficiency. To address these challenges, this paper proposes a communication-efficient cooperative perception framework, termed Base-Station-Helped UAV (BHU), which reduces communication overhead while enhancing perception performance. Specifically, we employ a Top-K selection mechanism to identify the most informative pixels from UAV-captured RGB images, enabling sparsified visual transmission with reduced data volume and latency. The sparsified images are transmitted to a ground server via multi-user MIMO (MU-MIMO), where a Swin-large-based MaskDINO encoder extracts bird's-eye-view (BEV) features and performs cooperative feature fusion for ground vehicle perception. Furthermore, we develop a diffusion model-based deep reinforcement learning (DRL) algorithm to jointly select cooperative UAVs, sparsification ratios, and precoding matrices, achieving a balance between communication efficiency and perception utility. Simulation results on the Air-Co-Pred dataset demonstrate that, compared with traditional CNN-based BEV fusion baselines, the proposed BHU framework improves perception performance by over 5% while reducing communication overhead by 85%, providing an effective solution for multi-UAV cooperative perception under resource-constrained wireless environments.
- Abstract(参考訳): 多様な低高度経済アプリケーションにおいて, 無線通信による知覚性能向上のために, 補完的な多視点観測が活用され, 協調的認識が有望なパラダイムとして浮上している。
しかし、複数のUAVが生成する膨大なビジュアルデータは、通信遅延とリソース効率の点で大きな課題を生んでいる。
これらの課題に対処するために,BHU(Base-Station-Helped UAV)と呼ばれるコミュニケーション効率の高い協調認識フレームワークを提案する。
具体的には、UAVキャプチャされたRGB画像から最も情報性の高い画素を識別するためにTop-K選択機構を使用し、データボリュームと遅延を低減したスペーサー化された視覚伝達を可能にする。
このスペーサー画像はマルチユーザMIMO(MU-MIMO)を介して地上サーバに送信され、スウィングラージベースのMaskDINOエンコーダが鳥眼ビュー(BEV)の特徴を抽出し、地上車両知覚のための協調的特徴融合を行う。
さらに、拡散モデルに基づく深部強化学習(DRL)アルゴリズムを開発し、協調UAV、スペーシ比、プリコーディング行列を共同で選択し、通信効率と知覚ユーティリティのバランスをとる。
Air-Co-Predデータセットのシミュレーション結果は、従来のCNNベースのBEV融合ベースラインと比較して、BHUフレームワークは、通信オーバーヘッドを85%削減しつつ、知覚性能を5%以上改善し、リソース制約された無線環境下でのマルチUAV協調認識に有効なソリューションを提供することを示した。
関連論文リスト
- When UAV Swarm Meets IRS: Collaborative Secure Communications in Low-altitude Wireless Networks [68.45202147860537]
低高度無線ネットワーク (LAWN) は、多様なアプリケーションに対して、拡張されたカバレッジ、信頼性、スループットを提供する。
これらのネットワークは、既知のおよび潜在的に未知の盗聴者の両方から重大なセキュリティ上の脆弱性に直面している。
本稿では,Swarm内で選択されたUAVを仮想アンテナアレイとして機能させる,LAWNのための新しいセキュア通信フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-25T02:02:14Z) - Efficient Onboard Vision-Language Inference in UAV-Enabled Low-Altitude Economy Networks via LLM-Enhanced Optimization [61.55616421408666]
低高度経済ネットワーク(LAENets)は、航空監視、環境検知、セマンティックデータ収集など、様々な応用を可能にしている。
オンボードビジョン(VLM)は、リアルタイムな推論を提供するが、オンボードの動的ネットワーク条件は限られている。
動的LEENet条件下での通信効率を向上させるUAV対応LEENetシステムを提案する。
論文 参考訳(メタデータ) (2025-10-11T05:11:21Z) - Is Intermediate Fusion All You Need for UAV-based Collaborative Perception? [1.8689461238197957]
本稿では, LIF と呼ばれる, 遠隔期融合に基づくコミュニケーション効率の高い協調認識フレームワークを提案する。
視覚誘導型位置埋め込み(VPE)とボックスベースの仮想拡張機能(BoBEV)を活用し,様々なエージェントからの補完情報を効果的に統合する。
実験結果から,通信帯域を最小化して通信性能を向上し,その有効性と実用性を実証した。
論文 参考訳(メタデータ) (2025-04-30T16:22:14Z) - UAV Virtual Antenna Array Deployment for Uplink Interference Mitigation in Data Collection Networks [71.23793087286703]
無人航空機(UAV)は、航空無線ネットワークと通信を確立するためのプラットフォームとして注目されている。
本稿では,複数UAVネットワークシステムにおける協調ビームフォーミング(CB)法に基づく新しいアップリンク干渉緩和手法を提案する。
論文 参考訳(メタデータ) (2024-12-09T12:56:50Z) - IFTR: An Instance-Level Fusion Transformer for Visual Collaborative Perception [9.117534139771738]
自律運転の分野で広く認知されている技術として、マルチエージェント協調認識が出現している。
現在のコラボレーティブな認識は、主にLiDAR点雲に依存しており、カメラ画像を用いた手法にはあまり注目されていない。
本研究は,視覚的協調知覚のためのインスタンスレベルの融合変換器を提案する。
論文 参考訳(メタデータ) (2024-07-13T11:38:15Z) - UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - Multi-Agent Reinforcement Learning for Offloading Cellular Communications with Cooperating UAVs [21.195346908715972]
無人航空機は、地上のBSからデータトラフィックをオフロードする代替手段を提供する。
本稿では,地上BSからデータオフロードを行うために,複数のUAVを効率的に利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T12:36:08Z) - Graph Attention-based Reinforcement Learning for Trajectory Design and
Resource Assignment in Multi-UAV Assisted Communication [20.79743323142469]
UAV基地局(UAV BS)が未知の環境で軌道設計と資源割り当てを実現することは困難である。
通信ネットワークにおけるUAV BS間の協調と競合はマルコフゲーム問題に繋がる。
本稿では,マルチUAV支援通信問題を解決するために,新しいグラフアテンション型マルチエージェント信頼領域(GA-MATR)強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T14:37:06Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。