論文の概要: 3D Dynamic Radio Map Prediction Using Vision Transformers for Low-Altitude Wireless Networks
- arxiv url: http://arxiv.org/abs/2511.19019v1
- Date: Mon, 24 Nov 2025 11:47:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.183107
- Title: 3D Dynamic Radio Map Prediction Using Vision Transformers for Low-Altitude Wireless Networks
- Title(参考訳): 低高度無線ネットワークのための視覚変換器を用いた3次元動的無線マップ予測
- Authors: Nguyen Duc Minh Quang, Chang Liu, Huy-Trung Nguyen, Shuangyang Li, Derrick Wing Kwan Ng, Wei Xiang,
- Abstract要約: 低高度無線ネットワーク(LAWN)は無人航空機(UAV)の普及に伴い急速に拡大している
信頼性の高い接続性は、三次元(3D)モビリティ、時間変化によるユーザ密度、限られた電力予算のために、依然として重要な課題である。
本稿では,受信電力の進化を学習し,予測する3次元動的無線マップ(3D高度)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.73015408160948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-altitude wireless networks (LAWN) are rapidly expanding with the growing deployment of unmanned aerial vehicles (UAVs) for logistics, surveillance, and emergency response. Reliable connectivity remains a critical yet challenging task due to three-dimensional (3D) mobility, time-varying user density, and limited power budgets. The transmit power of base stations (BSs) fluctuates dynamically according to user locations and traffic demands, leading to a highly non-stationary 3D radio environment. Radio maps (RMs) have emerged as an effective means to characterize spatial power distributions and support radio-aware network optimization. However, most existing works construct static or offline RMs, overlooking real-time power variations and spatio-temporal dependencies in multi-UAV networks. To overcome this limitation, we propose a {3D dynamic radio map (3D-DRM)} framework that learns and predicts the spatio-temporal evolution of received power. Specially, a Vision Transformer (ViT) encoder extracts high-dimensional spatial representations from 3D RMs, while a Transformer-based module models sequential dependencies to predict future power distributions. Experiments unveil that 3D-DRM accurately captures fast-varying power dynamics and substantially outperforms baseline models in both RM reconstruction and short-term prediction.
- Abstract(参考訳): 低高度無線ネットワーク(LAWN)は、ロジスティクス、監視、緊急対応のための無人航空機(UAV)の展開により急速に拡大している。
信頼性の高い接続性は、三次元(3D)モビリティ、時間変化によるユーザ密度、限られた電力予算のために、依然として重要な課題である。
基地局(BS)の送信電力は、利用者の位置や交通需要に応じて動的に変動し、高度に静止していない3D無線環境に繋がる。
無線マップ (RM) は, 空間電力分布を特徴づけ, 無線対応ネットワーク最適化を支援する効果的な手段として登場した。
しかし、既存のほとんどの研究は、マルチUAVネットワークにおけるリアルタイムの電力変動と時空間依存性を見越して、静的またはオフラインのRMを構築している。
この制限を克服するために,受信電力の時空間進化を学習し,予測する {3D dynamic radio map (3D-DRM) フレームワークを提案する。
視覚変換器(ViT)エンコーダは3次元RMから高次元空間表現を抽出し、トランスフォーマーベースのモジュールは、将来の電力分布を予測するために逐次依存をモデル化する。
実験では、3D-DRMが高速なパワーダイナミクスを正確に捉え、RM再構成と短期予測の両方においてベースラインモデルよりも大幅に優れていることが示された。
関連論文リスト
- Neural 3D Object Reconstruction with Small-Scale Unmanned Aerial Vehicles [16.745245388756533]
小型無人航空機(UAV)は、屋内と難航地域を航行する大きな可能性を秘めている。
本稿では,100グラム以下のUAVを用いた静的物体の完全自律・高忠実な3次元走査を可能にするシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-09-15T21:08:32Z) - RadioDiff-3D: A 3D$\times$3D Radio Map Dataset and Generative Diffusion Based Benchmark for 6G Environment-Aware Communication [76.6171399066216]
UrbanRadio3Dは、現実的な都市環境におけるレイトレーシングによって構築された大規模で高解像度の3D RMデータセットである。
RadioDiff-3Dは3D畳み込みアーキテクチャを利用した拡散モデルに基づく生成フレームワークである。
この研究は、将来の3D環境対応コミュニケーション研究のための基礎的なデータセットとベンチマークを提供する。
論文 参考訳(メタデータ) (2025-07-16T11:54:08Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - Delta-Triplane Transformers as Occupancy World Models [57.16979927973973]
Occupancy World Models (OWMs) は、知的運動計画を支援するために、環境の3次元ボキセル化表現を通して将来のシーンを予測することを目的としている。
本稿では,自律運転のための新しい4DOWMであるDelta-Triplane Transformers (DTT)を提案する。
DTTは1.44$times$ speedup (26 FPS)を最先端に提供し、平均IoUを30.85に改善し、平均絶対計画誤差を1.0mに下げる。
論文 参考訳(メタデータ) (2025-03-10T13:50:23Z) - LargeAD: Large-Scale Cross-Sensor Data Pretraining for Autonomous Driving [88.85002707211777]
LargeADは多用途でスケーラブルなフレームワークで、さまざまな現実世界の運転データセットにわたる大規模3D事前トレーニング用に設計されている。
我々のフレームワークはVFMを利用して2次元画像から意味的にリッチなスーパーピクセルを抽出する。
このアライメントは、クロスモーダルな表現学習を促進し、2Dデータと3Dデータのセマンティック一貫性を高める。
論文 参考訳(メタデータ) (2025-01-07T18:59:59Z) - 3D UAV Trajectory Planning for IoT Data Collection via Matrix-Based Evolutionary Computation [10.91369146380236]
連続時間空間領域上の3次元UAV軌道の計画は、計算集約的な問題である。
非効率な制約最適化問題に対処するために,制約付き行列ベース微分進化法(MDECH)を提案する。
論文 参考訳(メタデータ) (2024-10-08T07:33:48Z) - Deep Learning-based Cross-modal Reconstruction of Vehicle Target from Sparse 3D SAR Image [6.499547636078961]
本稿では,光学情報を融合させることで,車両のスパース3D SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
CMAR-Netは、高度にスパースな観察から得られたスパース3次元SAR画像を視覚的に構造化された3次元車両画像に再構成し、効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。