論文の概要: RadioGen3D: 3D Radio Map Generation via Adversarial Learning on Large-Scale Synthetic Data
- arxiv url: http://arxiv.org/abs/2602.18744v1
- Date: Sat, 21 Feb 2026 07:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.280038
- Title: RadioGen3D: 3D Radio Map Generation via Adversarial Learning on Large-Scale Synthetic Data
- Title(参考訳): RadioGen3D:大規模合成データの逆学習による3次元ラジオマップ生成
- Authors: Junshen Chen, Angzi Xu, Zezhong Zhang, Shiyao Zhang, Junting Chen, Shuguang Cui,
- Abstract要約: 将来の6Gおよび低高度ネットワークにおける効率的な無線資源管理には,無線地図が不可欠である。
ディープ・ラーニング(DL)技術は、無線地図推定における従来のレイトレーシングに代わる効果的な代替手段として登場した。
提案するRadioGen3Dフレームワークは,本質的な3次元信号伝搬特性とアンテナ偏光効果を捉える。
- 参考スコア(独自算出の注目度): 62.63849426834315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radio maps are essential for efficient radio resource management in future 6G and low-altitude networks. While deep learning (DL) techniques have emerged as an efficient alternative to conventional ray-tracing for radio map estimation (RME), most existing DL approaches are confined to 2D near-ground scenarios. They often fail to capture essential 3D signal propagation characteristics and antenna polarization effects, primarily due to the scarcity of 3D data and training challenges. To address these limitations, we present the RadioGen3D framework. First, we propose an efficient data synthesis method to generate high-quality 3D radio map data. By establishing a parametric target model that captures 2D ray-tracing and 3D channel fading characteristics, we derive realistic coefficient combinations from minimal real measurements, enabling the construction of a large-scale synthetic dataset, Radio3DMix. Utilizing this dataset, we propose a 3D model training scheme based on a conditional generative adversarial network (cGAN), yielding a 3D U-Net capable of accurate RME under diverse input feature combinations. Experimental results demonstrate that RadioGen3D surpasses all baselines in both estimation accuracy and speed. Furthermore, fine-tuning experiments verify its strong generalization capability via successful knowledge transfer.
- Abstract(参考訳): 将来の6Gおよび低高度ネットワークにおける効率的な無線資源管理には,無線地図が不可欠である。
深層学習(DL)技術はラジオマップ推定(RME)における従来のレイトレーシングに代わる効果的な手法として登場したが、既存のDL手法のほとんどは2次元近地シナリオに限られている。
それらは、主に3Dデータの不足と訓練上の課題のために、必須の3D信号伝搬特性とアンテナ偏光効果を捉えるのに失敗することが多い。
これらの制限に対処するため、RadioGen3Dフレームワークを提示する。
まず,高品質な3次元無線地図データを生成するための効率的なデータ合成手法を提案する。
2次元線トレーシングと3次元チャネルフェード特性を捉えるパラメトリックターゲットモデルを確立することにより、最小の実測値から現実的な係数の組み合わせを導出し、大規模合成データセットRadio3DMixの構築を可能にする。
このデータセットを用いて,条件付き生成逆数ネットワーク(cGAN)に基づく3次元モデルトレーニング手法を提案する。
実験の結果,RadioGen3Dは推定精度と速度の両方で全ベースラインを超えることがわかった。
さらに、微調整実験は、知識伝達を成功させることで、その強力な一般化能力を検証する。
関連論文リスト
- Bridging Visual and Wireless Sensing: A Unified Radiation Field for 3D Radio Map Construction [14.26926951448715]
次世代無線ネットワークは、高忠実な環境インテリジェンスを必要とする。
この目的のために、重要なツールとして3Dラジオマップが登場した。
我々は、統一された放射光場表現フレームワークであるURF-GSを提案する。
論文 参考訳(メタデータ) (2026-01-27T05:35:50Z) - RadioDiff-3D: A 3D$\times$3D Radio Map Dataset and Generative Diffusion Based Benchmark for 6G Environment-Aware Communication [76.6171399066216]
UrbanRadio3Dは、現実的な都市環境におけるレイトレーシングによって構築された大規模で高解像度の3D RMデータセットである。
RadioDiff-3Dは3D畳み込みアーキテクチャを利用した拡散モデルに基づく生成フレームワークである。
この研究は、将来の3D環境対応コミュニケーション研究のための基礎的なデータセットとベンチマークを提供する。
論文 参考訳(メタデータ) (2025-07-16T11:54:08Z) - Bridging Simulation and Reality: A 3D Clustering-Based Deep Learning Model for UAV-Based RF Source Localization [0.0]
無人航空機(UAV)は、地上法よりもRFソースの局所化に大きな利点をもたらす。
近年のディープラーニング(DL)の進歩は,特に屋外シナリオにおいて,局所化の精度をさらに高めた。
本稿では、3Dクラスタリングに基づく特徴抽出をロバストなローカライゼーションに活用するDLベースの3DクラスタベースRealAdaptRNetを提案する。
論文 参考訳(メタデータ) (2025-02-02T05:48:44Z) - A Lesson in Splats: Teacher-Guided Diffusion for 3D Gaussian Splats Generation with 2D Supervision [65.33043028101471]
本稿では,2次元監視のみを用いた3次元画像調和拡散モデルの学習フレームワークを提案する。
既存の3D生成モデルは、大規模な3Dデータセットが不足しているため、完全に3Dの監視に依存している。
論文 参考訳(メタデータ) (2024-12-01T00:29:57Z) - Deep Learning-based Cross-modal Reconstruction of Vehicle Target from Sparse 3D SAR Image [6.499547636078961]
本稿では,光学情報を融合させることで,車両のスパース3D SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
CMAR-Netは、高度にスパースな観察から得られたスパース3次元SAR画像を視覚的に構造化された3次元車両画像に再構成し、効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。