論文の概要: RadioDiff-3D: A 3D$\times$3D Radio Map Dataset and Generative Diffusion Based Benchmark for 6G Environment-Aware Communication
- arxiv url: http://arxiv.org/abs/2507.12166v1
- Date: Wed, 16 Jul 2025 11:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.379436
- Title: RadioDiff-3D: A 3D$\times$3D Radio Map Dataset and Generative Diffusion Based Benchmark for 6G Environment-Aware Communication
- Title(参考訳): RadioDiff-3D: A 3D$\times$3D Radio Map Dataset and Generative Diffusion Based Benchmark for 6G Environment-Aware Communication
- Authors: Xiucheng Wang, Qiming Zhang, Nan Cheng, Junting Chen, Zezhong Zhang, Zan Li, Shuguang Cui, Xuemin Shen,
- Abstract要約: UrbanRadio3Dは、現実的な都市環境におけるレイトレーシングによって構築された大規模で高解像度の3D RMデータセットである。
RadioDiff-3Dは3D畳み込みアーキテクチャを利用した拡散モデルに基づく生成フレームワークである。
この研究は、将来の3D環境対応コミュニケーション研究のための基礎的なデータセットとベンチマークを提供する。
- 参考スコア(独自算出の注目度): 76.6171399066216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radio maps (RMs) serve as a critical foundation for enabling environment-aware wireless communication, as they provide the spatial distribution of wireless channel characteristics. Despite recent progress in RM construction using data-driven approaches, most existing methods focus solely on pathloss prediction in a fixed 2D plane, neglecting key parameters such as direction of arrival (DoA), time of arrival (ToA), and vertical spatial variations. Such a limitation is primarily due to the reliance on static learning paradigms, which hinder generalization beyond the training data distribution. To address these challenges, we propose UrbanRadio3D, a large-scale, high-resolution 3D RM dataset constructed via ray tracing in realistic urban environments. UrbanRadio3D is over 37$\times$3 larger than previous datasets across a 3D space with 3 metrics as pathloss, DoA, and ToA, forming a novel 3D$\times$33D dataset with 7$\times$3 more height layers than prior state-of-the-art (SOTA) dataset. To benchmark 3D RM construction, a UNet with 3D convolutional operators is proposed. Moreover, we further introduce RadioDiff-3D, a diffusion-model-based generative framework utilizing the 3D convolutional architecture. RadioDiff-3D supports both radiation-aware scenarios with known transmitter locations and radiation-unaware settings based on sparse spatial observations. Extensive evaluations on UrbanRadio3D validate that RadioDiff-3D achieves superior performance in constructing rich, high-dimensional radio maps under diverse environmental dynamics. This work provides a foundational dataset and benchmark for future research in 3D environment-aware communication. The dataset is available at https://github.com/UNIC-Lab/UrbanRadio3D.
- Abstract(参考訳): 無線地図(RM)は、環境に配慮した無線通信を可能にする重要な基盤として機能し、無線チャネル特性の空間分布を提供する。
データ駆動型アプローチによる最近のRM構築の進歩にもかかわらず、既存の手法のほとんどは、固定された2次元平面におけるパスロス予測のみに焦点を当てており、到着方向(DoA)、到着時刻(ToA)、垂直空間変動といった重要なパラメータを無視している。
このような制限は主に、トレーニングデータ分布を超えて一般化を妨げる静的学習パラダイムに依存しているためである。
これらの課題に対処するために,現実的な都市環境におけるレイトレーシングによって構築された大規模で高解像度の3D RMデータセットであるUrbanRadio3Dを提案する。
UrbanRadio3Dは、パスス、DoA、ToAの3つのメトリクスを持つ3D空間の以前のデータセットよりも37$\times$3大きく、新しい3D$\times$33Dデータセットで、以前の最先端(SOTA)データセットよりも7$\times$3高層を形成する。
3次元RM構築のベンチマークを行うために、3次元畳み込み演算子を持つUNetを提案する。
さらに,3次元畳み込み構造を利用した拡散モデルに基づく生成フレームワークRadioDiff-3Dについても紹介する。
RadioDiff-3D は、既知の送信機の位置と、空間観測の疎度に基づく放射線を意識しない設定の両方をサポートする。
UrbanRadio3Dの広範囲な評価により,RadioDiff-3Dは多様な環境動態下でのリッチで高次元無線地図構築において優れた性能を発揮することが確認された。
この研究は、将来の3D環境対応コミュニケーション研究のための基礎的なデータセットとベンチマークを提供する。
データセットはhttps://github.com/UNIC-Lab/UrbanRadio3Dで公開されている。
関連論文リスト
- Real-IAD D3: A Real-World 2D/Pseudo-3D/3D Dataset for Industrial Anomaly Detection [53.2590751089607]
Real-IAD D3は高精度なマルチモーダルデータセットであり、フォトメトリックステレオによって生成された擬似3Dモダリティが組み込まれている。
本稿では,RGB,点雲,擬似3次元深度情報を統合し,各モードの相補的強度を活用する効果的な手法を提案する。
本実験は,検出の堅牢性向上とIAD全体の性能向上におけるこれらのモダリティの重要性を強調した。
論文 参考訳(メタデータ) (2025-04-19T08:05:47Z) - Automating 3D Dataset Generation with Neural Radiance Fields [0.0]
パフォーマンス検出モデルのトレーニングには、多様な、正確に注釈付けされた、大規模なデータセットが必要である。
任意のオブジェクトに対する3Dデータセットの自動生成のためのパイプラインを提案する。
私たちのパイプラインは速く、使いやすく、高度な自動化があります。
論文 参考訳(メタデータ) (2025-03-20T10:01:32Z) - Generative AI on SpectrumNet: An Open Benchmark of Multiband 3D Radio Maps [27.47557161446951]
本稿では、SpectrumNetデータセット生成のためのパラメータと設定を紹介し、SpectrumNetデータセットに基づいて、無線マップ構築のための3つのベースライン手法を評価する。
実験では、空間、周波数、シナリオドメインを強く一般化したトレーニングモデルのためのSpectrumNetデータセットの必要性が示されている。
論文 参考訳(メタデータ) (2024-08-09T07:54:11Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Differentiable Radio Frequency Ray Tracing for Millimeter-Wave Sensing [29.352303349003165]
我々はmmWaveベースの3D再構成のための微分可能なフレームワークDiffSBRを提案する。
DiffSBRは、仮想3Dモデルからレーダーポイント雲をシミュレートするために、微分可能なレイトレーシングエンジンを組み込んでいる。
各種レーダーハードウェアを用いた実験は、ディフSBRの微細な3D再構成能力を検証する。
論文 参考訳(メタデータ) (2023-11-22T06:13:39Z) - Towards Robust Robot 3D Perception in Urban Environments: The UT Campus
Object Dataset [7.665779592030094]
CODaはテキサス大学オースティン校地で収集された移動ロボットの自我中心の知覚データセットである。
私たちのデータセットには8.5時間のマルチモーダルセンサーデータが含まれています。同期3Dポイントクラウドと128チャンネルのLiDARからのステレオRGBビデオと10fpsの1.25MPのRGBカメラです。
我々は,53のセマンティッククラスに対するインスタンスID,5000の3Dセマンティックアノテーションを含む1.3百万個の3Dバウンディングボックスを含む58分間の地中トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2023-09-24T04:43:39Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - Cross3DVG: Cross-Dataset 3D Visual Grounding on Different RGB-D Scans [6.936271803454143]
3Dシーンにおけるクロスデータセット視覚的グラウンド化のための新しいタスク(Cross3DVG)を提案する。
大規模な3DビジュアルグラウンドデータセットであるROOReferを作成しました。
3RScanの1,380の屋内RGB-Dスキャンで、63万以上の3Dオブジェクトが記述されている。
論文 参考訳(メタデータ) (2023-05-23T09:52:49Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。