論文の概要: RISE: Single Static Radar-based Indoor Scene Understanding
- arxiv url: http://arxiv.org/abs/2511.14019v1
- Date: Tue, 18 Nov 2025 00:56:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.860602
- Title: RISE: Single Static Radar-based Indoor Scene Understanding
- Title(参考訳): RISE:シングル静的レーダーによる屋内シーン理解
- Authors: Kaichen Zhou, Laura Dodds, Sayed Saad Afzal, Fadel Adib,
- Abstract要約: RISEは,シングルスタティックレーダ屋内シーン理解のための最初のベンチマークおよびシステムである。
本稿では,2次反射(ゴースト)を復元し,目に見えない構造を明らかにするために,Agle-of-ArrivalとAngle-of-Departureを明示的にモデル化したBi-Angular Multipath拡張を提案する。
われわれのベンチマークでは、100の屋内軌道に5万のフレームが集められており、レーダーによる屋内シーンの理解に特化した最初の大規模データセットとなっている。
- 参考スコア(独自算出の注目度): 10.100641106431354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust and privacy-preserving indoor scene understanding remains a fundamental open problem. While optical sensors such as RGB and LiDAR offer high spatial fidelity, they suffer from severe occlusions and introduce privacy risks in indoor environments. In contrast, millimeter-wave (mmWave) radar preserves privacy and penetrates obstacles, but its inherently low spatial resolution makes reliable geometric reasoning difficult. We introduce RISE, the first benchmark and system for single-static-radar indoor scene understanding, jointly targeting layout reconstruction and object detection. RISE is built upon the key insight that multipath reflections, traditionally treated as noise, encode rich geometric cues. To exploit this, we propose a Bi-Angular Multipath Enhancement that explicitly models Angle-of-Arrival and Angle-of-Departure to recover secondary (ghost) reflections and reveal invisible structures. On top of these enhanced observations, a simulation-to-reality Hierarchical Diffusion framework transforms fragmented radar responses into complete layout reconstruction and object detection. Our benchmark contains 50,000 frames collected across 100 real indoor trajectories, forming the first large-scale dataset dedicated to radar-based indoor scene understanding. Extensive experiments show that RISE reduces the Chamfer Distance by 60% (down to 16 cm) compared to the state of the art in layout reconstruction, and delivers the first mmWave-based object detection, achieving 58% IoU. These results establish RISE as a new foundation for geometry-aware and privacy-preserving indoor scene understanding using a single static radar.
- Abstract(参考訳): ロバストでプライバシーを保護している屋内シーンの理解は、依然として根本的なオープンな問題である。
RGBやLiDARのような光学センサーは空間的忠実度が高いが、深刻な閉塞に悩まされ、屋内環境にプライバシーリスクが生じる。
対照的にミリ波レーダーはプライバシーを守り障害物を貫通するが、本質的に空間分解能が低いため、信頼性の高い幾何学的推論は困難である。
RISEは,レイアウトの再構築とオブジェクト検出を共同でターゲットとした,シングルスタティックレーダ屋内シーン理解のための,最初のベンチマークおよびシステムである。
RISEは、伝統的にノイズとして扱われるマルチパス反射がリッチな幾何学的手がかりをエンコードするという重要な洞察に基づいて構築されている。
これを活用するために,2次(ゴースト)反射を復元し,目に見えない構造を明らかにするために,Agle-of-ArrivalとAngle-of-Departureを明示的にモデル化したBi-Angular Multipath拡張を提案する。
これらの強化された観測に加えて、シミュレーションと現実の階層的拡散フレームワークは、断片化されたレーダー応答を完全なレイアウト再構築とオブジェクト検出に変換する。
われわれのベンチマークでは、100の屋内軌道に5万のフレームが集められており、レーダーによる屋内シーンの理解に特化した最初の大規模データセットとなっている。
広範囲な実験により、RISEはレイアウト再構築の最先端と比較してチャンファー距離を60%(下方16cm)削減し、最初のmmWaveベースの物体検出を行い、58%のIoUを達成した。
これらの結果は、RISEを1つの静的レーダーを用いた幾何学的およびプライバシー保護的な屋内シーン理解のための新しい基盤として確立する。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Structure-Aware Radar-Camera Depth Estimation [10.13373000424379]
本稿では,SA-RCDという構造認識型レーダーカメラ深度推定フレームワークを提案する。
我々のSA-RCDはnuScenesデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-06-05T13:18:48Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks [18.17057711053028]
オブジェクト検出の強化のために,レーダデータとライダーデータを統合したデュアルブランチフレームワークを提案する。
この結果は、最先端の手法を1.89%ドルと2.61%ドルで上回り、好ましくない気象条件で上回っていることを示している。
論文 参考訳(メタデータ) (2023-10-30T10:18:40Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Radar Guided Dynamic Visual Attention for Resource-Efficient RGB Object
Detection [10.983063391496543]
自動運転車の認識品質を向上させるために,RGB画像に対する新しいレーダー誘導空間アテンションを提案する。
提案手法は,RGBモードの物体検出装置では検出されない小型・長距離物体の知覚を改善する。
論文 参考訳(メタデータ) (2022-06-03T18:29:55Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。