論文の概要: REXO: Indoor Multi-View Radar Object Detection via 3D Bounding Box Diffusion
- arxiv url: http://arxiv.org/abs/2511.17806v1
- Date: Fri, 21 Nov 2025 21:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.438595
- Title: REXO: Indoor Multi-View Radar Object Detection via 3D Bounding Box Diffusion
- Title(参考訳): REXO:3次元バウンディングボックス拡散による屋内マルチビューレーダ物体検出
- Authors: Ryoma Yataka, Pu Perry Wang, Petros Boufounos, Ryuhei Takahashi,
- Abstract要約: 多視点屋内レーダ認識は、コスト効率とプライバシーリスクの低さから注目されている。
我々はDiffusionDetの2次元バウンディングボックス(BBox)拡散過程を3次元レーダ空間に持ち上げる textbfREXO (multi-view Radar object dEtection with 3D bounding boX diffusiOn) を提案する。
- 参考スコア(独自算出の注目度): 20.55665541638396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view indoor radar perception has drawn attention due to its cost-effectiveness and low privacy risks. Existing methods often rely on {implicit} cross-view radar feature association, such as proposal pairing in RFMask or query-to-feature cross-attention in RETR, which can lead to ambiguous feature matches and degraded detection in complex indoor scenes. To address these limitations, we propose \textbf{REXO} (multi-view Radar object dEtection with 3D bounding boX diffusiOn), which lifts the 2D bounding box (BBox) diffusion process of DiffusionDet into the 3D radar space. REXO utilizes these noisy 3D BBoxes to guide an {explicit} cross-view radar feature association, enhancing the cross-view radar-conditioned denoising process. By accounting for prior knowledge that the person is in contact with the ground, REXO reduces the number of diffusion parameters by determining them from this prior. Evaluated on two open indoor radar datasets, our approach surpasses state-of-the-art methods by a margin of +4.22 AP on the HIBER dataset and +11.02 AP on the MMVR dataset.
- Abstract(参考訳): 多視点屋内レーダ認識は、コスト効率とプライバシーリスクの低さから注目されている。
既存の手法では、RFMaskでのプロポーザルペアリングやRETRでのクエリ・ツー・フェース・クロスアテンションなど、複雑な屋内シーンにおける不明瞭な特徴マッチングや劣化検出といった、単純なクロスビューレーダ機能アソシエーションに依存していることが多い。
これらの制約に対処するため、DiffusionDetの2次元境界ボックス(BBox)拡散過程を3次元レーダ空間に持ち上げる「textbf{REXO} (multi-view Radar object dEtection with 3D bounding boX diffusiOn)」を提案する。
REXOは、これらのノイズの多い3D BBoxを使用して、対向レーダー特徴連合を誘導し、対向レーダー条件付きノイズ発生プロセスを強化する。
地上に接触しているという事前の知識を考慮に入れ、REXOはそれに基づいて拡散パラメータの数を減少させる。
オープンな屋内レーダデータセットを2つ評価し、HBERデータセットの+4.22 APとMMVRデータセットの+11.02 APのマージンで最先端の手法を超越した手法を提案する。
関連論文リスト
- Revisiting Radar Camera Alignment by Contrastive Learning for 3D Object Detection [31.69508809666884]
レーダとカメラ融合に基づく3次元物体検出アルゴリズムは優れた性能を示した。
レーダカメラアライメント(RCAlign)と呼ばれる新しいアライメントモデルを提案する。
具体的には、対向学習に基づくデュアルルートアライメント(DRA)モジュールを設計し、レーダとカメラの機能の整合と融合を図る。
レーダBEV特性の空間性を考慮すると,レーダBEV特性の密度化を改善するためにRFEモジュールが提案されている。
論文 参考訳(メタデータ) (2025-04-23T02:41:43Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RCM-Fusion: Radar-Camera Multi-Level Fusion for 3D Object Detection [15.686167262542297]
本稿では,機能レベルとインスタンスレベルの両モードを融合するRadar-Camera Multi-level fusion (RCM-Fusion)を提案する。
特徴レベルの融合のために,カメラ特徴を正確なBEV表現に変換するRadar Guided BEVを提案する。
実例レベルでの融合では,ローカライズエラーを低減するRadar Grid Point Refinementモジュールを提案する。
論文 参考訳(メタデータ) (2023-07-17T07:22:25Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。