論文の概要: Multi-Representation Adapter with Neural Architecture Search for Efficient Range-Doppler Radar Object Detection
- arxiv url: http://arxiv.org/abs/2509.01280v1
- Date: Mon, 01 Sep 2025 09:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.616696
- Title: Multi-Representation Adapter with Neural Architecture Search for Efficient Range-Doppler Radar Object Detection
- Title(参考訳): ニューラルネットワークを用いた高効率レンジドップラーレーダ物体検出のための多表現適応器
- Authors: Zhiwei Lin, Weicheng Zheng, Yongtao Wang,
- Abstract要約: 本稿では、レンジドップラーレーダマップのための効率的な物体検出モデルを提案する。
まず,多表現のRDレーダマップ,すなわちヒートマップとグレースケールの画像を表現し,高レベルなオブジェクトときめ細かいテクスチャの特徴を収集する。
我々は,高性能を保ちながらモデルの効率をさらに向上するために,ワンショットニューラルアーキテクチャ探索法を用いる。
- 参考スコア(独自算出の注目度): 16.02875655103583
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Detecting objects efficiently from radar sensors has recently become a popular trend due to their robustness against adverse lighting and weather conditions compared with cameras. This paper presents an efficient object detection model for Range-Doppler (RD) radar maps. Specifically, we first represent RD radar maps with multi-representation, i.e., heatmaps and grayscale images, to gather high-level object and fine-grained texture features. Then, we design an additional Adapter branch, an Exchanger Module with two modes, and a Primary-Auxiliary Fusion Module to effectively extract, exchange, and fuse features from the multi-representation inputs, respectively. Furthermore, we construct a supernet with various width and fusion operations in the Adapter branch for the proposed model and employ a One-Shot Neural Architecture Search method to further improve the model's efficiency while maintaining high performance. Experimental results demonstrate that our model obtains favorable accuracy and efficiency trade-off. Moreover, we achieve new state-of-the-art performance on RADDet and CARRADA datasets with mAP@50 of 71.9 and 57.1, respectively.
- Abstract(参考訳): 近年,レーダーセンサから物体を効率よく検出する手法が注目されている。
本稿では,Range-Doppler (RD) レーダマップに対する効率的な物体検出モデルを提案する。
具体的には,まず多表現のRDレーダマップ,すなわちヒートマップとグレースケールの画像を表現し,高レベルなオブジェクトときめ細かいテクスチャの特徴を収集する。
次に,2つのモードを持つ交換器モジュールと1次補助核融合モジュールを設計し,多表現入力から各特徴を効果的に抽出し,交換し,ヒューズする。
さらに,提案モデルに対するアダプタ分岐に様々な幅と融合操作を施したスーパーネットを構築し,高い性能を維持しつつモデルの効率をさらに向上するためにワンショットニューラルネットワーク探索法を用いる。
実験結果から,本モデルは良好な精度と効率のトレードオフが得られることが示された。
さらに, RADDet と CARRADA のデータセットに対して, mAP@50 の 71.9 と 57.1 の新たな最先端性能を実現する。
関連論文リスト
- RCDINO: Enhancing Radar-Camera 3D Object Detection with DINOv2 Semantic Features [0.0]
3次元物体検出は、自律走行とロボット工学にとって不可欠である。
この研究は、視覚バックボーン機能を強化するマルチモーダルトランスフォーマーベースのモデルであるRCDINOを提案する。
nuScenesデータセットの実験では、RCDINOがレーダーカメラモデル間で最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2025-08-21T08:33:36Z) - Lightweight RGB-D Salient Object Detection from a Speed-Accuracy Tradeoff Perspective [54.91271106816616]
現在のRGB-D法は通常、大規模なバックボーンを利用して精度を向上させるが効率を犠牲にする。
本稿では,軽量RGB-D SODのためのSATNet(Speed-Accuracy Tradeoff Network)を提案する。
深度について,高品質の深度マップを生成するための深度任意のモデルを導入する。
モダリティ融合において,モダリティ間の整合性を検討するために,DAM(Decoupled Attention Module)を提案する。
特徴表現のために,双方向の反転フレームワークを用いたDIRM (Dual Information Representation Module) を開発した。
論文 参考訳(メタデータ) (2025-05-07T19:37:20Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - Multi-Modal Domain Fusion for Multi-modal Aerial View Object
Classification [4.438928487047433]
マルチモーダルデータから領域不変性を学習するために,新しいマルチモーダルドメイン融合(MDF)ネットワークを提案する。
ネットワークはTrack-1で25.3%、Track-2でトップ5で34.26%の精度でトップ10のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-12-14T05:14:02Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。