論文の概要: calibfusion: Transformer-Based Differentiable Calibration for Radar-Camera Fusion Detection in Water-Surface Environments
- arxiv url: http://arxiv.org/abs/2603.06670v1
- Date: Tue, 03 Mar 2026 04:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.700353
- Title: calibfusion: Transformer-Based Differentiable Calibration for Radar-Camera Fusion Detection in Water-Surface Environments
- Title(参考訳): キャリブフュージョン:水面環境におけるレーダー・カメラ核融合検出のための変圧器による微分キャリブレーション
- Authors: Yuting Wan, Liguo Sun, Jiuwu Hao, Pin LV,
- Abstract要約: CalibFusionはキャリブレーション条件のレーダー-カメラ核融合検出器である。
検出目的によって、暗黙の非本質的な洗練をエンドツーエンドに学習する。
実験では, 核融合による2次元検出と, 合成ミスキャリブレーションによるロバスト性の改善が示された。
- 参考スコア(独自算出の注目度): 3.555701659243434
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Millimeter-wave (mmWave) Radar--Camera fusion improves perception under adverse illumination and weather, but its performance is sensitive to Radar--Camera extrinsic calibration: residual misalignment biases Radar-to-image projection and degrades cross-modal aggregation for downstream 2D detection. Existing calibration and auto-calibration methods are mainly developed for road and urban scenes with abundant structures and object constraints, whereas water-surface environments feature large textureless regions, sparse and intermittent targets, and wave-/specular-induced Radar clutter, which weakens explicit object-centric matching. We propose CalibFusion, a calibration-conditioned Radar--Camera fusion detector that learns implicit extrinsic refinement end-to-end with the detection objective. CalibFusion builds a multi-frame persistence-aware Radar density representation with intensity weighting and Doppler-guided suppression of fast-varying clutter. A cross-modal transformer interaction module predicts a confidence-gated refinement of the initial extrinsics, which is integrated through a differentiable projection-and-splatting operator to generate calibration-conditioned image-plane Radar features. Experiments on WaterScenes and FLOW show improved fusion-based 2D detection and robustness under synthetic miscalibration, supported by sensitivity analyses and qualitative Radar-to-image overlays. Results on nuScenes indicate that the refinement mechanism transfers beyond water-surface scenarios.
- Abstract(参考訳): ミリ波(mmWave)レーダー-カメラ融合は、悪照明と天候下での認識を改善するが、その性能は、レーダー-カメラ外装キャリブレーションに敏感である。
既存のキャリブレーションとオートキャリブレーションは, 道路や都市部において, 構造や制約が豊富で, 水面環境は大きなテクスチャレス領域, スパースおよび間欠的ターゲット, および波動誘起レーダ・クラッタを特徴とし, 明示的な対象中心マッチングを弱める。
本稿では,キャリブレーション条件付きレーダ-カメラ融合検出器CalibFusionを提案する。
CalibFusionは、強度重み付けと高速変動クラッタのドップラー誘導抑制を備えた多フレーム持続型レーダ密度表現を構築する。
クロスモーダル・トランスフォーマー・インタラクション・モジュールは、キャリブレーション条件付き画像平面レーダ特徴を生成するために、可変プロジェクション・アンド・スプレイティング演算子を介して統合された初期外部の信頼性ゲートの洗練を予測する。
WaterScenes と FLOW の実験では, 感度解析と定性的レーダ対画像オーバーレイにより, 核融合による2次元検出と, 合成誤校正下での堅牢性が改善された。
nuScenesの結果は、精製機構が水面シナリオを超えて移動することを示している。
関連論文リスト
- physfusion: A Transformer-based Dual-Stream Radar and Vision Fusion Framework for Open Water Surface Object Detection [3.3795150675738808]
PhysFusionは、水面知覚のための物理インフォームドレーダー画像検出フレームワークである。
物理インレーダ(PIR)とRCSマッパーと品質ゲートを統合し、ポイント当たりのレーダ特性をコンパクトな散乱前処理に変換する。
WaterScenesとFLOWの実験は、PhysFusionがWaterScenesで59.7% mAP50:95と90.3% mAP50を達成したことを示している。
論文 参考訳(メタデータ) (2026-03-02T15:00:22Z) - RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - SFGFusion: Surface Fitting Guided 3D Object Detection with 4D Radar and Camera Fusion [12.877894178462297]
表面実装で誘導される新しいカメラ4Dイメージングレーダ検出ネットワークであるSFGFusionを紹介する。
明示的な表面嵌合モデルにより、空間表現とクロスモーダル相互作用が向上し、より信頼性の高い細粒度深度予測が可能となる。
実験結果から、SFGFusionはカメラと4Dレーダを効果的に融合させ、TJ4DRadSetとVoD(View-of-delft)オブジェクト検出ベンチマークにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-10-22T03:56:27Z) - DoppDrive: Doppler-Driven Temporal Aggregation for Improved Radar Object Detection [6.0158981171030685]
既存の手法では時間的アグリゲーションとエゴモーション補償によって点密度を増大させるが,本手法では動的物体からの散乱を導入し,検出性能を劣化させる。
散乱を最小化しながらレーダ点雲密度を増大させる新しいドップラー駆動時間アグリゲーション法であるDoppDriveを提案する。
DoppDriveは、検出前に適用された点雲密度向上ステップであり、あらゆる検出器と互換性があり、さまざまな検出器やデータセットのオブジェクト検出性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-08-17T11:24:46Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。